JP2015085501A - Robot, robot system and robot control device - Google Patents

Robot, robot system and robot control device Download PDF

Info

Publication number
JP2015085501A
JP2015085501A JP2013228840A JP2013228840A JP2015085501A JP 2015085501 A JP2015085501 A JP 2015085501A JP 2013228840 A JP2013228840 A JP 2013228840A JP 2013228840 A JP2013228840 A JP 2013228840A JP 2015085501 A JP2015085501 A JP 2015085501A
Authority
JP
Japan
Prior art keywords
robot
contact point
opening
point
initial contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013228840A
Other languages
Japanese (ja)
Other versions
JP6314429B2 (en
Inventor
浩之 川田
Hiroyuki Kawada
浩之 川田
勇貴 清澤
Yuki Kiyosawa
勇貴 清澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013228840A priority Critical patent/JP6314429B2/en
Publication of JP2015085501A publication Critical patent/JP2015085501A/en
Application granted granted Critical
Publication of JP6314429B2 publication Critical patent/JP6314429B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently fit one object into an opening of the other object.SOLUTION: A robot for fitting an opening of a first object onto a protrusion of a second object includes a force sensor and hands. The robot grips the first object by one of the hands and moves the opening of the first object closer to the protrusion of the second object. Further, a robot control device for controlling the robot such that the opening of the first object is moved closer to the protrusion of the second object can also execute operation of the robot which includes the force sensor and the hands, grips the first object by one of the hands and fits the opening of the first object onto the protrusion of the second object.

Description

本発明は、ロボット、ロボットシステム、及びロボット制御装置に関する。   The present invention relates to a robot, a robot system, and a robot control apparatus.

製造等の作業現場では、組み立て等の作業にロボットを用いることで、人手で行っていた作業の自動化が図られてきた。ロボットによる組み立て作業では、ロボットアームの先端のハンド等で部品等の対象物を把持し、他の対象物に組み付ける動作がなされることがある。そのような動作には、例えば、被挿入物上に挿入物を接触させ、その接触させた状態のまま力制御により挿入物を被挿入物に挿入することがある。このような場合に、被挿入物上に挿入物を接触させる方法としては、例えば、特許文献1に記載されているように、テーブル等に載置された被挿入物である穴を有する対象物に対して、ロボットハンドにより把持した挿入物であるワークを移動させる方法が考えられる。   At work sites such as manufacturing, automation of work that has been performed manually has been attempted by using robots for work such as assembly. In the assembly work by the robot, there is a case where an object such as a part is grasped by a hand at the tip of the robot arm and assembled to another object. In such an operation, for example, there is a case where an insert is brought into contact with the insert, and the insert is inserted into the insert by force control in the contacted state. In such a case, as a method of bringing the insert into contact with the insert, for example, as described in Patent Document 1, an object having a hole that is an insert placed on a table or the like On the other hand, a method of moving a workpiece which is an insert grasped by a robot hand can be considered.

特開2010−137299号公報JP 2010-137299 A

特許文献1に記載の方法では、被挿入物である対象物の穴の位置を事前に把握する必要があるところ、穴の位置を把握する方法として、例えばカメラによって対象物を撮像し、その撮像画像から穴の位置を検出する方法が考えられる。しかし、例えば被挿入物が歯車である場合、歯車の穴の大きさが小さい場合があり、歯車の穴の位置を正確に把握することが困難な場合がある。その結果、歯車の穴から遠い位置に、ロボットハンドにより把持した挿入物である軸を接触させることになり、歯車の穴に軸を挿入するまでに時間が掛かってしまう。また、場合によれば、軸を歯車の穴に近づけることができず、歯車の穴に軸を挿入することができなくなってしまうおそれもある。   In the method described in Patent Document 1, it is necessary to grasp in advance the position of the hole of the object that is the object to be inserted. As a method of grasping the position of the hole, for example, the object is imaged by a camera, A method for detecting the position of a hole from an image can be considered. However, for example, when the insert is a gear, the size of the hole of the gear may be small, and it may be difficult to accurately grasp the position of the hole of the gear. As a result, the shaft that is the insert grasped by the robot hand is brought into contact with a position far from the gear hole, and it takes time to insert the shaft into the gear hole. In some cases, the shaft cannot be brought close to the gear hole, and the shaft cannot be inserted into the gear hole.

(1)本発明の一態様は、第1の対象物の開口部を第2の対象物の突起部に挿入するロボットであって、力センサーと、ハンドと、を含み、前記ハンドにより、前記第1の対象物を把持し、前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づける、ロボットである。
この構成によれば、開口部を有する第1の対象物を突起部に近づけるところ、開口部の面積よりも突起部の表面積の方が大きいため突起物を画像等により検出しやすくなり、第1の対象物を第2の対象物に挿入しやすくなる。
(1) One aspect of the present invention is a robot that inserts an opening of a first object into a protrusion of a second object, and includes a force sensor and a hand. The robot grips a first object and brings the opening of the first object closer to the protrusion of the second object.
According to this configuration, when the first object having the opening is brought close to the protrusion, the surface of the protrusion is larger than the area of the opening, so that the protrusion can be easily detected by an image or the like. It becomes easy to insert the target object into the second target object.

(2)本発明の他の態様は、上述したロボットであって、前記第2の対象物は、載置されている。
この構成によれば、第2の対象物は載置されているところ、第2の対象物の突起部を目標位置とすることで、第1の対象物を第2の対象物に挿入しやすくなる。
(2) Another aspect of the present invention is the robot described above, wherein the second object is placed.
According to this configuration, when the second object is placed, it is easy to insert the first object into the second object by setting the projection of the second object as the target position. Become.

(3)本発明の他の態様は、上述したロボットであって、前記第1の対象物の開口部を前記第2の対象物を目標として動かす際、前記第1の対象物が前記第2の対象物に初めて接触した位置である当初接触点から所定の方向に変位した位置である変位点を設定し、前記第1の対象物が前記第2の対象物に接触した位置である接触点が前記設定した変位点から前記当初接触点に近づくように前記第2の対象物に接触させながら前記第1の対象物を動かすように動作する。
この構成によれば、全体として第1の対象物の開口部に第2の対象物が含まれる位置を効率的に探索することができる。そのため、第1の対象物の開口部に第2の対象物を効率的に嵌め込むことができる。
(3) Another aspect of the present invention is the robot described above, wherein when the opening of the first object is moved with the second object as a target, the first object is the second object. A contact point that is a position at which the first object contacts the second object is set by setting a displacement point that is a position displaced in a predetermined direction from an initial contact point that is a position where the object first contacts the object. Operates to move the first object while contacting the second object so as to approach the initial contact point from the set displacement point.
According to this configuration, the position where the second object is included in the opening of the first object as a whole can be efficiently searched. Therefore, the second object can be efficiently fitted into the opening of the first object.

(4)本発明の他の態様は、上述したロボット制御装置であって、前記当初接触点と前記変位点との間の距離は、前記第1の対象物の位置の誤差に基づく距離である。
この構成によれば、誤差に基づいて第1の対象物を近づける範囲が定められるため、第1の対象物の開口部に第2の対象物が含まれる位置としての可能性がある位置が探索される。
(4) Another aspect of the present invention is the above-described robot control device, wherein the distance between the initial contact point and the displacement point is a distance based on an error in the position of the first object. .
According to this configuration, since the range in which the first object is brought closer is determined based on the error, a position that may be a position where the second object is included in the opening of the first object is searched. Is done.

(5)本発明の他の態様は、上述したロボット制御装置であって、前記接触点が前記変位点と前記当初接触点との間を結ぶ線分から所定の幅を有する領域を網羅する経路上に沿うように前記第1の対象物を動かす。
この構成によれば、第1の対象物の開口部に第2の対象物が含まれる位置として可能性がある位置が漏れなく探索される。
(5) Another aspect of the present invention is the robot control device described above, wherein the contact point covers a region having a predetermined width from a line segment connecting the displacement point and the initial contact point. The first object is moved along
According to this configuration, a potential position where the second object is included in the opening of the first object is searched without omission.

(6)本発明の他の態様は、上述したロボット制御装置であって、前記領域内に前記第2の対象物が検出されなかった場合、前記当初接触点から前記所定の方向とは異なる方向に変位した位置に変位点を再設定し、前記接触点が再設定した変位点から前記当初接触点に近づくように前記第1の対象物を動かすようにロボットの動作を制御する。
この構成によれば、第1の対象物の開口部に第2の対象物が含まれる位置が確実に探索される。
(6) Another aspect of the present invention is the above-described robot control device, wherein a direction different from the predetermined direction from the initial contact point when the second object is not detected in the region. Then, a displacement point is reset to the position displaced to, and the operation of the robot is controlled to move the first object so that the contact point approaches the initial contact point from the reset displacement point.
According to this configuration, a position where the second object is included in the opening of the first object is reliably searched.

(7)本発明の他の態様は、ロボットと、前記ロボットの動作を制御するロボット制御装置とを備えたロボットシステムであって、前記ロボットは、第1の対象物の開口部を第2の対象物の突起部に挿入するロボットであって、力センサーと、ハンドと、を含み、前記ハンドにより、前記第1の対象物を把持し、前記ロボット制御装置は、前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づけるように前記ロボットの動作を制御するロボットシステムである。
この構成によれば、開口部を有する第1の対象物を突起部に近づけるところ、開口部の面積よりも突起部の表面積の方が大きいため突起物を画像等により検出しやすくなり、第1の対象物を第2の対象物に挿入しやすくなる。
(7) Another aspect of the present invention is a robot system including a robot and a robot control device that controls the operation of the robot, wherein the robot opens the opening of the first object to the second A robot that is inserted into a protrusion of an object, and includes a force sensor and a hand, the first object is gripped by the hand, and the robot controller is configured to control the first object. In the robot system, the operation of the robot is controlled so that the opening is brought close to the protrusion of the second object.
According to this configuration, when the first object having the opening is brought close to the protrusion, the surface of the protrusion is larger than the area of the opening, so that the protrusion can be easily detected by an image or the like. It becomes easy to insert the target object into the second target object.

(8)本発明の他の態様は、力センサーと、ハンドと、を含み、前記ハンドにより、第1の対象物を把持し、前記第1の対象物の開口部を第2の対象物の突起部に挿入するロボットの動作を、前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づけるように制御するロボット制御装置である。
この構成によれば、開口部を有する第1の対象物を突起部に近づけるところ、開口部の面積よりも突起部の表面積の方が大きいため突起物を画像等により検出しやすくなり、第1の対象物を第2の対象物に挿入しやすくなる。
(8) Another aspect of the present invention includes a force sensor and a hand, the first object is gripped by the hand, and an opening of the first object is formed on the second object. It is a robot control device that controls the movement of the robot inserted into the protrusion so that the opening of the first object approaches the protrusion of the second object.
According to this configuration, when the first object having the opening is brought close to the protrusion, the surface of the protrusion is larger than the area of the opening, so that the protrusion can be easily detected by an image or the like. It becomes easy to insert the target object into the second target object.

本実施形態に係るロボットシステムの概略図である。It is a schematic diagram of a robot system concerning this embodiment. 本実施形態に係るロボットシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the robot system which concerns on this embodiment. 本実施形態に係るロボットシステムにおける制御の流れの一例を示すブロック図である。It is a block diagram which shows an example of the flow of control in the robot system which concerns on this embodiment. 本実施形態に係るロボット制御処理を示すフローチャートである。It is a flowchart which shows the robot control processing which concerns on this embodiment. 探索領域の一例を示す図である。It is a figure which shows an example of a search area | region. 探索領域の他の例を示す図である。It is a figure which shows the other example of a search area | region. 探索経路の一例を示す図である。It is a figure which shows an example of a search path | route. 探索経路の他の例を示す図である。It is a figure which shows the other example of a search path | route. 探索経路のさらに他の例を示す図である。It is a figure which shows the further another example of a search path | route. 探索経路のまたさらに他の例を示す図である。It is a figure which shows the further another example of a search path | route. 本実施形態に係るロボット制御装置の機能構成の他の例を示す図である。It is a figure which shows the other example of a function structure of the robot control apparatus which concerns on this embodiment.

以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るロボットシステム1の概略図である。
ロボットシステム1は、ロボット制御装置10と、ロボット20と、1個又は複数(この例では、2個)の撮像装置30とを備える。ロボット制御装置10、ロボット20及び撮像装置30は、互いに通信することができるように接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram of a robot system 1 according to the present embodiment.
The robot system 1 includes a robot control device 10, a robot 20, and one or a plurality (two in this example) of imaging devices 30. The robot control device 10, the robot 20, and the imaging device 30 are connected so that they can communicate with each other.

ロボット制御装置10は、ロボット20の動作を制御する。ロボット制御装置10は、ロボット20に対象物として第1の対象物(例えば、歯車W)を把持させ、その位置及び姿勢を制御する。ここで、ロボット制御装置10は、第1の対象物の開口部を第2の対象物の突起部(例えば、挿入ピンA)を目標として動かす際、前記第1の対象物が前記第2の対象物に初めて接触した位置である当初接触点から所定の方向に変位した位置である変位点を設定し、前記第1の対象物が前記第2の対象物に接触した位置である接触点が前記設定した変位点から前記当初接触点に近づくように前記第2の対象物に接触させながら前記第1の対象物を動かすようにロボットの動作を制御する。   The robot control device 10 controls the operation of the robot 20. The robot control apparatus 10 causes the robot 20 to grip a first object (for example, a gear W) as an object and controls its position and posture. Here, when the robot control apparatus 10 moves the opening of the first object with the projection (for example, the insertion pin A) of the second object as a target, the first object is moved to the second object. A displacement point that is a position displaced in a predetermined direction from an initial contact point that is a position where the object first contacts is set, and a contact point that is a position where the first object contacts the second object. The operation of the robot is controlled so as to move the first object while contacting the second object so as to approach the initial contact point from the set displacement point.

ロボット制御装置10は、ロボット20の動作を制御する際、例えば、力制御を実行する。力制御は、ロボット20の可動部21(後述)に作用する力が目的とする作業に適合した値に近づくように制御する手法である。また、ロボット制御装置10は、第1の対象物を第2の対象物に近づける際、その他の制御方式、例えば、ビジュアルサーボを用いてもよい。ビジュアルサーボとは、より具体的には、撮像装置30で現在撮像された対象物を含む現在画像が示す対象物の位置が、目標画像が示す対象物の位置に近づくようにロボット20の動作を制御する手法である。ここで、目標画像とは、目標位置に配置された対象物を目標物として含む画像である。   When controlling the operation of the robot 20, the robot control device 10 executes force control, for example. The force control is a method for controlling the force acting on the movable part 21 (described later) of the robot 20 so as to approach a value suitable for the intended work. Further, the robot control apparatus 10 may use another control method, for example, a visual servo when bringing the first object close to the second object. More specifically, the visual servo refers to the operation of the robot 20 so that the position of the object indicated by the current image including the object currently captured by the imaging device 30 approaches the position of the object indicated by the target image. It is a technique to control. Here, the target image is an image including an object placed at a target position as a target.

ロボット20は、ロボット制御装置10からの制御信号に従って動作し、所定の作業を行う。ロボット20は、ロボット20の作業内容は、例えば作業台T上で作業の対象となる対象物Wの開口面に挿入ピンAの一端が挿入される状態となるように、対象物Wを組み付ける作業である。対象物は、ワークとも呼ばれる。
ロボット20は、1もしくは複数(この例では、2本)のアーム22と、アーム22の先端部に設けられたハンド26と、アーム22の手首部分に設けられた力覚センサー25と、を備える。アーム22の手首部分とはアーム22の先端部とハンド26との間の部分である。アーム22は、1もしくは複数(この例では、左右各6個)のジョイント23及び1もしくは複数(この例では、左右各5個)のリンク24を含んで構成される。
The robot 20 operates in accordance with a control signal from the robot control apparatus 10 and performs a predetermined operation. The robot 20 assembles the object W so that the work content of the robot 20 is such that one end of the insertion pin A is inserted into the opening surface of the object W to be worked on the work table T, for example. It is. The object is also called a workpiece.
The robot 20 includes one or a plurality of (two in this example) arms 22, a hand 26 provided at the tip of the arm 22, and a force sensor 25 provided at the wrist portion of the arm 22. . The wrist portion of the arm 22 is a portion between the tip portion of the arm 22 and the hand 26. The arm 22 includes one or a plurality of (in this example, six on each of the left and right) joints 23 and one or a plurality of (in this example, five on each of the left and right) links 24.

ロボット20は、第1の対象物(例えば、対象物W)の開口部を第2の対象物の突起(例えば、挿入ピンA)部に挿入するロボットであって、力センサー(例えば、力覚センサー25)と、ハンド(例えば、ハンド26)と、を含み、ハンドにより、第1の対象物を把持し、第1の対象物の開口部を第2の対象物の突起部に近づける。
力覚センサー25は、例えば、ハンド26に作用する力や、モーメントを検出する。力覚センサー25は、検出した力やモーメントを示すセンサー値をロボット制御装置10に出力する。センサー値は、例えば、ロボット制御装置10においてロボット20の力制御に用いられる。力覚センサー25は、例えば、6軸力覚センサーである。6軸力覚センサーは、並進3軸方向の力成分と、回転3軸まわりのモーメント成分との6成分を同時に検出することができるセンサーである。並進3軸とは、例えば、3次元直交座標系を形成する互いに直交する3つの座標軸(X軸、Y軸、Z軸)である。回転3軸とは、例えば、その3つの座標軸のそれぞれである。力覚センサー25が検出する成分の個数は、6成分に限られず、例えば、3成分(3軸力覚センサー)であってもよい。なお、力覚センサー25は、力検出部とも呼ばれる。
The robot 20 is a robot that inserts an opening of a first object (for example, the object W) into a protrusion (for example, an insertion pin A) of the second object, and is a force sensor (for example, a force sense). Sensor 25) and a hand (for example, hand 26), the first object is gripped by the hand, and the opening of the first object is brought close to the protrusion of the second object.
The force sensor 25 detects a force and a moment acting on the hand 26, for example. The force sensor 25 outputs a sensor value indicating the detected force or moment to the robot controller 10. The sensor value is used for force control of the robot 20 in the robot control device 10, for example. The force sensor 25 is, for example, a 6-axis force sensor. The six-axis force sensor is a sensor that can simultaneously detect six components, ie, a force component in the translational three-axis direction and a moment component around the three rotation axes. The translational three axes are, for example, three coordinate axes (X axis, Y axis, Z axis) that are orthogonal to each other and that form a three-dimensional orthogonal coordinate system. The three rotation axes are, for example, each of the three coordinate axes. The number of components detected by the force sensor 25 is not limited to six components, and may be, for example, three components (three-axis force sensor). The force sensor 25 is also called a force detection unit.

ハンド26は、例えば、4個の指状の構成部を備える。指状の構成部を、単に指と呼ぶ。ハンド26は、指を用いて対象物(例えば、対象物W)を把持することができる。ここで、ハンド26は、対象物が有する面の1つを、いずれかの座標軸(例えば、Z軸)に垂直になるように把持することができる。
ハンド26は、アームの22の先端部に対して着脱可能であってもよい。ハンド26は、エンドエフェクターの一種ということができる。つまり、ロボット20は、ハンド26に代え、又はハンド26とともにハンド26以外の種類のエンドエフェクターを備えてもよい。エンドエフェクターとは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、加工する、等の操作を行う部材である。エンドエフェクターは、ハンドフック、吸盤、等、様々な形態をとることができる。また、エンドエフェクターは、1本のアーム22について各1個に限らず、2個、又は2個よりも多く備えられてもよい。
The hand 26 includes, for example, four finger-shaped components. The finger-shaped component is simply called a finger. The hand 26 can grip an object (for example, the object W) using a finger. Here, the hand 26 can grip one of the surfaces of the object so as to be perpendicular to any coordinate axis (for example, the Z axis).
The hand 26 may be detachable from the tip of the arm 22. The hand 26 can be said to be a kind of end effector. That is, the robot 20 may be provided with an end effector other than the hand 26 in place of the hand 26 or together with the hand 26. An end effector is a member that performs operations such as gripping, lifting, lifting, adsorbing, and processing an object. The end effector can take various forms such as a hand hook, a suction cup, and the like. Further, the number of end effectors is not limited to one for each arm 22, and two or more end effectors may be provided.

アーム22、力覚センサー25、及びハンド26を含むユニットは、可動部21を形成する。可動部21は、マニュピレーターとも呼ばれる。図1に示す例では、ロボット20は、2本の可動部21を備える。可動部21は、ジョイント23やハンド26等の各部を動作させるための駆動部、例えば、アクチュエーター(図示せず)を備える。アクチュエーターは、例えば、サーボモーターや、エンコーダー、等を備える、エンコーダーは、自部で検出した変位をエンコード(符号化)してエンコーダー値に変換し、変換したエンコーダー値をロボット制御装置に出力する。エンコーダー値は、ロボット制御装置10においてロボット20に対するフィードバック制御、等に用いられる。   The unit including the arm 22, the force sensor 25, and the hand 26 forms the movable portion 21. The movable part 21 is also called a manipulator. In the example shown in FIG. 1, the robot 20 includes two movable parts 21. The movable unit 21 includes a drive unit for operating each unit such as the joint 23 and the hand 26, for example, an actuator (not shown). The actuator includes, for example, a servo motor, an encoder, and the like. The encoder encodes the displacement detected by itself and converts it into an encoder value, and outputs the converted encoder value to the robot controller. The encoder value is used for feedback control on the robot 20 in the robot control apparatus 10.

ロボット20は、ロボット制御装置10から入力された制御命令に従って、各ジョイント23を連動して駆動する。これにより、ロボット制御装置10は、アーム22の先端部等に設定された注目位置を所定の可動範囲内で所望の位置に移動させたり、所望の方向に向けたりすることができる。この注目位置を、端点と呼ぶ。端点は、エンドポイントとも呼ばれる。また、ロボット制御装置10は、ハンド26を駆動することで、対象物等を把持したり、解放したりすることができる。
なお、端点は、アーム22の先端部に限られず、例えば、ハンド26等のエンドエフェクターの先端部であってもよい。
The robot 20 drives each joint 23 in conjunction with each other in accordance with a control command input from the robot control device 10. As a result, the robot control apparatus 10 can move the target position set at the tip of the arm 22 or the like to a desired position within a predetermined movable range, or can point it in a desired direction. This attention position is called an end point. An end point is also called an end point. Further, the robot control apparatus 10 can grip or release an object or the like by driving the hand 26.
The end point is not limited to the distal end portion of the arm 22 and may be the distal end portion of an end effector such as the hand 26, for example.

撮像装置30は、ロボット20の作業領域を表す画像を撮像し、撮像した画像を示す画像データを生成する。ロボット20の作業領域は、図1に示す例では、作業台T上において可動部21により作業可能な範囲である3次元空間であり、可動部21の端点を含む領域である。作業台T上には、それぞれ異なる位置に配置された2台の撮像装置30が、作業台T上に配置された挿入ピンAの一端に向けられている。撮像装置30は、例えば、可視光カメラ、赤外線カメラ、等である。撮像装置30は、生成した画像データをロボット制御装置10に出力する。   The imaging device 30 captures an image representing the work area of the robot 20 and generates image data indicating the captured image. In the example shown in FIG. 1, the work area of the robot 20 is a three-dimensional space that is a workable area on the worktable T by the movable part 21, and is an area that includes an end point of the movable part 21. On the work table T, two imaging devices 30 arranged at different positions are directed to one end of an insertion pin A arranged on the work table T. The imaging device 30 is, for example, a visible light camera, an infrared camera, or the like. The imaging device 30 outputs the generated image data to the robot control device 10.

図1に示す例では、作業台T上に1本の挿入ピンAが鉛直方向に直立している。挿入ピンAは、それぞれ2段階の半径を有する2段の軸部材である。挿入ピンAの一端と他端の中間には、半径が変化する段部が形成されている。ここでは、半径が小さい方の端面を一端と呼び、半径が大きい方の端面を他端と呼ぶ。挿入ピンAは、その他端が作業台T上に支持され、一端が上方に向けられている。この配置では、一端、段部、他端は、水平である。   In the example shown in FIG. 1, one insertion pin A stands upright on the work table T in the vertical direction. The insertion pin A is a two-stage shaft member each having a two-stage radius. In the middle of one end and the other end of the insertion pin A, a step portion with a changing radius is formed. Here, the end face with the smaller radius is called one end, and the end face with the larger radius is called the other end. The other end of the insertion pin A is supported on the work table T, and one end is directed upward. In this arrangement, one end, the stepped portion, and the other end are horizontal.

ここで、対象物Wは、その中心部に開口部を有する平板、例えば、歯車である。挿入ピンAの小さい方の半径は、対象物Wの開口部の半径よりも予め定めた許容誤差だけ小さく、挿入ピンAの大きい方の半径は、対象物Wの開口部の半径よりも大きい。従って、対象物Wの開口部が、挿入ピンAの直上に配置されたとき、対象物Wを真下に移動させることによって、開口部に挿入ピンAが挿入される。そのまま対象部Wに対して挿入ピンAの一端から他端の方向に力が作用されると、対象物Wはその主面のうち下方に向けられた面(下面)が挿入ピンAの段部に接触し、対象物Wが挿入ピンAの段部に支持される。主面とは、平板を形成する平面である。なお、主面のうち上方に向けられた面を上面と呼ぶ。   Here, the object W is a flat plate having an opening at the center thereof, for example, a gear. The smaller radius of the insertion pin A is smaller than the radius of the opening of the object W by a predetermined tolerance, and the larger radius of the insertion pin A is larger than the radius of the opening of the object W. Therefore, when the opening portion of the object W is disposed immediately above the insertion pin A, the insertion pin A is inserted into the opening portion by moving the object W directly below. When a force is applied to the target portion W in the direction from one end of the insertion pin A to the other end, the surface of the target object W (the lower surface) of the main surface is the stepped portion of the insertion pin A. The object W is supported by the step portion of the insertion pin A. The main surface is a plane that forms a flat plate. In addition, the surface directed upward from the main surface is referred to as an upper surface.

なお、上述したロボットシステム1の構成は、本実施形態の概要を説明するための一例に過ぎない。即ち、上述したロボットシステム1の構成は、上述した構成に限られず、その他の構成を有していてもよい。
例えば、図1は、ジョイント23の数(軸数)が左右各6個(6軸)である例を示すが、ジョイント23の数は各6個よりも少なくてもよいし、各6個よりも多くてもよい。リンク24の数は、ジョイント23の数に応じて定められる。また、ジョイント23、リンク24、ハンド26、等の部材の形状、大きさ、配置、構造を適宜変更してもよい。
The configuration of the robot system 1 described above is merely an example for explaining the outline of the present embodiment. That is, the configuration of the robot system 1 described above is not limited to the configuration described above, and may have other configurations.
For example, FIG. 1 shows an example in which the number of joints 23 (number of axes) is six on each of the left and right sides (six axes), but the number of joints 23 may be less than six or less than six. May be more. The number of links 24 is determined according to the number of joints 23. Further, the shape, size, arrangement, and structure of members such as the joint 23, the link 24, and the hand 26 may be appropriately changed.

また、撮像装置30の設置位置は、図1に示すように作業台T上に限られず、天井や壁面上であってもよい。また、これらの撮像装置30に代えて、又はこれに加えて、アーム22の先端部、胴体部、頭部、等に撮像装置30を設けてもよい。また、撮像装置30は、ロボット制御装置10に代えてロボット20に接続されてもよい。その場合には、撮像装置30が生成した画像データは、ロボット20を介してロボット制御装置10に入力される。   Further, the installation position of the imaging device 30 is not limited to the work table T as shown in FIG. Further, instead of or in addition to these imaging devices 30, the imaging device 30 may be provided at the distal end portion, the trunk portion, the head portion, or the like of the arm 22. Further, the imaging device 30 may be connected to the robot 20 instead of the robot control device 10. In that case, the image data generated by the imaging device 30 is input to the robot control device 10 via the robot 20.

図2は、本実施形態に係るロボットシステム1の機能構成を示すブロック図である。
ロボット20は、駆動制御部200を備える。駆動制御部200は、ロボット制御装置10から入力された制御信号と、アクチュエーターで取得されたエンコーダー値及び力覚センサー25で取得されたセンサー値、等に基づいて、端点の位置が制御信号で指示される目標位置となるように、アクチュエーターを駆動させる。なお、端点の現在位置は、例えば、アクチュエーターにおけるエンコーダー値等から求めることができる。
FIG. 2 is a block diagram showing a functional configuration of the robot system 1 according to the present embodiment.
The robot 20 includes a drive control unit 200. Based on the control signal input from the robot control device 10, the encoder value acquired by the actuator, the sensor value acquired by the force sensor 25, and the like, the drive control unit 200 indicates the position of the end point with the control signal. The actuator is driven so that the target position is reached. Note that the current position of the end point can be obtained from, for example, an encoder value in the actuator.

ロボット制御装置10は、力制御部120と、画像取得部140とを備える。力制御部120は、センサー情報取得部122と、軌道生成部124とを備える。   The robot control apparatus 10 includes a force control unit 120 and an image acquisition unit 140. The force control unit 120 includes a sensor information acquisition unit 122 and a trajectory generation unit 124.

力制御部(制御部)120は、ロボット20の力覚センサー25からのセンサー情報(力情報やモーメント情報を示すセンサー値)に基づいて、力制御(力覚制御ともいう)を行う。力制御は、ロボットの手先(ハンド26等)に外から加えられた力を、目的とする作業に適合した値に設定するための位置と力の制御手法である。   The force control unit (control unit) 120 performs force control (also referred to as force sense control) based on sensor information (sensor values indicating force information and moment information) from the force sensor 25 of the robot 20. The force control is a position and force control method for setting the force applied from the outside to the hand of the robot (hand 26 or the like) to a value suitable for the intended work.

なお、力制御を行うためには、ハンド26等のエンドエフェクターに加わる力やモーメントを検出する必要があるが、エンドエフェクターに加わる力やモーメントを検出する方法は力覚センサーを用いるものに限られない。例えば、アーム22の各軸トルク値からエンドエフェクターに及ぼす外力を推定することもできる。したがって、力制御を行うためには、直接または間接的にエンドエフェクターに加わる力を取得する手段を、アーム22が有していればよい。   In order to perform force control, it is necessary to detect the force and moment applied to the end effector such as the hand 26, but the method of detecting the force and moment applied to the end effector is limited to that using a force sensor. Absent. For example, it is possible to estimate the external force exerted on the end effector from each axis torque value of the arm 22. Therefore, in order to perform force control, the arm 22 only needs to have means for acquiring a force applied directly or indirectly to the end effector.

センサー情報取得部122は、ロボット20の力覚センサー25から出力されるセンサー情報(検出されたセンサー値など)を取得する。なお、センサー情報取得部122は、力検出部と呼ぶこともできる。   The sensor information acquisition unit 122 acquires sensor information (such as detected sensor values) output from the force sensor 25 of the robot 20. The sensor information acquisition unit 122 can also be called a force detection unit.

軌道生成部124は、力制御により端点の移動方向及び移動量を決定する。また、軌道生成部124は、端点の移動方向及び移動量に基づいて、各ジョイント23に設けられた各アクチュエーターの目標角度を決定する。また、軌道生成部124は、目標角度だけアーム22を移動させるような指令値を生成し、ロボット20へ出力する。なお、軌道生成部124が行う軌道の生成処理、目標角度の決定処理、指令値の生成処理等は、一般的な様々な技術を用いることができるため、詳細な説明を省略する。   The trajectory generation unit 124 determines the moving direction and moving amount of the end points by force control. Further, the trajectory generation unit 124 determines a target angle of each actuator provided in each joint 23 based on the moving direction and moving amount of the end points. In addition, the trajectory generation unit 124 generates a command value that moves the arm 22 by a target angle and outputs the command value to the robot 20. The trajectory generation process, the target angle determination process, the command value generation process, and the like performed by the trajectory generation unit 124 can use various general techniques, and thus detailed description thereof is omitted.

なお、関節を持つロボット20では、各関節の角度を決定すると、フォワードキネマティクス処理により端点の位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの目標位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、端点の軌道を目標関節角度の集合と考えることができる。よって、軌道生成部124から出力される指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。   In the robot 20 having a joint, when the angle of each joint is determined, the position of the end point is uniquely determined by forward kinematics processing. In other words, an N-joint robot can express one target position by N joint angles. Therefore, if the set of N joint angles is one target joint angle, the trajectory of the end point is a set of target joint angles. Can be considered. Therefore, the command value output from the trajectory generation unit 124 may be a value related to a position (target position) or a value related to a joint angle (target angle).

力制御部120は、入力されたセンサー値が、目標位置及び目標姿勢に応じた目標値となるように指令値(ここでは、目標角度)を生成する。
力制御部120が行う処理について、第1の対象物(例えば、対象物W)の開口部の位置を第2の対象物の突起部(例えば、挿入ピンA)の一端(例えば、先端)の位置に合わせ、第1の対象物の開口部に第2の対象物が挿入される状態にする場合を例にとって説明する。ここで、第2の対象物の突起部は、作業台Tに載置されることで、その位置及び姿勢が固定されているものとする。
The force control unit 120 generates a command value (here, a target angle) so that the input sensor value becomes a target value corresponding to the target position and target posture.
Regarding the processing performed by the force control unit 120, the position of the opening of the first object (for example, the object W) is set to the end of the projection (for example, the insertion pin A) of the second object. A case where the second object is inserted into the opening of the first object according to the position will be described as an example. Here, it is assumed that the protruding portion of the second object is placed on the work table T and the position and posture thereof are fixed.

力制御部120には、時間経過に応じて予め定めた方向、速度で第2の対象物の一端接近する目標位置に応じた目標値が与えられる。
但し、第1の対象物の開口部を第2の対象物の一端に接近させる場合には、ロボット制御装置10は、例えば、画像取得部140で取得した画像データが示す第2の対象物の画像から、例えば、画像認識技術を用いて第2の対象物の軸を検出する制御部を備えてもよい。当該制御部は、検出した軸の位置に第1の対象物を接近させるようにロボット20の動作を制御する。第1の対象物を接近させる際、ロボット制御装置10は、ビジュアルサーボを用いてもよい。
第2の対象物の一端における中心の位置が、第1の対象物の開口部の中心の目標位置として設定された場合、第2の対象物の中心の位置が目標位置からずれるという誤差が生じることがある。第2の対象物の一端の位置から、第1の対象物の開口部の位置がずれることにより、第2の対象物の一端が、第1の対象物の主面のうち開口部が形成されていない部分(平面部)に接触することがある。
The force control unit 120 is given a target value corresponding to a target position at which one end of the second object approaches at a predetermined direction and speed as time elapses.
However, when the opening of the first object is brought close to one end of the second object, the robot control apparatus 10, for example, uses the second object indicated by the image data acquired by the image acquisition unit 140. You may provide the control part which detects the axis | shaft of a 2nd target object from an image using an image recognition technique, for example. The said control part controls operation | movement of the robot 20 so that a 1st target object may be made to approach the position of the detected axis | shaft. When approaching the first object, the robot control apparatus 10 may use visual servo.
When the center position at one end of the second object is set as the target position of the center of the opening of the first object, an error occurs that the center position of the second object deviates from the target position. Sometimes. By shifting the position of the opening of the first object from the position of the one end of the second object, one end of the second object is formed as an opening in the main surface of the first object. It may come into contact with the unexposed part (planar part).

力制御部120は、第1の対象物の平面部が第2の対象物の一端に接触したか否かを判定する。力制御部120は、例えば、力覚センサー25から入力されたセンサー値の単位時間当たりの変化が予め定めたセンサー値の変化よりも急激であるとき、接触したと判定する。その場合には、第1の対象部は、第2の対象物から反力を受けるからである。その後、力制御部120は、第1の対象物に対して力を作用させることを停止する。それ以外の場合には、力制御部120は、接触していないと判定する。   The force control unit 120 determines whether or not the planar portion of the first object has come into contact with one end of the second object. For example, when the change per unit time of the sensor value input from the force sensor 25 is more rapid than the change in the predetermined sensor value, the force control unit 120 determines that the contact has been made. In this case, the first target portion receives a reaction force from the second target object. Thereafter, the force control unit 120 stops applying force to the first object. In other cases, the force control unit 120 determines that there is no contact.

そして、力制御部120は、第1の対象物の開口部に、第2の対象物の一端が挿入したか否かを判定する。ここで、力制御部120は、例えば、第1の対象物に対して第2の対象物の一端から他端への方向に予め定めた大きさの力を作用させ、力覚センサー25から入力されたセンサー値が示す、その方向への力の大きさが、予め定めた力の大きさの閾値よりも小さいとき、挿入したと判定する。この閾値は、例えば、第1の対象物に対して作用させた力よりも小さい値である。その場合には、第1の対象物は、第2の対象物から受けていた反力が緩和又は失われるからである。それ以外の場合には、力制御部120は、挿入していないと判定する。   Then, the force control unit 120 determines whether one end of the second object is inserted into the opening of the first object. Here, the force control unit 120 applies, for example, a force having a predetermined magnitude in the direction from one end to the other end of the second object on the first object, and inputs from the force sensor 25. When the magnitude of the force in the direction indicated by the sensor value is smaller than a predetermined magnitude threshold, it is determined that the sensor is inserted. This threshold value is a value smaller than the force applied to the first object, for example. In that case, the reaction force received from the second object is reduced or lost in the first object. In other cases, the force control unit 120 determines that it is not inserted.

第2の対象物の一端が挿入していないと判定された場合には、第1の対象物の平面部が第2の対象物の一端に接触している。ここで、第1の対象物の表面部において第2の対象物の一端の中心に接触した位置を接触点と呼ぶ。特に、第1の対象物の平面部が第2の対象物の一端に初めて接触した時点での接触点を当初接触点と呼ぶ。この場合、力制御部120は、接触点が当初接触点から予め定めた方向(オフセット方向)に予め定めた量(オフセット量)だけずれた位置(変位点)にずれるように、第1の対象物を並進移動させる。変位点は、当初接触点から予め定めたオフセット方向に予め定めたオフセット量だけずれた第1の対象物の表面部上の1点である。   When it is determined that one end of the second object is not inserted, the plane portion of the first object is in contact with one end of the second object. Here, the position in contact with the center of one end of the second object on the surface of the first object is called a contact point. In particular, the contact point when the flat portion of the first object first contacts one end of the second object is called the initial contact point. In this case, the force control unit 120 causes the first target to shift to a position (displacement point) that is shifted by a predetermined amount (offset amount) in a predetermined direction (offset direction) from the initial contact point. Translate things. The displacement point is one point on the surface portion of the first object that is displaced from the initial contact point by a predetermined offset amount in a predetermined offset direction.

ここで、オフセット量dは、第1の対象物の中心と第2の対象物の一端における中心の位置を目標位置とした場合における、第1の対象物の位置の誤差(精度)に基づいて定めておいてもよい。この誤差は、目標位置からの接触点のずれである。オフセット量は、この誤差の分布の大きさを示す統計量とした水平面方向の1つの座標軸方向の標準偏差σに基づいて、例えば、6σと定めておいてもよい。6σとは、その座標軸方向の誤差の確率が正規分布に従うと仮定したとき、約99.7%の確率で生じる誤差の範囲(片側3σ)を示す。また、オフセット方向は、第1の対象物の表面部に平行な面内であれば、任意に設定しておいてもよい。
なお、力制御では、一般に1つの対象物を他の対象物に接触させながら移動させるときの精度は、接触させないで移動させるときの精度よりも高い。つまり、このオフセット量dは、力制御を用いて第2の対象物に接触させながら第1の対象物を移動させる制御による誤差よりも大きい。
Here, the offset amount d is based on the error (accuracy) of the position of the first object when the center position of the first object and the center of one end of the second object are the target positions. It may be determined. This error is a deviation of the contact point from the target position. The offset amount may be set to 6σ, for example, based on the standard deviation σ in the direction of one coordinate axis in the horizontal plane direction, which is a statistic indicating the magnitude of the error distribution. 6σ indicates an error range (one side 3σ) generated with a probability of approximately 99.7% when it is assumed that the error probability in the coordinate axis direction follows a normal distribution. Further, the offset direction may be arbitrarily set as long as it is in a plane parallel to the surface portion of the first object.
In the force control, generally, the accuracy when one object is moved while being in contact with another object is higher than the accuracy when the object is moved without being contacted. That is, the offset amount d is larger than an error due to the control of moving the first object while making contact with the second object using force control.

その後、力制御部120は、第1の対象物の表面部を第2の対象物の一端に接触させながら、その接触点が変位点から当初接触点に近づくように第1の対象物を移動させる(探り動作)。ここで、変位点から当初接触点への方向は、オフセット方向とは逆方向である。接触点が当初接触点に近づくように第1の対象物を動かす際、力制御部120は、変位点と当初接触点との間を結ぶ線分から所定の幅を有する領域を網羅する経路上に動かす。これにより、平面視で第1の対象物の開口部の領域が第2の対象物の一端に含まれる、第1の対象物の位置が探索される。このような領域を探索領域と呼ぶ。探索領域の例については後述する。
変位点から当初接触点に近づくように第1の対象物を移動させる間、力制御部120は、第1の対象物の開口部に、第2の対象物の一端が挿入したか否かを判定する。この判定に係る処理は、上述した第1の対象物の開口部に第2の対象物の一端が挿入したか否かを判定する処理と同様であってもよい。
Thereafter, the force control unit 120 moves the first object so that the contact point approaches the initial contact point from the displacement point while bringing the surface portion of the first object into contact with one end of the second object. (Exploring action) Here, the direction from the displacement point to the initial contact point is opposite to the offset direction. When moving the first object so that the contact point approaches the initial contact point, the force control unit 120 is on a path covering a region having a predetermined width from a line segment connecting the displacement point and the initial contact point. move. Thereby, the position of the first object in which the region of the opening of the first object is included in one end of the second object in a plan view is searched. Such an area is called a search area. An example of the search area will be described later.
While moving the first object so as to approach the initial contact point from the displacement point, the force control unit 120 determines whether one end of the second object is inserted into the opening of the first object. judge. The process related to this determination may be similar to the process of determining whether one end of the second object is inserted into the opening of the first object described above.

挿入したと判定された場合には、力制御部120は、第1の対象物の姿勢を調整して、第1の対象物の開口部の中心軸と第2の対象物の中心軸を一致させる。その後、第1の対象物を一端から他端の方向(例えば、下方)に移動させる(嵌め込み)。第1の対象物の開口部の中心軸と第2の対象物の中心軸が傾いたまま、第1の対象物を移動させることで第1の対象物や第2の対象物に無理な力を加え、損傷又は破損するおそれを回避する。第1の対象物の姿勢を調整する際には、力制御部120は、インピーダンス制御を用いてもよい。   If it is determined that it has been inserted, the force control unit 120 adjusts the posture of the first object, and the center axis of the opening of the first object matches the center axis of the second object. Let Thereafter, the first object is moved (inserted) from one end to the other end (for example, downward). Unreasonable force on the first object or the second object by moving the first object while the center axis of the opening of the first object and the center axis of the second object are inclined. To avoid the risk of damage or breakage. When adjusting the posture of the first object, the force control unit 120 may use impedance control.

第1の対象物の開口部に第2の対象物の一端が挿入せずに、接触点が当初接触点に到達した場合、つまり、探索領域内に第2の対象物の一端が検出されなかった場合がある。
この場合、力制御部120は、上述したオフセット方向を変更し、当初接触点から変更したオフセット方向に予め定めたオフセット量だけずれた位置に変位点を再設定してもよい。
その後、力制御部120は、接触点が当初接触点から再設定した変位点にずれるように第1の対象物を移動させ、その変位点から接触点が当初接触点に近づくように探索領域内で第1の対象物を移動させるという処理を繰り返す。そして、第1の対象物の開口部に第2の対象物の一端が挿入しないで、接触点が当初接触点に到達した場合には、変位点を再設定する処理を繰り返す。
When one end of the second object is not inserted into the opening of the first object and the contact point reaches the initial contact point, that is, one end of the second object is not detected in the search area. There is a case.
In this case, the force control unit 120 may change the offset direction described above and reset the displacement point at a position shifted by a predetermined offset amount in the offset direction changed from the initial contact point.
Thereafter, the force control unit 120 moves the first object so that the contact point shifts from the initial contact point to the reset displacement point, and within the search region so that the contact point approaches the initial contact point from the displacement point. The process of moving the first object is repeated. Then, when the contact point reaches the initial contact point without inserting one end of the second object into the opening of the first object, the process of resetting the displacement point is repeated.

なお、処理の繰り返し回数Nは、予め任意に設定しておくことができる。Nは、例えば、2、4である。但し、同一のオフセット方向が繰り返されないようには、各処理でのオフセット方向を繰り返し回数Nに応じて予め定めておく。例えば、k(kは、1より大きくN以下の整数)回目の繰り返しのオフセット方向を、当初接触点からの初回のオフセット方向を基準として、時計回り又は反時計回りに(k−1)・360°/Nと定めておいてもよい。   The number of repetitions N of processing can be arbitrarily set in advance. N is, for example, 2 or 4. However, the offset direction in each process is determined in advance according to the number N of repetitions so that the same offset direction is not repeated. For example, k (k is an integer greater than 1 and less than or equal to N) times, and the offset direction is repeated clockwise or counterclockwise with respect to the initial offset direction from the initial contact point (k−1) · 360. It may be set as ° / N.

画像取得部140は、撮像装置30が撮像した画像データを取得する。画像取得部140は、取得した画像データを、例えば上述した制御に用いる。   The image acquisition unit 140 acquires image data captured by the imaging device 30. The image acquisition unit 140 uses the acquired image data for the above-described control, for example.

次に、本実施形態に係るロボットシステム1における制御の流れの一例について説明する。
図3は、本実施形態に係るロボットシステム1における制御の流れの一例を示すブロック図である。
力制御部120において、力覚センサー25から入力されたセンサー値に基づいて、目標として設定された目標値で、ロボット20の可動部21の端点を物体に接触させるためのフィードバックループが回っている。軌道生成部124は、入力されたセンサー値が、目標値となるように軌道及び指令値(ここでは、目標角度)を生成する。
Next, an example of a control flow in the robot system 1 according to the present embodiment will be described.
FIG. 3 is a block diagram illustrating an example of a control flow in the robot system 1 according to the present embodiment.
In the force control unit 120, a feedback loop for bringing the end point of the movable unit 21 of the robot 20 into contact with an object with a target value set as a target based on the sensor value input from the force sensor 25 is rotating. . The trajectory generation unit 124 generates a trajectory and a command value (here, a target angle) so that the input sensor value becomes a target value.

なお、ロボット制御装置10は、ビジュアルサーボ制御を行う際、画像データに基づいて推定された対象物の位置及び姿勢が、目標位置及び目標姿勢に近づけるように軌道及び指令値を生成する。一般的に画像処理の負荷は高いため、ビジュアルサーボ制御で指令値を生成する間隔(例えば30ミリ秒(msec)毎)は、力制御部120が指令値を出力する間隔(例えば、1ミリ秒(msec)毎)よりも長い。   Note that the robot control device 10 generates a trajectory and a command value so that the position and posture of the object estimated based on the image data are close to the target position and the target posture when performing visual servo control. In general, since the load of image processing is high, an interval (for example, every 30 milliseconds (msec)) for generating a command value by visual servo control is an interval (for example, 1 millisecond) at which the force control unit 120 outputs the command value. (Every (msec)).

駆動制御部200には、ロボット制御装置10から指令値(目標角度)が入力される。駆動制御部200は、各ジョイント23に設けられた各アクチュエーターのエンコーダー値等に基づいて現在角度を取得し、目標角度と現在角度の差分(偏差角度)を算出する。また、駆動制御部200は、偏差角度に基づいてアーム22の移動速度を算出し、可動部21を算出した移動速度に応じた偏差角度だけ移動させる。   A command value (target angle) is input from the robot control device 10 to the drive control unit 200. The drive control unit 200 acquires the current angle based on the encoder value of each actuator provided in each joint 23 and calculates the difference (deviation angle) between the target angle and the current angle. Further, the drive control unit 200 calculates the moving speed of the arm 22 based on the deviation angle, and moves the movable unit 21 by the deviation angle corresponding to the calculated moving speed.

次に、本実施形態に係るロボット制御処理について説明する。
図4は、本実施形態に係るロボット制御処理を示すフローチャートである。
この例では、第1の歯車を中心軸A1に嵌め込む作業をロボット20に実行させる場合が仮定されている。この作業において、ロボット制御装置10が可動部21に第1の歯車を把持させ、初期において第1の歯車が中心軸A1から所定の方向に所定の距離をもって離れ、力制御により第1の歯車の位置、姿勢を制御して第2の歯車に嵌合させる。
Next, robot control processing according to the present embodiment will be described.
FIG. 4 is a flowchart showing the robot control process according to the present embodiment.
In this example, it is assumed that the robot 20 is caused to perform an operation of fitting the first gear into the central axis A1. In this work, the robot controller 10 causes the movable unit 21 to grip the first gear, and initially the first gear is separated from the central axis A1 by a predetermined distance in a predetermined direction, and the first gear is controlled by force control. The position and orientation are controlled and fitted to the second gear.

(ステップS101)力制御部120は、第1の対象物の開口部を第2の対象物の一端に接近させる。その後、ステップS102に進む。
(ステップS102)力制御部120は、第1の対象物の平面部が第2の対象物の一端に接触したか否かを判定する。接触したと判定された場合(ステップS102 YES)、ステップS103に進む。接触していないと判定された場合(ステップS102 NO)、ステップS101を繰り返す。
(Step S101) The force control unit 120 causes the opening of the first object to approach one end of the second object. Thereafter, the process proceeds to step S102.
(Step S102) The force control unit 120 determines whether or not the planar portion of the first object has come into contact with one end of the second object. When it is determined that contact has been made (YES in step S102), the process proceeds to step S103. When it is determined that they are not in contact (NO in step S102), step S101 is repeated.

(ステップS103)力制御部120は、第1の対象物の開口部に、第2の対象物の一端が挿入したか否かを判定する。挿入したと判定された場合(ステップS103 YES)、力制御部120は、第1の対象物の中心軸の方向が第2の対象物の中心軸の方向に一致させるように第1の対象物の姿勢を調整する。そして、力制御部120は、第1の対象物を一端から他端に押し込み、図4に係る処理を終了する。挿入していないと判定された場合(ステップS103 NO)、ステップS104に進む。
(ステップS104)力制御部120は、当初接触点から予め定めたオフセット方向に予め定めたオフセット量だけずれた変位点にずれるように第1の対象物を並進移動させる。その後、ステップS105に進む。
(Step S103) The force control unit 120 determines whether one end of the second object is inserted into the opening of the first object. When it determines with having inserted (step S103 YES), the force control part 120 is the 1st target object so that the direction of the central axis of a 1st target object may correspond with the direction of the central axis of a 2nd target object. Adjust the posture. Then, the force control unit 120 pushes the first object from one end to the other end, and ends the processing according to FIG. If it is determined that it is not inserted (NO in step S103), the process proceeds to step S104.
(Step S104) The force control unit 120 translates the first object so as to shift to a displacement point shifted by a predetermined offset amount in a predetermined offset direction from the initial contact point. Thereafter, the process proceeds to step S105.

(ステップS105)力制御部120は、第1の対象物の表面部を第2の対象物の一端に接触させながら、接触点が変位点から当初接触点に近づくように第1の対象物を移動させる。その後、ステップS106に進む。
(ステップS106)力制御部120は、第1の対象物の開口部に、第2の対象物の一端が挿入したか否かを判定する。挿入したと判定された場合(ステップS106 YES)、図4に係る処理を終了する。挿入していないと判定された場合(ステップS106 NO)、ステップS107に進む。
(Step S <b> 105) The force control unit 120 moves the first object so that the contact point approaches the initial contact point from the displacement point while bringing the surface portion of the first object into contact with one end of the second object. Move. Thereafter, the process proceeds to step S106.
(Step S106) The force control unit 120 determines whether one end of the second object is inserted into the opening of the first object. If it is determined that it has been inserted (YES in step S106), the processing according to FIG. 4 is terminated. If it is determined that it is not inserted (NO in step S106), the process proceeds to step S107.

(ステップS107)力制御部120は、第1の対象物の開口部に第2の対象物の一端が挿入せずに、接触点が上述した変位点から当初接触点に到達したか否かを判定する。到達したと判定された場合(ステップS107 YES)、ステップS108に進む。到達していないと判定された場合(ステップS108 NO)、ステップS105に進む。
(ステップS108)力制御部120は、オフセット方向を変更し、当初接触点から変更したオフセット方向に予め定めたオフセット量だけずれた位置に変位点を再設定する。その後、ステップS104に進む。
(Step S107) The force control unit 120 determines whether or not the contact point has reached the initial contact point from the above-described displacement point without inserting one end of the second object into the opening of the first object. judge. If it is determined that it has reached (YES in step S107), the process proceeds to step S108. If it is determined that it has not reached (NO in step S108), the process proceeds to step S105.
(Step S108) The force control unit 120 changes the offset direction, and resets the displacement point at a position shifted by a predetermined offset amount in the changed offset direction from the initial contact point. Thereafter, the process proceeds to step S104.

次に、接触点が変位点から接触点に近づくように第1の対象物を移動させる際に用いられる探索領域の例について説明する。
図5は、探索領域の一例を示す図である。
図5において、探索領域が破線で示されている。この探索領域は、当初接触点Cと変位点S1に基づいて定められる正方形、つまり、当初接触点Cと変位点S1とを結ぶ線分と垂直な方向に、オフセット量dと等しい幅を有する領域である。当初接触点Cから変位点S1に向けられた矢印は、予め定めたオフセット方向を示す矢印で、W、Aは、それぞれ第1の対象物、第1の対象物の開口部を示す。探索領域の大きさを上述した誤差に基づいて設定することで、その探索領域内で変位点S1から当初接触点Cに近づくように、力制御部120は、第1の対象物を移動させる。これにより、第1の対象物の開口部の領域が第2の対象物の一端に含まれるような第1の対象物の位置としての可能性がある位置が漏れなく探索される。また、変位点S1から当初接触点Cに近づくように、その第1の対象物の位置を探索することで、全体としてその位置を効率的に探索することができる。つまり、図4に示す処理が複数回繰り返す場合、ある回では、当初接触点Cの位置により早期に探索できないこともあるが、この複数回全体としては、ランダムに探索する場合よりも早期に探索できることを意味する。
Next, an example of a search region used when moving the first object so that the contact point approaches the contact point from the displacement point will be described.
FIG. 5 is a diagram illustrating an example of a search area.
In FIG. 5, the search area is indicated by a broken line. This search area is a square defined based on the initial contact point C and the displacement point S1, that is, an area having a width equal to the offset amount d in a direction perpendicular to the line segment connecting the initial contact point C and the displacement point S1. It is. An arrow directed from the initial contact point C to the displacement point S1 is an arrow indicating a predetermined offset direction, and W and A indicate an opening of the first object and the first object, respectively. By setting the size of the search area based on the error described above, the force control unit 120 moves the first object so as to approach the initial contact point C from the displacement point S1 within the search area. Thereby, the position which may be a position of the 1st subject in which the field of the opening of the 1st subject is contained in the end of the 2nd subject is searched without omission. Further, by searching the position of the first object so as to approach the initial contact point C from the displacement point S1, the position can be efficiently searched as a whole. That is, when the process shown in FIG. 4 is repeated a plurality of times, it may not be possible to search earlier depending on the position of the initial contact point C at a certain time. However, as a whole, the search is performed earlier than when searching randomly. Means you can.

図6は、探索領域の他の例を示す図である。
第1の対象物の開口部Aの位置は、当初接触点Cから予め定めたオフセット方向に定めた変位点S1に基づいて定めた探索領域内にない場合もある。その場合には、ステップS107において、第1の対象物の開口部に第2の対象物の一端が挿入せずに、接触点が変位点S1から当初接触点Cに到達したと判定される。そして、ステップS108において、オフセット方向が、例えば、前回のオフセット方向とは逆方向に変更され新たに変位点S2が設定される。図6において破線で示された正方形は、当初接触点Cと変位点S2に基づいて新たに定められた探索領域を示す。その探索領域内で接触点が変位点S2から当初接触点Cに近づくように、力制御部120は、第1の対象物を移動させる。これにより、第1の対象物の開口部の領域が第2の対象物の一端に含まれるような接触点が確実に探索される。
FIG. 6 is a diagram illustrating another example of the search area.
The position of the opening A of the first object may not be within the search area determined based on the displacement point S1 determined in the offset direction determined in advance from the initial contact point C. In that case, in step S107, it is determined that one end of the second object has not been inserted into the opening of the first object, and the contact point has reached the initial contact point C from the displacement point S1. In step S108, the offset direction is changed to a direction opposite to the previous offset direction, for example, and a new displacement point S2 is set. A square indicated by a broken line in FIG. 6 indicates a search area newly determined based on the initial contact point C and the displacement point S2. The force control unit 120 moves the first object so that the contact point approaches the initial contact point C from the displacement point S2 within the search region. Thereby, the contact point where the area | region of the opening part of a 1st target object is contained in the end of a 2nd target object is searched reliably.

次に、接触点を探索領域内で変位点から当初接触点に近づくように第1の対象物を移動させる際に用いられる経路(探索経路)の例について説明する。
図7は、探索経路の一例を示す図である。
図7に示される探索経路は、変位点S1と当初接触点Cを含むジグザグ状の経路である。この経路は、当初接触点Cと変位点S1とを結ぶ線分に直交する部分(直交線分)と、その1つの直交線分の終点から隣接した直交線分の起点とを結ぶ部分(斜行線分)とが繰り返して構成される。この例では、1つの直交線分の長さは、オフセット量dに等しい。直交線分間又は斜行線分間の間隔を、第1対象物の開口部の直径よりも小さい間隔に定めることで、この探索経路で探索領域が網羅される。この間隔は、例えば、第1の対象物の開口部の直径と第2の対象物の一端の直径との差である。また、この探索経路の起点、終点は、当初接触点C、変位点S1であってもよいが、図7に示されるように探索領域の頂点O1、D1であってもよい。
Next, an example of a route (search route) used when moving the first object so that the contact point approaches the initial contact point from the displacement point within the search region will be described.
FIG. 7 is a diagram illustrating an example of a search route.
The search path shown in FIG. 7 is a zigzag path including the displacement point S1 and the initial contact point C. This path is formed by connecting a portion (orthogonal line segment) orthogonal to the line segment connecting the initial contact point C and the displacement point S1 and a portion connecting the start point of the adjacent orthogonal line segment from the end point of the one orthogonal line segment (oblique line). Line segment). In this example, the length of one orthogonal line segment is equal to the offset amount d. By setting the interval between the orthogonal lines or the diagonal lines to be smaller than the diameter of the opening of the first object, the search area is covered by this search path. This interval is, for example, the difference between the diameter of the opening of the first object and the diameter of one end of the second object. The starting point and ending point of this search path may be the initial contact point C and the displacement point S1, but may also be the vertices O1 and D1 of the search area as shown in FIG.

図8は、探索経路の他の例を示す図である。
図8に示される探索経路は、変位点S1と当初接触点Cを含む矩形の経路である。この経路は、当初接触点Cと変位点S1とを結ぶ線分に直交する部分(直交線分)と、当初接触点Cと変位点S1と平行な部分(平行線分)とが繰り返して構成される。この例でも、1つの直交線分の長さはオフセット量dに等しい。直交線分間の間隔は図7に示した例と同様に、第1対象物の開口部の直径よりも小さい間隔に定めておく。探索経路は、1つの直交線分の終点と1つの平行線分の起点が接続され、その平行線分の終点が隣接する直交線分の起点に接続されるという構成が繰り返されて構成される。また、この探索経路の起点、終点は、当初接触点C、変位点S1であってもよいが、図8に示されるように探索領域の頂点O2、D2であってもよい。
FIG. 8 is a diagram illustrating another example of the searched route.
The search route shown in FIG. 8 is a rectangular route including the displacement point S1 and the initial contact point C. This path is configured by repeating a portion (orthogonal line segment) orthogonal to the line segment connecting the initial contact point C and the displacement point S1, and a portion (parallel line segment) parallel to the initial contact point C and the displacement point S1. Is done. Also in this example, the length of one orthogonal line segment is equal to the offset amount d. As in the example shown in FIG. 7, the interval between the orthogonal lines is determined to be smaller than the diameter of the opening of the first object. The search path is configured by repeating the configuration in which the end point of one orthogonal line segment and the starting point of one parallel line segment are connected, and the end point of the parallel line segment is connected to the starting point of the adjacent orthogonal line segment. . The starting point and ending point of this search path may be the initial contact point C and the displacement point S1, but may also be the vertices O2 and D2 of the search area as shown in FIG.

図9は、探索経路のさらに他の例を示す図である。
図9に示される探索経路は、変位点S1を起点とし、当初接触点Cを終点とする渦巻状の経路である。この経路は、当初接触点Cと変位点S1と直交する長径の長さがオフセット量dに等しい曲線が周期的に繰り返されて構成される。1周期当たりの間隔を第1対象物の開口部の直径よりも小さい間隔に定めておく。これにより、探索領域が網羅される。
FIG. 9 is a diagram showing still another example of the searched route.
The search path shown in FIG. 9 is a spiral path starting from the displacement point S1 and ending at the initial contact point C. This path is configured by periodically repeating a curve in which the length of the major axis orthogonal to the initial contact point C and the displacement point S1 is equal to the offset amount d. The interval per cycle is set to be smaller than the diameter of the opening of the first object. Thereby, the search area is covered.

図10は、探索経路のまたさらに他の例を示す図である。
図10に示される探索経路は、変位点S1を起点とし、変位点S1を中心に回転する点であって、回転に伴って中心からの半径が増加する軌跡で形成される螺旋状の経路である。この経路の終点は当初接触点Cを終点とし、1周当たりの半径の増加量を第1対象物の開口部の直径よりも小さい間隔に定めておく。これにより、探索領域として、ほぼ円形の領域が網羅される。
FIG. 10 is a diagram showing still another example of the searched route.
The search path shown in FIG. 10 is a spiral path formed by a locus starting from the displacement point S1 and rotating around the displacement point S1 and having a radius increasing from the center as the rotation occurs. is there. The end point of this route is the initial contact point C as an end point, and the amount of increase in radius per round is set to an interval smaller than the diameter of the opening of the first object. Thereby, a substantially circular area is covered as a search area.

なお、探索経路は、探索領域を網羅し、変位点S1から当初接触点Cに近づく経路であれば、いかなる形状を有していてもよい。探索経路は、例えば、変位点S1と当初接触点Cとを通る正弦曲線、等である。探索経路は、上述した例に示されるように、その一部に当初接触点Cから遠ざかる部分が含まれてもよい。   The search route may have any shape as long as it covers the search region and is close to the initial contact point C from the displacement point S1. The search path is, for example, a sine curve passing through the displacement point S1 and the initial contact point C. The search route may include a portion away from the initial contact point C as a part thereof, as shown in the above-described example.

上述したロボットシステム1の構成は、本実施形態の特徴を説明するものであって、これには限られない。ロボット制御装置10は、コンピューターで構成されていてもよい。
図11は、本実施形態に係るロボット制御装置10の機能構成の他の例を示す図である。
ロボット制御装置10は、CPU(Central Processing Unit)11、メモリー12、外部記憶装置13、通信装置14、入力装置15、出力装置16、及びI/F(Interface)17を含んで構成される。
CPU11は、上述した処理に係る演算を行う。メモリー12は、不揮発性の記憶装置であるROM(Read Only Memory)や揮発性の記憶装置であるRAM(Random Access Memory)を含む。通信装置14は、ロボット20との間で通信を行う。入力装置15は、ユーザーの操作を受け付け、受け付けた操作に応じた操作入力信号を入力する装置、例えば、マウス、キーボード、等である。出力装置16は、画像データを視認可能に出力する装置、例えば、ディスプレイ、等である。I/F17は、他の装置と接続し、データを入力又は出力する。例えば、I/F17は、例えば撮像装置30から画像データを入力する。
The configuration of the robot system 1 described above describes the features of the present embodiment, and is not limited to this. The robot control apparatus 10 may be configured with a computer.
FIG. 11 is a diagram illustrating another example of the functional configuration of the robot control apparatus 10 according to the present embodiment.
The robot control device 10 includes a CPU (Central Processing Unit) 11, a memory 12, an external storage device 13, a communication device 14, an input device 15, an output device 16, and an I / F (Interface) 17.
CPU11 performs the calculation which concerns on the process mentioned above. The memory 12 includes a ROM (Read Only Memory) that is a non-volatile storage device and a RAM (Random Access Memory) that is a volatile storage device. The communication device 14 communicates with the robot 20. The input device 15 is a device that accepts a user's operation and inputs an operation input signal corresponding to the accepted operation, such as a mouse, a keyboard, or the like. The output device 16 is a device that outputs image data so as to be visible, such as a display. The I / F 17 is connected to another device, and inputs or outputs data. For example, the I / F 17 inputs image data from the imaging device 30, for example.

上述の各機能部は、例えば、CPU11がメモリー12に格納された所定のプログラムを読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー12にインストールされてもよいし、通信装置14を介してネットワークからダウンロードされてインストール又は更新されてもよい。   Each functional unit described above is realized, for example, by the CPU 11 reading and executing a predetermined program stored in the memory 12. The predetermined program may be installed in advance in the memory 12, for example, or may be downloaded from the network via the communication device 14 and installed or updated.

ロボット制御装置10とロボット20は、上述のように互いに別体で構成されてもよいが、ロボット制御装置10がロボット20と一体化したロボット20として構成されてもよい。一体化して構成される場合には、ロボット20は、ロボット制御装置10を内蔵してもよい。
また、撮像装置30は、上述のようにロボット制御装置10又はロボット20と別体であってもよいが、一体化されてもよい。
また、本実施形態では、ロボット20の一例として、2本の可動部21を備える双腕ロボットを示したが、1本の可動部21を備える単腕ロボット、3本以上の可動部21を備えるロボットであってもよい。また、ロボット20は、スカラーロボットでもよく、垂直多関節ロボットでもよい。また、ロボット20は、移動を可能にするために、例えば、車輪や脚部を備えてもよい。
The robot control device 10 and the robot 20 may be configured separately from each other as described above, but the robot control device 10 may be configured as a robot 20 integrated with the robot 20. When configured integrally, the robot 20 may incorporate the robot control device 10.
The imaging device 30 may be separate from the robot control device 10 or the robot 20 as described above, but may be integrated.
In the present embodiment, a double-arm robot including two movable parts 21 is shown as an example of the robot 20, but a single-arm robot including one movable part 21 and three or more movable parts 21 are provided. It may be a robot. The robot 20 may be a scalar robot or a vertical articulated robot. Further, the robot 20 may include wheels and legs, for example, in order to enable movement.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
上述したロボットシステム1の機能構成は、ロボットシステム1の構成について理解を容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、ビジュアルサーボ制御が行われない場合、その他、画像データが用いられない場合には、画像取得部140、撮像装置30の少なくともいずれか一方が省略されてもよい。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
The functional configuration of the robot system 1 described above is classified according to main processing contents in order to facilitate understanding of the configuration of the robot system 1. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the robot system 1 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.
In addition, when visual servo control is not performed, or when image data is not used, at least one of the image acquisition unit 140 and the imaging device 30 may be omitted.

また、ロボット制御装置10及びロボット20の機能及び処理の分担は、図示した例に限られない。例えば、ロボット制御装置10の少なくとも一部の機能は、ロボット20に含まれ、ロボット20により実現されてもよい。また、例えば、ロボット20の少なくとも一部の機能は、ロボット制御装置10に含まれ、ロボット制御装置10により実現されてもよい。   Further, the functions and processing sharing of the robot control device 10 and the robot 20 are not limited to the illustrated example. For example, at least a part of the functions of the robot control device 10 may be included in the robot 20 and realized by the robot 20. Further, for example, at least a part of the functions of the robot 20 may be included in the robot control device 10 and realized by the robot control device 10.

また、上述したフローチャートの各処理単位は、ロボット制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。ロボット制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   In addition, each processing unit in the above-described flowchart is divided according to main processing contents in order to facilitate understanding of the processing of the robot control apparatus 10. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the robot control device 10 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

1…ロボットシステム、
10…ロボット制御システム、11…CPU、12…メモリー、13…外部記憶装置、
14…通信装置、15…入力装置、16…出力装置、17…I/F、
120…力制御部、122…センサー情報取得部、124…軌道生成部、
140…画像取得部、
20…ロボット、21…可動部、22…アーム、23…ジョイント、24…リンク、
25…力覚センサー、26…ハンド、200…駆動制御部、
30…撮像装置
1 ... Robot system,
DESCRIPTION OF SYMBOLS 10 ... Robot control system, 11 ... CPU, 12 ... Memory, 13 ... External storage device,
14 ... Communication device, 15 ... Input device, 16 ... Output device, 17 ... I / F,
120 ... Force control unit, 122 ... Sensor information acquisition unit, 124 ... Trajectory generation unit,
140 ... an image acquisition unit,
20 ... Robot, 21 ... Movable part, 22 ... Arm, 23 ... Joint, 24 ... Link,
25 ... force sensor, 26 ... hand, 200 ... drive control unit,
30 ... Imaging device

Claims (8)

第1の対象物の開口部を第2の対象物の突起部に挿入するロボットであって、
力センサーと、
ハンドと、を含み、
前記ハンドにより、前記第1の対象物を把持し、
前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づける、
ロボット。
A robot that inserts an opening of a first object into a protrusion of a second object,
A force sensor;
A hand, and
The first object is gripped by the hand,
Bringing the opening of the first object closer to the protrusion of the second object;
robot.
前記第2の対象物は、載置されている請求項1に記載のロボット。   The robot according to claim 1, wherein the second object is placed. 前記第1の対象物の開口部を前記第2の対象物を目標として動かす際、前記第1の対象物が前記第2の対象物に初めて接触した位置である当初接触点から所定の方向に変位した位置である変位点を設定し、前記第1の対象物が前記第2の対象物に接触した位置である接触点が前記設定した変位点から前記当初接触点に近づくように前記第2の対象物に接触させながら前記第1の対象物を動かすように動作する
請求項1又は請求項2に記載のロボット。
When moving the opening of the first object with the second object as a target, the first object is in a predetermined direction from an initial contact point where the first object is in contact with the second object for the first time. A displacement point that is a displaced position is set, and the second contact point is such that a contact point that is a position where the first object contacts the second object approaches the initial contact point from the set displacement point. The robot according to claim 1, wherein the robot operates to move the first object while being in contact with the object.
前記当初接触点と前記変位点との間の距離は、前記第1の対象物の位置の誤差に基づく距離である請求項3に記載のロボット。   The robot according to claim 3, wherein the distance between the initial contact point and the displacement point is a distance based on an error in the position of the first object. 前記接触点が前記変位点と前記当初接触点との間を結ぶ線分から所定の幅を有する領域を網羅する経路上に沿うように前記第1の対象物を動かす請求項3又は請求項4に記載のロボット。   The method according to claim 3 or 4, wherein the first object is moved so that the contact point is along a path covering a region having a predetermined width from a line segment connecting the displacement point and the initial contact point. The robot described. 前記領域内に前記第2の対象物が検出されなかった場合、前記当初接触点から前記所定の方向とは異なる方向に変位した位置に変位点を再設定し、前記接触点が再設定した変位点から前記当初接触点に近づくように前記第1の対象物を動かすようにロボットの動作を制御する請求項5に記載のロボット。   When the second object is not detected in the region, a displacement point is reset to a position displaced from the initial contact point in a direction different from the predetermined direction, and the contact point is reset. The robot according to claim 5, wherein an operation of the robot is controlled so as to move the first object so as to approach the initial contact point from a point. ロボットと、前記ロボットの動作を制御するロボット制御装置とを備えたロボットシステムであって、
前記ロボットは、第1の対象物の開口部を第2の対象物の突起部に挿入するロボットであって、
力センサーと、
ハンドと、を含み、
前記ハンドにより、前記第1の対象物を把持し、
前記ロボット制御装置は、
前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づけるように前記ロボットの動作を制御する
ロボットシステム。
A robot system comprising a robot and a robot control device that controls the operation of the robot,
The robot is a robot that inserts an opening of a first object into a protrusion of a second object,
A force sensor;
A hand, and
The first object is gripped by the hand,
The robot controller is
The robot system which controls operation | movement of the said robot so that the said opening part of a said 1st target object may be closely approached to the said projection part of a said 2nd target object.
力センサーと、
ハンドと、を含み、
前記ハンドにより、第1の対象物を把持し、
前記第1の対象物の開口部を第2の対象物の突起部に挿入するロボットの動作を、
前記第1の対象物の前記開口部を前記第2の対象物の前記突起部に近づけるように制御する
ロボット制御装置。
A force sensor;
A hand, and
The first object is gripped by the hand,
The operation of the robot inserting the opening of the first object into the protrusion of the second object,
A robot control apparatus that controls the opening of the first object to approach the protrusion of the second object.
JP2013228840A 2013-11-01 2013-11-01 Robot, robot system, and robot controller Active JP6314429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013228840A JP6314429B2 (en) 2013-11-01 2013-11-01 Robot, robot system, and robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228840A JP6314429B2 (en) 2013-11-01 2013-11-01 Robot, robot system, and robot controller

Publications (2)

Publication Number Publication Date
JP2015085501A true JP2015085501A (en) 2015-05-07
JP6314429B2 JP6314429B2 (en) 2018-04-25

Family

ID=53048845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228840A Active JP6314429B2 (en) 2013-11-01 2013-11-01 Robot, robot system, and robot controller

Country Status (1)

Country Link
JP (1) JP6314429B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106994680A (en) * 2015-11-26 2017-08-01 精工爱普生株式会社 Robot and robot system
EP3623115A1 (en) 2018-09-06 2020-03-18 Kabushiki Kaisha Toshiba Hand control device
WO2020171201A1 (en) * 2019-02-22 2020-08-27 株式会社エスイーフォー Method for inserting shaft member into hole in segment, and control device
US11498210B2 (en) 2018-09-10 2022-11-15 Kabushiki Kaisha Toshiba Object handling device and computer program product

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01222880A (en) * 1988-03-02 1989-09-06 Nitta Ind Corp Method for inserting cylindrical member onto pin erected in pallet and its device
JPH07185959A (en) * 1993-12-28 1995-07-25 Mitsubishi Electric Corp Automatic assembling method and automatic assembling device
JPH08174457A (en) * 1994-12-27 1996-07-09 Nissan Motor Co Ltd Method and device for controlling assembling robot
EP1422020A1 (en) * 2002-11-21 2004-05-26 Fanuc Ltd Assembling method and apparatus
JP2009061550A (en) * 2007-09-06 2009-03-26 Yaskawa Electric Corp Control method and control device for assembly operation robot
JP2011115877A (en) * 2009-12-02 2011-06-16 Canon Inc Double arm robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01222880A (en) * 1988-03-02 1989-09-06 Nitta Ind Corp Method for inserting cylindrical member onto pin erected in pallet and its device
JPH07185959A (en) * 1993-12-28 1995-07-25 Mitsubishi Electric Corp Automatic assembling method and automatic assembling device
JPH08174457A (en) * 1994-12-27 1996-07-09 Nissan Motor Co Ltd Method and device for controlling assembling robot
EP1422020A1 (en) * 2002-11-21 2004-05-26 Fanuc Ltd Assembling method and apparatus
JP2004167651A (en) * 2002-11-21 2004-06-17 Fanuc Ltd Assembling method and device
JP2009061550A (en) * 2007-09-06 2009-03-26 Yaskawa Electric Corp Control method and control device for assembly operation robot
JP2011115877A (en) * 2009-12-02 2011-06-16 Canon Inc Double arm robot
US20120197438A1 (en) * 2009-12-02 2012-08-02 Canon Kabushiki Kaisha Dual arm robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106994680A (en) * 2015-11-26 2017-08-01 精工爱普生株式会社 Robot and robot system
CN106994680B (en) * 2015-11-26 2021-09-24 精工爱普生株式会社 Robot and robot system
EP3623115A1 (en) 2018-09-06 2020-03-18 Kabushiki Kaisha Toshiba Hand control device
US11498210B2 (en) 2018-09-10 2022-11-15 Kabushiki Kaisha Toshiba Object handling device and computer program product
WO2020171201A1 (en) * 2019-02-22 2020-08-27 株式会社エスイーフォー Method for inserting shaft member into hole in segment, and control device

Also Published As

Publication number Publication date
JP6314429B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
JP6511715B2 (en) Robot control device, robot system, and robot
JP6454960B2 (en) Robot, robot system, robot controller
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
CN105598987B (en) Determination of a gripping space for an object by means of a robot
JP4001105B2 (en) Grasping method of arbitrarily shaped object by robot
JP2009255191A (en) Robot manipulator
JP6314429B2 (en) Robot, robot system, and robot controller
EP3326037A1 (en) System and method for determining tool offsets
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
JPWO2019065427A1 (en) Robot hand system control method and robot hand system
CN115194752A (en) Apparatus and method for training neural network to control task-inserted robot
JP2015186834A (en) Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program
JP5787646B2 (en) Robot system and component manufacturing method
JP5648353B2 (en) Robot hand and robot
JP2015085499A (en) Robot, robot system, control device and control method
JPWO2019065426A1 (en) Robot hand and robot hand control method
JP2005144573A (en) Gripping force control method of robot hand
JP6322948B2 (en) Robot control apparatus, robot system, robot, robot control method, and program
JP4715296B2 (en) Robot hand holding and gripping control method.
US20220335710A1 (en) Device and method for training a neural network for controlling a robot for an inserting task
JP2016209936A (en) Robot device, method of controlling robot, program and recording medium
JP2009056593A (en) Gripping control device
JP2017100197A (en) Robot and control method
JP2015085502A (en) Robot, robot system, and robot control device
JP2013129005A (en) Gripping robot device, gripping operation control method and gripping operation control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6314429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150