JP7011805B2 - Robot control device and robot control method for setting robot control points - Google Patents

Robot control device and robot control method for setting robot control points Download PDF

Info

Publication number
JP7011805B2
JP7011805B2 JP2017173602A JP2017173602A JP7011805B2 JP 7011805 B2 JP7011805 B2 JP 7011805B2 JP 2017173602 A JP2017173602 A JP 2017173602A JP 2017173602 A JP2017173602 A JP 2017173602A JP 7011805 B2 JP7011805 B2 JP 7011805B2
Authority
JP
Japan
Prior art keywords
region
point
target
points
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017173602A
Other languages
Japanese (ja)
Other versions
JP2019048350A (en
Inventor
貞夫 川村
亮介 西田
京 立花
達大 若山
Original Assignee
株式会社チトセロボティクス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社チトセロボティクス filed Critical 株式会社チトセロボティクス
Priority to JP2017173602A priority Critical patent/JP7011805B2/en
Publication of JP2019048350A publication Critical patent/JP2019048350A/en
Application granted granted Critical
Publication of JP7011805B2 publication Critical patent/JP7011805B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、対象物を関節の変位により所定の移動先へ移動させることができるロボットを制御するロボット制御装置およびロボット制御方法に関するものである。 The present invention relates to a robot control device and a robot control method for controlling a robot capable of moving an object to a predetermined destination by displacement of a joint.

本件発明者は、先に、下記特許文献1に開示されるロボット制御装置を提案している。このロボット制御装置は、駆動手段により関節部を介してリンクが駆動するアームを備えるロボットの制御装置であって、アームに設定される基準点および基準点の移動先である目標点が撮像され、その撮像結果に基づいて基準点と目標点との間の位置偏差が求められ、求められた位置偏差に基づいて駆動手段を駆動させる駆動電圧をパルス幅変調してPWM信号が生成され、生成されたPWM信号を駆動手段に出力することで、基準点を目標点へ移動させることができる。 The present inventor has previously proposed a robot control device disclosed in Patent Document 1 below. This robot control device is a control device for a robot including an arm in which a link is driven via a joint by a driving means, and a reference point set on the arm and a target point to which the reference point is moved are imaged. The position deviation between the reference point and the target point is obtained based on the image pickup result, and the drive voltage for driving the drive means is pulse-width modulated based on the obtained position deviation to generate and generate a PWM signal. By outputting the PWM signal to the drive means, the reference point can be moved to the target point.

また、本件発明者は、先に、下記特許文献2に開示されるロボット制御システムを提案している。このロボット制御システムは、カメラで検出されたロボットの手先部の位置とカメラで検出された手先部の目標位置との誤差を、座標変換後、エンコーダにより検出された手先部の位置に加えて仮想目標位置を設定し、その仮想目標位置へ手先部を移動させる。 In addition, the present inventor has previously proposed a robot control system disclosed in Patent Document 2 below. This robot control system virtually adds the error between the position of the robot's hand detected by the camera and the target position of the hand detected by the camera to the position of the hand detected by the encoder after coordinate conversion. Set the target position and move the hand to the virtual target position.

さらに、本件発明者は、先に、下記特許文献3に開示されるロボット制御装置を提案している。このロボット制御装置は、ロボットの関節を変位させるために関節に印加する力あるいはトルクである印加量として、ロボットの基準箇所とその移動先との間の位置偏差に応じた値に積分演算を行った積分値を基準箇所について求めた結果から第1印加量を算出するとともに、基準箇所がその移動先に一致するときの関節の変位量である目標変位量とエンコーダの検出変位量との変位量偏差に応じた値に比例演算を行って第2印加量を算出する。そして、第1印加量および第2印加量を関節に加えて、基準箇所をその移動先へ向けて移動させる。 Further, the present inventor has previously proposed a robot control device disclosed in Patent Document 3 below. This robot control device performs an integral calculation on the value corresponding to the position deviation between the reference point of the robot and its moving destination as the applied amount which is the force or torque applied to the joint to displace the joint of the robot. The first applied amount is calculated from the result of obtaining the integrated value for the reference point, and the displacement amount between the target displacement amount, which is the displacement amount of the joint when the reference point matches the movement destination, and the detected displacement amount of the encoder. The second applied amount is calculated by performing a proportional calculation on the value corresponding to the displacement. Then, the first application amount and the second application amount are added to the joint to move the reference point toward the movement destination.

特開2015-221474号公報Japanese Unexamined Patent Publication No. 2015-221474 特開2016-52699号公報Japanese Unexamined Patent Publication No. 2016-52699 国際公開番号WO2013/176212号公報International Publication No. WO2013 / 176212

しかしながら、従来では、基準点および目標点の設定箇所について考慮されていないので、たとえば、立体状の対象物をその移動先へ移動させる際、移動先において対象物を所定の位置に所定の向きで配置することができないおそれがある。ところが、ロボットを用いた実際の作業現場では、そのようなことが望まれている。 However, conventionally, since the setting points of the reference point and the target point are not considered, for example, when moving a three-dimensional object to the moving destination, the object is moved to a predetermined position and in a predetermined direction at the moving destination. It may not be possible to place it. However, such a thing is desired in an actual work site using a robot.

本発明は、このような事情に鑑みてなされたものであり、その主たる目的は、移動先において対象物を所定の位置に所定の向きで配置することができるロボット制御装置およびロボット制御方法を提供することにある。 The present invention has been made in view of such circumstances, and a main object thereof is to provide a robot control device and a robot control method capable of arranging an object at a predetermined position in a predetermined direction at a moving destination. To do.

上記目的を達成するための本発明に係るロボットの制御装置は、対象物を関節の変位により移動させるロボットの制御装置であって、移動先での前記対象物の位置および姿勢を決定するために、前記対象物に基準点が設定される一方、前記基準点の移動先としての目標点が設定されており、前記基準点および前記目標点を撮像する撮像手段と、前記ロボットおよび前記撮像手段のキャリブレーションを行わずに、前記撮像手段により得られた撮像結果に基づき、前記基準点が前記目標点へ移動するよう前記関節の変位を制御する制御手段と、を備え、前記対象物が第一領域を有し、前記対象物の移動先が前記第一領域の外形と同一形状の第二領域を有しており、前記対象物を移動させて前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させる制御において、前記対象物に前記基準点が複数設定され、複数の前記基準点が前記第一領域の縁部に設定されるか、または複数の前記基準点の内、少なくとも一の基準点が前記第一領域の縁部に設定され、残りの基準点が前記対象物に前記第一領域の縁部以外の箇所に設定され、複数の前記基準点の内、前記少なくとも一の基準点が前記第一領域の縁部に設定され、前記残りの基準点が一点とされて前記対象物に前記第一領域の縁部以外の箇所に設定される場合、前記対象物の移動先が軸方向一端面に前記第二領域を有する角柱体を有しており、前記少なくとも一の基準点が一点の場合、その一点の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記少なくとも一の基準点が複数の場合、その内の一の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記角柱体の軸方向一端面と軸方向他端面との間の辺部の内、一の辺部上に互いに離隔して二つの他の目標点が設定され、前記制御手段は、前記第一領域の縁部に設定される前記基準点が前記目標点へ移動するよう前記関節の変位を制御すると共に、前記二つの他の目標点間を結ぶ目標線分の方向と前記基準線分の方向とが同一となるよう前記関節の変位を制御する、ことを特徴とする。 The robot control device according to the present invention for achieving the above object is a robot control device that moves an object by displacement of a joint, and is used to determine the position and posture of the object at the destination. While the reference point is set for the object, the target point as the movement destination of the reference point is set, and the image pickup means for imaging the reference point and the target point, and the robot and the image pickup means. The object is first provided with a control means for controlling the displacement of the joint so that the reference point moves to the target point based on the image pickup result obtained by the image pickup means without performing calibration. It has a region, and the destination of the object has a second region having the same shape as the outer shape of the first region, and the object is moved so that the edge of the first region is the second region. A plurality of the reference points are set on the object, and a plurality of the reference points are set on the edge of the first region, or a plurality of the reference points are set in the control of contacting the edges of the object so as to match the outer shape. Of the above, at least one reference point is set at the edge of the first region, and the remaining reference points are set at a location other than the edge of the first region on the object, and among the plurality of reference points. When the at least one reference point is set at the edge of the first region and the remaining reference points are set at a location other than the edge of the first region on the object. When the destination of the object has a prismatic body having the second region on one end surface in the axial direction and the at least one reference point is one point, the one reference point and the remaining reference points are connected. When the remaining reference points are set on the object so that the reference line segment is perpendicular to one end surface in the axial direction of the square column at the time of contact, and there are a plurality of the at least one reference points, among them. The remaining reference points are set on the object so that the reference line segment connecting one reference point and the remaining reference points is perpendicular to one axial end surface of the square column at the time of contact. Two other target points are set on one side of the side segment between the axial one end surface and the axial end surface of the prismatic body so as to be separated from each other, and the control means is the first region. The displacement of the joint is controlled so that the reference point set on the edge of the object moves to the target point, and the direction of the target line segment connecting the two other target points and the direction of the reference line segment. It is characterized in that the displacement of the joint is controlled so that the two are the same .

上記目的を達成するための本発明に係るロボットの制御装置は、対象物を関節の変位により移動させるロボットの制御装置であって、前記対象物と前記対象物の移動先とを撮像する撮像手段と、前記撮像手段により得られた画像上において、前記対象物に基準点をかつ前記対象物の移動先に前記基準点の移動先である目標点を、移動先での前記対象物の位置および姿勢を決定できるように設定する設定手段と、前記ロボットおよび前記撮像手段のキャリブレーションを行わずに、前記設定手段により前記基準点および前記目標点が設定された前記画像に基づき、前記基準点が前記目標点へ移動するよう前記関節の変位を制御する制御手段と、を備え、前記対象物が第一領域を有し、前記対象物の移動先が前記第一領域の外形と同一形状の第二領域を有しており、前記対象物を移動させて前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させる制御において、前記対象物に前記基準点が複数設定され、複数の前記基準点が前記第一領域の縁部に設定されるか、または複数の前記基準点の内、少なくとも一の基準点が前記第一領域の縁部に設定され、残りの基準点が前記対象物に前記第一領域の縁部以外の箇所に設定され、複数の前記基準点の内、前記少なくとも一の基準点が前記第一領域の縁部に設定され、前記残りの基準点が一点とされて前記対象物に前記第一領域の縁部以外の箇所に設定される場合、前記対象物の移動先が軸方向一端面に前記第二領域を有する角柱体を有しており、前記少なくとも一の基準点が一点の場合、その一点の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記少なくとも一の基準点が複数の場合、その内の一の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記角柱体の軸方向一端面と軸方向他端面との間の辺部の内、一の辺部上に互いに離隔して二つの他の目標点が設定され、前記制御手段は、前記第一領域の縁部に設定される前記基準点が前記目標点へ移動するよう前記関節の変位を制御すると共に、前記二つの他の目標点間を結ぶ目標線分の方向と前記基準線分の方向とが同一となるよう前記関節の変位を制御すること、を特徴とする。 The robot control device according to the present invention for achieving the above object is a robot control device that moves an object by displacement of a joint, and is an imaging unit that captures an image of the object and the destination of the object. On the image obtained by the imaging means, a reference point is set on the object and a target point which is the destination of the reference point is set on the destination of the object, and the position of the object and the position of the object at the destination and the target point. The reference point is set based on the setting means for setting the posture and the image in which the reference point and the target point are set by the setting means without calibrating the robot and the imaging means. A control means for controlling the displacement of the joint so as to move to the target point is provided, the object has a first region, and the destination of the object has the same shape as the outer shape of the first region. It has two regions, and in the control of moving the object so that the edge of the first region is brought into contact with the edge of the second region so that the outer shape matches the edge of the second region, a plurality of reference points are set on the object. The plurality of reference points are set at the edge of the first region, or at least one of the plurality of reference points is set at the edge of the first region, and the remaining reference points are set. A point is set on the object at a location other than the edge of the first region, at least one of the plurality of reference points is set on the edge of the first region, and the remaining reference points. When a point is set as one point and the object is set at a position other than the edge of the first region, the destination of the object has a prismatic body having the second region on one end surface in the axial direction. When the at least one reference point is one point, the reference line segment connecting the one reference point and the remaining reference points is perpendicular to one axial end surface of the square column at the time of contact. When the remaining reference points are set on the object and there are a plurality of the at least one reference points, the reference line segment connecting one of the reference points and the remaining reference points is the square column body at the time of the contact. The remaining reference points are set on the object so as to be perpendicular to one end surface in the axial direction, and one of the side portions between the one end surface in the axial direction and the other end surface in the axial direction of the square column. Two other target points are set on the sides apart from each other, and the control means displaces the joint so that the reference point set on the edge of the first region moves to the target point. It is characterized by controlling and controlling the displacement of the joint so that the direction of the target line segment connecting the two other target points and the direction of the reference line segment are the same .

上記目的を達成するための本発明に係るロボットの制御装置は、前記基準線分の一端である前記基準点に対応する前記目標点と、その前記目標点から前記目標線分と同一方向へ延出する延出線上に設定される別の目標点とを結ぶ線分の長さが前記基準線分の長さと同一となるように前記別の目標点が設定され、前記制御手段は、前記基準線分の方向と前記目標線分の方向とが同一となるようにするために、前記残りの基準点が前記別の目標点へ移動するよう関節の変位を制御すること、を特徴とする。 The robot control device according to the present invention for achieving the above object extends the target point corresponding to the reference point, which is one end of the reference line segment, and the target point in the same direction as the target line segment. The other target point is set so that the length of the line segment connecting to another target point set on the extending line is the same as the length of the reference line segment, and the control means is the reference. It is characterized in that the displacement of the joint is controlled so that the remaining reference point moves to the other target point so that the direction of the line segment and the direction of the target line segment become the same.

上記目的を達成するための本発明に係るロボットの制御装置は、前記制御手段は、前記基準線分の方向と前記目標線分の方向とが同一となるようにするために、前記基準線分の一端である前記基準点に対応する前記目標点から前記目標線分と同一方向へ延出する延出線に対して前記残りの基準点から垂直にひかれる線分の長さに相当するずれである偏差ベクトルに基づき前記関節の変位を制御すること、を特徴とする。 In the robot control device according to the present invention for achieving the above object, the control means has the reference line segment so that the direction of the reference line segment and the direction of the target line segment are the same. A deviation corresponding to the length of the line segment drawn perpendicularly from the remaining reference points with respect to the extending line extending in the same direction as the target line segment from the target point corresponding to the reference point at one end of the above. It is characterized in that the displacement of the joint is controlled based on the deviation vector.

上記目的を達成するための本発明に係るロボットの制御装置は、前記対象物が前記第一領域を先端に有する差込部を有し、前記第二領域が前記対象物の前記差込部が差し込まれる被差込部とされており、前記対象物を移動させて、前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させた後に前記差込部を前記被差込部に差し込む制御において、前記第一領域に設定された前記基準点よりも基端側において前記差込部に、前記差込部の前記被差込部への差込後に前記第二領域に設定される前記目標点に対応する他の基準点がさらに設定され、前記制御手段は、前記第一領域の縁部と前記第二領域の縁部との接触後、前記他の基準点が前記第二領域に設定される前記目標点に移動するよう関節の変位を制御する、ことを特徴とする。 The robot control device according to the present invention for achieving the above object has an insertion portion in which the object has the first region at the tip, and the second region has the insertion portion of the object. It is a insertion portion to be inserted, and after the object is moved and the edge portion of the first region is brought into contact with the edge portion of the second region so that the outer shape matches the insertion portion, the insertion portion is brought into contact with the insertion portion. In the control of inserting into the insertion portion, the second region after the insertion portion is inserted into the insertion portion at the proximal end side of the reference point set in the first region. Another reference point corresponding to the target point set in is further set, and the control means sets the other reference point after the contact between the edge portion of the first region and the edge portion of the second region. It is characterized in that the displacement of the joint is controlled so as to move to the target point set in the second region.

本発明に係るロボット制御装置によれば、移動先での対象物の位置および姿勢を決定するために、対象物に基準点が設定され、対象物の移動先に目標点が設定される。そして、基準点および目標点が撮像され、その撮像結果に基づき、基準点が目標点へ移動するようにロボットが制御される。従って、ロボットで対象物を移動させる際、移動先において対象物を所定の位置に所定の向きで配置することができる。この際、ロボットおよび撮像手段のキャリブレーションが行われないので、そのキャリブレーションにかかる負担を低減することができる。 According to the robot control device according to the present invention, in order to determine the position and posture of the object at the moving destination, a reference point is set for the object and a target point is set for the moving destination of the object. Then, the reference point and the target point are imaged, and the robot is controlled so that the reference point moves to the target point based on the imaged result. Therefore, when the robot moves the object, the object can be placed at a predetermined position and in a predetermined direction at the destination. At this time, since the robot and the image pickup means are not calibrated, the burden on the calibration can be reduced.

本発明に係るロボット制御装置によれば、対象物とその移動先とが撮像され、その撮像された画像上において、対象物に基準点が設定され、対象物の移動先に目標点が設定される。この際、基準点および目標点は、移動先での対象物の位置および姿勢を決定できるように設定される。そして、基準点および目標点が設定された画像に基づき、基準点が目標点へ移動するようにロボットが制御される。従って、対象物に直接に基準点を設定するのが困難な場合や、対象物の移動先に直接に目標点を設定するのが困難な場合において、ロボットで対象物を移動させる際、対象物を所定の位置に所定の向きで配置することができる。この際、ロボットおよび撮像手段のキャリブレーションが行われないので、そのキャリブレーションにかかる負担を低減することができる。 According to the robot control device according to the present invention, an object and its moving destination are imaged, a reference point is set for the object, and a target point is set for the moving destination of the object on the captured image. To. At this time, the reference point and the target point are set so that the position and posture of the object at the moving destination can be determined. Then, the robot is controlled so that the reference point moves to the target point based on the image in which the reference point and the target point are set. Therefore, when it is difficult to set a reference point directly on the object, or when it is difficult to set a target point directly on the destination of the object, when the robot moves the object, the object is moved. Can be placed in a predetermined position and in a predetermined orientation. At this time, since the robot and the image pickup means are not calibrated, the burden on the calibration can be reduced.

また、本発明に係るロボット制御装置によれば、対象物に設定される複数の基準点が第一領域の縁部に設定されるか、または複数の基準点の内、少なくとも一の基準点が対象物の第一領域の縁部に設定され、残りの基準点が対象物に第一領域の縁部以外の箇所に設定される。従って、ロボットで対象物を移動させて、第一領域の縁部を第二領域の縁部に外形が合うよう正確に接触させることができる。 Further, according to the robot control device according to the present invention, a plurality of reference points set on the object are set at the edge of the first region, or at least one reference point among the plurality of reference points is set. It is set at the edge of the first region of the object, and the remaining reference points are set at the object other than the edge of the first region. Therefore, the robot can move the object so that the edge of the first region is brought into accurate contact with the edge of the second region so that the outer shape matches the edge of the second region.

また、本発明に係るロボット制御装置によれば、対象物に設定される複数の基準点の内、複数の基準点が第一領域の縁部において同一直線上に設定される。そして、残りの基準点は、第一領域の縁部に前記複数の基準点と異なる箇所に設定される。この際、残りの基準点は、前記同一直線上から外れた位置に設定される。従って、簡易な設定で、第一領域の縁部を第二領域の縁部に外形が合うよう正確に接触させることができる。 Further, according to the robot control device according to the present invention, among the plurality of reference points set on the object, a plurality of reference points are set on the same straight line at the edge of the first region. Then, the remaining reference points are set at the edges of the first region at locations different from the plurality of reference points. At this time, the remaining reference points are set at positions deviating from the same straight line. Therefore, with a simple setting, the edge portion of the first region can be accurately contacted with the edge portion of the second region so that the outer shape matches.

また、本発明に係るロボット制御装置によれば、対象物の第一領域の縁部に設定される基準点が第二領域の縁部に設定される目標点へ移動するよう関節の変位が制御されると共に、目標線分の方向と基準線分の方向とが同一となるよう関節の変位が制御される。従って、たとえば板材の厚み部分が第一領域とされる場合、第一領域の縁部を第二領域の縁部に外形が合うように正確に接触させることができる。 Further, according to the robot control device according to the present invention, the displacement of the joint is controlled so that the reference point set at the edge of the first region of the object moves to the target point set at the edge of the second region. At the same time, the displacement of the joint is controlled so that the direction of the target line segment and the direction of the reference line segment are the same. Therefore, for example, when the thick portion of the plate material is the first region, the edge portion of the first region can be accurately contacted with the edge portion of the second region so that the outer shape matches.

また、本発明に係るロボット制御装置によれば、対象物の第一領域の縁部に設定される基準点が第二領域の縁部に設定される目標点へ移動するよう関節の変位が制御されると共に、残りの基準点が別の目標点へ移動するよう関節の変位が制御される。従って、たとえば板材の厚み部分が第一領域とされる場合、簡易な設定で、第一領域の縁部を第二領域の縁部に外形が合うように正確に接触させることができる。 Further, according to the robot control device according to the present invention, the displacement of the joint is controlled so that the reference point set at the edge of the first region of the object moves to the target point set at the edge of the second region. At the same time, the displacement of the joint is controlled so that the remaining reference point moves to another target point. Therefore, for example, when the thick portion of the plate material is the first region, the edge portion of the first region can be accurately contacted with the edge portion of the second region so that the outer shape matches the edge portion of the second region with a simple setting.

また、本発明に係るロボット制御装置によれば、対象物の第一領域の縁部に設定される基準点が第二領域の縁部に設定される目標点へ移動するよう関節の変位が制御されると共に、偏差ベクトルに基づき関節の変位が制御される。従って、たとえば板材の厚み部分が第一領域とされる場合、簡易な設定で、第一領域の縁部を第二領域の縁部に外形が合うように正確に接触させることができる。 Further, according to the robot control device according to the present invention, the displacement of the joint is controlled so that the reference point set at the edge of the first region of the object moves to the target point set at the edge of the second region. At the same time, the displacement of the joint is controlled based on the deviation vector. Therefore, for example, when the thick portion of the plate material is the first region, the edge portion of the first region can be accurately contacted with the edge portion of the second region so that the outer shape matches the edge portion of the second region with a simple setting.

また、本発明に係るロボット制御装置によれば、第一領域の縁部と第二領域の縁部との接触後、第一領域に設定された基準点よりも基端側に設定される他の基準点が第二領域に設定される目標点へ移動するよう関節の変位が制御される。従って、ロボットで対象物を移動させて、対象物の差込部を対象物の移動先の被差込部に正確に差し込むことができる。 Further, according to the robot control device according to the present invention, after the contact between the edge portion of the first region and the edge portion of the second region, the robot control device is set closer to the base end side than the reference point set in the first region. The displacement of the joint is controlled so that the reference point of is moved to the target point set in the second region. Therefore, the robot can move the object and accurately insert the insertion portion of the object into the insertion portion to which the object is moved.

本発明に係るロボット制御方法によれば、移動先での対象物の位置および姿勢を決定するために、対象物に基準点が設定され、対象物の移動先に目標点が設定される。そして、基準点および目標点が撮像され、その撮像結果に基づき、基準点が目標点へ移動するようにロボットが制御される。従って、ロボットで対象物を移動させる際、移動先において対象物を所定の位置に所定の向きで配置することができる。この際、ロボットおよび撮像手段のキャリブレーションが行われないので、そのキャリブレーションにかかる負担を低減することができる。 According to the robot control method according to the present invention, a reference point is set for the object and a target point is set for the moving destination of the object in order to determine the position and posture of the object at the moving destination. Then, the reference point and the target point are imaged, and the robot is controlled so that the reference point moves to the target point based on the imaged result. Therefore, when the robot moves the object, the object can be placed at a predetermined position and in a predetermined direction at the destination. At this time, since the robot and the image pickup means are not calibrated, the burden on the calibration can be reduced.

本発明に係るロボット制御方法によれば、対象物とその移動先とが撮像され、その撮像された画像上において、対象物に基準点が設定され、対象物の移動先に目標点が設定される。この際、基準点および目標点は、移動先での対象物の位置および姿勢を決定できるように設定される。そして、基準点および目標点が設定された画像に基づき、基準点が目標点へ移動するようにロボットが制御される。従って、対象物に直接に基準点を設定するのが困難な場合や、対象物の移動先に直接に目標点を設定するのが困難な場合において、ロボットで対象物を移動させる際、対象物を所定の位置に所定の向きで配置することができる。この際、ロボットおよび撮像手段のキャリブレーションが行われないので、そのキャリブレーションにかかる負担を低減することができる。 According to the robot control method according to the present invention, an object and its moving destination are imaged, a reference point is set for the object, and a target point is set for the moving destination of the object on the captured image. To. At this time, the reference point and the target point are set so that the position and posture of the object at the moving destination can be determined. Then, the robot is controlled so that the reference point moves to the target point based on the image in which the reference point and the target point are set. Therefore, when it is difficult to set a reference point directly on the object, or when it is difficult to set a target point directly on the destination of the object, when the robot moves the object, the object is moved. Can be placed in a predetermined position and in a predetermined orientation. At this time, since the robot and the image pickup means are not calibrated, the burden on the calibration can be reduced.

本発明のロボット制御装置の一実施例の使用状態1を示す模式図である。It is a schematic diagram which shows the use state 1 of one Embodiment of the robot control apparatus of this invention. 図1のロボット制御装置を示す概略ブロック図である。It is a schematic block diagram which shows the robot control device of FIG. 図1のロボット制御装置を用いたロボット制御方法の一例を示すフローチャートである。It is a flowchart which shows an example of the robot control method using the robot control device of FIG. 図1のロボット制御装置の使用状態1を示す模式図であり、図1の状態から対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 1 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 図1のロボット制御装置の使用状態2を示す模式図である。It is a schematic diagram which shows the use state 2 of the robot control device of FIG. 図1のロボット制御装置の使用状態2を示す模式図であり、図5の状態から対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 2 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 図1のロボット制御装置の使用状態3を示す模式図である。It is a schematic diagram which shows the use state 3 of the robot control device of FIG. 図1のロボット制御装置の使用状態3を示す模式図であり、図7の状態から対象物を移動させる途中を示している。It is a schematic diagram which shows the use state 3 of the robot control device of FIG. 1, and shows the process of moving an object from the state of FIG. 図1のロボット制御装置の使用状態3を示す模式図であり、図7の状態から図8の状態を介して対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 3 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 7 through the state of FIG. 図1のロボット制御装置の使用状態4を示す模式図である。It is a schematic diagram which shows the use state 4 of the robot control device of FIG. 図1のロボット制御装置の使用状態4を示す模式図であり、図10の状態から対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 4 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 図1のロボット制御装置の使用状態5を示す模式図である。It is a schematic diagram which shows the use state 5 of the robot control device of FIG. 図1のロボット制御装置の使用状態5を示す模式図であり、図12の状態から対象物を移動させる途中を示している。It is a schematic diagram which shows the use state 5 of the robot control device of FIG. 1, and shows the process of moving an object from the state of FIG. 図1のロボット制御装置の使用状態5を示す模式図であり、図12の状態から図13の状態を介して対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 5 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 12 through the state of FIG. 図1のロボット制御装置の使用状態6を示す模式図である。It is a schematic diagram which shows the use state 6 of the robot control device of FIG. 図1のロボット制御装置の使用状態6を示す模式図であり、図15の状態から対象物を移動させる途中を示している。It is a schematic diagram which shows the use state 6 of the robot control device of FIG. 1, and shows the process of moving an object from the state of FIG. 図1のロボット制御装置の使用状態6を示す模式図であり、図15の状態から図16の状態を介して対象物を移動させた状態を示している。It is a schematic diagram which shows the use state 6 of the robot control device of FIG. 1, and shows the state which moved the object from the state of FIG. 15 through the state of FIG. 本発明のロボット制御装置の別の実施例を示す概略ブロック図である。It is a schematic block diagram which shows another embodiment of the robot control apparatus of this invention. 図1のロボット制御装置の別の使用状態を示す模式図である。It is a schematic diagram which shows another use state of the robot control device of FIG.

以下、本発明の具体的実施例を図面に基づいて詳細に説明する。 Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

図1および図2は、本発明のロボット制御装置の一実施例を示す図であり、図1は使用状態1を示す模式図、図2は概略ブロック図である。本実施例のロボット制御装置1は、対象物2を関節3の変位により移動先へ移動させるロボット4の制御装置である。 1 and 2 are diagrams showing an embodiment of the robot control device of the present invention, FIG. 1 is a schematic diagram showing a usage state 1, and FIG. 2 is a schematic block diagram. The robot control device 1 of this embodiment is a control device of the robot 4 that moves the object 2 to the moving destination by the displacement of the joint 3.

ロボット4は、工場などの現場で用いられる産業用ロボットとされ、土台に回転自在に設けられるアーム5と、アーム5に設けられる手先部6とを有して構成される。アーム5は、複数のリンク棒7と、隣接するリンク棒7,7同士を互いに回転自在に接続する関節3とを有する。本実施例のアーム5は、三本のリンク棒7を有し、隣接するリンク棒7,7同士が関節3を介して互いに回転自在に接続される。図1に示されるように、アーム5は、基端部が関節3を介して土台に回転自在に接続されて外方へ延出され、先端に対象物2を把持する手先部6が設けられる。各関節3には、モータ8が設けられており、このモータ8を駆動させることで、関節3を回転させることができ、ひいてはリンク棒7を回転させることができる。なお、図1に示される座標系XYZは、三次元のロボット座標系とされる。 The robot 4 is an industrial robot used in a field such as a factory, and includes an arm 5 rotatably provided on a base and a hand portion 6 provided on the arm 5. The arm 5 has a plurality of link rods 7 and joints 3 that rotatably connect the adjacent link rods 7 and 7 to each other. The arm 5 of this embodiment has three link rods 7, and the adjacent link rods 7, 7 are rotatably connected to each other via a joint 3. As shown in FIG. 1, the arm 5 has a base end rotatably connected to a base via a joint 3 and extends outward, and a hand portion 6 for gripping an object 2 is provided at the tip thereof. .. A motor 8 is provided in each joint 3, and by driving the motor 8, the joint 3 can be rotated, and by extension, the link rod 7 can be rotated. The coordinate system XYZ shown in FIG. 1 is a three-dimensional robot coordinate system.

ロボット4により運ばれる対象物2には、予め基準点9が設定されている。一方、対象物2の移動先には、予め、基準点9の移動先としての目標点10が設定されている。これら基準点9および目標点10は、移動先での対象物2の位置および姿勢を決定するために設定されている。なお、基準点9および目標点10としては、色マーカや二次元バーコードなどが用いられる。 A reference point 9 is set in advance on the object 2 carried by the robot 4. On the other hand, the target point 10 as the destination of the reference point 9 is set in advance at the destination of the object 2. These reference points 9 and target points 10 are set to determine the position and posture of the object 2 at the destination. As the reference point 9 and the target point 10, a color marker, a two-dimensional bar code, or the like is used.

図2に示されるように、本実施例のロボット制御装置1は、基準点9および目標点10を撮像する撮像手段11と、ロボット4の関節3の変位を制御する制御手段12とを主要部として備える。その他、ロボット制御装置1は、ロボット4の関節3の変位量を検出する変位量検出手段13を備える。 As shown in FIG. 2, the robot control device 1 of the present embodiment mainly includes an image pickup means 11 for capturing a reference point 9 and a target point 10 and a control means 12 for controlling the displacement of the joint 3 of the robot 4. Prepare as. In addition, the robot control device 1 includes a displacement amount detecting means 13 for detecting the displacement amount of the joint 3 of the robot 4.

撮像手段11は、対象物2および対象物2の移動先の画像を取得する手段であり、本実施例ではカメラとされる。本実施例では、カメラ11は二台用いられ、それらのカメラ11は、像面IM1,IM2同士が互いに交差するように配置される。典型的には、一方のカメラ11は、ロボット座標系のYZ平面を撮影できるように配置され、他方のカメラ11は、ロボット座標系のZX平面を撮影できるように配置される。なお、図1に示されるように、一方のカメラ11には、互いに直交するU1軸、V1軸およびW1軸からなる三次元のカメラ座標系が設けられ、他方のカメラ11には、互いに直交するU2軸、V2軸およびW2軸からなる三次元のカメラ座標系が設けられる。各カメラ11は、前述したように像面IM1,IM2同士が互いに交差するように配置され、対象物2とその移動先とを撮影することができる。 The image pickup means 11 is a means for acquiring an image of the object 2 and the moving destination of the object 2, and is referred to as a camera in this embodiment. In this embodiment, two cameras 11 are used, and the cameras 11 are arranged so that the image planes IM1 and IM2 intersect each other. Typically, one camera 11 is arranged so that it can photograph the YZ plane of the robot coordinate system, and the other camera 11 is arranged so that it can photograph the ZX plane of the robot coordinate system. As shown in FIG. 1, one camera 11 is provided with a three-dimensional camera coordinate system including a U1 axis, a V1 axis, and a W1 axis that are orthogonal to each other, and the other camera 11 is orthogonal to each other. A three-dimensional camera coordinate system including a U2 axis, a V2 axis, and a W2 axis is provided. As described above, each camera 11 is arranged so that the image planes IM1 and IM2 intersect each other, and can photograph the object 2 and its moving destination.

制御手段12は、基準点9が目標点10へ移動するよう関節3の変位を制御する手段である。この制御手段12は、撮像手段11により得られた撮像結果に基づき、関節3の変位を制御する。具体的には、本実施例では、撮像手段11およびロボット4などは、制御手段12に接続されており、その制御手段12により後述するロボットの制御が可能とされる。この際、カメラ11およびロボット4のキャリブレーションは、行われない。 The control means 12 is a means for controlling the displacement of the joint 3 so that the reference point 9 moves to the target point 10. The control means 12 controls the displacement of the joint 3 based on the image pickup result obtained by the image pickup means 11. Specifically, in this embodiment, the image pickup means 11 and the robot 4 are connected to the control means 12, and the control means 12 enables control of the robot described later. At this time, the camera 11 and the robot 4 are not calibrated.

制御手段12にはさらに、変位量検出手段13が接続される。この変位量検出手段13は、本実施例ではエンコーダとされ、各関節3に設けられる。本実施例のエンコーダ13は、モータ8の回転位置を検出し、この検出結果から現在のロボット4の手先部6の位置、ひいては手先部6で把持された対象物2の位置を求めることができる。 Further, the displacement amount detecting means 13 is connected to the control means 12. The displacement amount detecting means 13 is an encoder in this embodiment and is provided in each joint 3. The encoder 13 of this embodiment detects the rotational position of the motor 8, and can obtain the position of the current hand portion 6 of the robot 4 and the position of the object 2 gripped by the hand portion 6 from the detection result. ..

次に、本実施例のロボット制御装置1を用いたロボット制御方法について説明する。図3は、本発明のロボット制御方法の一実施例を示すフローチャートである。また、図4は、本実施例のロボット制御装置の使用状態1を示す模式図であり、図1の状態から対象物を移動させた状態を示している。 Next, a robot control method using the robot control device 1 of this embodiment will be described. FIG. 3 is a flowchart showing an embodiment of the robot control method of the present invention. Further, FIG. 4 is a schematic diagram showing a usage state 1 of the robot control device of this embodiment, and shows a state in which an object is moved from the state of FIG.

図3に示されるように、本実施例では、設定工程S1、撮像工程S2、検出工程S3、偏差算出工程S4、位置設定工程S5および制御工程S6が順次に実行される。なお、ロボット制御方法は、これに限定されるものではなく、撮像された画像に基づきロボット4を制御する従来公知の方法であって、カメラ11およびロボット4のキャリブレーションを不要とする方法であればよい。 As shown in FIG. 3, in this embodiment, the setting step S1, the imaging step S2, the detection step S3, the deviation calculation step S4, the position setting step S5, and the control step S6 are sequentially executed. The robot control method is not limited to this, and may be a conventionally known method for controlling the robot 4 based on an captured image and which does not require calibration of the camera 11 and the robot 4. Just do it.

まず、対象物2に基準点9が設定される一方、対象物2の移動先に目標点10が設定される(ステップS1)。この設定は、前述したように、対象物2および対象物2の移動先に目印となるものを取り付けることでなされる。そして、設定された基準点9および目標点10が撮像される(ステップS2)。これは、二台のカメラ11によりなされる。次に、ロボット4のアーム5が計測されて、ロボット4の手先部6の位置、ひいては対象物2の基準点9の位置が求められる(ステップS3)。これは、関節3に設けられたエンコーダ13によりなされる。この際、ロボット4の手先部6は、移動前の位置にある対象物2を挟んだ状態とされる。 First, the reference point 9 is set in the object 2, while the target point 10 is set in the movement destination of the object 2 (step S1). As described above, this setting is made by attaching a marker to the object 2 and the moving destination of the object 2. Then, the set reference point 9 and the target point 10 are imaged (step S2). This is done by two cameras 11. Next, the arm 5 of the robot 4 is measured, and the position of the hand portion 6 of the robot 4 and the position of the reference point 9 of the object 2 are obtained (step S3). This is done by the encoder 13 provided in the joint 3. At this time, the hand portion 6 of the robot 4 is in a state of sandwiching the object 2 at the position before the movement.

そして、カメラ11にて撮像された基準点9とカメラ11にて撮像された目標点10との間の位置偏差が算出され、この位置偏差がカメラ座標系からロボット座標系へ変換される(ステップS4)。カメラ座標系からロボット座標系へ変換された位置偏差を、エンコーダ13にて求められた基準点9の位置に加えることで、対象物2の仮想目標点が設定される(ステップS5)。設定された仮想目標点へ基準点9が移動するように、アーム5が制御される(ステップS6)。具体的には、以下に示すようにして、各工程が順次に実行される。 Then, the position deviation between the reference point 9 imaged by the camera 11 and the target point 10 imaged by the camera 11 is calculated, and this position deviation is converted from the camera coordinate system to the robot coordinate system (step). S4). The virtual target point of the object 2 is set by adding the position deviation converted from the camera coordinate system to the robot coordinate system to the position of the reference point 9 obtained by the encoder 13 (step S5). The arm 5 is controlled so that the reference point 9 moves to the set virtual target point (step S6). Specifically, each step is sequentially executed as shown below.

ここでは、対象物2が第一領域14を有する一方、対象物2の移動先が第二領域15を有する場合について説明する。なお、第二領域15は、その外形が第一領域14の外形と同一形状に形成されている。この場合、対象物2を移動させて第一領域14の縁部を第二領域15の縁部に外形が合うよう接触させる制御とされる。この制御では、対象物2に基準点9が複数設定される。 Here, a case where the object 2 has the first region 14 while the destination of the object 2 has the second region 15 will be described. The outer shape of the second region 15 is formed to have the same outer shape as the outer shape of the first region 14. In this case, the control is such that the object 2 is moved so that the edge portion of the first region 14 is brought into contact with the edge portion of the second region 15 so that the outer shape matches the outer shape. In this control, a plurality of reference points 9 are set on the object 2.

複数の基準点9は、対象物2の第一領域14の縁部に設定される。この場合、たとえば、複数の基準点9の内、複数の基準点9が同一直線上に設定され、残りの基準点9が前記同一直線上から外れた位置に設定される。なお、目標点10は、基準点9の移動先であり、移動先での対象物2の位置および姿勢が決定できるように、移動先での基準点9に対応する位置に設定される。 The plurality of reference points 9 are set at the edge of the first region 14 of the object 2. In this case, for example, among the plurality of reference points 9, a plurality of reference points 9 are set on the same straight line, and the remaining reference points 9 are set at positions deviating from the same straight line. The target point 10 is the destination of the reference point 9, and is set at a position corresponding to the reference point 9 at the destination so that the position and posture of the object 2 at the destination can be determined.

典型的には、図1および図4に示す例とされる。この例では、対象物2が下面を第一領域14とする直方体とされ、第二領域15が直方体の下面と同一形状の平面部とされる。ここでは、対象物2の下側の三つの頂点、すなわち対象物2の下面の三つの角部に基準点a,b,cが設定され、平面状の第二領域15の三つの角部に前記接触時に基準点a,b,cに対応する目標点a,b,cが設定される。そして、二台のカメラ11により三つの基準点a,b,cおよび三つの目標点a,b,cが撮像され、その撮像結果に基づき、三つの基準点a,b,cがそれぞれ対応する目標点a,b,cへ移動するようロボット4の関節3の変位が制御される。すなわち、基準点aが目標点aへ、基準点bが目標点bへ、および基準点cが目標点cへ移動するようにロボット4が制御される。この際、二台のカメラ11のどちらかは、基準点a,b,cおよび目標点a,b,cを撮像可能な位置に配置される。 Typically, the examples shown in FIGS. 1 and 4 are used. In this example, the object 2 is a rectangular parallelepiped whose lower surface is the first region 14, and the second region 15 is a flat surface portion having the same shape as the lower surface of the rectangular parallelepiped. Here, reference points a, b, and c are set at the three lower vertices of the object 2, that is, the three corners of the lower surface of the object 2, and the three corners of the planar second region 15 are set. At the time of the contact, the target points a d , b d , and cd corresponding to the reference points a, b, and c are set. Then, the three reference points a, b, c and the three target points a d , b d , and cd are imaged by the two cameras 11, and the three reference points a, b, and c are imaged based on the imaging results. The displacement of the joint 3 of the robot 4 is controlled so as to move to the corresponding target points a d , b d , and cd, respectively. That is, the robot 4 is controlled so that the reference point a moves to the target point a d , the reference point b moves to the target point b d , and the reference point c moves to the target point cd. At this time, either of the two cameras 11 is arranged at a position where the reference points a, b, c and the target points a d , b d , and cd can be imaged.

三つの基準点a,b,cの内、基準点bが目標点bへ移動する場合について説明する。YZ平面を撮影するカメラ(カメラC1とする)11側から見た場合、基準点bはb=(b1y,b1z)とされ、目標点bはb=(b1dy,b1dz)とされる。また、ZX平面を撮影するカメラ(カメラC2とする)11側からみた場合、基準点bはb=(b2x,b2z)とされ、目標点bはb=(b2dx,b2dz)とされる。なお、座標の数字1および2はそれぞれ、カメラC1およびC2からみたことを示している。 A case where the reference point b moves to the target point bd among the three reference points a, b, and c will be described. When viewed from the 11 side of the camera (referred to as camera C1) that captures the YZ plane, the reference point b is b = (b 1y , b 1z ), and the target point b d is b d = (b 1dy , b 1ds ). It is said that. Further, when viewed from the 11 side of the camera (referred to as camera C2) for photographing the ZX plane, the reference point b is b = (b 2x , b 2z ), and the target point b d is b d = (b 2dx , b 2dz). ). The numbers 1 and 2 in the coordinates indicate that they are viewed from the cameras C1 and C2, respectively.

従って、基準点bと目標点bとの間のX軸方向の偏差、Y軸方向の位置偏差およびZ軸方向の位置偏差はそれぞれ、以下の式で表される。なお、Z軸方向に関しては、カメラC1およびカメラC2からみることができるので、下記のように、カメラC1から見た場合またはカメラC2からみた場合のどちらかが用いられる。 Therefore, the deviation in the X-axis direction, the position deviation in the Y-axis direction, and the position deviation in the Z-axis direction between the reference point b and the target point b d are expressed by the following equations, respectively. Since the Z-axis direction can be seen from the camera C1 and the camera C2, either the case seen from the camera C1 or the case seen from the camera C2 is used as described below.

Figure 0007011805000001
Figure 0007011805000001

これが基準点bと目標点bとの間の位置偏差とされ、この位置偏差に基づき、ロボット4の関節3の変位が制御される。具体的には、基準点9および目標点10が一点の場合には、以下に示すように制御される。 This is regarded as the position deviation between the reference point b and the target point b d , and the displacement of the joint 3 of the robot 4 is controlled based on this position deviation. Specifically, when the reference point 9 and the target point 10 are one point, the control is performed as shown below.

制御手段12によって、カメラ11で撮影された対象物2の基準点9とカメラ11で撮影された目標点10との間の位置偏差が算出され、この位置偏差がカメラ座標系からロボット座標系へ変換される。また、制御手段12によって、対象物2の基準点9の真の位置とカメラ11で撮影された基準点9の位置との基準誤差が算出される。制御手段12は、二台のカメラ11に接続されており、これらのカメラ11から対象物2の基準点9の位置情報を取得することができる。この取得した基準点9の位置と、対象物2の基準点9の真の位置との誤差である基準誤差を、制御手段12により算出することができる。ここで、基準誤差について説明する。カメラ11から対象物2の基準点9をとらえたときには、カメラ11のひずみなどが原因で、基準点9の実際の位置である真の位置との間に誤差が生じることになり、これが基準誤差とされる。 The control means 12 calculates a position deviation between the reference point 9 of the object 2 photographed by the camera 11 and the target point 10 photographed by the camera 11, and this position deviation is transferred from the camera coordinate system to the robot coordinate system. Be converted. Further, the control means 12 calculates a reference error between the true position of the reference point 9 of the object 2 and the position of the reference point 9 taken by the camera 11. The control means 12 is connected to two cameras 11, and can acquire the position information of the reference point 9 of the object 2 from these cameras 11. The control means 12 can calculate a reference error, which is an error between the acquired position of the reference point 9 and the true position of the reference point 9 of the object 2. Here, the reference error will be described. When the reference point 9 of the object 2 is captured from the camera 11, an error occurs between the camera 11 and the true position of the reference point 9 due to the distortion of the camera 11, which is the reference error. It is said that.

また、制御手段12によって、対象物2の移動先に設定される目標点10の真の位置と、カメラ11で撮影された目標点10の位置との目標誤差を算出することができる。制御手段12は、前述したようにカメラ11に接続されており、これらのカメラ11からの目標点10の位置と、目標点10の真の位置との誤差である目標誤差を算出できる。この目標誤差は、カメラ11のひずみなどの原因により、カメラ11から目標点10をとらえたときに、目標点10の実際の位置である真の位置との間に生じる誤差である。 Further, the control means 12 can calculate a target error between the true position of the target point 10 set at the destination of the moving object 2 and the position of the target point 10 photographed by the camera 11. The control means 12 is connected to the camera 11 as described above, and can calculate a target error which is an error between the position of the target point 10 from the camera 11 and the true position of the target point 10. This target error is an error that occurs between the target point 10 and the true position, which is the actual position, when the target point 10 is captured from the camera 11 due to a cause such as distortion of the camera 11.

基準点9の真の位置をx=(x,y,z)、目標点10の真の位置をx=(x,y,z)、カメラ11で撮影された基準点9の位置をx=(x,y,z)、カメラ11で撮影された目標点10の位置をxcd=(xcd,ycd,zcd)とする。カメラ11で撮影された基準点9の位置およびカメラ11で撮影された目標点10の位置は、キャリブレーション誤差を含んでいる。このとき、カメラ11のキャリブレーションによる誤差Δx、すなわち真値からのずれである基準誤差および目標誤差は、以下の式で表される。なお、以下の式において、左肩に設けられた「w」は、基準となるワールド座標系からみたことを示している。本実施例では、ロボット座標系をワールド座標系としている。また、左肩に設けられた「c」は、カメラ座標系からみたことを示している。 The true position of the reference point 9 is x = (x, y, z), the true position of the target point 10 is x d = (x d , yd, z d ) , and the reference point 9 taken by the camera 11 The position is x c = (x c , y c , z c ), and the position of the target point 10 taken by the camera 11 is x cd = (x cd , y cd , z cd ). The position of the reference point 9 taken by the camera 11 and the position of the target point 10 taken by the camera 11 include a calibration error. At this time, the error Δx c due to the calibration of the camera 11, that is, the reference error and the target error, which are deviations from the true value, are expressed by the following equations. In the following equation, the "w" provided on the left shoulder indicates that it is viewed from the reference world coordinate system. In this embodiment, the robot coordinate system is the world coordinate system. Further, "c" provided on the left shoulder indicates that it is viewed from the camera coordinate system.

Figure 0007011805000002
Figure 0007011805000002

Figure 0007011805000003
Figure 0007011805000003

Figure 0007011805000004
Figure 0007011805000004

ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。 Here, the tilde shows the value including the error, and the others are as follows.

Figure 0007011805000005
Figure 0007011805000005

数2、数3および数4においては、基準誤差および目標誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ13で計測された基準点9の現在の位置をx=(x,y,z)とすると、ロボット4のキャリブレーションによる誤差Δx、すなわち真値からのずれは、以下の式で表される。 In numbers 2, 3, and 4, the reference and target errors are converted from the camera coordinate system to the robot coordinate system. On the other hand, assuming that the current position of the reference point 9 measured by the encoder 13 is x m = (x m , ym, z m ) , the error Δx m due to the calibration of the robot 4, that is, the deviation from the true value is It is expressed by the following formula.

Figure 0007011805000006
Figure 0007011805000006

ここで、f(q)は、各関節角度から基準点9の位置へ変換する関数を示している。なお、ロボット4の幾何情報が正確、かつ各リンク棒7が十分な剛性を有する場合には、Δxはゼロに近づくことになる。同様に、エンコーダ13で計測された目標点10の位置をxmd=(xmd,ymd,zmd)として、目標点10の位置の近傍における誤差、すなわち真値からのずれは、以下の式で定義される。 Here, f (q) indicates a function for converting each joint angle to the position of the reference point 9. If the geometric information of the robot 4 is accurate and each link rod 7 has sufficient rigidity, Δx m approaches zero. Similarly, assuming that the position of the target point 10 measured by the encoder 13 is x md = (x md , y md , z md ), the error in the vicinity of the position of the target point 10, that is, the deviation from the true value is as follows. Defined by an expression.

Figure 0007011805000007
Figure 0007011805000007

Figure 0007011805000008
Figure 0007011805000008

このように、エンコーダ13で計測された基準点9の位置およびエンコーダ13で計測された目標点10の位置と、それぞれの真値との間には、リンク棒7の歪みや弛みなどが原因とされる誤差が生じる。 In this way, between the position of the reference point 9 measured by the encoder 13 and the position of the target point 10 measured by the encoder 13 and their respective true values, the cause is distortion or slack of the link rod 7. There will be an error.

次に、対象物2の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。 Next, the error that occurs when controlling the position and posture of the object 2 is defined by the following equation. This is an error due to the influence of static friction and gravity.

Figure 0007011805000009
Figure 0007011805000009

ここでは、以下のとおりである。 Here, it is as follows.

Figure 0007011805000010
Figure 0007011805000010

数9で示される誤差は、静止摩擦などの影響が小さく、ロボット4の各関節角が目標点10に正確に制御可能であるとき、Δxm2=0となる。ここでは、産業用ロボットを対象とするため、この値はゼロとする。ただし、式の展開中では記述することとする。これにより、後述の目標点を与えた際、制御後の対象物2の位置は、数9より以下のようになる。 The error represented by the equation 9 has a small influence of static friction and the like, and when each joint angle of the robot 4 can be accurately controlled to the target point 10, Δx m2 = 0. Here, since the target is an industrial robot, this value is set to zero. However, it will be described during the expansion of the expression. As a result, when the target point described later is given, the position of the object 2 after control becomes as follows from the equation 9.

Figure 0007011805000011
Figure 0007011805000011

また、制御手段12は、エンコーダ13により検出された基準点9の位置に、前述したように座標系が変換された位置偏差を加えることで、対象物2の移動先に仮想目標点を設定することができる。制御手段12は、エンコーダ13に接続されており、このエンコーダ13からの基準点9の位置情報を取得することができる。そして、エンコーダ13からの基準点9の位置に前述した位置偏差を加えることで、基準点9の移動先としての仮想目標点を設定することができる。 Further, the control means 12 sets a virtual target point at the movement destination of the object 2 by adding the position deviation obtained by converting the coordinate system as described above to the position of the reference point 9 detected by the encoder 13. be able to. The control means 12 is connected to the encoder 13 and can acquire the position information of the reference point 9 from the encoder 13. Then, by adding the above-mentioned position deviation to the position of the reference point 9 from the encoder 13, a virtual target point as a movement destination of the reference point 9 can be set.

具体的には、次のとおりである。仮想目標点xvdを以下のように設定し、数2、数3および数5により、仮想目標点xvdは以下のようになる。 Specifically, it is as follows. The virtual target point x vd is set as follows, and the virtual target point x vd becomes as follows by the number 2, the number 3 and the number 5.

Figure 0007011805000012
Figure 0007011805000012

さらに、制御手段12によって、設定された仮想目標点へ基準点9が移動するように、ロボット4の関節3の変位が制御される。制御手段12は、モータ8と接続されており、このモータ8を制御することで、関節3ひいてはリンク棒7を回転させて、基準点9を設定された仮想目標点へ到達させることができる。 Further, the control means 12 controls the displacement of the joint 3 of the robot 4 so that the reference point 9 moves to the set virtual target point. The control means 12 is connected to the motor 8, and by controlling the motor 8, the joint 3 and thus the link rod 7 can be rotated so that the reference point 9 reaches the set virtual target point.

このようにして、三点の基準点9および三点の目標点10の内、一点の基準点9が一点の目標点10へ移動するようロボット4が制御される。残りの二点については、上述した制御と同様に制御すればよい。これにより、基準点a,b,cをそれぞれ対応する目標点a,b,cへ到達させることができる。 In this way, the robot 4 is controlled so that one of the three reference points 9 and the three target points 10 moves to the one target point 10. The remaining two points may be controlled in the same manner as the above-mentioned control. As a result, the reference points a, b, and c can be made to reach the corresponding target points a d , b d , and cd, respectively.

本実施例の場合、前述したように、直方体の対象物2の下面の三つの角部に基準点9が設定されている。すなわち、三つの基準点9の内、二点が同一直線上に設定され、残りの一点が前記同一直線上から外れた位置に設定されている。たとえば、基準点aおよびbが同一直線上に配置されているとすると、基準点cがその同一直線上から外れた位置とされる。従って、本実施例によれば、簡易な設定で、第一領域14の縁部を第二領域15の縁部に外形が合うよう正確に接触させて、移動先において対象物2を所定の位置に所定の向きで配置することができる。 In the case of this embodiment, as described above, the reference points 9 are set at the three corners of the lower surface of the rectangular parallelepiped object 2. That is, two of the three reference points 9 are set on the same straight line, and the remaining one point is set at a position deviating from the same straight line. For example, if the reference points a and b are arranged on the same straight line, the reference point c is set to a position deviated from the same straight line. Therefore, according to the present embodiment, with a simple setting, the edge portion of the first region 14 is brought into accurate contact with the edge portion of the second region 15 so that the outer shape matches the edge portion of the second region 15, and the object 2 is placed at a predetermined position at the destination. Can be placed in a predetermined orientation.

ところで、本実施例では、基準点9と目標点10との間の位置偏差に基づき制御したが、基準点9と目標点10との間の姿勢角偏差に基づき制御することも可能である。具体的には、次のとおりである。 By the way, in this embodiment, the control is performed based on the position deviation between the reference point 9 and the target point 10, but it is also possible to control based on the posture angle deviation between the reference point 9 and the target point 10. Specifically, it is as follows.

ここでは、三つの基準点a,b,cの内、基準点bが目標点bへ移動する場合について説明する。YZ平面を撮影するカメラ(カメラC1とする)11側から見た場合、基準点aはa=(a1y,a1z)および基準点bはb=(b1y,b1z)とされ、目標点aはa=(a1dy,a1dz)および目標点bはb=(b1dy,b1dz)とされる。また、ZX平面を撮影するカメラ(カメラC2とする)11側からみた場合、基準点bはb=(b2x,b2z)および基準点cはc=(c2x,c2z)とされ、目標点bはb=(b2dx,b2dz)および目標点cはc=(c2dx,c2dz)とされる。 Here, a case where the reference point b moves to the target point bd among the three reference points a, b, and c will be described. When viewed from the 11 side of the camera (referred to as camera C1) that captures the YZ plane, the reference point a is a = (a 1y , a 1z ) and the reference point b is b = (b 1y , b 1z ). The point a d is a d = (a 1dy , a 1ds ), and the target point b d is b d = (b 1dy , b 1ds ). Further, when viewed from the 11 side of the camera (referred to as camera C2) for photographing the ZX plane, the reference point b is b = (b 2x , b 2z ) and the reference point c is c = (c 2x , c 2z ). The target point b d is b d = (b 2dx , b 2dz ) and the target point c d is c d = (c 2dx , c 2dz ).

ところで、前述したように、二台のカメラ11のどちらかが基準点a,b,cおよび目標点a,b,cを撮像できる位置に配置されているので、上記に加えて、基準点cはc=(c1y,c1z)および目標点cはc=(c1dy,c1dz)とされるか、または基準点aはa=(a2x,a2z)および目標点aはa=(a2dx,a2dz)とされる。なお、座標の数字1および2はそれぞれ、カメラC1およびC2からみたことを示している。 By the way, as described above, since either of the two cameras 11 is arranged at a position where the reference points a, b, c and the target points a d , b d , and cd can be imaged, in addition to the above, The reference point c is c = (c 1y , c 1z ) and the target point c d is c d = (c 1dy , c 1ds ), or the reference point a is a = (a 2x , a 2z ) and the target. The point a d is a d = (a 2dx , a 2dz ). The numbers 1 and 2 in the coordinates indicate that they are viewed from the cameras C1 and C2, respectively.

従って、基準点bと目標点bとの間の姿勢角偏差は、以下の三つの式で表される。なお、Δγに関しては、カメラC1が基準点a,b,cおよび目標点a,b,cを撮像できる位置に配置される場合か、またはカメラC2が基準点a,b,cおよび目標点a,b,cを撮像できる位置に配置される場合で異なるので、どちらかを用いればよい。 Therefore, the attitude angle deviation between the reference point b and the target point b d is expressed by the following three equations. Regarding Δγ d , the camera C1 is placed at a position where the reference points a, b, c and the target points a d , b d , and cd can be imaged, or the camera C2 is located at the reference points a, b, c. And since it differs depending on the position where the target points a d , b d , and cd can be imaged, either one may be used.

Figure 0007011805000013
Figure 0007011805000013

ここで、-π/4<θ<π/4の場合、θ≒tanθとなるので、数13は以下に示す式で表される。 Here, when −π / 4 <θ <π / 4, θ≈tanθ, so that the equation 13 is expressed by the following equation.

Figure 0007011805000014
Figure 0007011805000014

この姿勢角偏差に基づき、ロボット4の関節3の変位が制御される。具体的には、基準点9および目標点10が一点の場合には、以下に示すように制御される。 The displacement of the joint 3 of the robot 4 is controlled based on this posture angle deviation. Specifically, when the reference point 9 and the target point 10 are one point, the control is performed as shown below.

対象物2の基準点9の真の姿勢角をR、対象物2の移動先の目標点10の真の姿勢角をR、カメラ11で撮像された基準点9の姿勢角をRca、カメラ11で撮像された目標点10の姿勢角をRcdとする。カメラ11で撮像された基準点9の姿勢角およびカメラ11で撮像された目標点10の姿勢角は、キャリブレーション誤差を含んでいる。このとき、カメラ11のキャリブレーションによる誤差ΔR、すなわち真値からのずれは、以下の式で表される。なお、以下の式において、右肩に設けられた「T」は、これの付された行列の転置行列を表している。 The true posture angle of the reference point 9 of the object 2 is R, the true posture angle of the target point 10 to which the object 2 is moved is R d , and the posture angle of the reference point 9 captured by the camera 11 is R ca. Let R cd be the posture angle of the target point 10 captured by the camera 11. The posture angle of the reference point 9 captured by the camera 11 and the posture angle of the target point 10 captured by the camera 11 include a calibration error. At this time, the error ΔR c due to the calibration of the camera 11, that is, the deviation from the true value is expressed by the following equation. In the following equation, the "T" provided on the right shoulder represents the transposed matrix of the matrix to which it is attached.

Figure 0007011805000015
Figure 0007011805000015

Figure 0007011805000016
Figure 0007011805000016

Figure 0007011805000017
Figure 0007011805000017

ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。 Here, the tilde shows the value including the error, and the others are as follows.

Figure 0007011805000018
Figure 0007011805000018

数15、数16および数17においては、各誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ13で計測された基準点9の現在の姿勢角をRとすると、ロボット4のキャリブレーションによる誤差ΔR、すなわち真値からのずれは、以下の式で表される。 In numbers 15, 16, and 17, each error is converted from the camera coordinate system to the robot coordinate system. On the other hand, assuming that the current posture angle of the reference point 9 measured by the encoder 13 is R m , the error ΔR m due to the calibration of the robot 4, that is, the deviation from the true value is expressed by the following equation.

Figure 0007011805000019
Figure 0007011805000019

ここで、g(q)は、各関節角度から対象物2の姿勢角へ変換する関数を示している。なお、ロボット4の幾何情報が正確、かつ各リンク棒7が十分な剛性を有する場合には、ΔRはIに近づくことになる。同様に、エンコーダ13で計測された目標点10の姿勢角をRmdとして、目標姿勢近傍における誤差、すなわち真値からのずれは、以下の式で定義される。 Here, g (q) shows a function for converting each joint angle into the posture angle of the object 2. If the geometric information of the robot 4 is accurate and each link rod 7 has sufficient rigidity, ΔR m approaches I. Similarly, the posture angle of the target point 10 measured by the encoder 13 is R md , and the error in the vicinity of the target posture, that is, the deviation from the true value is defined by the following equation.

Figure 0007011805000020
Figure 0007011805000020

Figure 0007011805000021
Figure 0007011805000021

このように、エンコーダ13で計測された基準点9の姿勢角およびエンコーダ13で計測された目標点10の姿勢角と、それぞれの真値との間には、リンク棒7の歪みや弛みなどが原因とされる誤差が生じる。 In this way, the link rod 7 is distorted or loosened between the posture angle of the reference point 9 measured by the encoder 13 and the posture angle of the target point 10 measured by the encoder 13 and their respective true values. There is an error that is the cause.

次に、対象物2の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。 Next, the error that occurs when controlling the position and posture of the object 2 is defined by the following equation. This is an error due to the influence of static friction and gravity.

Figure 0007011805000022
Figure 0007011805000022

ここでは、以下のとおりである。 Here, it is as follows.

Figure 0007011805000023
Figure 0007011805000023

数22で示される誤差は、静止摩擦などの影響が小さく、ロボット4の各関節角が目標姿勢に正確に制御可能であるとき、ΔRm2=Iとなる。ここでは、産業用ロボットを対象とするため、この値はIとする。ただし、式の展開中では記述することとする。 The error shown by the number 22 is ΔR m2 = I when the influence of static friction and the like is small and each joint angle of the robot 4 can be accurately controlled to the target posture. Here, since an industrial robot is targeted, this value is set to I. However, it will be described during the expansion of the expression.

そして、仮想目標姿勢角Rvdを以下のように設定する。この仮想目標姿勢角Rvdとなるように関節3の変位を制御する。 Then, the virtual target attitude angle Rvd is set as follows. The displacement of the joint 3 is controlled so as to have this virtual target posture angle R vd .

Figure 0007011805000024
Figure 0007011805000024

本実施例によれば、各工程を順次に1回実行した場合の最終的な誤差Δxfpは、以下のようになる。 According to this embodiment, the final error Δx fp when each step is sequentially executed once is as follows.

Figure 0007011805000025
Figure 0007011805000025

ここで、Δxm2=0を考慮すれば、誤差Δxfpは、以下のようになる。 Here, if Δx m2 = 0 is taken into consideration, the error Δx fp becomes as follows.

Figure 0007011805000026
Figure 0007011805000026

このように、本実施例では、キャリブレーション誤差は、制御前の誤差と制御後の誤差との差分として影響している。これは、制御前と制御後のそれぞれの位置における誤差量が近ければ近いほど、最終的な誤差Δxfpが小さくなることを示す。 As described above, in this embodiment, the calibration error affects as the difference between the error before control and the error after control. This indicates that the closer the error amount at each position before and after control is, the smaller the final error Δx fp is.

これに対し、従来では、ある目標位置を与えた場合の1回の実行による誤差が、本実施例とは異なる。具体的には、次のとおりである。従来では、対象物2の誤差は、Δxcd+Δxm2となる。従来における最終的な誤差をΔxとおくと、目標値はカメラ11で計測した目標位置を用いるので、以下のとおりとなる。 On the other hand, conventionally, the error due to one execution when a certain target position is given is different from that of the present embodiment. Specifically, it is as follows. Conventionally, the error of the object 2 is Δx cd + Δx m2 . Assuming that the final error in the conventional case is Δxf , the target value is as follows because the target position measured by the camera 11 is used.

Figure 0007011805000027
Figure 0007011805000027

ここで、数3を用いることで、Δxは以下のとおりとなる。 Here, by using the number 3, Δx f becomes as follows.

Figure 0007011805000028
Figure 0007011805000028

さらに、Δxm2=0を考慮すれば、Δxは以下のとおりとなる。 Further, considering Δx m2 = 0, Δx f is as follows.

Figure 0007011805000029
Figure 0007011805000029

これは、カメラ11およびロボット4のキャリブレーション誤差の双方が、そのままの形で残っていることを示す。すなわち、カメラ11およびロボット4のキャリブレーション誤差が、最終的な誤差に直接影響している。従って、ロボット4およびカメラ11のキャリブレーションを高精度に行わなければならなかった。しかしながら、本実施例では、前述した数26のような式で表されるため、カメラ11およびロボット4のキャリブレーション誤差が直接影響することがなく、カメラ11およびロボット4のキャリブレーションにかかる時間やコストを低減することができる。 This indicates that both the calibration errors of the camera 11 and the robot 4 remain in their original form. That is, the calibration error of the camera 11 and the robot 4 directly affects the final error. Therefore, the robot 4 and the camera 11 had to be calibrated with high accuracy. However, in this embodiment, since it is expressed by an equation such as the above-mentioned number 26, the calibration error of the camera 11 and the robot 4 does not directly affect the time required for the calibration of the camera 11 and the robot 4. The cost can be reduced.

また、本実施例によれば、姿勢角制御では、位置制御の場合と同様に、その姿勢角制御を1回実行した場合の最終的な誤差ΔRfpは、以下のようになる。 Further, according to the present embodiment, in the attitude angle control, the final error ΔR fp when the attitude angle control is executed once is as follows, as in the case of the position control.

Figure 0007011805000030
Figure 0007011805000030

ここで、ΔRm2=Iとすれば、誤差ΔRfpは以下のとおりとなる。 Here, if ΔR m2 = I, the error ΔR fp is as follows.

Figure 0007011805000031
Figure 0007011805000031

このように、姿勢角の誤差についても位置の場合と同様に、実行前後の誤差同士の相体量が最終的な誤差として残っていることが分かる。 As described above, it can be seen that, as for the posture angle error, the phase amount between the errors before and after the execution remains as the final error, as in the case of the position.

これに対し、従来では、最終的な誤差ΔRが以下のとおりとなる。 On the other hand, in the past, the final error ΔR f is as follows.

Figure 0007011805000032
Figure 0007011805000032

ここで、位置制御の場合と同様に、ΔRm2=Iとすれば、以下のとおりとなる。 Here, as in the case of position control, if ΔR m2 = I, the result is as follows.

Figure 0007011805000033
Figure 0007011805000033

このように、従来では、位置制御の場合と同様に、カメラ11およびロボット4のキャリブレーション誤差がそのまま残っている。 As described above, conventionally, the calibration error of the camera 11 and the robot 4 remains as it is, as in the case of the position control.

また、本実施例によれば、設定工程S1を除く各工程を順次に繰り返し実行することができる。すなわち、制御工程S6終了後、その状態において再び撮像工程S2を行い、そして残りの各工程を順次に実行する。この繰り返し回数は、適宜に変更可能とされる。具体的には、以下の条件を満たす場合において繰り返し実行する。ここで、ロボット4の実行前の対象物2の位置をxα、ロボット4の実行後の対象物2の位置をxβとすると、条件は以下のとおりである。 Further, according to this embodiment, each step except the setting step S1 can be sequentially and repeatedly executed. That is, after the control step S6 is completed, the imaging step S2 is performed again in that state, and the remaining steps are sequentially executed. The number of repetitions can be changed as appropriate. Specifically, it is repeatedly executed when the following conditions are satisfied. Here, assuming that the position of the object 2 before the execution of the robot 4 is x α and the position of the object 2 after the execution of the robot 4 is x β , the conditions are as follows.

Figure 0007011805000034
Figure 0007011805000034

この条件を満たす場合において繰り返し実行することで、より高精度な制御を行うことができる。すなわち、設定工程S1を除く各工程を繰り返すごとに、真の目標位置に近付くことになり、精度を向上させることができる。これは、ロボット4の実行前の対象物2の位置と目標位置との距離が、場所によるカメラ11やエンコーダ13などのセンサの計測誤差に比べて大きい場合を示す。つまり、繰り返し実行することで、センサの計測誤差の非線形成分と同等の精度を実現することが可能となるということが分かる。さらに、非線形成分についても、制御前と制御後との位置が近いほど誤差量は減少し、繰り返すごとに精度を高めることができる。 More accurate control can be performed by repeatedly executing when this condition is satisfied. That is, each time each step except the setting step S1 is repeated, the true target position is approached, and the accuracy can be improved. This indicates a case where the distance between the position of the object 2 and the target position before the execution of the robot 4 is larger than the measurement error of the sensor such as the camera 11 or the encoder 13 depending on the location. That is, it can be seen that it is possible to achieve the same accuracy as the non-linear component of the measurement error of the sensor by repeating the execution. Further, with respect to the non-linear component, the closer the position is before and after the control, the smaller the amount of error, and the accuracy can be improved each time it is repeated.

また、本実施例によれば、姿勢角制御は、位置制御の場合と同様に、その姿勢角制御を繰り返し実行することができる。具体的には、ロボット4の実行前の対象物2の姿勢角をRα、実行後の対象物2の姿勢をRβとすると、繰り返し実行することで誤差が減少し、目標値に収束するための条件は、以下のとおりになる。 Further, according to the present embodiment, the posture angle control can be repeatedly executed as in the case of the position control. Specifically, if the posture angle of the object 2 before the execution of the robot 4 is R α and the posture of the object 2 after the execution is R β , the error is reduced by repeated execution and the target value is converged. The conditions for this are as follows.

Figure 0007011805000035
Figure 0007011805000035

この条件を満たす場合に、繰り返し実行することで、目標値へ収束させることができる。この条件の性質は、位置制御の場合の収束条件である数34と同様である。 When this condition is satisfied, it can be converged to the target value by repeatedly executing it. The nature of this condition is similar to the number 34, which is the convergence condition in the case of position control.

さらに、本実施例によれば、上述した制御によりロボット4を制御できるため、既存の産業用ロボットに実装されているコントローラ(制御手段)に、ソフトウェアの変更箇所を抑制しつつ、容易に適用することができる。すなわち、工場などで稼動している既存のロボット4に、ハードウェアやソフトウェアの変更箇所を抑制しつつ、直接適用することができ、利用範囲を広げることができる。 Further, according to the present embodiment, since the robot 4 can be controlled by the above-mentioned control, it can be easily applied to a controller (control means) mounted on an existing industrial robot while suppressing changes in software. be able to. That is, it can be directly applied to an existing robot 4 operating in a factory or the like while suppressing changes in hardware or software, and the range of use can be expanded.

図5および図6は、図1のロボット制御装置の使用状態2を示す図であり、図5は模式図、図6は図5の状態から対象物をその移動先へ移動させた状態を示す模式図である。ここでのロボット制御装置1は、基本的には前述した例と同様である。そこで、以下では、両者の異なる点を中心に説明し、対応する箇所には同一の符号を付して説明する。 5 and 6 are diagrams showing a usage state 2 of the robot control device of FIG. 1, FIG. 5 is a schematic diagram, and FIG. 6 shows a state in which an object is moved from the state of FIG. 5 to its moving destination. It is a schematic diagram. The robot control device 1 here is basically the same as the above-mentioned example. Therefore, in the following, the differences between the two will be mainly described, and the corresponding parts will be described with the same reference numerals.

前述した例では、複数の基準点9が第一領域14の縁部に設定されたが、ここでは、複数の基準点9の内、少なくとも一の基準点9が第一領域14の縁部に設定され、残りの基準点9が対象物2に第一領域14の縁部以外の箇所に設定される。たとえば、複数の基準点9の内、少なくとも一の基準点9が第一領域14の縁部に設定され、残りの基準点9が一点とされて、対象物2において第一領域14の縁部以外の箇所に設定される場合が考えられる。この場合、対象物2の移動先は、軸方向一端面に第二領域15を有する角柱体16を有している。 In the above-mentioned example, a plurality of reference points 9 are set at the edge of the first region 14, but here, at least one of the plurality of reference points 9 is set at the edge of the first region 14. The remaining reference point 9 is set in the object 2 at a place other than the edge of the first region 14. For example, of the plurality of reference points 9, at least one reference point 9 is set at the edge of the first region 14, and the remaining reference points 9 are set as one point, and the edge of the first region 14 in the object 2 is set. It may be set in a place other than. In this case, the destination of the object 2 has a prism 16 having a second region 15 on one end surface in the axial direction.

前記少なくとも一の基準点9が複数の場合、その内の一の基準点9と残りの基準点9とを結ぶ基準線分が以下となるように、残りの基準点9が対象物2に設定される。基準線分は、第一領域14の縁部と第二領域15の縁部との接触時において、角柱体16の軸方向一端面に対して垂直となる。一方、第一領域14の縁部と第二領域15の縁部との接触時において、第一領域14の縁部に設定される基準点9と対応する位置に、目標点10が設定される。また、角柱体16の軸方向一端面と軸方向他端面との間の辺部の内、一の辺部17上に互いに離隔して二つの他の目標点18,18が設定される。 When there are a plurality of at least one reference points 9, the remaining reference points 9 are set in the object 2 so that the reference line segment connecting one of the reference points 9 and the remaining reference points 9 is as follows. Will be done. The reference line segment is perpendicular to one axial end surface of the prism body 16 at the time of contact between the edge portion of the first region 14 and the edge portion of the second region 15. On the other hand, when the edge of the first region 14 and the edge of the second region 15 come into contact with each other, the target point 10 is set at a position corresponding to the reference point 9 set at the edge of the first region 14. .. Further, two other target points 18 and 18 are set on one side portion 17 of the side portions between the axial end surface and the axial end surface of the prism body 16 so as to be separated from each other.

この例では、制御手段12によって、第一領域14の縁部に設定される基準点9が目標点10へ移動するよう関節3の変位が制御されると共に、二つの他の目標点18,18間を結ぶ目標線分の方向と基準線分の方向とが同一となるよう関節3の変位が制御される。なお、第一領域14の縁部に設定される基準点9の目標点10への移動は、前述した場合と同様に制御される。 In this example, the control means 12 controls the displacement of the joint 3 so that the reference point 9 set at the edge of the first region 14 moves to the target point 10, and the two other target points 18, 18 The displacement of the joint 3 is controlled so that the direction of the target line segment connecting the spaces and the direction of the reference line segment are the same. The movement of the reference point 9 set at the edge of the first region 14 to the target point 10 is controlled in the same manner as described above.

典型的には、図5および図6に示す例とされる。この例では、前述した基準線分の一端でありかつ第一領域14に設定される基準点9に対応する目標点10と、その目標点10から前記目標線分と同一方向へ延出する延出線19上に設定される別の目標点20とを結ぶ線分が以下となるように、別の目標点20が設定される。目標点10と別の目標点20とを結ぶ線分は、その長さが基準線分の長さと同一となる。 Typically, the examples shown in FIGS. 5 and 6 are used. In this example, the target point 10 which is one end of the above-mentioned reference line segment and corresponds to the reference point 9 set in the first region 14, and the extension extending from the target point 10 in the same direction as the target line segment. Another target point 20 is set so that the line segment connecting the other target point 20 set on the output line 19 is as follows. The length of the line segment connecting the target point 10 and another target point 20 is the same as the length of the reference line segment.

この場合、制御手段12は、基準線分の方向と目標線分の方向とが同一となるようにするために、前述した残りの基準点9が別の目標点20へ移動するようにロボット4が制御される。すなわち、制御手段12によって、第一領域14の縁部に設定された基準点9が目標点10へ移動するよう関節3の変位が制御されると共に、残りの基準点9が別の目標点20へ移動するよう関節3の変位が制御される。 In this case, the control means 12 moves the remaining reference point 9 described above to another target point 20 so that the direction of the reference line segment and the direction of the target line segment are the same. Is controlled. That is, the control means 12 controls the displacement of the joint 3 so that the reference point 9 set at the edge of the first region 14 moves to the target point 10, and the remaining reference point 9 is another target point 20. The displacement of the joint 3 is controlled so as to move to.

図示例では、対象物2は、四角形の薄板状に形成されており、下面が第一領域14とされる。対象物2の下面は、板材の板面ではなく、板材の厚み部分であり、長方形状とされる。第二領域15は、四角柱状の角柱体16の軸方向一端面である上面に形成される平面部であり、第一領域14と同一形状に形成されている。ここでは、対象物2に三つの基準点d,e,fが設定される。三つの基準点d,e,fの内、二つの基準点d,eが対象物2の下側の二つの頂点、すなわち対象物2の下面の一方の長辺部の両端に対応する二つの角部に設定される。残りの基準点fは、対象物2の上側の頂点であり、基準点eが設定された頂点と上下方向に対応する頂点に設定される。従って、基準点eと基準点fとを結ぶ基準線分は、板状の対象物2の上下方向へ沿う辺部とされる。前述したように対象物2の下面が角柱体16の上面に当接するよう対象物2が制御されるので、当接時において基準線分が角柱体16の上面に対して垂直とされる。 In the illustrated example, the object 2 is formed in the shape of a quadrangular thin plate, and the lower surface thereof is the first region 14. The lower surface of the object 2 is not the plate surface of the plate material, but a thick portion of the plate material, and has a rectangular shape. The second region 15 is a flat surface portion formed on the upper surface of the square columnar prism body 16 in the axial direction, and is formed in the same shape as the first region 14. Here, three reference points d, e, and f are set for the object 2. Of the three reference points d, e, f, the two reference points d, e correspond to the two lower vertices of the object 2, that is, both ends of one long side of the lower surface of the object 2. Set at the corners. The remaining reference points f are the upper vertices of the object 2, and the reference points e are set to the vertices corresponding to the set vertices in the vertical direction. Therefore, the reference line segment connecting the reference point e and the reference point f is a side portion along the vertical direction of the plate-shaped object 2. As described above, since the object 2 is controlled so that the lower surface of the object 2 abuts on the upper surface of the prism body 16, the reference line segment is perpendicular to the upper surface of the prism body 16 at the time of abutting.

一方、第二領域15の二つの角部に前記接触時に基準点d,eに対応する目標点d,eが設定される。具体的には、目標点d,eは、長方形の平面状に形成された第二領域15の一方の長辺部の両端に対応する二つの角部に設定される。また、四角柱状の角柱体16の軸方向に沿う四つの辺部の内、一の辺部17上には、上下方向へ互いに離隔して二つの他の目標点g,hが設定される。前記一の辺部17は、角柱体16の辺部であるので、角柱体16の上面に対して垂直とされる。従って、二つの他の目標点g,h間を結ぶ目標線分は、角柱体16の上面に対して垂直とされる。 On the other hand, target points d d and ed corresponding to the reference points d and e are set at the two corners of the second region 15 at the time of the contact. Specifically, the target points d d and ed are set at two corners corresponding to both ends of one long side of the second region 15 formed in a rectangular plane. Further, of the four side portions along the axial direction of the prismatic prism 16, two other target points g and h are set on one side portion 17 so as to be separated from each other in the vertical direction. Since the one side portion 17 is a side portion of the prism body 16, it is perpendicular to the upper surface of the prism body 16. Therefore, the target line segment connecting the two other target points g and h is perpendicular to the upper surface of the prism body 16.

そして、二台のカメラ11により、三つの基準点d,e,f、二つの目標点d,eおよび二つの他の目標点g,hが撮像され、その撮像結果に基づき、ロボット4が制御される。具体的には、まず、目標点eから目標線分と同一方向へ延出する延出線19がひかれる。ここで、目標点eは、基準線分の下端であり、第一領域14に設定される基準点eに対応する目標点である。延出線19の形成後、延出線19上には別の目標点fが設定される。別の目標点fは、それと目標点eとを結ぶ線分の長さが基準線分の長さと同一となるように設定される。そして、基準点d,eがそれぞれ目標点d,eへ移動するよう関節3の変位が制御されると共に、基準点fが別の目標点fへ移動するよう制御される。なお、各基準点の目標点への移動は、前述した場合と同様にしてなされる。これにより、薄板状の対象物2を移動させて、対象物2の下面である第一領域14を角柱体16の第二領域15に正確に当接させることができる。この際、第一領域14の縁部と第二領域15の縁部とが外形が合うように当接される。 Then, the two cameras 11 image the three reference points d, e, f, the two target points d d , ed , and the two other target points g, h, and the robot 4 is based on the image capture results. Is controlled. Specifically, first, an extension line 19 extending from the target point ed in the same direction as the target line segment is drawn. Here, the target point ed is the lower end of the reference line segment and is a target point corresponding to the reference point e set in the first region 14. After the extension line 19 is formed, another target point fd is set on the extension line 19. Another target point f d is set so that the length of the line segment connecting it and the target point ed is the same as the length of the reference line segment. Then, the displacement of the joint 3 is controlled so that the reference points d and e move to the target points d d and ed, respectively, and the reference point f is controlled to move to another target point f d . The movement of each reference point to the target point is performed in the same manner as described above. As a result, the thin plate-shaped object 2 can be moved so that the first region 14 which is the lower surface of the object 2 is accurately brought into contact with the second region 15 of the prism body 16. At this time, the edge portion of the first region 14 and the edge portion of the second region 15 are brought into contact with each other so that the outer shapes match.

図7から図9は、図1のロボット制御装置の使用状態3を示す図であり、図7は模式図、図8は図7の状態から対象物をその移動先へ移動させる途中を示す模式図、図9は図7の状態から図8の状態を介して対象物をその移動先へ移動させた状態を示す模式図である。ここでのロボット制御装置1は、基本的には図5および図6に示す例と同様である。そこで、以下では、両者の異なる点を中心に説明し、対応する箇所には同一の符号を付して説明する。 7 to 9 are diagrams showing the usage state 3 of the robot control device of FIG. 1, FIG. 7 is a schematic diagram, and FIG. 8 is a schematic diagram showing the process of moving an object from the state of FIG. 7 to its moving destination. FIG. 9 is a schematic diagram showing a state in which an object is moved from the state of FIG. 7 to the moving destination via the state of FIG. The robot control device 1 here is basically the same as the examples shown in FIGS. 5 and 6. Therefore, in the following, the differences between the two will be mainly described, and the corresponding parts will be described with the same reference numerals.

図5および図6に示す例では、基準線分の方向と目標線分の方向とが同一となるようにするために、残りの基準点9が別の目標点20へ移動するよう関節3の変位が制御されたが、ここでは、延出線19に対して残りの基準点9から垂直にひかれる線分の長さに相当するずれである偏差ベクトルに基づき、ロボット4の関節3の変位が制御される。図示例では、対象物2とそれに形成される第一領域14、および角柱体16とそれに形成される第二領域15は、図5および図6の場合と同様である。また、図5および図6の場合と同様にして、三つの基準点d,e,f、二つの目標点d,eおよび二つの他の目標点g,hが設定される。 In the examples shown in FIGS. 5 and 6, the joint 3 is moved so that the remaining reference point 9 moves to another target point 20 so that the direction of the reference line segment and the direction of the target line segment are the same. The displacement was controlled, but here, the displacement of the joint 3 of the robot 4 is based on a deviation vector corresponding to the length of a line segment drawn perpendicular to the extension line 19 from the remaining reference point 9. Is controlled. In the illustrated example, the object 2 and the first region 14 formed therein, and the prism 16 and the second region 15 formed therein are the same as in FIGS. 5 and 6. Further, as in the case of FIGS. 5 and 6, three reference points d, e, f, two target points d d , ed , and two other target points g, h are set.

そして、二台のカメラ11により、三つの基準点d,e,f、二つの目標点d,eおよび二つの他の目標点g,hが撮像され、その撮像結果に基づき、ロボット4が制御される。具体的には、まず、目標点eから前述した延出線19がひかれる。延出線19の形成後、基準点d,eがそれぞれ目標点d,eへ移動するよう関節3の変位が制御されると共に、基準点fから延出線19に対して垂直にひかれる垂線である偏差ベクトルに基づき関節3の変位が制御される。ここで、偏差ベクトルに基づきロボット4を制御する方法は、従来公知の方法が用いられる。なお、基準点d,eの目標点d,eへの移動は、前述した場合と同様にしてなされる。これにより、薄板状の対象物2を移動させて、対象物2の下面である第一領域14を角柱体16の第二領域15に互いの縁部が合うように正確に当接させることができる。 Then, the two cameras 11 image the three reference points d, e, f, the two target points d d , ed , and the two other target points g, h, and the robot 4 is based on the image capture results. Is controlled. Specifically, first, the extension line 19 described above is drawn from the target point ed . After the extension line 19 is formed, the displacement of the joint 3 is controlled so that the reference points d and e move to the target points d d and ed, respectively, and the joint 3 is drawn perpendicularly to the extension line 19 from the reference point f. The displacement of the joint 3 is controlled based on the deviation vector which is a perpendicular line. Here, as a method of controlling the robot 4 based on the deviation vector, a conventionally known method is used. The movement of the reference points d and e to the target points d and ed is performed in the same manner as described above. As a result, the thin plate-shaped object 2 can be moved so that the first region 14 which is the lower surface of the object 2 is accurately brought into contact with the second region 15 of the prism 16 so that the edges of the prism 16 are aligned with each other. can.

図10および図11は、図1のロボット制御装置の使用状態4を示す図であり、図10は模式図、図11は図10の状態から対象物を移動させた状態を示す模式図である。ここでのロボット制御装置1は、基本的には図5および図6に示す例と同様である。そこで、以下では、両者の異なる点を中心に説明し、対応する箇所には同一の符号を付して説明する。 10 and 11 are diagrams showing a usage state 4 of the robot control device of FIG. 1, FIG. 10 is a schematic diagram, and FIG. 11 is a schematic diagram showing a state in which an object is moved from the state of FIG. .. The robot control device 1 here is basically the same as the examples shown in FIGS. 5 and 6. Therefore, in the following, the differences between the two will be mainly described, and the corresponding parts will be described with the same reference numerals.

図5および図6に示す例では、前記少なくとも一の基準点9が複数とされたが、ここでは、前記少なくとも一の基準点9が一点とされる。すなわち、一点の基準点9が第一領域14の縁部に設定され、一点の残りの基準点9が対象物2に対して第一領域14以外の箇所に設定される。この際、一点の基準点9と一点の残りの基準点9とを結ぶ基準線分が第一領域14と第二領域15との接触時に角柱体16の軸方向一端面に対して垂直となるように一点の残りの基準点9が設定される。 In the examples shown in FIGS. 5 and 6, the at least one reference point 9 is a plurality, but here, the at least one reference point 9 is a single point. That is, one reference point 9 is set at the edge of the first region 14, and the remaining reference point 9 of one point is set at a location other than the first region 14 with respect to the object 2. At this time, the reference line segment connecting one reference point 9 and the remaining reference point 9 of one point becomes perpendicular to one axial end surface of the prism 16 at the time of contact between the first region 14 and the second region 15. The remaining reference point 9 of one point is set as described above.

典型的には、図10および図11に示す例とされる。すなわち、図5および図6に示す例では、対象物2が四角形の薄板状に形成されていたが、ここでは、円柱状に形成されている。円柱状の対象物2は、円形状の下面が第一領域14とされる。一方、第二領域15は、四角柱状の角柱体16の軸方向一端面である上面に形成される円形状の平面部であり、第一領域14と同一形状に形成されている。 Typically, the examples shown in FIGS. 10 and 11 are used. That is, in the examples shown in FIGS. 5 and 6, the object 2 is formed in the shape of a quadrangular thin plate, but here, it is formed in a columnar shape. In the columnar object 2, the lower surface of the circular shape is the first region 14. On the other hand, the second region 15 is a circular flat surface portion formed on the upper surface of the square columnar prism body 16 in the axial direction, and is formed in the same shape as the first region 14.

ここでは、対象物2に二つの基準点i,jが設定される。二つの基準点i,jの内、基準点iが対象物2の下面の外縁部に設定され、残りの基準点jが円柱状の対象物2の外壁面に設定される。この際、残りの基準点jは、基準点iから対象物2の下面に対して垂直にひかれる垂線21上に設定される。従って、基準点iと基準点jとを結ぶ基準線分は、前述したように対象物2の下面が角柱体16の上面に当接するよう対象物2が制御されるので、当接時において基準線分が角柱体16の上面に対して垂直とされる。一方、円形状の第二領域15の外縁部には、前記接触時に基準点iに対応する目標点iが設定される。また、前述したように、四角柱状の角柱体16の軸方向に沿う四つの辺部の内、一の辺部17上には、上下方向へ互いに離隔して二つの他の目標点g,hが設定される。 Here, two reference points i and j are set for the object 2. Of the two reference points i and j, the reference point i is set on the outer edge of the lower surface of the object 2, and the remaining reference point j is set on the outer wall surface of the cylindrical object 2. At this time, the remaining reference point j is set on a perpendicular line 21 drawn perpendicularly to the lower surface of the object 2 from the reference point i. Therefore, the reference line segment connecting the reference point i and the reference point j is controlled so that the lower surface of the object 2 abuts on the upper surface of the prism body 16 as described above, so that the reference line segment is a reference at the time of abutting. The line segment is perpendicular to the upper surface of the prism body 16. On the other hand, a target point id corresponding to the reference point i at the time of contact is set on the outer edge portion of the circular second region 15. Further, as described above, among the four side portions along the axial direction of the square columnar prism body 16, on one side portion 17, two other target points g, h separated from each other in the vertical direction are formed. Is set.

そして、二台のカメラ11により、二つの基準点i,j、目標点iおよび二つの他の目標点g,hが撮像され、その撮像結果に基づき、ロボット4が制御される。具体的には、まず、目標点iから二つの他の目標点g,h間を結ぶ目標線分と同一方向へ延出する延出線19がひかれる。ここで、目標点iは、基準線分の下端であり、第一領域14に設定される基準点iに対応する目標点である。延出線19の形成後、延出線19上には別の目標点jが設定される。別の目標点jは、それと目標点iとを結ぶ線分の長さが基準線分の長さと同一となるように設定される。そして、基準点iが目標点iへ移動するよう関節3の変位が制御されると共に、基準点jが別の目標点jへ移動するよう制御される。なお、各基準点の目標点への移動は、前述した場合と同様にしてなされる。これにより、円柱状の対象物2を移動させて、対象物2の下面である第一領域14を角柱体16の第二領域15に互いに縁部が合うように正確に当接させることができる。 Then, the two reference points i and j, the target point id and the two other target points g and h are imaged by the two cameras 11, and the robot 4 is controlled based on the imaged image results. Specifically, first, an extension line 19 extending from the target point id in the same direction as the target line segment connecting the two other target points g and h is drawn. Here, the target point id is the lower end of the reference line segment and is the target point corresponding to the reference point i set in the first region 14. After the extension line 19 is formed, another target point jd is set on the extension line 19. Another target point jd is set so that the length of the line segment connecting it and the target point id is the same as the length of the reference line segment. Then, the displacement of the joint 3 is controlled so that the reference point i moves to the target point id, and the reference point j is controlled to move to another target point j d . The movement of each reference point to the target point is performed in the same manner as described above. As a result, the columnar object 2 can be moved so that the first region 14 which is the lower surface of the object 2 is accurately brought into contact with the second region 15 of the prism 16 so that the edges of the prism are aligned with each other. ..

図12から図14は、図1のロボット制御装置の使用状態5を示す図であり、図12は模式図、図13は図12の状態から対象物を移動させる途中を示す模式図、図14は図12の状態から図13の状態を介して対象物を移動させた状態を示す模式図である。ここでのロボット制御装置1は、基本的には図7から図9に示す例と同様である。そこで、以下では、両者の異なる点を中心に説明し、対応する箇所には同一の符号を付して説明する。 12 to 14 are diagrams showing the usage state 5 of the robot control device of FIG. 1, FIG. 12 is a schematic diagram, and FIG. 13 is a schematic diagram showing the process of moving an object from the state of FIG. 12, FIG. 14; Is a schematic diagram showing a state in which an object is moved from the state of FIG. 12 to the state of FIG. 13. The robot control device 1 here is basically the same as the example shown in FIGS. 7 to 9. Therefore, in the following, the differences between the two will be mainly described, and the corresponding parts will be described with the same reference numerals.

図7から図9に示す例では、対象物2が四角形の薄板状に形成されていたが、ここでは、円柱状に形成されている。円柱状の対象物2は、円形状の下面が第一領域14とされる。一方、第二領域15は、四角柱状の角柱体16の軸方向一端面である上面に形成される円形状の平面部であり、第一領域14と同一形状に形成されている。 In the examples shown in FIGS. 7 to 9, the object 2 is formed in the shape of a quadrangular thin plate, but here, it is formed in a columnar shape. In the columnar object 2, the lower surface of the circular shape is the first region 14. On the other hand, the second region 15 is a circular flat surface portion formed on the upper surface of the square columnar prism body 16 in the axial direction, and is formed in the same shape as the first region 14.

ここでは、対象物2に二つの基準点i,jが設定される。二つの基準点i,jの内、基準点iが対象物2の下面の外縁部に設定され、残りの基準点jが円柱状の対象物2の外壁面に設定される。この際、残りの基準点jは、基準点iから対象物2の下面に対して垂直にひかれる垂線21上に設定される。従って、基準点iと基準点jとを結ぶ基準線分は、前述したように対象物2の下面が角柱体16の上面に当接するよう対象物2が制御されるので、当接時において基準線分が角柱体16の上面に対して垂直とされる。一方、円形状の第二領域15の外縁部には、前記接触時に基準点iに対応する目標点iが設定される。また、前述したように、四角柱状の角柱体16の軸方向に沿う四つの辺部の内、一の辺部17上には、上下方向へ互いに離隔して二つの他の目標点g,hが設定される。前記一の辺部17は、角柱体16の辺部であるので、角柱体16の上面に対して垂直とされる。従って、二つの他の目標点g,h間を結ぶ目標線分は、角柱体16の上面に対して垂直とされる。 Here, two reference points i and j are set for the object 2. Of the two reference points i and j, the reference point i is set on the outer edge of the lower surface of the object 2, and the remaining reference point j is set on the outer wall surface of the cylindrical object 2. At this time, the remaining reference point j is set on a perpendicular line 21 drawn perpendicularly to the lower surface of the object 2 from the reference point i. Therefore, the reference line segment connecting the reference point i and the reference point j is controlled so that the lower surface of the object 2 abuts on the upper surface of the prism body 16 as described above, so that the reference line segment is a reference at the time of abutting. The line segment is perpendicular to the upper surface of the prism body 16. On the other hand, a target point id corresponding to the reference point i at the time of contact is set on the outer edge portion of the circular second region 15. Further, as described above, among the four side portions along the axial direction of the square columnar prism body 16, on one side portion 17, two other target points g, h separated from each other in the vertical direction are formed. Is set. Since the one side portion 17 is a side portion of the prism body 16, it is perpendicular to the upper surface of the prism body 16. Therefore, the target line segment connecting the two other target points g and h is perpendicular to the upper surface of the prism body 16.

そして、二台のカメラ11により、二つの基準点i,j、目標点iおよび二つの他の目標点g,hが撮像され、その撮像結果に基づき、ロボット4が制御される。具体的には、まず、目標点iから目標線分と同一方向へ延出する延出線19がひかれる。ここで、目標点iは、基準線分の下端であり、第一領域14に設定される基準点iに対応する目標点である。延出線19の形成後、基準点iが目標点iへ移動するよう関節3の変位が制御されると共に、基準点jから延出線19に対して垂直にひかれる垂線である偏差ベクトルに基づき関節3の変位が制御される。ここで、偏差ベクトルに基づきロボット4を制御する方法は、従来公知の方法が用いられる。なお、基準点iの目標点iへの移動は、前述した場合と同様にしてなされる。これにより、円柱状の対象物2を移動させて、対象物2の下面である第一領域14を角柱体16の第二領域15に互いの縁部が合うように正確に当接させることができる。 Then, the two reference points i and j, the target point id and the two other target points g and h are imaged by the two cameras 11, and the robot 4 is controlled based on the imaged image results. Specifically, first, an extension line 19 extending from the target point id in the same direction as the target line segment is drawn. Here, the target point id is the lower end of the reference line segment and is the target point corresponding to the reference point i set in the first region 14. After the extension line 19 is formed, the displacement of the joint 3 is controlled so that the reference point i moves to the target point id, and the deviation vector is a perpendicular line drawn perpendicularly to the extension line 19 from the reference point j. The displacement of the joint 3 is controlled based on the above. Here, as a method of controlling the robot 4 based on the deviation vector, a conventionally known method is used. The movement of the reference point i to the target point id is performed in the same manner as described above. As a result, the columnar object 2 can be moved so that the first region 14 which is the lower surface of the object 2 is accurately brought into contact with the second region 15 of the prism 16 so that the edges of the prisms 2 are aligned with each other. can.

図15から図17は、図1のロボット制御装置の使用状態6を示す図であり、図15は模式図、図16は図15の状態から対象物を移動させる途中を示す模式図、図17は図15の状態から図16の状態を介して対象物を移動させた状態を示す模式図である。ここでのロボット制御装置1は、基本的には図1および図4に示す例と同様である。そこで、以下では、両者の異なる点を中心に説明し、対応する箇所には同一の符号を付して説明する。すなわち、図1および図4に示す例では、対象物2の第一領域14の縁部を対象物2の移動先の第二領域15の縁部に外形が合うよう接触させたが、ここでは、対象物2が対象物2の移動先に差し込まれる。 15 to 17 are diagrams showing a usage state 6 of the robot control device of FIG. 1, FIG. 15 is a schematic diagram, and FIG. 16 is a schematic diagram showing a process of moving an object from the state of FIG. 15, FIG. 17 Is a schematic diagram showing a state in which an object is moved from the state of FIG. 15 through the state of FIG. The robot control device 1 here is basically the same as the example shown in FIGS. 1 and 4. Therefore, in the following, the differences between the two will be mainly described, and the corresponding parts will be described with the same reference numerals. That is, in the examples shown in FIGS. 1 and 4, the edge of the first region 14 of the object 2 is brought into contact with the edge of the second region 15 to which the object 2 is moved so as to match the outer shape. , The object 2 is inserted into the destination of the object 2.

対象物2は、第一領域14を先端に有する差込部22を有している。一方、対象物2の移動先は、第二領域15を有しており、この第二領域15が対象物2の差込部22が差し込まれる被差込部とされている。この場合、対象物2を移動させて、対象物2の第一領域14の縁部を第二領域15の縁部に外形が合うよう接触させた後、対象物2の差込部22を被差込部15に差し込む制御とされる。この制御では、対象物2に基準点9が複数設定される。 The object 2 has an insertion portion 22 having a first region 14 at the tip thereof. On the other hand, the destination of the object 2 has a second region 15, and the second region 15 is a insertion portion into which the insertion portion 22 of the object 2 is inserted. In this case, the object 2 is moved so that the edge of the first region 14 of the object 2 is brought into contact with the edge of the second region 15 so that the outer shape matches, and then the insertion portion 22 of the object 2 is covered. It is controlled to be inserted into the insertion unit 15. In this control, a plurality of reference points 9 are set on the object 2.

複数の基準点9は、対象物2の第一領域14の縁部に設定される。一方、目標点10は、基準点9の移動先であり、移動先での対象物2の位置および姿勢が決定できるように、移動先での基準点9に対応する位置に設定される。ここでは、対象物2に基準点9とは異なる位置に他の基準点23がさらに設定される。他の基準点23は、第一領域14に設定された基準点9よりも基端側において対象物2の差込部22に、差込部22の被差込部15への差込後に第二領域15に設定される目標点10に対応する位置に設定される。そして、制御手段12によって、対象物2の第一領域14の縁部と第二領域15の縁部との接触後、他の基準点23が第二領域15に設定される目標点10に移動するよう関節3の変位が制御される。なお、第一領域14の縁部と第二領域15の縁部との接触は、前述した場合と同様にしてなされる。 The plurality of reference points 9 are set at the edge of the first region 14 of the object 2. On the other hand, the target point 10 is the destination of the reference point 9, and is set at a position corresponding to the reference point 9 at the destination so that the position and posture of the object 2 at the destination can be determined. Here, another reference point 23 is further set in the object 2 at a position different from the reference point 9. The other reference points 23 are located on the proximal end side of the reference point 9 set in the first region 14 into the insertion portion 22 of the object 2 and after the insertion portion 22 is inserted into the insertion portion 15. The position corresponding to the target point 10 set in the two regions 15 is set. Then, after the contact between the edge of the first region 14 of the object 2 and the edge of the second region 15 by the control means 12, another reference point 23 moves to the target point 10 set in the second region 15. The displacement of the joint 3 is controlled so as to do so. The contact between the edge portion of the first region 14 and the edge portion of the second region 15 is performed in the same manner as described above.

典型的には、図15から図17に示す例とされる。この例では、対象物2は、前述したように下面を第一領域14とする直方体とされ、下半分が差込部22とされる。一方、第二領域15は、上方へ開口する凹部とされ、角柱体16の上面に形成されている。なお、凹部は、対象物2の下半分を差し込むことができる形状に形成されている。ここでは、前述したように、対象物2の下側の三つの頂点、すなわち対象物2の下面の三つの角部に基準点a,b,cが設定され、平面状の第二領域15の三つの角部に前記接触時に基準点a,b,cに対応する目標点a,b,cが設定される。 Typically, it is an example shown in FIGS. 15 to 17. In this example, the object 2 is a rectangular parallelepiped having the lower surface as the first region 14 as described above, and the lower half is the insertion portion 22. On the other hand, the second region 15 is a recess that opens upward and is formed on the upper surface of the prism 16. The recess is formed in a shape into which the lower half of the object 2 can be inserted. Here, as described above, reference points a, b, and c are set at the three lower vertices of the object 2, that is, the three corners of the lower surface of the object 2, and the planar second region 15 is formed. Target points a d , b d , and cd corresponding to reference points a, b, and c are set at the three corners at the time of contact.

また、対象物2の差込部22には、基準点a,b,cの基端側、すなわち差込部22の上端部に、他の基準点k,l,mが設定される。具体的には、他の基準点kは、基準点aが設定される頂点とその上側の頂点とを結ぶ辺部の中央部に設定される。他の基準点lは、基準点bが設定される頂点とその上側の頂点とを結ぶ辺部の中央部に設定される。他の基準点mは、基準点cが設定される頂点とその上側の頂点とを結ぶ辺部の中央部に設定される。 Further, in the insertion portion 22 of the object 2, other reference points k, l, m are set on the base end side of the reference points a, b, and c, that is, on the upper end portion of the insertion portion 22. Specifically, the other reference point k is set at the center of the side portion connecting the apex where the reference point a is set and the apex above the apex. The other reference point l is set at the center of the side portion connecting the apex where the reference point b is set and the apex above the apex. The other reference point m is set at the center of the side portion connecting the apex where the reference point c is set and the apex above the apex.

そして、二台のカメラ11により三つの基準点a,b,c、他の三つの基準点k,l,m、および三つの目標点a,b,cが撮像され、その撮像結果に基づきロボット4が制御される。具体的には、三つの基準点a,b,cがそれぞれ対応する目標点a,b,cへ移動するようロボット4の関節3の変位が制御された後、他の三つの基準点k,l,mが目標点a,b,cへ移動するよう関節3の変位が制御される。これにより、対象物2の下半分を対象物2の移動先の凹部へ正確に差し込むことができる。なお、三つの基準点a,b,cの目標点a,b,cへの移動は、前述した場合と同様にしてなされ、他の三つの基準点k,l,mの目標点a,b,cへの移動は、三つの基準点a,b,cの目標点a,b,cへの移動と同様にしてなされる。 Then, the three reference points a, b, c, the other three reference points k, l, m, and the three target points a d , b d , and cd are imaged by the two cameras 11, and the imaging results thereof. The robot 4 is controlled based on the above. Specifically, after the displacement of the joint 3 of the robot 4 is controlled so that the three reference points a, b, and c move to the corresponding target points a d , b d , and cd, respectively, the other three reference points are used. The displacement of the joint 3 is controlled so that the points k, l, and m move to the target points a d , b d , and cd. As a result, the lower half of the object 2 can be accurately inserted into the recess to which the object 2 is moved. The movement of the three reference points a, b, and c to the target points a d , b d , and cd is performed in the same manner as described above, and the other three reference points k, l, and m are targeted points. The movement to a d , b d , and cd is performed in the same manner as the movement of the three reference points a, b, and c to the target points a d , b d , and cd.

本発明のロボット制御装置およびロボット制御方法は、前記図示例の構成に限らず、適宜変更可能である。たとえば、前記図示例では、撮像手段11による撮像前に予め基準点9および目標点10などが対応する箇所に設定されたが、撮像手段11により撮像された画像上において、それら各点を設定してもよい。図18は、本発明のロボット制御装置の別の実施例を示す概略ブロック図である。ここでは、ロボット制御装置1は、後述する撮像手段11、設定手段24および制御手段12を備える。その他の構成は、前記図示例と同様であるので、説明は省略する。 The robot control device and the robot control method of the present invention are not limited to the configurations shown in the above illustrated examples, and can be appropriately changed. For example, in the illustrated example, the reference point 9 and the target point 10 are set in the corresponding points in advance before the image pickup by the image pickup means 11, but each of these points is set on the image captured by the image pickup means 11. You may. FIG. 18 is a schematic block diagram showing another embodiment of the robot control device of the present invention. Here, the robot control device 1 includes an image pickup means 11, a setting means 24, and a control means 12, which will be described later. Since other configurations are the same as those shown in the above illustrated example, the description thereof will be omitted.

撮像手段11は、対象物2と対象物2の移動先とを撮像する手段であり、本実施例ではカメラとされる。本実施例では、前述したようにカメラ11が二台配置される。なお、カメラ11により撮影される対象物2とその移動先には、基準点9および目標点10などは設定されていない。 The image pickup means 11 is a means for capturing an image of the object 2 and the moving destination of the object 2, and is referred to as a camera in this embodiment. In this embodiment, two cameras 11 are arranged as described above. It should be noted that the reference point 9 and the target point 10 are not set for the object 2 photographed by the camera 11 and its moving destination.

設定手段24は、撮像手段11により得られた画像上において、対象物2に基準点9などを設定すると共に、対象物2の移動先に目標点10などを設定する手段である。基準点9および目標点10などを設定する際、それら各点は、移動先での対象物2の位置および姿勢を決定できるように設定される。典型的には、基準点9および目標点10などは、画像上において、前述した各図示例に示す位置に設定される。なお、画像上に各点を設定する方法は、従来公知の方法が用いられる。たとえば、制御手段12などに予め記憶されているテンプレート画像に基づき、基準点9および目標点10などが画像上に設定される。 The setting means 24 is a means for setting a reference point 9 or the like on the object 2 and setting a target point 10 or the like on the moving destination of the object 2 on the image obtained by the image pickup means 11. When setting the reference point 9, the target point 10, and the like, each of these points is set so that the position and posture of the object 2 at the destination can be determined. Typically, the reference point 9, the target point 10, and the like are set at the positions shown in the above-described illustrated examples on the image. As a method for setting each point on the image, a conventionally known method is used. For example, a reference point 9 and a target point 10 are set on the image based on a template image stored in advance in the control means 12 or the like.

制御手段12は、基準点9が目標点10へ移動するよう関節3の変位を制御する手段である。この制御手段12は、設定手段24により基準点9および目標点10などが所定の箇所に設定された画像に基づき、関節3の変位を制御する。なお、本実施例では、制御手段12は、前述した設定手段24を有している。 The control means 12 is a means for controlling the displacement of the joint 3 so that the reference point 9 moves to the target point 10. The control means 12 controls the displacement of the joint 3 based on an image in which the reference point 9 and the target point 10 are set at predetermined positions by the setting means 24. In this embodiment, the control means 12 has the setting means 24 described above.

次に、本実施例のロボット制御装置1を用いたロボット制御方法について説明する。本実施例では、撮像工程、設定工程、および制御工程が順次に実行される。 Next, a robot control method using the robot control device 1 of this embodiment will be described. In this embodiment, the imaging step, the setting step, and the control step are sequentially executed.

まず、対象物2とその移動先が撮像される。これは、二台のカメラ11によりなされる。そして、撮像された画像上において、対象物2に基準点9が設定される一方、対象物2の移動先に目標点10が設定される。そして、基準点9および目標点10などが設定された画像に基づき、ロボット4が制御される。この制御は、画像に基づきロボット4を制御する従来公知の制御方法が用いられる。 First, the object 2 and its moving destination are imaged. This is done by two cameras 11. Then, on the captured image, the reference point 9 is set for the object 2, while the target point 10 is set for the movement destination of the object 2. Then, the robot 4 is controlled based on the image in which the reference point 9 and the target point 10 are set. For this control, a conventionally known control method for controlling the robot 4 based on an image is used.

また、図1および図4に示す例では、三つの基準点9および三つの目標点10が設定されたが、これに限定されるものではなく、四つの基準点9および四つの目標点10を所定の箇所に設定してもよい。図19は、図1のロボット制御装置の別の使用状態を示す模式図である。 Further, in the examples shown in FIGS. 1 and 4, three reference points 9 and three target points 10 are set, but the present invention is not limited to these, and four reference points 9 and four target points 10 are set. It may be set in a predetermined place. FIG. 19 is a schematic diagram showing another usage state of the robot control device of FIG.

ここでは、対象物2の下面の一方の長辺部に二つの基準点9,9が設定されると共に、対象物2の下面の一方の短辺部に二つの基準点9,9が設定される。一方、第二領域15には、前記接触時に四つの基準点9それぞれに対応する四つの目標点10が設定される。そして、制御手段12によって、四つの基準点9がそれぞれ対応する四つの目標点10へ移動するようロボット4の関節3の変位が制御される。 Here, two reference points 9 and 9 are set on one long side of the lower surface of the object 2, and two reference points 9 and 9 are set on one short side of the lower surface of the object 2. To. On the other hand, in the second region 15, four target points 10 corresponding to each of the four reference points 9 are set at the time of contact. Then, the control means 12 controls the displacement of the joint 3 of the robot 4 so that the four reference points 9 move to the corresponding four target points 10.

また、制御方法は、前述した方法に限定されるものではなく、たとえば、国際公開番号WO2013/176212号に開示される方法であってもよい。さらに、対象物2、第一領域14および第二領域15の形状は、前記図示例に限定されるものではなく、適宜に変更可能である。この際、基準点9および目標点10の位置および数は、適宜に設定される。 Further, the control method is not limited to the method described above, and may be, for example, a method disclosed in International Publication No. WO2013 / 176212. Further, the shapes of the object 2, the first region 14 and the second region 15 are not limited to the above illustrated example, and can be appropriately changed. At this time, the positions and numbers of the reference point 9 and the target point 10 are appropriately set.

本発明は、対象物をその移動先へ運ぶロボットに好適に用いることができる。 The present invention can be suitably used for a robot that carries an object to its destination.

1 ロボット制御装置
2 対象物
3 関節
4 ロボット
9 基準点
10 目標点
11 カメラ(撮像手段)
12 制御手段
14 第一領域
15 第二領域
16 角柱体
17 辺部
18 他の目標点
19 延出線
20 別の目標点
22 差込部
23 他の基準点
24 設定手段
1 Robot control device 2 Object 3 Joint 4 Robot 9 Reference point 10 Target point 11 Camera (imaging means)
12 Control means 14 First area 15 Second area 16 Prism 17 Sides 18 Other target points 19 Extension line 20 Another target point 22 Insertion part 23 Other reference points 24 Setting means

Claims (5)

対象物を関節の変位により移動させるロボットの制御装置であって、移動先での前記対象物の位置および姿勢を決定するために、前記対象物に基準点が設定される一方、前記基準点の移動先としての目標点が設定されており、前記基準点および前記目標点を撮像する撮像手段と、前記ロボットおよび前記撮像手段のキャリブレーションを行わずに、前記撮像手段により得られた撮像結果に基づき、前記基準点が前記目標点へ移動するよう前記関節の変位を制御する制御手段と、を備え、
前記対象物が第一領域を有し、前記対象物の移動先が前記第一領域の外形と同一形状の第二領域を有しており、前記対象物を移動させて前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させる制御において、前記対象物に前記基準点が複数設定され、複数の前記基準点が前記第一領域の縁部に設定されるか、または複数の前記基準点の内、少なくとも一の基準点が前記第一領域の縁部に設定され、残りの基準点が前記対象物に前記第一領域の縁部以外の箇所に設定され、
複数の前記基準点の内、前記少なくとも一の基準点が前記第一領域の縁部に設定され、前記残りの基準点が一点とされて前記対象物に前記第一領域の縁部以外の箇所に設定される場合、前記対象物の移動先が軸方向一端面に前記第二領域を有する角柱体を有しており、前記少なくとも一の基準点が一点の場合、その一点の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記少なくとも一の基準点が複数の場合、その内の一の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、
前記角柱体の軸方向一端面と軸方向他端面との間の辺部の内、一の辺部上に互いに離隔して二つの他の目標点が設定され、前記制御手段は、前記第一領域の縁部に設定される前記基準点が前記目標点へ移動するよう前記関節の変位を制御すると共に、前記二つの他の目標点間を結ぶ目標線分の方向と前記基準線分の方向とが同一となるよう前記関節の変位を制御する、ことを特徴とするロボットの制御点設定がなされるロボット制御装置。
A control device for a robot that moves an object by displacement of a joint, and a reference point is set for the object in order to determine the position and posture of the object at the destination, while the reference point of the reference point is set. A target point as a moving destination is set, and the image pickup result obtained by the image pickup means without calibrating the reference point and the image pickup means for imaging the target point, and the robot and the image pickup means. Based on this, the control means for controlling the displacement of the joint so that the reference point moves to the target point is provided.
The object has a first region, the destination of the object has a second region having the same shape as the outer shape of the first region, and the object is moved to the edge of the first region. In the control of bringing the portion into contact with the edge portion of the second region so that the outer shape matches, a plurality of the reference points are set on the object, and the plurality of reference points are set on the edge portion of the first region. Alternatively, at least one of the plurality of reference points is set at the edge of the first region, and the remaining reference points are set at the object other than the edge of the first region.
Of the plurality of reference points, at least one reference point is set at the edge of the first region, and the remaining reference points are set as one point, and the object has a location other than the edge of the first region. When set to, when the destination of the object has a prism having the second region on one end surface in the axial direction and the at least one reference point is one point, the one reference point and the said The remaining reference points are set on the object so that the reference line segment connecting the remaining reference points is perpendicular to one axial end surface of the prism at the time of contact, and the at least one reference point is set. In the case of a plurality, the remaining reference points are said to be perpendicular to one axial end surface of the prism at the time of contact. Set on the object,
Two other target points are set on one side of the side between the axial end surface and the axial end surface of the square column, and the control means is the first. The displacement of the joint is controlled so that the reference point set at the edge of the region moves to the target point, and the direction of the target line segment connecting the two other target points and the direction of the reference line segment. A robot control device for setting control points of a robot, characterized in that the displacement of the joint is controlled so as to be the same as the above .
対象物を関節の変位により移動させるロボットの制御装置であって、前記対象物と前記対象物の移動先とを撮像する撮像手段と、前記撮像手段により得られた画像上において、前記対象物に基準点をかつ前記対象物の移動先に前記基準点の移動先である目標点を、移動先での前記対象物の位置および姿勢を決定できるように設定する設定手段と、前記ロボットおよび前記撮像手段のキャリブレーションを行わずに、前記設定手段により前記基準点および前記目標点が設定された前記画像に基づき、前記基準点が前記目標点へ移動するよう前記関節の変位を制御する制御手段と、を備え、
前記対象物が第一領域を有し、前記対象物の移動先が前記第一領域の外形と同一形状の第二領域を有しており、前記対象物を移動させて前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させる制御において、前記対象物に前記基準点が複数設定され、複数の前記基準点が前記第一領域の縁部に設定されるか、または複数の前記基準点の内、少なくとも一の基準点が前記第一領域の縁部に設定され、残りの基準点が前記対象物に前記第一領域の縁部以外の箇所に設定され、
複数の前記基準点の内、前記少なくとも一の基準点が前記第一領域の縁部に設定され、前記残りの基準点が一点とされて前記対象物に前記第一領域の縁部以外の箇所に設定される場合、前記対象物の移動先が軸方向一端面に前記第二領域を有する角柱体を有しており、前記少なくとも一の基準点が一点の場合、その一点の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、前記少なくとも一の基準点が複数の場合、その内の一の基準点と前記残りの基準点とを結ぶ基準線分が前記接触時に前記角柱体の軸方向一端面に対して垂直となるように前記残りの基準点が前記対象物に設定され、
前記角柱体の軸方向一端面と軸方向他端面との間の辺部の内、一の辺部上に互いに離隔して二つの他の目標点が設定され、前記制御手段は、前記第一領域の縁部に設定される前記基準点が前記目標点へ移動するよう前記関節の変位を制御すると共に、前記二つの他の目標点間を結ぶ目標線分の方向と前記基準線分の方向とが同一となるよう前記関節の変位を制御すること、
を特徴とするロボットの制御点設定がなされるロボット制御装置。
It is a control device of a robot that moves an object by displacement of a joint, and is an image pickup means for capturing an image of the object and the moving destination of the object, and on an image obtained by the image pickup means, the object is attached to the object. A setting means for setting a reference point and a target point to which the reference point is moved to the destination of the object so that the position and posture of the object at the destination can be determined, the robot, and the image pickup. A control means for controlling the displacement of the joint so that the reference point moves to the target point based on the image in which the reference point and the target point are set by the setting means without calibrating the means. , Equipped with
The object has a first region, the destination of the object has a second region having the same shape as the outer shape of the first region, and the object is moved to the edge of the first region. In the control of bringing the portion into contact with the edge portion of the second region so that the outer shape matches, a plurality of the reference points are set on the object, and the plurality of reference points are set on the edge portion of the first region. Alternatively, at least one of the plurality of reference points is set at the edge of the first region, and the remaining reference points are set at the object other than the edge of the first region.
Of the plurality of reference points, at least one reference point is set at the edge of the first region, and the remaining reference points are set as one point, and the object has a location other than the edge of the first region. When set to, when the destination of the object has a prism having the second region on one end surface in the axial direction and the at least one reference point is one point, the one reference point and the said The remaining reference points are set on the object so that the reference line segment connecting the remaining reference points is perpendicular to one axial end surface of the prism at the time of contact, and the at least one reference point is set. In the case of a plurality, the remaining reference points are said to be perpendicular to one axial end surface of the prism at the time of contact. Set on the object,
Two other target points are set on one side of the side between the axial end surface and the axial end surface of the prism, and the control means is the first. The displacement of the joint is controlled so that the reference point set at the edge of the region moves to the target point, and the direction of the target line segment connecting the two other target points and the direction of the reference line segment. Controlling the displacement of the joint so that
A robot control device that sets control points for robots.
前記基準線分の一端である前記基準点に対応する前記目標点と、その前記目標点から前記目標線分と同一方向へ延出する延出線上に設定される別の目標点とを結ぶ線分の長さが前記基準線分の長さと同一となるように前記別の目標点が設定され、
前記制御手段は、前記基準線分の方向と前記目標線分の方向とが同一となるようにするために、前記残りの基準点が前記別の目標点へ移動するよう関節の変位を制御すること、
を特徴とする請求項1又は2に記載のロボットの制御点設定がなされるロボット制御装置。
A line connecting the target point corresponding to the reference point, which is one end of the reference line segment, and another target point set on an extension line extending from the target point in the same direction as the target line segment. The other target point is set so that the length of the minute is the same as the length of the reference line segment.
The control means controls the displacement of the joint so that the remaining reference points move to the other target points so that the direction of the reference line segment and the direction of the target line segment are the same. matter,
The robot control device for which the control point of the robot according to claim 1 or 2 is set.
前記制御手段は、前記基準線分の方向と前記目標線分の方向とが同一となるようにするために、前記基準線分の一端である前記基準点に対応する前記目標点から前記目標線分と同一方向へ延出する延出線に対して前記残りの基準点から垂直にひかれる線分の長さに相当するずれである偏差ベクトルに基づき前記関節の変位を制御すること、
を特徴とする請求項1又は2に記載のロボットの制御点設定がなされるロボット制御装置。
The control means has the target line from the target point corresponding to the reference point, which is one end of the reference line segment, so that the direction of the reference line segment and the direction of the target line segment are the same. Controlling the displacement of the joint based on a deviation vector, which is a deviation corresponding to the length of the line segment drawn perpendicular to the remaining reference point with respect to the extending line extending in the same direction as the minute.
The robot control device for which the control point of the robot according to claim 1 or 2 is set.
前記対象物が前記第一領域を先端に有する差込部を有し、前記第二領域が前記対象物の前記差込部が差し込まれる被差込部とされており、前記対象物を移動させて、前記第一領域の縁部を前記第二領域の縁部に外形が合うよう接触させた後に前記差込部を前記被差込部に差し込む制御において、
前記第一領域に設定された前記基準点よりも基端側において前記差込部に、前記差込部の前記被差込部への差込後に前記第二領域に設定される前記目標点に対応する他の基準点がさらに設定され、
前記制御手段は、前記第一領域の縁部と前記第二領域の縁部との接触後、前記他の基準点が前記第二領域に設定される前記目標点に移動するよう関節の変位を制御する
ことを特徴とする請求項1~4のいずれか1項に記載のロボットの制御点設定がなされるロボット制御装置。
The object has an insertion portion having the first region at the tip thereof, and the second region is an insertion portion into which the insertion portion of the object is inserted, and the object is moved. In the control of inserting the insertion portion into the insertion portion after the edge portion of the first region is brought into contact with the edge portion of the second region so as to match the outer shape.
At the base end side of the reference point set in the first region, at the insertion portion, and at the target point set in the second region after the insertion portion is inserted into the insertion portion. Other corresponding reference points are set further and
After the contact between the edge of the first region and the edge of the second region, the control means displaces the joint so that the other reference point moves to the target point set in the second region. Control
The robot control device for which the control point of the robot according to any one of claims 1 to 4 is set.
JP2017173602A 2017-09-10 2017-09-10 Robot control device and robot control method for setting robot control points Active JP7011805B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017173602A JP7011805B2 (en) 2017-09-10 2017-09-10 Robot control device and robot control method for setting robot control points

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017173602A JP7011805B2 (en) 2017-09-10 2017-09-10 Robot control device and robot control method for setting robot control points

Publications (2)

Publication Number Publication Date
JP2019048350A JP2019048350A (en) 2019-03-28
JP7011805B2 true JP7011805B2 (en) 2022-01-27

Family

ID=65904831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017173602A Active JP7011805B2 (en) 2017-09-10 2017-09-10 Robot control device and robot control method for setting robot control points

Country Status (1)

Country Link
JP (1) JP7011805B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7547940B2 (en) * 2020-10-30 2024-09-10 セイコーエプソン株式会社 How to control a robot
KR102622984B1 (en) * 2021-08-25 2024-01-10 세메스 주식회사 Substrate treating apparatus and substrate treating method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6427972B2 (en) * 2014-06-12 2018-11-28 セイコーエプソン株式会社 Robot, robot system and control device
JP6485620B2 (en) * 2014-09-03 2019-03-20 株式会社チトセロボティクス Robot control system and robot control method

Also Published As

Publication number Publication date
JP2019048350A (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6180087B2 (en) Information processing apparatus and information processing method
CN108994876B (en) Teaching position correction device and teaching position correction method
JP5850962B2 (en) Robot system using visual feedback
JP3946711B2 (en) Robot system
JP3733364B2 (en) Teaching position correction method
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP5292998B2 (en) Robot apparatus control method and robot apparatus
JP6298026B2 (en) Deflection measurement system for measuring the deflection of articulated robots
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
CN106003021A (en) Robot, robot control device, and robotic system
JP6674655B2 (en) Relative data calibration device and method
JP6897396B2 (en) Control devices, robot systems and control methods
JP5891698B2 (en) robot
CN110722558B (en) Origin correction method and device for robot, controller and storage medium
JP7011805B2 (en) Robot control device and robot control method for setting robot control points
JP6485620B2 (en) Robot control system and robot control method
JP4613955B2 (en) Rotation axis calculation method, program creation method, operation method, and robot apparatus
JP5787646B2 (en) Robot system and component manufacturing method
WO2020129706A1 (en) Alignment device
JPWO2018173192A1 (en) Parallelism determination method for articulated robot and tilt adjustment device for articulated robot
JP2016203282A (en) Robot with mechanism for changing end effector attitude
CN113492401B (en) Correction method
CN114939865B (en) Calibration method
EP4079463A1 (en) Method and control unit for calibrating a rotating head system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220107

R150 Certificate of patent or registration of utility model

Ref document number: 7011805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350