JP2011230238A - Robot control device, and robot control method - Google Patents

Robot control device, and robot control method Download PDF

Info

Publication number
JP2011230238A
JP2011230238A JP2010103046A JP2010103046A JP2011230238A JP 2011230238 A JP2011230238 A JP 2011230238A JP 2010103046 A JP2010103046 A JP 2010103046A JP 2010103046 A JP2010103046 A JP 2010103046A JP 2011230238 A JP2011230238 A JP 2011230238A
Authority
JP
Japan
Prior art keywords
robot
work
posture
time
work object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010103046A
Other languages
Japanese (ja)
Other versions
JP5447150B2 (en
Inventor
Yosuke Kamiya
陽介 神谷
Yasuyuki Inoue
康之 井上
Hideo Nagata
英夫 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2010103046A priority Critical patent/JP5447150B2/en
Publication of JP2011230238A publication Critical patent/JP2011230238A/en
Application granted granted Critical
Publication of JP5447150B2 publication Critical patent/JP5447150B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a work teaching data correction method and device for performing precise work as it is, by the rough approach of a robot.SOLUTION: This robot control device includes a work procedure storage unit for storing a work procedure to a work object to be performed by the robot, and a work procedure correcting unit for correcting the work procedure based on a calculation value by acquiring a variation in a position and a posture in response to the fact of detecting that a relative position and a relative posture between the robot and the work object in regeneration become other position and posture by a position-posture detecting unit, wherein a correcting work procedure is imparted as a work procedure on coordinates on the basis of the robot by using a homogeneous transformation matrix to coordinates on the basis of the work object from coordinates on the basis of the robot, acquired based on the position and the posture of the work object detected by a contact state detecting unit.

Description

本発明の実施例は、例えばロボットの制御装置およびロボットを制御する方法に関する。   Embodiments described herein relate generally to a robot control device and a method for controlling a robot, for example.

平面を移動する移動台車(ロボット)は、電源投入後、常時その内界する(当該移動台車内に存在する)車軸モータのエンコーダ値から移動台車の速度を求めそれを積分することにより位置と姿勢を管理している(デットレコニングと呼ぶ)。   A moving carriage (robot) that moves on a plane is always positioned after the power is turned on, by calculating the speed of the moving carriage from the encoder value of the axle motor that is in the interior (existing in the moving carriage) and integrating it. (Referred to as dead reckoning).

しかし、車輪の路面とのすべりや台車の機械的な誤差などにより、デットレコニングにより求めた位置姿勢データには、移動した距離に応じて誤差が累積する。移動後の場所にて、移動台車に搭載したマニピュレータによって作業を行わせようとする場合、実際のロボットの停止位置(寄り付き位置)と指令した停止位置のずれによりロボットに所望する作業をさせることが出来ない問題があった。   However, the position and orientation data obtained by dead reckoning accumulates errors according to the distance moved due to slippage of the wheels with the road surface and mechanical errors of the carriage. When trying to perform work with a manipulator mounted on a moving carriage at a location after movement, it is possible to cause the robot to perform a desired work due to a deviation between the actual stop position (close position) of the robot and the commanded stop position. There was a problem that could not be done.

ロボットの実際の停止位置と指令した停止位置の差は路面材質、路面状況、移動速度により試行毎に異なり、移動量と誤差の量は非線形関係にあるため、単純に修正量を与えるだけでは様々な移動位置指令に対応できない。   The difference between the actual stop position of the robot and the commanded stop position is different for each trial depending on the road surface material, road surface condition, and moving speed, and the amount of movement and the error are in a non-linear relationship. It cannot respond to a moving position command.

この一般的な技術課題を解決するために、環境中のランドマークをカメラやレーザセンサなどの外界センサで適時検出して、デットレコニングの値を修正する方法が提案されている(例えば、特許文献1)。   In order to solve this general technical problem, a method has been proposed in which a landmark in the environment is detected by an external sensor such as a camera or a laser sensor in a timely manner, and the value of the dead reckoning is corrected (for example, patent document). 1).

また、搭載したマニピュレータに力センサや接触センサを取り付け、マニピュレータの動作による外界との接触状態を監視することで作業対象物の位置を特定する方法がある(例えば、特許文献2、特許文献3、特許文献4)。   In addition, there is a method of identifying the position of the work object by attaching a force sensor or a contact sensor to the mounted manipulator and monitoring the contact state with the outside world by the operation of the manipulator (for example, Patent Document 2, Patent Document 3, Patent Document 4).

図5は前記した特許文献1の手法を説明する制御ブロック図である。撮像した床面画像を画像処理し、現在位置を算出する処理を教示時と再生時で行うことにより、再生時の移動体の停止位置誤差(寄り付き位置誤差)を算出し、作業アームの教示データを修正し、修正した教示データにしたがって作業アームを動作することが出来る。   FIG. 5 is a control block diagram for explaining the method disclosed in Patent Document 1. By processing the captured floor image and calculating the current position during teaching and playback, the stop position error (close position error) of the moving object during playback is calculated, and the work arm teaching data The work arm can be operated according to the corrected teaching data.

このように、従来のロボットでは、床面に塗布されたパターン模様をビジョンセンサで認識し、現在位置を検出し、教示時と再生時の位置誤差を算出して作業アームの教示データを修正する、という手順がとられていた。   As described above, in the conventional robot, the pattern pattern applied to the floor surface is recognized by the vision sensor, the current position is detected, the position error during teaching and during reproduction is calculated, and the teaching data of the work arm is corrected. The procedure was taken.

特許第3684799号公報Japanese Patent No. 3684799 特許第2597671号公報Japanese Patent No. 2597671 特開平10−249767号公報JP-A-10-249767 特開昭61−279482号公報JP-A 61-279482

特許文献1の環境中のランドマークを外界センサで適時検出してデットレコニングの値を修正する方法において、通常ランドマークにはバーコードやパンチング床面などのパターン模様、あるいは廊下の角などを用いており、ランドマークとその認識アルゴリズムを準備する必要がある。ランドマーク認識にはビジョンセンサを用いているものが多く、照明条件の影響が多分にあるため認識アルゴリズムの汎用性、ロバスト性は低い。またマークの認識自体で誤差が生ずるため、正確に位置ずれを修正することができないという問題があった。   In the method of correcting the value of the dead reckoning by detecting the landmark in the environment of the patent document 1 with an external sensor in a timely manner, a pattern such as a barcode or a punching floor or a corner of a corridor is used as the normal landmark. It is necessary to prepare landmarks and their recognition algorithms. Many landmark recognition systems use vision sensors and the influence of lighting conditions is high, so the recognition algorithm is not very versatile and robust. In addition, there is a problem that the positional deviation cannot be corrected accurately because an error occurs in the mark recognition itself.

また、特許文献2、特許文献3、特許文献4の搭載したマニピュレータに力センサや接触センサを取り付け、マニピュレータの動作による外界との接触状態を監視することで作業対象物の位置を特定する方法では、接触点をロボットの手先効果器の特定部分と想定して接触させており、接触部は剛体であるため接触時のスピードを極低速にする必要がある。
さらに、特許文献2、特許文献3の接触位置検出方法は、接触子が物体に接触したときに受ける力が連結部材を介してセンサに伝達され、センサ情報を常時監視することによって接触した瞬間を検出し、その時点の接触部を記憶するという手法を取っているが、実際の接触では、センサで取得する情報は瞬間的な変化ではなく、一定の時間をかけて徐々に変化するため、正確な接触位置を求めることは出来なかった。
In the method of specifying the position of the work object by attaching a force sensor or a contact sensor to the manipulator mounted in Patent Document 2, Patent Document 3, or Patent Document 4 and monitoring the contact state with the outside world by the operation of the manipulator. The contact point is assumed to be a specific part of the hand effector of the robot, and since the contact part is a rigid body, the speed at the time of contact needs to be extremely low.
Furthermore, in the contact position detection methods of Patent Document 2 and Patent Document 3, the force received when the contact is in contact with the object is transmitted to the sensor via the connecting member, and the moment of contact is monitored by constantly monitoring the sensor information. Detecting and memorizing the contact part at that time is taken, but in actual contact, the information acquired by the sensor is not an instantaneous change, but gradually changes over a certain time, so it is accurate The correct contact position could not be obtained.

従って、いずれの従来技術でも、教示時に対する再生時のロボット自体の作業位置の誤差を、ランドマークを利用せず、かつ高速に修正することはできなかった。   Therefore, in any of the conventional techniques, the error of the work position of the robot itself during reproduction with respect to teaching cannot be corrected at high speed without using the landmark.

上記問題を解決するため、本願は、次のような発明を提供する。
なお、本願出願時の明細書の記載を基礎として、特許請求の範囲の記載が補正され得ることは勿論であるが、その際に、以下の各「発明」の内容を訂正することは予定しない(以下の各「発明」は、本願明細書における開示の要点としての意味を持つ)。
[発明1] 教示時におけるロボットと作業対象物の相対的な位置及び姿勢を前提として与えられた、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
再生時の前記ロボットと前記作業対象物との相対的位置及び相対的姿勢のうちの少なくとも1つが、前記教示時の前記位置と異なる別の位置、及び/又は、前記教示時の前記姿勢と異なる別の姿勢となったことを、前記ロボットに備えられた、前記ロボットと前記作業対象物との相対的な位置及び姿勢を検出する位置・姿勢検出手段によって検出したことに応じて、位置、及び/又は、姿勢の変化量を獲得し、当該獲得値に基づいて、前記作業手順を修正する、作業手順修正手段と、
を備え、
前記修正される作業手順が、前記位置・姿勢検出手段によって検出された、作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標上での作業手順として与えられる、
ロボットの制御装置。
In order to solve the above problems, the present application provides the following inventions.
Of course, the description of the scope of claims can be amended based on the description of the specification at the time of filing the application, but at that time, the contents of the following “inventions” are not scheduled to be corrected. (Each "invention" below has the meaning as a gist of disclosure in the present specification).
[Invention 1] Work procedure storage means for storing a work procedure for a work object to be performed by the robot, given on the basis of a relative position and posture of the robot and the work object at the time of teaching;
At least one of a relative position and a relative posture between the robot and the work object at the time of reproduction is different from the position at the time of teaching and / or different from the posture at the time of teaching. In response to the fact that a different posture has been detected by the position / posture detection means for detecting the relative position and posture of the robot and the work object provided in the robot, / Or work procedure correction means for acquiring a change in posture and correcting the work procedure based on the acquired value;
With
The work procedure to be corrected is obtained on the basis of the position and orientation of the work object detected by the position / orientation detection means, from the coordinates based on the robot to the coordinates based on the work object. , Given as a work procedure on coordinates based on the robot, using a homogeneous transformation matrix,
Robot control device.

このようにすることによって、ロボットと作業対象物の間の位置、及び/又は、姿勢に、何らかの原因により変化が生じた場合でも、獲得された当該変化の程度に基づいて、以前に作成された作業手順を、修正して利用することができる。   In this way, even if there is a change in the position and / or posture between the robot and the work object due to any cause, it was created based on the degree of the obtained change. Work procedures can be modified and used.

また、「前記修正される作業手順が、前記位置・姿勢検出手段によって検出された、作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標上での作業手順として与えられる」ように構成することによって、ロボット座標で作業を定義でき、ロボットに対する作業指示が容易となる。   In addition, “the work procedure to be corrected is obtained on the basis of the position and posture of the work object detected by the position / posture detection means, and is based on the work object from the coordinates based on the robot. It is possible to define work with robot coordinates by using a homogeneous transformation matrix to coordinates, and to be given as a work procedure on coordinates with respect to the robot, and it is easy to give work instructions to the robot. .

「位置・姿勢検出手段」は、実施例の接触位置検出プローブ4(図1−C)に対応するが、これに限定されず、将来開発され得る、例えば図6−4に例示されるような、レーザ光線を用いるもの、図6−5に例示されるような2次元的や3次元的な接触状態検出手段を用いるものも広く含まれる。また、図6−1の通電方式、図6−2の接触センサ方式、図6−3の外乱オブザーバ方式も含まれる。(なお、図6−3のオブザーバ方式に限らず、位置、及び/又は、姿勢の変化を、システム内部の「状態」の変化と捉える、その他の「オブザーバ」や、ノイズの影響も考慮した「カルマン・フィルタ」も含まれる。)
図6−4に例示されるようなレーザ光線を用いた場合は、非接触状態で、位置・姿勢を検出可能である。
“Position / attitude detection means” corresponds to the contact position detection probe 4 (FIG. 1C) of the embodiment, but is not limited thereto, and may be developed in the future, for example, as illustrated in FIG. 6-4 Those using a laser beam and those using a two-dimensional or three-dimensional contact state detecting means as exemplified in FIGS. 6-5 are also widely included. Also included are the energization method of FIG. 6-1, the contact sensor method of FIG. 6-2, and the disturbance observer method of FIG. 6-3. (In addition to the observer method in FIG. 6-3, other “observers” in which changes in position and / or posture are regarded as changes in the “state” inside the system, and the influence of noise are also considered. (Kalman filter ”is also included.)
When a laser beam as illustrated in FIG. 6-4 is used, the position / posture can be detected in a non-contact state.

図6−5に例示されるような2次元的な位置・姿勢検出手段を用いるものは、柔軟な2次元的な位置・姿勢検出手段を用いるものであり、作業対象物の所定の形状に「フィット」する状態を検知して、その検知に応じて、位置・姿勢を検出可能である。   The one using the two-dimensional position / posture detecting means as exemplified in FIG. 6-5 uses a flexible two-dimensional position / posture detecting means, and the work object has a predetermined shape “ The state of “fit” can be detected, and the position / posture can be detected in accordance with the detection.

「位置・姿勢検出手段」は、その下位概念である、「接触状態検出手段」を包含する。この「接触状態検出手段」には、例えば、図1−Cの接触位置検出プローブ4、図6−1の導電検出プローブ011、図6−2の剛体プローブ023、図6−3のカルマンフィルタを利用する手段、図6−5の柔軟性を有する接触状態検出手段等が含まれるが、図6−4のレーザ光を用いた検出手段は含まれない。   “Position / attitude detection means” includes “contact state detection means” which is a subordinate concept thereof. For this “contact state detection means”, for example, the contact position detection probe 4 in FIG. 1C, the conductivity detection probe 011 in FIG. 6-1, the rigid probe 023 in FIG. 6-2, and the Kalman filter in FIG. 6-3 are used. 6, the flexible contact state detection unit of FIG. 6-5, and the like are included, but the detection unit using the laser beam of FIG. 6-4 is not included.

「作業手順記憶手段」は、実施例のステップS13(図2)で教示された作業を記憶する手段(図1−Cのロボットコントローラ6の内部(不図示))に対応するがこれに限定されない。   The “work procedure storage means” corresponds to means for storing the work taught in step S13 (FIG. 2) of the embodiment (inside the robot controller 6 in FIG. 1-C (not shown)), but is not limited thereto. .

「作業手順修正手段」は、実施例の[数5]から[数11]を用いた処理に対応するがこれに限定されない。同次変換行列を用いる限り、本発明の範囲に含まれる。「獲得」とは計算によって得る場合も、予めテーブルに記憶された値を読み出す場合も含む。   “Work procedure correction means” corresponds to the processing using [Equation 5] to [Equation 11] of the embodiment, but is not limited thereto. As long as a homogeneous transformation matrix is used, it is included in the scope of the present invention. “Acquisition” includes the case of obtaining by calculation and the case of reading a value stored in a table in advance.

なお、「作業対象物」には、再生過程における、実際に作業を行う対象物(「被作業物」と呼ぶ。)のみならず、本発明の「位置・姿勢を検出」という目的のために、被作業物の一部に固定された物体、又は、被作業物と所定の位置・姿勢関係になることがロボットから見て既知である、本発明の「位置・姿勢を検出」という目的に利用可能な物体も含む。   Note that the “work object” includes not only an object to be actually operated (referred to as “work object”) in the reproduction process, but also for the purpose of “position / posture detection” of the present invention. For the purpose of “detecting position / posture” of the present invention, which is known from the viewpoint of the robot, an object fixed to a part of the work piece or a predetermined position / posture relationship with the work piece. Includes available objects.

また、「作業手順」とは、ロボットに時系列的に与えられる、例えば図1−Cの移動部1の位置、手先効果器3の位置、に関する指示の双方を含む。換言すれば、作業遂行位置(移動部1の位置)及び当該作業遂行位置における作業内容に関する指示(手先効果器3の位置)の双方を含む概念である(「作業遂行位置」も「作業内容」も時系列的に時々刻々と変化する態様も含むし、例えば、「作業遂行位置」は固定のまま「作業内容」のみが時系列的に時々刻々と変化する態様も含む)。「位置・姿勢検出手段」、「作業手順記憶手段」、「作業手順修正手段」、「作業手順」については、以下同様である。   The “work procedure” includes both instructions given to the robot in time series, for example, regarding the position of the moving unit 1 and the position of the hand effector 3 in FIG. In other words, it is a concept including both the work execution position (position of the moving unit 1) and the instruction regarding the work content at the work execution position (position of the hand effector 3) ("work execution position" is also "work content"). In addition, for example, there is also a mode in which only “work content” is changed in time series while “work performance position” is fixed). The same applies to “position / attitude detection means”, “work procedure storage means”, “work procedure correction means”, and “work procedure”.

本発明は、「相対的な」位置・姿勢を利用しているが、ロボット又は作業対象物のいずれかの「絶対的な」位置・姿勢が既知な場合(固定されている場合)の、当該「絶対的な」位置・姿勢を前提として、何らかの原因によって変動し得る、作業対象物又はロボットの絶対的位置・姿勢の「変化」を検出して、所望の作業を行うようにする態様も、本発明に含まれる。   The present invention uses the “relative” position / posture, but the “absolute” position / posture of either the robot or the work target is known (when fixed). On the premise of "absolute" position / posture, an aspect of detecting a "change" in the absolute position / posture of the work object or robot that may fluctuate due to some cause, and performing a desired work, It is included in the present invention.

本発明の「ロボット」は、例えば図1−Cの移動部1を有し、自ら本体を地上で移動可能なものも含み、また、本体自体は固定されて、例えば図1−Cのマニピュレーション部2及び手先効果器3を移動させることによって、作業対象物の位置等の変化に対応可能なものの双方を含む。前者を移動ロボットと呼び、後者を固定ロボットと呼ぶ。本願の審査過程、又は、特許後の訂正請求(訂正審判)において、本願請求項に係る発明の一部又は全てを、そのいずれかに係る発明に減縮補正(訂正)する可能性を留保する。
[発明2]
ロボットを基準とした作業対象物の位置及び姿勢を検出可能な、ロボットに設置された位置・姿勢検出手段からのデータを受け取る、位置・姿勢検出データ受領手段と、
前記作業対象物の位置及び姿勢を前提として与えられた、教示時における、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記作業対象物の位置及び姿勢のうちの少なくとも1つが、前記教示時における前記位置と異なる別の位置、及び/又は、前記姿勢と異なる別の姿勢となったことを前記位置・姿勢検出手段によって検出したことに応じて、位置、及び/又は、姿勢の変化量を算出し、当該算出値に基づいて、前記作業手順を修正する、作業手順修正手段と、
を備える、
ロボットの制御装置。
The “robot” of the present invention includes, for example, a moving unit 1 of FIG. 1-C that can move the main body on the ground, and the main body itself is fixed, for example, the manipulation unit of FIG. 1-C. 2 and the hand effector 3 are both moved to accommodate changes in the position of the work object. The former is called a mobile robot and the latter is called a fixed robot. In the examination process of the present application, or in a request for correction after the patent (correction trial), the possibility of reducing or correcting (correcting) a part or all of the claimed invention is reduced.
[Invention 2]
Position / posture detection data receiving means for receiving the data from the position / posture detection means installed in the robot capable of detecting the position and posture of the work object relative to the robot;
Work procedure storage means for storing a work procedure for the work object to be performed by the robot at the time of teaching given on the assumption of the position and orientation of the work object;
By the position / posture detection means, at least one of the position and posture of the work object has become another position different from the position at the time of teaching and / or another posture different from the posture. Work procedure correction means for calculating a change amount of the position and / or posture according to the detection, and correcting the work procedure based on the calculated value;
Comprising
Robot control device.

このように構成することによって、ロボット本体から離れた位置に、位置・姿勢検出手段からのデータを受け取る「ロボットの制御装置」を設置することが可能となる。
このように構成することによって、ロボットと制御系を空間的に隔離でき、保守等が容易になる。
With this configuration, a “robot control device” that receives data from the position / posture detection means can be installed at a position away from the robot body.
With this configuration, the robot and the control system can be spatially separated, and maintenance and the like are facilitated.

「受領」とは、リアルタイムに通信によって受信する場合や、データが取り外し可能記憶媒体に記憶されている場合、当該記憶媒体を、制御装置に挿入して、制御を行うような態様も含む。また、「位置・姿勢検出データ受領」とは、実際の「位置・姿勢」自体を受領する場合も、以前の検出時点からの差分値を受領する場合等も含む。
[発明2’] ロボットに設置され、ロボットを基準とした、作業対象物の位置及び姿勢を検出可能な位置・姿勢検出手段と、
前記ロボットを制御する制御装置を備え、
前記制御装置が、
前記位置・姿勢検出手段からのデータを受け取る、位置・姿勢検出データ受領手段と、
作業対象物の位置及び姿勢を前提として与えられた、教示時における前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記作業対象物の距離及び姿勢のうちの少なくとも1つが、前記位置と異なる別の位置、及び/又は、前記姿勢と異なる別の姿勢となったことを前記位置・姿勢検出手段によって検出したことに応じて、位置、及び/又は、姿勢の変化量を算出し、当該算出値に基づいて、前記作業手順を修正する、作業手順修正手段と、
を備える、
ロボットシステム。
“Reception” includes a mode in which control is performed by inserting the storage medium into a control device when data is received by communication in real time or when data is stored in a removable storage medium. “Reception of position / posture detection data” includes a case of receiving an actual “position / posture” itself, a case of receiving a difference value from a previous detection time point, and the like.
[Invention 2 '] Position / attitude detection means installed on the robot and capable of detecting the position and orientation of the work object with reference to the robot;
A control device for controlling the robot;
The control device is
Position / attitude detection data receiving means for receiving data from the position / attitude detection means;
A work procedure storage means for storing a work procedure for a work target to be performed by the robot at the time of teaching given on the premise of the position and posture of the work target;
The position / posture detection means detects that at least one of the distance and posture of the work object has become another position different from the position and / or another posture different from the posture. Accordingly, a work procedure correction unit that calculates a change amount of the position and / or posture and corrects the work procedure based on the calculated value;
Comprising
Robot system.

この発明は、上記発明1又は2における、「ロボット制御システム」が、ロボットと一体的に存在する態様である。
このように構成することによって、ロボットと制御系が一体化され、制御用の通信ラインや、通信回線が不要となる。
The present invention is an aspect in which the “robot control system” in the first or second aspect of the present invention is integrated with a robot.
With this configuration, the robot and the control system are integrated, and a control communication line and a communication line become unnecessary.

本願の審査過程、又は、特許後の訂正請求(訂正審判)において、本願請求項に係る発明の一部又は全てを、本発明のように、「ロボット制御システム」が、ロボットと一体的に存在する態様に修正する可能性を留保する。
[発明3]
前記位置・姿勢検出手段が、前記ロボットの前記作業対象物への接近速度において、前記ロボット、及び、前記作業対象物に損傷を与えない程度の柔軟性を有する、位置・姿勢検出用接触状態検出部を有する、発明1又は2に記載のロボットの制御装置。
In the examination process of this application, or in the request for correction after the patent (correction trial), part or all of the claimed invention is partly integrated with the robot as in the present invention. Reserves the possibility of modification to the mode to do.
[Invention 3]
Position / posture detection contact state detection, wherein the position / posture detection means is flexible enough not to damage the robot and the work target at the approaching speed of the robot to the work target. The control apparatus of the robot according to the first or second aspect, having a section.

このように構成することによって、従来技術に比して、高速で、作業対象物に接近することが可能となる。
[発明4]
前記ロボットの、前記作業対象物への接触過程を時系列的に記憶する、接触過程記憶手段を更に備え、
前記作業対象物への接触過程を過去に遡って検証することによって、接触開始位置、及び/又は、接触開始時刻を得る、接触開始位置/接触開始時刻獲得手段を備える、
発明3に記載のロボットの制御装置。
By comprising in this way, it becomes possible to approach a work target at high speed compared with a prior art.
[Invention 4]
The robot further comprises contact process storage means for storing the contact process of the robot with the work object in time series,
A contact start position / contact start time acquisition means for obtaining a contact start position and / or a contact start time by verifying the contact process with the work object retroactively;
The robot control apparatus according to claim 3.

このように構成することによって、接触開始位置、及び/又は、接触開始時刻を正確に把握できる。
[発明5]
前記作業手順修正手段が、
(a)教示時における第1の同次変換行列と、(b)再生時における、前記位置、及び/又は、姿勢の変化量に基づいて得られた、第2の同次変換行列と、の差を用いて、前記作業手順を修正する、
発明1ないし4に記載のロボットの制御装置。
By comprising in this way, a contact start position and / or a contact start time can be grasped | ascertained correctly.
[Invention 5]
The work procedure correcting means is
(A) a first homogeneous transformation matrix at the time of teaching; and (b) a second homogeneous transformation matrix obtained based on the position and / or posture change amount at the time of reproduction. Using the difference to correct the work procedure;
The robot control device according to any one of inventions 1 to 4.

このように、同次変換行列の差を用いて、容易に作業手順を修正することができる。
[発明6]
前記第1の同次変換行列、及び、前記第2の同次変換行列は、
直交する二平面、もしくは互いに直交する三平面を有する作業対象物の各平面を所定回数位置検出し、検出した位置から計算されることを特徴とし、特に直交する二平面の場合には、前記直交する二平面上に位置する2つの点P1、P2と、当該平面と直交する別の平面上に位置する1つの点P3、のそれぞれについて、
In this way, the work procedure can be easily corrected using the difference between the homogeneous transformation matrices.
[Invention 6]
The first homogeneous transformation matrix and the second homogeneous transformation matrix are:
Each plane of a work object having two orthogonal planes or three planes orthogonal to each other is detected a predetermined number of times, and is calculated from the detected positions. In particular, in the case of two orthogonal planes, the orthogonal For each of two points P1 and P2 located on two planes and one point P3 located on another plane orthogonal to the plane,

(i=1,2,3:それぞれP1、P2、及び、P3に対応。)
に基づいて、P1、P2、及び、P3の位置を検出する手段であって、
[x1 y1]、[x2 y2]、[x3 y3]が、それぞれ、P1、P2、及び、P3の、ロボットに基づく座標上の座標値であり、
[xtcp ytcp]が、ロボットに基づく座標上の前記接触検出部の先端部の位置であり、
[R 0]、[−R 0]、[0 R]、[0 −R]がそれぞれ、前記接触検出部の先端部の半径Rを用いて、前記[xtcp ytcp]を補正して、より正確な位置を求めるための行列である、前記手段と、
以下の、
(I = 1,2,3: corresponding to P1, P2, and P3, respectively)
Is a means for detecting the positions of P1, P2 and P3 based on
R [x1 y1], R [x2 y2], and R [x3 y3] are coordinate values on coordinates based on the robots of P1, P2, and P3, respectively.
R [xtcp ytcp] is the position of the tip of the contact detector on coordinates based on the robot,
[R 0], [−R 0], [0 R], and [0 −R] respectively correct the R [xtcp ytcp] using the radius R of the tip of the contact detection unit, and Said means being a matrix for determining an exact position;
below,

及び、
に基づいて、
以下の、
as well as,
On the basis of the,
below,

で表される同次変換行列を計算する手段、
によって得られる、
発明5に記載のロボットの制御装置。
Means for calculating a homogeneous transformation matrix R T W represented by:
Obtained by
The robot control device according to claim 5.

このように、作業対象物の形状を一定のものにすることで、画一的に作業対象物の位置及び姿勢を得ることができる。この「一定の形状」は,本発明では、矩形形状であるが、本発明の上位概念発明では、矩形に限定されず、例えば三角形や円形等の任意の(平面、立体)形状が採用可能であり、本願の審査過程又は特許後の訂正請求(訂正審判)において、本発明の上位概念に対応する請求項にそのような発明を含める可能性を留保する。   Thus, by making the shape of the work object constant, the position and orientation of the work object can be obtained uniformly. In the present invention, this “certain shape” is a rectangular shape, but in the superordinate concept invention of the present invention, it is not limited to a rectangle, and any (planar, three-dimensional) shape such as a triangle or a circle can be adopted. Yes, the possibility of including such an invention in the claims corresponding to the superordinate concept of the present invention in the examination process of the present application or the request for correction after correction (correction trial) is reserved.

なお、本発明では「鉛直方向から見た作業対象物」を対象としているが、ロボットが一意的に認識可能であれば、ロボットから見て「所定の方向」(例えば鉛直方向から見て斜め方向)の「作業対象物」の特定の形状(三角形等の多角形など)を用いることも可能である。そのような発明の態様は、本発明より上位概念の発明に含まれるし、審査過程又は特許後の訂正請求(訂正審判)で、そのような発明を補正等によって、特許請求の範囲に含める可能性も留保する。
[発明7]
発明1ないし6に記載のロボットの制御装置を用いて、ロボットを制御する方法であって、
第1の再生時における、前記同次変換行列、即ち、第3の同次変換行列を取得し、
第2の再生時における、前記同次変換行列、即ち、第4の同次変換行列を取得し、
前記第3の同次変換行列と、前記第4の同次変換行列の差を求め、
前記求められた同次変換行列の差を用いて、前記第1の再生時に用いた、ロボットの作業手順を修正して、第2の再生時に利用する、
ロボットを制御する方法。
In the present invention, the “work object viewed from the vertical direction” is targeted. However, if the robot can be uniquely identified, the “predetermined direction” (for example, an oblique direction viewed from the vertical direction) is viewed from the robot. It is also possible to use a specific shape (polygon such as a triangle) of the “work object”. Such an aspect of the invention is included in the invention of a higher concept than the present invention, and such an invention can be included in the scope of the claims by amendment or the like in the examination process or a request for correction after the patent (correction trial). Retain sex.
[Invention 7]
A method for controlling a robot using the robot control device according to any one of the first to sixth aspects,
Obtaining the homogeneous transformation matrix at the time of the first reproduction, that is, the third homogeneous transformation matrix;
Obtaining the homogeneous transformation matrix, that is, the fourth homogeneous transformation matrix at the time of the second reproduction;
Obtaining a difference between the third homogeneous transformation matrix and the fourth homogeneous transformation matrix;
Using the difference between the obtained homogeneous transformation matrices, the robot work procedure used at the time of the first reproduction is corrected and used at the time of the second reproduction.
How to control a robot.

このようにすることによって、第1の再生に引き続いて、第2の再生が行われるような場合に、直前の再生時の作業手順を容易に修正して、第2の再生を行うことができる。
ここで、「第1の」、「第2の」とは、「最初の」、「2番目の」という意味に限定されるものではなく、任意のある時点の再生と、それに後続する「次の」再生過程の、という意味である。
以下、本願明細書で使用する用語の意義を説明する。
・ロボット:人の代わりに何等かの作業を行う装置。本発明では、主に、ある程度自律的に連続した自動作業を行う、産業用ロボットが代表例だが、これに限定されない。将来開発される「ロボット(人の代わりに何等かの作業を行う装置)」であって、本願特許請求の範囲の技術的範囲に含まれる発明を利用可能な全ての「ロボット」が含まれる。
・内界:ロボットの内部に存在するという意味。これに対して、ロボットの外部に存在することを外界と呼ぶ。内界センサ、外界センサ等で使われる用語。
ロボットに内界するモータ、内界するセンサなどのようにして良く使われている。
・エンコーダ:モータの位置(回転角度)を測定するためのセンサ。エンコーダの出力を微分するとモータの回転(角)速度が得られる。ロボット制御の場合は各軸を駆動するモータにエンコーダが設けられており、エンコーダで測定した各軸の位置(回転角度)と、ロボットの各リンクの長さ(既知)とからロボットの手先の位置・姿勢を求めることができる。このロボットの手先の位置・姿勢を求めることを順変換と言う。
・寄り付き(位置):ロボットが実際に停止すること(停止する位置)。
・デットレコニング:ロボットの外部からの情報を用いないで、ロボット内部(のセンサ)で得られる情報のみからロボットの位置と方向を求める方法。
・ランドマーク:移動ロボットが現在の位置や方向を決定するために用いる外部環境の人工物又は自然物(land mark)。
・外界センサ:ロボットの外部に存在するセンサ。例えば、ロボットを撮影するカメラからのロボットの位置情報を、ロボットの外部から与える、位置情報センサ等が含まれる。
・マニピュレータ:互いに連結された分節で構成し、対象物(部品、工具など)をつかむ(掴む)、又は動かすことを目的とした機械(manipulator)。
・教示(時):ロボットに作業を行わせるためにその作業を実現する動作を何らかの方法で教え込むこと。
・再生(時):ロボットが、記憶した情報によって指示された作業・動作を実行すること、する時(playback)。「作業(時)」という表現を、同じ概念を説明するために用いることがある。
・接触安定:制御の不完全性等による手先効果器の振動等によって、手先効果器と作業対象物との接触が、不安定になることが無い状態のこと。
・手先効果器:「エンドエフェクタ」とも呼ぶ。ロボットの手先に取り付けられ、作業対象物に対して何らからの作業をするもの。物を掴むハンド(グリッパ)や、バリ取りを行うグラインダなど、具体的な構成は用途によって様々存在する。
・ロボット座標系:ロボット本体に固定された座標系であり、ロボットを動作させる際の基準として使う座標系である。このロボット座標系は、通常ロボットの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる直交座標系であることが多い。また、明細書中のP1 [x1 y1]は、点P1のロボット座標系のx、y座標値を意味する。
・作業座標系:ロボットのエンドエフェクタの先(手先部)に固定された直交座標系であり、手先位置姿勢を変化させる際の基準として使う座標系である。作業座標系の軸方向は、エンドエフェクタの形状に合わせて、作業者が任意に決定するが、図3においては、プローブ中心位置を原点にとり、プローブの中心軸、及び、それに直交する方向に、それぞれX軸、Y軸をとる。
・作業対象物:手先効果器によって、溶接、加工、把持、等の作業を行う、対象となる物体。
・寄り付き位置姿勢誤差:ロボットの実際の停止位置(寄り付き位置)と指令した停止位置のずれ
・ジョグ運転:主に教示を行う際に行われる。作業者が教示ペンダント上の各軸動作ボタンを押している間だけ所定の軸が動作し、放すと止まる、というような操作。作業者はジョグ運転でロボットを所望の位置、姿勢に動かし、教示ペンダント上で教示操作を行うことで、その時のロボットの位置、姿勢をロボット制御装置に記憶させる。
・教示ペンダント(操作ペンダント):ロボット制御装置と有線または無線で接続され、作業者が把持して操作する画面と複数のボタンを備えた装置。ロボットに所定の作業の動作を教示(ティーチング)したりロボットの状態を把握したり、教示した作業のスタート、一時停止、非常停止等を指令したりするのに利用する。ティーチングボックス、ティーチングペンダント、プログラミングペンダント等とも呼称する。
・同次変換行列:座標系Σ2からΣ1に変換するための変換行列。例えば、上記ロボット座標系の座標値を表す行列に、この同次変換行列を乗算すると、上記作業座標系上の座標値を表す行列が得られる。
・位置・姿勢検出動作:ロボットやマニピュレータと、空間上に存在する所定の物体との相対的な位置関係を測定・計算等することによって、ロボットやマニピュレータが、前記物体との関係でどのような位置関係・姿勢関係にあるかを判断する動作。本発明の実施例では、プローブと物体の3個以上の接触位置を、この位置・姿勢検出に用いる。
・サービスロボット:主にサービス業で使われるロボットを指す。汎用的な産業用ロボットとは区別することが多い。無人で床を掃除する清掃ロボット、壁面を登って窓や壁の掃除や補修をする壁面作業ロボット 、夜間、ビルなどの設備を警備して回る警備ロボット等がその例である。
・A及び/又はB:A及びBの少なくとも一方の意味。つまり、Aのみ、Bのみ、又は、A及びBの双方、のいずれか、の3つの態様を全て含む。
・アプローチ(方向):英語のapproachに対応する。近づくこと(近づく際の接近方向)、接近すること(接近する際の接近方向)を意味する。
・外乱オブザーバ:所定のシステムへの入力信号値、所定のシステムからの出力信号値から、システム内部の状態を推定する手法又は装置のこと。図6−3の例では、例えば、「上位からの位置指令」、「トルク指令」、「位置FB(フィードバック)」という、システムの外から把握できる物理量から、システム内部(例えば「エンコーダ」)に加わった外乱としての、システム外の物体との接触状態を推定する手法又は装置を指す。
・カルマンフィルタ:外乱オブザーバでは、ノイズの影響を考慮できないが、ノイズの影響も更に考慮して、所定のシステムへの入力信号値、所定のシステムからの出力信号値から、システム内部の状態を推定する手法又は装置のこと。
・相対的:「絶対的」と対となる概念。例えば「相対的位置が把握されている」というときは、例えば、ロボットから見た作業対象物までの距離・方向が、ロボットによって把握されていることを意味する。この場合、外部の人間から見た、作業対象物の絶対的な位置(例えば人間が設定したXYZ座標上での座標値)を、ロボットが知らない場合であっても、「相対的位置が把握されている」といえる。
In this way, when the second reproduction is performed subsequent to the first reproduction, the work procedure at the time of the immediately preceding reproduction can be easily corrected and the second reproduction can be performed. .
Here, “first” and “second” are not limited to the meanings of “first” and “second”, but playback at any point in time and subsequent “next” It means “of the regeneration process”.
Hereinafter, the meaning of terms used in the present specification will be described.
・ Robot: A device that performs some work on behalf of a person. In the present invention, an industrial robot that performs automatic work continuously autonomously to some extent is a representative example, but the present invention is not limited to this. It is a “robot (an apparatus that performs some work on behalf of a person)” to be developed in the future, and includes all “robots” that can use the invention included in the technical scope of the claims of the present application.
・ Inner world: Means existing inside the robot. On the other hand, being outside the robot is called the outside world. Term used in internal sensor and external sensor.
It is often used as an internal motor for a robot and an internal sensor.
Encoder: A sensor for measuring the motor position (rotation angle). Differentiating the encoder output gives the motor rotational (angular) speed. In the case of robot control, an encoder is provided in the motor that drives each axis, and the position of the robot's hand is determined from the position (rotation angle) of each axis measured by the encoder and the length (known) of each link of the robot.・ You can ask for posture. Obtaining the position and orientation of the hand of the robot is called forward conversion.
-Close (position): The robot actually stops (position where it stops).
-Dead reckoning: A method for determining the position and direction of a robot from only information obtained from (inside the sensor) of the robot without using information from the outside of the robot.
Landmark: An artificial or natural object (land mark) in the external environment used by the mobile robot to determine its current position and direction.
External sensor: A sensor that exists outside the robot. For example, a position information sensor that gives the position information of the robot from the camera that images the robot from the outside of the robot is included.
Manipulator: A machine (manipulator) that is composed of segments connected to each other and is intended to grab (grab) or move objects (parts, tools, etc.).
-Teaching (hours): Instructing the robot to perform an operation in some way in order to perform the operation.
Playback (hours): When the robot performs a work / motion instructed by the stored information (playback). The expression “work (time)” is sometimes used to describe the same concept.
-Contact stability: The condition where the contact between the hand effector and the work object does not become unstable due to vibration of the hand effector due to imperfect control.
• Hand effector: Also called “end effector”. Attached to the robot's hand and works from the work object. There are various specific configurations such as a hand (gripper) for gripping an object and a grinder for deburring.
Robot coordinate system: A coordinate system fixed to the robot body and used as a reference for operating the robot. This robot coordinate system is usually an orthogonal coordinate system having an X axis in the front-rear direction of the robot, a Y axis in the left-right direction, and a Z axis in the up-down direction. Further, P1 R [x1 y1] in the specification means x and y coordinate values of the robot coordinate system of the point P1.
Working coordinate system: An orthogonal coordinate system fixed to the tip (tip part) of the end effector of the robot and used as a reference when changing the hand position / posture. The axial direction of the work coordinate system is arbitrarily determined by the operator in accordance with the shape of the end effector, but in FIG. 3, the probe center position is taken as the origin, the probe center axis, and the direction perpendicular thereto, Each takes an X-axis and a Y-axis.
-Work object: A target object for performing work such as welding, processing, and gripping with a hand effector.
・ Position position / posture error: Deviation between the actual stop position (close position) of the robot and the commanded stop position ・ Jog operation: Mainly performed when teaching. An operation in which a predetermined axis operates only while the operator presses each axis operation button on the teaching pendant, and stops when released. The operator moves the robot to a desired position and posture by jog operation, and performs a teaching operation on the teaching pendant, thereby causing the robot control device to store the position and posture of the robot at that time.
Teaching pendant (operation pendant): A device that is connected to a robot control device by wire or wirelessly, and includes a screen and a plurality of buttons that are gripped and operated by an operator. It is used for teaching (teaching) the operation of a predetermined work to the robot, grasping the state of the robot, and instructing the start, temporary stop, emergency stop, etc. of the taught work. Also called teaching box, teaching pendant, programming pendant, etc.
Homogeneous transformation matrix: A transformation matrix for transforming from the coordinate system Σ2 to Σ1. For example, when the matrix representing the coordinate values of the robot coordinate system is multiplied by the homogeneous transformation matrix, a matrix representing the coordinate values on the work coordinate system is obtained.
-Position / posture detection operation: By measuring and calculating the relative positional relationship between the robot and manipulator and a predetermined object existing in space, the robot and manipulator An operation to determine whether there is a positional / posture relationship. In the embodiment of the present invention, three or more contact positions of the probe and the object are used for this position / posture detection.
・ Service robots: Robots used mainly in the service industry. It is often distinguished from general-purpose industrial robots. Examples are a robot that cleans the floor unattended, a wall work robot that climbs the wall to clean and repair windows and walls, and a security robot that guards around facilities such as buildings at night.
A and / or B: Meaning of at least one of A and B. That is, all three aspects of either A alone, B alone, or both A and B are included.
・ Approach (direction): Corresponds to English approach. It means approaching (approach direction when approaching), approaching (approach direction when approaching).
Disturbance observer: A method or apparatus for estimating the internal state of a system from the input signal value to a predetermined system and the output signal value from the predetermined system. In the example of FIG. 6-3, for example, from the physical quantities that can be grasped from outside the system, such as “position command from higher order”, “torque command”, and “position FB (feedback)”, into the system (for example, “encoder”) This refers to a method or apparatus for estimating the contact state with an object outside the system as an added disturbance.
-Kalman filter: The disturbance observer cannot consider the influence of noise, but further considers the influence of noise, and estimates the internal state of the system from the input signal value to the predetermined system and the output signal value from the predetermined system. A technique or device.
• Relative: A concept that is paired with “absolute”. For example, “relative position is known” means, for example, that the distance / direction from the robot to the work object is grasped by the robot. In this case, even if the robot does not know the absolute position of the work object (for example, the coordinate value on the XYZ coordinates set by the human) as seen from an external person, the “relative position is known”. It can be said.

審査中の手続補正によって、及び、特許後の訂正審判又は訂正請求において、法的な制限の範囲内で、本発明は、種々の他の態様に訂正され得る。
なお、特許後の訂正審判又は訂正請求における「実質上特許請求の範囲を変更」の判断は、特許時の請求項に新たな構成要素が追加されたか否か(即ち、いわゆる外的付加が為されたか否か)、又は、特許時の請求項の1つ又はそれより多いいずれかの構成要素を更に限定するものか(即ち、いわゆる内的付加が為されたか)によって判断されるべきでなく、訂正の前後の請求項に係る発明の効果が類似するか否かの観点から為されるべきである。
The present invention may be modified in various other ways within legal limits by amendment of proceedings during examination and in a trial for correction or request for correction after patent.
In addition, the judgment of “substantially change the scope of claims” in a trial for correction after a patent or a request for correction is based on whether or not a new component has been added to the claims at the time of patent (that is, because of so-called external addition). Or whether it further restricts any one or more components of the claims at the time of the patent (ie, so-called internal additions have been made) Therefore, it should be made from the viewpoint of whether the effects of the claimed invention before and after the correction are similar.

本発明の実施例によって、ロボットの寄り付き位置姿勢誤差を計算し、作業アームの教示データもしくは移動部の位置姿勢を修正し、ラフな寄り付きでそのまま精密な作業をすることができる。   According to the embodiment of the present invention, it is possible to calculate the close position / posture error of the robot, correct the teaching data of the work arm or the position / posture of the moving unit, and perform a precise work as it is with rough approach.

本発明の実施例の基本的概念の説明図(教示時点)Illustration of the basic concept of the embodiment of the present invention (at the time of teaching) 本発明の実施例の基本的概念の説明図(再生時点)Explanatory diagram of the basic concept of the embodiment of the present invention (reproduction time point) 本発明の実施例を適用するロボットの構成図Configuration diagram of a robot to which an embodiment of the present invention is applied 本発明の実施例の処理手順を示すフローチャートThe flowchart which shows the process sequence of the Example of this invention. 本発明の実施例の説明図Explanatory drawing of the Example of this invention 本発明の実施例の説明図Explanatory drawing of the Example of this invention 従来技術の処理手順を示すフローチャートThe flowchart which shows the processing procedure of a prior art 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出器の例Example of relative position / posture detector of work object usable in the embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出器の例Example of relative position / posture detector of work object usable in the embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出器の例Example of relative position / posture detector of work object usable in the embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出器の例Example of relative position / posture detector of work object usable in the embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出器の例Example of relative position / posture detector of work object usable in the embodiment of the present invention

以下、本発明の方法の具体的実施例について、図に基づいて説明する。
まず、本願発明の実施例で用いられる基本的概念について、図1−A、1−Bを参照して解説する。
図1−Aは、教示過程を表す。
Hereinafter, specific examples of the method of the present invention will be described with reference to the drawings.
First, the basic concept used in the embodiment of the present invention will be described with reference to FIGS. 1-A and 1-B.
FIG. 1-A represents the teaching process.

ステップK1において、ロボットに対して、位置Xで停止せよ、という移動指令が与えられ、位置Xの移動指令を教示する(ここでは説明の簡略化のため一次元の図で説明するが、容易に二次元、三次元に拡張でき、二次元の場合の移動指令は位置X、Y、及び回転Rzとなり、三次元の場合の移動指令は位置X、Y、Z、及び回転Rx、Ry、Rzとなる)。位置Xは寄り付き停止位置において、寄り付き対象とする物体が移動台車に搭載されたマニピュレータの作業範囲内にあるように設定する。例えば、寄り付きの位置Xを操作ペンダントのジョグ運転で与える場合には、現物で位置合わせし、サービスロボットの寄り付き動作では、外界センサで計測した物体の位置を位置Xとすれば良い。それ以外の場合でも、オフラインシミュレータやCADなどの設計寸法から位置Xを決定すれば良い。   In step K1, a movement command to stop at the position X is given to the robot, and the movement command for the position X is taught (here, it will be explained with a one-dimensional figure for the sake of simplicity) The two-dimensional movement commands are positions X, Y, and rotation Rz, and the three-dimensional movement commands are positions X, Y, Z, and rotations Rx, Ry, Rz. Become). The position X is set so that the object to be approached is within the work range of the manipulator mounted on the movable carriage at the approach stop position. For example, when the approach position X is given by jog operation of the operation pendant, the actual position is aligned, and in the approach operation of the service robot, the position of the object measured by the external sensor may be set as the position X. Even in other cases, the position X may be determined from design dimensions such as an offline simulator or CAD.

ステップK2で、実際にロボットが移動するが、スベリ等によって、停止位置はX’となる。
ステップK3で、ロボットと物体の間の相対的位置・姿勢Wを検出する(絶対的な位置・姿勢の把握は不要)。
In step K2, the robot actually moves, but the stop position becomes X ′ due to sliding or the like.
In step K3, the relative position / posture W between the robot and the object is detected (absolute position / posture is not required).

ステップK4で、実行する作業(Kcontent)を教示する。
図1−Bは、再生過程を表す。
ステップS1において、ロボットに対して、ステップK1で教示した位置Xで停止せよと、という移動指令が与えられる。
In step K4, the work (Kcontent) to be executed is taught.
FIG. 1-B represents the playback process.
In step S1, a movement command is given to the robot to stop at the position X taught in step K1.

ステップS2において、実際にロボットが移動するが、スベリ等によって、停止位置はX''となる(X、ならびにX’と異なる場合が往々にしてある。また、ロボットと物体との相対的姿勢も、教示過程とは異なる可能性がある)。   In step S2, the robot actually moves, but the stop position becomes X ″ due to sliding or the like (which is sometimes different from X and X ′. Also, the relative posture between the robot and the object is also different. May be different from the teaching process).

ステップS3で、プローブを用いて、相対的な物体検出位置・物体検出姿勢W’を得、WとW’の差Sを求める。 実施例では、W、W’、差Sはそれぞれ、同次変換行列、’、寄り付き位置姿勢誤差Δに対応する。 In step S3, a relative object detection position / object detection posture W ′ is obtained using a probe, and a difference S between W and W ′ is obtained. In the embodiment, W, W ′, and difference S correspond to the homogeneous transformation matrix, R T W , R T W ′, and the approaching position and orientation error Δ R T W , respectively.

ステップS4で、Sを元に、Kcontentを修正して得られたKcontent’を用いて、再生過程での実作業を行う。
以上のような手法により、教示時においても、再生時においても、ロボットの絶対的な位置・姿勢が未知であり、作業対象物の絶対的な位置・姿勢が未知であっても、教示時においても、再生時においても、ロボットと作業対象物の間の、相対的な位置・姿勢関係を把握することによって、作業対象物に対して、再生時に所望の作業を行うことが可能である。
In step S4, the actual work in the reproduction process is performed using Kcontent 'obtained by correcting Kcontent based on S.
By the above method, the absolute position / posture of the robot is unknown during teaching and playback, and even if the absolute position / posture of the work object is unknown, Even during reproduction, it is possible to perform a desired operation during reproduction on the work object by grasping the relative positional / posture relationship between the robot and the work object.

また、教示→第1の再生→第2の再生→・・・、というように、複数の再生作業が連続する場合、1つ前における再生(当該時点での相対的位置・姿勢を前提として与えられていた)を、今回の再生時点における相対的位置・姿勢と、前回の再生時の相対的位置・姿勢との「差」を元に修正することによって、連続的に再生作業を行うことが可能となる。   In addition, when a plurality of reproduction operations are consecutive, such as teaching → first reproduction → second reproduction →..., Reproduction immediately before (given given the relative position and orientation at the time) Can be performed continuously by correcting the difference between the relative position / posture at the time of the current playback and the relative position / posture at the time of the previous playback. It becomes possible.

図1−Cは、本発明の実施例を実施するロボットの構成図である。
移動部1の上にロボットコントローラ6が搭載され、当該ロボットコントローラ6が、本実施例では双腕のマニピュレーション部2の動作を制御する。
FIG. 1C is a configuration diagram of a robot that implements an embodiment of the present invention.
A robot controller 6 is mounted on the moving unit 1, and the robot controller 6 controls the operation of the two-arm manipulation unit 2 in this embodiment.

マニピュレーション部2の先端には、1方向以上の力を検出する外力検出器5が配置され、当該外力検出器5に物体を把持するなどの作業用手先効果器3が接続される。そして、当該作業用手先効果器3には、当該手先効果器3が物体に接触したことを検出する、接触部位検出プローブ4が設置される。   An external force detector 5 that detects a force in one or more directions is disposed at the tip of the manipulation unit 2, and a work hand effector 3 that grips an object is connected to the external force detector 5. The working hand effector 3 is provided with a contact site detection probe 4 that detects that the hand effector 3 has contacted an object.

マニピュレーション部2の制御は、次のように行われる。
マニピュレーション部2の各軸に備えたエンコーダの値が、プローブ先端位置計算部63に与えられる。プローブ先端位置計算部63は、エンコーダの値とプローブの設計寸法と取り付け位置とアプローチ方向からプローブ先端位置を計算する。(ここで、実施例において、アプローチ方向によってプローブ先端位置の計算方法が異なる理由は、後述の[数8]及びその説明を参照。)
(なお、エンコーダは、図1−Cのマニピュレーション部2と移動部1の双方に存在する。)
記録装置64は、位置検出動作中の外力検出器5の検出値と、プローブ先端位置計算部63によって得られたプローブ先端位置を記録するものであり、接触位置検出部65は、記録した値から接触位置を計算し、接触位置から作業対象物の相対的な位置・姿勢を計算し、計算された作業対象物の相対的な位置・姿勢(図1−AのステップK3や、図1−BのステップS3の物体検出位置WやW’)に関するデータが、寄り付き位置姿勢誤差計算部66に与えられる。寄り付き位置姿勢誤差計算部66は、作業対象物との相対的な位置・姿勢を元に、手先効果器3の位置を修正させるための修正量を計算する。
The manipulation of the manipulation unit 2 is performed as follows.
The value of the encoder provided for each axis of the manipulation unit 2 is given to the probe tip position calculation unit 63. The probe tip position calculation unit 63 calculates the probe tip position from the encoder value, the probe design dimension, the attachment position, and the approach direction. (For the reason why the calculation method of the probe tip position differs depending on the approach direction in the embodiment, see [Equation 8] and the description below.)
(The encoder exists in both the manipulation unit 2 and the moving unit 1 in FIG. 1-C.)
The recording device 64 records the detection value of the external force detector 5 during the position detection operation and the probe tip position obtained by the probe tip position calculation unit 63, and the contact position detection unit 65 calculates the recorded value from the recorded value. The contact position is calculated, the relative position / posture of the work object is calculated from the contact position, and the calculated relative position / posture of the work object (step K3 in FIG. 1-A or FIG. 1-B). The data relating to the object detection position W or W ′) in step S3 is provided to the approach position / posture error calculation unit 66. The approach position / posture error calculation unit 66 calculates a correction amount for correcting the position of the hand effector 3 based on the relative position / posture with respect to the work target.

位置検出動作中の外力検出器の値は、外力監視部62にも与えられる。外力監視部62では、このデータをもとに、接触が発生したかを判断し、判断結果に関するデータを、ロボットの位置制御を行う位置指令生成部61に送る。   The value of the external force detector during the position detection operation is also given to the external force monitoring unit 62. The external force monitoring unit 62 determines whether contact has occurred based on this data, and sends data related to the determination result to the position command generation unit 61 that controls the position of the robot.

位置指令生成部61は、マニピュレーション部2、および移動部1に搭載されるモータへの位置指令を生成し、寄り付き位置姿勢誤差計算部66からの誤差を位置指令に加算することが出来、外力監視部62からの接触検知信号により位置指令(動作停止指令や退避動作指令)を生成することが出来る。これにより例えば、衝突回避等を行うための、必要な制御信号を与えること等が可能となる。   The position command generation unit 61 can generate position commands to the motors mounted on the manipulation unit 2 and the moving unit 1, add an error from the leaning position / posture error calculation unit 66 to the position command, and monitor the external force. A position command (operation stop command or retraction operation command) can be generated by a contact detection signal from the unit 62. Thereby, for example, it is possible to give a necessary control signal for performing collision avoidance or the like.

なお、上記移動部1は、搭載マニピュレータを含むロボット全体を前後左右に駆動するものであり、上記マニピュレーション部2は、手先効果器3を任意の位置に移動するものである。図1−Cでは双腕のマニピュレーション部を有しているが単腕のマニピュレーション部を有しても良い。マニピュレーション部2の軸数や軸構成に関する制約は特に無い。   The moving unit 1 drives the entire robot including the mounted manipulator from front to back and left and right, and the manipulation unit 2 moves the hand effector 3 to an arbitrary position. Although FIG. 1-C has a two-arm manipulation section, it may have a single-arm manipulation section. There are no particular restrictions on the number of axes and the axis configuration of the manipulation unit 2.

作業用手先効果器3は、物体を把持するなどの機能を有する。
上記接触位置検出プローブ4は、取外し可能で、プローブ長手方向、または長手方向以外の2方向の曲げ、いずれか3方向に対して弾性変形領域を持つ。この接触位置検出プローブ4は、位置検出動作に伴い作業対象物へ接触する際に手先効果器もしくはマニピュレーション部と作業対象物との干渉がない程度の長さを持ち、接触位置を接触方向に因らずに算出するために先端は球状となっている。また、ロボットの作業性を損なわないように、プローブが必要な時のみ突き出す収納式でも良い。
The work hand effector 3 has a function of gripping an object.
The contact position detection probe 4 is detachable and has an elastic deformation region with respect to any one of the three directions, ie, the probe longitudinal direction or bending in two directions other than the longitudinal direction. The contact position detection probe 4 has such a length that there is no interference between the hand effector or the manipulating unit and the work object when contacting the work object in accordance with the position detection operation, and the contact position depends on the contact direction. The tip has a spherical shape to calculate without. In addition, a retractable type that protrudes only when the probe is necessary may be used so as not to impair the workability of the robot.

上記外力検出器5は一方向以上の力を検出するものであり、接触状態を導通により電気的に検出するセンサ、接触センサ、薄型圧力センサ、トルク指令値と負荷トルクとの差で表される外乱トルクを用いた力検出器でも代用できる(本実施例では力センサを例にして説明する)
図6−1は接触状態を電気の導通により電気的に検出するセンサを装着したロボットで、ロボット2(マニピュレーション部)と作業対象物012は電気結合線013により電気的に結合されている。手先効果器3に装着した導通検出プローブ011を作業対象物012に接触させることにより、作業対象物012を媒体として通電し、導通検出プローブ011においてこれを検出し、接触状態を検出することが出来るのである。
The external force detector 5 detects a force in one or more directions, and is represented by a sensor that electrically detects a contact state by conduction, a contact sensor, a thin pressure sensor, and a difference between a torque command value and a load torque. A force detector using disturbance torque can be used instead (in this embodiment, a force sensor will be described as an example).
FIG. 6A is a robot equipped with a sensor that electrically detects the contact state by electrical continuity. The robot 2 (manipulation unit) and the work object 012 are electrically coupled by an electrical coupling line 013. By bringing the continuity detection probe 011 attached to the hand effector 3 into contact with the work object 012, the work object 012 is energized as a medium, and this is detected by the continuity detection probe 011, thereby detecting the contact state. It is.

また、図6−2は接触センサを装着したロボットで、手先効果器3に弾性部材021を介してスイッチ022を設け、その先に剛体プローブ023を装着している。スイッチ022は物理的な拘束により所定量の変位が発生した時にスイッチングし電気的な信号を出力するスイッチであり、ロボット2(マニピュレーション部)の動作により、剛体プローブ023が作業対象物024に接触し、所定量の変位が発生した時に接触を検知する電気信号が、スイッチ022より出力されることにより、接触状態を検出することが出来るのである。   FIG. 6B shows a robot equipped with a contact sensor. The hand effector 3 is provided with a switch 022 via an elastic member 021 and a rigid probe 023 is attached to the tip. The switch 022 is a switch that switches and outputs an electrical signal when a predetermined amount of displacement occurs due to physical restraint, and the rigid probe 023 comes into contact with the work object 024 by the operation of the robot 2 (manipulation unit). An electrical signal for detecting contact when a predetermined amount of displacement is generated is output from the switch 022 so that the contact state can be detected.

図6−3はトルク指令値と負荷トルクとの差で表される外乱トルクを用いた力検出方法を説明するブロック図で、通常のロボットの位置速度制御部031におけるトルク指令と位置フィードバックを用いて外乱トルク演算部032において外乱トルクを計算する。外乱トルクの演算方法として、例えば、位置フィードバックの2回微分から角加速度を求め、モータ負荷の慣性モーメントを乗ずることでトルクを計算し、トルク指令と位置フィードバックから計算したトルクの差を外乱トルクとする方法があるが、これに限定しない。外乱トルクを所定周期で計算することで、接触状態を検出することが出来るのである。   FIG. 6-3 is a block diagram for explaining a force detection method using a disturbance torque represented by a difference between a torque command value and a load torque, using a torque command and position feedback in a position / speed control unit 031 of a normal robot. The disturbance torque calculation unit 032 calculates the disturbance torque. As a method for calculating the disturbance torque, for example, the angular acceleration is obtained from the second derivative of the position feedback, the torque is calculated by multiplying the moment of inertia of the motor load, and the difference between the torque command and the torque calculated from the position feedback is calculated as the disturbance torque. Although there is a method to do, it is not limited to this. The contact state can be detected by calculating the disturbance torque at a predetermined period.

プローブの設計寸法と取り付け位置が正確に分からない場合は、別途校正しても良い。操作ペンダント7はロボット移動部1やマニピュレーション部2の作業教示、および再生、接触動作実行や力センサ値の検出閾値、プローブ寸法の設定変更に使用する。   If the design dimensions and mounting position of the probe are not known accurately, calibration may be performed separately. The operation pendant 7 is used for teaching the work of the robot moving unit 1 and the manipulation unit 2 and reproducing, executing the contact operation, changing the detection threshold of the force sensor value, and the probe dimension.

図2は本発明の実施例の処理手順を示すフローチャートである。この図を用いて本発明の実施例の方法を順を追って説明する。実施例は2次元で記述するが、容易に3次元に拡張可能である。   FIG. 2 is a flowchart showing the processing procedure of the embodiment of the present invention. The method of the embodiment of the present invention will be described step by step with reference to this figure. Although the embodiment is described in two dimensions, it can be easily extended to three dimensions.

本手法は、教示時に計測したロボット座標上での作業対象物の位置姿勢と再生時に作業対象物に寄り付いた位置において計測したロボット座標上での作業対象物の位置姿勢の差を作業教示データに加算し修正する手順を取る。教示時にも、再生時にも、それぞれ、移動部1の「スリップ」や、床の突起への「乗り上げ」等によって、ロボットに対して指令された、停止位置(作業場所)と、実際に停止した位置の間にずれが生じる。
まず、ステップ1の教示過程を説明する。ステップS11において、操作ペンダントを用いたジョグ運転により、ロボットの移動部を作業対象物の近くに移動させる。本実施例では作業対象物を四角形として説明するが、これに限定されない。例えば、直線(3次元空間での壁に相当する)や円形でも良く、容易に拡張可能である。
This method calculates the difference between the position and orientation of the work object on the robot coordinates measured during teaching and the position and orientation of the work object on the robot coordinates measured at the position close to the work object during playback. Take steps to add and correct. During teaching and during playback, the robot stopped at the stop position (work location) that was commanded to the robot by “slip” of the moving unit 1 or “riding” on the protrusion on the floor. Deviations occur between the positions.
First, the teaching process in Step 1 will be described. In step S11, the moving part of the robot is moved near the work object by jog operation using the operation pendant. In this embodiment, the work object is described as a quadrangle, but the present invention is not limited to this. For example, it may be a straight line (corresponding to a wall in a three-dimensional space) or a circle, and can be easily expanded.

ステップ12で作業対象物に対して位置検出動作を3回繰り返し、検出位置P1 [x1 y1]、P2 [x2 y2]、P3 [x3 y3]から、[数5]〜[数8]によりロボット座標上での作業対象物の位置姿勢を表す同次変換行列を計算する(図3)。なお、P1 [x1 y1]は、点P1のロボット座標系におけるX、Y座標値を意味する。 In step 12, the position detection operation is repeated three times with respect to the work object, and from the detection positions P1 R [x1 y1], P2 R [x2 y2], and P3 R [x3 y3], [Equation 5] to [Equation 8]. by calculating the homogeneous transformation matrix R T W representing the position and orientation of the workpiece on the robot coordinate (FIG. 3). P1 R [x1 y1] means the X and Y coordinate values of the point P1 in the robot coordinate system.

ただし、x0、y0は直線1、2の交点で[数6]より求める(直線1、2は、それぞれ作業対象物8の直交する二平面上に存在する直線である)。
なお、等の、”R”は、ロボット座標系を意味する。以下同様。
同次変換行列は、ロボット座標系から見た作業座標系の位置姿勢を表すものである。
However, x0 and y0 are obtained from [Equation 6] at the intersection of the straight lines 1 and 2 (the straight lines 1 and 2 are straight lines existing on two orthogonal planes of the work object 8, respectively).
Note that “R” such as R T W means a robot coordinate system. The same applies below.
The homogeneous transformation matrix R T W represents the position and orientation of the work coordinate system viewed from the robot coordinate system.

本発明の実施例では、教示過程におけると、再生過程におけるの差を使って移動体の寄り付き位置を修正する。
ただし、直線1はy=a1x+b1、直線2はy=a2x+b2であり、a1、b1、a2、b2は次式より求める。
図3は、被接触対象物を上から見た図であり、P1、P2は同一直線上にある点で、P3はP1、P2と直交する線上の点である(3次元的な位置姿勢を得る場合では、最低5点の位置を検出する必要があり、内3点は同一平面上の点で、他2点はそれぞれが直交する平面上の点とする)。検出の順番の制約は特に無く、例えば、P3、P1、P2としても良い。また、片面のみ2点を位置検出する必要が有るが、どちらの面でも良い。
In the embodiment of the present invention, the approaching position of the moving body is corrected using the difference between R T W in the teaching process and R T W in the reproduction process.
However, the straight line 1 is y = a1x + b1, the straight line 2 is y = a2x + b2, and a1, b1, a2, and b2 are obtained from the following equations.
FIG. 3 is a view of the contacted object from above, where P1 and P2 are points on the same straight line, and P3 is a point on a line orthogonal to P1 and P2 (three-dimensional position and orientation are In the case of obtaining, it is necessary to detect the positions of at least five points, of which three points are on the same plane and the other two points are points on a plane orthogonal to each other). There is no particular restriction on the detection order, and for example, P3, P1, and P2 may be used. Moreover, it is necessary to detect the position of two points on only one side, but either side may be used.

プローブ先端位置はプローブ球の中心位置PTCP [xtcp ytcp]にプローブ半径Rを加算した位置であり、[数8]に示すように位置検出動作における接触プローブのアプローチ方向(4方向)に応じて求める。[数8]におけるX軸、Y軸は、それぞれ、図3のX軸、Y軸を意味する。
[数8]によれば、点P1に対してのx1、y1が求められるが、点P2に対するx2、y2、及び、点P3に対するx3、y3も同様にして求められる。
ロボット座標系(図3のXY座標)におけるプローブ球の中心位置PTCP [xtcp ytcp] はマニピュレーション部のエンコーダ値とプローブの設計寸法と取り付け位置から求める。ただし、プローブ半径Rが数百ミクロンであれば、プローブ球の中心位置をプローブ先端位置としても良い。
The probe tip position is a position obtained by adding the probe radius R to the center position P TCP R [xtcp ytcp] of the probe sphere, and corresponds to the approach direction (four directions) of the contact probe in the position detection operation as shown in [Equation 8]. Ask. The X axis and Y axis in [Equation 8] mean the X axis and Y axis in FIG. 3, respectively.
According to [Equation 8], x1 and y1 for the point P1 are obtained, but x2 and y2 for the point P2 and x3 and y3 for the point P3 are obtained in the same manner.
The center position P TCP R [xtcp ytcp] of the probe sphere in the robot coordinate system (XY coordinates in FIG. 3) is obtained from the encoder value of the manipulation unit, the design dimension of the probe, and the mounting position. However, if the probe radius R is several hundred microns, the center position of the probe sphere may be the probe tip position.

位置検出動作においては、作業者が操作ペンダントを用いたジョグ運転により、マニピュレーション部を作業対象物にアプローチし(接近させ)、手先効果器に搭載した柔軟なプローブを作業対象物に接触させ、所定距離(プローブの弾性領域内の数mm)押し込む動作を教示し再生する。位置検出対象物は作業対象物本体に限らず、作業対象物を支える治具、机、周辺の壁、棚など数百gの力の印加により移動、変形、損傷しない物体であれば良い。   In the position detection operation, the operator approaches (approaches) the manipulation part to the work object by jog operation using the operation pendant, and makes the flexible probe mounted on the hand effector contact the work object, Teach and replay the operation of pushing the distance (several mm in the elastic region of the probe). The position detection object is not limited to the work object main body, and may be any object that does not move, deform, or be damaged by the application of several hundreds g of force, such as a jig that supports the work object, a desk, a peripheral wall, or a shelf.

検出動作の間、外力監視部62において、力センサの値が検出閾値を超えているかを一定の周期で監視する処理と、記録装置にプローブ先端位置と力センサ値を記録する処理を同時に行う。なお、処理に適していれば、完全に「同時」である必要は無い。   During the detection operation, the external force monitoring unit 62 simultaneously performs a process of monitoring whether the value of the force sensor exceeds the detection threshold at a constant period and a process of recording the probe tip position and the force sensor value on the recording device. It is not necessary to be completely “simultaneous” if it is suitable for processing.

外力監視部62において、力センサの値が検出閾値を超えた場合には接触を検出したと判断し、接触位置検出信号が位置指令生成部61へ送信され、当該位置指令生成部61がロボットを減速停止させ、アプローチ開始地点(位置検出動作の開始ポイント)へ撤退する動作を行う。   In the external force monitoring unit 62, when the value of the force sensor exceeds the detection threshold, it is determined that contact has been detected, a contact position detection signal is transmitted to the position command generation unit 61, and the position command generation unit 61 detects the robot. Decelerate and stop and perform an operation to withdraw to the approach start point (start point of the position detection operation).

記録装置に記録した動作中の力センサとプローブ先端位置から接触時の力センサ値の立上り時点を求め、立上り時点のプローブ先端位置を接触位置として算出する(図4)。つまり、力センサ値の変化を、記録された時系列上のデータに基づいて、過去に遡って判断する。また記録処理はメモリに一定のバッファ領域を設け、記録時に随時上書きする。   The rising point of the force sensor value at the time of contact is obtained from the force sensor in operation recorded on the recording device and the probe tip position, and the probe tip position at the rising point is calculated as the contact position (FIG. 4). That is, the change in the force sensor value is determined retroactively based on the recorded time-series data. In the recording process, a fixed buffer area is provided in the memory and overwritten at any time during recording.

ステップ13では、操作ペンダントを用いて、物体把持や嵌合などの作業教示を行い教示が完了する。
次に、ステップ2の再生過程を説明する。ステップS21では、ステップS11の教示位置に移動する(実際の寄り付き位置は、再生時の寄り付き位置姿勢誤差のため、教示時のステップS11における寄付き位置とは異なる)。
In step 13, work teaching such as object gripping and fitting is performed using the operation pendant, and the teaching is completed.
Next, the reproduction process in step 2 will be described. In step S21, the robot moves to the teaching position in step S11 (the actual approaching position is different from the approaching position in step S11 during teaching because of the approaching position / posture error during reproduction).

ステップS22ではステップS12と同様の作業プログラムを用いて作業対象物の位置姿勢を計測し、ロボット座標上での作業対象物の位置姿勢を表す同次変換行列T’を計算する。 In step S22 using the same work program and step S12 to measure the position and orientation of the work object to calculate the homogeneous transformation matrix R T 'W representing the position and orientation of the workpiece on the robot coordinate.

ステップS23では、教示時と再生時の寄り付き位置姿勢誤差を(数9)を用いて計算する。
ステップS24では、寄り付き位置姿勢誤差Δを用いてロボットの教示位置の修正を行う。ステップS23におけるマニピュレーション部、もしくは移動部の作業教示位置に修正量Δを左側から乗算することで教示位置データの修正を行う。
In step S23, an approach position / posture error during teaching and reproduction is calculated using (Equation 9).
In step S24, to correct the teaching position of the robot using the approaching position and orientation error Δ R T W. Manipulation unit in step S23, or to correct the teaching position data by multiplying the correction amount delta R T W from the left side to the work teaching position of the mobile unit.

即ち、ステップS13における各軸教示位置を順変換しマニピュレーション部の教示位置Pk1 [xk1 yk1 rzk1]を得、[数10]のようにPk1の左側からΔを掛けることで、修正した手先位置Ps1 [xs1 ys1 rzs1]を得るか、もしくは位置姿勢誤差Δを逆変換して各軸の角度を計算し、ステップS13における各軸教示位置に加算する手順を取っても良い。 That is, give each axis teaching position taught position of the forward transform and manipulation unit Pk1 R [xk1 yk1 rzk1] in step S13, by multiplying the delta R T W from the left side of the Pk1 as [Expression 10] was modified or obtaining a hand position Ps1 R [xs1 ys1 rzs1], or the position and orientation error delta R T W and inverse transform to calculate the angle of each axis may take the steps to be added to each axis teaching position in the step S13 .

また、[数11]のように移動部の実際の寄り付き位置Ps2 ORG [xs2 ys2 rzs2]の左からΔを掛けることで、修正した移動部の寄付き位置Ps3 ORG [xs3 ys3 rzs3]を得ても良い。添え字のORGは移動部の基準座標系で、通常はで移動部の電源投入直後の移動部の位置を原点位置とし、移動部正面にX方向、左右方向にY方向、上下方向にZ方向を取る。
[数10]
Ps1=ΔPk1
[数11]
Ps3=ΔPs2
作業プログラムにおいて、ステップ13の作業区間のみ教示位置データの修正を行えば良い。
Further, by multiplying Δ R T W from the left of the actual approach position Ps2 ORG [xs2 ys2 rzs2] of the moving part as in [Equation 11], the corrected approaching position Ps3 ORG [xs3 ys3 rzs3] of the moving part is obtained. You may get. The subscript ORG is the reference coordinate system of the moving unit. Normally, the position of the moving unit immediately after turning on the power of the moving unit is the origin position. I take the.
[Equation 10]
Ps1 = Δ R T W Pk1
[Equation 11]
Ps3 = Δ R T W Ps2
In the work program, the teaching position data may be corrected only in the work section of step 13.

このように、ロボットの教示時、および再生時の寄り付き位置において接触位置検出処理を所定回数繰り返すことでロボットに対する作業対象物の位置姿勢を算出し、寄り付き位置姿勢誤差を計算し、マニピュレーション部の教示データもしくは移動部の位置姿勢を修正することができ、ラフな寄り付きで精密な作業をすることができるのである。本手法はランドマークの形状を問うことなく、汎用的に使用できる。   As described above, the position and orientation of the work object with respect to the robot is calculated by repeating the contact position detection process at the approach position at the time of teaching and reproduction at a predetermined number of times, the position and orientation error of the work object is calculated, and the manipulation section is taught. The data or the position and orientation of the moving part can be corrected, and a precise work can be performed with a rough approach. This method can be used universally without questioning the shape of the landmark.

本明細書は、多数の特定のものを含むが、これらは、特許請求される又は特許請求されることができる範囲に対する制限として解釈されるべきではなく、特定の実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態の内容において、本明細書に説明される特定の特徴は、さらに、単一の実施形態において組み合わせて実施することができる。対照的に、単一の実施形態の内容において説明される種々の特徴は、さらに、多数の実施形態において、又はあらゆる好適な小結合において実施することができる。さらに、特徴は、特定の組み合わせにおいて作用するように上述され、さらに最初に、そのように特許請求されることがあるが、特許請求される組み合わせからの1つ又はそれ以上の特徴は、幾つかの場合においては、その組み合わせから実行されることができ、特許請求される組み合わせは、小結合又は様々な小結合に向けられることができる。   This specification includes a number of specifics, which should not be construed as a limitation on the scope of what is claimed or can be claimed, but a description of features specific to a particular embodiment. Should be interpreted as In the context of separate embodiments, certain features described herein can be further implemented in combination in a single embodiment. In contrast, the various features described in the context of a single embodiment can be further implemented in a number of embodiments or in any suitable subcombination. Further, features are described above to act in a particular combination and may be initially so claimed, but one or more features from the claimed combination may be several In that case, it can be carried out from that combination, and the claimed combination can be directed to a small coupling or various small couplings.

同様に、動作は、特定の順番で図示されるが、このことは、望ましい結果を実現するために、こうした動作が、示される特定の順番で又は逐次的な順番で実行され、又は、それらのすべての図示される動作が実行されることを必要とするように理解されるべきではない。   Similarly, operations are illustrated in a particular order, which means that such operations are performed in the particular order shown or in sequential order to achieve the desired results, or their It should not be understood as requiring that all illustrated operations be performed.

本明細書に説明される特定の実施形態が説明された。他の実施形態は、特許請求の範囲内にある。例えば、特許請求の範囲に挙げられた動作は、異なる順番で実行し、依然として望ましい結果を実現することができる。一例として、添付図面に示されるプロセスは、望ましい結果を実現するために、必ずしも、示される特定の順番又は逐次的な順番を必要とするものではない。   Particular embodiments described herein have been described. Other embodiments are within the scope of the claims. For example, the actions recited in the claims can be performed in a different order and still achieve desirable results. By way of example, the processes shown in the accompanying drawings do not necessarily require the particular order shown or sequential order to achieve desirable results.

1つの構成要素が有する機能が2つ以上の物理的構成によって実現されてもよく、2つ以上の構成要素が有する機能が1つの物理的構成によって実現されてもよい。システムの発明は、それぞれの構成要素の有する機能が逐次的に実行される方法の発明として把握することもできるし、その逆も成り立つ。方法の発明においては、各ステップは記載された順序に実行されるものに限定されるものではなく、全体としての機能が矛盾なく実行され得る限りにおいて、自由な順序でそれを実行することができる。これらの発明は、所定のハードウェアと協働して所定の機能を実現させるプログラムとしても成立し、それを記録した記録媒体としても成立する。また本発明は、搬送波上に具現化されたコンピュータ・データ信号であって、そのプログラムのコードを備えたものとしても成立しうる。   A function of one component may be realized by two or more physical configurations, and a function of two or more components may be realized by one physical configuration. The invention of the system can be grasped as an invention of a method in which the functions of each component are sequentially executed, and vice versa. In the method invention, the steps are not limited to being performed in the order described, but can be performed in any order as long as the overall function can be performed consistently. . These inventions are also established as a program that realizes a predetermined function in cooperation with predetermined hardware, and also as a recording medium that records the program. The present invention can also be realized as a computer data signal embodied on a carrier wave and having a program code.

本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。   Other embodiments of the present aspect include corresponding systems, apparatuses, devices, computer program products, and computer readable media.

1 ロボットの移動部
2 ロボットのマニピュレーション部
3 手先効果器
4 接触位置検出プローブ
5 外力検出器
6 ロボットコントローラ
61 位置指令生成部
62 外力値監視部
63 プローブ先端位置計算部
64 記録装置
65 接触位置検出部
66 寄り付き位置姿勢誤差計算部
7 操作ペンダント
DESCRIPTION OF SYMBOLS 1 Robot moving part 2 Robot manipulation part 3 Hand effector 4 Contact position detection probe 5 External force detector 6 Robot controller 61 Position command generation part 62 External force value monitoring part 63 Probe tip position calculation part 64 Recording device 65 Contact position detection part 66 Close position / posture error calculator 7 Operation pendant

Claims (7)

教示時におけるロボットと作業対象物の相対的な位置及び姿勢を前提として与えられた、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
再生時の前記ロボットと前記作業対象物との相対的位置及び相対的姿勢のうちの少なくとも1つが、前記教示時の前記位置と異なる別の位置、及び/又は、前記教示時の前記姿勢と異なる別の姿勢となったことを、前記ロボットに備えられた、前記ロボットと前記作業対象物との相対的な位置及び姿勢を検出する位置・姿勢検出手段によって検出したことに応じて、位置、及び/又は、姿勢の変化量を獲得し、当該算出値に基づいて、前記作業手順を修正する、作業手順修正手段と、
を備え、
前記修正される作業手順が、前記位置・姿勢検出手段によって検出された、作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標上での作業手順として与えられる、
ロボットの制御装置。
A work procedure storage means for storing a work procedure for the work object to be performed by the robot, given the relative position and orientation of the robot and the work object at the time of teaching;
At least one of a relative position and a relative posture between the robot and the work object at the time of reproduction is different from the position at the time of teaching and / or different from the posture at the time of teaching. In response to the fact that a different posture has been detected by the position / posture detection means for detecting the relative position and posture of the robot and the work object provided in the robot, / Or work procedure correction means for acquiring a change in posture and correcting the work procedure based on the calculated value;
With
The work procedure to be corrected is obtained on the basis of the position and orientation of the work object detected by the position / orientation detection means, from the coordinates based on the robot to the coordinates based on the work object. , Given as a work procedure on coordinates based on the robot, using a homogeneous transformation matrix,
Robot control device.
ロボットを基準とした作業対象物の位置及び姿勢を検出可能な、ロボットに設置された位置・姿勢検出手段からのデータを受け取る、位置・姿勢検出データ受領手段と、
前記作業対象物の位置及び姿勢を前提として与えられた、教示時における、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記作業対象物の位置及び姿勢のうちの少なくとも1つが、前記教示時における前記位置と異なる別の位置、及び/又は、前記姿勢と異なる別の姿勢となったことを前記位置・姿勢検出手段によって検出したことに応じて、位置、及び/又は、姿勢の変化量を算出し、当該算出値に基づいて、前記作業手順を修正する、作業手順修正手段と、
を備える、
ロボットの制御装置。
Position / posture detection data receiving means for receiving the data from the position / posture detection means installed in the robot capable of detecting the position and posture of the work object relative to the robot;
Work procedure storage means for storing a work procedure for the work object to be performed by the robot at the time of teaching given on the assumption of the position and orientation of the work object;
By the position / posture detection means, at least one of the position and posture of the work object has become another position different from the position at the time of teaching and / or another posture different from the posture. Work procedure correction means for calculating a change amount of the position and / or posture according to the detection, and correcting the work procedure based on the calculated value;
Comprising
Robot control device.
前記位置・姿勢検出手段が、前記ロボットの前記作業対象物への接近速度において、前記ロボット、及び、前記作業対象物に損傷を与えない程度の柔軟性を有する、位置・姿勢検出用接触状態検出部を有する、請求項1又は2に記載のロボットの制御装置。   Position / posture detection contact state detection, wherein the position / posture detection means is flexible enough not to damage the robot and the work target at the approaching speed of the robot to the work target. The robot control device according to claim 1, further comprising a unit. 前記ロボットの、前記作業対象物への接触過程を時系列的に記憶する、接触過程記憶手段を更に備え、
前記作業対象物への接触過程を過去に遡って検証することによって、接触開始位置、及び/又は、接触開始時刻を得る、接触開始位置/接触開始時刻獲得手段を備える、
請求項3に記載のロボットの制御装置。
The robot further comprises contact process storage means for storing the contact process of the robot with the work object in time series,
A contact start position / contact start time acquisition means for obtaining a contact start position and / or a contact start time by verifying the contact process with the work object retroactively;
The robot control device according to claim 3.
前記作業手順修正手段が、
(a)教示時における第1の同次変換行列と、(b)再生時における、前記位置、及び/又は、姿勢の変化量に基づいて得られた、第2の同次変換行列と、
の差を用いて、前記作業手順を修正する、
請求項1ないし4に記載のロボットの制御装置。
The work procedure correcting means is
(A) a first homogeneous transformation matrix at the time of teaching; (b) a second homogeneous transformation matrix obtained based on the position and / or posture change amount at the time of reproduction;
To correct the work procedure using the difference of
The robot control device according to claim 1.
前記第1の同次変換行列、及び、前記第2の同次変換行列が、
鉛直方向から見た作業対象物が矩形であり、当該矩形の一辺の上に位置する2つの点P1、P2と、当該一辺と直交する別の辺上に位置する1つの点P3、のそれぞれについて、
(i=1,2,3:それぞれP1、P2、及び、P3に対応。)
に基づいて、P1、P2、及び、P3の位置を検出する手段であって、
[x1 y1]、[x2 y2]、[x3 y3]が、それぞれ、P1、P2、及び、P3の、ロボットに基づく座標上の座標値であり、
[xtcp ytcp]が、ロボットに基づく座標上の前記接触検出部の先端部の位置であり、
[R 0]、[−R 0]、[0 R]、[0 −R]がそれぞれ、前記接触検出部の先端部の半径Rを用いて、前記[xtcp ytcp]を補正して、より正確な位置を求めるための行列である、前記手段と、
以下の、
及び、
に基づいて、
以下の、
で表される同次変換行列を計算する手段、
によって得られる、
請求項5に記載のロボットの制御装置。
The first homogeneous transformation matrix and the second homogeneous transformation matrix are:
The work object viewed from the vertical direction is a rectangle, and each of two points P1 and P2 located on one side of the rectangle and one point P3 located on another side orthogonal to the one side ,
(I = 1,2,3: corresponding to P1, P2, and P3, respectively)
Is a means for detecting the positions of P1, P2 and P3 based on
R [x1 y1], R [x2 y2], and R [x3 y3] are coordinate values on coordinates based on the robots of P1, P2, and P3, respectively.
R [xtcp ytcp] is the position of the tip of the contact detector on coordinates based on the robot,
[R 0], [−R 0], [0 R], and [0 −R] respectively correct the R [xtcp ytcp] using the radius R of the tip of the contact detection unit, and Said means being a matrix for determining an exact position;
below,
as well as,
On the basis of the,
below,
Means for calculating a homogeneous transformation matrix R T W represented by:
Obtained by
The robot control device according to claim 5.
請求項1ないし6に記載のロボットの制御装置を用いて、ロボットを制御する方法であって、
第1の再生時における、前記同次変換行列、即ち、第3の同次変換行列を取得し、
第2の再生時における、前記同次変換行列、即ち、第4の同次変換行列を取得し、
前記第3の同次変換行列と、前記第4の同次変換行列の差を求め、
前記求められた同次変換行列の差を用いて、前記第1の再生時に用いた、ロボットの作業手順を修正して、第2の再生時に利用する、
ロボットを制御する方法。
A method for controlling a robot using the robot control device according to claim 1, comprising:
Obtaining the homogeneous transformation matrix at the time of the first reproduction, that is, the third homogeneous transformation matrix;
Obtaining the homogeneous transformation matrix, that is, the fourth homogeneous transformation matrix at the time of the second reproduction;
Obtaining a difference between the third homogeneous transformation matrix and the fourth homogeneous transformation matrix;
Using the difference between the obtained homogeneous transformation matrices, the robot work procedure used at the time of the first reproduction is corrected and used at the time of the second reproduction.
How to control a robot.
JP2010103046A 2010-04-28 2010-04-28 Robot control device and method for controlling robot Expired - Fee Related JP5447150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103046A JP5447150B2 (en) 2010-04-28 2010-04-28 Robot control device and method for controlling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103046A JP5447150B2 (en) 2010-04-28 2010-04-28 Robot control device and method for controlling robot

Publications (2)

Publication Number Publication Date
JP2011230238A true JP2011230238A (en) 2011-11-17
JP5447150B2 JP5447150B2 (en) 2014-03-19

Family

ID=45320099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103046A Expired - Fee Related JP5447150B2 (en) 2010-04-28 2010-04-28 Robot control device and method for controlling robot

Country Status (1)

Country Link
JP (1) JP5447150B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231663A (en) * 2014-06-10 2015-12-24 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Apparatus and method for controlling and regulating multi-element system
CN114012724A (en) * 2021-11-02 2022-02-08 上海发那科机器人有限公司 Industrial robot coordinate system automatic calibration method based on probe
CN114800487A (en) * 2022-03-14 2022-07-29 中国科学院自动化研究所 Underwater robot operation control method based on disturbance observation technology

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61145612A (en) * 1984-12-18 1986-07-03 Toshiba Mach Co Ltd Coordinate system setting method for robot teaching
JPS62156812U (en) * 1986-03-27 1987-10-05
JPH04221708A (en) * 1990-12-21 1992-08-12 Suzuki Motor Corp Contact breakage preventing device
JPH04252911A (en) * 1991-01-29 1992-09-08 Mitsubishi Heavy Ind Ltd Three-dimensional measuring apparatus
JPH0724765A (en) * 1993-07-15 1995-01-27 Fanuc Ltd Correction data communication system among robots
JP2000071190A (en) * 1998-08-27 2000-03-07 Komatsu Ltd Workpiece carrying system
JP2002131041A (en) * 2000-10-26 2002-05-09 Mitsutoyo Corp Method and device for measuring contour shape
JP2007115011A (en) * 2005-10-20 2007-05-10 Daihen Corp Control method of industrial robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61145612A (en) * 1984-12-18 1986-07-03 Toshiba Mach Co Ltd Coordinate system setting method for robot teaching
JPS62156812U (en) * 1986-03-27 1987-10-05
JPH04221708A (en) * 1990-12-21 1992-08-12 Suzuki Motor Corp Contact breakage preventing device
JPH04252911A (en) * 1991-01-29 1992-09-08 Mitsubishi Heavy Ind Ltd Three-dimensional measuring apparatus
JPH0724765A (en) * 1993-07-15 1995-01-27 Fanuc Ltd Correction data communication system among robots
JP2000071190A (en) * 1998-08-27 2000-03-07 Komatsu Ltd Workpiece carrying system
JP2002131041A (en) * 2000-10-26 2002-05-09 Mitsutoyo Corp Method and device for measuring contour shape
JP2007115011A (en) * 2005-10-20 2007-05-10 Daihen Corp Control method of industrial robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231663A (en) * 2014-06-10 2015-12-24 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Apparatus and method for controlling and regulating multi-element system
US10007280B2 (en) 2014-06-10 2018-06-26 Siemens Aktiengesellschaft Apparatus and method for controlling and regulating a multi-element system
CN114012724A (en) * 2021-11-02 2022-02-08 上海发那科机器人有限公司 Industrial robot coordinate system automatic calibration method based on probe
CN114012724B (en) * 2021-11-02 2024-04-05 上海发那科机器人有限公司 Automatic calibration method for industrial robot coordinate system based on probe
CN114800487A (en) * 2022-03-14 2022-07-29 中国科学院自动化研究所 Underwater robot operation control method based on disturbance observation technology
CN114800487B (en) * 2022-03-14 2024-02-02 中国科学院自动化研究所 Underwater robot operation control method based on disturbance observation technology

Also Published As

Publication number Publication date
JP5447150B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5366018B2 (en) Robot teaching procedure calibration apparatus and method
JP5218470B2 (en) Robot work success / failure determination apparatus and method
US11241796B2 (en) Robot system and method for controlling robot system
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP5311294B2 (en) Robot contact position detector
JP6484265B2 (en) Robot system having learning control function and learning control method
JP5670416B2 (en) Robot system display device
CN110997249B (en) Work robot and control method for work robot
JP2018083284A (en) Robot control device, robot, robot system, and robot control method
JP2019014031A (en) Control device for robot, robot, robot system, and calibration method for camera for robot
EP2837472A2 (en) Robot system, robot control apparatus, method for controlling robot
JP5447432B2 (en) Robot teaching system and teaching method
US11230004B2 (en) Robot system and robot control method
JP6445092B2 (en) Robot system displaying information for teaching robots
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2013184236A (en) Calibration method and calibration apparatus for robot
JP2012011498A (en) System and method for operating robot arm
JP6663978B2 (en) System and method for determining tool offset
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
US11691290B2 (en) Robot control method and robot system
JP2014240106A (en) Robot, robot control device, and driving method of robot
JP5447150B2 (en) Robot control device and method for controlling robot
CN113858189B (en) Robot control method and robot system
CN110026986B (en) Multi-arm cooperative operation compliance control method
WO2017175340A1 (en) Optimization device and vertically articulated robot provided with same

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111006

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20111026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees