JP2014054692A - State discrimination method, robot, control device, and program - Google Patents

State discrimination method, robot, control device, and program Download PDF

Info

Publication number
JP2014054692A
JP2014054692A JP2012200221A JP2012200221A JP2014054692A JP 2014054692 A JP2014054692 A JP 2014054692A JP 2012200221 A JP2012200221 A JP 2012200221A JP 2012200221 A JP2012200221 A JP 2012200221A JP 2014054692 A JP2014054692 A JP 2014054692A
Authority
JP
Japan
Prior art keywords
state determination
arm
force sensor
force
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012200221A
Other languages
Japanese (ja)
Other versions
JP5942720B2 (en
Inventor
Takahiko Noda
貴彦 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012200221A priority Critical patent/JP5942720B2/en
Publication of JP2014054692A publication Critical patent/JP2014054692A/en
Application granted granted Critical
Publication of JP5942720B2 publication Critical patent/JP5942720B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To readily discriminate the state of a force sensor while preventing application of an excess force to the force sensor and other components.SOLUTION: An target object for state discrimination including an elastic body is deformed by an arm of a robot. A magnitude of deformation of the deformed target object for state discrimination is detected. A value representing a force or moment applied to a force sensor of the robot is determined from the detected magnitude of deformation. The state of the force sensor is discriminated based on the determined value representing the force or moment.

Description

本発明は、状態判別方法、ロボット、制御装置、及びプログラムに関する。   The present invention relates to a state determination method, a robot, a control device, and a program.

例えばワークやエンドエフェクターの破損を防止するため、力覚センサーを備えたロボットが知られている。一般的に、力覚センサーは、過大な負荷や経年変化などにより検出精度が低くなることがあるため、校正を必要とする。   For example, a robot equipped with a force sensor is known in order to prevent damage to a workpiece or an end effector. In general, a force sensor needs to be calibrated because detection accuracy may be lowered due to an excessive load or aging.

例えば、特許文献1には、測定時に、一対のエンドエフェクターを当接させ、一方のエンドエフェクターに対応する校正済みの力覚センサーの測定値に基づいて、他方の校正対象のエンドエフェクターに作用している力を示す値を算出し、他方の校正対象のエンドエフェクターに対応する力覚センサーの測定値が、前記算出した力を示す値と同一になるように変換データを更新する、力覚センサーの校正方法が記載されている。   For example, in Patent Document 1, a pair of end effectors are brought into contact with each other at the time of measurement, and act on the other end effector to be calibrated based on the measured value of a calibrated force sensor corresponding to one end effector. A force sensor that calculates a value indicating the force being updated and updates the conversion data so that the measured value of the force sensor corresponding to the other end effector to be calibrated is the same as the value indicating the calculated force The calibration method is described.

特開2012−13537号公報JP 2012-13537 A

しかし、上記の特許文献1は、測定時に一方のエンドエフェクターの力覚センサーは校正済みであることが前提であり、当該一方の力覚センサーが正常に動作しているか否かを判別することはできない。従って、当該一方の力覚センサーが正常に動作するように事前にユーザーの作業が必要であり、ユーザーの作業負担が発生する。また、そもそも当該一方の力覚センサーの校正が適切でなかった場合に、他方のエンドエフェクターの力覚センサーが正常に動作しているか否かを判別することもできない。   However, the above Patent Document 1 is based on the premise that the force sensor of one end effector is already calibrated at the time of measurement, and it is not possible to determine whether or not the one force sensor is operating normally. Can not. Therefore, a user's work is required in advance so that the one force sensor operates normally, and a user's work load is generated. In the first place, when the calibration of one of the force sensors is not appropriate, it cannot be determined whether or not the force sensor of the other end effector is operating normally.

また、上記の特許文献1では、測定時に一対のエンドエフェクターを互いに当接させている。そのため、力覚センサーやエンドエフェクターに、過度の力が加わるおそれがある。場合によっては、力覚センサーやエンドエフェクターが破損するおそれがある。   Moreover, in said patent document 1, a pair of end effector is mutually contact | abutted at the time of a measurement. Therefore, an excessive force may be applied to the force sensor and the end effector. In some cases, the force sensor or the end effector may be damaged.

そこで、本発明は、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することを目的とする。   Therefore, an object of the present invention is to prevent an excessive force from being applied to the force sensor or the like and to easily determine the state of the force sensor.

本願は、上記課題を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。   The present application includes a plurality of means for solving the above-described problems, and examples thereof are as follows.

上記の課題を解決する本発明の第一の態様は、アーム及び力覚センサーを有するロボットの状態を判別する状態判別方法であって、弾性体を含んで構成される状態判別用対象物を用いるものであり、前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、ことを特徴とする。   A first aspect of the present invention that solves the above problem is a state determination method for determining a state of a robot having an arm and a force sensor, and uses a state determination target including an elastic body. An operation step of operating the robot to deform the state determination target object by the arm; a detection step of detecting a deformation amount of the state determination target object deformed in the operation step; Based on the calculation step for calculating a value indicating the force or moment applied to the force sensor from the deformation amount detected in the detection step, and based on the value indicating the force or moment calculated in the calculation step, And a discrimination step of discriminating the state of the sense sensor.

上記の構成によれば、弾性部材を含む状態判別用対象物に力覚センサー等を接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。   According to said structure, in order to discriminate | determine the state of a force sensor by making a force sensor etc. contact the state discrimination target object containing an elastic member, it is made not to apply excessive force to a force sensor etc. At the same time, the state of the force sensor can be easily determined.

ここで、前記状態判別用対象物は、さらに剛性体を含んで構成されており、前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。   Here, the object for state determination further includes a rigid body, and in the operation step, the arm is brought into contact with the rigid body of the object for state determination and the state determination is performed by the arm. The object may be deformed.

上記の構成によれば、剛性体により、アームによる外力を状態判別用対象物に対して掛け易くなる。   According to said structure, it becomes easy to apply the external force by an arm with respect to the object for state determination with a rigid body.

また、前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。   The state determining object is configured such that both end surfaces of the elastic body are sandwiched between the rigid bodies. In the operation step, the rigid body on one end surface of the state determining object is In a state where the position and orientation are fixed, the arm may be brought into contact with the rigid body on the other end surface of the state determining object, and the state determining object may be deformed by the arm. .

上記の構成によれば、剛性体により、状態判別用対象物を安定した状態で固定あるいは支持することができるとともに、アームによる外力を状態判別用対象物に対して掛け易くなる。   According to the above configuration, the rigid body can fix or support the state determination target object in a stable state, and can easily apply an external force from the arm to the state determination target object.

また、前記ロボットは、前記アームを複数有し、前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。   The robot has a plurality of the arms, and in the operation step, the position and orientation of the rigid body on the one end surface are fixed by a first arm among the plurality of arms, and the plurality of arms It is good also as making the said 2nd arm contact the said rigid body of said other end surface, and deform | transforming the said object for state determination with said 2nd arm.

上記の構成によれば、状態判別用対象物を床などに置く場合と比べて、状態判別用対象物を第一のアームにより確実に固定して、状態判別を行うことができる。   According to said structure, compared with the case where the state determination target object is set | placed on a floor etc., a state determination target object can be reliably fixed with a 1st arm, and state determination can be performed.

また、前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、ことを特徴としてもよい。   In the calculation step, a value indicating a force or moment applied to the force sensor of the arm from the deformation amount detected in the detection step for at least one of the first arm and the second arm. In the determination step, for at least one of the first arm and the second arm, based on a value indicating the force or moment calculated in the calculation step, the state of the force sensor of the arm It is good also as a feature to discriminate | determine.

上記の構成によれば、前記第一のアーム及び前記第二のアームの両方について、並列的に状態判別を行うことができるため、状態判別に掛かる時間を短縮することができる。   According to the above configuration, the state determination can be performed in parallel for both the first arm and the second arm, so that the time required for the state determination can be reduced.

また、前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、ことを特徴としてもよい。   Further, in the detection step, the deformation amount is detected by photographing the state determination object and identifying a change in a position of a feature point of the state determination object based on the captured image information. This may be a feature.

上記の構成によれば、より簡単に状態判別用対象物の変化量を検出することができる。   According to said structure, the variation | change_quantity of the object for state determination can be detected more easily.

また、前記特徴点は、前記剛性体の少なくとも一部分に設定されるものである、ことを特徴としてもよい。   The feature point may be set in at least a part of the rigid body.

上記の構成によれば、特徴点の位置及び向きが剛性体の位置及び向きと一体的に変化するため、変形量の特定がし易くなる。   According to said structure, since the position and direction of a feature point change integrally with the position and direction of a rigid body, it becomes easy to specify the deformation amount.

また、前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、ことを特徴としてもよい。   In the calculation step, information for specifying a relationship between the deformation amount of the state determination target object and a force or a moment corresponding to the deformation amount is acquired, and the detection step detects the information based on the acquired information. A force or moment applied to the force sensor may be calculated from the deformation amount.

上記の構成によれば、変形量から力覚センサーに加わっている力又はモーメントを簡単に求めることができる。   According to the above configuration, the force or moment applied to the force sensor can be easily obtained from the deformation amount.

また、前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、ことを特徴としてもよい。   In the determination step, a sensor value output from the force sensor in a state in which the state determination target object is deformed in the operation step is acquired, and the acquired sensor value and the calculation step are calculated. It may be characterized by determining whether or not a difference from a value indicating a force or a moment is within a predetermined range.

上記の構成によれば、実際の力覚センサーのセンサー値に基づいて力覚センサーの状態を判別することができる。   According to said structure, the state of a force sensor can be discriminate | determined based on the sensor value of an actual force sensor.

また、前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、前記動作ステップでは、前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、ことを特徴としてもよい。   The force sensor is any one of first to third axial forces orthogonal to each other, and moments about first to third axes that are about the first to third axial directions. The state determining object is configured such that the rigid body on the one end surface and the rigid body on the other end surface are formed in parallel to each other. In the operation step, With respect to one axial direction, the arm is operated so that the rigid body on the other end surface approaches the rigid body on the one end surface in parallel, and the other end surface with respect to the second axial direction. The arm is operated so that the rigid body of the first end surface moves in the second axial direction while being parallel to the rigid body of the one end surface, and the third end of the other end surface is moved in the third axial direction. A rigid body is connected to the rigid body on the one end surface. The arm is operated so as to move in the third axial direction in a row, and the rigid body on the other end surface is parallel to the rigid body on the one end surface about the first axis. The arm is operated so as to rotate with reference to the first axial direction, and the rigid body on the other end surface rotates with respect to the second axial direction around the second axis. The arm is operated, and the arm is operated so that the rigid body on the other end surface rotates around the third axis with reference to the third axial direction. It is good.

上記の構成によれば、力覚センサーの状態判別対象の力又はモーメントに応じて、状態判別用対象物を変形させることができる。   According to said structure, according to the force or moment of the state determination object of a force sensor, the state determination target object can be deformed.

上記の課題を解決する本発明の第二の態様は、ロボットであって、アームと、力覚センサーと、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。   A second aspect of the present invention that solves the above-described problem is a robot for state determination, in which an arm, a force sensor, and the arm are operated, and the arm includes an elastic body. A control unit that deforms the object, a detection unit that detects a deformation amount of the state determination object deformed by the arm, and the deformation amount detected by the detection unit are added to the force sensor. A calculation unit that calculates a value indicating a force or a moment; and a determination unit that determines a state of the force sensor based on the value indicating the force or the moment calculated by the calculation unit. To do.

上記の構成によれば、ロボットにおいて、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。   According to the above configuration, in the robot, an excessive force is not applied to the force sensor or the like, and the state of the force sensor can be easily determined.

上記の課題を解決する本発明の第三の態様は、アーム及び力覚センサーを有するロボットの制御装置であって、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。   A third aspect of the present invention that solves the above problem is a robot control device having an arm and a force sensor, wherein the arm is operated and the arm includes an elastic body. A control unit that deforms the object for determination, a detection unit that detects the deformation amount of the object for state determination deformed by the arm, and the deformation sensor detected by the detection unit are added to the force sensor. A calculation unit that calculates a value indicating the force or moment that is present, and a determination unit that determines the state of the force sensor based on the value indicating the force or moment calculated by the calculation unit. Features.

上記の構成によれば、制御装置において、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。   According to the above configuration, in the control device, it is possible to prevent an excessive force from being applied to the force sensor or the like and to easily determine the state of the force sensor.

上記の課題を解決する本発明の第四の態様は、アーム及び力覚センサーを有するロボットの制御装置のプログラムであって、前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、ことを特徴とする。   A fourth aspect of the present invention that solves the above-described problem is a program for a robot control device having an arm and a force sensor, wherein the arm includes a state determination target including an elastic body. An operation step for deforming, a detection step for detecting a deformation amount of the object for state determination deformed in the operation step, and a force applied to the force sensor from the deformation amount detected in the detection step, or Causing the control device to execute a calculation step for calculating a value indicating a moment, and a determination step for determining a state of the force sensor based on the value indicating the force or the moment calculated in the calculation step. It is characterized by.

上記の構成によれば、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる制御装置を実現できる。   According to the above configuration, it is possible to realize a control device that prevents excessive force from being applied to the force sensor or the like and can easily determine the state of the force sensor.

上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の第一実施形態に係るロボットシステム1の一例を示す概略図である。1 is a schematic diagram illustrating an example of a robot system 1 according to a first embodiment of the present invention. 力覚センサー25が検出する力及びモーメントを説明する図である。It is a figure explaining the force and moment which force sensor 25 detects. 状態判別用対象物40の一例を示す図である。It is a figure which shows an example of the state determination target object. ロボットシステム1の機能構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a functional configuration of a robot system 1. FIG. 変換テーブル1100の一例を示す図である。6 is a diagram illustrating an example of a conversion table 1100. FIG. コンピューター50のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of a computer 50. FIG. 状態判別処理の一例を示すフロー図である。It is a flowchart which shows an example of a state discrimination | determination process. Fzのアーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the deformation | transformation of the operation | movement of the arm 21 of Fz, and the object 40 for state determination. Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the operation | movement of the arm 21 of Fx (or Fy), and the deformation | transformation of the object 40 for state determination. Mzのアーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the deformation | transformation of the operation | movement of the arm 21 of Mz, and the object 40 for state determination. Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the deformation | transformation of the operation | movement of the arm 21 of Mx (or My), and the object 40 for state determination. 本発明の第二実施形態に係る状態判別処理の一例を示すフロー図である。It is a flowchart which shows an example of the state discrimination | determination process which concerns on 2nd embodiment of this invention. アーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the deformation | transformation of the operation | movement of the arm 21, and the state determination target object. 本発明の第三実施形態に係る変換テーブル1100Aの一例を示す図である。It is a figure which shows an example of the conversion table 1100A which concerns on 3rd embodiment of this invention. アーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining the deformation | transformation of the operation | movement of the arm 21, and the state determination target object. 本発明の第四実施形態に係るアーム21の動作と状態判別用対象物40の変形を説明する図である。It is a figure explaining operation | movement of the arm 21 which concerns on 4th embodiment of this invention, and the deformation | transformation of the object 40 for state determination.

<<第一実施形態>>
以下、本発明の第一実施形態について、図面を参照して説明する。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るロボットシステム1の一例を示す概略図である。本図に示すように、ロボットシステム1は、制御装置10と、ロボット20と、撮影装置30と、を備える。また、ロボットシステム1は、ロボット20の力覚センサー25の状態(例えば、正常か異常か)を判別するため、状態判別用対象物40を用いる。   FIG. 1 is a schematic diagram illustrating an example of a robot system 1 according to an embodiment of the present invention. As shown in the figure, the robot system 1 includes a control device 10, a robot 20, and a photographing device 30. In addition, the robot system 1 uses a state determination object 40 to determine the state (for example, normal or abnormal) of the force sensor 25 of the robot 20.

制御装置10は、ロボット20の動作を制御する。制御装置10は、有線又は無線により、ロボット20及び撮影装置30と通信可能に接続されている。   The control device 10 controls the operation of the robot 20. The control device 10 is communicably connected to the robot 20 and the imaging device 30 by wire or wireless.

制御装置10は、例えば、撮影装置30から画像情報を取得し、画像認識によって作業対象物(以下、「ワーク」ともいう。ワークには、「状態判別用対象物」も含まれる。)を認識する。また、例えば、認識したワークに対するロボット20の一連の動作を決定する。また、例えば、ロボット20の力覚センサー25、他のセンサー(不図示)、エンコーダー(不図示)の出力信号に基づいて、ロボット20のアーム21(21a、21b)、エンドエフェクター26等が目的の位置及び向きとなるように、ロボット20を制御する。   For example, the control device 10 acquires image information from the imaging device 30 and recognizes a work object (hereinafter, also referred to as “work”. The work also includes “state determination object”) by image recognition. To do. Further, for example, a series of operations of the robot 20 with respect to the recognized workpiece is determined. Further, for example, based on the output signals of the force sensor 25 of the robot 20, other sensors (not shown), and an encoder (not shown), the arm 21 (21a, 21b), the end effector 26, etc. of the robot 20 are the target. The robot 20 is controlled so as to be in the position and orientation.

本実施形態では、制御装置10は、作業を開始する前などの所定のタイミングで、状態判別用対象物40を用いることにより、ロボット20の力覚センサー25の状態を判別する。つまり、力覚センサー25に異常がないかをチェックする。   In the present embodiment, the control device 10 determines the state of the force sensor 25 of the robot 20 by using the state determination object 40 at a predetermined timing such as before starting work. That is, it is checked whether the force sensor 25 is normal.

ロボット20は、ロボット本体に、2本のアーム21(21a、21b)が取り付けられている。アーム21の先端部には、力覚センサー25が取り付けられており、当該力覚センサー25を介してエンドエフェクター26を着脱可能である。エンドエフェクター26は、例えば、ハンドであり、ワークを直接持って作業したり、電動ドライバーなどの工具を持ってワークに対して作業を行ったりするものである。   The robot 20 has two arms 21 (21a, 21b) attached to the robot body. A force sensor 25 is attached to the tip of the arm 21, and the end effector 26 can be attached and detached via the force sensor 25. The end effector 26 is, for example, a hand, and works by directly holding the work or working on the work with a tool such as an electric screwdriver.

なお、本実施形態では、力覚センサー25の状態判別の際には、エンドエフェクター26は、アーム21から取り外される。   In the present embodiment, the end effector 26 is detached from the arm 21 when determining the state of the force sensor 25.

アーム21は、複数のジョイント22と、複数のリンク23とを有する。各ジョイント22は、ロボット本体とリンク23や、リンク23どうし、リンク23とエンドエフェクター26を、回動自在に(ただし、所定の可動範囲内で回動可能に)連結する。各ジョイント22は、例えば、回転ジョイントであり、リンク間の角度を変化させたり、リンクを軸回転させたりできるように設けられている。   The arm 21 has a plurality of joints 22 and a plurality of links 23. Each joint 22 connects the robot body and the link 23, the links 23, and the link 23 and the end effector 26 so as to be rotatable (but rotatable within a predetermined movable range). Each joint 22 is, for example, a rotary joint, and is provided so that the angle between the links can be changed and the link can be rotated about the axis.

ロボット20は、各ジョイント22を連動させて駆動することにより、アーム21の先端部を、自在に(ただし、所定の可動範囲内で)移動させることができるとともに、自由な方向へ向けることもできる。アーム21は、例えば、7つのジョイントを有する7軸アームとすることができる。   The robot 20 drives the joints 22 in conjunction with each other so that the tip of the arm 21 can be freely moved (within a predetermined movable range) and can be directed in any direction. . The arm 21 can be, for example, a seven-axis arm having seven joints.

なお、ロボット20の可動部分には、アクチュエーターやセンサー(不図示)が設けられている。アクチュエーターには、例えば、モーター、当該モーターの駆動回路、エンコーダーなどが含まれる。エンコーダーが出力するエンコーダー値や、センサーが出力するセンサー値は、可動部分の動作を制御するために制御装置10に出力される。   Note that actuators and sensors (not shown) are provided on the movable part of the robot 20. The actuator includes, for example, a motor, a drive circuit for the motor, an encoder, and the like. The encoder value output by the encoder and the sensor value output by the sensor are output to the control device 10 in order to control the operation of the movable part.

力覚センサー25は、例えば、図2(力覚センサー25が検出する力及びモーメントを説明する図)に示すような、六軸の力覚センサーである。すなわち、力覚センサー25は、互いに直交する三つの力成分Fx、Fy、Fz、及びそれらの軸回りの三つの力のモーメント成分Mx、My、Mzを検出する。なお、互いに直交する軸を第一〜第三の軸とすると、力成分Fzは第一の軸の方向の力であり、力成分Fxは第二の軸の方向の力、力成分Fyは第三の軸の方向の力である。また、力のモーメント成分Mzは第一の軸の周りのモーメントであり、力のモーメント成分Mxは第二の軸の周りのモーメント、力のモーメント成分Myは第三の軸の周りのモーメントである。   The force sensor 25 is, for example, a six-axis force sensor as shown in FIG. 2 (a diagram illustrating the force and moment detected by the force sensor 25). That is, the force sensor 25 detects three force components Fx, Fy, and Fz that are orthogonal to each other and three force moment components Mx, My, and Mz around those axes. If the axes orthogonal to each other are the first to third axes, the force component Fz is the force in the direction of the first axis, the force component Fx is the force in the direction of the second axis, and the force component Fy is the first component. The force in the direction of the three axes. The force moment component Mz is a moment around the first axis, the force moment component Mx is a moment around the second axis, and the force moment component My is a moment around the third axis. .

本実施形態では、エンドエフェクター26を装着していない状態のアーム21の先端部に位置する力覚センサー25を、状態判別用対象物40の所定の位置に接触させて力又はモーメントを加えることにより、状態判別用対象物40を変形させる。そのため、状態判別用対象物40に接触させる力覚センサー25の端面は、平面状に形成されている。   In the present embodiment, the force sensor 25 positioned at the tip of the arm 21 in a state where the end effector 26 is not attached is brought into contact with a predetermined position of the state determination target 40 to apply a force or a moment. Then, the object 40 for state determination is deformed. Therefore, the end surface of the force sensor 25 that is brought into contact with the state determination target object 40 is formed in a flat shape.

なお、本実施形態では、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせるようにする。   In the present embodiment, when the force sensor 25 is brought into contact with the state determination object 40, a point (working point) WP at a predetermined position on the end surface of the force sensor 25 is set to the end surface of the state determination object 40. A point (target point) CP at a predetermined position is adjusted.

上記のロボット20の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的な把持ロボットが備える構成を排除するものではない。例えば、軸数(ジョイント数)やリンクの数を増減させてもよい。また、アーム、エンドエフェクター、リンク、ジョイント、力覚センサー等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。   The configuration of the robot 20 described above is not limited to the configuration described above because the main configuration has been described in describing the features of the present embodiment. In addition, the configuration of a general gripping robot is not excluded. For example, the number of axes (number of joints) and the number of links may be increased or decreased. In addition, the shape, size, arrangement, structure, and the like of various members such as an arm, an end effector, a link, a joint, and a force sensor may be appropriately changed.

図1に戻って、撮影装置30は、作業空間を撮影して、画像データを生成する。撮影装置30は、例えば、カメラを含んで構成される。撮影装置30は、例えば、制御装置10の制御により、ワークなどを含む作業空間を撮影し、画像データを生成し、制御装置10に出力する。設置場所は、特に限定されず、例えば、床の上、作業台の上、天井、壁などとすることができる。もちろん、撮影装置30は、撮影範囲や撮影方向に応じて複数台設けられていてもよい。   Returning to FIG. 1, the imaging device 30 captures the work space and generates image data. The imaging device 30 includes, for example, a camera. The imaging device 30 shoots a work space including a work, for example, under the control of the control device 10, generates image data, and outputs it to the control device 10. The installation location is not particularly limited, and can be, for example, on the floor, on the work table, the ceiling, or the wall. Of course, a plurality of imaging devices 30 may be provided according to the imaging range and the imaging direction.

状態判別用対象物40は、力覚センサー25の状態を判別するために用いられる道具(「工具」、「治具」と呼ぶこともできる。)である。状態判別用対象物40は、例えば、図3(状態判別用対象物40の一例を示す図)に示される。図3は、状態判別用対象物40の外観の斜視図である。   The state discriminating object 40 is a tool (also referred to as “tool” or “jig”) used to discriminate the state of the force sensor 25. The state determination target object 40 is shown in FIG. 3 (a diagram illustrating an example of the state determination target object 40), for example. FIG. 3 is a perspective view of the appearance of the state determination object 40.

状態判別用対象物40は、全体として立方体状であり、立方体状の弾性部材41と、当該弾性部材41の平行な両端面に設けられた平板状の剛性部材42(42a、42b)とから構成される。なお、本願でいう「平行」には、平行状態と、ほぼ平行な状態とが含まれる。   The object 40 for state determination is a cube shape as a whole, and is composed of a cubic elastic member 41 and flat rigid members 42 (42a, 42b) provided on both end faces of the elastic member 41 in parallel. Is done. Note that “parallel” in this application includes a parallel state and a substantially parallel state.

本実施形態では、アーム21の先端部が剛性部材42に対して接触して力又はモーメントを加えることにより、弾性部材41を変形させる。そして、剛性部材42a及び剛性部材42bに設定された特徴点の位置関係に基づいて、状態判別用対象物40の変形量を算出する。   In the present embodiment, the elastic member 41 is deformed by the tip portion of the arm 21 contacting the rigid member 42 and applying a force or moment. Then, based on the positional relationship between the feature points set in the rigid member 42a and the rigid member 42b, the deformation amount of the state determination object 40 is calculated.

そのため、状態判別用対象物40は、弾性部材41と剛性部材42により構成されている。弾性部材41には、変形量を精度よく算出できかつ繰り返し使用できるように、例えば、可逆変形性を有するゴム、樹脂などを用いることができる。剛性部材42には、力又はモーメントによりなるべく変形しないように、例えば、弾性部材41より硬いゴム、金属、樹脂などを用いることができる。   Therefore, the state determination object 40 is constituted by an elastic member 41 and a rigid member 42. For the elastic member 41, for example, rubber or resin having reversible deformability can be used so that the deformation amount can be accurately calculated and used repeatedly. For the rigid member 42, for example, rubber, metal, resin, or the like harder than the elastic member 41 can be used so as not to be deformed as much as possible by force or moment.

剛性部材42により、状態判別用対象物40を安定した状態で固定あるいは支持することができるとともに、力又はモーメントを掛けやすくなる。また、剛性部材42に特徴点を設定することで、特徴点の位置及び向きが剛性部材42の位置及び向きと一体的に変化するため、後述する変形量の特定がし易くなる。   The rigid member 42 can fix or support the object 40 for state determination in a stable state, and can easily apply force or moment. Also, by setting feature points in the rigid member 42, the position and orientation of the feature points change integrally with the position and orientation of the rigid member 42, so that it becomes easy to specify the amount of deformation described later.

なお、上記の図3の状態判別用対象物40は、一例であり、後述する力覚センサー25の状態判別を実現できれば、その構成、材質、形状等は限定されるものではない。例えば、全体を弾性部材で構成するようにしてもよいし、剛性部材42に替えて弾性部材41よりも硬い弾性部材を用いるようにしてもよい。この場合、特徴点は、当該硬い弾性部材に設定すればよい。また、例えば、形状は、直方体状、円柱状などにしてもよい。   3 is an example, and the configuration, material, shape, and the like are not limited as long as the state determination of the force sensor 25 described later can be realized. For example, the whole may be configured by an elastic member, or an elastic member harder than the elastic member 41 may be used instead of the rigid member 42. In this case, the feature point may be set to the hard elastic member. For example, the shape may be a rectangular parallelepiped shape, a cylindrical shape, or the like.

上記の図1のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、一般的なロボットシステムが備える構成を排除するものではない。例えば、制御装置10は、ロボット20に含まれていてもよい。また、例えば、撮影装置30は、制御装置10又はロボット20に含まれていてもよい。   The configuration of the robot system 1 in FIG. 1 described above is the main configuration in describing the features of the present embodiment, and does not exclude the configuration of a general robot system. For example, the control device 10 may be included in the robot 20. For example, the imaging device 30 may be included in the control device 10 or the robot 20.

図4は、ロボットシステム1の機能構成の一例を示すブロック図である。   FIG. 4 is a block diagram illustrating an example of a functional configuration of the robot system 1.

ロボット20は、可動部200と、動作制御部210と、を備える。   The robot 20 includes a movable unit 200 and an operation control unit 210.

可動部200は、位置および向き(「姿勢」ともいう。)などの変更が可能な部位である。可動部200には、例えば、アーム21、ジョイント22、リンク23、エンドエフェクター26が含まれる。また、可動部200に関連するユニット、例えば、アクチュエーター(モーター、エンコーダー等)、各種センサー(力覚センサー25等)も含まれるものとする。   The movable unit 200 is a part that can be changed in position and orientation (also referred to as “posture”). The movable unit 200 includes, for example, an arm 21, a joint 22, a link 23, and an end effector 26. Further, a unit related to the movable unit 200, for example, an actuator (motor, encoder, etc.) and various sensors (force sensor 25, etc.) are also included.

動作制御部210は、制御装置10からの制御命令に従って、可動部200の位置及び向きを変化させる。なお、動作制御部210は、直接的にはモーターの回転等を制御することで、間接的にジョイント22を回転させ、可動部200の位置及び向きを変化させる。また、動作制御部210は、力覚センサー25その他センサーからそのセンサー値を取得し、制御装置10に出力する。また、動作制御部210は、エンコーダーからそのエンコーダー値を取得し、制御装置10に出力する。   The operation control unit 210 changes the position and orientation of the movable unit 200 in accordance with a control command from the control device 10. The operation control unit 210 directly rotates the joint 22 by directly controlling the rotation of the motor and the like, and changes the position and orientation of the movable unit 200. Further, the operation control unit 210 acquires the sensor value from the force sensor 25 and other sensors and outputs the sensor value to the control device 10. Further, the operation control unit 210 acquires the encoder value from the encoder and outputs it to the control device 10.

制御装置10は、制御部100と、記憶部110と、を備える。   The control device 10 includes a control unit 100 and a storage unit 110.

記憶部110には、力覚センサー25から掛かる外力(力及びモーメントを含む)により生じる状態判別用対象物40の変形量を、力覚センサー25に対する状態判別用対象物40の応力(力及びモーメントを含む)に変換するために用いる変換情報が格納される。   The storage unit 110 stores the deformation amount of the state determination target 40 caused by an external force (including force and moment) applied from the force sensor 25, and the stress (force and moment) of the state determination target 40 with respect to the force sensor 25. The conversion information used for conversion to (including) is stored.

変換情報は、例えば、図5(変換テーブル1100の一例を示す図)に示すような、テーブルとして構成することができる。変換テーブル1100には、6軸の成分(Fx、Fy、Fz、Mx、My、Mz)1101ごとに、当該成分の変換情報が含まれている。各成分1101の変換情報には、当該成分に対応する変形量を示す値(変形量)1102と、各変形量を示す値に対応する応力を示す値(応力)1103とを関連付けたレコードが含まれている。   The conversion information can be configured as a table as shown in FIG. 5 (a diagram showing an example of the conversion table 1100), for example. The conversion table 1100 includes conversion information for each of the six-axis components (Fx, Fy, Fz, Mx, My, Mz) 1101. The conversion information of each component 1101 includes a record in which a value (deformation amount) 1102 indicating a deformation amount corresponding to the component and a value (stress) 1103 indicating a stress corresponding to the value indicating each deformation amount are associated. It is.

成分1101は、力覚センサー25の各成分に対応するものである。変形量1102は、状態判別用対象物40に対して特定の量(大きさ)の力又はモーメントを加えることにより、状態判別用対象物40に生じる変形の量(大きさ)を数値化したものである。応力1103は、当該変形を生じさせる外力に対して生じる応力の量(大きさ)を数値化したものである。なお、本実施形態では、外力と応力は等しいものとして扱う。   The component 1101 corresponds to each component of the force sensor 25. The deformation amount 1102 is obtained by quantifying the amount (size) of deformation generated in the state determination target object 40 by applying a specific amount (size) of force or moment to the state determination target object 40. It is. The stress 1103 is a numerical value of the amount (magnitude) of the stress generated with respect to the external force that causes the deformation. In the present embodiment, the external force and the stress are assumed to be equal.

上記の変換情報は、例えば、実験により、各成分の変形を生じさせ、その変形量及び対応する応力を計測することにより、事前に作成することができる。以下、上記の変換情報の作成方法の一例を、図8〜11を参照して具体的に説明する。   The conversion information can be created in advance, for example, by causing deformation of each component by experiment and measuring the deformation amount and the corresponding stress. Hereinafter, an example of a method for creating the conversion information will be specifically described with reference to FIGS.

図8〜11は、状態判別用対象物40の剛性部材42bの端面が床などの平らな面に接するように置いた状態で、側面から見た状態を示している。また、特徴点を、剛性部材42aの側面の両端(P1、P3)及び中央(P2)と、剛性部材42bの側面の両端(P4、P6)及び中央(P5)とに設定する。   8 to 11 show a state viewed from the side surface in a state where the end surface of the rigid member 42b of the state determining object 40 is in contact with a flat surface such as a floor. The feature points are set at both ends (P1, P3) and the center (P2) of the side surface of the rigid member 42a, and both ends (P4, P6) and the center (P5) of the side surface of the rigid member 42b.

また、状態判別用対象物40全体になるべく均一な力が加わるように、例えば、力覚センサー25の端面の重心などに設定された作業点WP(図2参照)と、剛性部材42aの端面の重心に設定された目標点CP(図3参照)とが合うように、力覚センサー25と剛性部材42aを接触させる。各図の(A)は、状態判別用対象物40の変形前の状態を示し、各図の(B)は、状態判別用対象物40の変形後の状態を示している。   Further, for example, the working point WP (see FIG. 2) set at the center of gravity of the end surface of the force sensor 25 and the end surface of the rigid member 42a are applied so as to apply a uniform force as much as possible to the entire state determination target 40. The force sensor 25 and the rigid member 42a are brought into contact so that the target point CP (see FIG. 3) set at the center of gravity is matched. (A) of each figure shows the state before deformation | transformation of the object 40 for state determination, (B) of each figure has shown the state after the deformation | transformation of the object 40 for state determination.

なお、上記の変換情報を作成する場合は、力覚センサー25の状態は正常であり、かつ、適切に校正されているものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)して計測を行うものとする。   In addition, when producing said conversion information, the state of the force sensor 25 shall be normal, and shall be calibrated appropriately. The measurement is performed so that the position and orientation of the rigid member 42b on the floor do not change (so that the position and orientation of the rigid member 42b can be handled as fixed).

<Fz成分>
図8(Fzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFz方向の直線距離D1及びD2の差分を、Fz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFz方向の力を掛けることにより、Fz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFz成分の変換情報を作成する。
<Fz component>
As shown in FIG. 8 (a diagram illustrating the operation of the Fz arm 21 and the deformation of the state determination target 40), the Fz direction between the feature points P2 and P5 before and after the deformation of the state determination target 40 is obtained. The difference between the linear distances D1 and D2 is defined as the deformation amount of the Fz component. By bringing the force sensor 25 into contact with the rigid member 42a and applying a force in the Fz direction, the deformation amount of the Fz component and the corresponding stress are measured. Then, Fz component conversion information is created based on the measurement result.

<Fx(又はFy)成分>
FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図9(Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5のFx(又はFy)方向の直線距離D3及びD4の差分を、Fx(又はFy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx(又はFy)方向の力を掛けることにより、Fx(又はFy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFx(又はFy)成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Fx(又はFy)方向の力を掛ける。
<Fx (or Fy) component>
Since Fx and Fy are orthogonal directions, they are the same except that different side surfaces forming the corners of the state determination target 40 are used. As shown in FIG. 9 (a diagram illustrating the operation of the arm 21 and the deformation of the state determination target 40 in FIG. 9), Fx of the feature points P2 and P5 before and after the deformation of the state determination target 40 is obtained. The difference between the linear distances D3 and D4 in the (or Fy) direction is defined as the deformation amount of the Fx (or Fy) component. By bringing the force sensor 25 into contact with the rigid member 42a and applying a force in the Fx (or Fy) direction, the deformation amount of the Fx (or Fy) component and the corresponding stress are measured. Then, conversion information of the Fx (or Fy) component is created based on the measurement result. When deforming, the contact surface of the force sensor 25 and the rigid member 42a and the contact surface of the rigid member 42b and the floor are pressed in the Fz direction so that they do not slip and shift, while in the Fx (or Fy) direction. Apply the power of.

<Mz成分>
図10(Mzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFx又はFy方向の直線距離D5及びD6の差分(又は当該差分を回転角度に換算したもの)を、Mz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにMz回転方向のモーメントを掛けることにより、Mz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMz成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Mz回転方向のモーメントを掛ける。
<Mz component>
As shown in FIG. 10 (a diagram illustrating the operation of the Mz arm 21 and the deformation of the state determination target 40), Fx or Fy between the feature points P2 and P5 before and after the deformation of the state determination target 40 is obtained. The difference between the linear distances D5 and D6 in the direction (or the difference converted into a rotation angle) is defined as the deformation amount of the Mz component. By bringing the force sensor 25 into contact with the rigid member 42a and applying a moment in the Mz rotation direction, the deformation amount of the Mz component and the corresponding stress are measured. Then, conversion information of the Mz component is created based on the measurement result. When deforming, the contact surface of the force sensor 25 and the rigid member 42a and the contact surface of the rigid member 42b and the floor are pressed in the Fz direction so that they do not slip and shift, and the moment in the Mz rotation direction is increased. Multiply.

<Mx(又はMy)成分>
Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図11(Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P3とP4の間のFz方向の直線距離D7及びD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx軸(又はFy軸)を基準にMx(又はMy)回転方向のモーメントを掛けることにより、Mx(又はMy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMx(又はMy)成分の変換情報を作成する。
<Mx (or My) component>
Since Fx, which is the axis of Mx, and Fy, which is the axis of My, are orthogonal to each other, they are the same except that different side surfaces forming the corners of the state determination object 40 are used. As illustrated in FIG. 11 (a diagram illustrating the operation of the arm 21 and the deformation of the state determination target 40 in FIG. 11), between the feature points P3 and P4 before and after the deformation of the state determination target 40. The difference between the linear distances D7 and D8 in the Fz direction (or the difference converted to a rotation angle) is defined as the deformation amount of the Mx (or My) component. By bringing the force sensor 25 into contact with the rigid member 42a and applying a moment in the Mx (or My) rotation direction with respect to the Fx axis (or Fy axis), the deformation amount of the Mx (or My) component and the corresponding stress are obtained. measure. Then, conversion information of the Mx (or My) component is created based on the measurement result.

上記の変換情報の構成、変換情報の作成方法は一例であり、変形量に応じた応力を求めることができれば、上記の構成、作成方法に限られない。例えば、特徴点の位置、変形量の定義などは、図示した例に限られない。また、変換情報の作成の際に、実際にロボットを使わなくてもよく、例えば、ロボットの代わりになる工具やセンサーなどを使うようにしてもよい。また、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて、各成分の変形量と応力の関係式を導き出し、この関係式に基づいて、変換情報を作成するようにしてもよい。   The configuration of the conversion information and the creation method of the conversion information are examples, and the configuration and the creation method are not limited as long as the stress corresponding to the deformation amount can be obtained. For example, the position of the feature point, the definition of the deformation amount, and the like are not limited to the illustrated example. Further, when creating the conversion information, it is not necessary to actually use a robot. For example, a tool or a sensor that replaces the robot may be used. Further, for example, a relational expression between the deformation amount and stress of each component is derived based on values such as the Young's modulus and rigidity of the state determination target 40, and conversion information is created based on this relational expression. May be.

図4に戻って、制御部100は、制御装置10を統括的に制御する。制御部100は、画像取得部101と、ロボット制御部102と、変形量検出部103と、応力算出部104と、状態判別部105と、通知部106と、を備える。   Returning to FIG. 4, the control unit 100 comprehensively controls the control device 10. The control unit 100 includes an image acquisition unit 101, a robot control unit 102, a deformation amount detection unit 103, a stress calculation unit 104, a state determination unit 105, and a notification unit 106.

画像取得部101は、撮影装置30を制御して、状態判別用対象物40を含む作業空間の画像情報を取得する。   The image acquisition unit 101 controls the imaging device 30 to acquire image information of the work space including the state determination target object 40.

ロボット制御部102は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。状態判別用対象物40の検出方法は、特に限られず、既存の様々な画像認識技術を用いることができる。例えば、状態判別用対象物40の特徴点を抽出し、マッチング処理により、状態判別用対象物40を認識することができる。   The robot control unit 102 analyzes the image information acquired by the image acquisition unit 101 and detects the position, orientation, shape, and the like of the state determination target object 40. The detection method of the state discrimination target 40 is not particularly limited, and various existing image recognition techniques can be used. For example, a feature point of the state determination target 40 can be extracted, and the state determination target 40 can be recognized by matching processing.

また、ロボット制御部102は、ロボット20に対して、その動作を制御する制御命令を生成し、出力する。例えば、ロボット制御部102は、力覚センサー25を状態判別用対象物40の剛性部材42に接触させ、さらに、各成分(Fx、Fy、Fz、Mx、My、Mz)の外力が掛かるように、可動部200の動作を制御する。また、ロボット制御部102は、力覚センサー25のセンサー値を取得し、状態判別部105に出力する。   Further, the robot control unit 102 generates and outputs a control command for controlling the operation of the robot 20. For example, the robot controller 102 brings the force sensor 25 into contact with the rigid member 42 of the state determination target 40 and further applies an external force of each component (Fx, Fy, Fz, Mx, My, Mz). The operation of the movable part 200 is controlled. Further, the robot control unit 102 acquires the sensor value of the force sensor 25 and outputs it to the state determination unit 105.

変形量検出部103は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。また、変形量検出部103は、ロボット20が状態判別用対象物40に対して与えた外力の成分を特定し、状態判別用対象物40の変形前後の形状から、特定した成分に対応する変形量を求める。   The deformation amount detection unit 103 analyzes the image information acquired by the image acquisition unit 101 and detects the position, orientation, shape, and the like of the state determination target object 40. Further, the deformation amount detection unit 103 identifies the component of the external force applied to the state determination target object 40 by the robot 20, and the deformation corresponding to the specified component from the shape before and after the deformation of the state determination target object 40. Find the amount.

応力算出部104は、変換テーブル1100を参照し、状態判別用対象物40に与えられた外力に対応する成分1101の変換情報から、変形量検出部103が検出した変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。   The stress calculation unit 104 refers to the conversion table 1100, and the deformation amount 1102 corresponding to the deformation amount detected by the deformation amount detection unit 103 from the conversion information of the component 1101 corresponding to the external force applied to the state determination object 40. And the stress 1103 associated with the deformation amount 1102 is acquired.

状態判別部105は、ロボット20により状態判別用対象物40が変形されているときの力覚センサー25のセンサー値を、ロボット制御部102を介して取得する。また、応力算出部104が算出した応力を取得する。   The state determination unit 105 acquires the sensor value of the force sensor 25 when the state determination target 40 is deformed by the robot 20 via the robot control unit 102. The stress calculated by the stress calculation unit 104 is acquired.

また、状態判別部105は、取得したセンサー値と取得した応力との差分を求め、当該差分が所定の閾値以下であるかを判別する。当該所定の閾値は、力覚センサー25の検出精度が適切であるか否か(正常に動作しているか否か)を判別するための値である。当該差分が所定の閾値以下であれば、正常であると判別する。当該所定の閾値は、力覚センサー25の各成分に共通に一つ用意されていてもよいし、少なくとも一部の成分で異なる値が用意されていてもよい。   In addition, the state determination unit 105 obtains a difference between the acquired sensor value and the acquired stress, and determines whether the difference is equal to or less than a predetermined threshold value. The predetermined threshold is a value for determining whether or not the detection accuracy of the force sensor 25 is appropriate (whether or not it is operating normally). If the difference is equal to or less than a predetermined threshold, it is determined that the difference is normal. One predetermined threshold may be prepared in common for each component of the force sensor 25, or different values may be prepared for at least some of the components.

なお、理想的には、力覚センサー25が正常であれば、状態判別用対象物40の変形量から算出する応力と、力覚センサー25が検出する力とは、一致する。これを前提として、変形量の検出の誤差等の許容度を考慮して、上記のような所定の閾値を用いた判定を行うようにしている。   Ideally, if the force sensor 25 is normal, the stress calculated from the deformation amount of the state determination target object 40 matches the force detected by the force sensor 25. Based on this premise, the determination using the predetermined threshold as described above is performed in consideration of the tolerance of the deformation amount detection error and the like.

通知部106は、状態判別部105の判別結果を示す情報を出力する。出力先は、例えば、ディスプレイ、記憶装置、外部装置などである。   The notification unit 106 outputs information indicating the determination result of the state determination unit 105. The output destination is, for example, a display, a storage device, an external device, or the like.

上述した制御装置10は、例えば、図6(コンピューター50のハードウェア構成の一例を示すブロック図)に示すような、CPU(Central Processing Unit)501と、メモリー502と、HDD(Hard Disk Drive)等の外部記憶装置503と、有線又は無線により通信ネットワークやロボットに接続するための通信装置504と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置505と、液晶ディスプレイなどの出力装置506と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置507と、外部機器と接続するUSB(Universal Serial Bus)などのインターフェイス装置508と、を備えるコンピューター50で実現できる。   The control device 10 described above includes, for example, a CPU (Central Processing Unit) 501, a memory 502, an HDD (Hard Disk Drive), etc. as shown in FIG. 6 (a block diagram showing an example of the hardware configuration of the computer 50). External storage device 503, communication device 504 for connecting to a communication network or robot by wire or wireless, input device 505 such as a mouse, keyboard, touch sensor, touch panel, output device 506 such as a liquid crystal display, DVD This can be realized by a computer 50 including a read / write device 507 for reading / writing information on a portable storage medium such as (Digital Versatile Disk) and an interface device 508 such as a USB (Universal Serial Bus) connected to an external device.

例えば、記憶部110は、CPU501がメモリー502又は外部記憶装置503を利用することにより実現可能である。制御部100は、外部記憶装置503に記憶されている所定のプログラムをメモリー502にロードしてCPU501で実行することで実現可能である。制御部100と撮影装置30との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。制御部100とロボット20との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。   For example, the storage unit 110 can be realized by the CPU 501 using the memory 502 or the external storage device 503. The control unit 100 can be realized by loading a predetermined program stored in the external storage device 503 into the memory 502 and executing it by the CPU 501. Communication between the control unit 100 and the imaging device 30 can be realized by the CPU 501 using the communication device 504 or the interface device 508, for example. Communication between the control unit 100 and the robot 20 can be realized by the CPU 501 using the communication device 504 or the interface device 508, for example.

上記の所定のプログラムは、通信装置504を介してネットワークから、外部記憶装置503にダウンロードされ、それから、メモリー502上にロードされてCPU501により実行されるようにしてもよい。また、通信装置504を介してネットワークから、メモリー502上に直接ロードされ、CPU501により実行されるようにしてもよい。また、コンピューター50が、読み書き装置507にセットされた記憶媒体、又はインターフェイス装置508に接続された記憶媒体から、上記の所定のプログラムを、外部記憶装置503あるいはメモリー502にロードするようにしてもよい。   The predetermined program may be downloaded from the network to the external storage device 503 via the communication device 504, and then loaded onto the memory 502 and executed by the CPU 501. Alternatively, it may be loaded directly from the network onto the memory 502 via the communication device 504 and executed by the CPU 501. Further, the computer 50 may load the predetermined program into the external storage device 503 or the memory 502 from a storage medium set in the read / write device 507 or a storage medium connected to the interface device 508. .

上記の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   The above functional configuration is classified according to the main processing contents in order to facilitate understanding of the configuration of the robot system 1. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the robot system 1 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

例えば、制御装置10の少なくとも一部の機能は、ロボット20に含まれるようにしてもよい。この場合、撮影装置30は、制御装置10ではなくロボット20に接続されるようにしてもよいし、ロボット20に内蔵されるようにしてもよい。また、例えば、記憶部110を、制御装置10、及びロボット20の外部装置として用意するようにしてもよい。   For example, at least a part of the functions of the control device 10 may be included in the robot 20. In this case, the imaging device 30 may be connected to the robot 20 instead of the control device 10 or may be built in the robot 20. Further, for example, the storage unit 110 may be prepared as an external device of the control device 10 and the robot 20.

次に、上記のロボットシステム1で行われる、力覚センサー25の状態判別方法について説明する。   Next, a method for determining the state of the force sensor 25 performed in the robot system 1 will be described.

本実施形態の状態判別方法では、状態判別対象の力覚センサー25を有するアーム21から、エンドエフェクター26を取り外しておく。また、状態判別用対象物40は、一方の剛性部材42bの端面が床などの平らな面に接するように置く。また、状態判別対象の力覚センサー25を、状態判別用対象物40の他方の剛性部材42aの端面に接触させることで、当該力覚センサー25の状態判別を行う。また、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせる。   In the state determination method of this embodiment, the end effector 26 is removed from the arm 21 having the force sensor 25 that is a state determination target. The state determination object 40 is placed so that the end surface of one rigid member 42b is in contact with a flat surface such as a floor. Further, the state of the force sensor 25 is determined by bringing the force sensor 25 as a state determination target into contact with the end surface of the other rigid member 42a of the state determination target 40. In addition, when the force sensor 25 is brought into contact with the object 40 for state determination, the point (working point) WP on the end surface of the force sensor 25 is set to the point (work point) WP on the end surface of the state determination object 40 ( (Target point) Set to CP.

図7は、状態判別処理の一例を示すフロー図である。本フローは、力覚センサー25が検出可能な成分ごとの処理を示している。状態判別対象の成分は、例えば、ユーザーにより、指定されるものとする。   FIG. 7 is a flowchart showing an example of the state determination process. This flow shows processing for each component that can be detected by the force sensor 25. It is assumed that the component for state determination is specified by the user, for example.

ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S10)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42aの端面に対して、状態判別対象の力覚センサー25の端面が平行に向かい合って接触する、アーム21の先端部の作業点WPの位置及び向きを求める(S20)。ここでは、剛性部材42aの目標点CPと合う作業点WPの位置及び向きを求める。   The robot control unit 102 acquires image information from the image acquisition unit 101, analyzes the acquired image information, and detects the position, orientation, shape, and the like of the state determination target 40 (S10). Then, the robot control unit 102 works on the end portion of the arm 21 where the end surface of the force sensor 25 as the state determination target contacts the end surface of the rigid member 42a of the state determination target object 40 in parallel. The position and orientation of the WP are obtained (S20). Here, the position and orientation of the work point WP that matches the target point CP of the rigid member 42a are obtained.

また、ロボット制御部102は、作業点WPを、ステップS20で求めた位置及び向きへ移動するための軌道を生成する(S30)。そして、ロボット制御部102は、ステップS30で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、力覚センサー25の端面を剛性部材42aの端面に接触させる(S40)。なお、この状態では、状態判別用対象物40が変形しない程度に接触させるものとする。   In addition, the robot control unit 102 generates a trajectory for moving the work point WP to the position and orientation obtained in step S20 (S30). Then, the robot control unit 102 generates a control command according to the trajectory obtained in step S30 and outputs it to the robot 20, moves the work point WP, and brings the end face of the force sensor 25 into contact with the end face of the rigid member 42a. (S40). In this state, it is assumed that the state discriminating object 40 is brought into contact so as not to be deformed.

上記のステップS10〜S40は、各成分で共通の処理である。ステップS50〜S110は、各成分で共通的に説明した後、各成分の場合について具体例を用いて説明する。   The above steps S10 to S40 are processes common to the respective components. Steps S50 to S110 will be described in common for each component, and then the case of each component will be described using a specific example.

ロボット制御部102は、力覚センサー25の状態判別対象の成分に応じて、状態判別用対象物40を変形させる作業点WPの軌道を生成する(S50)。そして、ロボット制御部102は、ステップS50で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、状態判別用対象物40を変形させる(S60)。   The robot control unit 102 generates a trajectory of the work point WP that deforms the state determination target 40 in accordance with the state determination target component of the force sensor 25 (S50). Then, the robot control unit 102 generates a control command according to the trajectory obtained in step S50 and outputs the control command to the robot 20, moves the work point WP, and deforms the state determination target 40 (S60).

変形量検出部103は、ステップS60で変形した状態の状態判別用対象物40を含む画像情報を画像取得部101から取得し、当該画像情報から認識した状態判別用対象物40の形状(変形後の形状)と、変形前の形状とを比較し、力覚センサー25の状態判別対象の成分に対応する成分の変形量を求める(S70)。   The deformation amount detection unit 103 acquires image information including the state determination target object 40 in the state deformed in step S60 from the image acquisition unit 101, and recognizes the shape of the state determination target object 40 recognized from the image information (after deformation). ) And the shape before deformation, and the deformation amount of the component corresponding to the component for which the force sensor 25 is subjected to state determination is obtained (S70).

それから、応力算出部104は、変換テーブル1100を参照し、力覚センサー25の状態判別対象の成分に対応する成分1101の変換情報から、ステップS70で変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する(S80)。   Then, the stress calculation unit 104 refers to the conversion table 1100, and corresponds to the deformation amount obtained by the deformation amount detection unit 103 in step S70 from the conversion information of the component 1101 corresponding to the state determination target component of the force sensor 25. The deformation amount 1102 to be specified is specified, and the stress 1103 associated with the deformation amount 1102 is acquired (S80).

それから、状態判別部105は、ステップS60で状態判別用対象物40が変形している状態での、力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する(S90)。   Then, the state determination unit 105 transmits the sensor value corresponding to the state determination target component of the force sensor 25 in the state where the state determination target object 40 is deformed in step S60 via the robot control unit 102. Obtain (S90).

そして、状態判別部105は、ステップS90で取得したセンサー値と、ステップS89で算出された応力との差分を求め、当該差分が、状態判別対象の成分に対応する所定の閾値以下であるかを判定する(S100)。   Then, the state determination unit 105 obtains a difference between the sensor value acquired in step S90 and the stress calculated in step S89, and determines whether the difference is equal to or less than a predetermined threshold corresponding to the state determination target component. Determine (S100).

センサー値と応力の差分が所定の閾値を超える場合(S100:N)、通知部106は、例えば、表示装置や他の装置に、力覚センサー25に異常がある旨を出力する。なお、例えば、異常と判別された力覚センサー25を識別する情報(例えば、右腕、左腕などの位置)を出力してもよい。また、例えば、異常と判別された成分(例えば、Fx、Fyなど)を出力してもよい。   When the difference between the sensor value and the stress exceeds a predetermined threshold (S100: N), for example, the notification unit 106 outputs that the force sensor 25 is abnormal in a display device or another device. For example, information for identifying the force sensor 25 determined to be abnormal (for example, the position of the right arm, the left arm, etc.) may be output. Further, for example, components determined to be abnormal (for example, Fx, Fy, etc.) may be output.

センサー値と応力の差分が所定の閾値以下である場合(S100:Y)、制御装置10は、本フローを終了する。なお、この場合、通知部106は、力覚センサー25が正常である旨を出力してもよい。   When the difference between the sensor value and the stress is equal to or smaller than the predetermined threshold (S100: Y), the control device 10 ends this flow. In this case, the notification unit 106 may output that the force sensor 25 is normal.

各成分の状態判別の方法の一例を、図8〜11を参照して具体的に説明する。なお、画像取得部101は、変形量を適切に算出するため、変形量の算出に必要な特徴点が画像情報に含まれるように、撮影装置30を制御して画像情報を取得するものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)アーム21を動作させるものとする。   An example of a method for determining the state of each component will be specifically described with reference to FIGS. Note that, in order to appropriately calculate the deformation amount, the image acquisition unit 101 acquires the image information by controlling the imaging device 30 so that the feature points necessary for calculating the deformation amount are included in the image information. . In addition, the arm 21 is operated so that the position and orientation of the rigid member 42b on the floor do not change (so that the position and orientation of the rigid member 42b can be handled as fixed).

<Fzの場合>
図8は、Fzのアーム21の動作と状態判別用対象物40の変形を説明する図である。
<For Fz>
FIG. 8 is a diagram for explaining the operation of the Fz arm 21 and the deformation of the object 40 for state determination.

ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz方向(図中の下方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFz方向に所定の距離だけ直線移動するように、アーム21を動作させる。   The robot control unit 102 controls the operation of the arm 21 so that the rigid member 42a moves in the Fz direction (downward in the figure) while keeping parallel to the rigid member 42b. That is, the robot control unit 102 operates the arm 21 so that the work point WP of the force sensor 25 moves linearly by a predetermined distance in the Fz direction.

変形量検出部103は、変形前の特徴点P2とP5のFz方向の直線距離D1を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P2とP5のFz方向の直線距離D2を、画像情報から求める。そして、D1とD2の差分をFz方向の変形量として求める。   The deformation amount detection unit 103 obtains the linear distance D1 in the Fz direction between the feature points P2 and P5 before the deformation from the image information, or acquires the value when determined in advance. In addition, the deformation amount detection unit 103 obtains a linear distance D2 in the Fz direction between the deformed feature points P2 and P5 from the image information. Then, the difference between D1 and D2 is obtained as the deformation amount in the Fz direction.

応力算出部104は、変換テーブル1100を参照し、Fzの成分1101の変換情報から、求められたFz方向の変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。   The stress calculation unit 104 refers to the conversion table 1100, specifies the deformation amount 1102 corresponding to the obtained deformation amount in the Fz direction from the conversion information of the Fz component 1101, and stress associated with the deformation amount 1102 1103 is acquired.

状態判別部105は、(B)の状態の力覚センサー25のFzの成分のセンサー値と、取得したFz成分の応力との差分を求め、当該差分が所定の閾値以下であるかを判定する。   The state determination unit 105 obtains a difference between the sensor value of the Fz component of the force sensor 25 in the state (B) and the stress of the acquired Fz component, and determines whether the difference is equal to or less than a predetermined threshold. .

<Fx(又はFy)の場合>
図9は、Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、FxとFyについて共通的に説明する。また、図8と異なる点を中心に説明する。
<Fx (or Fy)>
FIG. 9 is a diagram illustrating the operation of the Fx (or Fy) arm 21 and the deformation of the state determination target 40. Since Fx and Fy are orthogonal directions, the processing contents are the same except that image information on different side surfaces forming the corner of the state determination target object 40 is used. Therefore, Fx and Fy will be described in common. Further, the description will be focused on the points different from FIG.

ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fx(又はFy)方向(図中の右方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFx(又はFy)方向に所定の距離だけ直線移動するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつFx(又はFy)方向に移動させる。   The robot control unit 102 controls the operation of the arm 21 so that the rigid member 42a moves in the Fx (or Fy) direction (right direction in the drawing) while keeping parallel to the rigid member 42b. That is, the robot control unit 102 operates the arm 21 so that the work point WP of the force sensor 25 moves linearly by a predetermined distance in the Fx (or Fy) direction. Note that the robot control unit 102 presses the work point WP in the Fz direction so that the contact surface of the force sensor 25 and the rigid member 42a and the contact surface of the rigid member 42b and the floor do not slide and move in the Fz direction. Move in the (or Fy) direction.

変形量検出部103は、変形後の特徴点P2とP5のFx方向の直線距離D4を、画像情報から求める。そして、変形前の特徴点P2とP5のFx方向の直線距離D3(D3=0である。)とD4の差分をFx(又はFy)方向の変形量として求める。   The deformation amount detection unit 103 obtains a linear distance D4 in the Fx direction between the deformed feature points P2 and P5 from the image information. Then, the difference between the linear distance D3 (D3 = 0) in the Fx direction between the feature points P2 and P5 before deformation and D4 is obtained as the deformation amount in the Fx (or Fy) direction.

応力算出部104及び状態判別部105は、Fx(又はFy)についての処理を行えばよいので、説明を省略する。   Since the stress calculation unit 104 and the state determination unit 105 may perform processing for Fx (or Fy), description thereof is omitted.

<Mzの場合>
図10は、Mzのアーム21の動作と状態判別用対象物40の変形を説明する図である。なお、(B)では、状態判別用対象物40を剛性部材42a側から見た図も示している。図8と異なる点を中心に説明する。
<In the case of Mz>
FIG. 10 is a diagram for explaining the operation of the Mz arm 21 and the deformation of the object 40 for state determination. In addition, in (B), the figure which looked at the object 40 for state determination from the rigid member 42a side is also shown. The points different from FIG. 8 will be mainly described.

ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz軸を基準にMz方向に回転(図中では右回り)するようにアーム21の動作を制御する。すなわち、力覚センサー25がFz軸を基準にMz回転方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMz回転方向に回転させる。   The robot control unit 102 controls the operation of the arm 21 so that the rigid member 42a rotates in the Mz direction (clockwise in the drawing) with the Fz axis as a reference while maintaining the parallelism with the rigid member 42b. That is, the arm 21 is operated so that the force sensor 25 rotates by a predetermined angle in the Mz rotation direction with respect to the Fz axis. In addition, the robot control unit 102 presses the work point WP in the Fz direction so that the contact surface of the force sensor 25 and the rigid member 42a and the contact surface of the rigid member 42b and the floor do not slip each other. Rotate in the direction of rotation.

変形量検出部103は、変形後の特徴点P2とP5のFx又はFy方向の直線距離D6を、画像情報から求める。そして、変形前の特徴点P2とP5のFx又はFy方向の直線距離D5(D5=0である。)とD6の差分(又は当該差分を回転角度に換算したもの)を、Mzの変形量として求める。   The deformation amount detection unit 103 obtains the linear distance D6 in the Fx or Fy direction between the deformed feature points P2 and P5 from the image information. Then, the difference between the linear distance D5 (D5 = 0) in the Fx or Fy direction between the feature points P2 and P5 before deformation and D6 (or the difference converted into a rotation angle) is used as the deformation amount of Mz. Ask.

応力算出部104及び状態判別部105は、Mzについての処理を行えばよいので、説明を省略する。   Since the stress calculation unit 104 and the state determination unit 105 only need to perform processing for Mz, description thereof is omitted.

<Mx(又はMy)の場合>
図11は、Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、MxとMyについて共通的に説明する。また、図8と異なる点を中心に説明する。
<Mx (or My)>
FIG. 11 is a diagram for explaining the operation of the Mx (or My) arm 21 and the deformation of the object 40 for state determination. Since Fx, which is the axis of Mx, and Fy, which is the axis of My, are orthogonal to each other, the processing content is the same except that image information on different sides forming the corner of the state determination target object 40 is used. Therefore, Mx and My will be described in common. Further, the description will be focused on the points different from FIG.

ロボット制御部102は、剛性部材42aが、Fx(又はFy)軸を基準にMx(又はMy)回転方向に回転するようにアーム21を制御する。すなわち、力覚センサー25の作業点WPがFx(又はFy)軸を基準にMx(又はMy)方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMx(又はMy)回転方向に回転させてもよい。   The robot control unit 102 controls the arm 21 so that the rigid member 42a rotates in the Mx (or My) rotation direction with the Fx (or Fy) axis as a reference. That is, the arm 21 is operated so that the working point WP of the force sensor 25 rotates by a predetermined angle in the Mx (or My) direction with reference to the Fx (or Fy) axis. Note that the robot control unit 102 presses the work point WP in the Fz direction so that the contact surface of the force sensor 25 and the rigid member 42a, and the contact surface of the rigid member 42b and the floor do not slip each other. (Or My) You may rotate in the rotation direction.

変形量検出部103は、変形前の特徴点P3とP4のFz方向の直線距離D7を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P3とP4のFz方向の直線距離D8を、画像情報から求める。そして、D7とD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)の変形量として求める。   The deformation amount detection unit 103 obtains the linear distance D7 in the Fz direction between the feature points P3 and P4 before the deformation from the image information, or acquires the value when determined in advance. Further, the deformation amount detection unit 103 obtains a linear distance D8 in the Fz direction between the feature points P3 and P4 after deformation from the image information. Then, a difference between D7 and D8 (or a value obtained by converting the difference into a rotation angle) is obtained as a deformation amount of Mx (or My).

応力算出部104及び状態判別部105は、Mx(又はMy)についての処理を行えばよいので、説明を省略する。   Since the stress calculation unit 104 and the state determination unit 105 only need to perform processing for Mx (or My), description thereof is omitted.

なお、上記の図7のフローは、成分ごとの状態判別処理を示しているが、例えば、ある成分についてのステップS100又はS110の終了後、状態判別が終了していない成分がある場合は、当該成分についての状態判別処理を行うべく、力覚センサー21の位置及び方向をステップS40終了直後の状態に戻し、処理をステップS50に進めるようにしてもよい。全成分についての状態判別が終了している場合は、本フローを終了すればよい。   7 shows the state determination process for each component. For example, when there is a component whose state determination has not ended after the end of step S100 or S110 for a certain component, In order to perform the state determination process for the component, the position and direction of the force sensor 21 may be returned to the state immediately after the end of step S40, and the process may proceed to step S50. If the state determination for all components has been completed, this flow may be terminated.

上記の図7のフローの各処理単位は、制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、本願発明の目的を達成できるのであれば、各処理単位の順序を適宜変更してもよい。   Each processing unit in the flow of FIG. 7 is divided according to main processing contents in order to facilitate understanding of the processing of the control device 10. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the control device 10 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes. Moreover, as long as the objective of this invention can be achieved, you may change the order of each processing unit suitably.

以上、本発明の第一実施形態の一例について説明した。本実施形態によれば、弾性部材を含む状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。   Heretofore, an example of the first embodiment of the present invention has been described. According to this embodiment, since the state of the force sensor is determined by bringing the force sensor into contact with the state determination target including the elastic member, it is possible to prevent an excessive force from being applied to the force sensor or the like. it can. In addition, since the force sensor is in contact with the object for state determination, the state of the force sensor is determined, so there is no need to use two arms or to calibrate one of the force sensors. The state of the force sensor can be determined.

<<第二実施形態>>
上記の第一実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、剛性部材42bの床上の位置及び向きが変わらないようにして、状態判別処理を行っている。一方、第二実施形態では、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
<< Second Embodiment >>
In the first embodiment, the state determination process is performed in such a manner that the position and orientation of the rigid member 42b on the floor are not changed in a state where the state determination target object 40 is placed on a flat surface such as a floor. . On the other hand, in the second embodiment, the position determination object 40 is changed by the end effector 26 of the other arm 21 which is not the arm 21 having the force sensor 25 as the state determination target, and the position and orientation of the rigid member 42b are changed. The object 40 for state determination is supported so that it may not exist. In this state, state determination processing is performed. Hereinafter, a description will be given focusing on differences from the first embodiment.

図12は、本発明の第二実施形態に係る状態判別処理の一例を示すフロー図である。ステップS10〜S110は、図7と同様である。ステップS1〜S6は、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21に関する処理である。当該他方のアーム21には、エンドエフェクター26が取り付けられている。   FIG. 12 is a flowchart showing an example of state determination processing according to the second embodiment of the present invention. Steps S10 to S110 are the same as in FIG. Steps S <b> 1 to S <b> 6 are processes related to the other arm 21 that is not the arm 21 having the force sensor 25 as a state determination target. An end effector 26 is attached to the other arm 21.

ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S1)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42bを把持する、他方のアーム21のエンドエフェクター26の位置及び向きを求める(S2)。   The robot control unit 102 acquires image information from the image acquisition unit 101, analyzes the acquired image information, and detects the position, orientation, shape, and the like of the state determination target 40 (S1). Then, the robot control unit 102 obtains the position and orientation of the end effector 26 of the other arm 21 that holds the rigid member 42b of the state determination target 40 (S2).

また、ロボット制御部102は、エンドエフェクター26を、ステップS2で求めた位置及び向きへ移動するための軌道を生成する(S3)。そして、ロボット制御部102は、ステップS3で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、エンドエフェクター26により剛性部材42bを把持させる(S4)。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。   Further, the robot control unit 102 generates a trajectory for moving the end effector 26 to the position and orientation obtained in step S2 (S3). Then, the robot control unit 102 generates a control command according to the trajectory obtained in step S3 and outputs it to the robot 20, moves the end effector 26, and causes the end effector 26 to grip the rigid member 42b (S4). In order to prevent the state determination target object 40 from being deformed as much as possible, for example, it is assumed that it is gripped by the end effector 26 so as not to touch the elastic member 41.

また、ロボット制御部102は、他方のアーム21のエンドエフェクター26で状態判別用対象物40を把持したまま、状態判別対象の力覚センサー25の判別処理を行う所定の位置及び向きへ移動するための軌道を生成する(S5)。そして、ロボット制御部102は、ステップS5で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、位置及び向きを固定する(S6)。   Further, the robot control unit 102 moves to a predetermined position and orientation for performing the determination process of the force sensor 25 as the state determination target while holding the state determination target object 40 by the end effector 26 of the other arm 21. Is generated (S5). Then, the robot control unit 102 generates a control command according to the trajectory obtained in step S5 and outputs it to the robot 20, moves the end effector 26, and fixes the position and orientation (S6).

ステップS10〜S110は、状態判別用対象の力覚センサー25を有するアーム21に関する処理である。ステップS10〜S110は、ステップS6で位置及び向きが固定された状態判別用対象物40を用いて行われる。   Steps S <b> 10 to S <b> 110 are processes related to the arm 21 having the force sensor 25 as a state determination target. Steps S <b> 10 to S <b> 110 are performed using the state determination target object 40 whose position and orientation are fixed in step S <b> 6.

図13は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21の状態判別対象の力覚センサー25により状態判別用対象物40を変形させて、各成分の状態判別を行う。   FIG. 13 is a diagram for explaining the operation of the arm 21 and the deformation of the object 40 for state determination. This figure typically shows the case of Fz. As illustrated, in the present embodiment, the end effector 26 of the other arm 21 holds the rigid member 42b and fixes the position and orientation. Then, in a fixed state, the state discriminating object 40 is deformed by the force sensor 25 that is the state discriminating target of one arm 21 to perform the state discrimination of each component.

なお、本実施形態では、他方のアーム21のエンドエフェクター26により状態判別用対象物40の位置及び向きが固定されているため、第一実施形態のように剛性部材42b及び床の接触面が滑ってずれるといったおそれがない。また、状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。   In the present embodiment, since the position and orientation of the state determination target object 40 are fixed by the end effector 26 of the other arm 21, the rigid member 42b and the floor contact surface slide as in the first embodiment. There is no fear of slipping. Further, the state determination can be performed even when there is no appropriate floor for performing the state determination.

以上、本発明の第二実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。   Heretofore, an example of the second embodiment of the present invention has been described. According to this embodiment, it is possible to prevent an excessive force from being applied to the force sensor or the like. Also, because the force sensor is in contact with the object for state determination, it is not necessary to calibrate one of the force sensors, making it easy to determine the state of the force sensor. can do.

また、状態判別用対象物の位置及び向きが固定されているため、状態判別処理中に状態判別用対象物が動いてしまうなどの事態を防ぐことができる。状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。   In addition, since the position and orientation of the state determination target are fixed, it is possible to prevent a situation such as the state determination target moving during the state determination process. The state determination can be performed even when there is no appropriate floor for performing the state determination.

<<第三実施形態>>
上記の第一実施形態では、状態判別対象の力覚センサー25を有するアーム21には、エンドエフェクター26を取り付けていない。一方、第三実施形態では、状態判別対象の力覚センサー25を有するアーム21に、エンドエフェクター26を取り付けた状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
<< Third embodiment >>
In said 1st embodiment, the end effector 26 is not attached to the arm 21 which has the force sensor 25 of a state discrimination | determination object. On the other hand, in the third embodiment, the state determination process is performed in a state where the end effector 26 is attached to the arm 21 having the force sensor 25 to be a state determination target. Hereinafter, a description will be given focusing on differences from the first embodiment.

具体的には、ロボット制御部102は、状態判別処理において、状態判別用対象物40の剛性部材42aを把持する、状態判別対象の力覚センサー25を有するアーム21のエンドエフェクター26の位置及び向きを求める。そして、当該位置及び向きへエンドエフェクター26を移動し、エンドエフェクター26により剛性部材42aを把持させる。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。   Specifically, the robot control unit 102 determines the position and orientation of the end effector 26 of the arm 21 having the force sensor 25 that is a state determination target that holds the rigid member 42a of the state determination target object 40 in the state determination process. Ask for. Then, the end effector 26 is moved to the position and orientation, and the rigid member 42 a is gripped by the end effector 26. In order to prevent the state determination target object 40 from being deformed as much as possible, for example, it is assumed that it is gripped by the end effector 26 so as not to touch the elastic member 41.

そして、ロボット制御部102は、エンドエフェクター26で剛性部材42aを把持したまま、力覚センサー25の状態判別対象の成分に応じて、作業点WPを移動させ、状態判別用対象物40を変形させる。変形量検出部103、応力算出部104、状態判別部105、及び通知部106は、第一実施形態と同様である。   Then, the robot control unit 102 moves the work point WP according to the state determination target component of the force sensor 25 while holding the rigid member 42a by the end effector 26, and deforms the state determination target 40. . The deformation amount detection unit 103, the stress calculation unit 104, the state determination unit 105, and the notification unit 106 are the same as those in the first embodiment.

ただし、エンドエフェクター26で剛性部材42aを把持するようにしたことにより、状態判別用対象物40に対する外力の掛かり方が、第一実施形態とは異なっている。従って、変換情報は、エンドエフェクター26を使った状態で変形量及び応力を計測して、当該計測結果に基づいて作成してもよい。   However, since the end effector 26 grips the rigid member 42a, the manner in which an external force is applied to the state determination target 40 is different from that of the first embodiment. Therefore, the conversion information may be created based on the measurement result by measuring the deformation amount and the stress in a state where the end effector 26 is used.

また、例えば、図14(本発明の第三実施形態に係る変換テーブル1100Aの一例を示す図)に示すように、エンドエフェクターの種別1104ごとに、変換テーブルを用意するようにしてもよい。なお、図中の種別1104の「なし」は、第一実施形態と同様に、エンドエフェクター26が取り付けられていない場合を示している。   Further, for example, as shown in FIG. 14 (a diagram showing an example of the conversion table 1100A according to the third embodiment of the present invention), a conversion table may be prepared for each end effector type 1104. Note that “None” of the type 1104 in the figure indicates a case where the end effector 26 is not attached, as in the first embodiment.

図14の変換テーブル1100Aを用いる場合、応力算出部104は、状態判別対象の力覚センサー25を有するアーム21に取り付けられているエンドエフェクター26の種別を特定し、当該種別に対応する種別1104の変換テーブルを参照するようにすればよい。なお、エンドエフェクター26の種別は、例えば、ロボット20の動作制御部210が認識しており、応力算出部104がロボット制御部102を介して動作制御部21から当該種別を取得するようにすればよい。   When the conversion table 1100A of FIG. 14 is used, the stress calculation unit 104 specifies the type of the end effector 26 attached to the arm 21 having the force sensor 25 that is the state determination target, and the type 1104 corresponding to the type. Reference may be made to the conversion table. Note that the type of the end effector 26 is recognized by, for example, the motion control unit 210 of the robot 20, and the stress calculation unit 104 acquires the type from the motion control unit 21 via the robot control unit 102. Good.

図15は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、状態判別用対象物40を床の上に置いた状態で、エンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。   FIG. 15 is a diagram for explaining the operation of the arm 21 and the deformation of the object 40 for state determination. This figure typically shows the case of Fz. As shown in the drawing, in the present embodiment, the rigid member 42a is held by the end effector 26 in a state where the object 40 for state determination is placed on the floor. Then, in the gripped state, the state determination object 40 is deformed to determine the state of each component.

以上、本発明の第三実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物にエンドエフェクターを介して力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。   The example of the third embodiment of the present invention has been described above. According to this embodiment, it is possible to prevent an excessive force from being applied to the force sensor or the like. In addition, it is necessary to use two arms or to calibrate one of the force sensors in order to determine the state of the force sensor by bringing the force sensor into contact with the object for state determination via an end effector. It is possible to easily determine the state of the force sensor.

また、エンドエフェクターを装着したまま状態判別処理を行えるため、エンドエフェクターの取り外しなどの手間を省いて、より生産性を向上することができる。   Further, since the state determination process can be performed with the end effector attached, productivity such as removal of the end effector can be saved and the productivity can be further improved.

<<第四実施形態>>
上記の第三実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、状態判別処理を行っている。一方、第四実施形態では、第三実施形態に上記の第二実施形態を組み合わせ、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第二実施形態及び第三実施形態と異なる点を中心に説明する。
<< Fourth Embodiment >>
In the third embodiment, the state determination process is performed in a state where the state determination target object 40 is placed on a flat surface such as a floor. On the other hand, in the fourth embodiment, the second embodiment is combined with the third embodiment, and the state discriminating object 40 is replaced by the arm 21 that is not the arm 21 having the force sensor 25 as the state discriminating target. The end effector 26 supports the state determination target 40 so that the position and orientation of the rigid member 42b do not change. In this state, state determination processing is performed. The following description will focus on differences from the second embodiment and the third embodiment.

図16は、本発明の第四実施形態に係るアーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21のエンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。   FIG. 16 is a diagram illustrating the operation of the arm 21 and the deformation of the state determination target object 40 according to the fourth embodiment of the present invention. This figure typically shows the case of Fz. As illustrated, in the present embodiment, the end effector 26 of the other arm 21 holds the rigid member 42b and fixes the position and orientation. Then, in a fixed state, the rigid member 42 a is gripped by the end effector 26 of one arm 21. Then, in the gripped state, the state determination object 40 is deformed to determine the state of each component.

以上、本発明の第四実施形態の一例について説明した。本実施形態によれば、第二及び第三実施形態と同様の効果が得られる。   The example of the fourth embodiment of the present invention has been described above. According to this embodiment, the same effect as the second and third embodiments can be obtained.

<<第五実施形態>>
上記の第四実施形態では、片方のアーム21の力覚センサー25を、状態判別対象としている。一方、第五実施形態では、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行う。以下、第四実施形態と異なる点を中心に説明する。
<< Fifth Embodiment >>
In the fourth embodiment described above, the force sensor 25 of one arm 21 is a state determination target. On the other hand, in the fifth embodiment, state determination processing is performed in parallel for the force sensors 25 of both arms 21. Hereinafter, a description will be given focusing on differences from the fourth embodiment.

具体的には、ロボット制御部102は、一方のアーム21のエンドエフェクター26で、剛性部材42bを把持させ、位置及び向きを固定する。また、固定された状態で、他方のアーム21のエンドエフェクター26で剛性部材42aを把持させる。そして、当該他方のアーム21のエンドエフェクター26により、状態判別用対象物40を変形させて、当該他方のアーム21の力覚センサー25の各成分の状態判別を行う。   Specifically, the robot control unit 102 holds the rigid member 42b with the end effector 26 of one arm 21, and fixes the position and orientation. Further, in a fixed state, the rigid member 42 a is gripped by the end effector 26 of the other arm 21. Then, the state determination object 40 is deformed by the end effector 26 of the other arm 21 to determine the state of each component of the force sensor 25 of the other arm 21.

ここで、当該他方のエンドエフェクター21により状態判別用対象物40に対してある成分(例えば、Fz)の外力が加えられると、当該一方のアーム21のエンドエフェクター21を介して当該一方の力覚センサー25に対しても同成分の外力が加わる。すなわち、他方の力覚センサー25で検出される応力と、一方の力覚センサー25で検出される応力とが、理想的には一致する。   Here, when an external force of a certain component (for example, Fz) is applied to the state determination target object 40 by the other end effector 21, the one force sense is transmitted via the end effector 21 of the one arm 21. An external force of the same component is also applied to the sensor 25. That is, the stress detected by the other force sensor 25 and the stress detected by the one force sensor 25 ideally match.

そこで、応力算出部104は、変換テーブル1100を参照し、状態判別対象の成分に対応する成分1101の変換情報から、変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を、両方の力覚センサー25に関する応力として取得する。   Therefore, the stress calculation unit 104 refers to the conversion table 1100, specifies the deformation amount 1102 corresponding to the deformation amount obtained by the deformation amount detection unit 103 from the conversion information of the component 1101 corresponding to the state determination target component, The stress 1103 associated with the deformation amount 1102 is acquired as the stress related to both force sensors 25.

また、状態判別部105は、状態判別用対象物40が変形している状態での、両方の力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する。   Further, the state determination unit 105 acquires, via the robot control unit 102, sensor values corresponding to the state determination target components of both force sensors 25 in a state where the state determination target object 40 is deformed. To do.

また、状態判別部105は、取得した両方の力覚センサー25のセンサー値のそれぞれについて、応力算出部104が算出した応力との差分を求める。そして、求めた差分のそれぞれが、状態判別対象の成分に対応する所定の閾値以下であるかを判定する。   Further, the state determination unit 105 obtains a difference between the acquired sensor values of both force sensors 25 and the stress calculated by the stress calculation unit 104. Then, it is determined whether each of the obtained differences is equal to or less than a predetermined threshold corresponding to the state determination target component.

なお、動作させる前記他方のアーム21の力覚センサー25に関して使用する変換テーブルと、動作させない前記一方のアーム21の力覚センサー25に関して使用する変換テーブルを、用意するようにしてもよい。そして、応力算出部104は、各変換テーブルから、変形量に対応する応力を取得するようにしてもよい。このようにすれば、同じ変形量に対して、動作させる前記他方のアーム21の力覚センサー25に生じる応力と、動作させない前記一方のアーム21の力覚センサー25に生じる応力が異なる場合にも、より精度よく状態判別を行うことができる。   A conversion table used for the force sensor 25 of the other arm 21 to be operated and a conversion table used for the force sensor 25 of the one arm 21 not to be operated may be prepared. Then, the stress calculation unit 104 may acquire the stress corresponding to the deformation amount from each conversion table. In this way, even when the stress generated in the force sensor 25 of the other arm 21 to be operated differs from the stress generated in the force sensor 25 of the one arm 21 not to be operated for the same deformation amount. Thus, the state can be determined with higher accuracy.

以上、本発明の第五実施形態の一例について説明した。本実施形態によれば、両方のアームの力覚センサーに対して並列的に状態判別処理を行うことができるため、状態判別処理の効率を向上することができる。   The example of the fifth embodiment of the present invention has been described above. According to the present embodiment, since the state determination process can be performed in parallel on the force sensors of both arms, the efficiency of the state determination process can be improved.

なお、第二実施形態においても、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行うようにしてもよい。   In the second embodiment, the state determination process may be performed in parallel for the force sensors 25 of both arms 21.

上記の本発明の各実施形態は、本発明の要旨と範囲を例示することを意図し、限定するものではない。多くの代替物、修正および変形例が当業者にとって明らかである。   The above embodiments of the present invention are intended to illustrate the gist and scope of the present invention and are not intended to be limiting. Many alternatives, modifications, and variations will be apparent to those skilled in the art.

例えば、変換情報の代わりに、成分ごとに、変形量から応力を求めるための計算式を定義しておき、応力算出部104は、計算式を用いて、変形量検出部103が検出した変形量から応力を算出するようにしてもよい。このようにすれば、変換情報を用意する必要がなくなる。なお、当該計算式は、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて定義することができる。   For example, instead of the conversion information, a calculation formula for obtaining stress from the deformation amount is defined for each component, and the stress calculation unit 104 uses the calculation formula to determine the deformation amount detected by the deformation amount detection unit 103. The stress may be calculated from In this way, it is not necessary to prepare conversion information. In addition, the said calculation formula can be defined based on values, such as the Young's modulus of the object 40 for state determination, and a rigidity modulus.

また、状態判別用対象物40の変形量を特定できるのであれば、例えば、特徴点は、弾性部材41のみ、又は、弾性部材41及び剛性部材42の両方に設定されてもよい。また、状態判別用対象物40の変形量を特定できるのであれば、変形量を特定するために用いる特徴点の位置や数は、上記の各実施形態で説明した例に限られない。   Further, if the deformation amount of the state determination target 40 can be specified, for example, the feature points may be set only on the elastic member 41 or on both the elastic member 41 and the rigid member 42. In addition, as long as the deformation amount of the state determination target 40 can be specified, the positions and the number of feature points used for specifying the deformation amount are not limited to the examples described in the above embodiments.

1:ロボットシステム、10:制御装置、20:ロボット、21(21a、21b):アーム、22:ジョイント、23:リンク、25:力覚センサー、26:エンドエフェクター、30:撮影装置、40:状態判別用対象物、41:弾性部材、42(42a、42b):剛性部材、100:制御部、101:画像取得部、102:ロボット制御部、103:変形量検出部、104:応力算出部、105:状態判別部、106:通知部、110:記憶部、200:可動部、210:動作制御部、1100:変換テーブル、1101:成分、1102:変形量、1103:応力、1100A:変換テーブル、1104:種別、50:コンピューター、501:CPU、502:メモリー、503:外部記憶装置、504:通信装置、505:入力装置、506:出力装置、507:読み書き装置、508:インターフェイス装置 1: Robot system, 10: Control device, 20: Robot, 21 (21a, 21b): Arm, 22: Joint, 23: Link, 25: Force sensor, 26: End effector, 30: Imaging device, 40: State Discrimination target, 41: elastic member, 42 (42a, 42b): rigid member, 100: control unit, 101: image acquisition unit, 102: robot control unit, 103: deformation amount detection unit, 104: stress calculation unit, 105: state determination unit, 106: notification unit, 110: storage unit, 200: movable unit, 210: operation control unit, 1100: conversion table, 1101: component, 1102: deformation amount, 1103: stress, 1100A: conversion table, 1104: Type, 50: Computer, 501: CPU, 502: Memory, 503: External storage device, 504: Communication device, 505: On Device, 506: output unit, 507: reading and writing apparatus, 508: interface device

Claims (13)

アーム及び力覚センサーを有するロボットの状態を判別する状態判別方法であって、
弾性体を含んで構成される状態判別用対象物を用いるものであり、
前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、
前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、
ことを特徴とする状態判別方法。
A state determination method for determining a state of a robot having an arm and a force sensor,
Using an object for state determination comprising an elastic body,
An operation step of operating the robot and deforming the object for state determination by the arm;
A detection step of detecting a deformation amount of the object for state determination deformed in the operation step;
A calculation step for calculating a value indicating a force or a moment applied to the force sensor from the deformation amount detected in the detection step;
A determination step of determining a state of the force sensor based on a value indicating the force or moment calculated in the calculation step.
A state determination method characterized by the above.
請求項1に記載の状態判別方法であって、
前記状態判別用対象物は、さらに剛性体を含んで構成されており、
前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。
The state determination method according to claim 1,
The state determination object further includes a rigid body,
In the operation step, the arm is brought into contact with the rigid body of the object for state determination, and the object for state determination is deformed by the arm.
A state determination method characterized by the above.
請求項2に記載の状態判別方法であって、
前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、
前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。
The state determination method according to claim 2,
The state determining object is configured such that both end faces of the elastic body are sandwiched between the rigid bodies,
In the operation step, the arm is brought into contact with the rigid body on the other end surface of the state determination object in a state where the position and orientation of the rigid body on one end surface of the state determination object are fixed. And deforming the object for state determination by the arm,
A state determination method characterized by the above.
請求項3に記載の状態判別方法であって、
前記ロボットは、前記アームを複数有し、
前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。
The state determination method according to claim 3,
The robot has a plurality of the arms,
In the operation step, the first arm of the plurality of arms fixes the position and orientation of the rigid body on the one end surface, and the second arm of the plurality of arms is fixed on the other end surface. Deforming the object for state determination with the second arm in contact with a rigid body;
A state determination method characterized by the above.
請求項4に記載の状態判別方法であって、
前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、
前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、
ことを特徴とする状態判別方法。
The state determination method according to claim 4,
In the calculating step, for at least one of the first arm and the second arm, a value indicating a force or moment applied to the force sensor of the arm is calculated from the deformation amount detected in the detecting step. And
In the determination step, for at least one of the first arm and the second arm, the state of the force sensor of the arm is determined based on a value indicating the force or moment calculated in the calculation step.
A state determination method characterized by the above.
請求項1〜5いずれか一項に記載の状態判別方法であって、
前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、
ことを特徴とする状態判別方法。
A state determination method according to any one of claims 1 to 5,
In the detection step, the deformation amount is detected by photographing the state determination object and identifying a change in the position of the feature point of the state determination object based on the captured image information.
A state determination method characterized by the above.
請求項6に記載の状態判別方法であって、
前記特徴点は、前記剛性体に設定されるものである、
ことを特徴とする状態判別方法。
The state determination method according to claim 6,
The feature point is set to the rigid body.
A state determination method characterized by the above.
請求項1〜7いずれか一項に記載の状態判別方法であって、
前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、
ことを特徴とする状態判別方法。
A state determination method according to any one of claims 1 to 7,
In the calculation step, information for specifying a relationship between a deformation amount of the state determination target object and a force or a moment corresponding to the deformation amount is acquired, and the deformation detected in the detection step based on the acquired information. Calculating the force or moment applied to the force sensor from the quantity,
A state determination method characterized by the above.
請求項1〜8いずれか一項に記載の状態判別方法であって、
前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、
ことを特徴とする状態判別方法。
A state determination method according to any one of claims 1 to 8,
In the determination step, a sensor value output from the force sensor in a state in which the state determination object is deformed in the operation step is acquired, and the acquired sensor value and the force calculated in the calculation step or Determine whether the difference from the value indicating the moment is within a predetermined range,
A state determination method characterized by the above.
請求項3又は4に記載の状態判別方法であって、
前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、
前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、
前記動作ステップでは、
前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、
前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、
前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、
前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、
前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、
前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、
ことを特徴とする状態判別方法。
The state determination method according to claim 3 or 4,
The force sensor is any one or more of first to third axial forces orthogonal to each other and first to third moments around the first to third axial directions. Is to detect
In the object for state determination, the rigid body of the one end surface and the rigid body of the other end surface are formed in parallel to each other,
In the operation step,
With respect to the first axial direction, the arm is operated so that the rigid body on the other end face approaches the rigid body on the one end face while being parallel to the one end face,
With respect to the second axial direction, the arm is operated so that the rigid body on the other end surface moves in the second axial direction while being parallel to the rigid body on the one end surface,
For the third axial direction, the arm is operated so that the rigid body on the other end surface moves in the third axial direction while being parallel to the rigid body on the one end surface,
About the first axis, the arm is operated so that the rigid body of the other end surface rotates with respect to the first axial direction while being parallel to the rigid body of the one end surface,
About the second axis, the arm is operated so that the rigid body on the other end surface rotates based on the second axial direction,
About the third axis, the arm is operated so that the rigid body on the other end surface rotates based on the third axial direction.
A state determination method characterized by the above.
ロボットであって、
アームと、
力覚センサーと、
前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
ことを特徴とするロボット。
A robot,
Arm,
A force sensor,
A control unit that operates the arm and causes the arm to deform a state determination target including an elastic body;
A detection unit for detecting a deformation amount of the object for state determination deformed by the arm;
A calculation unit for calculating a value indicating a force or moment applied to the force sensor from the deformation amount detected by the detection unit;
A determination unit that determines a state of the force sensor based on a value indicating the force or moment calculated by the calculation unit;
A robot characterized by that.
アーム及び力覚センサーを有するロボットの制御装置であって、
前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
ことを特徴とする制御装置。
A control device for a robot having an arm and a force sensor,
A control unit that operates the arm and causes the arm to deform a state determination target including an elastic body;
A detection unit for detecting a deformation amount of the object for state determination deformed by the arm;
A calculation unit for calculating a value indicating a force or moment applied to the force sensor from the deformation amount detected by the detection unit;
A determination unit that determines a state of the force sensor based on a value indicating the force or moment calculated by the calculation unit;
A control device characterized by that.
アーム及び力覚センサーを有するロボットの制御装置のプログラムであって、
前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、
前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、
ことを特徴とするプログラム。
A program for a control device of a robot having an arm and a force sensor,
An operation step of deforming a state determination target including an elastic body by the arm; and
A detection step of detecting a deformation amount of the object for state determination deformed in the operation step;
A calculation step for calculating a value indicating a force or a moment applied to the force sensor from the deformation amount detected in the detection step;
A determination step of determining a state of the force sensor based on a value indicating the force or moment calculated in the calculation step;
A program characterized by that.
JP2012200221A 2012-09-12 2012-09-12 State determination method, robot, control device, and program Expired - Fee Related JP5942720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012200221A JP5942720B2 (en) 2012-09-12 2012-09-12 State determination method, robot, control device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012200221A JP5942720B2 (en) 2012-09-12 2012-09-12 State determination method, robot, control device, and program

Publications (2)

Publication Number Publication Date
JP2014054692A true JP2014054692A (en) 2014-03-27
JP5942720B2 JP5942720B2 (en) 2016-06-29

Family

ID=50612474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012200221A Expired - Fee Related JP5942720B2 (en) 2012-09-12 2012-09-12 State determination method, robot, control device, and program

Country Status (1)

Country Link
JP (1) JP5942720B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9492925B2 (en) 2013-10-10 2016-11-15 Seiko Epson Corporation Robot controller, robot system, robot, robot control method, and program
WO2019211892A1 (en) * 2018-05-01 2019-11-07 日産自動車株式会社 Malfunction determination device, malfunction determination system, and malfunction determination method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11237296A (en) * 1998-02-23 1999-08-31 Fanuc Ltd Calibration method of force sensor fitted to robot and robot
DE19960482A1 (en) * 1999-12-15 2001-06-21 Peter Giesecke Calibration unit for multicomponent force and torque sensor, e.g. for robotic system, has sensor that has already been calibrated connected to sensor to be calibrated and compares sensor data
JP2009145085A (en) * 2007-12-11 2009-07-02 Univ Of Tsukuba Three-dimensional tactile sensor and three-dimensional tactile sensing method
JP2012013537A (en) * 2010-06-30 2012-01-19 Canon Inc Method of calibrating force sensor
JP2012139776A (en) * 2010-12-28 2012-07-26 Kawasaki Heavy Ind Ltd Work quality determination system and quality determination method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11237296A (en) * 1998-02-23 1999-08-31 Fanuc Ltd Calibration method of force sensor fitted to robot and robot
DE19960482A1 (en) * 1999-12-15 2001-06-21 Peter Giesecke Calibration unit for multicomponent force and torque sensor, e.g. for robotic system, has sensor that has already been calibrated connected to sensor to be calibrated and compares sensor data
JP2009145085A (en) * 2007-12-11 2009-07-02 Univ Of Tsukuba Three-dimensional tactile sensor and three-dimensional tactile sensing method
JP2012013537A (en) * 2010-06-30 2012-01-19 Canon Inc Method of calibrating force sensor
JP2012139776A (en) * 2010-12-28 2012-07-26 Kawasaki Heavy Ind Ltd Work quality determination system and quality determination method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9492925B2 (en) 2013-10-10 2016-11-15 Seiko Epson Corporation Robot controller, robot system, robot, robot control method, and program
WO2019211892A1 (en) * 2018-05-01 2019-11-07 日産自動車株式会社 Malfunction determination device, malfunction determination system, and malfunction determination method
JPWO2019211892A1 (en) * 2018-05-01 2021-05-13 日産自動車株式会社 Abnormality judgment device, abnormality judgment system and abnormality judgment method
US11931904B2 (en) 2018-05-01 2024-03-19 Nissan Motor Co., Ltd. Abnormality determination apparatus, abnormality determination system, and abnormality determination method

Also Published As

Publication number Publication date
JP5942720B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20150127141A1 (en) Robot, control device, robot system and robot control method
US11685042B2 (en) Working robot and control method for working robot
US9869597B1 (en) Compound strain gage carrier for multi-axis force/torque sensing
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
US10583555B2 (en) System and method for determining tool offsets
JP6996113B2 (en) Robot control methods, robot systems and controls
US20150234375A1 (en) Tool coordinate system correcting method of robot system, and robot system
JP4643619B2 (en) Robot controller
US10882182B2 (en) Robot apparatus, control method of robot apparatus, and recording medium
JP2014018931A (en) Control system, program and control method of machinery
US20170066137A1 (en) Control device, robot, and robot system
JP6003312B2 (en) Robot system
JP2015085479A (en) Robot, control device, robot system and robot control method
CN111531533A (en) Zero point correction and gravity compensation method for six-dimensional force sensor
JP5787646B2 (en) Robot system and component manufacturing method
JP5942720B2 (en) State determination method, robot, control device, and program
Sharifzadeh et al. On human–robot interaction of a 3-DOF decoupled parallel mechanism based on the design and construction of a novel and low-cost 3-DOF force sensor
JP2015085499A (en) Robot, robot system, control device and control method
JP6322948B2 (en) Robot control apparatus, robot system, robot, robot control method, and program
JP7392154B2 (en) robot control device
CN114791333A (en) Force sensor measurement coordinate system calibration method, device, equipment and storage medium
JP2015085480A (en) Robot, control device, robot system, robot control method and program
JP2004160614A (en) Automatic task teaching system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5942720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees