JP2014054692A - State discrimination method, robot, control device, and program - Google Patents
State discrimination method, robot, control device, and program Download PDFInfo
- Publication number
- JP2014054692A JP2014054692A JP2012200221A JP2012200221A JP2014054692A JP 2014054692 A JP2014054692 A JP 2014054692A JP 2012200221 A JP2012200221 A JP 2012200221A JP 2012200221 A JP2012200221 A JP 2012200221A JP 2014054692 A JP2014054692 A JP 2014054692A
- Authority
- JP
- Japan
- Prior art keywords
- state determination
- arm
- force sensor
- force
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、状態判別方法、ロボット、制御装置、及びプログラムに関する。 The present invention relates to a state determination method, a robot, a control device, and a program.
例えばワークやエンドエフェクターの破損を防止するため、力覚センサーを備えたロボットが知られている。一般的に、力覚センサーは、過大な負荷や経年変化などにより検出精度が低くなることがあるため、校正を必要とする。 For example, a robot equipped with a force sensor is known in order to prevent damage to a workpiece or an end effector. In general, a force sensor needs to be calibrated because detection accuracy may be lowered due to an excessive load or aging.
例えば、特許文献1には、測定時に、一対のエンドエフェクターを当接させ、一方のエンドエフェクターに対応する校正済みの力覚センサーの測定値に基づいて、他方の校正対象のエンドエフェクターに作用している力を示す値を算出し、他方の校正対象のエンドエフェクターに対応する力覚センサーの測定値が、前記算出した力を示す値と同一になるように変換データを更新する、力覚センサーの校正方法が記載されている。 For example, in Patent Document 1, a pair of end effectors are brought into contact with each other at the time of measurement, and act on the other end effector to be calibrated based on the measured value of a calibrated force sensor corresponding to one end effector. A force sensor that calculates a value indicating the force being updated and updates the conversion data so that the measured value of the force sensor corresponding to the other end effector to be calibrated is the same as the value indicating the calculated force The calibration method is described.
しかし、上記の特許文献1は、測定時に一方のエンドエフェクターの力覚センサーは校正済みであることが前提であり、当該一方の力覚センサーが正常に動作しているか否かを判別することはできない。従って、当該一方の力覚センサーが正常に動作するように事前にユーザーの作業が必要であり、ユーザーの作業負担が発生する。また、そもそも当該一方の力覚センサーの校正が適切でなかった場合に、他方のエンドエフェクターの力覚センサーが正常に動作しているか否かを判別することもできない。 However, the above Patent Document 1 is based on the premise that the force sensor of one end effector is already calibrated at the time of measurement, and it is not possible to determine whether or not the one force sensor is operating normally. Can not. Therefore, a user's work is required in advance so that the one force sensor operates normally, and a user's work load is generated. In the first place, when the calibration of one of the force sensors is not appropriate, it cannot be determined whether or not the force sensor of the other end effector is operating normally.
また、上記の特許文献1では、測定時に一対のエンドエフェクターを互いに当接させている。そのため、力覚センサーやエンドエフェクターに、過度の力が加わるおそれがある。場合によっては、力覚センサーやエンドエフェクターが破損するおそれがある。 Moreover, in said patent document 1, a pair of end effector is mutually contact | abutted at the time of a measurement. Therefore, an excessive force may be applied to the force sensor and the end effector. In some cases, the force sensor or the end effector may be damaged.
そこで、本発明は、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することを目的とする。 Therefore, an object of the present invention is to prevent an excessive force from being applied to the force sensor or the like and to easily determine the state of the force sensor.
本願は、上記課題を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving the above-described problems, and examples thereof are as follows.
上記の課題を解決する本発明の第一の態様は、アーム及び力覚センサーを有するロボットの状態を判別する状態判別方法であって、弾性体を含んで構成される状態判別用対象物を用いるものであり、前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、ことを特徴とする。 A first aspect of the present invention that solves the above problem is a state determination method for determining a state of a robot having an arm and a force sensor, and uses a state determination target including an elastic body. An operation step of operating the robot to deform the state determination target object by the arm; a detection step of detecting a deformation amount of the state determination target object deformed in the operation step; Based on the calculation step for calculating a value indicating the force or moment applied to the force sensor from the deformation amount detected in the detection step, and based on the value indicating the force or moment calculated in the calculation step, And a discrimination step of discriminating the state of the sense sensor.
上記の構成によれば、弾性部材を含む状態判別用対象物に力覚センサー等を接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。 According to said structure, in order to discriminate | determine the state of a force sensor by making a force sensor etc. contact the state discrimination target object containing an elastic member, it is made not to apply excessive force to a force sensor etc. At the same time, the state of the force sensor can be easily determined.
ここで、前記状態判別用対象物は、さらに剛性体を含んで構成されており、前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。 Here, the object for state determination further includes a rigid body, and in the operation step, the arm is brought into contact with the rigid body of the object for state determination and the state determination is performed by the arm. The object may be deformed.
上記の構成によれば、剛性体により、アームによる外力を状態判別用対象物に対して掛け易くなる。 According to said structure, it becomes easy to apply the external force by an arm with respect to the object for state determination with a rigid body.
また、前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。 The state determining object is configured such that both end surfaces of the elastic body are sandwiched between the rigid bodies. In the operation step, the rigid body on one end surface of the state determining object is In a state where the position and orientation are fixed, the arm may be brought into contact with the rigid body on the other end surface of the state determining object, and the state determining object may be deformed by the arm. .
上記の構成によれば、剛性体により、状態判別用対象物を安定した状態で固定あるいは支持することができるとともに、アームによる外力を状態判別用対象物に対して掛け易くなる。 According to the above configuration, the rigid body can fix or support the state determination target object in a stable state, and can easily apply an external force from the arm to the state determination target object.
また、前記ロボットは、前記アームを複数有し、前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。 The robot has a plurality of the arms, and in the operation step, the position and orientation of the rigid body on the one end surface are fixed by a first arm among the plurality of arms, and the plurality of arms It is good also as making the said 2nd arm contact the said rigid body of said other end surface, and deform | transforming the said object for state determination with said 2nd arm.
上記の構成によれば、状態判別用対象物を床などに置く場合と比べて、状態判別用対象物を第一のアームにより確実に固定して、状態判別を行うことができる。 According to said structure, compared with the case where the state determination target object is set | placed on a floor etc., a state determination target object can be reliably fixed with a 1st arm, and state determination can be performed.
また、前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、ことを特徴としてもよい。 In the calculation step, a value indicating a force or moment applied to the force sensor of the arm from the deformation amount detected in the detection step for at least one of the first arm and the second arm. In the determination step, for at least one of the first arm and the second arm, based on a value indicating the force or moment calculated in the calculation step, the state of the force sensor of the arm It is good also as a feature to discriminate | determine.
上記の構成によれば、前記第一のアーム及び前記第二のアームの両方について、並列的に状態判別を行うことができるため、状態判別に掛かる時間を短縮することができる。 According to the above configuration, the state determination can be performed in parallel for both the first arm and the second arm, so that the time required for the state determination can be reduced.
また、前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、ことを特徴としてもよい。 Further, in the detection step, the deformation amount is detected by photographing the state determination object and identifying a change in a position of a feature point of the state determination object based on the captured image information. This may be a feature.
上記の構成によれば、より簡単に状態判別用対象物の変化量を検出することができる。 According to said structure, the variation | change_quantity of the object for state determination can be detected more easily.
また、前記特徴点は、前記剛性体の少なくとも一部分に設定されるものである、ことを特徴としてもよい。 The feature point may be set in at least a part of the rigid body.
上記の構成によれば、特徴点の位置及び向きが剛性体の位置及び向きと一体的に変化するため、変形量の特定がし易くなる。 According to said structure, since the position and direction of a feature point change integrally with the position and direction of a rigid body, it becomes easy to specify the deformation amount.
また、前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、ことを特徴としてもよい。 In the calculation step, information for specifying a relationship between the deformation amount of the state determination target object and a force or a moment corresponding to the deformation amount is acquired, and the detection step detects the information based on the acquired information. A force or moment applied to the force sensor may be calculated from the deformation amount.
上記の構成によれば、変形量から力覚センサーに加わっている力又はモーメントを簡単に求めることができる。 According to the above configuration, the force or moment applied to the force sensor can be easily obtained from the deformation amount.
また、前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、ことを特徴としてもよい。 In the determination step, a sensor value output from the force sensor in a state in which the state determination target object is deformed in the operation step is acquired, and the acquired sensor value and the calculation step are calculated. It may be characterized by determining whether or not a difference from a value indicating a force or a moment is within a predetermined range.
上記の構成によれば、実際の力覚センサーのセンサー値に基づいて力覚センサーの状態を判別することができる。 According to said structure, the state of a force sensor can be discriminate | determined based on the sensor value of an actual force sensor.
また、前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、前記動作ステップでは、前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、ことを特徴としてもよい。 The force sensor is any one of first to third axial forces orthogonal to each other, and moments about first to third axes that are about the first to third axial directions. The state determining object is configured such that the rigid body on the one end surface and the rigid body on the other end surface are formed in parallel to each other. In the operation step, With respect to one axial direction, the arm is operated so that the rigid body on the other end surface approaches the rigid body on the one end surface in parallel, and the other end surface with respect to the second axial direction. The arm is operated so that the rigid body of the first end surface moves in the second axial direction while being parallel to the rigid body of the one end surface, and the third end of the other end surface is moved in the third axial direction. A rigid body is connected to the rigid body on the one end surface. The arm is operated so as to move in the third axial direction in a row, and the rigid body on the other end surface is parallel to the rigid body on the one end surface about the first axis. The arm is operated so as to rotate with reference to the first axial direction, and the rigid body on the other end surface rotates with respect to the second axial direction around the second axis. The arm is operated, and the arm is operated so that the rigid body on the other end surface rotates around the third axis with reference to the third axial direction. It is good.
上記の構成によれば、力覚センサーの状態判別対象の力又はモーメントに応じて、状態判別用対象物を変形させることができる。 According to said structure, according to the force or moment of the state determination object of a force sensor, the state determination target object can be deformed.
上記の課題を解決する本発明の第二の態様は、ロボットであって、アームと、力覚センサーと、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。 A second aspect of the present invention that solves the above-described problem is a robot for state determination, in which an arm, a force sensor, and the arm are operated, and the arm includes an elastic body. A control unit that deforms the object, a detection unit that detects a deformation amount of the state determination object deformed by the arm, and the deformation amount detected by the detection unit are added to the force sensor. A calculation unit that calculates a value indicating a force or a moment; and a determination unit that determines a state of the force sensor based on the value indicating the force or the moment calculated by the calculation unit. To do.
上記の構成によれば、ロボットにおいて、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。 According to the above configuration, in the robot, an excessive force is not applied to the force sensor or the like, and the state of the force sensor can be easily determined.
上記の課題を解決する本発明の第三の態様は、アーム及び力覚センサーを有するロボットの制御装置であって、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。 A third aspect of the present invention that solves the above problem is a robot control device having an arm and a force sensor, wherein the arm is operated and the arm includes an elastic body. A control unit that deforms the object for determination, a detection unit that detects the deformation amount of the object for state determination deformed by the arm, and the deformation sensor detected by the detection unit are added to the force sensor. A calculation unit that calculates a value indicating the force or moment that is present, and a determination unit that determines the state of the force sensor based on the value indicating the force or moment calculated by the calculation unit. Features.
上記の構成によれば、制御装置において、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。 According to the above configuration, in the control device, it is possible to prevent an excessive force from being applied to the force sensor or the like and to easily determine the state of the force sensor.
上記の課題を解決する本発明の第四の態様は、アーム及び力覚センサーを有するロボットの制御装置のプログラムであって、前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、ことを特徴とする。 A fourth aspect of the present invention that solves the above-described problem is a program for a robot control device having an arm and a force sensor, wherein the arm includes a state determination target including an elastic body. An operation step for deforming, a detection step for detecting a deformation amount of the object for state determination deformed in the operation step, and a force applied to the force sensor from the deformation amount detected in the detection step, or Causing the control device to execute a calculation step for calculating a value indicating a moment, and a determination step for determining a state of the force sensor based on the value indicating the force or the moment calculated in the calculation step. It is characterized by.
上記の構成によれば、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる制御装置を実現できる。 According to the above configuration, it is possible to realize a control device that prevents excessive force from being applied to the force sensor or the like and can easily determine the state of the force sensor.
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
<<第一実施形態>>
以下、本発明の第一実施形態について、図面を参照して説明する。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係るロボットシステム1の一例を示す概略図である。本図に示すように、ロボットシステム1は、制御装置10と、ロボット20と、撮影装置30と、を備える。また、ロボットシステム1は、ロボット20の力覚センサー25の状態(例えば、正常か異常か)を判別するため、状態判別用対象物40を用いる。
FIG. 1 is a schematic diagram illustrating an example of a robot system 1 according to an embodiment of the present invention. As shown in the figure, the robot system 1 includes a
制御装置10は、ロボット20の動作を制御する。制御装置10は、有線又は無線により、ロボット20及び撮影装置30と通信可能に接続されている。
The
制御装置10は、例えば、撮影装置30から画像情報を取得し、画像認識によって作業対象物(以下、「ワーク」ともいう。ワークには、「状態判別用対象物」も含まれる。)を認識する。また、例えば、認識したワークに対するロボット20の一連の動作を決定する。また、例えば、ロボット20の力覚センサー25、他のセンサー(不図示)、エンコーダー(不図示)の出力信号に基づいて、ロボット20のアーム21(21a、21b)、エンドエフェクター26等が目的の位置及び向きとなるように、ロボット20を制御する。
For example, the
本実施形態では、制御装置10は、作業を開始する前などの所定のタイミングで、状態判別用対象物40を用いることにより、ロボット20の力覚センサー25の状態を判別する。つまり、力覚センサー25に異常がないかをチェックする。
In the present embodiment, the
ロボット20は、ロボット本体に、2本のアーム21(21a、21b)が取り付けられている。アーム21の先端部には、力覚センサー25が取り付けられており、当該力覚センサー25を介してエンドエフェクター26を着脱可能である。エンドエフェクター26は、例えば、ハンドであり、ワークを直接持って作業したり、電動ドライバーなどの工具を持ってワークに対して作業を行ったりするものである。
The
なお、本実施形態では、力覚センサー25の状態判別の際には、エンドエフェクター26は、アーム21から取り外される。
In the present embodiment, the
アーム21は、複数のジョイント22と、複数のリンク23とを有する。各ジョイント22は、ロボット本体とリンク23や、リンク23どうし、リンク23とエンドエフェクター26を、回動自在に(ただし、所定の可動範囲内で回動可能に)連結する。各ジョイント22は、例えば、回転ジョイントであり、リンク間の角度を変化させたり、リンクを軸回転させたりできるように設けられている。
The
ロボット20は、各ジョイント22を連動させて駆動することにより、アーム21の先端部を、自在に(ただし、所定の可動範囲内で)移動させることができるとともに、自由な方向へ向けることもできる。アーム21は、例えば、7つのジョイントを有する7軸アームとすることができる。
The
なお、ロボット20の可動部分には、アクチュエーターやセンサー(不図示)が設けられている。アクチュエーターには、例えば、モーター、当該モーターの駆動回路、エンコーダーなどが含まれる。エンコーダーが出力するエンコーダー値や、センサーが出力するセンサー値は、可動部分の動作を制御するために制御装置10に出力される。
Note that actuators and sensors (not shown) are provided on the movable part of the
力覚センサー25は、例えば、図2(力覚センサー25が検出する力及びモーメントを説明する図)に示すような、六軸の力覚センサーである。すなわち、力覚センサー25は、互いに直交する三つの力成分Fx、Fy、Fz、及びそれらの軸回りの三つの力のモーメント成分Mx、My、Mzを検出する。なお、互いに直交する軸を第一〜第三の軸とすると、力成分Fzは第一の軸の方向の力であり、力成分Fxは第二の軸の方向の力、力成分Fyは第三の軸の方向の力である。また、力のモーメント成分Mzは第一の軸の周りのモーメントであり、力のモーメント成分Mxは第二の軸の周りのモーメント、力のモーメント成分Myは第三の軸の周りのモーメントである。
The
本実施形態では、エンドエフェクター26を装着していない状態のアーム21の先端部に位置する力覚センサー25を、状態判別用対象物40の所定の位置に接触させて力又はモーメントを加えることにより、状態判別用対象物40を変形させる。そのため、状態判別用対象物40に接触させる力覚センサー25の端面は、平面状に形成されている。
In the present embodiment, the
なお、本実施形態では、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせるようにする。
In the present embodiment, when the
上記のロボット20の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的な把持ロボットが備える構成を排除するものではない。例えば、軸数(ジョイント数)やリンクの数を増減させてもよい。また、アーム、エンドエフェクター、リンク、ジョイント、力覚センサー等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
The configuration of the
図1に戻って、撮影装置30は、作業空間を撮影して、画像データを生成する。撮影装置30は、例えば、カメラを含んで構成される。撮影装置30は、例えば、制御装置10の制御により、ワークなどを含む作業空間を撮影し、画像データを生成し、制御装置10に出力する。設置場所は、特に限定されず、例えば、床の上、作業台の上、天井、壁などとすることができる。もちろん、撮影装置30は、撮影範囲や撮影方向に応じて複数台設けられていてもよい。
Returning to FIG. 1, the
状態判別用対象物40は、力覚センサー25の状態を判別するために用いられる道具(「工具」、「治具」と呼ぶこともできる。)である。状態判別用対象物40は、例えば、図3(状態判別用対象物40の一例を示す図)に示される。図3は、状態判別用対象物40の外観の斜視図である。
The
状態判別用対象物40は、全体として立方体状であり、立方体状の弾性部材41と、当該弾性部材41の平行な両端面に設けられた平板状の剛性部材42(42a、42b)とから構成される。なお、本願でいう「平行」には、平行状態と、ほぼ平行な状態とが含まれる。
The
本実施形態では、アーム21の先端部が剛性部材42に対して接触して力又はモーメントを加えることにより、弾性部材41を変形させる。そして、剛性部材42a及び剛性部材42bに設定された特徴点の位置関係に基づいて、状態判別用対象物40の変形量を算出する。
In the present embodiment, the
そのため、状態判別用対象物40は、弾性部材41と剛性部材42により構成されている。弾性部材41には、変形量を精度よく算出できかつ繰り返し使用できるように、例えば、可逆変形性を有するゴム、樹脂などを用いることができる。剛性部材42には、力又はモーメントによりなるべく変形しないように、例えば、弾性部材41より硬いゴム、金属、樹脂などを用いることができる。
Therefore, the
剛性部材42により、状態判別用対象物40を安定した状態で固定あるいは支持することができるとともに、力又はモーメントを掛けやすくなる。また、剛性部材42に特徴点を設定することで、特徴点の位置及び向きが剛性部材42の位置及び向きと一体的に変化するため、後述する変形量の特定がし易くなる。
The rigid member 42 can fix or support the
なお、上記の図3の状態判別用対象物40は、一例であり、後述する力覚センサー25の状態判別を実現できれば、その構成、材質、形状等は限定されるものではない。例えば、全体を弾性部材で構成するようにしてもよいし、剛性部材42に替えて弾性部材41よりも硬い弾性部材を用いるようにしてもよい。この場合、特徴点は、当該硬い弾性部材に設定すればよい。また、例えば、形状は、直方体状、円柱状などにしてもよい。
3 is an example, and the configuration, material, shape, and the like are not limited as long as the state determination of the
上記の図1のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、一般的なロボットシステムが備える構成を排除するものではない。例えば、制御装置10は、ロボット20に含まれていてもよい。また、例えば、撮影装置30は、制御装置10又はロボット20に含まれていてもよい。
The configuration of the robot system 1 in FIG. 1 described above is the main configuration in describing the features of the present embodiment, and does not exclude the configuration of a general robot system. For example, the
図4は、ロボットシステム1の機能構成の一例を示すブロック図である。 FIG. 4 is a block diagram illustrating an example of a functional configuration of the robot system 1.
ロボット20は、可動部200と、動作制御部210と、を備える。
The
可動部200は、位置および向き(「姿勢」ともいう。)などの変更が可能な部位である。可動部200には、例えば、アーム21、ジョイント22、リンク23、エンドエフェクター26が含まれる。また、可動部200に関連するユニット、例えば、アクチュエーター(モーター、エンコーダー等)、各種センサー(力覚センサー25等)も含まれるものとする。
The
動作制御部210は、制御装置10からの制御命令に従って、可動部200の位置及び向きを変化させる。なお、動作制御部210は、直接的にはモーターの回転等を制御することで、間接的にジョイント22を回転させ、可動部200の位置及び向きを変化させる。また、動作制御部210は、力覚センサー25その他センサーからそのセンサー値を取得し、制御装置10に出力する。また、動作制御部210は、エンコーダーからそのエンコーダー値を取得し、制御装置10に出力する。
The
制御装置10は、制御部100と、記憶部110と、を備える。
The
記憶部110には、力覚センサー25から掛かる外力(力及びモーメントを含む)により生じる状態判別用対象物40の変形量を、力覚センサー25に対する状態判別用対象物40の応力(力及びモーメントを含む)に変換するために用いる変換情報が格納される。
The
変換情報は、例えば、図5(変換テーブル1100の一例を示す図)に示すような、テーブルとして構成することができる。変換テーブル1100には、6軸の成分(Fx、Fy、Fz、Mx、My、Mz)1101ごとに、当該成分の変換情報が含まれている。各成分1101の変換情報には、当該成分に対応する変形量を示す値(変形量)1102と、各変形量を示す値に対応する応力を示す値(応力)1103とを関連付けたレコードが含まれている。
The conversion information can be configured as a table as shown in FIG. 5 (a diagram showing an example of the conversion table 1100), for example. The conversion table 1100 includes conversion information for each of the six-axis components (Fx, Fy, Fz, Mx, My, Mz) 1101. The conversion information of each
成分1101は、力覚センサー25の各成分に対応するものである。変形量1102は、状態判別用対象物40に対して特定の量(大きさ)の力又はモーメントを加えることにより、状態判別用対象物40に生じる変形の量(大きさ)を数値化したものである。応力1103は、当該変形を生じさせる外力に対して生じる応力の量(大きさ)を数値化したものである。なお、本実施形態では、外力と応力は等しいものとして扱う。
The
上記の変換情報は、例えば、実験により、各成分の変形を生じさせ、その変形量及び対応する応力を計測することにより、事前に作成することができる。以下、上記の変換情報の作成方法の一例を、図8〜11を参照して具体的に説明する。 The conversion information can be created in advance, for example, by causing deformation of each component by experiment and measuring the deformation amount and the corresponding stress. Hereinafter, an example of a method for creating the conversion information will be specifically described with reference to FIGS.
図8〜11は、状態判別用対象物40の剛性部材42bの端面が床などの平らな面に接するように置いた状態で、側面から見た状態を示している。また、特徴点を、剛性部材42aの側面の両端(P1、P3)及び中央(P2)と、剛性部材42bの側面の両端(P4、P6)及び中央(P5)とに設定する。
8 to 11 show a state viewed from the side surface in a state where the end surface of the
また、状態判別用対象物40全体になるべく均一な力が加わるように、例えば、力覚センサー25の端面の重心などに設定された作業点WP(図2参照)と、剛性部材42aの端面の重心に設定された目標点CP(図3参照)とが合うように、力覚センサー25と剛性部材42aを接触させる。各図の(A)は、状態判別用対象物40の変形前の状態を示し、各図の(B)は、状態判別用対象物40の変形後の状態を示している。
Further, for example, the working point WP (see FIG. 2) set at the center of gravity of the end surface of the
なお、上記の変換情報を作成する場合は、力覚センサー25の状態は正常であり、かつ、適切に校正されているものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)して計測を行うものとする。
In addition, when producing said conversion information, the state of the
<Fz成分>
図8(Fzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFz方向の直線距離D1及びD2の差分を、Fz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFz方向の力を掛けることにより、Fz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFz成分の変換情報を作成する。
<Fz component>
As shown in FIG. 8 (a diagram illustrating the operation of the
<Fx(又はFy)成分>
FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図9(Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5のFx(又はFy)方向の直線距離D3及びD4の差分を、Fx(又はFy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx(又はFy)方向の力を掛けることにより、Fx(又はFy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFx(又はFy)成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Fx(又はFy)方向の力を掛ける。
<Fx (or Fy) component>
Since Fx and Fy are orthogonal directions, they are the same except that different side surfaces forming the corners of the
<Mz成分>
図10(Mzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFx又はFy方向の直線距離D5及びD6の差分(又は当該差分を回転角度に換算したもの)を、Mz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにMz回転方向のモーメントを掛けることにより、Mz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMz成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Mz回転方向のモーメントを掛ける。
<Mz component>
As shown in FIG. 10 (a diagram illustrating the operation of the
<Mx(又はMy)成分>
Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図11(Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P3とP4の間のFz方向の直線距離D7及びD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx軸(又はFy軸)を基準にMx(又はMy)回転方向のモーメントを掛けることにより、Mx(又はMy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMx(又はMy)成分の変換情報を作成する。
<Mx (or My) component>
Since Fx, which is the axis of Mx, and Fy, which is the axis of My, are orthogonal to each other, they are the same except that different side surfaces forming the corners of the
上記の変換情報の構成、変換情報の作成方法は一例であり、変形量に応じた応力を求めることができれば、上記の構成、作成方法に限られない。例えば、特徴点の位置、変形量の定義などは、図示した例に限られない。また、変換情報の作成の際に、実際にロボットを使わなくてもよく、例えば、ロボットの代わりになる工具やセンサーなどを使うようにしてもよい。また、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて、各成分の変形量と応力の関係式を導き出し、この関係式に基づいて、変換情報を作成するようにしてもよい。
The configuration of the conversion information and the creation method of the conversion information are examples, and the configuration and the creation method are not limited as long as the stress corresponding to the deformation amount can be obtained. For example, the position of the feature point, the definition of the deformation amount, and the like are not limited to the illustrated example. Further, when creating the conversion information, it is not necessary to actually use a robot. For example, a tool or a sensor that replaces the robot may be used. Further, for example, a relational expression between the deformation amount and stress of each component is derived based on values such as the Young's modulus and rigidity of the
図4に戻って、制御部100は、制御装置10を統括的に制御する。制御部100は、画像取得部101と、ロボット制御部102と、変形量検出部103と、応力算出部104と、状態判別部105と、通知部106と、を備える。
Returning to FIG. 4, the
画像取得部101は、撮影装置30を制御して、状態判別用対象物40を含む作業空間の画像情報を取得する。
The
ロボット制御部102は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。状態判別用対象物40の検出方法は、特に限られず、既存の様々な画像認識技術を用いることができる。例えば、状態判別用対象物40の特徴点を抽出し、マッチング処理により、状態判別用対象物40を認識することができる。
The
また、ロボット制御部102は、ロボット20に対して、その動作を制御する制御命令を生成し、出力する。例えば、ロボット制御部102は、力覚センサー25を状態判別用対象物40の剛性部材42に接触させ、さらに、各成分(Fx、Fy、Fz、Mx、My、Mz)の外力が掛かるように、可動部200の動作を制御する。また、ロボット制御部102は、力覚センサー25のセンサー値を取得し、状態判別部105に出力する。
Further, the
変形量検出部103は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。また、変形量検出部103は、ロボット20が状態判別用対象物40に対して与えた外力の成分を特定し、状態判別用対象物40の変形前後の形状から、特定した成分に対応する変形量を求める。
The deformation
応力算出部104は、変換テーブル1100を参照し、状態判別用対象物40に与えられた外力に対応する成分1101の変換情報から、変形量検出部103が検出した変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。
The
状態判別部105は、ロボット20により状態判別用対象物40が変形されているときの力覚センサー25のセンサー値を、ロボット制御部102を介して取得する。また、応力算出部104が算出した応力を取得する。
The
また、状態判別部105は、取得したセンサー値と取得した応力との差分を求め、当該差分が所定の閾値以下であるかを判別する。当該所定の閾値は、力覚センサー25の検出精度が適切であるか否か(正常に動作しているか否か)を判別するための値である。当該差分が所定の閾値以下であれば、正常であると判別する。当該所定の閾値は、力覚センサー25の各成分に共通に一つ用意されていてもよいし、少なくとも一部の成分で異なる値が用意されていてもよい。
In addition, the
なお、理想的には、力覚センサー25が正常であれば、状態判別用対象物40の変形量から算出する応力と、力覚センサー25が検出する力とは、一致する。これを前提として、変形量の検出の誤差等の許容度を考慮して、上記のような所定の閾値を用いた判定を行うようにしている。
Ideally, if the
通知部106は、状態判別部105の判別結果を示す情報を出力する。出力先は、例えば、ディスプレイ、記憶装置、外部装置などである。
The
上述した制御装置10は、例えば、図6(コンピューター50のハードウェア構成の一例を示すブロック図)に示すような、CPU(Central Processing Unit)501と、メモリー502と、HDD(Hard Disk Drive)等の外部記憶装置503と、有線又は無線により通信ネットワークやロボットに接続するための通信装置504と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置505と、液晶ディスプレイなどの出力装置506と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置507と、外部機器と接続するUSB(Universal Serial Bus)などのインターフェイス装置508と、を備えるコンピューター50で実現できる。
The
例えば、記憶部110は、CPU501がメモリー502又は外部記憶装置503を利用することにより実現可能である。制御部100は、外部記憶装置503に記憶されている所定のプログラムをメモリー502にロードしてCPU501で実行することで実現可能である。制御部100と撮影装置30との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。制御部100とロボット20との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。
For example, the
上記の所定のプログラムは、通信装置504を介してネットワークから、外部記憶装置503にダウンロードされ、それから、メモリー502上にロードされてCPU501により実行されるようにしてもよい。また、通信装置504を介してネットワークから、メモリー502上に直接ロードされ、CPU501により実行されるようにしてもよい。また、コンピューター50が、読み書き装置507にセットされた記憶媒体、又はインターフェイス装置508に接続された記憶媒体から、上記の所定のプログラムを、外部記憶装置503あるいはメモリー502にロードするようにしてもよい。
The predetermined program may be downloaded from the network to the
上記の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。 The above functional configuration is classified according to the main processing contents in order to facilitate understanding of the configuration of the robot system 1. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the robot system 1 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.
例えば、制御装置10の少なくとも一部の機能は、ロボット20に含まれるようにしてもよい。この場合、撮影装置30は、制御装置10ではなくロボット20に接続されるようにしてもよいし、ロボット20に内蔵されるようにしてもよい。また、例えば、記憶部110を、制御装置10、及びロボット20の外部装置として用意するようにしてもよい。
For example, at least a part of the functions of the
次に、上記のロボットシステム1で行われる、力覚センサー25の状態判別方法について説明する。
Next, a method for determining the state of the
本実施形態の状態判別方法では、状態判別対象の力覚センサー25を有するアーム21から、エンドエフェクター26を取り外しておく。また、状態判別用対象物40は、一方の剛性部材42bの端面が床などの平らな面に接するように置く。また、状態判別対象の力覚センサー25を、状態判別用対象物40の他方の剛性部材42aの端面に接触させることで、当該力覚センサー25の状態判別を行う。また、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせる。
In the state determination method of this embodiment, the
図7は、状態判別処理の一例を示すフロー図である。本フローは、力覚センサー25が検出可能な成分ごとの処理を示している。状態判別対象の成分は、例えば、ユーザーにより、指定されるものとする。
FIG. 7 is a flowchart showing an example of the state determination process. This flow shows processing for each component that can be detected by the
ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S10)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42aの端面に対して、状態判別対象の力覚センサー25の端面が平行に向かい合って接触する、アーム21の先端部の作業点WPの位置及び向きを求める(S20)。ここでは、剛性部材42aの目標点CPと合う作業点WPの位置及び向きを求める。
The
また、ロボット制御部102は、作業点WPを、ステップS20で求めた位置及び向きへ移動するための軌道を生成する(S30)。そして、ロボット制御部102は、ステップS30で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、力覚センサー25の端面を剛性部材42aの端面に接触させる(S40)。なお、この状態では、状態判別用対象物40が変形しない程度に接触させるものとする。
In addition, the
上記のステップS10〜S40は、各成分で共通の処理である。ステップS50〜S110は、各成分で共通的に説明した後、各成分の場合について具体例を用いて説明する。 The above steps S10 to S40 are processes common to the respective components. Steps S50 to S110 will be described in common for each component, and then the case of each component will be described using a specific example.
ロボット制御部102は、力覚センサー25の状態判別対象の成分に応じて、状態判別用対象物40を変形させる作業点WPの軌道を生成する(S50)。そして、ロボット制御部102は、ステップS50で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、状態判別用対象物40を変形させる(S60)。
The
変形量検出部103は、ステップS60で変形した状態の状態判別用対象物40を含む画像情報を画像取得部101から取得し、当該画像情報から認識した状態判別用対象物40の形状(変形後の形状)と、変形前の形状とを比較し、力覚センサー25の状態判別対象の成分に対応する成分の変形量を求める(S70)。
The deformation
それから、応力算出部104は、変換テーブル1100を参照し、力覚センサー25の状態判別対象の成分に対応する成分1101の変換情報から、ステップS70で変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する(S80)。
Then, the
それから、状態判別部105は、ステップS60で状態判別用対象物40が変形している状態での、力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する(S90)。
Then, the
そして、状態判別部105は、ステップS90で取得したセンサー値と、ステップS89で算出された応力との差分を求め、当該差分が、状態判別対象の成分に対応する所定の閾値以下であるかを判定する(S100)。
Then, the
センサー値と応力の差分が所定の閾値を超える場合(S100:N)、通知部106は、例えば、表示装置や他の装置に、力覚センサー25に異常がある旨を出力する。なお、例えば、異常と判別された力覚センサー25を識別する情報(例えば、右腕、左腕などの位置)を出力してもよい。また、例えば、異常と判別された成分(例えば、Fx、Fyなど)を出力してもよい。
When the difference between the sensor value and the stress exceeds a predetermined threshold (S100: N), for example, the
センサー値と応力の差分が所定の閾値以下である場合(S100:Y)、制御装置10は、本フローを終了する。なお、この場合、通知部106は、力覚センサー25が正常である旨を出力してもよい。
When the difference between the sensor value and the stress is equal to or smaller than the predetermined threshold (S100: Y), the
各成分の状態判別の方法の一例を、図8〜11を参照して具体的に説明する。なお、画像取得部101は、変形量を適切に算出するため、変形量の算出に必要な特徴点が画像情報に含まれるように、撮影装置30を制御して画像情報を取得するものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)アーム21を動作させるものとする。
An example of a method for determining the state of each component will be specifically described with reference to FIGS. Note that, in order to appropriately calculate the deformation amount, the
<Fzの場合>
図8は、Fzのアーム21の動作と状態判別用対象物40の変形を説明する図である。
<For Fz>
FIG. 8 is a diagram for explaining the operation of the
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz方向(図中の下方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFz方向に所定の距離だけ直線移動するように、アーム21を動作させる。
The
変形量検出部103は、変形前の特徴点P2とP5のFz方向の直線距離D1を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P2とP5のFz方向の直線距離D2を、画像情報から求める。そして、D1とD2の差分をFz方向の変形量として求める。
The deformation
応力算出部104は、変換テーブル1100を参照し、Fzの成分1101の変換情報から、求められたFz方向の変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。
The
状態判別部105は、(B)の状態の力覚センサー25のFzの成分のセンサー値と、取得したFz成分の応力との差分を求め、当該差分が所定の閾値以下であるかを判定する。
The
<Fx(又はFy)の場合>
図9は、Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、FxとFyについて共通的に説明する。また、図8と異なる点を中心に説明する。
<Fx (or Fy)>
FIG. 9 is a diagram illustrating the operation of the Fx (or Fy)
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fx(又はFy)方向(図中の右方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFx(又はFy)方向に所定の距離だけ直線移動するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつFx(又はFy)方向に移動させる。
The
変形量検出部103は、変形後の特徴点P2とP5のFx方向の直線距離D4を、画像情報から求める。そして、変形前の特徴点P2とP5のFx方向の直線距離D3(D3=0である。)とD4の差分をFx(又はFy)方向の変形量として求める。
The deformation
応力算出部104及び状態判別部105は、Fx(又はFy)についての処理を行えばよいので、説明を省略する。
Since the
<Mzの場合>
図10は、Mzのアーム21の動作と状態判別用対象物40の変形を説明する図である。なお、(B)では、状態判別用対象物40を剛性部材42a側から見た図も示している。図8と異なる点を中心に説明する。
<In the case of Mz>
FIG. 10 is a diagram for explaining the operation of the
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz軸を基準にMz方向に回転(図中では右回り)するようにアーム21の動作を制御する。すなわち、力覚センサー25がFz軸を基準にMz回転方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMz回転方向に回転させる。
The
変形量検出部103は、変形後の特徴点P2とP5のFx又はFy方向の直線距離D6を、画像情報から求める。そして、変形前の特徴点P2とP5のFx又はFy方向の直線距離D5(D5=0である。)とD6の差分(又は当該差分を回転角度に換算したもの)を、Mzの変形量として求める。
The deformation
応力算出部104及び状態判別部105は、Mzについての処理を行えばよいので、説明を省略する。
Since the
<Mx(又はMy)の場合>
図11は、Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、MxとMyについて共通的に説明する。また、図8と異なる点を中心に説明する。
<Mx (or My)>
FIG. 11 is a diagram for explaining the operation of the Mx (or My)
ロボット制御部102は、剛性部材42aが、Fx(又はFy)軸を基準にMx(又はMy)回転方向に回転するようにアーム21を制御する。すなわち、力覚センサー25の作業点WPがFx(又はFy)軸を基準にMx(又はMy)方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMx(又はMy)回転方向に回転させてもよい。
The
変形量検出部103は、変形前の特徴点P3とP4のFz方向の直線距離D7を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P3とP4のFz方向の直線距離D8を、画像情報から求める。そして、D7とD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)の変形量として求める。
The deformation
応力算出部104及び状態判別部105は、Mx(又はMy)についての処理を行えばよいので、説明を省略する。
Since the
なお、上記の図7のフローは、成分ごとの状態判別処理を示しているが、例えば、ある成分についてのステップS100又はS110の終了後、状態判別が終了していない成分がある場合は、当該成分についての状態判別処理を行うべく、力覚センサー21の位置及び方向をステップS40終了直後の状態に戻し、処理をステップS50に進めるようにしてもよい。全成分についての状態判別が終了している場合は、本フローを終了すればよい。
7 shows the state determination process for each component. For example, when there is a component whose state determination has not ended after the end of step S100 or S110 for a certain component, In order to perform the state determination process for the component, the position and direction of the
上記の図7のフローの各処理単位は、制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、本願発明の目的を達成できるのであれば、各処理単位の順序を適宜変更してもよい。
Each processing unit in the flow of FIG. 7 is divided according to main processing contents in order to facilitate understanding of the processing of the
以上、本発明の第一実施形態の一例について説明した。本実施形態によれば、弾性部材を含む状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。 Heretofore, an example of the first embodiment of the present invention has been described. According to this embodiment, since the state of the force sensor is determined by bringing the force sensor into contact with the state determination target including the elastic member, it is possible to prevent an excessive force from being applied to the force sensor or the like. it can. In addition, since the force sensor is in contact with the object for state determination, the state of the force sensor is determined, so there is no need to use two arms or to calibrate one of the force sensors. The state of the force sensor can be determined.
<<第二実施形態>>
上記の第一実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、剛性部材42bの床上の位置及び向きが変わらないようにして、状態判別処理を行っている。一方、第二実施形態では、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
<< Second Embodiment >>
In the first embodiment, the state determination process is performed in such a manner that the position and orientation of the
図12は、本発明の第二実施形態に係る状態判別処理の一例を示すフロー図である。ステップS10〜S110は、図7と同様である。ステップS1〜S6は、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21に関する処理である。当該他方のアーム21には、エンドエフェクター26が取り付けられている。
FIG. 12 is a flowchart showing an example of state determination processing according to the second embodiment of the present invention. Steps S10 to S110 are the same as in FIG. Steps S <b> 1 to S <b> 6 are processes related to the
ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S1)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42bを把持する、他方のアーム21のエンドエフェクター26の位置及び向きを求める(S2)。
The
また、ロボット制御部102は、エンドエフェクター26を、ステップS2で求めた位置及び向きへ移動するための軌道を生成する(S3)。そして、ロボット制御部102は、ステップS3で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、エンドエフェクター26により剛性部材42bを把持させる(S4)。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。
Further, the
また、ロボット制御部102は、他方のアーム21のエンドエフェクター26で状態判別用対象物40を把持したまま、状態判別対象の力覚センサー25の判別処理を行う所定の位置及び向きへ移動するための軌道を生成する(S5)。そして、ロボット制御部102は、ステップS5で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、位置及び向きを固定する(S6)。
Further, the
ステップS10〜S110は、状態判別用対象の力覚センサー25を有するアーム21に関する処理である。ステップS10〜S110は、ステップS6で位置及び向きが固定された状態判別用対象物40を用いて行われる。
Steps S <b> 10 to S <b> 110 are processes related to the
図13は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21の状態判別対象の力覚センサー25により状態判別用対象物40を変形させて、各成分の状態判別を行う。
FIG. 13 is a diagram for explaining the operation of the
なお、本実施形態では、他方のアーム21のエンドエフェクター26により状態判別用対象物40の位置及び向きが固定されているため、第一実施形態のように剛性部材42b及び床の接触面が滑ってずれるといったおそれがない。また、状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。
In the present embodiment, since the position and orientation of the state
以上、本発明の第二実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。 Heretofore, an example of the second embodiment of the present invention has been described. According to this embodiment, it is possible to prevent an excessive force from being applied to the force sensor or the like. Also, because the force sensor is in contact with the object for state determination, it is not necessary to calibrate one of the force sensors, making it easy to determine the state of the force sensor. can do.
また、状態判別用対象物の位置及び向きが固定されているため、状態判別処理中に状態判別用対象物が動いてしまうなどの事態を防ぐことができる。状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。 In addition, since the position and orientation of the state determination target are fixed, it is possible to prevent a situation such as the state determination target moving during the state determination process. The state determination can be performed even when there is no appropriate floor for performing the state determination.
<<第三実施形態>>
上記の第一実施形態では、状態判別対象の力覚センサー25を有するアーム21には、エンドエフェクター26を取り付けていない。一方、第三実施形態では、状態判別対象の力覚センサー25を有するアーム21に、エンドエフェクター26を取り付けた状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
<< Third embodiment >>
In said 1st embodiment, the
具体的には、ロボット制御部102は、状態判別処理において、状態判別用対象物40の剛性部材42aを把持する、状態判別対象の力覚センサー25を有するアーム21のエンドエフェクター26の位置及び向きを求める。そして、当該位置及び向きへエンドエフェクター26を移動し、エンドエフェクター26により剛性部材42aを把持させる。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。
Specifically, the
そして、ロボット制御部102は、エンドエフェクター26で剛性部材42aを把持したまま、力覚センサー25の状態判別対象の成分に応じて、作業点WPを移動させ、状態判別用対象物40を変形させる。変形量検出部103、応力算出部104、状態判別部105、及び通知部106は、第一実施形態と同様である。
Then, the
ただし、エンドエフェクター26で剛性部材42aを把持するようにしたことにより、状態判別用対象物40に対する外力の掛かり方が、第一実施形態とは異なっている。従って、変換情報は、エンドエフェクター26を使った状態で変形量及び応力を計測して、当該計測結果に基づいて作成してもよい。
However, since the
また、例えば、図14(本発明の第三実施形態に係る変換テーブル1100Aの一例を示す図)に示すように、エンドエフェクターの種別1104ごとに、変換テーブルを用意するようにしてもよい。なお、図中の種別1104の「なし」は、第一実施形態と同様に、エンドエフェクター26が取り付けられていない場合を示している。
Further, for example, as shown in FIG. 14 (a diagram showing an example of the conversion table 1100A according to the third embodiment of the present invention), a conversion table may be prepared for each
図14の変換テーブル1100Aを用いる場合、応力算出部104は、状態判別対象の力覚センサー25を有するアーム21に取り付けられているエンドエフェクター26の種別を特定し、当該種別に対応する種別1104の変換テーブルを参照するようにすればよい。なお、エンドエフェクター26の種別は、例えば、ロボット20の動作制御部210が認識しており、応力算出部104がロボット制御部102を介して動作制御部21から当該種別を取得するようにすればよい。
When the conversion table 1100A of FIG. 14 is used, the
図15は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、状態判別用対象物40を床の上に置いた状態で、エンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。
FIG. 15 is a diagram for explaining the operation of the
以上、本発明の第三実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物にエンドエフェクターを介して力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。 The example of the third embodiment of the present invention has been described above. According to this embodiment, it is possible to prevent an excessive force from being applied to the force sensor or the like. In addition, it is necessary to use two arms or to calibrate one of the force sensors in order to determine the state of the force sensor by bringing the force sensor into contact with the object for state determination via an end effector. It is possible to easily determine the state of the force sensor.
また、エンドエフェクターを装着したまま状態判別処理を行えるため、エンドエフェクターの取り外しなどの手間を省いて、より生産性を向上することができる。 Further, since the state determination process can be performed with the end effector attached, productivity such as removal of the end effector can be saved and the productivity can be further improved.
<<第四実施形態>>
上記の第三実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、状態判別処理を行っている。一方、第四実施形態では、第三実施形態に上記の第二実施形態を組み合わせ、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第二実施形態及び第三実施形態と異なる点を中心に説明する。
<< Fourth Embodiment >>
In the third embodiment, the state determination process is performed in a state where the state
図16は、本発明の第四実施形態に係るアーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21のエンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。
FIG. 16 is a diagram illustrating the operation of the
以上、本発明の第四実施形態の一例について説明した。本実施形態によれば、第二及び第三実施形態と同様の効果が得られる。 The example of the fourth embodiment of the present invention has been described above. According to this embodiment, the same effect as the second and third embodiments can be obtained.
<<第五実施形態>>
上記の第四実施形態では、片方のアーム21の力覚センサー25を、状態判別対象としている。一方、第五実施形態では、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行う。以下、第四実施形態と異なる点を中心に説明する。
<< Fifth Embodiment >>
In the fourth embodiment described above, the
具体的には、ロボット制御部102は、一方のアーム21のエンドエフェクター26で、剛性部材42bを把持させ、位置及び向きを固定する。また、固定された状態で、他方のアーム21のエンドエフェクター26で剛性部材42aを把持させる。そして、当該他方のアーム21のエンドエフェクター26により、状態判別用対象物40を変形させて、当該他方のアーム21の力覚センサー25の各成分の状態判別を行う。
Specifically, the
ここで、当該他方のエンドエフェクター21により状態判別用対象物40に対してある成分(例えば、Fz)の外力が加えられると、当該一方のアーム21のエンドエフェクター21を介して当該一方の力覚センサー25に対しても同成分の外力が加わる。すなわち、他方の力覚センサー25で検出される応力と、一方の力覚センサー25で検出される応力とが、理想的には一致する。
Here, when an external force of a certain component (for example, Fz) is applied to the state
そこで、応力算出部104は、変換テーブル1100を参照し、状態判別対象の成分に対応する成分1101の変換情報から、変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を、両方の力覚センサー25に関する応力として取得する。
Therefore, the
また、状態判別部105は、状態判別用対象物40が変形している状態での、両方の力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する。
Further, the
また、状態判別部105は、取得した両方の力覚センサー25のセンサー値のそれぞれについて、応力算出部104が算出した応力との差分を求める。そして、求めた差分のそれぞれが、状態判別対象の成分に対応する所定の閾値以下であるかを判定する。
Further, the
なお、動作させる前記他方のアーム21の力覚センサー25に関して使用する変換テーブルと、動作させない前記一方のアーム21の力覚センサー25に関して使用する変換テーブルを、用意するようにしてもよい。そして、応力算出部104は、各変換テーブルから、変形量に対応する応力を取得するようにしてもよい。このようにすれば、同じ変形量に対して、動作させる前記他方のアーム21の力覚センサー25に生じる応力と、動作させない前記一方のアーム21の力覚センサー25に生じる応力が異なる場合にも、より精度よく状態判別を行うことができる。
A conversion table used for the
以上、本発明の第五実施形態の一例について説明した。本実施形態によれば、両方のアームの力覚センサーに対して並列的に状態判別処理を行うことができるため、状態判別処理の効率を向上することができる。 The example of the fifth embodiment of the present invention has been described above. According to the present embodiment, since the state determination process can be performed in parallel on the force sensors of both arms, the efficiency of the state determination process can be improved.
なお、第二実施形態においても、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行うようにしてもよい。
In the second embodiment, the state determination process may be performed in parallel for the
上記の本発明の各実施形態は、本発明の要旨と範囲を例示することを意図し、限定するものではない。多くの代替物、修正および変形例が当業者にとって明らかである。 The above embodiments of the present invention are intended to illustrate the gist and scope of the present invention and are not intended to be limiting. Many alternatives, modifications, and variations will be apparent to those skilled in the art.
例えば、変換情報の代わりに、成分ごとに、変形量から応力を求めるための計算式を定義しておき、応力算出部104は、計算式を用いて、変形量検出部103が検出した変形量から応力を算出するようにしてもよい。このようにすれば、変換情報を用意する必要がなくなる。なお、当該計算式は、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて定義することができる。
For example, instead of the conversion information, a calculation formula for obtaining stress from the deformation amount is defined for each component, and the
また、状態判別用対象物40の変形量を特定できるのであれば、例えば、特徴点は、弾性部材41のみ、又は、弾性部材41及び剛性部材42の両方に設定されてもよい。また、状態判別用対象物40の変形量を特定できるのであれば、変形量を特定するために用いる特徴点の位置や数は、上記の各実施形態で説明した例に限られない。
Further, if the deformation amount of the
1:ロボットシステム、10:制御装置、20:ロボット、21(21a、21b):アーム、22:ジョイント、23:リンク、25:力覚センサー、26:エンドエフェクター、30:撮影装置、40:状態判別用対象物、41:弾性部材、42(42a、42b):剛性部材、100:制御部、101:画像取得部、102:ロボット制御部、103:変形量検出部、104:応力算出部、105:状態判別部、106:通知部、110:記憶部、200:可動部、210:動作制御部、1100:変換テーブル、1101:成分、1102:変形量、1103:応力、1100A:変換テーブル、1104:種別、50:コンピューター、501:CPU、502:メモリー、503:外部記憶装置、504:通信装置、505:入力装置、506:出力装置、507:読み書き装置、508:インターフェイス装置 1: Robot system, 10: Control device, 20: Robot, 21 (21a, 21b): Arm, 22: Joint, 23: Link, 25: Force sensor, 26: End effector, 30: Imaging device, 40: State Discrimination target, 41: elastic member, 42 (42a, 42b): rigid member, 100: control unit, 101: image acquisition unit, 102: robot control unit, 103: deformation amount detection unit, 104: stress calculation unit, 105: state determination unit, 106: notification unit, 110: storage unit, 200: movable unit, 210: operation control unit, 1100: conversion table, 1101: component, 1102: deformation amount, 1103: stress, 1100A: conversion table, 1104: Type, 50: Computer, 501: CPU, 502: Memory, 503: External storage device, 504: Communication device, 505: On Device, 506: output unit, 507: reading and writing apparatus, 508: interface device
Claims (13)
弾性体を含んで構成される状態判別用対象物を用いるものであり、
前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、
前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、
ことを特徴とする状態判別方法。 A state determination method for determining a state of a robot having an arm and a force sensor,
Using an object for state determination comprising an elastic body,
An operation step of operating the robot and deforming the object for state determination by the arm;
A detection step of detecting a deformation amount of the object for state determination deformed in the operation step;
A calculation step for calculating a value indicating a force or a moment applied to the force sensor from the deformation amount detected in the detection step;
A determination step of determining a state of the force sensor based on a value indicating the force or moment calculated in the calculation step.
A state determination method characterized by the above.
前記状態判別用対象物は、さらに剛性体を含んで構成されており、
前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。 The state determination method according to claim 1,
The state determination object further includes a rigid body,
In the operation step, the arm is brought into contact with the rigid body of the object for state determination, and the object for state determination is deformed by the arm.
A state determination method characterized by the above.
前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、
前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。 The state determination method according to claim 2,
The state determining object is configured such that both end faces of the elastic body are sandwiched between the rigid bodies,
In the operation step, the arm is brought into contact with the rigid body on the other end surface of the state determination object in a state where the position and orientation of the rigid body on one end surface of the state determination object are fixed. And deforming the object for state determination by the arm,
A state determination method characterized by the above.
前記ロボットは、前記アームを複数有し、
前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、
ことを特徴とする状態判別方法。 The state determination method according to claim 3,
The robot has a plurality of the arms,
In the operation step, the first arm of the plurality of arms fixes the position and orientation of the rigid body on the one end surface, and the second arm of the plurality of arms is fixed on the other end surface. Deforming the object for state determination with the second arm in contact with a rigid body;
A state determination method characterized by the above.
前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、
前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、
ことを特徴とする状態判別方法。 The state determination method according to claim 4,
In the calculating step, for at least one of the first arm and the second arm, a value indicating a force or moment applied to the force sensor of the arm is calculated from the deformation amount detected in the detecting step. And
In the determination step, for at least one of the first arm and the second arm, the state of the force sensor of the arm is determined based on a value indicating the force or moment calculated in the calculation step.
A state determination method characterized by the above.
前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、
ことを特徴とする状態判別方法。 A state determination method according to any one of claims 1 to 5,
In the detection step, the deformation amount is detected by photographing the state determination object and identifying a change in the position of the feature point of the state determination object based on the captured image information.
A state determination method characterized by the above.
前記特徴点は、前記剛性体に設定されるものである、
ことを特徴とする状態判別方法。 The state determination method according to claim 6,
The feature point is set to the rigid body.
A state determination method characterized by the above.
前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、
ことを特徴とする状態判別方法。 A state determination method according to any one of claims 1 to 7,
In the calculation step, information for specifying a relationship between a deformation amount of the state determination target object and a force or a moment corresponding to the deformation amount is acquired, and the deformation detected in the detection step based on the acquired information. Calculating the force or moment applied to the force sensor from the quantity,
A state determination method characterized by the above.
前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、
ことを特徴とする状態判別方法。 A state determination method according to any one of claims 1 to 8,
In the determination step, a sensor value output from the force sensor in a state in which the state determination object is deformed in the operation step is acquired, and the acquired sensor value and the force calculated in the calculation step or Determine whether the difference from the value indicating the moment is within a predetermined range,
A state determination method characterized by the above.
前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、
前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、
前記動作ステップでは、
前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、
前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、
前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、
前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、
前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、
前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、
ことを特徴とする状態判別方法。 The state determination method according to claim 3 or 4,
The force sensor is any one or more of first to third axial forces orthogonal to each other and first to third moments around the first to third axial directions. Is to detect
In the object for state determination, the rigid body of the one end surface and the rigid body of the other end surface are formed in parallel to each other,
In the operation step,
With respect to the first axial direction, the arm is operated so that the rigid body on the other end face approaches the rigid body on the one end face while being parallel to the one end face,
With respect to the second axial direction, the arm is operated so that the rigid body on the other end surface moves in the second axial direction while being parallel to the rigid body on the one end surface,
For the third axial direction, the arm is operated so that the rigid body on the other end surface moves in the third axial direction while being parallel to the rigid body on the one end surface,
About the first axis, the arm is operated so that the rigid body of the other end surface rotates with respect to the first axial direction while being parallel to the rigid body of the one end surface,
About the second axis, the arm is operated so that the rigid body on the other end surface rotates based on the second axial direction,
About the third axis, the arm is operated so that the rigid body on the other end surface rotates based on the third axial direction.
A state determination method characterized by the above.
アームと、
力覚センサーと、
前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
ことを特徴とするロボット。 A robot,
Arm,
A force sensor,
A control unit that operates the arm and causes the arm to deform a state determination target including an elastic body;
A detection unit for detecting a deformation amount of the object for state determination deformed by the arm;
A calculation unit for calculating a value indicating a force or moment applied to the force sensor from the deformation amount detected by the detection unit;
A determination unit that determines a state of the force sensor based on a value indicating the force or moment calculated by the calculation unit;
A robot characterized by that.
前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
ことを特徴とする制御装置。 A control device for a robot having an arm and a force sensor,
A control unit that operates the arm and causes the arm to deform a state determination target including an elastic body;
A detection unit for detecting a deformation amount of the object for state determination deformed by the arm;
A calculation unit for calculating a value indicating a force or moment applied to the force sensor from the deformation amount detected by the detection unit;
A determination unit that determines a state of the force sensor based on a value indicating the force or moment calculated by the calculation unit;
A control device characterized by that.
前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、
前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、
ことを特徴とするプログラム。 A program for a control device of a robot having an arm and a force sensor,
An operation step of deforming a state determination target including an elastic body by the arm; and
A detection step of detecting a deformation amount of the object for state determination deformed in the operation step;
A calculation step for calculating a value indicating a force or a moment applied to the force sensor from the deformation amount detected in the detection step;
A determination step of determining a state of the force sensor based on a value indicating the force or moment calculated in the calculation step;
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200221A JP5942720B2 (en) | 2012-09-12 | 2012-09-12 | State determination method, robot, control device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200221A JP5942720B2 (en) | 2012-09-12 | 2012-09-12 | State determination method, robot, control device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014054692A true JP2014054692A (en) | 2014-03-27 |
JP5942720B2 JP5942720B2 (en) | 2016-06-29 |
Family
ID=50612474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012200221A Expired - Fee Related JP5942720B2 (en) | 2012-09-12 | 2012-09-12 | State determination method, robot, control device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5942720B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9492925B2 (en) | 2013-10-10 | 2016-11-15 | Seiko Epson Corporation | Robot controller, robot system, robot, robot control method, and program |
WO2019211892A1 (en) * | 2018-05-01 | 2019-11-07 | 日産自動車株式会社 | Malfunction determination device, malfunction determination system, and malfunction determination method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11237296A (en) * | 1998-02-23 | 1999-08-31 | Fanuc Ltd | Calibration method of force sensor fitted to robot and robot |
DE19960482A1 (en) * | 1999-12-15 | 2001-06-21 | Peter Giesecke | Calibration unit for multicomponent force and torque sensor, e.g. for robotic system, has sensor that has already been calibrated connected to sensor to be calibrated and compares sensor data |
JP2009145085A (en) * | 2007-12-11 | 2009-07-02 | Univ Of Tsukuba | Three-dimensional tactile sensor and three-dimensional tactile sensing method |
JP2012013537A (en) * | 2010-06-30 | 2012-01-19 | Canon Inc | Method of calibrating force sensor |
JP2012139776A (en) * | 2010-12-28 | 2012-07-26 | Kawasaki Heavy Ind Ltd | Work quality determination system and quality determination method |
-
2012
- 2012-09-12 JP JP2012200221A patent/JP5942720B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11237296A (en) * | 1998-02-23 | 1999-08-31 | Fanuc Ltd | Calibration method of force sensor fitted to robot and robot |
DE19960482A1 (en) * | 1999-12-15 | 2001-06-21 | Peter Giesecke | Calibration unit for multicomponent force and torque sensor, e.g. for robotic system, has sensor that has already been calibrated connected to sensor to be calibrated and compares sensor data |
JP2009145085A (en) * | 2007-12-11 | 2009-07-02 | Univ Of Tsukuba | Three-dimensional tactile sensor and three-dimensional tactile sensing method |
JP2012013537A (en) * | 2010-06-30 | 2012-01-19 | Canon Inc | Method of calibrating force sensor |
JP2012139776A (en) * | 2010-12-28 | 2012-07-26 | Kawasaki Heavy Ind Ltd | Work quality determination system and quality determination method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9492925B2 (en) | 2013-10-10 | 2016-11-15 | Seiko Epson Corporation | Robot controller, robot system, robot, robot control method, and program |
WO2019211892A1 (en) * | 2018-05-01 | 2019-11-07 | 日産自動車株式会社 | Malfunction determination device, malfunction determination system, and malfunction determination method |
JPWO2019211892A1 (en) * | 2018-05-01 | 2021-05-13 | 日産自動車株式会社 | Abnormality judgment device, abnormality judgment system and abnormality judgment method |
US11931904B2 (en) | 2018-05-01 | 2024-03-19 | Nissan Motor Co., Ltd. | Abnormality determination apparatus, abnormality determination system, and abnormality determination method |
Also Published As
Publication number | Publication date |
---|---|
JP5942720B2 (en) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108453701B (en) | Method for controlling robot, method for teaching robot, and robot system | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
US20150127141A1 (en) | Robot, control device, robot system and robot control method | |
US11685042B2 (en) | Working robot and control method for working robot | |
US9869597B1 (en) | Compound strain gage carrier for multi-axis force/torque sensing | |
US8498745B2 (en) | Robot apparatus and gripping method for use in robot apparatus | |
US10583555B2 (en) | System and method for determining tool offsets | |
JP6996113B2 (en) | Robot control methods, robot systems and controls | |
US20150234375A1 (en) | Tool coordinate system correcting method of robot system, and robot system | |
JP4643619B2 (en) | Robot controller | |
US10882182B2 (en) | Robot apparatus, control method of robot apparatus, and recording medium | |
JP2014018931A (en) | Control system, program and control method of machinery | |
US20170066137A1 (en) | Control device, robot, and robot system | |
JP6003312B2 (en) | Robot system | |
JP2015085479A (en) | Robot, control device, robot system and robot control method | |
CN111531533A (en) | Zero point correction and gravity compensation method for six-dimensional force sensor | |
JP5787646B2 (en) | Robot system and component manufacturing method | |
JP5942720B2 (en) | State determination method, robot, control device, and program | |
Sharifzadeh et al. | On human–robot interaction of a 3-DOF decoupled parallel mechanism based on the design and construction of a novel and low-cost 3-DOF force sensor | |
JP2015085499A (en) | Robot, robot system, control device and control method | |
JP6322948B2 (en) | Robot control apparatus, robot system, robot, robot control method, and program | |
JP7392154B2 (en) | robot control device | |
CN114791333A (en) | Force sensor measurement coordinate system calibration method, device, equipment and storage medium | |
JP2015085480A (en) | Robot, control device, robot system, robot control method and program | |
JP2004160614A (en) | Automatic task teaching system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5942720 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |