JP6540810B2 - Hand force sense measurement device, hand force sense measurement method, and hand force sense measurement program - Google Patents
Hand force sense measurement device, hand force sense measurement method, and hand force sense measurement program Download PDFInfo
- Publication number
- JP6540810B2 JP6540810B2 JP2017534066A JP2017534066A JP6540810B2 JP 6540810 B2 JP6540810 B2 JP 6540810B2 JP 2017534066 A JP2017534066 A JP 2017534066A JP 2017534066 A JP2017534066 A JP 2017534066A JP 6540810 B2 JP6540810 B2 JP 6540810B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- articulated robot
- parameter
- observation data
- individual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
本開示は、ハンド力覚計測装置、ハンド力覚計測方法、及びハンド力覚計測プログラムに関する。 The present disclosure relates to a hand force sense measurement device, a hand force sense measurement method, and a hand force sense measurement program.
ロボットのハンド(アーム先端部などの先端)において作用している外力を、力覚センサを用いずに算出する方法が知られている。かかる方法としては、駆動トルク及びトルク指令値との差を外部トルクとして算出し、関節角度に基づいてヤコビ行列を算出し、ヤコビ行列及び外部トルクから外力を算出する方法がある。 There is known a method of calculating an external force acting on a robot hand (tip such as an arm tip) without using a force sensor. As such a method, there is a method of calculating a difference between a driving torque and a torque command value as an external torque, calculating a Jacobian matrix based on a joint angle, and calculating an external force from the Jacobian matrix and an external torque.
しかしながら、従来の方法では、ロボットの個体毎に異なりうる誤差(個体誤差)を補正せずに外力を算出するので、外力の算出精度が悪くなる可能性がある。 However, in the conventional method, the external force is calculated without correcting an error (individual error) which may differ for each individual robot, so the calculation accuracy of the external force may deteriorate.
そこで、本開示は、外力の算出精度が良好となるハンド力覚計測装置、ハンド力覚計測方法、及びハンド力覚計測プログラムの提供を目的とする。 Therefore, the present disclosure aims to provide a hand force sense measurement device, a hand force sense measurement method, and a hand force sense measurement program, in which calculation accuracy of an external force is good.
本開示の一局面によれば、リンク機構を備える多関節ロボットにおけるリンク間の位置及び姿勢関係を幾何的に表すリンクパラメータと、前記リンクパラメータに影響する前記多関節ロボットの個体誤差とに基づいて、前記多関節ロボットのハンドに作用する外力を算出する処理装置を含み、前記個体誤差は、前記多関節ロボットを実際に動かしたときの前記ハンドの位置の観測データに基づいて導出され、前記観測データは、前記多関節ロボットのハンドの位置と、前記多関節ロボットの各関節にトルクを付与するモータへの駆動トルクの指令値と、前記多関節ロボットの各関節の関節角度とを含み、前記個体誤差は、後述の数4のパラメータを最小とするパラメータΔを算出することで算出され、Pは、前記観測データに基づく前記ハンドの位置であり、Σは、前記観測データの複数のサンプルを累算することを表し、φ(θ 0 ,θ 1 ,…,θ n )は、各関節角度がθ 0 ,θ 1 ,...,θ n であるときの前記ハンドの理論位置を表し、各関節角度がθ 0 ,θ 1 ,...,θ n は、前記観測データに基づき、前記ハンドの理論位置φ(θ 0 ,θ 1 ,...,θ n )は、前記パラメータΔ及び前記リンクパラメータに基づいて表される、ハンド力覚計測装置が提供される。
According to one aspect of the present disclosure, based on link parameters that geometrically represent the position and orientation relationship between links in an articulated robot including a link mechanism, and individual errors of the articulated robot that affect the link parameters. the saw including a processor for calculating the external force acting on the articulated robot hand, the individual error is derived based on the observation data of the position of the hand when the actually moved articulated robot, the The observation data includes the position of the hand of the articulated robot, the command value of the driving torque to the motor for applying torque to each joint of the articulated robot, and the joint angle of each joint of the articulated robot, The individual error is calculated by calculating a parameter Δ that minimizes a parameter of Equation 4 described later, and P is the value based on the observation data. A position, sigma, the indicates that accumulates multiple samples of the observed data, φ (θ 0, θ 1 , ..., θ n) is each joint angle θ 0, θ 1, .. , Θ n represents the theoretical position of the hand, and each joint angle θ 0 , θ 1 ,..., Θ n is the theoretical position φ (θ 0 , A hand force measurement apparatus is provided in which θ 1 ,..., θ n ) is expressed based on the parameter Δ and the link parameter .
本開示によれば、外力の算出精度が良好となるハンド力覚計測装置等が得られる。 According to the present disclosure, it is possible to obtain a hand force sense measurement device and the like in which the calculation accuracy of the external force is improved.
以下、添付図面を参照しながら各実施例について詳細に説明する。 Hereinafter, each example will be described in detail with reference to the attached drawings.
図1は、リンク機構を備える多関節ロボットの一例を示す図である。図1に示す例では、多関節ロボット1は、リンク機構として、2つの関節11及び12と3つのリンク21〜23とを備える。多関節ロボット1は、リンク機構の一端に基部2を備え、他端(先端)に手先30を備える。手先30には、ハンド32が装着される。ハンド32は、ワーク(図示せず)を把持する等の機能を有する。
FIG. 1 is a view showing an example of an articulated robot provided with a link mechanism. In the example illustrated in FIG. 1, the articulated
図2は、多関節ロボットの機構モデルを示す図であり、図3は、多関節ロボットの幾何的関係を示す図であり、図4は、多関節ロボットにかかる外力の説明図である。 FIG. 2 is a view showing a mechanical model of the articulated robot, FIG. 3 is a view showing a geometrical relationship of the articulated robot, and FIG. 4 is an explanatory view of an external force applied to the articulated robot.
図2は、図1に示す多関節ロボット1の機構モデルを示す。以下では、各関節に基部2から手先30に向かう順序で番号i = 0,1, 2, . . ., n(以下、「関節番号」と称する)を付与する。基部2は関節番号i=0とする。図3に示す例では、関節11(i=1)に関して、関節角がθ1で示され、リンク長がL1で示されている。また、関節12(i=2)に関して、関節角がθ2で示され、リンク長がL2で示されている。関節角は、特に言及しない限り、z軸まわりの関節角を表す。座標軸は、リンクの方向がx軸であり、紙面に対して垂直な方向がz軸であり、y軸はx軸及びz軸に垂直な軸である。図3における"X"は、ハンド32の位置を表すパラメータであり、基部2を原点とする座標系で表される。図4に示すように、各関節には、後述の駆動機構を介してトルクT1及びT2がそれぞれ付与され、ハンド32には、作業時に外力Fが付与される。尚、図4において、点線は、外力Fがかからない場合、指令値通りに駆動されたときの多関節ロボット1の状態を示す。外力Fがかかることで、ハンド32の位置等が変化されることが分かる。FIG. 2 shows a mechanical model of the articulated
図5は、関節における駆動機構の説明図であり、駆動機構を概略的に示す図である。駆動機構は、関節毎に設けられる。駆動機構40は、モータ41と、減速機42とを含む。モータ41の回転トルクは、減速機42を介して増大され、リンク22とリンク23との間の関節12まわりの相対回転を生じさせる。モータ41には、モータ41の回転角を計測するエンコーダ43が設けられる。
FIG. 5 is an explanatory view of a drive mechanism in a joint, schematically showing the drive mechanism. A drive mechanism is provided for each joint. The drive mechanism 40 includes a
図6は、多関節ロボット1の制御ブロックの一例を示す図である。図6において、点線で囲まれた部分は、制御対象を表す。
FIG. 6 is a view showing an example of a control block of the articulated
図6に示すように、先ず、目標位置算出部600においてハンド32の目標位置Xrefが算出される。次いで、コンプライアンス計算部601において、目標位置Xrefと、外力Fとに基づいて、位置補正量Δxが算出される。コンプライアンス計算は、以下の特性方程式で表すことができる。As shown in FIG. 6, first, the target
次に、多関節ロボット1の手先30(又はハンド32、以下同じ)にかかる外力Fを算出(計測)するハンド力覚計測方法(装置)について説明する。尚、図6に示す制御において、外力Fは、以下で説明するハンド力覚計測装置で算出(計測)される値を用いることができる。
Next, a hand force sense measurement method (apparatus) for calculating (measuring) the external force F applied to the hand 30 (or the
本実施例では、ハンド力覚計測装置70は、多関節ロボット1におけるリンク間の位置及び姿勢関係を幾何的に表すパラメータと、該パラメータに影響する多関節ロボット1の個体誤差とに基づいて、多関節ロボット1の手先30にかかる外力Fを算出する。
In the present embodiment, the hand force
多関節ロボット1におけるリンク間の位置及び姿勢関係を幾何的に表すパラメータとは、いわゆるリンクパラメータである。リンクパラメータは、隣接する2つのリンク間の位置・姿勢関係を、3個の並進成分、及び3個の回転成分で表す。リンクパラメータは、行列(後述の行列Mi参照)により表現できる。但し、リンクパラメータは、D-H(Denabit-Hartenberg)パラメータであってもよい。The parameters that geometrically represent the position and posture relationship between links in the articulated
個体誤差は、静的誤差と姿勢依存誤差とを含む。静的誤差とは、多関節ロボット1の姿勢に依存しない誤差であり、例えば、部品の加工誤差、組付誤差、温度による変形、エンコーダ43の0点誤差などがある。姿勢依存誤差とは、バックラッシュ、ガタを含んだ自重・荷重によるリンクのたわみ誤差、制御モデル誤差などがある。
The individual errors include static errors and attitude dependent errors. The static error is an error that does not depend on the attitude of the articulated
個体誤差は、リンクパラメータに影響する個体誤差であり、例えば、リンクパラメータと同様、3個の並進成分、及び3個の回転成分で表される。 The individual error is an individual error that affects the link parameter, and is represented by, for example, three translation components and three rotation components as in the link parameter.
個体誤差は、多関節ロボット1の個体毎に、各種試験を行って得られたデータに基づいて導出できる。データは、例えば、多関節ロボット1の制御情報(モータトルクの指令値など)と、そのときの手先30の位置(ハンド位置)や多関節ロボット1の姿勢(関節角度など)とに関するデータである。尚、手先30の位置は、例えばカメラ(モーションキャプチャ)などの3次元位置計測装置50(図10参照)で計測できる。この種のセンサは、手先30の位置決め用のセンサが用いられてもよい。
The individual error can be derived based on data obtained by performing various tests for each individual of the articulated
図7は、個体誤差の算出方法の説明図であり、個体誤差の算出方法の流れを示す概略的なフローチャートである。ここでは、ある1つの多関節ロボット1に対する個体誤差の算出方法について説明する。
FIG. 7 is an explanatory diagram of a method of calculating an individual error, and is a schematic flowchart showing a flow of a method of calculating an individual error. Here, a method of calculating an individual error for one certain articulated
ステップS700では、設計者(又はその補助者、以下同じ)は、多関節ロボット1を実働させることで観測データを取得(収集)する。例えば、図8Aに示すようなハンド32の未装着状態、図8Bに示すようなハンド32の装着状態、及び図8Cに示すようなワークWの把持状態のそれぞれで、多関節ロボット1に同じ動作をさせる。例えば、ロボット動作範囲内に置いた格子点に、上下左右前後など複数の方向から手先30をアプローチさせて静定する。このとき、設計者(又はその補助者)は、以下の情報を時系列データとして収集する。
(1)モータトルクの指令値のような制御情報
(2)ハンド位置及び姿勢を含む計測情報(モーションキャプチャ及びエンコーダ43で計測)
ステップS702では、設計者は、計算機を用いて、多関節ロボット1に外力がかかっていない静止状態で得た観測データ(例えば、図8Aの状態で得られる観測データ)に基づいて、静的誤差の各要素を計算する。具体的には、まず、個体誤差を含むリンク構造を、該個体誤差を幾何的に表現した行列Mi'で表現する。In step S700, the designer (or his / her assistant, the same applies hereinafter) acquires (collects) observation data by causing the articulated
(1) Control information such as command value of motor torque (2) Measurement information including hand position and attitude (measured by motion capture and encoder 43)
In step S702, the designer uses a computer to calculate static errors based on observation data (eg, observation data obtained in the state of FIG. 8A) obtained in a stationary state in which no external force is applied to the articulated
この場合、設計者は、観測データに基づいて、以下の数4を最小とするΔを算出する。 In this case, based on the observation data, the designer calculates Δ that minimizes the following Equation 4.
ステップS704では、設計者は、計算機を用いて、多関節ロボット1に外力がかかった静止状態で得た観測データ(例えば、図8B及び図8Cの状態で得られる観測データ)に基づいて、姿勢依存誤差の各要素を計算する。具体的には、設計者は、同様に、観測データに基づいて、上記の数4を最小とするΔを算出する。数5では、行列Mi'は、以下のように、静的誤差及び姿勢依存誤差を含むものとする。このとき、静的誤差Δxi,Δyi,Δzi、及びδ0,ix,δ0,iy,δ0,izはステップS702で同定した値を用いる。In step S704, the designer uses the computer to pose based on observation data obtained in a stationary state in which an external force is applied to the articulated robot 1 (for example, observation data obtained in the state of FIG. 8B and FIG. 8C). Calculate each element of dependency error. Specifically, the designer similarly calculates Δ, which minimizes the above equation 4, based on the observation data. In equation 5, the matrix M i ′ includes static errors and attitude dependent errors as follows. At this time, the static errors Δx i , Δy i , Δz i and δ 0, ix , δ 0, i y, δ 0, iz use the values identified in step S702.
このようにして図7に示す個体誤差の算出方法によれば、観測データに基づいて、個体誤差(静的誤差及び姿勢依存誤差)を算出できる。尚、図7に示す例では、設計者が計算機を用いて個体誤差(補正行列Ci)を算出しているが、後述のように、処理装置(例えば後述の処理装置100の個体誤差計算部114)が算出することも可能である。Thus, according to the calculation method of the individual error shown in FIG. 7, the individual error (static error and attitude dependent error) can be calculated based on the observation data. In the example shown in FIG. 7, the designer calculates the individual error (correction matrix C i ) using a computer, but as described later, the processor (for example, the individual error calculator of the
次に、ハンド力覚計測装置70の構成例及び動作例について説明する。
Next, a configuration example and an operation example of the hand force
ハンド力覚計測装置70は、処理装置100を含む。
The hand force
図9は、処理装置100のハードウェア構成の一例を示す図である。
FIG. 9 is a diagram showing an example of the hardware configuration of the
図9に示す例では、処理装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107を含む。
In the example illustrated in FIG. 9, the
制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。
The
主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The
補助記憶部103は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
The
記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して処理装置100にインストールされる。インストールされた所定のプログラムは、処理装置100により実行可能となる。
The
ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と処理装置100とのインターフェースである。
The network I /
入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。
The
尚、図9に示す例において、以下で説明する各種処理等は、プログラムを処理装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を処理装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(Compact Disc)−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等であってよい。なお、記録媒体105には、搬送波は含まれない。
In the example shown in FIG. 9, various processes described below can be realized by causing the
図10は、処理装置100の機能の一例を示す機能ブロック図である。図10には、処理装置100に接続される構成要素(3次元位置計測装置50等)についても併せて図示されている。
FIG. 10 is a functional block diagram showing an example of the function of the
処理装置100は、図10に示すように、観測データ取得部90を含む。また、処理装置100は、ハンド位置計測値取得部110、関節角取得部111、モータトルク取得部112、リンクパラメータ計算部113、個体誤差計算部114、リンクパラメータ補正部115、及びヤコビ行列計算部116を含む。また、処理装置100は、運動パラメータ計算部117、トルク算出部118、及び外力計算部119を含む。各部90、110〜119は、制御部101が主記憶部102に記憶された1つ以上のプログラムを実行することにより実現できる。また、処理装置100は、観測データ記憶部120、個体誤差記憶部121、及び運動パラメータ記憶部122を含む。観測データ記憶部120、個体誤差記憶部121、及び運動パラメータ記憶部122は、例えば補助記憶部103により実現できる。
The
観測データ取得部90は、多関節ロボット1の実働中の観測データを取得(収集)し、観測データ記憶部120に記憶する。例えば、観測データ取得部90は、ハンド位置計測値取得部110からの情報に基づいて、多関節ロボット1が静定したタイミングを検出し、該タイミングにおける観測データを取得する。観測データは、上述のとおりであり、ハンド位置計測値取得部110、関節角取得部111及びモータトルク取得部112から取得できる。
The observation
ハンド位置計測値取得部110は、3次元位置計測装置50からハンド32の3次元位置の計測値を取得する。
The hand position measurement
関節角取得部111は、各エンコーダ43から各関節の関節角の検出値を取得する。
The joint
モータトルク取得部112は、モータ駆動部52から各関節に係るモータ41の駆動トルクの指令値(モータトルクの指令値)を取得する。モータ駆動部52は、例えばモータコントローラ(図6参照)により実現されてもよい。
The motor
リンクパラメータ計算部113は、関節角取得部111からの情報に基づいて、リンクパラメータを算出する。リンクパラメータ計算部113は、個体誤差を含まないリンクパラメータを算出する。即ち、リンクパラメータ計算部113は、行列Miを算出する。行列Miは上述のとおりである。The link
個体誤差計算部114は、観測データ記憶部120からの情報に基づいて、リンクパラメータに影響する多関節ロボット1の個体誤差を算出する。例えば、個体誤差計算部114は、補正行列Ciを算出する。補正行列Ciの算出方法は上述のとおりである。個体誤差計算部114は、算出した個体誤差を個体誤差記憶部121に記憶する。個体誤差計算部114は、実稼働中に、定期的に、観測データ記憶部120に蓄積された最新の観測データに基づいて、個体誤差を再算出(更新)してよい。或いは、個体誤差計算部114は、実稼働中に、新たな観測データが取得される毎に、観測データ記憶部120に蓄積された最新の観測データに基づいて、個体誤差を再算出(更新)してもよい。The individual
リンクパラメータ補正部115は、関節角取得部111、リンクパラメータ計算部113、及び個体誤差記憶部121からの情報に基づいて、リンクパラメータ計算部113で算出されたリンクパラメータを補正する。即ち、リンクパラメータ補正部115は、行列Mi'を算出する。行列Mi'の算出方法は上述のとおりである。The link
ヤコビ行列計算部116は、関節角取得部111及びリンクパラメータ補正部115からの情報に基づいて、ヤコビ行列J1を算出する。ヤコビ行列の算出方法は上述のとおりである。
The Jacobian
運動パラメータ計算部117は、個体誤差記憶部121に基づいて、個体誤差を反映した運動パラメータを算出する。即ち、個体誤差により各リンクの長さなどが変わるため、運動パラメータ計算部117は、個体誤差記憶部121から得られる個体誤差に基づいて、運動パラメータを算出する。運動パラメータは、例えば、ロボットアームの動力学運動方程式に係るパラメータであり、慣性行列、非線形項(遠心力、コリオリ力など)、及び重力項とを含む(後述の数10参照)。運動パラメータ計算部117は、算出した運動パラメータを運動パラメータ記憶部122に記憶する。運動パラメータ計算部117は、実稼働中に、定期的に、個体誤差記憶部121に記憶された最新の個体誤差に基づいて、運動パラメータを再算出(更新)してよい。或いは、個体誤差計算部114は、実稼働中に、個体誤差記憶部121内の個体誤差が更新される毎に、個体誤差記憶部121に記憶された最新の個体誤差に基づいて、運動パラメータを再算出(更新)してもよい。
The motion
トルク算出部118は、運動パラメータ記憶部122からの運動パラメータと、関節角取得部111からの情報とに基づいて、各モータ41の駆動トルクを算出する。駆動トルクは、ロボットアームの動力学運動方程式に基づいて、以下のように算出できる。
The
θ=[θ0,θ1,...,θn]
また、上に"〜"が付いたMは、慣性行列を表し、上に"〜"が付いたHは、非線形項を表し、上に"〜"が付いたHは、重力項を表す。
θ = [θ 0 , θ 1 ,..., θ n ]
In addition, M with "-" at the top represents an inertia matrix, H with "-" at the top represents a non-linear term, and H with "-" at the top represents a gravity term.
外力計算部119は、モータトルク取得部112、ヤコビ行列計算部116、及びトルク算出部118からの情報に基づいて、手先30に掛かる外力Fを求める。具体的には、まず、外力計算部119は、モータトルク取得部112からのモータトルクの指令値τiと、トルク算出部118からの算出値τcとの差に基づいて、外部に仕事するトルクτeを算出する。即ち、以下のとおりである。
τe=τi-τc
ここで、τe、及びτcは、τiと同様、それぞれ、各関節に係るトルク値を含む1×nの行列である。そして、外力計算部119は、トルクτeと、ヤコビ行列計算部116で得られるヤコビ行列J1とに基づいて、以下のように手先30に掛かる外力Fを求める。The external
τ e = τ i -τ c
Here, tau e, and tau c, as with tau i, respectively, a matrix of 1 × n containing torque values related to each joint. Then, based on the torque τ e and the Jacobian matrix J1 obtained by the Jacobian
図10に示す処理装置100よれば、個体誤差計算部114は、観測データに基づいて、個体誤差(静的誤差及び姿勢依存誤差)を算出できる。また、運動パラメータ計算部117は、個体誤差に基づいて、個体誤差が反映された運動パラメータを算出できる。そして、外力計算部119は、補正行列Ci及び運動パラメータに基づいて、手先30に掛かる外力Fを算出するので、個体誤差に起因した誤差成分が低減された高精度な外力Fを算出できる。According to the
図11は、処理装置100により実行される処理の一例を示すフローチャートである。図11に示す処理は、例えば、多関節ロボット1の実稼働中に所定周期毎に実行される。
FIG. 11 is a flowchart showing an example of processing executed by the
ステップS1100では、観測データ取得部90は、ハンド位置計測値取得部110からの情報に基づいて、多関節ロボット1が静定したか否かを判定する。多関節ロボット1が静定したと判定した場合は、ステップS1102に進み、それ以外の場合は、ステップS1104に進む。
In step S1100, the observation
ステップS1102では、観測データ取得部90は、ハンド位置計測値取得部110、関節角取得部111及びモータトルク取得部112から得られる情報を観測データとして観測データ記憶部120に記憶する。
In step S1102, the observation
ステップS1104では、個体誤差計算部114は、個体誤差の算出条件が成立したか否かを判定する。個体誤差の算出条件は、任意であるが、例えばユーザから指示があった場合、前回の算出から所定時間経過した場合、観測データ記憶部120の観測データの更新があった場合等に満たされてよい。個体誤差の算出条件が成立した場合は、ステップS1106に進み、それ以外の場合は、ステップS1108に進む。
In step S1104, the individual
ステップS1106では、個体誤差計算部114は、観測データ記憶部120に蓄積された最新の観測データに基づいて、個体誤差を算出し、算出した個体誤差を個体誤差記憶部121に記憶する。
In step S1106, the individual
ステップS1108では、運動パラメータ計算部117は、運動パラメータの算出条件が成立したか否かを判定する。運動パラメータの算出条件は、任意であるが、例えばユーザから指示があった場合、前回の算出から所定時間経過した場合、個体誤差記憶部121の個体誤差の更新があった場合等に満たされてよい。運動パラメータの算出条件が成立した場合は、ステップS1110に進み、それ以外の場合は、ステップS1112に進む。尚、運動パラメータの算出条件が個体誤差記憶部121の個体誤差の更新があった場合に満たされる構成である場合は、ステップS1104の判定結果が"NO"である場合、ステップS1112に進むことになる。また、ステップS1104の判定結果が"YES"である場合、ステップS1108の判定処理を経ずにステップS1110に進むことになる。
In step S1108, the motion
ステップS1110では、運動パラメータ計算部117は、個体誤差記憶部121に記憶された最新の個体誤差に基づいて、運動パラメータを算出し、算出した運動パラメータを運動パラメータ記憶部122に記憶する。
In step S1110, the motion
ステップS1112では、リンクパラメータ計算部113は、関節角取得部111からの情報に基づいて、リンクパラメータを算出する。
In step S1112, the link
ステップS1114では、リンクパラメータ補正部115は、関節角取得部111、リンクパラメータ計算部113、及び個体誤差記憶部121からの情報に基づいて、行列Mi'を算出する。In step S1114, the link
ステップS1116では、ヤコビ行列計算部116は、関節角取得部111からの情報と、ステップS1114で得た行列Mi'とに基づいて、ヤコビ行列J1を算出する。ヤコビ行列J1の算出方法は上述のとおりである。In step S1116, the Jacobian
ステップS1118では、トルク算出部118は、運動パラメータ記憶部122からの運動パラメータと、関節角取得部111からの情報とに基づいて、各モータ41の駆動トルクを算出する。各モータ41の駆動トルクの算出方法は上述のとおりである。
In step S1118, the
ステップS1120では、モータトルク取得部112からの情報と、ステップS1116で得たヤコビ行列J1と、ステップS1118で得た各モータ41の駆動トルクとに基づいて、手先30に掛かる外力Fを算出する。外力Fの算出方法は上述のとおりである。
In step S1120, the external force F applied to the
図11に示す処理よれば、多関節ロボット1の実稼働中に、個体誤差計算部114は、観測データに基づいて、個体誤差(静的誤差及び姿勢依存誤差)に応じた補正行列Ciを算出できる。これにより、多関節ロボット1の実稼働中に、個体誤差を更新できる。そして、外力計算部119は、多関節ロボット1の実稼働中に更新される補正行列Ci及び運動パラメータに基づいて、手先30に掛かる外力Fを算出するので、外力Fの算出精度を実稼働中に高めることができる。According to the process shown in FIG. 11, during the actual operation of the articulated
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 As mentioned above, although each Example was explained in full detail, it is not limited to a specific example, A various deformation | transformation and change are possible within the range described in the claim. In addition, it is also possible to combine all or a plurality of the components of the above-described embodiment.
例えば、図11に示す処理において、個体誤差記憶部121には、個体誤差のうちの、事前に導出された静的誤差(例えば図7に示す方法のステップS702参照)が初期的に記憶されてよい。そして、多関節ロボット1の実稼働中、姿勢依存誤差の算出に必要となる弾性係数kix、kiy、及びkizが導出・更新されてもよい(例えば図7に示す方法のステップS704参照)。For example, in the process shown in FIG. 11, the individual
1 多関節ロボット
21〜23 リンク
30 手先
32 ハンド
40 駆動機構
41 モータ
70 ハンド力覚計測装置
90 観測データ取得部
100 処理装置
110 ハンド位置計測値取得部
111 関節角取得部
112 モータトルク取得部
113 リンクパラメータ計算部
114 個体誤差計算部
115 リンクパラメータ補正部
116 ヤコビ行列計算部
117 運動パラメータ計算部
118 トルク算出部
119 外力計算部
120 観測データ記憶部
121 個体誤差記憶部
122 運動パラメータ記憶部1 Articulated robot
21 to 23
Claims (6)
前記個体誤差は、前記多関節ロボットを実際に動かしたときの前記ハンドの位置の観測データに基づいて導出され、
前記観測データは、前記多関節ロボットのハンドの位置と、前記多関節ロボットの各関節にトルクを付与するモータへの駆動トルクの指令値と、前記多関節ロボットの各関節の関節角度とを含み、
前記個体誤差は、以下の数1のパラメータを最小とするパラメータΔを算出することで算出され、
Pは、前記観測データに基づく前記ハンドの位置であり、Σは、前記観測データの複数のサンプルを累算することを表し、φ(θ 0 ,θ 1 ,…,θ n )は、各関節角度がθ 0 ,θ 1 ,...,θ n であるときの前記ハンドの理論位置を表し、各関節角度がθ 0 ,θ 1 ,...,θ n は、前記観測データに基づき、
前記ハンドの理論位置φ(θ 0 ,θ 1 ,...,θ n )は、前記パラメータΔ及び前記リンクパラメータに基づいて表される、ハンド力覚計測装置。 It acts on the hand of the articulated robot based on link parameters that geometrically represent the position and posture relationship between links in an articulated robot having a link mechanism, and individual errors of the articulated robot affecting the link parameters. a processing unit for calculating an external force to be seen including,
The individual error is derived based on observation data of the position of the hand when the articulated robot is actually moved,
The observation data includes the position of the hand of the articulated robot, a command value of driving torque to a motor for applying a torque to each joint of the articulated robot, and a joint angle of each joint of the articulated robot. ,
The individual error is calculated by calculating a parameter Δ that minimizes the following parameter 1
P is the position of the hand based on the observation data, Σ indicates that a plurality of samples of the observation data are accumulated, and φ (θ 0 , θ 1 ,..., Θ n ) is each joint Represents the theoretical position of the hand when the angle is θ 0 , θ 1 ,..., Θ n , and each joint angle θ 0 , θ 1 ,..., Θ n is based on the observation data
The theoretical position φ (θ 0 , θ 1 ,..., Θ n ) of the hand is represented based on the parameter Δ and the link parameter .
前記個体誤差を算出する個体誤差算出部と、
前記個体誤差を記憶する記憶部と、
前記個体誤差に基づいて、前記リンクパラメータを補正するリンクパラメータ補正部と、
前記個体誤差に基づいて、運動パラメータを算出する運動パラメータ算出部と、
前記運動パラメータに基づいて、前記多関節ロボットの各関節に付与されるトルクを算出するトルク算出部と、
前記多関節ロボットの各関節にトルクを付与するモータへの駆動トルクの指令値と、前記トルク算出部により算出されたトルクとに基づいて、前記外力を算出する外力算出部とを含む、請求項1〜3のうちのいずれか1項に記載のハンド力覚計測装置。 The processing unit
An individual error calculation unit that calculates the individual error;
A storage unit that stores the individual error;
A link parameter correction unit that corrects the link parameter based on the individual error;
A motion parameter calculation unit that calculates a motion parameter based on the individual error;
A torque calculation unit that calculates a torque to be applied to each joint of the articulated robot based on the motion parameter;
An external force calculation unit that calculates the external force based on a command value of a drive torque to a motor that applies a torque to each joint of the articulated robot and the torque calculated by the torque calculation unit. The hand force sense measuring device according to any one of 1 to 3.
前記リンクパラメータに影響する前記多関節ロボットの個体誤差を算出し、
算出した前記リンクパラメータ及び前記個体誤差に基づいて、前記多関節ロボットのハンドに作用する外力を算出する、
ことを含み、
前記個体誤差は、前記多関節ロボットを実際に動かしたときの前記ハンドの位置の観測データに基づいて導出され、
前記観測データは、前記多関節ロボットのハンドの位置と、前記多関節ロボットの各関節にトルクを付与するモータへの駆動トルクの指令値と、前記多関節ロボットの各関節の関節角度とを含み、
前記個体誤差は、以下の数2のパラメータを最小とするパラメータΔを算出することで算出され、
Pは、前記観測データに基づく前記ハンドの位置であり、Σは、前記観測データの複数のサンプルを累算することを表し、φ(θ 0 ,θ 1 ,...,θ n )は、各関節角度がθ 0 ,θ 1 ,...,θ n であるときの前記ハンドの理論位置を表し、各関節角度がθ 0 ,θ 1 ,...,θ n は、前記観測データに基づき、
前記ハンドの理論位置φ(θ 0 ,θ 1 ,...,θ n )は、前記パラメータΔ及び前記リンクパラメータに基づいて表される、コンピューターにより実行されるハンド力覚計測方法。 Calculate link parameters that geometrically represent the position and orientation relationship between links in an articulated robot having a link mechanism,
Calculating individual errors of the articulated robot affecting the link parameters;
The external force acting on the hand of the articulated robot is calculated based on the calculated link parameter and the individual error.
Look at including it,
The individual error is derived based on observation data of the position of the hand when the articulated robot is actually moved,
The observation data includes the position of the hand of the articulated robot, a command value of driving torque to a motor for applying a torque to each joint of the articulated robot, and a joint angle of each joint of the articulated robot. ,
The individual error is calculated by calculating a parameter Δ that minimizes the following parameter 2
P is the position of the hand based on the observation data, Σ represents that a plurality of samples of the observation data are accumulated, and φ (θ 0 , θ 1 ,..., Θ n ) is each joint angle θ 0, θ 1, ..., represent the theoretical position of the hand when a theta n, each joint angle θ 0, θ 1, ..., θ n is the observation data Based on
A computer-implemented method for measuring hand force , wherein a theoretical position φ (θ 0 , θ 1 ,..., Θ n ) of the hand is represented based on the parameter Δ and the link parameter .
前記リンクパラメータに影響する前記多関節ロボットの個体誤差を算出し、
算出した前記リンクパラメータ及び前記個体誤差に基づいて、前記多関節ロボットのハンドに作用する外力を算出する、
処理をコンピューターに実行させ、
前記個体誤差は、前記多関節ロボットを実際に動かしたときの前記ハンドの位置の観測データに基づいて導出され、
前記観測データは、前記多関節ロボットのハンドの位置と、前記多関節ロボットの各関節にトルクを付与するモータへの駆動トルクの指令値と、前記多関節ロボットの各関節の関節角度とを含み、
前記個体誤差は、以下の数3のパラメータを最小とするパラメータΔを算出することで算出され、
Pは、前記観測データに基づく前記ハンドの位置であり、Σは、前記観測データの複数のサンプルを累算することを表し、φ(θ 0 ,θ 1 ,...,θ n )は、各関節角度がθ 0 ,θ 1 ,...,θ n であるときの前記ハンドの理論位置を表し、各関節角度がθ 0 ,θ 1 ,...,θ n は、前記観測データに基づき、
前記ハンドの理論位置φ(θ 0 ,θ 1 ,...,θ n )は、前記パラメータΔ及び前記リンクパラメータに基づいて表される、ハンド力覚計測プログラム。 Calculate link parameters that geometrically represent the position and orientation relationship between links in an articulated robot having a link mechanism,
Calculating individual errors of the articulated robot affecting the link parameters;
The external force acting on the hand of the articulated robot is calculated based on the calculated link parameter and the individual error.
Let the computer execute the process
The individual error is derived based on observation data of the position of the hand when the articulated robot is actually moved,
The observation data includes the position of the hand of the articulated robot, a command value of driving torque to a motor for applying a torque to each joint of the articulated robot, and a joint angle of each joint of the articulated robot. ,
The individual error is calculated by calculating a parameter Δ which minimizes the following Equation 3:
P is the position of the hand based on the observation data, Σ represents that a plurality of samples of the observation data are accumulated, and φ (θ 0 , θ 1 ,..., Θ n ) is each joint angle θ 0, θ 1, ..., represent the theoretical position of the hand when a theta n, each joint angle θ 0, θ 1, ..., θ n is the observation data Based on
A hand force sense measurement program , wherein a theoretical position φ (θ 0 , θ 1 ,..., Θ n ) of the hand is represented based on the parameter Δ and the link parameter .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/072702 WO2017026045A1 (en) | 2015-08-10 | 2015-08-10 | Hand-force measurement device, hand-force measurement method, and hand-force measurement program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017026045A1 JPWO2017026045A1 (en) | 2018-04-26 |
JP6540810B2 true JP6540810B2 (en) | 2019-07-10 |
Family
ID=57982967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017534066A Active JP6540810B2 (en) | 2015-08-10 | 2015-08-10 | Hand force sense measurement device, hand force sense measurement method, and hand force sense measurement program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6540810B2 (en) |
WO (1) | WO2017026045A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019084596A (en) * | 2017-11-02 | 2019-06-06 | 昭和電工株式会社 | Arm control method of multi-shaft robot |
WO2023157151A1 (en) * | 2022-02-16 | 2023-08-24 | 株式会社安川電機 | Robot system, robot adjustment device, program, and robot manufacturing method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4763276A (en) * | 1986-03-21 | 1988-08-09 | Actel Partnership | Methods for refining original robot command signals |
EP1016506B1 (en) * | 1997-01-29 | 2008-12-03 | Kabushiki Kaisha Yaskawa Denki | Device and method for calibrating robot |
JPH10301609A (en) * | 1997-04-28 | 1998-11-13 | Denso Corp | Position error detection method for robot and device therefor |
JP3808321B2 (en) * | 2001-04-16 | 2006-08-09 | ファナック株式会社 | Robot controller |
JP5198514B2 (en) * | 2010-07-22 | 2013-05-15 | 株式会社東芝 | Robot controller |
-
2015
- 2015-08-10 WO PCT/JP2015/072702 patent/WO2017026045A1/en active Application Filing
- 2015-08-10 JP JP2017534066A patent/JP6540810B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2017026045A1 (en) | 2018-04-26 |
WO2017026045A1 (en) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5896789B2 (en) | Robot control apparatus, robot apparatus, robot control method, program, and recording medium | |
JP5929224B2 (en) | robot | |
US11648666B2 (en) | Vibration control of systems with configuration dependent dynamics | |
EP2895305B1 (en) | Constraining robotic manipulators with redundant degrees of freedom | |
JP5743495B2 (en) | Robot controller | |
JP4735795B2 (en) | Redundant manipulator control method | |
JP4256440B2 (en) | Robot program adjustment device | |
JP5618066B2 (en) | Force control robot calibration apparatus and method | |
JP7058929B2 (en) | Drive devices, robot devices, control methods, article manufacturing methods, control programs, and recording media | |
US10882182B2 (en) | Robot apparatus, control method of robot apparatus, and recording medium | |
JP6044511B2 (en) | Robot control method and robot system | |
KR102312368B1 (en) | System, method for controlling redundant robot, and a recording medium having computer readable program for executing the method | |
US20180036883A1 (en) | Simulation apparatus, robot control apparatus and robot | |
JP6248544B2 (en) | Robot, control device, robot system | |
JP2018030210A (en) | Simulation device, control system, robot system, simulation method, program and recording medium | |
JP3349652B2 (en) | Offline teaching method | |
JP2015051469A (en) | Robot controller, robot apparatus, robot control method, program and recording medium | |
JP6003312B2 (en) | Robot system | |
JP6540810B2 (en) | Hand force sense measurement device, hand force sense measurement method, and hand force sense measurement program | |
JP3081518B2 (en) | Robot rigidity identification method and device | |
JP2008200763A (en) | Control device for manipulator for working | |
JP2020075329A (en) | Simulation device, control system, robot system, simulation method, program and recording medium | |
JP2011067884A (en) | Robot control system, robot control method, robot control device, and program, applied to high speed high precision contact work, | |
WO2023157151A1 (en) | Robot system, robot adjustment device, program, and robot manufacturing method | |
JPH058187A (en) | Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6540810 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |