JPH0762613B2 - Object shape detection method - Google Patents

Object shape detection method

Info

Publication number
JPH0762613B2
JPH0762613B2 JP3732586A JP3732586A JPH0762613B2 JP H0762613 B2 JPH0762613 B2 JP H0762613B2 JP 3732586 A JP3732586 A JP 3732586A JP 3732586 A JP3732586 A JP 3732586A JP H0762613 B2 JPH0762613 B2 JP H0762613B2
Authority
JP
Japan
Prior art keywords
force
vector
manipulator
equation
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3732586A
Other languages
Japanese (ja)
Other versions
JPS62195513A (en
Inventor
健 辻村
哲郎 ▲藪▼田
武則 森光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3732586A priority Critical patent/JPH0762613B2/en
Publication of JPS62195513A publication Critical patent/JPS62195513A/en
Publication of JPH0762613B2 publication Critical patent/JPH0762613B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

【発明の詳細な説明】 <産業上の利用分野> 本発明は物体形状検知方法に関し、特に、マニピュレー
タ作業において作業対象現場が海底や不透明環境下にあ
る場合などマニピュレータ操作者が作業対象物体に容易
に近づけなかったり、作業対象物体を目視し難い場合に
適用して有用である。
TECHNICAL FIELD The present invention relates to an object shape detection method, and in particular, a manipulator operator can easily detect a work target object when the work target site is a seabed or an opaque environment in manipulator work. It is useful when it is not close to or it is difficult to see the work target object.

<従来の技術> マニピュレータ作業では一般に、対象物体の位置、形状
を操作者が直接教示する方法が採用されている。しか
し、マニピュレータを屋外で用いる場合は、人間が直接
作業対象現場に行き難いことが多く、操作者によるマニ
ピュレータの直接教示が実施できないことがある。
<Prior Art> In manipulator work, a method in which an operator directly teaches the position and shape of a target object is generally used. However, when the manipulator is used outdoors, it is often difficult for a human to directly go to the work target site, and the operator may not be able to directly teach the manipulator.

そのような場合、マニピュレータに対象物体を認識させ
る方法を採らざるを得ない。
In such a case, there is no choice but to adopt a method of causing the manipulator to recognize the target object.

その方法としては、下記(A),(B)がある。There are the following methods (A) and (B).

(A)光学式計測を用いる方法: ITVカメラ等の視覚センサをマニピュレータに取付け、
視覚センサによる画像を処理することによって、対象物
体の形状、位置を認識する。
(A) Method using optical measurement: A visual sensor such as an ITV camera is attached to the manipulator,
The shape and position of the target object is recognized by processing the image from the visual sensor.

(B)接触センサを用いる方法: マニピュレータに手先効果器として接触センサを取付
け、接触センサを対象物体に接触させ、接触センサの位
置から対象物体の形状、位置を認識する。
(B) Method using contact sensor: A contact sensor is attached to the manipulator as a hand effector, the contact sensor is brought into contact with the target object, and the shape and position of the target object are recognized from the position of the contact sensor.

<発明が解決しようとする問題点> しかし、上記(A)の光学式計測を用いる方法では、必
要とされるITVカメラ等の視覚センサ並びに画像処理装
置等のシステムが極めて大掛かりで高価なものとなると
いう欠点があった。また、作業現場が海底等で採光が不
十分な場所では、強力な光源を必要とする欠点があっ
た。更に、塵埃や煤煙等の不透明な物質が浮遊する環境
下では、視覚センサの使用ができず、またレーザービー
ム等による光学的計測も不可能であるという欠点があっ
た。
<Problems to be Solved by the Invention> However, in the method using the optical measurement described in (A) above, the system such as a required visual sensor such as an ITV camera and an image processing device is extremely large and expensive. There was a drawback that In addition, there is a drawback that a strong light source is required in a place where the work site is a place where the lighting is insufficient such as the sea floor. Further, in an environment in which an opaque substance such as dust or soot is suspended, the visual sensor cannot be used and optical measurement using a laser beam or the like is impossible.

一方、上記(B)の接触センサを用いる方法では、測定
範囲がマニピュレータの手先部分に限定されるため、手
先が対象物体の表面上をまさになぞるようにマニピュレ
ータを制御せねばならないという欠点があった。このよ
うな制御はマニピュレータの精密な位置決めを必要とす
るので、容易ではない。また対象物体の位置、形状を正
確に検出するにはマニピュレータの手先に微小な接触セ
ンサを複数個配置する必要があった。
On the other hand, in the method using the contact sensor of the above (B), since the measurement range is limited to the hand part of the manipulator, there is a drawback that the manipulator must be controlled so that the hand may trace the surface of the target object. . Such control is not easy because it requires precise positioning of the manipulator. Further, in order to accurately detect the position and shape of the target object, it is necessary to arrange a plurality of minute contact sensors at the hand of the manipulator.

本発明は上述した従来技術に鑑み、光学式計測の不可能
な場所でもマニピュレータ作業の対象物体の形状を検知
でき、また接触センサを用いる場合のようなマニピュレ
ータの高精度な位置決めを必要とすることなく対象物体
の形状を検知できる方法を提供することを目的とする。
In view of the above-mentioned conventional technology, the present invention can detect the shape of a target object of manipulator work even in a place where optical measurement is impossible, and also requires highly accurate positioning of the manipulator such as when using a contact sensor. It is an object of the present invention to provide a method capable of detecting the shape of a target object without the need.

<問題点を解決するための手段> 上記目的を達成する本発明による物体形状検知方法は、
位置制御可能なマニピュレータと、このマニピュレータ
の先端に力のベクトル及びモーメントのベクトルを測定
する力センサと、この力センサに接続された力伝達可能
な接触子と、マニピュレータの位置制御用計算機とを用
い、 マニピュレータを動作させて力センサに接続した接触子
によって対象物体の表面を走査し、走査時に接触子に作
用する力のベクトル及びモーメントのベクトルを力
センサで測定し、測定した力のベクトルの内積・
を力のベクトルのノルム‖‖として求めると共に接
触子の幾何学的形状によって定まるスカラー定数Cを求
め、測定した力のベクトル及びモーメントのベクトル
と、力のベクトルのノルム‖‖及びスカラー定数C
とを用いて なる式で与えられる力センサから接触子の力の作用点ま
での位置ベクトルを計算し、この位置ベクトルとマ
ニピュレータの手先位置から対象物体表面の位置を求め
る方法である。
<Means for Solving Problems> An object shape detection method according to the present invention which achieves the above object,
A position controllable manipulator, a force sensor for measuring a force vector and a moment vector at the tip of the manipulator, a force transferable contactor connected to the force sensor, and a position control computer for the manipulator are used. , The manipulator is operated to scan the surface of the target object by the contactor connected to the force sensor, the force vector and moment vector acting on the contactor during scanning are measured by the force sensor, and the inner product of the measured force vector・
Is calculated as the norm of the force vector ‖‖, and the scalar constant C determined by the geometrical shape of the contactor is calculated.
With and This is a method of calculating the position vector from the force sensor given by the equation to the point of action of the force of the contact, and obtaining the position of the target object surface from this position vector and the hand position of the manipulator.

<作用> 力のベクトルとモーメントのベクトルは3次元空間
ではそれぞれ3成分で表わされ、各成分は一般的には図
2に示すように直交座標系xyzを用いて、次のように表
記される。
<Action> The vector of force and the vector of moment are each represented by three components in the three-dimensional space, and each component is generally represented as follows using the Cartesian coordinate system xyz as shown in FIG. It

x軸方向の力:Fx y軸方向の力:Fy z軸方向の力:Fz x軸に関するモーメント:Mx y軸に関するモーメント:My z軸に関するモーメント:Mz また、それぞれの3成分をまとめて、 =(Fx,Fy,Fz) =(Mx,My,Mz) とし、これらが力のベクトル、モーメントのベクトル
である。
Force in x-axis: Fx Force in y-axis: Fy Force in z-axis: Fz Moment about x-axis: Mx Moment about y-axis: My Moment about z-axis: Mz Also, for each of the three components, = (Fx, Fy, Fz) T = (Mx, My, Mz) T, and these are the force vector and the moment vector.

そして、力のベクトルとメーモントのベクトルとの
間には、座標原点Oから力の作用点Pまでの位置ベクト
ルをとすると、 =× の如く、モーメントのベクトルは位置ベクトルと力
のベクトルの外積である、という関係がある。
If the position vector from the coordinate origin O to the point P of force is between the force vector and the Maemont vector, the moment vector is the outer product of the position vector and the force vector, as follows: There is a relationship.

力センサは力覚センサとも呼ばれ、一般に構造体に適当
数の歪ゲージを貼付したものであり、これに力及びモー
メントが加えられたとき、構造体の歪を測定し、歪の測
定値から逆算することにより、力センサに作用した力の
ベクトルとモーメントのベクトルを求めるものであ
る。
A force sensor, also called a force sensor, is generally a structure with an appropriate number of strain gauges attached.When a force and moment are applied to this, the strain of the structure is measured and The vector of the force acting on the force sensor and the vector of the moment are calculated by back calculation.

接触子の任意位置が対象物体の表面に接触するとその反
力が接触子に加わる。この力は力センサに伝達されて力
のベクトルとモーメントのベクトルが測定される。
これらのベクトル,が判ると、接触子の幾何学的形
状は既知であることから、力センサから接触子の力の作
用点即ち対象物体表面上の接触子との接触位置までの位
置ベクトルが計算によって求まる。この位置ベクトル
が判ると、力センサはマニピュレータの先端に存在す
るので、位置ベクトルとマニピュレータ手先位置とか
ら対象物体表面の位置が判る。従ってマニピュレータを
動作させて接触子によって対象物体の表面を走査するこ
とにより、対象物体の形状が判る。
When an arbitrary position of the contactor comes into contact with the surface of the target object, the reaction force is applied to the contactor. This force is transmitted to the force sensor, and the force vector and the moment vector are measured.
When these vectors are known, the geometrical shape of the contact is known, so the position vector from the force sensor to the point of action of the force of the contact, that is, the contact position with the contact on the surface of the target object is calculated. Determined by. When this position vector is known, the force sensor is present at the tip of the manipulator, so the position of the target object surface can be known from the position vector and the manipulator hand position. Therefore, the shape of the target object can be known by operating the manipulator and scanning the surface of the target object with the contactor.

<実施例> 以下、図面により本発明の実施例を説明する。<Example> An example of the present invention will be described below with reference to the drawings.

第1図は本発明を実現する装置の第1の実施例を示す模
式図であり、1は6自由度のマニピュレータであり、そ
の先端に力センサ2が備えられている。この力センサ2
には、力センサ2に力を伝達する直線形状を持つ接触子
3が接続されている。4は計算機であり、マニピュレー
タ1の位置制御を行うと共に、形状検知の所要の計算を
行う。5は形状検知の対象物体である。形状を検知する
には、マニピュレータ1を動作させて接触子3を対象物
体5に接触させる。
FIG. 1 is a schematic view showing a first embodiment of an apparatus for realizing the present invention, 1 is a manipulator with 6 degrees of freedom, and a force sensor 2 is provided at its tip. This force sensor 2
A contact 3 having a linear shape for transmitting a force to the force sensor 2 is connected to the. Reference numeral 4 denotes a computer that controls the position of the manipulator 1 and performs required calculations for shape detection. Reference numeral 5 is a target object for shape detection. To detect the shape, the manipulator 1 is operated to bring the contactor 3 into contact with the target object 5.

接触子3の任意位置に対象物体5と接触してその反力
(接触力)が加わると、この力は接触子3を介して
力センサ2に伝達される。力センサ2は3次元座標上の
直交する3個の力成分、及び同3次元座標の直交する各
軸まわりの3個のモーメント成分を測定する。これら合
計6個の力情報と接触子3の形状特性に基づき、力セン
サ2から接触力の作用点までの位置ベクトルを推定
することができる。一方、力センサ2自体の位置は、マ
ニピュレータ1のアーム長と関節回転角から計算で求ま
る。
When the reaction force (contact force) is applied to an arbitrary position of the contactor 3 by contacting the target object 5, this force is transmitted to the force sensor 2 via the contactor 3. The force sensor 2 measures three orthogonal force components on the three-dimensional coordinate and three moment components around each orthogonal axis of the three-dimensional coordinate. The position vector from the force sensor 2 to the point of application of the contact force can be estimated based on the force information of these six pieces and the shape characteristics of the contactor 3. On the other hand, the position of the force sensor 2 itself can be calculated from the arm length of the manipulator 1 and the joint rotation angle.

以上のことから、マニピュレータ1を基準にした対象物
体5の位置▲▼は次式(1)で与えられる。
From the above, the position of the target object 5 with respect to the manipulator 1 is given by the following equation (1).

ただし、Ti(i=1,2…6)は回転を表わす変換マトリ
クス、 θi(i=1,2…6)は関節回転角、 ▲▼(i=0,1…6)はマニピューレータアームを
表わすベクトル、とする。接触子3によって対象物体5
の表面を走査すれば、その都度得られる位置▲▼
から形状が判る。
Where Ti (i = 1,2 ... 6) is the transformation matrix that represents rotation, θi (i = 1,2 ... 6) is the joint rotation angle, and ▲ ▼ (i = 0,1 ... 6) is the manipulator arm. Is a vector that represents. Target object 5 by contactor 3
The position obtained each time by scanning the surface of ▲ ▼
The shape can be seen from.

第2図は、力情報から接触力の作用点Pを推定する方
法を説明する図である。力センサ2固有の3次元座標
(x,y,z)においてなる位置ベクトルで表わされる作
用点Pに力が働く場合、力センサ2の力測定値(F
x,Fy,Fz)とモーメント測定値(Mx,My,Mz)はそ
れぞれ次式(2),(3)を満足する。
FIG. 2 is a diagram illustrating a method of estimating the point of action P of the contact force from the force information. When the force acts on the action point P represented by the position vector formed by the three-dimensional coordinates (x, y, z) specific to the force sensor 2, the force measurement value (F
x, Fy, Fz) T and measured moment value (Mx, My, Mz) T satisfy the following equations (2) and (3), respectively.

= …式(2) =× …式(3) ただし、Fi(i=x,y,z)は各軸方向の力、Mi(i=x,
y,z)は各軸に関するモーメント、・×・はベクトルの
外積を表わすものとする。
= ... Formula (2) = × ... Formula (3) where Fi (i = x, y, z) is the force in each axial direction, Mi (i = x,
y, z) is the moment about each axis, and × is the cross product of the vectors.

そこで式(2),(3)をについて解くと、作用点P
の位置ベクトルが次式(4)のように求まる。
Then, solving equations (2) and (3), the action point P
The position vector of is calculated by the following equation (4).

ただし、‖・‖はベクトルの内積として定義したノル
ム、Cは接触子3の形状、つまり幾何学的条件から決ま
るスカラー定数である。この未定定数Cの値は、例えば
接触子3が平面(a1x+a2y+a3z+a4=0)内に存在す
る場合には、次式(5)で与えられる。
However, ‖ and ‖ are norms defined as the inner product of the vectors, and C is the shape of the contactor 3, that is, a scalar constant determined from the geometric conditions. The value of the undetermined constant C is given by the following equation (5) when the contactor 3 exists in a plane (a 1 x + a 2 y + a 3 z + a 4 = 0), for example.

また、接触子3と対象物体5との間に摩擦が発生しない
場合には、対象物体5の表面の法線はで与えられる。
When friction does not occur between the contactor 3 and the target object 5, the normal line of the surface of the target object 5 is given by.

形状検知を行う場合、計算機4はマニピュレータ1を作
動させ、その自由度を利用して力センサ2から伸びた接
触子3によって対象物体5の表面を走査する。この位置
制御の他、計算機4は (a)力のベクトルのノルム‖‖を求める手段と、 (b)接触子3の幾何学的形状によって定まるスカラー
定数Cを前式(5)等により求める手段と、 (c)前式(4)で与えられる力センサ2から対象物体
5表面までの位置ベクトルを求める手段と、 (d)この位置ベクトルとマニピュレータ1の手先位
置の計算から、前式(1)で与えられる対象物体5表面
の位置▲▼を求める手段を有する。
When performing shape detection, the computer 4 operates the manipulator 1 and uses its degree of freedom to scan the surface of the target object 5 with the contactor 3 extending from the force sensor 2. In addition to this position control, the computer 4 (a) means for obtaining the norm of the force vector ‖‖, and (b) means for obtaining the scalar constant C determined by the geometrical shape of the contactor 3 using the above equation (5) or the like. And (c) means for obtaining the position vector from the force sensor 2 to the surface of the target object 5 given by the previous equation (4), and (d) calculation of the position vector and the hand position of the manipulator 1 from the previous equation (1 ) Has a means for obtaining the position ▲ ▼ of the surface of the target object 5.

計算機4は接触子3によって対象物体5表面を走査した
時、力センサ2が検出した力情報から、上述した(a)
〜(d)の手段によって対象物体5表面の位置を求め
る。つまり形状が検知される。この場合、対象物体5に
接触子3のどの部位が接触しても物体の位置を検出する
ことができるから、マニピュレータ1の位置決め精度が
高くなくても、対象物体5の形状を精度良く検知でき
る。
When the surface of the target object 5 is scanned by the contactor 3, the computer 4 uses the force information detected by the force sensor 2 to determine the above-mentioned (a).
The position of the surface of the target object 5 is obtained by means of (d). That is, the shape is detected. In this case, since the position of the object can be detected regardless of which part of the contactor 3 contacts the target object 5, the shape of the target object 5 can be accurately detected even if the positioning accuracy of the manipulator 1 is not high. .

ここで、第2図で説明した力センサ2から力の作用点ま
での位置を推定する方法の実験結果を、第3図、第4
図、第5図に示す。なおこれらの図に示す実験では、z
軸上の作用点に外力を加えている。また、接触子3とし
ては、長さ110mmのアルミニウム丸棒を使用した。また
力センサ2とては、精度約±1Nのものを使用した。
Here, the experimental results of the method for estimating the position from the force sensor 2 to the force application point described in FIG. 2 are shown in FIGS.
Shown in FIG. In the experiments shown in these figures, z
External force is applied to the action point on the axis. As the contactor 3, an aluminum round bar having a length of 110 mm was used. The force sensor 2 used has an accuracy of about ± 1N.

第3図は、外力を=(0,10N,0)と一定にした場合
における、真の作用点の位置zと力情報からの推定値
lzとの関係を示す。この実験から、平均誤差0.9%の精
度で作用点の位置を推定できることを確認した。
Figure 3 shows the estimated value from the position z of the true point of action and the force information when the external force is constant at = (0,10N, 0) T.
Show the relationship with lz. From this experiment, it was confirmed that the position of the action point can be estimated with an accuracy of 0.9% of the average error.

第4図は、作用点の位置を=(0,0,100mm)と固定
し、力の方向arg()を変えた場合の力情報からの推
定値lzを示す。この実験から、力の方向arg()によ
らず標準偏差4.2%の精度で作用点の位置を推定できる
ことを確認した。
FIG. 4 shows the estimated value lz from the force information when the position of the action point is fixed as = (0,0,100 mm) T and the direction arg () of the force is changed. From this experiment, it was confirmed that the position of the action point can be estimated with an accuracy of 4.2% standard deviation regardless of the direction of force arg ().

第5図は、作用点の位置を=(0,0,100mm)と固定
し、今度は力の大きさを変えた場合の力情報からの推定
値lzを示す。この実験から、力の大きさによらず標準偏
差3.3%以下の精度で作用点の位置を推定できることを
確認した。
FIG. 5 shows the estimated value lz from the force information when the position of the action point is fixed as = (0,0,100 mm) T and this time the magnitude of the force is changed. From this experiment, it was confirmed that the position of the action point can be estimated with an accuracy of 3.3% or less standard deviation regardless of the magnitude of force.

次に第6図、第7図により、電話機送受話器6を形状検
知のモデルとした実験を説明する。第1図に示した物体
形状検知装置を用いて第6図の送受話器6中破線で示す
部分7をトレースし、その輪郭形状を検出した。第7図
に四角印でプロットしたものが検出結果8である。
Next, an experiment using the telephone handset 6 as a model for shape detection will be described with reference to FIGS. 6 and 7. Using the object shape detection device shown in FIG. 1, a portion 7 indicated by a broken line in the handset 6 of FIG. 6 was traced and its contour shape was detected. The detection result 8 is plotted with square marks in FIG.

第8図は本発明の第2の実施例を示し、ここでは力セン
サ2に、半球状の表面を持つ接触子9が接続されてい
る。マニピュレータ1、力センサ2、計算機4、対象物
体5第1図における同符号のものと同じである。但し、
計算機4が求める接触子9の形状に依存する定数Cは前
式(5)の代りに、ベクトル内積をベクトルのノルムと
定義すると、 を満足する定数である。なお、rは接触子9の半球の半
径とする。ここで、 (×)/‖‖=(Lx,Ly,Lz)、=(Fx,Fy,F
z)とおくと、定数Cは で与えられる。ただし、 b1=F +F +F b2=LxFx+LyFy+LzLz b3=L +L +L +r2 とする。
FIG. 8 shows a second embodiment of the invention, in which a force sensor 2 is connected to a contact 9 having a hemispherical surface. The manipulator 1, the force sensor 2, the calculator 4, and the target object 5 are the same as those having the same reference numerals in FIG. However,
The constant C depending on the shape of the contactor 9 calculated by the computer 4 defines the vector inner product as the norm of the vector instead of the equation (5). Is a constant that satisfies Note that r is the radius of the hemisphere of the contactor 9. Where (×) / ‖‖ = (Lx, Ly, Lz) T , = (Fx, Fy, F
z) Putting T , the constant C is Given in. However, the b 1 = F 2 x + F 2 y + F 2 z b 2 = LxFx + LyFy + LzLz b 3 = L 2 x + L 2 y + L 2 z + r 2.

第8図の実施例の場合も、計算機4がマニピュレータ1
を位置制御して力センサ2に接続した接触子9によって
対象物体5の表面を走査し、力センサ2が検出する力情
報から、対象物体5表面の位置を求める。つまり、計算
機4は力センサ2の検出した力のベクトルとモーメン
トのベクトルを求め、更にベクトルのノルム=‖
‖を求め、更に前式(6)または(7)により接触子9
の幾何学的形状で定まるスカラー定数Cを求め、前式
(4)で与えられる作用点の位置ベクトルを求め、こ
の位置ベクトルとマニピュレータ1の手先位置の計算
から前式(1)で与えられる対象物体5表面の位置▲
▼を求める。
Also in the case of the embodiment shown in FIG. 8, the computer 4 is operated by the manipulator 1.
The surface of the target object 5 is scanned by the contactor 9 connected to the force sensor 2 by position control, and the position of the surface of the target object 5 is obtained from the force information detected by the force sensor 2. That is, the computer 4 obtains the vector of force and the vector of moment detected by the force sensor 2, and further the norm of vector = ‖
‖ Is calculated, and then the contactor 9 is calculated by the formula (6) or (7).
The scalar constant C determined by the geometrical shape of is calculated, the position vector of the action point given by the previous equation (4) is obtained, and the object given by the previous equation (1) is calculated from this position vector and the hand position of the manipulator 1. Position of surface of object 5
Ask for ▼.

第8図の実施例では接触子9が面の接触部分を持つた
め、検出有効範囲が広いという利点が有る。
In the embodiment shown in FIG. 8, since the contactor 9 has a surface contact portion, there is an advantage that the effective detection range is wide.

ここで、前出の式(1),式(4),式(5),式
(6)及び式(7)の導出過程をまとめて説明する。
Here, the derivation process of the above-mentioned formula (1), formula (4), formula (5), formula (6) and formula (7) will be described collectively.

〈式(1)の導出〉 まず、式(1)の導出について第9図を参照して説明す
る。式(1)はマニピュレータの運動学の式である。第
9図は第1図のマニピュレータ1の先端部分を示し、第
9図中の記号Jiは第i関節固有の座標系を表わしてい
る。
<Derivation of Equation (1)> First, derivation of Equation (1) will be described with reference to FIG. Equation (1) is a kinematic equation of the manipulator. 9 shows the tip portion of the manipulator 1 in FIG. 1, and the symbol J i in FIG. 9 represents the coordinate system specific to the i-th joint.

そこで、第6関節固有の座標系J6から見た対象物体5の
位置を▲▼とすれば、 となる。次に、第5関節固有の座標系J5から見た対象物
体5の位置▲▼は、 と表わされる。ここでT6(θ)は第6関節の回転を表
わし、第6関節座標系J6から第5関節座標系J5への座標
変換を行うマトリクスである。次に、第4関節固有の座
標系J4から見た対象物体5の位置▲▼は、 と表わされる。T5(θ)は第5関節の回転を表わし、
第5関節座標系J5から第4関節座標系J4への座標変換を
行うマトリクスである。
Therefore, if the position of the target object 5 viewed from the coordinate system J 6 peculiar to the sixth joint is ▲ ▼, Becomes Next, the position ▲ ▼ of the target object 5 viewed from the coordinate system J 5 peculiar to the fifth joint is Is represented. Here, T 66 ) represents the rotation of the sixth joint, and is a matrix that performs coordinate conversion from the sixth joint coordinate system J 6 to the fifth joint coordinate system J 5 . Next, the position ▲ ▼ of the target object 5 viewed from the coordinate system J 4 peculiar to the fourth joint is Is represented. T 55 ) represents the rotation of the fifth joint,
This is a matrix for performing coordinate conversion from the fifth joint coordinate system J 5 to the fourth joint coordinate system J 4 .

以下、同様の操作により順次第3、第2、第1各関節座
標系に変換を行い、最後に基準座標系J0での対象物体5
の位置▲▼が前式(1)の如く求まる。
Hereinafter, the same operation is performed to sequentially convert the third, second, and first joint coordinate systems, and finally the target object 5 in the reference coordinate system J 0 is converted.
The position ▲ ▼ of is obtained as in the previous equation (1).

〈式(4)の導出〉 前出の式(2)式と(3)式から、次式(8)が成立す
る。
<Deriving Expression (4)> From the above Expressions (2) and (3), the following Expression (8) is established.

=× …式(8) この式(8)を、lについてのベクトル方程式と見て解
くと、前式(4)が得られる。その証明を以下に記す。
= × Equation (8) When this equation (8) is regarded as a vector equation for l and solved, the previous equation (4) is obtained. The proof is given below.

先ず式(8)から、ベクトル外積の性質によりとは
直交する。そこで、Kをスカラー定数、を任意ベクト
ルとし、 =K(×) …式(9) とおいて、式(8)に代入すると、 =K(×)× ∴=K〔−(・)+(・)〕…式(10) を得る。ここで、(・)はベクトルの内積を表わす。式
(8)から、外積の性質によりとは直交するので、
・=0である。従って、式(10)は =K(・) …式(11) となり、と垂直でないベクトルをとればスカラー定
数Kが K=1/(・) …式(12) と定まり、式(8)の特殊解が次式(13)で与えら
れる。
First, from equation (8), due to the nature of the vector cross product, and are orthogonal. Therefore, let K be a scalar constant, and let = K (×) ... Equation (9) and substitute into Equation (8): = K (×) × ∴ = K [-(・) + (・)]… We obtain equation (10). Here, (·) represents the inner product of the vectors. From the equation (8), because of the property of the outer product, and are orthogonal,
・ = 0. Therefore, equation (10) becomes = K (•) ... equation (11), and if a vector that is not perpendicular to is taken, the scalar constant K is determined as K = 1 / (•) ... equation (12), and The special solution is given by the following equation (13).

▲▼=(・)/(・) …式(13) そこで、ベクトルの前記条件(と垂直でないこと)
を満たすものとしてを選べば、特殊解▲▼は次式
(14)で与えられる。
▲ ▼ = (・) / (・)… Equation (13) Therefore, the condition of the vector (not perpendicular to the above)
If is selected to satisfy, the special solution ▲ ▼ is given by the following equation (14).

▲▼=(×)/(・) =(×)/‖‖ …式(14) 次に、任意の解(一般解)については式(8)の通
り、=×であり、特殊解▲▼については=
▲▼×であるから、 (−▲▼)×=0 …式(15) が成立する。式(15)より、(−▲▼)はに平
行であるから、 −▲▼=C・ …式(16) とおける。但し、Cは任意のスカラー定数である。
▲ ▼ = (×) / (・) = (×) / ‖‖… Equation (14) Next, for an arbitrary solution (general solution), as in Equation (8), = ×, and a special solution ▲ ▼ About =
Since it is ▲ ▼ ×, (-▲ ▼) × = 0 ... Expression (15) is established. According to the equation (15), (-▲ ▼) is parallel to, so that − ▲ ▼ = C. However, C is an arbitrary scalar constant.

以上の結果、式(14)と式(16)より、下記の通り前式
(4)が成立する。
As a result, from the equations (14) and (16), the following equation (4) is established.

=(×)/‖‖+C・ …式(4) 〈式(5)の導出〉 式(4)中のベクトルを下記のように表記する。= (×) / ‖‖ + C ... Formula (4) <Derivation of Formula (5)> The vector in Formula (4) is expressed as follows.

(×)/‖‖=(Lx,Ly,Lz) …式(17) =(Fx,Fy,Fz) …式(18) これにより、式(4)は次式(19)となる。(×) / ‖‖ = (Lx, Ly, Lz) T Equation (17) = (Fx, Fy, Fz) T Equation (18) As a result, the equation (4) becomes the following equation (19).

=(Lx,Ly,Lz)+C(Fx,Fy,Fz) =(Lx+CFx,Ly+CFy,Lz+CFz) …式(19) この式(19)が前述した接触子3が存在する平面の方程
式a1x+a2y+a3z+a4=0を満足するから、次式(20)
が成立する。
= (Lx, Ly, Lz) T + C (Fx, Fy, Fz) T = (Lx + CFx, Ly + CFy, Lz + CFz) Equation (19) Equation (19) of the plane in which the contactor 3 described above exists (a 1) Since x + a 2 y + a 3 z + a 4 = 0 is satisfied, the following equation (20)
Is established.

a(Lx+CFx)+a(Ly+CFy)+a(Lz+CFz)+a=0 …式(2
0) この式(20)をCについて解くと、下記の通り前式
(5)が得られる。
a 1 (Lx + CFx) + a 2 (Ly + CFy) + a 3 (Lz + CFz) + a 4 = 0… Equation (2
0) By solving this equation (20) for C, the following equation (5) is obtained.

C=-(aLx+aLy+aLz+a)/(aFX+aFy+aFz)…式
(5) 〈式(6)の導出〉 原点の中心とする半径rの球面上に接触点の位置ベクト
ルがある場合には、ベクトルの内積をベクトルのノル
ムとしたことにより、次式(21)が成立する。
C =-(a 1 Lx + a 2 Ly + a 3 Lz + a 4 ) / (a 1 FX + a 2 Fy + a 2 Fz) ... Formula (5) <Derivation of Formula (6)> When the position vector of the contact point is on the spherical surface of radius r, the following expression (21) is established by setting the inner product of the vector as the norm of the vector.

‖‖=r2 …式(21) そこで、式(21)を式(4)に代入すれば、下記の通り
となり、前式(6)が得られる。
‖‖ = r 2 Equation (21) Then, by substituting the equation (21) into the equation (4), the following is obtained and the previous equation (6) is obtained.

〈式(7)の導出〉 式(6)の左辺を式(17)及び式(18)を用いて展開す
れば、下式(22)となる。但し、b1,b2及びb3は先に式
(7)に関して既に定義したものである。
<Derivation of Expression (7)> When the left side of Expression (6) is expanded using Expressions (17) and (18), the following Expression (22) is obtained. However, b 1 , b 2 and b 3 have already been defined in relation to the equation (7).

‖(Lx,Ly,Lz)+C(Fx,Fy,Fz)‖ =‖(Lx,CFx,Ly+CFy,Lz+CFz)‖ =((Lx+CFx)+(Ly+CFy)+(Lz+CFz)) =(b1C2+2b2 2C+b3+r2) …式(22) 従って、式(6)は次式(23)のようになる。(Lx, Ly, Lz) T + C (Fx, Fy, Fz) T ‖ = ‖ (Lx, CFx, Ly + CFy , Lz + CFz) T ‖ = ((Lx + CFx) 2 + (Ly + CFy) 2 + (Lz + CFz) 2) = (B 1 C 2 + 2b 2 2 C + b 3 + r 2 ) Equation (22) Therefore, Equation (6) becomes Equation (23) below.

b1 2C2+2b2 2C+b3+r2=r2 ∴b1 2C2+2b2 2C+b3=0 …式(23) この式(23)をCについて解くと、下記の通り前式
(7)を得る。
b 1 2 C 2 + 2b 2 2 C + b 3 + r 2 = r 2 ∴b 1 2 C 2 + 2b 2 2 C + b 3 = 0 Equation (23) When this equation (23) is solved for C, the following equation ( 7) is obtained.

〈発明の効果〉 本発明によれば、力センサと接触子を用いて物体の形状
を検知するので、海底作業等光学式計測が行えないよう
な環境でも物体の形状を検知することができる。
<Effects of the Invention> According to the present invention, the shape of an object is detected by using a force sensor and a contact, so that the shape of the object can be detected even in an environment where optical measurement cannot be performed, such as undersea work.

また本発明によれば、物体に接触子のどの部位が接触し
ても、即ち接触子の測定範囲内に物体が存在しさえすれ
ば力センサに接触力が伝達されて物体の位置を検出でき
るから、従来の接触センサを手先効果器として用いる場
合のようにマニピュレータを高精度で位置制御すること
なく、物体形状を検知することができる。
Further, according to the present invention, no matter which part of the contactor comes into contact with the object, that is, as long as the object exists within the measurement range of the contactor, the contact force is transmitted to the force sensor and the position of the object can be detected. Therefore, the object shape can be detected without controlling the position of the manipulator with high accuracy as in the case where the conventional contact sensor is used as the hand effector.

また本発明をマニピュレータ作業に応用する場合は、リ
アルタイムで対象物体の形状情報をフィードバックして
高精度な制御を行うことができる。
Further, when the present invention is applied to the manipulator work, it is possible to feed back the shape information of the target object in real time to perform highly accurate control.

【図面の簡単な説明】[Brief description of drawings]

第1図〜第8図は本発明に関し、第1図は本発明の第1
の実施例である物体形状検知装置の模式図、第2図は力
情報から接触子の作用点Pを推定する方法の説明図、
第3図は力の作用点の位置とその位置の推定値との関係
を示す図、第4図は力の方向と力の作用点の推定値との
関係を示す図、第5図は力の大きさと力の作用点の推定
値との関係を示す図、第6図は形状検知対象物体の一例
を示す図、第7図は第1図の装置を用いて第6図の物体
の形状を検知した結果を示す図、第8図は第2の実施例
装置を示す模式図、第9図は式(1)を導出するための
説明図である。 図面中、1はマニピュレータ、2は力センサ、3は直線
形状の接触子、4は計算機、5は対象物体、6は形状検
知対象例の電話機送受話機、7はトレース軌道、8は形
状検知結果、9は球形状の接触子である。
1 to 8 relate to the present invention, and FIG. 1 corresponds to the first of the present invention.
FIG. 2 is a schematic diagram of an object shape detection device that is an embodiment of FIG. 2, and FIG. 2 is an explanatory diagram of a method of estimating the action point P of the contact from force information.
FIG. 3 is a diagram showing the relationship between the position of the point of action of force and the estimated value of that position, FIG. 4 is a diagram showing the relationship between the direction of force and the estimated value of the point of action of force, and FIG. Showing the relationship between the magnitude of the force and the estimated value of the point of action of force, FIG. 6 is a diagram showing an example of the shape detection target object, and FIG. 7 is the shape of the object of FIG. 6 using the apparatus of FIG. FIG. 8 is a diagram showing the result of detection of the above, FIG. 8 is a schematic diagram showing the device of the second embodiment, and FIG. 9 is an explanatory diagram for deriving the formula (1). In the drawings, 1 is a manipulator, 2 is a force sensor, 3 is a linear contactor, 4 is a calculator, 5 is a target object, 6 is a telephone handset of a shape detection target example, 7 is a trace trajectory, and 8 is a shape detection result. , 9 are spherical contacts.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05B 19/4063 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G05B 19/4063

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】位置制御可能なマニピュレータと、このマ
ニピュレータの先端に備えられた力のベクトル及びモー
メントのベクトルを測定する力センサと、この力センサ
に接続された力伝達可能な接触子と、マニピュレータの
位置制御用計算機とを用い、 マニピュレータを動作させて力センサに接続した接触子
によって対象物体の表面を走査し、走査時に接触子に作
用する力のベクトル及びモーメントのベクトルを力
センサで測定し、測定した力のベクトルの内積・
を力のベクトルのノルム‖‖として求めると共に接
触子の幾何学的形状によって定まるスカラー定数Cを求
め、測定した力のベクトル及びモーメントのベクトル
と、力のベクトルのノルム‖‖及びスカラー定数C
とを用いて、 なる式で与えられる力センサから接触子の力の作用点ま
での位置ベクトルを計算し、この位置ベクトルとマ
ニピュレータの手先位置から対象物体表面の位置を求め
ることを特徴とする物体形状検知方法。
1. A manipulator capable of position control, a force sensor provided at a tip of the manipulator for measuring a force vector and a moment vector, a contact capable of transmitting force connected to the force sensor, and a manipulator. Using the computer for position control described above, the manipulator is operated to scan the surface of the target object with the contactor connected to the force sensor, and the force vector and moment vector acting on the contactor during scanning are measured by the force sensor. , Inner product of the measured force vector
Is calculated as the norm of the force vector ‖‖, and the scalar constant C determined by the geometrical shape of the contactor is calculated.
With and An object shape detection method characterized by calculating a position vector from a force sensor given by the following equation to a point of action of a force of a contact, and obtaining a position of a target object surface from the position vector and a hand position of a manipulator.
JP3732586A 1986-02-24 1986-02-24 Object shape detection method Expired - Fee Related JPH0762613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3732586A JPH0762613B2 (en) 1986-02-24 1986-02-24 Object shape detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3732586A JPH0762613B2 (en) 1986-02-24 1986-02-24 Object shape detection method

Publications (2)

Publication Number Publication Date
JPS62195513A JPS62195513A (en) 1987-08-28
JPH0762613B2 true JPH0762613B2 (en) 1995-07-05

Family

ID=12494497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3732586A Expired - Fee Related JPH0762613B2 (en) 1986-02-24 1986-02-24 Object shape detection method

Country Status (1)

Country Link
JP (1) JPH0762613B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02131888A (en) * 1988-11-14 1990-05-21 Agency Of Ind Science & Technol Handling device for cloth piece
JP3809542B2 (en) * 2005-07-29 2006-08-16 独立行政法人港湾空港技術研究所 Remote operation system
JP4988545B2 (en) * 2007-12-29 2012-08-01 国立大学法人埼玉大学 External force detection method and detection apparatus
JP6554039B2 (en) * 2016-01-25 2019-07-31 三菱重工業株式会社 Power assist suit

Also Published As

Publication number Publication date
JPS62195513A (en) 1987-08-28

Similar Documents

Publication Publication Date Title
CN102825602B (en) PSD (Position Sensitive Detector)-based industrial robot self-calibration method and device
US20120123590A1 (en) System and method for programming robots
US12011825B2 (en) Device, method and program for estimating weight and position of gravity center of load by using robot
JPH06131032A (en) Robot device and teaching method for robot device
Debus et al. Cooperative human and machine perception in teleoperated assembly
JPS63135814A (en) Apparatus for controlling posture of probe
Bonitz et al. Calibrating a multi-manipulator robotic system
EP4116042A1 (en) Tool head posture adjustment method and apparatus, and readable storage medium
JPH0762613B2 (en) Object shape detection method
JPH05111897A (en) Finding method of relative position relationship between plurality of robots
CN116852359A (en) TCP (Transmission control protocol) quick calibration device and method based on robot hand teaching device
JPS63162180A (en) Teaching method of robot
CN111006706A (en) Rotating shaft calibration method based on line laser vision sensor
CN110539330A (en) robot navigation system position calibration device and calibration method thereof
JP2000055664A (en) Articulated robot system with function of measuring attitude, method and system for certifying measuring precision of gyro by use of turntable for calibration reference, and device and method for calibrating turntable formed of n-axes
JPH0727408B2 (en) Robot handling device with fixed 3D vision
JP3078884B2 (en) Copying control device
JPH07129231A (en) Noncontact point teaching device
JP3206775B2 (en) Copying control method and copying control device for machining / assembly device
JPH03104572A (en) Method and device for controlling master slave manipulator
JP3196145B2 (en) Contact point and contact normal detection method for machining / assembly equipment
JPS60131191A (en) Detector for external force
JPH06179187A (en) Direction detection type teaching mechanism
JPH0731536B2 (en) Teaching data correction robot
GB2295906A (en) Control of industrial robots

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees