JPH06331380A - Method and apparatus for identifying motion of object - Google Patents

Method and apparatus for identifying motion of object

Info

Publication number
JPH06331380A
JPH06331380A JP5145633A JP14563393A JPH06331380A JP H06331380 A JPH06331380 A JP H06331380A JP 5145633 A JP5145633 A JP 5145633A JP 14563393 A JP14563393 A JP 14563393A JP H06331380 A JPH06331380 A JP H06331380A
Authority
JP
Japan
Prior art keywords
motion
orientation
time points
identifying
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5145633A
Other languages
Japanese (ja)
Inventor
Masayoshi Hashima
正芳 橋間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5145633A priority Critical patent/JPH06331380A/en
Publication of JPH06331380A publication Critical patent/JPH06331380A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To achieve an identification of motion with higher reliability concerning a method and an apparatus for identifying motion which achieves a measurement from information on motion of an object moving in a space. CONSTITUTION:In this method of identifying motion of an object making a uniform linear motion and an isometrical motion, a processing in which the object is photographed to measure a position attitude of the object from an image taken thereof is performed at least at more than three time-series points and a combination of three time points from the more than four time points is selected to determine a motion parameter of the object based on a position attitude data at the three time points. The optional combination of three time points is changed sequentially to obtain a plurality of motion parameters thereby suppressing errors of the motion parameters based on the plurality of motion parameters.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、空間を運動している物
体の運動情報を計測する運動同定方法と運動同定装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion identifying method and a motion identifying apparatus for measuring motion information of an object moving in space.

【0002】例えば宇宙空間を浮遊している人工衛星を
回収するため、それを捕獲する作業を宇宙ロボット等に
行わせることが考えられる。このため、無人の宇宙ロボ
ットが自律的に人工衛星に接近してそれを捕獲できるよ
うに、その人工衛星の位置姿勢等の運動情報を計測し運
動を同定することが必要とされる。
For example, in order to collect an artificial satellite floating in outer space, it is conceivable to have a space robot or the like perform a work of capturing it. Therefore, in order for an unmanned space robot to approach an artificial satellite autonomously and capture it, it is necessary to measure motion information such as the position and orientation of the artificial satellite and identify the motion.

【0003】[0003]

【従来の技術】空間を運動する物体の運動を同定する方
法として、例えば本出願人は次の方法を先に提案してい
る。すなわち、人工衛星等の運動物体に取り付けられた
ターゲットマークの位置姿勢を計測し、その位置姿勢の
データを3つの時刻についてそれぞれ得て、それらに基
づいて物体の運動情報を算出するものである。以下、こ
の方法について詳説する。
2. Description of the Related Art For example, the present applicant has previously proposed the following method for identifying the motion of an object moving in space. That is, the position and orientation of a target mark attached to a moving object such as an artificial satellite is measured, the data of the position and orientation are obtained for each of three times, and the movement information of the object is calculated based on the data. Hereinafter, this method will be described in detail.

【0004】図6に示すように、空間を等速直線運動か
つ等角速度運動している物体について、3つの時刻i、
(i+1)、(i+2)において物体に付されたターゲ
ットマークを撮影して、各時刻の撮影データから各時刻
におけるターゲットマークの位置姿勢を計測する。これ
らの3時刻における位置姿勢データから座標変換行列に
よって物体の並進速度v、物体の回転軸の方向kおよび
回転角ωを座標変換行列によって求めることにより、物
体の位置姿勢および速度を同定する。
As shown in FIG. 6, an object moving in a space at a constant linear velocity and at a constant angular velocity has three time points i,
At (i + 1) and (i + 2), the target mark attached to the object is photographed, and the position and orientation of the target mark at each time is measured from the photographed data at each time. The position and orientation and velocity of the object are identified by obtaining the translational velocity v of the object, the direction k of the rotation axis of the object and the rotation angle ω from the position and orientation data at these three times by the coordinate transformation matrix.

【0005】図7には装置構成が示される。図示のよう
に、運動物体としての人工衛星10にその位置姿勢を認
識するためのターゲットマーク11を取り付け、その下
に捕獲用の被把持棒13を設ける。人工衛星10を捕獲
する宇宙ロボット30に捕獲用のアーム31と外界撮影
用のカメラ20を取り付け、カメラ20で撮影した画像
データを画像処理装置40で処理し、その処理データに
基づいて演算処理装置50で各運動情報を演算して、そ
れに基づいてロボット制御装置60でアーム30を制御
する。
FIG. 7 shows a device configuration. As shown in the figure, a target mark 11 for recognizing the position and orientation of the artificial satellite 10 as a moving object is attached, and a gripped rod 13 for capturing is provided below the target mark 11. An arm 31 for capturing and a camera 20 for capturing the outside world are attached to a space robot 30 for capturing the artificial satellite 10, image data captured by the camera 20 is processed by an image processing device 40, and an arithmetic processing device is based on the processed data. The motion information is calculated by 50, and the robot controller 60 controls the arm 30 based on the calculated motion information.

【0006】人工衛星10はその中心軸12回りに一定
の角速度で回転しながら、矢印14で示す方向に一定速
度vで並進運動している。
The artificial satellite 10 is rotating about its central axis 12 at a constant angular velocity, and is translated at a constant velocity v in the direction indicated by an arrow 14.

【0007】一方、人工衛星10を捕獲するロボット3
0のアーム31の先端には把持棒13を把持する把持装
置32が取り付けられる。アーム31に固定されたカメ
ラ20は一定間隔の時刻毎にターゲットマーク11を撮
影し、その各シーンの画像データを画像処理装置40に
送る。画像処理装置40はこの画像データを画像処理し
てターゲットマーク11の位置姿勢を認識する。この認
識処理を3つの時刻i、(i+1)、(i+2)の各シ
ーンについて行う。演算処理装置50はこの3時刻につ
いて求めたターゲットマークの位置姿勢データに基づ
き、人工衛星10の位置姿勢および移動速度v、回転速
度ω等の運動情報を求めて物体の運動を同定し、これを
ロボット制御装置60に送る。
On the other hand, a robot 3 for capturing the artificial satellite 10
A holding device 32 for holding the holding rod 13 is attached to the tip of the arm 31 of No. 0. The camera 20 fixed to the arm 31 captures an image of the target mark 11 at regular time intervals and sends image data of each scene to the image processing device 40. The image processing device 40 processes the image data to recognize the position and orientation of the target mark 11. This recognition processing is performed for each of the three scenes at time i, (i + 1), and (i + 2). Based on the position and orientation data of the target mark obtained at these three times, the arithmetic processing unit 50 determines the position and orientation of the artificial satellite 10 and movement information such as the moving speed v and the rotation speed ω to identify the movement of the object, Send to the robot controller 60.

【0008】ロボット制御装置60はこれらの運動情報
からアーム31の方向、すなわちカメラ20がターゲッ
トマーク11を追跡できるように、宇宙ロボット30を
制御し、さらに把持装置31によって把持棒13を把持
できるよう制御する。
The robot controller 60 controls the space robot 30 so that the camera 20 can track the target mark 11 in the direction of the arm 31 based on the movement information, and further the gripping device 31 can grip the gripping rod 13. Control.

【0009】次にターゲットマーク11の位置姿勢から
人工衛星の運動を同定するアルゴリズムについて説明す
る。図8に人工衛星の運動を同定するための座標系を示
す。基準座標系をCo (O,x,y,z)とする。この
基準座標系は一般にはカメラ20の位置に置かれる。ま
た基準座標系Co に対するターゲットマーク11の座標
系をCR (OR ,xR ,yR ,zR )とする。このター
ゲットマーク座標系CR は同次座標で次式(1)により
表される。なお、以下の説明において、 の記号は行列を表すものとする。
Next, an algorithm for identifying the motion of the artificial satellite from the position and orientation of the target mark 11 will be described. FIG. 8 shows a coordinate system for identifying the motion of the satellite. The reference coordinate system is Co (O, x, y, z). This reference coordinate system is generally located at the position of the camera 20. Also the coordinate system of the target mark 11 with respect to the reference coordinate system Co C R (O R, x R, y R, z R) and. This target mark coordinate system C R is represented by the following equation (1) with homogeneous coordinates. In the following explanation, The symbol of represents a matrix.

【0010】 [0010]

【0011】このTはターゲットマーク11の位置姿勢
を表している。また、この行列Tの中の要素からなる次
式(2)の行列T’は座標系CR の姿勢、つまりターゲ
ットマーク11の姿勢を表している。
This T represents the position and orientation of the target mark 11. A matrix T ′ of the following equation (2), which is an element in the matrix T, represents the attitude of the coordinate system C R , that is, the attitude of the target mark 11.

【0012】ターゲットマーク座標系CR の座標軸
R ,YR 、ZR の単位方向ベクトルは、基準座標系C
o に対してそれぞれ〔nX ,ny ,nz 〕、〔OX ,O
y ,Oz〕、〔aX ,ay ,az 〕で表される。このよ
うに、行列T’は基準座標系Coの単位方向ベクトル
〔1,0,0〕、〔0,1,0〕、〔0,0,1〕をそ
れぞれ〔nX ,ny ,nz 〕、〔OX ,Oy ,Oz 〕、
〔aX ,ay ,az 〕に回転変換した姿勢を示してい
る。また同時にこの回転変換も表している。この回転変
換は同次座標で次式(3)により表すことができる。
The unit direction vector of the coordinate axes X R , Y R and Z R of the target mark coordinate system C R is the reference coordinate system C
[n X , n y , n z ], [O X , O
y , O z ], [a X , a y , a z ]. As described above, the matrix T ′ is defined by unit direction vectors [1,0,0], [0,1,0], and [0,0,1] of the reference coordinate system Co at [n X , n y , and n z ], [O X , O y , O z ],
The posture after rotation conversion is shown as [a X , a y , a z ]. At the same time, this rotation conversion is also shown. This rotation conversion can be expressed by the following equation (3) with homogeneous coordinates.

【0013】 [0013]

【0014】また、行列Tの第4列の t=〔tX ,ty ,tz ,1〕T は基準座標系Co からみた座標系CR の原点OR の位置
(すなわちターゲットマーク11の位置)を示す。な
お、同次座標では3次元の位置ベクトルは4つの要素で
表され、最後の要素はスケール因子である。また、この
位置tは基準座標系Co の原点Oからターゲットマーク
座標系CR の原点OR までの並進変換の変位ベクトルを
表しており、この並進変換は同次座標で次式(4)で表
される。
[0014] The fourth row of t = matrix T [t X, t y, t z , 1 ] T is the position of the origin O R of the reference coordinate system Co seen from the coordinate system C R (i.e. the target mark 11 Position). In the homogeneous coordinates, the three-dimensional position vector is represented by four elements, and the last element is the scale factor. Also, the position t represents the displacement vector of the translational transform from the origin O of the reference coordinate system Co to the origin O R target marks coordinate system C R, the translational transform in homogeneous coordinates by the following formula (4) expressed.

【0015】 [0015]

【0016】また、以上の座標変換行列から、 T=UT ・RT となり、Tは座標変換も表していることが分かる。この
ような同次座標では、位置姿勢、座標系、並びに座標変
換は同じ形で表現される。
From the above coordinate transformation matrix, it can be seen that T = U T · R T , where T also represents coordinate transformation. With such homogeneous coordinates, the position and orientation, the coordinate system, and the coordinate transformation are expressed in the same form.

【0017】次に、人工衛星10の回転軸12の座標系
Q を設定する。この座標系CQ は回転軸12上の任意
の位置に設定できるが、本例では、ターゲットマーク座
標系CR の原点OR から回転軸12に下ろした垂線と回
転軸12が交わる点を原点Qとし、回転軸12の座標系
Q の姿勢がターゲットマーク11の姿勢と同じになる
ようにする。つまり、ターゲットマーク座標系CR から
みた原点Qの位置ベクトルを、 m=〔mX ,my ,mz ,1〕T とすると、ターゲットマーク座標系CR からみた回転軸
12の座標系CQ は次式(5)で表すことができる。
Next, the coordinate system C Q of the rotation axis 12 of the artificial satellite 10 is set. This coordinate system C Q can be set to any position on the rotary shaft 12, in this example, the origin a point at which a perpendicular line drawn to the rotary shaft 12 from the origin O R target marks coordinate system C R rotation axis 12 intersects Q is set so that the attitude of the coordinate system C Q of the rotation axis 12 is the same as the attitude of the target mark 11. That is, assuming that the position vector of the origin Q viewed from the target mark coordinate system C R is m = [m X , m y , m z , 1] T , the coordinate system C of the rotation axis 12 viewed from the target mark coordinate system C R. Q can be expressed by the following equation (5).

【0018】 [0018]

【0019】なお、回転軸12はターゲットマーク座標
系CR からみて一定であるので、mX ,my ,mz は定
数である。また、基準座標系Co からみた原点Qの位置
ベクトルを、 g=〔gX ,gy ,gz ,1〕T とすると、基準座標系Co からみた回転軸の座標系CQ
は次式(6)で表すことができる。
Since the rotation axis 12 is constant when viewed from the target mark coordinate system C R , m X , m y and m z are constants. Further, if the position vector of the origin Q viewed from the reference coordinate system Co is g = [g X , g y , g z , 1] T , the coordinate system C Q of the rotation axis viewed from the reference coordinate system Co
Can be expressed by the following equation (6).

【0020】 [0020]

【0021】ここで、式(5)のMはターゲットマーク
座標系CR に対する回転軸12の座標系CQ への座標変
換であるので、3つの座標系Co 、CR 、CQ には、 G=T・M ・・・(7) という関係が成り立つ。また、式(1)の位置成分のみ
をみると、g(基準座標系Co からみた原点Qの位置ベ
クトル)とm(ターゲットマーク座標系CR からみた原
点Qの位置ベクトル)には、 g=T・m ・・・(8) という関係式が成り立つ。
Here, since M in the equation (5) is a coordinate conversion of the target mark coordinate system C R into the coordinate system C Q of the rotary shaft 12, the three coordinate systems Co, C R and C Q are The relation G = T · M (7) holds. Further, looking only at the position component of equation (1), g (position vector of the origin Q viewed from the reference coordinate system Co) and m (position vector of the origin Q viewed from the target mark coordinate system C R ) are g = The relational expression Tm (8) holds.

【0022】次に人工衛星10の運動を図6を参照して
説明する。人工衛星10のターゲットマーク11の位置
姿勢は一定時間間隔の各時刻のシーンについてそれぞれ
計測するものとする。ここでシーンの番号をiとして、
i番目のシーンのターゲットマーク11および回転軸1
2の座標系をそれぞれ iT, iGと表す。同様に、原点
Qおよび位置ベクトルgはそれぞれのシーンで iQ、 i
gと表す。したがって、式(7)、式(8)はそれぞ
れ、 iG= iT・M ・・・(9) ig= iT・m ・・・(10) となる。
Next, the movement of the artificial satellite 10 will be described with reference to FIG. It is assumed that the position and orientation of the target mark 11 of the artificial satellite 10 is measured for each scene at each time with a fixed time interval. Here, the scene number is i,
Target mark 11 and rotation axis 1 of the i-th scene
The two coordinate systems are represented as i T and i G, respectively. Similarly, the origin Q and the position vector g are i Q, i in each scene.
Expressed as g. Therefore, the formulas (7) and (8) are i G = i T · M (9) i g = i T · m (10), respectively.

【0023】ここで、人工衛星10の運動は、等速直線
運動かつ等角速度運動と仮定しているので、人工衛星1
0は、サンプリング時間当たりに、回転軸12の回りに
ある角度ωだけ回転し、かつ一定量vだけ並進移動す
る。よって、対象物の運動は回転変換と並進変換で記述
できる。原点を通り、単位方向ベクトルk=〔kX ,k
y ,kz 〕の直線回りに角度ωだけ回転する回転変換R
は次式(11)で表すことができる。
Here, since the motion of the artificial satellite 10 is assumed to be a constant velocity linear motion and a constant angular velocity motion, the artificial satellite 1
0 rotates about the rotation axis 12 by an angle ω and translates by a constant amount v per sampling time. Therefore, the motion of the object can be described by rotation conversion and translational conversion. A unit direction vector k = [k X , k passing through the origin
y , k z ] rotational transformation R that rotates around the line ω
Can be expressed by the following equation (11).

【0024】[0024]

【数1】 [Equation 1]

【0025】また、変位ベクトルv=〔vX ,vy ,v
z 〕の並進変換Uは次式(12)で表すことができる。
Further, the displacement vector v = [v X , v y , v
The translational transformation U of z ] can be expressed by the following equation (12).

【0026】 [0026]

【0027】ここでは、基準座標系Co に対する人工衛
星10の運動情報を求めたいので、人工衛星10の回転
軸12の単位方向ベクトルkと変位ベクトルvを基準座
標系Co に対して設定し、回転変換、並進変換も基準座
標系Co に対して行う。そして、人工衛星10の運動と
して回転軸12を考えると、回転軸12の座標系 iGと
一定時間後の i+1Gとの関係は、 i+1G=U・ iD・R・ i-1 iG ・・・(13) となる。、ここで iDは基準座標系Co の原点Oから回
転軸12の座標系CQ の座標原点Qへの並進変換を表し
ており、次式(14)で表される。
Here, since it is desired to obtain the motion information of the artificial satellite 10 with respect to the reference coordinate system Co, the unit direction vector k and the displacement vector v of the rotation axis 12 of the artificial satellite 10 are set with respect to the reference coordinate system Co and rotated. Conversion and translational conversion are also performed on the reference coordinate system Co. Then, considering the rotating shaft 12 as the motion of the artificial satellite 10, the relationship between the coordinate system i G of the rotating shaft 12 and i + 1 G after a certain time is i + 1 G = U · i D · R · i D −1 · i G (13) Here, i D represents the translational conversion from the origin O of the reference coordinate system Co to the coordinate origin Q of the coordinate system C Q of the rotary shaft 12, and is represented by the following equation (14).

【0028】 [0028]

【0029】つまり、回転軸12の座標系CQ を回転変
換するのに、回転軸12を基準座標系Co の原点Oを通
るように並進変換している。それから回転変換し、元の
位置に戻し、並進変換している。なお、ある座標系を基
準座標系Co に対して変換するときは、変換行列を座標
行列の左からかければよい。また式(9)、式(13)
より、 iTと i+1Tとの関係は、 i+1T=U・ iD・R・ i-1 iT ・・・(15) となる。
In other words, in rotating the coordinate system C Q of the rotating shaft 12, the rotating shaft 12 is translated so as to pass through the origin O of the reference coordinate system Co. Then, it is converted by rotation, returned to the original position, and converted by translation. When converting a certain coordinate system with respect to the reference coordinate system Co, the conversion matrix may be written from the left side of the coordinate matrix. Also, equation (9) and equation (13)
Therefore, the relationship between i T and i + 1 T is i + 1 T = U · i D · R · i D −1 · i T (15)

【0030】次に運動の同定について述べる。連続する
3つのシーンにおけるターゲットマーク11の位置姿勢
1T、 2T、 3Tとし、次の式(16)、式(1
7)、式(18)で与えられるものとする。
Next, motion identification will be described. The position and orientation of the target mark 11 in three consecutive scenes are 1 T, 2 T, and 3 T, and the following equations (16) and (1)
7) and equation (18).

【0031】 [0031]

【0032】 [0032]

【0033】 [0033]

【0034】まず、回転成分を求める。回転成分RR
2シーンの姿勢成分から求められる。すなわち、 i+1R =RR iT ・・・(19) となる。 これに 1T、 2Tを代入してRR を求める
と、 RR 2R ・( 1R -1 ・・・(20) となる。このRR は次式(21)で表わされる。
First, the rotation component is obtained. The rotation component R R is obtained from the posture components of the two scenes. That is, i + 1 T R = R R · i T (19) When determining the R R by substituting 1 T, 2 T to, R R = 2 T R · (1 T R) is -1.. (20). This R R is represented by the following equation (21).

【0035】 [0035]

【0036】回転軸12の単位方向ベクトルkの各成分
X ,ky 、kz とサンプリング時間当たりの回転角ω
は式(11)の右辺と比較して次のように求められる。
The components k X , k y and k z of the unit direction vector k of the rotation axis 12 and the rotation angle ω per sampling time.
Is calculated as follows by comparing with the right side of Expression (11).

【0037】 sinω=〔(r32−r23) 2 +(r13−r31) 2 +(r21−r12) 2 1/2 /2 ・・・(22) cosω= (r11+r22+r33−1)/2 ・・・(23) ω=atan2( sinω, cosω) ・・・(24)[0037] sin .omega = [(r 32 -r 23) 2 + (r 13 -r 31) 2 + (r 21 -r 12) 2 ] 1/2 / 2 ··· (22) cosω = (r 11 + r 22 + r 33 -1) / 2 (23) ω = atan2 (sin ω, cos ω) (24)

【0038】 kx = (r23−r32) /2 sinω ky = (r13−r31) /2 sinω kx = (r21−r12) /2 sinω ・・・(25)[0038] k x = (r 23 -r 32 ) / 2 sinω k y = (r 13 -r 31) / 2 sinω k x = (r 21 -r 12) / 2 sinω ··· (25)

【0039】すなわち、(24)式により回転軸12の
回転角ωが、また式(25)により回転軸12の方向ベ
クトルkの各成分kX ,ky ,kz が与えられる。これ
によって、運動の回転成分が求められることになる。
That is, the rotation angle ω of the rotary shaft 12 is given by the equation (24), and the respective components k X , k y , k z of the direction vector k of the rotary shaft 12 are given by the equation (25). As a result, the rotational component of the motion is obtained.

【0040】次に並進成分について述べる。人工衛星1
0の並進成分は回転軸12の座標原点Qの位置の変位を
求めればい。原点Qと等速直線運動をするので、 ig− i+1g= i+1g− i+2g ・・・(26) という関係が成り立つ。これに式(10)を代入して、 ( iT−2・ i+1T+ i+2T)m=0 ・・・(27) となる。
Next, the translation component will be described. Artificial satellite 1
For the translational component of 0, the displacement of the position of the coordinate origin Q of the rotary shaft 12 may be obtained. Since a constant velocity linear motion is performed with the origin Q, the relationship of i g− i + 1 g = i + 1 g− i + 2 g (26) holds. By substituting the equation (10) into this, ( i T−2 · i + 1 T + i + 2 T) m = 0 (27).

【0041】この式(27)に 1T, 2T, 3Tを代入
すると、次式(28)が得られる。 (aj1−2bj1+cj1)mX +(aj2−2bj2+cj2)my +(aj3−2bj3+cj3)mz +(aj4−2bj4+cj4)=0 但し、j=1,2,3 ・・・(28)
Substituting 1 T, 2 T, and 3 T into this equation (27), the following equation (28) is obtained. (A j1 -2b j1 + c j1 ) m X + (a j2 -2b j2 + c j2) m y + (a j3 -2b j3 + c j3) m z + (a j4 -2b j4 + c j4) = 0 where, j = 1, 2, 3 (28)

【0042】これから、mX ,my ,mz に関する3つ
の方程式ができる。このうち一つは冗長であるが、これ
は式(26)が回転軸12上の全ての点に対して成り立
つためである。本例では、mX ,my ,mz を決めるた
め、ターゲットマーク11の座標原点OR から回転軸1
2に下ろした垂線の足がQであるという条件を付してい
る。この条件により、 ip= ig⊥k ・・・(29) が成り立ち、これに式(10)を代入すると、 ( ip+ iT・m)k=0 ・・・(30) となる。
From this, three equations for m x , m y , m z are made. One of these is redundant, because this holds for equation (26) for all points on the axis of rotation 12. In this example, m X, m y, to determine the m z, rotation axis 1 from the coordinate origin O R of the target mark 11
The condition is that the foot of the perpendicular drawn in 2 is Q. Under this condition, i p = i g ⊥k (29) holds, and when the expression (10) is substituted into this, ( i p + i T · m) k = 0 (30).

【0043】この式(30)に iTを代入すれば、次式
(31)が得られる。 (a11kX +a21ky +a31kz )mX +(a12kX +a22ky +a32kz )my +(a13kX +a23ky +a33kz )mz =0 ・・・(31)
By substituting i T into this equation (30), the following equation (31) is obtained. (A 11 k X + a 21 k y + a 31 k z) m X + (a 12 k X + a 22 k y + a 32 k z) m y + (a 13 k X + a 23 k y + a 33 k z) m z = 0 ... (31)

【0044】これから、式(28)、式(31)よりm
が求められる。このmと式(10)よりgが求められる
ので、並進成分vは次式(32)から求められる。 v= i+1g− ig ・・・(32)
From equation (28) and equation (31), m
Is required. Since g is obtained from this m and the equation (10), the translational component v is obtained from the following equation (32). v = i + 1 g- i g (32)

【0045】以上によって回転成分および並進成分が求
まり、人工衛星10の運動が同定できる。
From the above, the rotational component and the translational component are obtained, and the motion of the artificial satellite 10 can be identified.

【0046】[0046]

【発明が解決しようとする課題】上述の運動同定方法で
は、物体の運動パラメータを3時刻の位置姿勢データか
ら算出しているが、各時刻で計測される位置姿勢データ
には誤差が含まれており、よって3時刻のデータだけで
は冗長性がなく、計算される運動パラメータは誤差の影
響を受け、信頼性の低い運動同定となってしまう。
In the above-described motion identification method, the motion parameter of the object is calculated from the position / orientation data at 3 times, but the position / orientation data measured at each time includes an error. Therefore, there is no redundancy only with the data at 3 times, and the calculated motion parameter is affected by the error, resulting in motion identification with low reliability.

【0047】本発明はかかる問題点に鑑みてなされたも
のであり、その目的とするところは、より信頼性の高い
運動同定を行えるようにすることにある。
The present invention has been made in view of such problems, and an object thereof is to enable more reliable motion identification.

【0048】[0048]

【課題を解決するための手段】図1、図2は本発明に係
る原理説明図である。本発明の物体の運動同定方法は、
図1の(A)に示されるように、一つの形態として、等
速直線運動、等角速度運動をしている物体の運動を同定
する方法であって、物体を撮影してその撮影画像からそ
の物体の位置姿勢を計測する処理を少なくとも4以上の
時系列な時刻点で行い、該4以上の時刻点のうらから任
意の3時刻点の組合せを選択してその3時刻点の位置姿
勢データに基づいて物体の運動パラメータを求め、該任
意の3時刻点の組合せを逐次に変えて複数の運動パラメ
ータを得て、それら複数の運動パラメータに基づいて該
運動パラメータの誤差を抑圧することを特徴とするもの
である。
1 and 2 are explanatory views of the principle of the present invention. The object motion identification method of the present invention is
As shown in FIG. 1 (A), as one form, there is a method of identifying the motion of an object that is moving at a constant linear velocity or at a constant angular velocity. The process of measuring the position and orientation of an object is performed at least at four or more time-series time points, and an arbitrary combination of three time points is selected from the backs of the four or more time points, and the position and orientation data at the three time points is selected. A motion parameter of the object based on the motion parameter, the combination of the arbitrary three time points is sequentially changed to obtain a plurality of motion parameters, and an error of the motion parameter is suppressed based on the plurality of motion parameters. To do.

【0049】また本発明の物体の運動同定方法は、図1
の(B)に示されるように、他の形態として、等速直線
運動、等角速度運動をしている物体の運動を同定する方
法であって、物体を撮影してその撮影画像からその物体
の位置姿勢を計測する処理を少なくとも4以上の時系列
な時刻点で行い、該4以上の時刻点の位置姿勢データに
ついて最小自乗法を適用して運動パラメータを求めるこ
とを特徴とするものである。
The object motion identification method of the present invention is shown in FIG.
As another form, as shown in (B) of the above, there is provided a method of identifying the motion of an object that is moving at a uniform linear velocity or at a constant angular velocity, in which the object is photographed, and the object is photographed from the photographed image. It is characterized in that the processing for measuring the position and orientation is performed at at least four or more time-series time points, and the least squares method is applied to the position and orientation data at the four or more time points to obtain the motion parameter.

【0050】また本発明の物体の運動同定方法は、図2
の(A)に示されるように、また他の形態として、等速
直線運動、等角速度運動をしている物体の運動を同定す
る方法であって、物体を撮影してその撮影画像からその
物体の位置姿勢を計測する処理を少なくとも4以上の時
系列な時刻点で行い、該4以上の時刻点の位置姿勢デー
タについてカルマンフィルタを適用して運動パラメータ
を求めることを特徴とするものである。
The method for identifying the motion of an object according to the present invention is shown in FIG.
(A) in another form, as another form, a method for identifying the motion of an object that is moving at a uniform linear velocity or at a constant angular velocity, which is an image of the object and the object is captured from the captured image. Is performed at at least four time points in time series, and the Kalman filter is applied to the position and orientation data at the four or more time points to obtain the motion parameter.

【0051】また本発明の物体の運動同定方法は、図2
の(B)に示されるように、等速直線運動、等角速度運
動をしている物体の運動を同定する運動同定装置であっ
て、物体を撮影してその撮影画像からその物体の位置姿
勢を計測する処理を少なくとも4以上の時系列な時刻点
で行う位置姿勢計測装置101と、位置姿勢計測装置1
01で得た4以上の時刻点の位置姿勢データに基づい
て、任意に選択した3時刻点の位置姿勢データの組合せ
による運動同定、4以上の時刻点の位置姿勢データにつ
いての最小自乗法による運動同定、または4以上の時刻
点の位置姿勢データについてのカルマンフィルタによる
運動同定を用いて誤差を抑圧しつつ運動パラメータを求
める演算処理装置102とを備えたものである。
Further, the method for identifying the motion of an object according to the present invention is shown in FIG.
(B), a motion identification device for identifying the motion of an object that is moving at a uniform linear velocity or at a constant angular velocity, the object being photographed, and the position and orientation of the object is determined from the photographed image. A position / orientation measuring device 101 for performing measurement processing at least at four or more time-series time points, and a position / orientation measuring device 1
Based on the position / orientation data of 4 or more time points obtained in 01, motion identification by a combination of position / orientation data of 3 time points arbitrarily selected, motion by least-squares method for position / orientation data of 4 or more time points An arithmetic processing unit 102 that obtains a motion parameter while suppressing an error by using the identification or the motion identification by the Kalman filter for the position and orientation data at four or more time points.

【0052】[0052]

【作用】まず最初の運動同定方法について説明すると、
運動同定は3シーンの位置姿勢データから計算できる
が、いま、4シーン以上の位置姿勢データが計測できた
場合には、運動同定を行うための3シーンの組合せが複
数組できる。これらの各組合せについてそれぞれ運動同
定を行えば、複数の運動パラメータが求められるので、
それらを平均するなど統計処理することにより、誤差を
抑圧して、より精度の高い運動同定ができる。
[Function] First, the first motion identification method will be explained.
Motion identification can be calculated from position / orientation data of three scenes. Now, when position / orientation data of four or more scenes can be measured, a plurality of combinations of three scenes for motion identification can be set. If motion identification is performed for each of these combinations, multiple motion parameters can be obtained.
By statistically processing such as averaging them, the error can be suppressed and more accurate motion identification can be performed.

【0053】また2番目の運動同定方法においては、4
シーン以上の位置姿勢データが得られたとき、物体が等
速直線運動、等角速度運動をするという条件で、並進速
度、回転速度等の運動パラメータの誤差の自乗を最小に
することができる。
In the second motion identification method, 4
When the position and orientation data of the scene or more is obtained, the square of the error of the motion parameters such as the translation speed and the rotation speed can be minimized under the condition that the object performs the uniform linear motion and the uniform angular velocity motion.

【0054】また3番目の運動同定方法においては、4
シーン以上の位置姿勢データが得られたとき、カルマン
フィルタを使って、その時系列のデータから逐次的に運
動パラメータを推定し、誤差を減らすことができる。
In the third motion identification method, 4
When position / orientation data for a scene or more is obtained, a Kalman filter can be used to sequentially estimate motion parameters from the time-series data and reduce errors.

【0055】また上述の方法を行う本発明の運動同定装
置は、位置姿勢計測装置101によって物体またはその
一部分の位置姿勢を時系列データとして得て、これをイ
ンタフェースを介して演算処理装置102に与える。4
以上の時刻点の位置姿勢データが得られたら、演算処理
装置102により、3シーンの組合せ、最小自乗法、あ
るいはカルマンフィルタにより物体の運動同定を行う。
In the motion identifying apparatus of the present invention which performs the above method, the position / orientation measuring apparatus 101 obtains the position / orientation of an object or a part thereof as time-series data, which is given to the arithmetic processing unit 102 via an interface. . Four
When the position and orientation data at the above time points are obtained, the arithmetic processing unit 102 identifies the motion of the object using a combination of three scenes, a least squares method, or a Kalman filter.

【0056】[0056]

【実施例】以下、図面を参照して本発明の実施例を説明
する図3には本発明の運動同定方法を適用できるモデル
の実施例が示される。この実施例では運動同定する対象
の物体として人工衛星が用いられている。この物体10
は等速直線運動かつ等角速度運動をしており、物体10
には位置姿勢計測用のターゲットマーク11が取り付け
られている。またターゲットマーク11をカメラ20で
計測することにより、カメラ20からターゲットマーク
11までの位置tと姿勢T’が求まる。さらにこの位置
姿勢データの時系列から物体10の運動パラメータ(例
えば物体の回転軸の方向、回転速度、並進速度など)を
求める。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a model to which the motion identification method of the present invention can be applied is shown in FIG. 3 for explaining an embodiment of the present invention with reference to the drawings. In this embodiment, an artificial satellite is used as an object of which motion is to be identified. This object 10
Is moving at a constant linear velocity and at a constant angular velocity, and the object 10
A target mark 11 for position / orientation measurement is attached to the. Further, by measuring the target mark 11 with the camera 20, the position t and the posture T ′ from the camera 20 to the target mark 11 can be obtained. Further, the motion parameters of the object 10 (for example, the direction of the rotation axis of the object, the rotation speed, the translation speed, etc.) are obtained from the time series of the position and orientation data.

【0057】図4にはこのモデル例の座標系が示され
る。物体10が等速直線運動かつ等角速度運動している
という仮定より、ターゲットマーク11はある一つの回
転軸12回りに等角速度運動し、この回転軸12が等速
直線運動している。そして、ターゲットマーク11の位
置姿勢Tから回転軸の方向、位置および回転速度、並び
に並進速度を求める。
FIG. 4 shows the coordinate system of this model example. Based on the assumption that the object 10 is moving at a constant linear velocity and at a constant angular velocity, the target mark 11 is moving at a constant angular velocity around a certain rotary shaft 12, and the rotary shaft 12 is performing a constant linear motion. Then, from the position and orientation T of the target mark 11, the direction of the rotation axis, the position and the rotation speed, and the translation speed are obtained.

【0058】前述のように、基準座標系に対するターゲ
ットマーク11の位置姿勢Tを同次座標表現で、
As described above, the position / orientation T of the target mark 11 with respect to the reference coordinate system is expressed by the homogeneous coordinate expression.

【0059】 [0059]

【0060】と表す。この行列の中で、 It is expressed as In this matrix,

【0061】は姿勢を、また t=〔tX ,tY ,tz ,1〕T は位置を表す。ターゲットマーク11の位置姿勢Tは一
定のサンプリング時間で計測され、i番目に計測された
ターゲットマーク11の位置姿勢を iTとし、同様に位
置t、姿勢T’についても、 it, iT’と表す。
Represents a posture, and t = [t X , t Y , t z , 1] T represents a position. The position / orientation T of the target mark 11 is measured at a constant sampling time, and the position / orientation of the i-th measured target mark 11 is i T. Similarly, with respect to the position t and the attitude T ′, i t, i T ′ Express.

【0062】回転軸12の位置は、ターゲットマーク座
標系から見れば一定の位置にあり、いまターゲットマー
ク11から回転軸12に下ろした垂線の足を計算上の重
心Q(回転軸の座標系の原点)とする。ターゲットマー
ク座標系および基準座標系に対するこの重心Qの位置を
それぞれm、gとし、 m=〔mx ,my ,mz ,1〕T g=〔gx ,gy ,gz ,1〕T とする。
The position of the rotary shaft 12 is at a fixed position when viewed from the target mark coordinate system, and the foot of the perpendicular line drawn from the target mark 11 to the rotary shaft 12 is calculated as the center of gravity Q (in the coordinate system of the rotary shaft). Origin). Target mark coordinate system and the position of the center of gravity Q with respect to the reference coordinate system, respectively m, and g, m = [m x, m y, m z , 1 ] T g = [g x, g y, g z , 1 ] Let T.

【0063】このとき、i番目の重心Qの位置 igは、i g= iT・m と表せる。また、基準座標系に対する回転軸の方向ベク
トルを、 k=〔kx ,ky ,kz ,1〕T とすると、i t= ig⊥k と記述できる。
At this time, the position i g of the i -th center of gravity Q can be expressed as i g = i T · m. Also, the direction vector of the rotation axis with respect to the reference coordinate system, k = [k x, k y, k z , 1 ] when is T, can be described with i t = i g⊥k.

【0064】以上の関係を用いて物体の運動パラメータ
を推定する。物体の運動パラメータは回転成分と並進成
分に分けられる。回転成分はターゲットマーク11の姿
勢の変化から求められ、 i+1T’=R’・ iT’ ・・・(43) となる。ここで、Rは回転を表す行列で、これを
The motion parameters of the object are estimated using the above relationships. Motion parameters of an object are divided into a rotational component and a translational component. Rotational component is determined from the change in the attitude of the target mark 11, the i + 1 T '= R' · i T '··· (43). Where R is a matrix that represents the rotation,

【0065】 [0065]

【0066】とすれば、これより回転軸の報告ベクトル
kとサンプリング時間当たりの回転角ωが次のようにし
て求められる。
If so, the report vector k of the rotation axis and the rotation angle ω per sampling time can be obtained as follows.

【0067】 sin ω=[(r32−r23)2+ (r13−r31)2+ (r21−r12)2] 1/2 /2 cos ω= (r11+r22+r33−1) /2 ω= atan2(sinω, cosω) kx = (r23−r32) /2 sinω ky = (r13−r31) /2 sinω kx = (r21−r12) /2 sinω[0067] sin ω = [(r 32 -r 23) 2 + (r 13 -r 31) 2 + (r 21 -r 12) 2] 1/2 / 2 cos ω = (r 11 + r 22 + r 33 - 1) / 2 ω = atan2 ( sinω, cosω) k x = (r 23 -r 32) / 2 sinω k y = (r 13 -r 31) / 2 sinω k x = (r 21 -r 12) / 2 sinω

【0068】並進成分は回転軸の位置の変化から求めら
れる。回転軸上にある重心Qが等速直線運動をしている
ことにより、 ig− i+1g= i+1g− i+2g=v ・・・(44) という関係が成り立つ。ここで、vはサンプリング時間
当たりの重心Qの移動量を表す。この式(44)に前述
の式(41)を代入して、 ( iT−2 i+1T+ i+2T)m=0 ・・・(45) となり、mx ,my ,mz の関する連立方程式となる
が、この式(45)は回転軸上の全ての点について成り
立つ。そこで、式(42)の関係を用いることにより、
ターゲットマーク座標系における重心Qの位置mが決定
でき、式(44)より重心Qの移動量vが求められる。
The translational component is obtained from the change in the position of the rotation axis. Since the center of gravity Q on the axis of rotation makes a uniform linear motion, the relationship of i g− i + 1 g = i + 1 g− i + 2 g = v (44) holds. Here, v represents the amount of movement of the center of gravity Q per sampling time. This is an expression (44) Equation (41) described above to, (i T-2 i + 1 T + i + 2 T) m = 0 ··· (45) becomes, m x, m y, m z Equation (45) holds for all points on the rotation axis. Therefore, by using the relation of equation (42),
The position m of the center of gravity Q in the target mark coordinate system can be determined, and the movement amount v of the center of gravity Q can be obtained from the equation (44).

【0069】以上により、3シーンの位置姿勢データか
ら運動パラメータを求めることができる。そして、n
(>3)シーンの位置姿勢データが得られたとすると、
まず位置姿勢データ 0T, 1T, 2Tから運動同定し
て、運動パラメータ 0k、 0ω、0m、 0vが求められ
る。次に、位置姿勢データ 1T, 2T, 3Tから運動同
定して、運動パラメータ 1k、 1ω、 1m、 1vが求め
られる。同様にして、運動パラメータ n-3k、 n-3ω、
n-3m、 n-3vまで (n−2)個のパラメータが求めら
れる。これらを平均することにより、精度の良いパラメ
ータを得ることができる。
As described above, the motion parameter can be obtained from the position and orientation data of the three scenes. And n
(> 3) If the position and orientation data of the scene is obtained,
First, motion identification is performed from the position / orientation data 0 T, 1 T, 2 T, and motion parameters 0 k, 0 ω, 0 m, 0 v are obtained. Next, motion identification is performed from the position / orientation data 1 T, 2 T, 3 T, and motion parameters 1 k, 1 ω, 1 m, 1 v are obtained. Similarly, motion parameters n-3 k, n-3 ω,
(n-2) parameters up to n-3 m and n-3 v are obtained. By averaging these, accurate parameters can be obtained.

【0070】図5には上述の運動同定を行う運動同定装
置の構成例が示される。図中、20は運動物体を撮影す
るカメラ、21はカメラ20で撮影した画像を画像処理
により特徴抽出する画像処理装置、22は特徴抽出した
画像に基づいてターゲットマークの位置姿勢を演算する
位置姿勢演算装置、23は位置姿勢演算装置22で演算
した複数の位置姿勢データに基づいて物体の運動パラメ
ータを演算する運動同定演算装置、24はホストCP
U、25は一定間隔のサンプリング時刻等を発生するた
めのタイマである。
FIG. 5 shows an example of the structure of a motion identification device for performing the above-described motion identification. In the figure, 20 is a camera for photographing a moving object, 21 is an image processing apparatus for extracting features of an image captured by the camera 20 by image processing, and 22 is a position and orientation for calculating the position and orientation of a target mark based on the extracted features. An arithmetic device, 23 is a motion identification arithmetic device that calculates motion parameters of an object based on a plurality of position and orientation data calculated by the position and orientation calculation device 22, and 24 is a host CP
U and 25 are timers for generating sampling times at regular intervals.

【0071】この装置では、運動を測定したい対象の物
体に付けられたターゲットマーク11をカメサ20で撮
影し、この撮影画像を画像処理装置21で画像処理によ
り特徴抽出し、特徴抽出されたターゲットマークのデー
タに基づいて位置姿勢演算装置22で物体の位置姿勢を
計算し、さらにこの位置姿勢計測を、タイマ25で発生
した一定サンプリング時間おきに行い、それにより得ら
れた複数の位置姿勢データに基づいて運動同定演算装置
23で物体の運動パラメータを求める。
In this apparatus, the target mark 11 attached to the object whose movement is desired to be measured is photographed by the camera 20, and the photographed image is feature-extracted by the image processing device 21 to extract the feature-marked target mark. The position / orientation calculation device 22 calculates the position / orientation of the object based on the above data, and further, this position / orientation measurement is performed at every constant sampling time generated by the timer 25, and based on the plurality of position / orientation data obtained thereby. The motion identification calculation device 23 determines the motion parameter of the object.

【0072】本発明の実施にあたっては種々の変形形態
が可能である。例えば上述の実施例は物体の運動パラメ
ータを複数シーンの物体の位置姿勢データから演算で求
めるものであったが、本発明はこれに限られるものでは
なく、例えば最小自乗法あるいはカルマンフィルタを用
いて運動パラメータを求めることも可能である。以下、
これらの変形例について説明する。
Various modifications are possible in carrying out the present invention. For example, in the above-described embodiment, the motion parameter of the object is obtained by calculation from the position and orientation data of the object in a plurality of scenes, but the present invention is not limited to this. For example, the motion using the least square method or the Kalman filter is used. It is also possible to find the parameters. Less than,
These modifications will be described.

【0073】まず、最小自乗法を用いる変形例の方法に
ついて説明する。この変形例の方法は、3シーン以上の
位置姿勢データが得られときに、最小自乗法により物体
の運動パラメータを推定するものである。この最小自乗
法を用いる方法では、前述の実施例と同じ座標系を用い
ており、回転速度と並進速度をそれぞれ精度よく求める
ために、次のような評価関数を作る。なお、この式中の
θはターゲットマークの姿勢を表し、iはシーン番号を
表す。
First, a modified method using the least squares method will be described. The method of this modification estimates the motion parameter of the object by the least square method when the position and orientation data of three or more scenes are obtained. In the method using the least squares method, the same coordinate system as that in the above-described embodiment is used, and the following evaluation function is created in order to accurately obtain the rotation speed and the translation speed. In the equation, θ represents the posture of the target mark, and i represents the scene number.

【0074】 Jθ=Σ(θi −θ’)2 但し、Σはi=0から(n−2)までの積分 ・・・(46) Jg =Σ(gi −g’)2 但し、Σはi=0から(n−2)までの積分 ・・・(47) ここで、 θ’=ωi +θ0 ・・・(48) g’=vi +g0 ・・・(49) である。最小自乗法を用いて運動パラメータを求めるた
めには、公知の最小自乗法の計算アルゴリズムを用い
て、上述のJθ、Jg を最小にするようなω、θ0
v、g0 を決めればよい。
[0074] Jθ = Σ (θ i -θ ' ) 2 However, Σ is integral ... (46) from i = 0 to (n-2) Jg = Σ (g i -g') 2 However, Σ Is the integral from i = 0 to (n−2) (47) where θ ′ = ω i + θ 0 (48) g ′ = v i + g 0 (49) . In order to obtain the motion parameter using the least squares method, a known calculation algorithm of the least squares method is used, and ω, θ 0 , which minimizes the above Jθ, Jg,
It suffices to determine v and g 0 .

【0075】次にカルマンフィルタを用いる変形例の方
法について説明する。カルマンフィルタは系の構造が既
知であるときにその状態変数を観測値からオンラインで
推定する方法である。このカルマンフィルタを用いた方
法では、カルマンフィルタにより多数の位置姿勢データ
から運動パラメータを推定する。すなわち、4シーン以
上の位置姿勢データが得られたとき、カルマンフィルタ
を使ってその時系列のデータから逐次的に運動パラメー
タを推定し、誤差を減らしていく。
Next, a modified method using the Kalman filter will be described. The Kalman filter is a method for estimating the state variable of a system online from the observed value when the system structure is known. In the method using the Kalman filter, motion parameters are estimated from a large number of position and orientation data by the Kalman filter. That is, when the position and orientation data of four or more scenes are obtained, the Kalman filter is used to sequentially estimate the motion parameter from the time-series data, and the error is reduced.

【0076】以下、このカルマンフィルタを用いる方法
を詳しく述べる。いま状態変数x、観測値yをそれぞ
れ、 x=〔gX ,gy ,gz ,vX ,vy ,vz ,mX ,m
y ,mz ,kX ,ky,kz ,θ,ω〕T y=〔tX ,ty ,tz ,kX ,ky ,kz ,θ〕T とし、状態方程式を、 xi+1 =Axi +Γwi ・・・(50) yi =f(xi )+v ・・・(51) とする。いま、重心が等速直線運動かつ等角速度運動す
るという条件から、
The method of using this Kalman filter will be described in detail below. Now, assume that the state variable x and the observed value y are x = [g X , g y , g z , v X , v y , v z , m X , m, respectively.
y, m z, k X, k y, k z, θ, ω ] T y = [t X, t y, t z , k X, k y, k z, and theta] T, the state equation, x i + 1 = Ax i + Γw i (50) y i = f (x i ) + v (51) Now, from the condition that the center of gravity moves at a constant linear velocity and a constant angular velocity,

【0077】 [0077]

【0078】 [0078]

【0079】となる。また、f(x)についても、It becomes Also, for f (x),

【0080】 [0080]

【0081】と記述できる。ただし、b( )は重心か
らターゲットマークまでの位置を表す関数である。
It can be described as However, b () is a function representing the position from the center of gravity to the target mark.

【0082】ここで、wi 、vはそれぞれシステムノイ
ズと観測ノイズであり、平均値、分散が、 ε〔wi 〕=0 ε〔wi j T 〕=W(i=j) または 0(i≠0) ・・・(52) ε〔vi 〕=0 ε〔vi j T 〕=V(i=j) または 0(i≠0) ・・・(53) を満たす互いに独立なガウス白色雑音である。共分散行
列W、Vはそれぞれ半正定値、正定値行列である。ここ
で、ε〔 ・ 〕は期待値を表している。
Here, w i and v are system noise and observation noise, respectively, and the average value and variance are ε [w i ] = 0 ε [w i w j T ] = W (i = j) or 0 (I ≠ 0) ... (52) ε [v i ] = 0 ε [v i v j T ] = V (i = j) or 0 (i ≠ 0) ... (53) Independently Gaussian white noise. The covariance matrices W and V are semidefinite and positive definite matrices, respectively. Here, ε [·] represents an expected value.

【0083】また、これらの雑音は、 ε〔x0 〕=x0 * ε〔(x0 −x0 * )(x0 −x0 * T 〕=Σ0 ・・・(54) を満たす初期状態x0 とも独立であり、Σ0 は正定値行
列であると仮定する。
Further, these noises satisfy ε [x 0 ] = x 0 * ε [(x 0 −x 0 * ) (x 0 −x 0 * ) T ] = Σ 0 (54) It is also assumed that the initial state x 0 is independent and Σ 0 is a positive definite matrix.

【0084】このとき、時刻iにおける状態xi と観測
データy0 、y1 、・・・yi-1 に基づくその推定値
i との差のノルムの期待値 Ji =ε〔|xi i 2 〕 ・・・(55) を最小にする最適推定値は、次のフィルタで与えられ
る。
At this time, the state x i at time i and its estimated value x based on the observation data y 0 , y 1 , ... Y i-1
The optimum estimated value that minimizes the expected norm of the difference with i J i = ε [| x i −x i | 2 ] (55) is given by the following filter.

【0085】 i+1 =Ai +Ki (yi −C i i ) ・・・(56) ただし、 Ci =δf(xi )/δx ・・・(57) W=ΓWΓT ・・・(58) Ki =AΣi i T (W+Ci Σi i T -1i Σi T ・・・(59) Σi+1 =V+AΣi T −AΣi i T (W+Ci Σi i T -1i Σi T ・・・(60) X i + 1 = A x i + K i (y i −C i x i ) (56) where C i = δf (x i ) / δx (57) W = ΓWΓ T・ ・ ・ (58) K i = AΣ i C i T (W + C i Σ i C i T ) −1 C i Σ i A T・ ・ ・ (59) Σ i + 1 = V + A Σ i A T −A Σ i C i T (W + C i Σ i C i T ) -1 C i Σ i A T (60)

【0086】フィルタのゲインKi は初期状態のΣ0
式(59)、式(60)を用いて逐次に計算できる
The gain K i of the filter can be sequentially calculated by using Σ 0 in the initial state and equations (59) and (60).

【0087】[0087]

【発明の効果】以上に説明したように、本発明によれ
ば、、より信頼性の高い運動同定を行えるようになる。
As described above, according to the present invention, more reliable motion identification can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明に係る原理説明図である。FIG. 2 is a diagram illustrating the principle of the present invention.

【図3】本発明の一実施例としての運動同定方法を行う
モデルの例を示す図である。
FIG. 3 is a diagram showing an example of a model for performing a motion identification method according to an embodiment of the present invention.

【図4】モデル例に適用する座標系を説明する図であ
る。
FIG. 4 is a diagram illustrating a coordinate system applied to a model example.

【図5】実施例方法を行う装置の構成例を示す図であ
る。
FIG. 5 is a diagram showing a configuration example of an apparatus for performing the method of the embodiment.

【図6】3シーンから人工衛星の運動を同定する方法を
説明する図である。
FIG. 6 is a diagram illustrating a method of identifying the motion of an artificial satellite from three scenes.

【図7】人工衛星の運動を同定するための座標系を説明
する図である。
FIG. 7 is a diagram illustrating a coordinate system for identifying the motion of an artificial satellite.

【図8】運動同定装置の構成例を示す図である。FIG. 8 is a diagram showing a configuration example of a motion identification device.

【符号の説明】[Explanation of symbols]

10 人工衛星 11 ターゲットマーク 12 回転軸 13 被把持棒 20 カメラ 21 画像処理装置 22 位置姿勢演算装置 23 運動同定演算装置 24 ホストCPU 25 タイマ 30 ロボット 31 アーム 32 把持装置 40 画像処理装置 50 演算処理装置 60 ロボット制御装置 10 Artificial Satellite 11 Target Mark 12 Rotational Axis 13 Gripping Rod 20 Camera 21 Image Processing Device 22 Position and Attitude Calculator 23 Motion Identification Calculator 24 Host CPU 25 Timer 30 Robot 31 Arm 32 Grasping Device 40 Image Processing Device 50 Computing Processor 60 Robot controller

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 等速直線運動、等角速度運動をしている
物体の運動を同定する方法であって、 物体を撮影してその撮影画像からその物体の位置姿勢を
計測する処理を少なくとも4以上の時系列な時刻点で行
い、 該4以上の時刻点のうらから任意の3時刻点の組合せを
選択してその3時刻点の位置姿勢データに基づいて物体
の運動パラメータを求め、 該任意の3時刻点の組合せを逐次に変えて複数の運動パ
ラメータを得て、それら複数の運動パラメータに基づい
て該運動パラメータの誤差を抑圧することを特徴とする
物体の運動同定方法。
1. A method for identifying the motion of an object that is moving at a uniform linear velocity or at a constant angular velocity, which comprises at least four or more processes of photographing an object and measuring the position and orientation of the object from the photographed image. At time points in time series, selecting an arbitrary combination of three time points from among the four or more time points, and obtaining the motion parameter of the object based on the position and orientation data at the three time points. A method for identifying a motion of an object, which comprises sequentially changing combinations of three time points to obtain a plurality of motion parameters, and suppressing errors of the motion parameters based on the plurality of motion parameters.
【請求項2】 等速直線運動、等角速度運動をしている
物体の運動を同定する方法であって、 物体を撮影してその撮影画像からその物体の位置姿勢を
計測する処理を少なくとも4以上の時系列な時刻点で行
い、 該4以上の時刻点の位置姿勢データについて最小自乗法
を適用して運動パラメータを求めることを特徴とする物
体の運動同定方法。
2. A method for identifying the motion of an object that is moving at a constant linear velocity or at a constant angular velocity, wherein at least four or more processes are performed for photographing the object and measuring the position and orientation of the object from the photographed image. The method for identifying a motion of an object, characterized in that the motion parameter is obtained by applying the least squares method to the position and orientation data at the four or more time points.
【請求項3】 等速直線運動、等角速度運動をしている
物体の運動を同定する方法であって、 物体を撮影してその撮影画像からその物体の位置姿勢を
計測する処理を少なくとも4以上の時系列な時刻点で行
い、 該4以上の時刻点の位置姿勢データについてカルマンフ
ィルタを適用して運動パラメータを求めることを特徴と
する物体の運動同定方法。
3. A method for identifying the motion of an object that is moving at a constant linear velocity or at a constant angular velocity, wherein at least four or more processes are performed for photographing the object and measuring the position and orientation of the object from the photographed image. The time-sequential time point of, and a motion identification method of an object, characterized in that a Kalman filter is applied to the position and orientation data at the four or more time points to obtain motion parameters.
【請求項4】 等速直線運動、等角速度運動をしている
物体の運動を同定する運動同定装置であって、 物体を撮影してその撮影画像からその物体の位置姿勢を
計測する処理を少なくとも4以上の時系列な時刻点で行
う位置姿勢計測装置(101)と、 該位置姿勢計測装置で得た4以上の時刻点の位置姿勢デ
ータに基づいて、任意に選択した3時刻点の位置姿勢デ
ータの組合せによる運動同定、4以上の時刻点の位置姿
勢データについての最小自乗法による運動同定、または
4以上の時刻点の位置姿勢データについてのカルマンフ
ィルタによる運動同定を用いて誤差を抑圧しつつ運動パ
ラメータを求める演算処理装置(102)とを備えた物
体の運動同定装置。
4. A motion identification device for identifying the motion of an object that is moving at a uniform linear velocity or at a constant angular velocity, wherein at least a process of photographing the object and measuring the position and orientation of the object from the photographed image. A position / orientation measuring device (101) for performing time points of 4 or more time series, and position / orientation of 3 time points arbitrarily selected based on position / orientation data of 4 or more time points obtained by the position / orientation measuring device. Motion identification by combination of data, motion identification by least squares method for position / orientation data at 4 or more time points, or motion identification by Kalman filter for position / orientation data at 4 or more time points while suppressing errors An apparatus for identifying motion of an object, comprising an arithmetic processing unit (102) for obtaining a parameter.
JP5145633A 1993-05-25 1993-05-25 Method and apparatus for identifying motion of object Withdrawn JPH06331380A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5145633A JPH06331380A (en) 1993-05-25 1993-05-25 Method and apparatus for identifying motion of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5145633A JPH06331380A (en) 1993-05-25 1993-05-25 Method and apparatus for identifying motion of object

Publications (1)

Publication Number Publication Date
JPH06331380A true JPH06331380A (en) 1994-12-02

Family

ID=15389526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5145633A Withdrawn JPH06331380A (en) 1993-05-25 1993-05-25 Method and apparatus for identifying motion of object

Country Status (1)

Country Link
JP (1) JPH06331380A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7430304B2 (en) 2002-09-19 2008-09-30 Kabushiki Kaisha Toshiba Object velocity measuring apparatus and object velocity measuring method
WO2017204320A1 (en) * 2016-05-27 2017-11-30 株式会社アストロスケール Capture plate, space device and capturing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7430304B2 (en) 2002-09-19 2008-09-30 Kabushiki Kaisha Toshiba Object velocity measuring apparatus and object velocity measuring method
US7536035B2 (en) 2002-09-19 2009-05-19 Kabushiki Kaisha Toshiba Object velocity measuring apparatus and object velocity measuring method
WO2017204320A1 (en) * 2016-05-27 2017-11-30 株式会社アストロスケール Capture plate, space device and capturing method
US10882643B2 (en) 2016-05-27 2021-01-05 Astroscale Japan Inc. Capturing plate, on-orbit device and method for capturing

Similar Documents

Publication Publication Date Title
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
Yoshimi et al. Alignment using an uncalibrated camera system
JP6180087B2 (en) Information processing apparatus and information processing method
CN110880189B (en) Combined calibration method and combined calibration device thereof and electronic equipment
CN110675453B (en) Self-positioning method for moving target in known scene
Dudek et al. Vision-based robot localization without explicit object models
CN111678521B (en) Method and system for evaluating positioning accuracy of mobile robot
Strelow et al. Optimal motion estimation from visual and inertial measurements
JP2019119027A (en) Method of controlling robot system, and robot system
Lambrecht Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
CN112518748A (en) Automatic grabbing method and system of vision mechanical arm for moving object
CN111583342A (en) Target rapid positioning method and device based on binocular vision
JP2559939B2 (en) Three-dimensional information input device
Boby et al. Measurement of end-effector pose errors and the cable profile of cable-driven robot using monocular camera
Lins et al. Velocity estimation for autonomous vehicles based on image analysis
JPH06331380A (en) Method and apparatus for identifying motion of object
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
JP2000348181A (en) Moving object tracking device
JP3086550B2 (en) Method and apparatus for identifying motion of moving body
Ogata et al. A robust position and posture measurement system using visual markers and an inertia measurement unit
JP2697917B2 (en) 3D coordinate measuring device
CN114119885A (en) Image feature point matching method, device and system and map construction method and system
JPH0882505A (en) Calibration method of camera parameter and measuring method of object position
JPH076769B2 (en) Object measuring device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000801