JP2003178308A - Calculation method and unit, program and recording medium - Google Patents

Calculation method and unit, program and recording medium

Info

Publication number
JP2003178308A
JP2003178308A JP2001377654A JP2001377654A JP2003178308A JP 2003178308 A JP2003178308 A JP 2003178308A JP 2001377654 A JP2001377654 A JP 2001377654A JP 2001377654 A JP2001377654 A JP 2001377654A JP 2003178308 A JP2003178308 A JP 2003178308A
Authority
JP
Japan
Prior art keywords
group
position information
image
feature points
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001377654A
Other languages
Japanese (ja)
Inventor
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001377654A priority Critical patent/JP2003178308A/en
Publication of JP2003178308A publication Critical patent/JP2003178308A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically track a shot dynamic image even when a feature point is hidden behind an object or the like and it cannot be tracked in tracking (locus tracking) of the dynamic image. <P>SOLUTION: First positional information which is information of projection positions of feature points of a first group of the object shot in a plurality of images is used as an input, and second positional information which is information of projection positions of feature points of a remaining second group is determined by a calculation process circuit 11. In the calculation process circuit 11, a first parameter relevant to a weight in a representation by a weighted average of positions of the feature points of the first group and a second parameter relevant to the projection positions of the feature points of the first group and positions, orientations and focal lengths of an imaging device shooting the image at a particular time and a target time are used as unknown variables, the second positional information and the unknown variables are determined by a relational expression of the unknown variables and the projection positions of the feature points of the first and second groups on the images, and the determined second positional information is outputted. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像データ内に投
影された物体の特徴点の軌跡を求めるための演算方法及
び装置、プログラム、並びにプログラムを記録している
記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a calculation method and apparatus for obtaining a locus of feature points of an object projected in image data, a program, and a recording medium recording the program.

【0002】[0002]

【従来の技術】例えば、あるカメラを用いて、動画像
(以下オリジナル動画像という。)を撮影したとする。
オリジナル動画像の各時刻における画像には、1つの長
方形の物体が撮影されていたとする。この長方形の4つ
の頂点を、第1〜4の頂点、一般的には第1〜4の特徴
点という。このオリジナル動画像に投影された長方形の
4隅(4つの頂点)の投影像の軌跡をトラック(軌跡追
跡)する。第1の頂点(すなわち、第1の特徴点)の投
影像をトラックした結果を(U1(t),V1(t))とする。
すなわち、時刻tにおける第1の頂点は、画像上で(U
1(t),V1(t))に投影されている。同様に、第2、3、
4の頂点(すなわち、第2、3、4の特徴点)の投影像
をトラックした結果を、それぞれ、(U2(t),V2
(t))、(U3(t),V3(t))、(U4(t),V4(t))とす
る。これら4隅をトラックすることで、各時刻における
長方形全体の投影像の位置が判明する。そこで、この情
報を使って、後で、この長方形の投影像の位置に、別に
用意したテクスチャ(模様)を貼り付けることができ
る。これにより、あたかも、最初からこの長方形の部分
に上記テクスチャがあったかのような状態で撮影した動
画像を得ることができる。
2. Description of the Related Art For example, it is assumed that a moving image (hereinafter referred to as an original moving image) is taken by using a camera.
It is assumed that one rectangular object is captured in the image of the original moving image at each time. The four vertices of this rectangle are referred to as the first to fourth vertices, generally the first to fourth feature points. The loci of the projected images at the four corners (four vertices) of the rectangle projected on this original moving image are tracked (trajectory tracing). Let (U1 (t), V1 (t)) be the result of tracking the projected image of the first vertex (that is, the first feature point).
That is, the first vertex at time t is (U
1 (t), V1 (t)). Similarly, the second, third,
The results of tracking the projected images of the four vertices (that is, the second, third, and fourth feature points) are (U2 (t), V2
(t)), (U3 (t), V3 (t)), and (U4 (t), V4 (t)). By tracking these four corners, the position of the projected image of the entire rectangle at each time can be found. Therefore, by using this information, a separately prepared texture (pattern) can be pasted at the position of this rectangular projected image. As a result, it is possible to obtain a moving image captured as if the above-mentioned texture was present in the rectangular portion from the beginning.

【0003】より一般的には、オリジナル動画像の各時
刻における画像において、撮影された物体(複数の物
体、物体群等の場合も含む。)の4つの特徴点のそれぞ
れの投影像をトラックした結果を(U1(t),V1(t))、
(U2(t),V2(t))、(U3(t),V3(t))、(U4(t),V4
(t))とすることが挙げられる。
More generally, in the image of the original moving image at each time, the projected images of the four feature points of the imaged object (including the case of a plurality of objects, a group of objects, etc.) are tracked. The result is (U1 (t), V1 (t)),
(U2 (t), V2 (t)), (U3 (t), V3 (t)), (U4 (t), V4
(t)).

【0004】このように、ある物体(物体群でもよい)
の特徴点(例えば物体の角)をトラックすることは、画
像処理の分野では、しばしば行われていることであり、
かつ必要なことである。
Thus, a certain object (or a group of objects)
Tracking feature points (eg, object corners) is a common practice in the field of image processing,
And it is necessary.

【0005】[0005]

【発明が解決しようとする課題】ところで、例えば、上
記長方形の例では、すべての頂点が、すべての時刻にお
いて見えているとは限らない。つまり、ある時刻では、
ある頂点が、何か他の物体の影に隠れて撮影できなかっ
た場合なども起こり得る。この場合、従来、人間(オペ
レータ)が、もし物体の影に隠れていなかったらどこに
投影されていたかを指定する必要があった。このように
頂点が撮影できなかった画像が、動画像の中に沢山ある
場合、オペレータはこれら全ての画像に対して、一枚一
枚手作業で指定していく必要があるため、かなりの時間
がかかっていた。そして、短時間で人手をかけずに指定
して欲しいという要求に答えられていなかった。
By the way, for example, in the above-mentioned rectangular example, not all vertices are visible at all times. So at one time,
It may happen that a certain vertex cannot be photographed because it is hidden by the shadow of some other object. In this case, conventionally, it was necessary for a human (operator) to specify where the image was projected if it was not hidden by the shadow of the object. If there are many images in which the vertices could not be captured in the moving image, it is necessary for the operator to manually specify all these images one by one. It was hanging. And, it was not possible to answer the request to request the designation in a short time without human intervention.

【0006】本発明は、このような実情に鑑みてなされ
たものであり、撮影された動画像をトラック(軌跡追
跡)している際に、特徴点が物体の蔭に隠れる等により
トラックできなかった場合でも、自動でトラックするこ
とを可能とするような演算方法及び装置、プログラム、
並びに記録媒体の提供を目的とする。
The present invention has been made in view of such a situation, and when a captured moving image is being tracked (trajectory tracking), the feature point cannot be tracked because it is hidden behind the object. Even if it happens, a calculation method and device, a program, which enables automatic tracking,
In addition, the purpose is to provide a recording medium.

【0007】[0007]

【課題を解決するための手段】本発明に係る演算方法
は、複数の画像に撮影された物体の第1群の特徴点の投
影位置の情報である第1の位置情報を入力として、残り
の第2群の特徴点の投影位置の情報である第2の位置情
報を求める演算方法において、上記第1群の特徴点の位
置の重み付き平均で表現した際の該重みに関連する第1
のパラメータと、上記第1群の特徴点の投影位置及び特
定の時刻と注目している時刻における上記画像を撮影し
た撮像装置の位置、向き、焦点距離に関連する第2のパ
ラメータとを未知変数として、上記未知変数と上記第1
群及び第2群の特徴点の上記画像上での投影像位置との
関係式より、上記第2の位置情報と上記未知変数とを求
める計算ステップを有し、上記計算ステップで求められ
た上記第2の位置情報を出力することを特徴とすること
により、上述の課題を解決する。
According to the calculation method of the present invention, the first position information, which is the information of the projected position of the feature points of the first group of the object photographed in a plurality of images, is input, and the remaining In the calculation method for obtaining the second position information which is the information of the projected position of the feature point of the second group, the first position related to the weight when the weighted average of the positions of the feature points of the first group is expressed.
And a second parameter related to the position, orientation, and focal length of the imaging device that captured the image at the projection position of the first group of feature points and the specific time and the time of interest. And the unknown variable and the first
It has a calculation step of obtaining the second position information and the unknown variable from a relational expression with the projected image position on the image of the feature points of the group and the second group, and the calculation step obtained in the calculation step. The above-mentioned problem is solved by a feature that the second position information is output.

【0008】ここで、上記計算ステップでは、上記未知
変数と上記第1及び第2の特徴点の上記画像上での投影
像位置との関係式を誤差を考慮して満たすという条件下
での誤差評価関数を最小とするようにして、上記第2の
位置情報と上記未知変数を求めることが行われ、さら
に、上記第1の位置情報に関する誤差よりも上記第2の
位置情報に関する誤差に関しては重みを軽くして、上記
誤差評価関数内で評価されていることが挙げられる。
Here, in the calculation step, the error under the condition that the relational expression between the unknown variable and the projected image position of the first and second feature points on the image is satisfied in consideration of the error. The second position information and the unknown variable are calculated so as to minimize the evaluation function, and the error relating to the second position information is weighted more than the error relating to the first position information. Is made lighter, and is evaluated within the above error evaluation function.

【0009】次に、本発明に係る演算装置は、複数の画
像に撮影された物体の第1群の特徴点の投影位置の情報
である第1の位置情報を入力として、残りの第2群の特
徴点の投影位置の情報である第2の位置情報を求める演
算装置において、上記第1群の特徴点の位置の重み付き
平均で表現した際の該重みに関連する第1のパラメータ
と、上記第1群の特徴点の投影位置及び特定の時刻と注
目している時刻における上記画像を撮影した撮像装置の
位置、向き、焦点距離に関連する第2のパラメータとを
未知変数として、上記未知変数と上記第1群及び第2群
の特徴点の上記画像上での投影像位置との関係式より、
上記第2の位置情報と上記未知変数とを求める計算回路
を有し、上記計算回路で求められた上記第2の位置情報
を出力することを特徴とすることにより、上述の課題を
解決する。
Next, the arithmetic unit according to the present invention receives as input the first position information which is the information on the projected position of the feature points of the first group of the object photographed in the plurality of images, and the remaining second group. In a computing device for obtaining second position information, which is information of the projected position of the feature point, a first parameter associated with the weight when expressed by a weighted average of the positions of the feature points of the first group, The unknown positions are the projection positions of the characteristic points of the first group and the second parameter related to the position, orientation, and focal length of the imaging device that has captured the image at a specific time and the time of interest. From the relational expression between the variable and the projected image position on the image of the feature points of the first group and the second group,
The above problem is solved by having a calculation circuit for calculating the second position information and the unknown variable, and outputting the second position information calculated by the calculation circuit.

【0010】ここで、上記計算回路は、上記未知変数と
上記第1及び第2の特徴点の上記画像上での投影像位置
との関係式を誤差を考慮して満たすという条件下での誤
差評価関数を最小とするようにして、上記第2の位置情
報と上記未知変数を求めることが行われ、さらに、上記
第1の位置情報に関する誤差よりも上記第2の位置情報
に関する誤差に関しては重みを軽くして、上記誤差評価
関数内で評価されていることが挙げられる。
Here, the calculation circuit has an error under the condition that the relational expression between the unknown variable and the projected image positions of the first and second feature points on the image is satisfied in consideration of the error. The second position information and the unknown variable are calculated so as to minimize the evaluation function, and the error relating to the second position information is weighted more than the error relating to the first position information. Is made lighter, and is evaluated within the above error evaluation function.

【0011】次に、本発明に係るプログラムは、上記特
徴を有する演算方法の処理手順をコンピュータに実行さ
せることを特徴とするものである。
Next, a program according to the present invention is characterized by causing a computer to execute the processing procedure of the arithmetic method having the above characteristics.

【0012】また、本発明に係るコンピュータ読み取り
可能な記録媒体は、上記特徴を有する演算方法の処理手
順をコンピュータに実行させるためのプログラムを記録
したことを特徴とするものである。
A computer-readable recording medium according to the present invention is characterized by recording a program for causing a computer to execute the processing procedure of the arithmetic method having the above characteristics.

【0013】[0013]

【発明の実施の形態】本発明においては、トラックしよ
うとしている物体(物体群でもよい)の複数の特徴点
(第1群の特徴点)とともに他の特徴点(第2群の特徴
点)に対してもトラックするようにした。これにより、
第1群の特徴点の投影像位置が、何らかの理由でトラッ
クできなかった場合にも、自動で第1群の特徴点の投影
像位置を求めることができる。
BEST MODE FOR CARRYING OUT THE INVENTION In the present invention, a plurality of feature points (feature points of the first group) of an object (which may be a group of objects) to be tracked as well as other feature points (feature points of the second group) are selected. I also tried to track. This allows
Even if the projected image positions of the characteristic points of the first group cannot be tracked for some reason, the projected image positions of the characteristic points of the first group can be automatically obtained.

【0014】ところで、上記長方形の例では、該長方形
の4つの頂点を、第1、2、3、4の特徴点と呼ぶこと
にする。そして、オリジナル動画像上でそれらをトラッ
クした結果が(U1(t),V1(t))、(U2(t),V2(t))、
(U3(t),V3(t))、(U4(t),V4(t))である。ある特
定の時刻においては、(U1(t),V1(t))、(U2(t),V
2(t))、(U3(t),V3(t))、(U4(t),V4(t))の1つ
あるいは複数のデータが不定となっている。最終ゴール
は、これら不定データを確定させることである。
By the way, in the example of the rectangle, the four vertices of the rectangle are referred to as first, second, third and fourth feature points. Then, the results of tracking them on the original moving image are (U1 (t), V1 (t)), (U2 (t), V2 (t)),
(U3 (t), V3 (t)) and (U4 (t), V4 (t)). At a certain time, (U1 (t), V1 (t)), (U2 (t), V
One or more data of (2 (t)), (U3 (t), V3 (t)), (U4 (t), V4 (t)) are undefined. The final goal is to finalize these indefinite data.

【0015】また、先に述べたように、上記長方形の4
頂点以外の特徴点に対してもトラックを行う。これら
を、第0の特徴点、及び、第5、6、...、N−1の
特徴点の、全部でN−4個の特徴点から成るとする。そ
して、そのトラックした結果を(U0(t),V0(t))、及
び、(U5(t),V5(t))、((U6(t),V6
(t))、...、((UN-1(t),VN-1(t))とする。これ
らトラックした結果も、ある特定の時刻においては、不
定であってもよい。
Further, as mentioned above, the rectangle 4
Tracking is also performed for feature points other than vertices. These are the 0th feature point and the 5th, 6th ,. . . , N-1 feature points, N-1 feature points in total. Then, the tracked result is (U0 (t), V0 (t)) and (U5 (t), V5 (t)), ((U6 (t), V6
(t)) ,. . . , ((UN-1 (t), VN-1 (t)). These tracked results may also be indefinite at a specific time.

【0016】このような長方形の例において、上記第1
群の特徴点とは、長方形の4つの頂点の内の3つの頂
点、例えば第1、2、3の特徴点と、該長方形を含む平
面上に無い1つの点、例えば上記第0の特徴点とから成
る4つの特徴点である。また、残りの第4〜N−1の特
徴点が、上記第2群の特徴点となる。
In an example of such a rectangle, the first
The feature points of the group are three vertices of the four vertices of the rectangle, for example, the first, second, and third feature points, and one point not on the plane including the rectangle, for example, the zeroth feature point. There are four feature points consisting of and. The remaining 4th to N-1 feature points are the feature points of the second group.

【0017】なお、これらの特徴点の投影像のトラック
方法は、ブロックマッチング等の方法により自動で行え
るので、全体としてN個の特徴点のトラックを行わなく
てはならないことは、オペレータの負担にはならない。
Since the method of tracking the projected images of these characteristic points can be automatically performed by a method such as block matching, it is a burden on the operator to track N characteristic points as a whole. Don't

【0018】これらの特徴点のオリジナル動画像上での
トラックデータを入力として、トラックできなかった不
定データを自動で確定させることが、本発明のポイント
である。
The point of the present invention is to automatically determine indefinite data that cannot be tracked by inputting track data of these characteristic points on the original moving image.

【0019】以下、本発明に係る演算方法の第1の実施
の形態について詳細に説明する。
The first embodiment of the arithmetic method according to the present invention will be described in detail below.

【0020】3次元上でのi番目の特徴点の位置を(X
i, Yi, Zi)とする。iは、0〜N−1である。例え
ば、上記長方形の例で、第0の特徴点(X0,Y0,Z0)
が、上記長方形を含む平面上に無いとき、第0〜3(す
なわち0〜3番目)の4つの特徴点を第1群の特徴点と
し、残りの第4〜N−1(すなわち4〜N−1番目)の
特徴点を第2群の特徴点とする。オリジナル動画像にお
いて、時刻tにおける上記i番目の特徴点の投影像位置
を(Ui(t), Vi(t))としているので、時刻tにおける
射影変換行列を{rij(t)}とすると、次の式1を満た
すはずである。
The position of the i-th feature point in the three-dimensional space is defined as (X
i, Yi, Zi). i is 0 to N-1. For example, in the example of the above rectangle, the 0th feature point (X0, Y0, Z0)
However, when it is not on a plane including the above rectangle, the 0th to 3th (that is, 0th to 3rd) feature points are set as the feature points of the first group, and the remaining 4th to N-1 (that is, 4th to Nth). The (-1st) feature point is defined as the feature point of the second group. In the original moving image, the projected image position of the i-th feature point at time t is (Ui (t), Vi (t)), so if the projective transformation matrix at time t is {rij (t)}, The following Equation 1 should be satisfied.

【0021】[0021]

【数1】 [Equation 1]

【0022】ここで、上記式1は、同次座標系(homoge
neous coordinates)で記述しており、Witは、同次座
標系で表現するために付け加えられた変数である。
Here, the above equation 1 is a homogeneous coordinate system (homoge
neous coordinates), and Wit is a variable added to represent in the homogeneous coordinate system.

【0023】0〜3番目の4つの特徴点(X0,Y0,Z
0)、(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,
Z3)の投影位置が、t=0におけるオリジナル動画像
上で確定されているとする。すなわち、(U0(0),V0
(0))、(U1(0),V1(0))、(U2(0),V2(0))、(U3
(0),V3(0))が観測されているとする。そして、上記4
つの特徴点は、3次元空間上で一つの平面上にないとす
る。適切なm0j、m1j、m2jにより、他の特徴点(Xj,
Yj,Zj)は、次の式2を満たす。
Four feature points 0 to 3 (X0, Y0, Z
0), (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3,
It is assumed that the projection position of Z3) is fixed on the original moving image at t = 0. That is, (U0 (0), V0
(0)), (U1 (0), V1 (0)), (U2 (0), V2 (0)), (U3
(0), V3 (0)) is observed. And the above 4
It is assumed that two feature points are not on one plane in the three-dimensional space. With appropriate m0j, m1j, and m2j, other feature points (Xj,
Yj, Zj) satisfies the following expression 2.

【0024】[0024]

【数2】 [Equation 2]

【0025】ここで、jは、4〜N−1である。なお、
特に、上記長方形の例では、m04=0、m14=1、m24
=−1、m34=1である。なぜならば、 「第2の特徴点の位置」+「第4の特徴点の位置」 =「第1の特徴点の位置」+「第3の特徴点の位置」 =「長方形の中心」 だからである。
Here, j is 4 to N-1. In addition,
Particularly, in the example of the above rectangle, m04 = 0, m14 = 1, m24
= -1, m34 = 1. This is because "the position of the second feature point" + "the position of the fourth feature point" = "the position of the first feature point" + "the position of the third feature point" = "the center of the rectangle" is there.

【0026】上記式1に対して、式変形を行うことで、
次の式3を得る。
By modifying the above expression 1 by the expression,
The following Equation 3 is obtained.

【0027】[0027]

【数3】 [Equation 3]

【0028】ただし、Kij、及び、R0(t), R1(t), R
2(t) は、それぞれ、次の式4、式5で示される値であ
る。なお、特に、上記長方形の例では、m04=0より、
K04=0である。
However, Kij and R0 (t), R1 (t), R
2 (t) is a value represented by the following Equation 4 and Equation 5, respectively. In addition, in particular, in the example of the above rectangle, since m04 = 0,
K04 = 0.

【0029】[0029]

【数4】 [Equation 4]

【0030】[0030]

【数5】 [Equation 5]

【0031】時刻tは、0〜T−1までの値をとる。動
画像の撮影は、時刻0からT−1までのT枚撮影が行わ
れたとする。最初の時刻におけるカメラの位置を基準と
するので、時刻t=0における射影変換行列は、次の式
6となる。
The time t takes a value from 0 to T-1. It is assumed that the moving image is captured from T times from time 0 to T-1. Since the position of the camera at the first time is used as a reference, the projective transformation matrix at time t = 0 is given by the following Expression 6.

【0032】[0032]

【数6】 [Equation 6]

【0033】ここで、r00(0)は画像上でのU軸方向の
t=0における焦点距離であり、r11(0)は画像上での
V軸方向のt=0における焦点距離であり、座標(r02
(0),r12(0))が、t=0における光軸中心と撮像面の
交点である。なお、上記式5及び式6から分かるよう
に、R0(0)=0、R1(0)=0、R2(0)=0である。
Here, r00 (0) is the focal length at t = 0 in the U-axis direction on the image, r11 (0) is the focal length at t = 0 in the V-axis direction on the image, Coordinates (r02
(0), r12 (0)) is the intersection of the optical axis center and the imaging surface at t = 0. As can be seen from Equations 5 and 6, R0 (0) = 0, R1 (0) = 0, and R2 (0) = 0.

【0034】各時刻における各投影像の位置(観測値)
(Ui(t),Vi(t))には、誤差が含まれているので、こ
の誤差を(εi(t),δi(t))とする。先に述べたよう
に、ある特定の時刻における特定の特徴点の位置が、オ
リジナル画像上に投影されないこともある。そこで、
(Ui(t),Vi(t))が確定された観測値であるか、ある
いは、不定であるかを判断するためのフラグFi(t)を導
入する。この値は、外部から入力される。Fi(t)=0と
は、(Ui(t),Vi(t))が不定であることを意味し、Fi
(t)=1とは、(Ui(t),Vi(t))が確定された入力デー
タ(すなわち、観測できた値)であることを意味する。
例えば、ある特徴点が、ある時刻において、別の物体の
影に隠れてカメラに撮影されなかった場合などは、Fi
(t)=0となる。
Position of each projected image at each time (observed value)
Since (Ui (t), Vi (t)) contains an error, this error is defined as (εi (t), δi (t)). As described above, the position of a specific feature point at a specific time may not be projected on the original image. Therefore,
A flag Fi (t) for determining whether (Ui (t), Vi (t)) is a fixed observation value or indefinite is introduced. This value is input from the outside. Fi (t) = 0 means that (Ui (t), Vi (t)) is indefinite and Fi
(t) = 1 means that (Ui (t), Vi (t)) is defined input data (that is, an observable value).
For example, if a certain feature point is hidden by a shadow of another object at a certain time and is not captured by the camera, Fi
(t) = 0.

【0035】ここで、問題を整理すると、「Fi(t)=1
である(Ui(t),Vi(t))」が与えられたとき、次の式
7の条件下で、次の式8を最小にするKij, R0(t), R
1(t), R2(t) 及び、「Fi(t)=0である(Ui(t),Vi
(t))」を求めよということになる。
Here, when the problems are sorted out, "Fi (t) = 1
(Ui (t), Vi (t)) ”is given, Kij, R0 (t), R that minimizes the following expression 8 under the condition of the following expression 7 is given.
1 (t), R2 (t) and "Fi (t) = 0 (Ui (t), Vi
(t)) ”.

【0036】[0036]

【数7】 [Equation 7]

【0037】[0037]

【数8】 [Equation 8]

【0038】上記式8において、Ci(t)は、i番目の特
徴点の時刻tにおける測定の確からしさであり、外部か
ら入力される。観測値(Ui(t),Vi(t))が信頼できる
場合は、Ci(t)として大きい値が入力される。
In the above equation 8, Ci (t) is the accuracy of the measurement of the i-th feature point at time t and is input from the outside. When the observed values (Ui (t), Vi (t)) are reliable, a large value is input as Ci (t).

【0039】上記式8を最小とする状態を求める際に、
KijとR0(t), R1(t), R2(t)と「Fi(t)=0である
(Ui(t),Vi(t))」をすべて変数として、一度に求め
るのは困難である。そこで、(ステップSA) KijとR0
(t), R1(t), R2(t)を固定して、「Fi(t)=0である
(Ui(t),Vi(t))」を求める。(ステップSB) R0
(t), R1(t), R2(t)と「Fi(t)=0である(Ui(t),V
i(t))」を固定して、Kijを求める。(ステップSC)
Kijと「Fi(t)=0である(Ui(t),Vi(t))」を固定
して、R0(t), R1(t), R2(t)を求める。の3つのステ
ップを繰り返し行い、収束させることにする。
When obtaining the state that minimizes the above equation 8,
It is difficult to obtain Kij and R0 (t), R1 (t), R2 (t) and “Fi (t) = 0 (Ui (t), Vi (t))” all as variables at once. is there. Therefore, (Step SA) Kij and R0
By fixing (t), R1 (t) and R2 (t), "Fi (t) = 0 (Ui (t), Vi (t))" is obtained. (Step SB) R0
(t), R1 (t), R2 (t) and "Fi (t) = 0 (Ui (t), V
i (t)) ”is fixed and Kij is calculated. (Step SC)
Fixing Kij and "(Fi (t) = 0 (Ui (t), Vi (t))", R0 (t), R1 (t), and R2 (t) are obtained. The above three steps are repeated to converge.

【0040】また、上記式7を近似して次の式9とす
る。ここで、A0j(t), A1j(t), A2j(t), A3j(t)
は、上述の各ステップでデータを更新する前のデータを
使って次の式10より求めた値とする。もし上記ステッ
プを繰り返すことにより(εi(t),δi(t))→(0,0)
になれば、次の式9は上記式7と等価である。従って、
上記式7の代わりに次の式9を条件式として使うことで
問題は生じない。
Further, the above equation 7 is approximated to the following equation 9. Where A0j (t), A1j (t), A2j (t), A3j (t)
Is a value obtained from the following Expression 10 using the data before updating the data in each step described above. If the above steps are repeated (εi (t), δi (t)) → (0,0)
Then, the following expression 9 is equivalent to the above expression 7. Therefore,
There is no problem by using the following Expression 9 as the conditional expression instead of Expression 7 above.

【0041】[0041]

【数9】 [Equation 9]

【0042】[0042]

【数10】 [Equation 10]

【0043】以上の処理をまとめて、図1のフローチャ
ートに示す。
The above processing is summarized in the flow chart of FIG.

【0044】最初に、図1のステップS1で、データを
入力する。つまり、時刻tにおいてi番目の特徴点が観
測値として確認できたかどうかを意味するFi(t)を入力
する。そして、Fi(t)=1である場合には、観測値(U
i(t),Vi(t))も入力する。さらに、すべてのi、tに
おける「観測値の確からしさCi(t)」も入力する。
First, in step S1 of FIG. 1, data is input. That is, Fi (t) that indicates whether or not the i-th feature point was confirmed as an observation value at time t is input. When Fi (t) = 1, the observed value (U
i (t), Vi (t)) is also input. Furthermore, the "probability of observation value Ci (t)" for all i and t is also input.

【0045】観測できなかった(Fi(t)=0)というこ
とは、(Ui(t),Vi(t))に適当な値をセットして、こ
の値には、かなりの誤差が含まれていると解釈できるの
で、Fi(t)=0の場合、Ci(t)として、とても小さな値
(例えば、Fi(t)=1のときのCi(t) の値に対してその
1/10000 程度の値)を入力しておく。これは、上述の
ステップSB、SCでの収束性を良くする効果がある。
Unobservable (Fi (t) = 0) means that (Ui (t), Vi (t)) is set to an appropriate value, and this value includes a considerable error. If Fi (t) = 0, then as Ci (t), a very small value (for example, 1/10000 of the value of Ci (t) when Fi (t) = 1) Enter a value). This has the effect of improving the convergence in steps SB and SC described above.

【0046】先ほども述べたが、少なくとも、時刻t=
0における0〜3番目の特徴点の投影位置は観測できた
とする。つまり、F0(0)=1、F1(0)=1、F2(0)=
1、F3(0)=1である。ステップS1での入力が終わる
と、ステップS2に進む。
As described above, at least time t =
It is assumed that the projection positions of the 0th to 3rd feature points at 0 can be observed. That is, F0 (0) = 1, F1 (0) = 1, F2 (0) =
1 and F3 (0) = 1. When the input in step S1 is completed, the process proceeds to step S2.

【0047】ステップS2では、適当な値を、Kij, R
0(t), R1(t), R2(t) にセットする。例えば、Kij=
0.25、R0(t)=0、R1(t)=0、R2(t)=0である。ま
た、上記長方形の例では、K04=0であるので、0.2
5の代わりに、K04=0、K14=1、K12=−1、K13
=1としてもよい。ステップS2の処理が終わると、ス
テップS3に進む。
In step S2, appropriate values are set to Kij, R
Set to 0 (t), R1 (t), R2 (t). For example, Kij =
0.25, R0 (t) = 0, R1 (t) = 0, and R2 (t) = 0. Also, in the example of the above rectangle, K04 = 0, so 0.2
Instead of 5, K04 = 0, K14 = 1, K12 = -1, K13
It may be = 1. When the process of step S2 ends, the process proceeds to step S3.

【0048】ステップS3、S4では、上述のステップ
SAの処理を行う。すなわち、ステップS3では、ステ
ップS1で入力された(U0(0),V0(0))、(U1(0),V
1(0))、(U2(0),V2(0))、(U3(0),V3(0))と、現
在のKij, R0(t), R1(t),R2(t)より、上記式10で
定義したA0j(t), A1j(t), A2j(t), A3j(t) を求め
る。そして、ステップS4に進む。ステップS4では、
ステップS3で求めたA0j(t), A1j(t), A2j(t), A3
j(t)を使い、上記式9の条件下で式8を最小とする「F
i(t)=0である(Ui(t),Vi(t))」を求める。ステッ
プS4の処理の後、ステップS5に進む。
In steps S3 and S4, the processing in step SA described above is performed. That is, in step S3, (U0 (0), V0 (0)) and (U1 (0), V input in step S1 are input.
1 (0)), (U2 (0), V2 (0)), (U3 (0), V3 (0)) and current Kij, R0 (t), R1 (t), R2 (t) , A0j (t), A1j (t), A2j (t), A3j (t) defined by the above equation 10 are obtained. Then, the process proceeds to step S4. In step S4,
A0j (t), A1j (t), A2j (t), A3 obtained in step S3
Using j (t), we minimize Eq. 8 under the condition of Eq.
i (t) = 0 (Ui (t), Vi (t)) "is obtained. After the process of step S4, the process proceeds to step S5.

【0049】ステップS5、S6では、上述のステップ
SBの処理を行う。すなわち、ステップS5では、ステ
ップS1で入力された(U0(0),V0(0))、(U1(0),V
1(0))、(U2(0),V2(0))、(U3(0),V3(0))と、現
在のKij, R0(t), R1(t),R2(t)より、上記式10で
定義したA0j(t), A1j(t), A2j(t), A3j(t) を求め
る。そして、ステップS6に進む。ステップS6では、
ステップS5で求めたA0j(t), A1j(t), A2j(t), A3
j(t)を使い、上記式9の条件下で上記式8を最小とする
Kijを求める。ちなみに、A0j(t), A1j(t), A2j(t),
A3j(t) は、直前のステップS3での値と同じであ
り、ステップS5で再計算せずに、ステップS3での値
をそのまま使用してもよい。また、上記長方形の例で
は、K04=0であるので、ステップS6での処理は、
「上記式9を満たし、かつ、K04=0であるという条件下
で上記式8を最小とするKij(ただし、K04は除く)を
求める。」という処理になる。ステップS6の処理の
後、ステップS7に進む。
In steps S5 and S6, the process of step SB described above is performed. That is, in step S5, (U0 (0), V0 (0)) and (U1 (0), V input in step S1 are input.
1 (0)), (U2 (0), V2 (0)), (U3 (0), V3 (0)) and current Kij, R0 (t), R1 (t), R2 (t) , A0j (t), A1j (t), A2j (t), A3j (t) defined by the above equation 10 are obtained. Then, the process proceeds to step S6. In step S6,
A0j (t), A1j (t), A2j (t), A3 obtained in step S5
Using j (t), Kij that minimizes Equation 8 above is obtained under the condition of Equation 9 above. By the way, A0j (t), A1j (t), A2j (t),
A3j (t) is the same as the value in the immediately preceding step S3, and the value in step S3 may be used as it is without being recalculated in step S5. Also, in the example of the above rectangle, since K04 = 0, the processing in step S6 is
The processing is "to find Kij (excluding K04) that minimizes Expression 8 under the condition that Expression 9 is satisfied and K04 = 0." After the process of step S6, the process proceeds to step S7.

【0050】ステップS7、S8では、上述のステップ
SCの処理を行う。すなわち、ステップS7では、ステ
ップS1で入力された(U0(0),V0(0))、(U1(0),V
1(0))、(U2(0),V2(0))、(U3(0),V3(0))と、現
在のKij, R0(t), R1(t),R2(t)より、式10で定義
したA0j(t), A1j(t), A2j(t), A3j(t) を求める。
そして、ステップS8に進む。ステップS8では、ステ
ップS7で求めたA0j(t), A1j(t), A2j(t), A3j(t)
を使い、上記式9の条件下で上記式8を最小とするR0
(t), R1(t), R2(t)を求める。ステップS8で求める
R0(t), R1(t),R2(t) は、t=1〜T−1である。t
=0のときの値は、前述した通りR0(0)=0、R1(0)=
0、R2(0)=0で固定しておく。ステップS8の処理の
後、ステップS9に進む。
In steps S7 and S8, the process of step SC described above is performed. That is, in step S7, (U0 (0), V0 (0)) and (U1 (0), V input in step S1 are input.
1 (0)), (U2 (0), V2 (0)), (U3 (0), V3 (0)) and current Kij, R0 (t), R1 (t), R2 (t) , A0j (t), A1j (t), A2j (t), A3j (t) defined by the equation 10 are obtained.
Then, the process proceeds to step S8. In step S8, A0j (t), A1j (t), A2j (t), A3j (t) obtained in step S7
R0 that minimizes the above equation 8 under the condition of the above equation 9
Calculate (t), R1 (t), R2 (t). R0 (t), R1 (t) and R2 (t) obtained in step S8 are t = 1 to T-1. t
= 0, the values are R0 (0) = 0 and R1 (0) =
It is fixed at 0 and R2 (0) = 0. After the process of step S8, the process proceeds to step S9.

【0051】ステップS3からステップS8までの一連
の処理は、繰り返し実行されるが、繰り返し処理された
回数(ループ回数)が所定の回数を超えたか、あるい
は、ステップS4、S6、S8において式8を最小とす
るようにデータ更新が行われるが、その際に計算される
上記式8の値(すなわち、誤差)が所定の範囲内に収ま
っているかを、ステップS9で判断し、真(YES)で
あれば、ステップS10に進む。偽(NO)であれば、
ステップS3に進み、再度ステップS3からステップS
8までの一連の処理を行う。
The series of processing from step S3 to step S8 is repeatedly executed, but the number of times of repeated processing (the number of loops) exceeds a predetermined number, or the equation 8 is calculated in steps S4, S6 and S8. Although the data is updated so as to minimize it, it is determined in step S9 whether or not the value (that is, the error) of the equation 8 calculated at that time is within a predetermined range, and it is true (YES). If there is, go to step S10. If false (NO),
Proceed to step S3, and again from step S3 to step S
A series of processes up to 8 is performed.

【0052】ステップS10に、処理が進んで来たとき
には、十分な精度のKij, R0(t),R1(t), R2(t) 及
び、「Fi(t)=0である(Ui(t),Vi(t))」が求めら
れていることになる。この時点で、既に最終的に求めた
い「Fi(t)=0である(Ui(t),Vi(t))」は求められ
ているが、さらに、観測できた(Ui(t),Vi(t))(す
なわちFi(t)=1である(Ui(t),Vi(t)))も含め
て、誤差補正を行う。すなわち、さらに、ステップS1
0、S11で、求められたKij, R0(t), R1(t), R2
(t) 及び(Ui(t),Vi(t))を用いて、(Ui(t),Vi
(t))の推定値(Ui(t)+εi(t),Vi(t)+δi(t))を求
めることを行う。
When the processing proceeds to step S10, Kij, R0 (t), R1 (t), R2 (t) with sufficient accuracy and "Fi (t) = 0 (Ui (t ), Vi (t)) ”is required. At this point, “Fi (t) = 0 (Ui (t), Vi (t))” that has been finally desired has already been obtained, but it can be further observed (Ui (t), Vi (t)) (that is, (Ui (t), Vi (t)) where Fi (t) = 1) is also corrected. That is, further, step S1
0, S11, Kij, R0 (t), R1 (t), R2
Using (t) and (Ui (t), Vi (t)), (Ui (t), Vi
An estimated value (Ui (t) + εi (t), Vi (t) + δi (t)) of (t)) is obtained.

【0053】ステップS10では、R0(0)=0、R1(0)
=0、R2(0)=0であることより、次の式11を満たす
条件下で次の式12を最小とする(εi(0),δi(0))を
求める。つまり、ステップS10では、t=0における
推定値(Ui(0)+εi(0),Vi(0)+δi(0))を求める。
そして、ステップS11に進む。
In step S10, R0 (0) = 0, R1 (0)
Since = 0 and R2 (0) = 0, (εi (0), δi (0)) that minimizes the following expression 12 is obtained under the condition that the following expression 11 is satisfied. That is, in step S10, the estimated value (Ui (0) + εi (0), Vi (0) + δi (0)) at t = 0 is obtained.
Then, the process proceeds to step S11.

【0054】[0054]

【数11】 [Equation 11]

【0055】[0055]

【数12】 [Equation 12]

【0056】ステップS11では、t=0以外の各時刻
t(t=1〜T−1)における推定値(Ui(t)+εi
(t),Vi(t)+δi(t))を求める。すなわち、ステップS
9までに求めたKij, R0(t), R1(t), R2(t)と、ステ
ップS10で求めたt=0における推定値(Ui(0)+ε
i(0),Vi(0)+δi(0))を使い、次の式13を満たす条
件下で次の式14を最小とする(εi(t),δi(t))を求
める。つまり、ステップS11では、t=1〜T−1に
おける推定値(Ui(t)+εi(t),Vi(t)+δi(t))を求
める。
In step S11, the estimated value (Ui (t) + εi at each time t (t = 1 to T-1) other than t = 0 is obtained.
(t), Vi (t) + δi (t)) is calculated. That is, step S
Kij, R0 (t), R1 (t), R2 (t) obtained up to 9 and the estimated value (Ui (0) + ε) at t = 0 obtained in step S10.
i (0), Vi (0) + δi (0)) is used to obtain (εi (t), δi (t)) that minimizes the following equation 14 under the condition that the following equation 13 is satisfied. That is, in step S11, the estimated values (Ui (t) + εi (t), Vi (t) + δi (t)) at t = 1 to T-1 are obtained.

【0057】[0057]

【数13】 [Equation 13]

【0058】[0058]

【数14】 [Equation 14]

【0059】このようにして、ステップS11までに求
められたKij, R0(t), R1(t), R2(t) 及び(Ui(t)
+εi(t),Vi(t)+δi(t))は、式15を満たすもので
ある。
In this way, Kij, R0 (t), R1 (t), R2 (t) and (Ui (t) obtained by step S11 are obtained.
+ Εi (t), Vi (t) + δi (t)) satisfies Expression 15.

【0060】[0060]

【数15】 [Equation 15]

【0061】なお、ステップS4、S6、S8、S1
0、S11で求める最適解は、いずれもラグランジュの
未定乗数法(Lagrange’s Method of Indeterminate Mu
ltiplier)により求めることができる。
Incidentally, steps S4, S6, S8 and S1
The optimal solutions obtained in 0 and S11 are Lagrange's Method of Indeterminate Mu.
ltiplier).

【0062】ステップS11終了後、ステップS12に
進む。ステップS12では、(Ui(t)+εi(t),Vi(t)
+δi(t))を出力して、この一連の処理を終わる。
After completion of step S11, the process proceeds to step S12. In step S12, (Ui (t) + εi (t), Vi (t)
+ Δi (t)) is output and this series of processing ends.

【0063】上記本発明の実施の形態では、特に、長方
形の物体を撮影して、それら4つの角をトラックする場
合について詳しく述べたが、本発明は、長方形の4頂点
の場合に限定されるわけではなく、その形状にとらわれ
ず広く一般的に使用することができることは言うまでも
ない。
In the above-described embodiment of the present invention, the case where a rectangular object is photographed and the four corners thereof are tracked has been described in detail. However, the present invention is limited to the case of four rectangular vertices. Needless to say, it can be widely and generally used regardless of its shape.

【0064】なお、本発明は、例えば、図2に示す装置
により実施される。図2において、演算装置10は、演
算処理回路11と、この演算処理回路11の処理プログ
ラムが格納されたプログラムメモリ12と、処理データ
(オリジナル動画像と特徴点の画像上での投影位置の情
報)を格納するデータメモリ13と、データをユーザー
に表示するための表示装置14と、マウスやキーボード
等から成る入力装置15と、各回路を接続してプログラ
ムやデータを伝送するバス16とを備えている。
The present invention is implemented by, for example, the apparatus shown in FIG. In FIG. 2, the arithmetic unit 10 includes an arithmetic processing circuit 11, a program memory 12 in which a processing program of the arithmetic processing circuit 11 is stored, and processing data (original moving image and projection position information on the image of feature points on the image). ) For storing data, a display device 14 for displaying data to a user, an input device 15 such as a mouse and a keyboard, and a bus 16 for connecting each circuit and transmitting a program or data. ing.

【0065】データメモリ13に格納されている画像デ
ータ及び入力装置15により入力されるデータを使用し
て、演算処理回路11で、図1に示すフローチャートの
一連の処理が行われる。
Using the image data stored in the data memory 13 and the data input by the input device 15, the arithmetic processing circuit 11 performs a series of processes shown in the flowchart of FIG.

【0066】上記プログラムメモリ12には、上述した
ような演算方法の各手順を実行するためのプログラムが
記憶される。また、このプログラムが記録されたCD−
ROM等の光ディスク、磁気ディスク、磁気テープ、半
導体メモリ等の記録媒体を提供することもできる。
The program memory 12 stores a program for executing each procedure of the arithmetic method as described above. In addition, the CD on which this program is recorded
It is also possible to provide a recording medium such as an optical disk such as a ROM, a magnetic disk, a magnetic tape, and a semiconductor memory.

【0067】次に、本発明に係る演算方法として、さら
に、以下に述べるような例も挙げられる。以下に示す例
は、前述した本発明の第1の実施の形態をさらに改良し
た第2の実施の形態である。
Next, as an arithmetic method according to the present invention, the following examples will be further cited. The example shown below is a second embodiment in which the above-described first embodiment of the present invention is further improved.

【0068】例えば、図3に示す場合を考えてみよう。
図3は、長方形の物体を撮影したオリジナル動画像の中
の時刻tにおける画像を示している。長方形の投影像
(図中の20)は、別の物体の投影像(23)により隠
されて全体が投影されてはいない。2つの角の投影像は
画像中に写っているので、これらは自動でトラックする
ことができる。つまり、(U1(t),V1(t))、(U2(t),
V2(t))は確定される(図中の点21、22)。一方、
残りの2つの角は、別の物体の投影像(23)により隠
れて見えない。しかしながら、長方形のエッジ(辺)の
方向より、少なくとも、1つの隠れた頂点の投影像は、
図中の直線24上にあると言える。そして、もう1つの
隠れた頂点の投影像は、図中の直線25上にあると言え
る。
For example, consider the case shown in FIG.
FIG. 3 shows an image at time t in the original moving image obtained by photographing a rectangular object. The rectangular projection image (20 in the figure) is hidden by the projection image (23) of another object and is not entirely projected. Since the projected images of the two corners are shown in the image, they can be automatically tracked. That is, (U1 (t), V1 (t)), (U2 (t),
V2 (t)) is determined (points 21 and 22 in the figure). on the other hand,
The remaining two corners are hidden and invisible by the projected image (23) of another object. However, the projection image of at least one hidden vertex from the direction of the edge of the rectangle is
It can be said that it is on the straight line 24 in the figure. And it can be said that the other projected image of the hidden vertex is on the straight line 25 in the figure.

【0069】エッジをトラックする方法は従来から知ら
れているので、その方法を用いて、エッジをトラックす
ることは可能である。従って、ある特徴点の位置を知る
ことはできなくても、「ある特徴点は特定の直線上のど
こかにある」という情報を得ることは可能である。そこ
で、本発明の第2の実施の形態では、この情報も入力デ
ータとして使用することで、より精度の良い解を求める
ことができる。
Since a method of tracking an edge is conventionally known, it is possible to track an edge using that method. Therefore, even if the position of a certain characteristic point cannot be known, it is possible to obtain information that "a certain characteristic point is somewhere on a specific straight line". Therefore, in the second embodiment of the present invention, a more accurate solution can be obtained by also using this information as input data.

【0070】このような本発明の第2の実施の形態につ
いて、以下に説明する。上記第1の実施の形態では、各
観測値の誤差は、U軸方向、V軸方向ともに、Ci(t)
の重みで均等であった。これを、第2の実施の形態にお
いては、可変とする。
The second embodiment of the present invention as described above will be described below. In the first embodiment, the error of each observed value is Ci (t) in both the U-axis direction and the V-axis direction.
Was even with the weight of. This is variable in the second embodiment.

【0071】各時刻tにおける各特徴点iの投影像(U
i(t),Vi(t))のデータが入力されるが、この入力デー
タを3つの場合に分ける。すなわち、 ・場合C1:特徴点の投影像位置として確定された値が
入力される。 ・場合C2:特徴点の投影像位置が不明であり、入力さ
れない。つまり、不定として入力される。 ・場合C3:特徴点の投影像位置が、Vi(t) = tan(θ
i(t)) Ui(t) + αi(t)という直線上にあるという情報
だけが入力される。 の3つの場合に分ける。
The projected image of each feature point i at each time t (U
Data of i (t), Vi (t)) is input, but this input data is divided into three cases. That is: Case C1: The value determined as the projected image position of the feature point is input. -Case C2: The projected image position of the feature point is unknown and is not input. That is, it is input as indefinite. -Case C3: The projected image position of the feature point is Vi (t) = tan (θ
i (t)) Ui (t) + αi (t) Only the information that it is on the straight line is input. It is divided into three cases.

【0072】場合C1、C2、C3を区別するために、
変数Fi(t) を導入する。場合C1を表わすのにFi(t)
=1、場合C2を表わすのにFi(t)=0、場合C3を表
わすのにFi(t)=2とする。
In order to distinguish C1, C2 and C3,
Introduce the variable Fi (t). Fi (t) to represent C1
= 1, Fi (t) = 0 to represent C2, and Fi (t) = 2 to represent C3.

【0073】誤差関数である上記式8の代わりに、誤差
関数として次の式16を導入し、上記条件式9の代わり
に、次の条件式17を導入する。
The following expression 16 is introduced as an error function instead of the above expression 8 which is an error function, and the following conditional expression 17 is introduced instead of the above expression 9.

【0074】[0074]

【数16】 [Equation 16]

【0075】[0075]

【数17】 [Equation 17]

【0076】ここで、例えば、Fi(t)=1の場合は、C
0i(t)=1、C1i(t)=1、θi(t)=任意の値(たとえば
0)である。Fi(t)=0の場合は、C0i(t)=0.00
01、C1i(t)=0.0001、θi(t)=任意の値(たと
えば0)である。Fi(t)=2の場合は、C0i(t)=0.
0001、C1i(t)=1、θi(t)=「入力されたθi(t)」
である。また、式中のεi(t)、δi(t)は、入力された測
定値の誤差を表わしているが、第1の実施の形態とは違
い、U軸方向と角度θi(t)を成す方向の誤差をεi(t)、
それと直交する方向の誤差をδi(t)としている。
Here, for example, when Fi (t) = 1, C
0i (t) = 1, C1i (t) = 1, θi (t) = arbitrary value (for example, 0). When Fi (t) = 0, C0i (t) = 0.00
01, C1i (t) = 0.0001, θi (t) = arbitrary value (for example, 0). When Fi (t) = 2, C0i (t) = 0.
0001, C1i (t) = 1, θi (t) = “input θi (t)”
Is. Further, εi (t) and δi (t) in the formula represent the error of the input measurement value, but unlike the first embodiment, they form an angle θi (t) with the U-axis direction. The direction error is εi (t),
The error in the direction orthogonal to that is defined as Δi (t).

【0077】Fi(t)=2の場合について説明すると、C
0i(t)=0.0001、C1i(t)=1なので、式16から
分かるように、U軸方向と角度θi(t)を成す方向の誤差
εi(t)は、それと直交する方向の誤差δi(t)よりも10
000倍程度大きな誤差を含んでいると設定したことに
なる。まさに、これは、上記場合C3(特徴点の位置
が、Vi(t) = tan(θi(t)) Ui(t) + αi(t) という
直線上にある。)ということと同じである。
Explaining the case of Fi (t) = 2, C
Since 0i (t) = 0.0001 and C1i (t) = 1, as can be seen from Equation 16, the error εi (t) in the direction forming the angle θi (t) with the U-axis direction is the error in the direction orthogonal thereto. 10 than δi (t)
This means that the error is set to include an error of about 000 times. This is exactly the same as C3 in the above case (the position of the characteristic point is on the straight line of Vi (t) = tan (θi (t)) Ui (t) + αi (t)).

【0078】Fi(t)=1とFi(t)=0の場合は、上記式
16、17は、上記第1の実施の形態で述べた上記式
8、9と同値であり、説明を省略する。
When Fi (t) = 1 and Fi (t) = 0, the above equations 16 and 17 have the same values as the above equations 8 and 9 described in the first embodiment, and the description thereof will be omitted. To do.

【0079】このように、第2の実施の形態では、上記
式17を満たすという条件下で上記式16を最小とする
変数を求めていくので、特定の方向(U軸方向と角度θ
i(t)を成す方向)には誤差が大きい可能性があるという
条件で測定誤差を最小とする変数を求めて進むことがで
きる。
As described above, in the second embodiment, since the variable that minimizes the above equation 16 is obtained under the condition that the above equation 17 is satisfied, a specific direction (U axis direction and angle θ) is obtained.
The variable that minimizes the measurement error can be obtained under the condition that the error may be large in the direction of forming i (t).

【0080】以上の処理をまとめて、図4のフローチャ
ートに示す。この図4のフローチャートの各処理は、基
本的には上記図1と同様な処理である。
The above processing is summarized in the flowchart of FIG. Each process of the flowchart of FIG. 4 is basically the same as that of FIG.

【0081】最初に、図4のステップS21で、データ
を入力する。つまり、時刻tにおいてi番目の特徴点が
観測値として確認できたかどうかを意味するFi(t)を入
力する。そして、Fi(t)=1である場合には、観測値
(Ui(t),Vi(t))も入力する。Fi(t)=2である場合
には、直線を表わす変数θi(t)とαi(t)を入力する。さ
らに、すべてのi、tにおける「観測値の確からしさC
0i(t)、C1i(t)」も入力する。C0i(t)、C1i(t) は、上
述した値を入力すればよい。もちろん、他と比べてより
曖昧性の残るデータである場合には、C0i(t)、C1i(t)
は上述した値より小さい値に、より確実な場合には、C
0i(t)、C1i(t)は上述した値より大きい値にするとよ
い。
First, in step S21 of FIG. 4, data is input. That is, Fi (t) that indicates whether or not the i-th feature point was confirmed as an observation value at time t is input. Then, when Fi (t) = 1, the observed values (Ui (t), Vi (t)) are also input. When Fi (t) = 2, variables θi (t) and αi (t) representing straight lines are input. Furthermore, at all i and t, the "Probability of observed value C
0i (t), C1i (t) ”is also input. The values described above may be input for C0i (t) and C1i (t). Of course, if the data is more ambiguous than others, C0i (t), C1i (t)
Is smaller than the above-mentioned value, and if more certain, C
0i (t) and C1i (t) may be set to values larger than the above-mentioned values.

【0082】ステップS22では、上記図1のステップ
S2と同様に、適当な値を、Kij,R0(t), R1(t), R2
(t) にセットする。例えば、Kij=0.25、R0(t)=0、
R1(t)=0、R2(t)=0である。ステップS22の処理
が終わると、ステップS23に進む。
In step S22, similar to step S2 in FIG. 1, appropriate values are set to Kij, R0 (t), R1 (t), R2.
Set to (t). For example, Kij = 0.25, R0 (t) = 0,
R1 (t) = 0 and R2 (t) = 0. When the process of step S22 ends, the process proceeds to step S23.

【0083】ステップS23、S24では、上記図1の
ステップS3、S4と同様の処理を行う。すなわち、ス
テップS23では、ステップS21で入力された(U0
(0),V0(0))、(U1(0),V1(0))、(U2(0),V2
(0))、(U3(0),V3(0))と、現在のKij, R0(t), R
1(t), R2(t)より、上記式10で定義したA0j(t), A1
j(t), A2j(t), A3j(t) を求め、ステップS24に進
む。ステップS24では、ステップS23で求めたA0j
(t), A1j(t), A2j(t), A3j(t)を使い、上記式17の
条件下で上記式16を最小とする「Fi(t)=0あるいは
2である(Ui(t),Vi(t))」を求める。ステップS2
4の処理の後、ステップS25に進む。
In steps S23 and S24, the same processes as steps S3 and S4 in FIG. 1 are performed. That is, in step S23, the input (U0
(0), V0 (0)), (U1 (0), V1 (0)), (U2 (0), V2
(0)), (U3 (0), V3 (0)) and the current Kij, R0 (t), R
From 1 (t) and R2 (t), A0j (t), A1 defined in the above equation 10
j (t), A2j (t), A3j (t) are obtained, and the process proceeds to step S24. In step S24, A0j obtained in step S23
Using (t), A1j (t), A2j (t), and A3j (t), "Fi (t) = 0 or 2 (Ui (t ), Vi (t)) ”. Step S2
After the process of 4, the process proceeds to step S25.

【0084】ステップS25では、上記第1の実施の形
態では行わなかった事を行う。ステップS24で求めた
結果のうち、Fi(t)=2である(Ui(t),Vi(t))は、
直線Vi(t) = tan(θi(t)) Ui(t) + αi(t) 上にあ
るとは限らない。そこで、ステップS24で求められた
「Fi(t)=2である(Ui(t),Vi(t))」は、この(Ui
(t),Vi(t))という位置に一番近い直線 Vi(t) = tan
(θi(t)) Ui(t) +αi(t) 上の点に移動させ、移動後
の点を新たに(Ui(t),Vi(t))とする。これがステッ
プS25の処理である。ステップS25の処理の後、ス
テップS26に進む。
In step S25, what is not performed in the first embodiment is performed. Of the results obtained in step S24, Fi (t) = 2 (Ui (t), Vi (t)) is
It is not always on the straight line Vi (t) = tan (θi (t)) Ui (t) + αi (t). Therefore, "(Fi (t) = 2 (Ui (t), Vi (t))" obtained in step S24 is
(t), Vi (t)) The straight line closest to the position Vi (t) = tan
(θi (t)) Ui (t) + αi (t) The point is moved to a new point (Ui (t), Vi (t)). This is the process of step S25. After the process of step S25, the process proceeds to step S26.

【0085】ステップS26、S27、S28、S29
では、上記図1のステップS5、S6、S7、S8と同
様の処理を行う。上記式9の条件下で上記式8を最小と
するのではなく、上記式17の条件下で上記式16を最
小とするように変数を求める点だけが違うだけであり、
その説明を省略する。ステップS29の処理の後、ステ
ップS30に進む。
Steps S26, S27, S28, S29
Then, the same processing as steps S5, S6, S7, and S8 in FIG. 1 is performed. The only difference is that the above equation 8 is not minimized under the condition of the above equation 9, but the variables are calculated so that the above equation 16 is minimized under the condition of the above equation 17,
The description is omitted. After the process of step S29, the process proceeds to step S30.

【0086】ステップS23からステップS29までの
一連の処理は、繰り返し処理されるが、繰り返し処理さ
れた回数(ループ回数)が所定の回数を超えたか、ある
いは、誤差が所定の範囲内に収まっているかを、ステッ
プS30で判断し、真であれば、ステップS31に進
む。偽であれば、ステップS23に進み、再度ステップ
S23からステップS29までの一連の処理を行う。
The series of processing from step S23 to step S29 is repeatedly executed. Whether the number of times of repeated processing (loop count) exceeds a predetermined number or whether the error is within a predetermined range. Is determined in step S30, and if true, the process proceeds to step S31. If false, the process proceeds to step S23, and the series of processes from step S23 to step S29 is performed again.

【0087】ステップS31に、処理が進んで来たとき
には、十分な精度のKij, R0(t),R1(t), R2(t) 及
び、「Fi(t)=0である(Ui(t),Vi(t))」、「Fi
(t)=2である(Ui(t),Vi(t))」が求められているこ
とになる。この時点で、既に最終的に求めたい「Fi(t)
=0である(Ui(t),Vi(t))」、「Fi(t)=2である
(Ui(t),Vi(t))」は求められているが、さらに、観
測できた(Ui(t),Vi(t))(つまり、Fi(t)=1であ
る(Ui(t),Vi(t)))も含めて、誤差補正を行う。す
なわち、ステップS31では、求められたKij, R0
(t), R1(t), R2(t)及び(Ui(t),Vi(t))を用いて、
さらに、(Ui(t),Vi(t))の推定値(Ui(t)+εi(t),
Vi(t)+δi(t))を求めることを行う。この方法は、ス
テップS10、S11と同じであり、その説明を省略す
る。
When the process proceeds to step S31, Kij, R0 (t), R1 (t), R2 (t) with sufficient accuracy and "Fi (t) = 0 (Ui (t ), Vi (t)) ”,“ Fi
That is, (Ui (t), Vi (t)) where (t) = 2. At this point, I want to finally obtain "Fi (t)
= 0 (Ui (t), Vi (t)) "and" Fi (t) = 2 (Ui (t), Vi (t)) "are required, but they could be observed. Error correction is also performed including (Ui (t), Vi (t)) (that is, (Ui (t), Vi (t)) where Fi (t) = 1). That is, in step S31, the calculated Kij, R0
(t), R1 (t), R2 (t) and (Ui (t), Vi (t)),
Further, the estimated value (Ui (t), Vi (t)) (Ui (t) + εi (t),
Vi (t) + δi (t)) is calculated. This method is the same as steps S10 and S11, and a description thereof will be omitted.

【0088】ステップS31の処理の終了後、ステップ
S32に進む。ステップS32では、(Ui(t)+εi
(t),Vi(t)+δi(t))を出力して、この一連の処理を終
わる。
After the processing of step S31 is completed, the process proceeds to step S32. In step S32, (Ui (t) + εi
(t), Vi (t) + δi (t)) is output, and this series of processing is completed.

【0089】以上説明した本発明の第2の実施の形態に
ついても、上述したような図2の演算装置に適用するこ
とができる。すなわち、上記図2の演算装置のプログラ
ムメモリ12に、上述した図4に示すフローチャートの
各手順を実行するためのプログラムを記憶させればよ
い。また、このプログラムが記録されたCD−ROM等
の光ディスク、磁気ディスク、磁気テープ、半導体メモ
リ等の記録媒体を提供することもできる。
The second embodiment of the present invention described above can also be applied to the arithmetic unit of FIG. 2 as described above. That is, the program for executing each procedure of the flowchart shown in FIG. 4 may be stored in the program memory 12 of the arithmetic unit shown in FIG. Further, it is possible to provide a recording medium such as an optical disk such as a CD-ROM in which this program is recorded, a magnetic disk, a magnetic tape, or a semiconductor memory.

【0090】このように、本発明を適用すれば、撮影さ
れた動画像をトラック(軌跡追跡)している際に、特徴
点が物体の蔭に隠れる等によりトラックできなかった場
合でも、自動でトラックすることが可能となる。
As described above, according to the present invention, even if a featured point cannot be tracked due to the obscuration of an object or the like while the captured moving image is being tracked (trajectory tracking), it can be automatically tracked. It becomes possible to track.

【0091】なお、本発明は上記実施の形態のみに限定
されるものではなく、例えば、上記実施の形態では、長
方形の物体を撮影して、それら4つの角をトラックする
場合の例について説明したが、本発明は、長方形の4頂
点の場合に限定されるものではなく、任意の形状が使用
できることは勿論である。この他、本発明の要旨を逸脱
しない範囲で種々の変更が可能である。
Note that the present invention is not limited to the above-described embodiments. For example, in the above-described embodiments, an example in which a rectangular object is photographed and the four corners are tracked has been described. However, the present invention is not limited to the case of four vertices of a rectangle, and it goes without saying that any shape can be used. Besides, various modifications can be made without departing from the scope of the present invention.

【0092】[0092]

【発明の効果】以上の説明から明らかなように、本発明
によれば、複数の画像に撮影された物体の第1群の特徴
点の投影位置の情報である第1の位置情報を入力とし
て、残りの第2群の特徴点の投影位置の情報である第2
の位置情報を求める際に、上記第1群の特徴点の位置の
重み付き平均で表現した際の該重みに関連する第1のパ
ラメータと、上記第1群の特徴点の投影位置及び特定の
時刻と注目している時刻における上記画像を撮影した撮
像装置の位置、向き、焦点距離に関連する第2のパラメ
ータとを未知変数として、上記未知変数と上記第1群及
び第2群の特徴点の上記画像上での投影像位置との関係
式より、上記第2の位置情報と上記未知変数とを求め、
求められた上記第2の位置情報を出力することにより、
特徴点が物体の蔭に隠れる等によりトラックできなかっ
た場合でも、自動でトラック(軌跡追跡)することがで
きる。
As is apparent from the above description, according to the present invention, the first position information, which is the information on the projected position of the feature points of the first group of the object photographed in the plurality of images, is input. , The second which is information of the projection positions of the remaining feature points of the second group.
When determining the position information of the first group of feature points, a first parameter associated with the weight when represented by a weighted average of the positions of the first group of feature points, the projected position of the feature points of the first group, and a specific parameter The unknown variable and the characteristic points of the first group and the second group are defined with the time and the second parameter related to the position, orientation, and focal length of the imaging device that captured the image at the time of interest as the unknown variable. From the relational expression with the projected image position on the image, the second position information and the unknown variable are obtained,
By outputting the obtained second position information,
Even if the feature point cannot be tracked because it is hidden behind the object, it can be automatically tracked (trajectory tracking).

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る演算方法の第1の実施の形態の動
作を説明するためのフローチャートである。
FIG. 1 is a flowchart for explaining an operation of a first embodiment of a calculation method according to the present invention.

【図2】本発明に係る画像処理装置の実施の形態の概略
的な構成例を示すブロック回路図である。
FIG. 2 is a block circuit diagram showing a schematic configuration example of an embodiment of an image processing apparatus according to the present invention.

【図3】本発明に係る演算方法の第2の実施の形態を説
明するための画像の例を示す図である。
FIG. 3 is a diagram showing an example of an image for explaining a second embodiment of a calculation method according to the present invention.

【図4】本発明に係る演算方法の第2の実施の形態の動
作を説明するためのフローチャートである。
FIG. 4 is a flow chart for explaining the operation of the second embodiment of the arithmetic method according to the present invention.

【符号の説明】[Explanation of symbols]

10 演算装置、 11 演算処理回路、 12 プロ
グラムメモリ、 13データメモリ、 14 表示装
置、 15 入力装置、 16 バス
10 arithmetic unit, 11 arithmetic processing circuit, 12 program memory, 13 data memory, 14 display device, 15 input device, 16 bus

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像に撮影された物体の第1群の
特徴点の投影位置の情報である第1の位置情報を入力と
して、残りの第2群の特徴点の投影位置の情報である第
2の位置情報を求める演算方法において、 上記第1群の特徴点の位置の重み付き平均で表現した際
の該重みに関連する第1のパラメータと、上記第1群の
特徴点の投影位置及び特定の時刻と注目している時刻に
おける上記画像を撮影した撮像装置の位置、向き、焦点
距離に関連する第2のパラメータとを未知変数として、
上記未知変数と上記第1群及び第2群の特徴点の上記画
像上での投影像位置との関係式より、上記第2の位置情
報と上記未知変数とを求める計算ステップを有し、 上記計算ステップで求められた上記第2の位置情報を出
力することを特徴とする演算方法。
1. Inputting first position information, which is information of projection positions of feature points of a first group of an object captured in a plurality of images, and inputting information of projection positions of remaining feature points of a second group. In a calculation method for obtaining a certain second position information, a first parameter associated with the weight when represented by a weighted average of the positions of the feature points of the first group, and the projection of the feature points of the first group. The position and the specific time, and the second parameter related to the position, the orientation, and the focal length of the image capturing device that captured the image at the time of interest are set as unknown variables,
A calculation step of obtaining the second position information and the unknown variable from a relational expression of the unknown variable and the projected image positions of the feature points of the first group and the second group on the image, A calculation method characterized in that the second position information obtained in the calculation step is output.
【請求項2】 上記計算ステップでは、上記未知変数と
上記第1及び第2の特徴点の上記画像上での投影像位置
との関係式を誤差を考慮して満たすという条件下での誤
差評価関数を最小とするようにして、上記第2の位置情
報と上記未知変数を求めることが行われ、さらに、上記
第1の位置情報に関する誤差よりも上記第2の位置情報
に関する誤差に関しては重みを軽くして、上記誤差評価
関数内で評価されていることを特徴とする請求項1記載
の演算方法。
2. The error evaluation under the condition that in the calculation step, the relational expression between the unknown variable and the projected image position of the first and second feature points on the image is satisfied in consideration of the error. The second position information and the unknown variable are calculated so as to minimize the function, and moreover, the error concerning the second position information is weighted more than the error concerning the first position information. The calculation method according to claim 1, wherein the calculation is made lighter and evaluated within the error evaluation function.
【請求項3】 複数の画像に撮影された物体の第1群の
特徴点の投影位置の情報である第1の位置情報を入力と
して、残りの第2群の特徴点の投影位置の情報である第
2の位置情報を求める演算装置において、 上記第1群の特徴点の位置の重み付き平均で表現した際
の該重みに関連する第1のパラメータと、上記第1群の
特徴点の投影位置及び特定の時刻と注目している時刻に
おける上記画像を撮影した撮像装置の位置、向き、焦点
距離に関連する第2のパラメータとを未知変数として、
上記未知変数と上記第1群及び第2群の特徴点の上記画
像上での投影像位置との関係式より、上記第2の位置情
報と上記未知変数とを求める計算回路を有し、 上記計算回路で求められた上記第2の位置情報を出力す
ることを特徴とする演算装置。
3. The first position information, which is the information on the projected positions of the characteristic points of the first group of the objects photographed in the plurality of images, is input, and the information on the projected positions of the remaining characteristic points of the second group is input. In an arithmetic device for obtaining a certain second position information, a first parameter related to the weight when expressed by a weighted average of the positions of the feature points of the first group, and the projection of the feature points of the first group. The position and the specific time, and the second parameter related to the position, the orientation, and the focal length of the image capturing device that captured the image at the time of interest are set as unknown variables,
A calculation circuit for obtaining the second position information and the unknown variable from a relational expression between the unknown variable and the projected image positions of the feature points of the first group and the second group on the image, An arithmetic unit that outputs the second position information obtained by a calculation circuit.
【請求項4】 上記計算回路では、上記未知変数と上記
第1及び第2の特徴点の上記画像上での投影像位置との
関係式を誤差を考慮して満たすという条件下での誤差評
価関数を最小とするようにして、上記第2の位置情報と
上記未知変数を求めることが行われ、さらに、上記第1
の位置情報に関する誤差よりも上記第2の位置情報に関
する誤差に関しては重みを軽くして、上記誤差評価関数
内で評価されていることを特徴とする請求項3記載の演
算装置。
4. The error evaluation under the condition that the calculation circuit satisfies the relational expression between the unknown variable and the projected image position of the first and second feature points on the image in consideration of an error. The second position information and the unknown variable are calculated so as to minimize the function, and further, the first position information is calculated.
4. The arithmetic unit according to claim 3, wherein the error relating to the second position information is evaluated with a lighter weight than the error relating to the position information, and evaluated in the error evaluation function.
【請求項5】 複数の画像に撮影された物体の第1群の
特徴点の投影位置の情報である第1の位置情報を入力と
して、残りの第2群の特徴点の投影位置の情報である第
2の位置情報を演算装置により求めるためのプログラム
において、 上記第1群の特徴点の位置の重み付き平均で表現した際
の該重みに関連する第1のパラメータと、上記第1群の
特徴点の投影位置及び特定の時刻と注目している時刻に
おける上記画像を撮影した撮像装置の位置、向き、焦点
距離に関連する第2のパラメータとを未知変数として、
上記未知変数と上記第1群及び第2群の特徴点の上記画
像上での投影像位置との関係式より、上記第2の位置情
報と上記未知変数とを求める計算ステップを上記演算装
置に実行させること特徴とするプログラム。
5. The first position information, which is the projection position information of the feature points of the first group of the object photographed in the plurality of images, is input, and the projection position information of the remaining feature points of the second group is input. In a program for obtaining a certain second position information by an arithmetic device, a first parameter related to the weight when expressed by a weighted average of the positions of the feature points of the first group, and the first group As the unknown variables, the projection position of the feature point and the specific time and the second parameter related to the position, orientation, and focal length of the image capturing device that captured the image at the time of interest,
A calculation step for obtaining the second position information and the unknown variable from the relational expression between the unknown variable and the projected image positions of the feature points of the first group and the second group on the image is provided to the arithmetic unit. A program characterized by being executed.
【請求項6】 上記計算ステップでは、上記未知変数と
上記第1及び第2の特徴点の上記画像上での投影像位置
との関係式を誤差を考慮して満たすという条件下での誤
差評価関数を最小とするようにして、上記第2の位置情
報と上記未知変数を求めることが行われ、さらに、上記
第1の位置情報に関する誤差よりも上記第2の位置情報
に関する誤差に関しては重みを軽くして、上記誤差評価
関数内で評価されていることを特徴とする請求項5記載
のプログラム。
6. The error evaluation under the condition that in the calculation step, the relational expression between the unknown variable and the projected image position of the first and second feature points on the image is satisfied in consideration of the error. The second position information and the unknown variable are calculated so as to minimize the function, and moreover, the error concerning the second position information is weighted more than the error concerning the first position information. The program according to claim 5, wherein the program is lightened and evaluated within the error evaluation function.
【請求項7】 複数の画像に撮影された物体の第1群の
特徴点の投影位置の情報である第1の位置情報を入力と
して、残りの第2群の特徴点の投影位置の情報である第
2の位置情報を演算装置により求めるためのプログラム
が記録されたコンピュータ読み取り可能な記録媒体にお
いて、 上記第1群の特徴点の位置の重み付き平均で表現した際
の該重みに関連する第1のパラメータと、上記第1群の
特徴点の投影位置及び特定の時刻と注目している時刻に
おける上記画像を撮影した撮像装置の位置、向き、焦点
距離に関連する第2のパラメータとを未知変数として、
上記未知変数と上記第1群及び第2群の特徴点の上記画
像上での投影像位置との関係式より、上記第2の位置情
報と上記未知変数とを求める計算ステップを上記演算装
置に実行させること特徴とするコンピュータ読み取り可
能な記録媒体。
7. The first position information, which is the information on the projected positions of the characteristic points of the first group of the objects photographed in the plurality of images, is input, and the information on the projected positions of the remaining characteristic points of the second group is input. In a computer-readable recording medium in which a program for obtaining a certain second position information by a computing device is recorded, a second number related to the weight when the weighted average of the positions of the characteristic points of the first group is expressed. The first parameter and the projection position of the feature point of the first group and the second parameter related to the position, orientation, and focal length of the image capturing device that captured the image at the specific time and the time of interest are unknown. As a variable
A calculation step for obtaining the second position information and the unknown variable from the relational expression between the unknown variable and the projected image positions of the feature points of the first group and the second group on the image is provided to the arithmetic unit. A computer-readable recording medium characterized by being executed.
【請求項8】 上記計算ステップでは、上記未知変数と
上記第1及び第2の特徴点の上記画像上での投影像位置
との関係式を誤差を考慮して満たすという条件下での誤
差評価関数を最小とするようにして、上記第2の位置情
報と上記未知変数を求めることが行われ、さらに、上記
第1の位置情報に関する誤差よりも上記第2の位置情報
に関する誤差に関しては重みを軽くして、上記誤差評価
関数内で評価されていることを特徴とする請求項7記載
の記録媒体。
8. The error evaluation under the condition that, in the calculation step, the relational expression between the unknown variable and the projected image position of the first and second feature points on the image is satisfied in consideration of the error. The second position information and the unknown variable are calculated so as to minimize the function, and moreover, the error concerning the second position information is weighted more than the error concerning the first position information. The recording medium according to claim 7, wherein the recording medium is lightened and evaluated within the error evaluation function.
JP2001377654A 2001-12-11 2001-12-11 Calculation method and unit, program and recording medium Withdrawn JP2003178308A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001377654A JP2003178308A (en) 2001-12-11 2001-12-11 Calculation method and unit, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001377654A JP2003178308A (en) 2001-12-11 2001-12-11 Calculation method and unit, program and recording medium

Publications (1)

Publication Number Publication Date
JP2003178308A true JP2003178308A (en) 2003-06-27

Family

ID=19185565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001377654A Withdrawn JP2003178308A (en) 2001-12-11 2001-12-11 Calculation method and unit, program and recording medium

Country Status (1)

Country Link
JP (1) JP2003178308A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141655A (en) * 2003-11-10 2005-06-02 Olympus Corp Three-dimensional modeling apparatus and three-dimensional modeling method
CN105321188A (en) * 2014-08-04 2016-02-10 江南大学 Foreground probability based target tracking method
KR101608030B1 (en) * 2012-10-18 2016-03-31 모르포 Method for authenticating an image capture of a three-dimensional entity

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141655A (en) * 2003-11-10 2005-06-02 Olympus Corp Three-dimensional modeling apparatus and three-dimensional modeling method
KR101608030B1 (en) * 2012-10-18 2016-03-31 모르포 Method for authenticating an image capture of a three-dimensional entity
CN105321188A (en) * 2014-08-04 2016-02-10 江南大学 Foreground probability based target tracking method

Similar Documents

Publication Publication Date Title
EP1887523B1 (en) Image-processing apparatus and method
US8223146B2 (en) Image processing apparatus and image processing method
EP1577836B1 (en) Image deformation estimating method and apparatus
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
US8229249B2 (en) Spatial motion calculation apparatus and method for the same
US8265337B2 (en) Apparatus and method for real-time camera tracking
CN109478317A (en) System and method for composograph
JP2007183949A (en) Method and apparatus for providing panoramic view with improved image matching speed and blending method
CN113223078B (en) Mark point matching method, device, computer equipment and storage medium
US8320620B1 (en) Methods and apparatus for robust rigid and non-rigid motion tracking
CN110580325B (en) Ubiquitous positioning signal multi-source fusion method and system
JP2000163555A (en) Area extracting method
CN112258647B (en) Map reconstruction method and device, computer readable medium and electronic equipment
JP2003178308A (en) Calculation method and unit, program and recording medium
CN112233149A (en) Scene flow determination method and device, storage medium and electronic device
JPH1079027A (en) Picture processor for mobile camera
US6847363B1 (en) Method and apparatus for drawing line graphs
CN112733624B (en) People stream density detection method, system storage medium and terminal for indoor dense scene
CN112967228B (en) Determination method and device of target optical flow information, electronic equipment and storage medium
CN115205419A (en) Instant positioning and map construction method and device, electronic equipment and readable storage medium
JP7096176B2 (en) Object position estimator and its method
JP6315542B2 (en) Image generating apparatus and image generating method
JP2003174577A (en) Camera parameter calculating method, image processor, program and recording medium
JPH10240939A (en) Camera calibration method
CN116539026B (en) Map construction method, device, equipment and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050301