JP3452188B2 - Tracking method of feature points in 2D video - Google Patents

Tracking method of feature points in 2D video

Info

Publication number
JP3452188B2
JP3452188B2 JP14760399A JP14760399A JP3452188B2 JP 3452188 B2 JP3452188 B2 JP 3452188B2 JP 14760399 A JP14760399 A JP 14760399A JP 14760399 A JP14760399 A JP 14760399A JP 3452188 B2 JP3452188 B2 JP 3452188B2
Authority
JP
Japan
Prior art keywords
image
foe
point
points
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14760399A
Other languages
Japanese (ja)
Other versions
JP2000339473A (en
Inventor
利春 向井
昇 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RIKEN Institute of Physical and Chemical Research
Original Assignee
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RIKEN Institute of Physical and Chemical Research filed Critical RIKEN Institute of Physical and Chemical Research
Priority to JP14760399A priority Critical patent/JP3452188B2/en
Publication of JP2000339473A publication Critical patent/JP2000339473A/en
Application granted granted Critical
Publication of JP3452188B2 publication Critical patent/JP3452188B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、ビデオカメラ等の
2次元動画像中の特徴点の追跡方法に関する。 【0002】 【従来の技術】ビデオカメラ等で撮像される静止物の動
画像は観測者の動きや対象の構造に関する重要な情報を
含んでいる。例えば、街を歩きながらビデオカメラであ
る建物の周りを動きながら撮影してデータを取れば、後
でコンピュータにより3次元構造を復元し、自由な角度
から眺めることが可能となる。従って、かかる2次元動
画像からの3次元構造の復元は、コンピュータビジョン
の重要な課題の1つであり、この技術が確立されれば、
3次元モデリング、トラッキング、パッシブ・ナビゲー
ション、ロボットビジョンの多くの分野に応用可能で
ある。 【0003】この分野の研究は、おおまかに2種類に分
類することができる。1つは、異なる時刻に得られた画
像上の点の対応関係を使う手段であり、もう1つは、画
像上の速度(オプティカルフロー)を利用する手段であ
る。前者に較べてオプティカルフローを使う手段は、
(1)オプティカルフローは画像上の対応点よりも容易
に得られ、(2)速度はオプティカルフローから得られ
るが対応点からは得られない、等の利点がある。 【0004】更に、画像上のオプティカルフローから対
象の構造を復元する手段として、(1)平行投影像を使
うものと(2)透視投影像を使うものがある。前者は後
者の近似であり、この近似は対象がカメラから遠方にあ
る時にのみ成立する。従って、後者の透視投影像を使う
手段の方が高い精度を得ることができる。 【0005】透視投影像のオプティカルフローから対象
の構造を復元する手段としては、従来、特別な仮定を設
けない限り、非線形連立方程式を繰り返し法を用いて解
く必要があった。特別な仮定とは、被観測点が平面上に
ある場合、運動が回転だけ、又は並進だけの場合であ
る。従って、一般的には、非線形連立方程式を解く必要
があるが、その場合、解の一意性が保証されない、繰り
返し法による探索が必要になる、等の問題点があった。 【0006】これらの問題点を解決するために、本発明
の発明者等は、剛体的な運動をする点から透視投影で得
られたオプティカルフロー画像を使って、線形方程式を
解くだけで構造を復元する方法を提案した(「オプティ
カルフロー画像からの線形計算による3次元運動パラメ
ータと構造の復元」,計測自動制御学会論文集,Vol.3
4, No.5, 438/444 (1998))。この方法により、非線形
方程式を解く必要がなく、解の一意性が保証され、かつ
被観測点を増やすことにより精度も容易に向上できる。 【0007】 【発明が解決しようとする課題】上述したように、動画
像を通して特徴点の動き(オプティカルフロー)を追跡
することは、対象の形状復元、パターン認識、カメラ位
置を求めるキャリブレーションなどの前処理として極め
て重要である。しかし、オプティカルフローの追跡は従
来短時間経過前後の特徴点周辺の領域の相関を用いて行
われているため、追跡精度が低い問題点があった。 【0008】例えば、図7はある瞬間の立方体の画像
IA、図8はその短時間後の画像IBであり、図9、図10
は、図7、8の画像を画像処理して見やすくしたもので
ある。図中の数字は画像IAの特徴点と相関により求めた
画像IBの対応点である。図7、9と図8、10との比較
からわかるように、画像IA上の点8、13、21(図1
0に矢印で示す)については誤対応が生じている。 【0009】このように相関だけを使って動画像上の対
応点を求める場合、図10に例示したように誤対応が起
こる(対応自体を間違える)場合と、ほぼ正しい対応が
得られているが、位置の精度が悪い場合とがあった。こ
れらの問題が生じると、上述したオプティカルフローを
もちいた3次元構造の復元(3次元モデリング、トラッ
キング、パッシブ・ナビゲーション、ロボットビジョ
ン)やパターン認識、カメラ位置を求めるキャリブレー
ションなどの前処理の精度が低下し、有用性が低減する
問題が生じる。 【0010】なお「相関」とは、画像IAのある特徴点の
対応点が存在すると予想される領域を画像IB中にある大
きさでとり、その画像を比較して最も画像が近い点(相
関が最大となる点)を対応点として求める処理をいう。 【0011】本発明は、上述した問題点を解決するため
に創案されたものである。すなわち、本発明の目的は、
相関だけを使って動画像上の対応点を求める場合に生じ
うる対応点の誤りを訂正し、かつ対応点の位置精度を高
めることができる2次元動画像中の特徴点の追跡方法を
提供することにある。 【0012】 【課題を解決するための手段】上述した問題点は画像処
理だけで解決することは困難である。しかし、カメラに
角速度センサを付加して情報を補うことにより、これら
の欠点を回避することができる。本発明はかかる新規の
着想に基づくものである。 【0013】すなわち、本発明によれば、静止している
対象物の動画像を撮像するカメラに角速度を計測するセ
ンサを一体的に取り付け、動画像と角速度のデータを同
期させて記録し、得られた動画像及び角速度データを用
いて、以下のステップ(S1〜S5)により、2次元動
画像中の特徴点を追跡することを特徴とする2次元動画
像中の特徴点の追跡方法。 (S1)前記動画像データ中のある瞬間の画像IA と、
該画像 A の次の瞬間の画像IBから、前記角速度データ
を用いて画像IA→画像IBに含まれる回転と同じだけ画
像IAを回転させて画像IA'とする。 (S2)前記画像IA'の各特徴点について、2次元領域
で相関をとることにより画像IB中の対応点を見つけ
る。 (S3)以下からの手順を多数繰り返し、誤差ri 2
の中央値が一番小さい時の焦点FOEをこの段階で選ばれ
た焦点FOEとする。ランダムにp個の対応点を選ぶ。
選んだ点に関し評価関数E(xFOE)を最小化することに
より焦点FOEの候補を求める。ここで、評価関数E
(xFOE)には、点x FOE と、画像IA'の特徴点と前記画像
A の特徴点に対応する画像IBの点との重心giを通る
直線を引き、この直線と画像IA'の特徴点又は画像IB
の対応点との距離の2乗をランダムに選んだP個の対応
点に関して和をとったものを用いる。焦点FOEの候補
の誤差ri 2(i=1,2,・・・,p)を計算する。ここで、誤
差には、焦点FOEの候補に対して求めた、前記直線と画
像IA'の特徴点又は画像IBの対応点との距離の2乗を
用いる。 (S4)焦点FOEの候補に関して誤差ri 2の小さい対応点
を全体から選びだし、もう一回E(xFOE)を使ってより正
確な焦点FOEを求める。 (S5)焦点FOEと画像IA'中の特徴点を結ぶ直線上で
相関をとることにより、画像IB中の対応点をより正確
に見つける。 【0014】本発明の方法によれば先ず、静止物の動画
像を角速度センサを取り付けたカメラを動かしながら撮
影し、画像と角速度センサの出力を同期させて取り込
む。この動画像のある瞬間の画像IAから次ぎの瞬間の画
像IBへの追跡を考える場合、角速度センサの出力から角
速度データが得られるので、角速度を積分することによ
りカメラがどれだけ回転したかを求められる。この値を
使い、画像IAを回転させて新たな画像I'Aを求める。そ
して、画像IAから画像IBへの点の移動を求める代わり
に、画像I'Aから画像IBへの点の移動を求める。 【0015】I'A中の特徴点に対応するIB中の点の候補
を求めるために従来と同様に相関を使うが、この対応に
は多くの場合、間違った対応が含まれている。そこで、
画像I'Aから画像IBへの動きは並進だけになっているの
で、「点のフローは理論的にはFOE (Focus of Expan
sion)と呼ばれる1点で交わる」という性質が利用でき
る。 【0016】この性質に基づいて、対応点の候補を使っ
て、ロバスト(robust、頑健の意)な方法で動画像のオ
プティカルフローの焦点FOEを求め、次に、画像I'A
中の特徴点と焦点FOEを結ぶ直線上で元の点との相関
をとることにより、画像IB中の対応点をより正確に求め
ることができる。 【0017】 【発明の実施の形態】以下、本発明の実施形態を具体的
に説明する。図1は、静止している対象物の動画像のあ
る瞬間の画像IAと次ぎの瞬間の画像IBからオプティカル
フローを求めた画像である。すなわち、図1において、
白い線が画像IAから画像IBへのオプティカルフローを示
している。なお、図2は図1の画像を画像処理して見や
すくしたものであり、画像IAから画像IBへのオプティカ
ルフローは黒線で示している。 【0018】本発明の方法では、静止している対象物の
動画像を撮像するカメラに角速度を計測するセンサ(例
えばジャイロセンサ)を一体的に取り付け、動画像と角
速度のデータを同期させて記録する。センサ(ジャイロ
センサ)から角速度が得られるので、短時間であれば、
角速度を積分することによりカメラがどれだけ回転した
かを求められる。この値を使い、画像IAを回転させて新
たな画像I'Aを求める。そして、画像IAから画像IBへの
点の移動を求める代わりに、画像I'Aから画像IBへの点
の移動(オプティカルフロー)を求める。このオプティ
カルフローを図1では黒い細線、図2では破線で示す。 【0019】画像I'Aから画像IBへの点の移動は並進だ
けなので、3次元空間内で考えると理論的に無限遠の位
置で交差する。これは透視画法のように画像上ではある
点で交差する。この点は画像処理上、FOE (Focus of
Expansion)と呼ばれる。すなわち、画像IAを回転させ
て新たな画像I'Aを求め、画像I'Aから画像IBへのオプテ
ィカルフローを並進だけにすることにより、対応点の候
補を使って、ロバスト(robust、頑健の意味)な方法で
FOEを求めることができる。次に、画像I'A中の特徴
点とFOEを結ぶ直線上でもとの点との相関をとること
により、画像IB中の対応点をより正確に求める。 【0020】図3は、本発明の方法を示すフローチャー
トである。この図を用いて、以下に本発明の方法を詳細
に説明する。 【0021】(画像に回転を施す方法) 図3のステップ1(S1)における画像IA→画像IBで加わ
った回転を施して画像IAを画像 I'Aにする画像処理方法
をはじめに説明する。この画像処理により画像I'Aから
画像IBの動き(オプティカルフロー)は回転が取り除か
れ、並進だけとなる。 【0022】画像中の特徴点の位置をu=(u,v)Tとする。
これを同次座標で表すとm=(u,v,1)Tとなる。すなわち、
u1=m1/m3, u2=m2/m3という関係がなりたつとき、mはu
の同次座標である。この同次座標を用いると、カメラ中
心から特徴点の三次元中の位置へ向かうベクトルは、式
(1)と書ける。ここで、u0, v0, fx, fyはカメラに固
有のパラメータであり、カメラのキャリブレーションに
よりあらかじめ求まっているとする。このベクトルqに
対してジャイロセンサから求まるカメラの回転を表す行
列Rを施し、Pの逆行列P-1で戻せば、回転を加えた同次
座標m'が得られる。つまり、式(2)が成り立つ。な
お、Pの逆行列P-1は式(3)である。同次座標m'から、
回転を加えた特徴点の位置u'が、u1'=m1'/m3', u2'=m2'
/m3'という同次座標の関係により求まる。 【0023】 【数1】 【0024】図3のステップ2(S2)では、IA'中の各
点について、2次元領域で相関をとることによりIB中の
対応点を見つける。この図8、10に示したように、こ
の相関では、ほぼ正しい対応が得られているが誤対応や
位置精度が悪いものがありうる。次ぎにS3において、F
OEを求めるために評価関数を導入し、さらに、対応自
体の誤りに対応するためにLMedS法 (Least Median of S
quares method)を導入する。 【0025】(評価関数) 図4は、評価関数の説明図である。点の対応からFOE
を求めるための評価関数として、この図に模式的に示す
ように、FOEの候補からIA'とIBで対応する点の重心g
iに直線を引き、この直線と画像IBの対応点との距離の
2乗を3個以上の対応点に関して和をとったものを用い
る。相関により、考えている全てのiについてx B;i が正
しく求まっている場合には、x' A;i とx B;I を結ぶ直線は
全て1点で交わるので、この評価関数を0とする点が正
しいFOEである。誤対応がある場合には評価関数を0
にはできないが、最小にする点がFOEの候補となる。 【0026】画像IBの対応点と直線liとの距離は画像
IA'の対応点と直線との距離と等しいので、片方のみを
評価関数では用いる。画像IA'の対応点iの位置を
x'A;i、対応する画像IBの対応点iの位置をxB;i、点x'
A;iと点xB;iの重心をgiとすると、評価関数は、式
(4)となる。ここで、li (xFOE, gi)は点xFOEと重心g
iを通る直線であり、dist2(xB;i, li)は点xB;iと直線li
とのユークリッド距離を2乗したものである。niをli
正規化された法線ベクトルとし、ai=xB;i-giとすると、
式(5)、式(6)となる。 【0027】 【数2】 【0028】評価関数E(xFOE)を最小にするxFOEを求め
る。そのために、なんらかの数値計算法、例えば共役勾
配法を使う。そのためには勾配が必要であるがこれは以
下のように計算できる。すなわち、式(7)、式(8)
とすると、勾配は式(9)、(10)で表せる。 【0029】 【数3】【0030】( 対応に誤りがある場合に対処するため
のLMedS法) 次ぎに点の対応に間違いがある場合にFOEを正しく求
めるために、LMedS法(Least Median of Squares metho
d)を導入する。最初のマッチングで求まった点の対応全
体の中から、その一部であるp点(例えば5点)の対応
をランダムに取り出し、これを{x1 sub, x2 sub,...,xp
sub}とする。また、画像I'A中のxi subをxA;i sub、画像
IB中のxi subをxB;i subと表記する。このサブセットに対
して、上述した評価関数E(xFOE)を使ってFOEの候補x
FOEを求める。この候補に対してサブセット中のそれぞ
れの点の誤差{r1 2,r2 2,..., rp 2}を求める。ここで式
(11)が成り立つ。gi subはxA;i subとxB;i subの重心
である。x B;i sub (i=1,2,・・・,p)が相関に
より正しく求まっている場合には、誤差r i 2 は全て0と
なる。誤対応がある場合には0にはならないが、LMe
dS法に基づき、誤差r i 2 のメジアンが最小となる時に
求まったFOEがロバストに求めたFOEとなる。 そこ
で、この行為を何回も繰り返し、ri 2のメジアンが最小
になる時、つまり式(12)が最小となる時のxFOEをロ
バストに求まったFOEとして採用する。 【0031】 【数4】 【0032】図3のステップ3(S3)により対応の間違
いが除かれた結果が得られる。しかし、位置の誤差に対
しては、使っている点が少ないので最適値ではない。そ
こで、ステップ4(S4)では、上で求まったFOEと矛
盾しない点の対応を選びだし、これに対して新たにFO
Eを求める。具体的には、全ての点対応に対してri 2
計算し、これにより選ばれた対応に対し、再びE(xFOE)
を最小にするxFOEを求める。これが最終的に求まったF
OEである。 【0033】( FOEを使ったマッチング) FOEと画像I'A中の点x'A;iとを結ぶ直線上に画像IB
の点xB;iもあるはずである。それも、全ての点はFOE
やxA;i'からみて直線の同じ側にある。そこで、ステッ
プ5(S5)では、FOEを最終的に求めるときに使った
点のペア、つまり、ほぼ正しく求まっていると考えられ
るペアについてフローの大きさの平均値と標準偏差を求
め、平均値の前後を標準偏差の定数倍(普通は3倍程
度)の範囲内で動かしながら直線上でマッチングをと
る。ただし、この範囲は理論的にxA;i'やxFOEを超える
ことはないので、範囲がこれを超える場合には超えた部
分についてはマッチングをとらない。これにより、最終
的な対応点xB;iを求める。 【0034】 【実施例】画像IAとして図7に示した画像を用いた。ジ
ャイロセンサを使わずに相関だけを使ってIB中の対応点
を求めた場合、図8、10に示したように誤対応が起こ
る。一方ジャイロセンサを用い、本発明の方法で対応を
求めると、図5、6に示すように正しい対応点を求める
ことができた。 【0035】なお、本発明は上述した実施形態に限定さ
れず、本発明の要旨を逸脱しない範囲で種々に変更でき
ることは勿論である。また、図2、6、9、10に示し
た線画は画像を見やすくするためのものである本発明に
は直接関係しないものである。 【0036】 【発明の効果】上述したように、本発明の2次元動画像
中の特徴点の追跡方法は、相関だけを使って動画像上の
対応点を求める場合に生じうる対応点の誤りを訂正し、
かつ対応点の位置精度を高めることができる、等の優れ
た効果を有する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for tracking feature points in a two-dimensional moving image such as a video camera. 2. Description of the Related Art A moving image of a stationary object captured by a video camera or the like contains important information relating to the movement of an observer and the structure of a target. For example, if data is taken by moving around a building, which is a video camera while walking in a city, data is acquired, and a three-dimensional structure can be restored later by a computer and viewed from any angle. Therefore, restoration of a three-dimensional structure from such a two-dimensional moving image is one of the important issues of computer vision, and if this technology is established,
It can be applied to many fields such as three-dimensional modeling, tracking, passive navigation, and robot vision. [0003] Research in this area can be broadly classified into two types. One is a means for using the correspondence between points on the image obtained at different times, and the other is a means for using the speed (optical flow) on the image. The means of using optical flow compared to the former is
(1) The optical flow can be obtained more easily than the corresponding point on the image, and (2) the speed can be obtained from the optical flow but cannot be obtained from the corresponding point. Further, as means for restoring an object structure from an optical flow on an image, there are (1) a method using a parallel projection image and (2) a method using a perspective projection image. The former is an approximation of the latter, and this approximation only holds when the object is far from the camera. Therefore, the latter means using the perspective projection image can obtain higher accuracy. As a means for restoring the structure of an object from an optical flow of a perspective projection image, it has conventionally been necessary to solve a system of nonlinear equations by an iterative method unless special assumptions are made. A special assumption is that when the point to be observed lies on a plane, the movement is only rotation or only translation. Therefore, in general, it is necessary to solve a system of nonlinear equations. However, in this case, there are problems that the uniqueness of the solution is not guaranteed and that a search by an iterative method is required. [0006] In order to solve these problems, the inventors of the present invention have developed a structure simply by solving a linear equation using an optical flow image obtained by perspective projection from a point performing rigid motion. A method for restoration is proposed (“Reconstruction of 3D motion parameters and structure by linear calculation from optical flow image”, Transactions of the Society of Instrument and Control Engineers, Vol.3
4, No. 5, 438/444 (1998)). According to this method, it is not necessary to solve the nonlinear equation, the uniqueness of the solution is guaranteed, and the accuracy can be easily improved by increasing the number of observation points. As described above, tracking the movement of a feature point (optical flow) through a moving image requires the reconstruction of an object, pattern recognition, and calibration for obtaining a camera position. It is extremely important as preprocessing. However, the tracking of the optical flow has conventionally been performed using the correlation of the area around the characteristic point before and after the short time has elapsed, and thus there has been a problem that the tracking accuracy is low. For example, FIG. 7 shows an image of a cube at a certain moment.
I A, Figure 8 is an image I B after the short, 9, 10
Are images obtained by performing image processing on the images in FIGS. The numbers in the figure are the corresponding points of the image I B obtained by correlation with the feature points of the image I A. As seen from comparison between FIGS. 7 and 9 and Figure 8 and 10, a point on the image I A 8,13,21 (FIG. 1
(Indicated by an arrow at 0)). As described above, when a corresponding point on a moving image is obtained using only the correlation, an erroneous correspondence occurs (correspondence is mistaken) as shown in FIG. In some cases, the position accuracy was poor. When these problems occur, the accuracy of pre-processing such as restoration of three-dimensional structures (three-dimensional modeling, tracking, passive navigation, and robot vision) using the above-mentioned optical flow, pattern recognition, and calibration for obtaining camera positions is improved. And the problem of reduced usefulness arises. [0010] Note that the term "correlation" is an area corresponding points of the feature points in the image I A is expected to be present in the image I B taken in size, most point image is closer by comparing the image (Point at which the correlation becomes maximum) is referred to as a corresponding point. The present invention has been made to solve the above-mentioned problems. That is, the object of the present invention is:
Provided is a tracking method of a feature point in a two-dimensional moving image, which can correct an error of a corresponding point that can occur when a corresponding point on a moving image is obtained using only correlation and can improve the position accuracy of the corresponding point. It is in. It is difficult to solve the above-mentioned problems only by image processing. However, these disadvantages can be avoided by supplementing the information by adding an angular velocity sensor to the camera. The present invention is based on such a new idea. That is, according to the present invention, a sensor for measuring an angular velocity is integrally attached to a camera for capturing a moving image of a stationary object, and the moving image and the angular velocity data are recorded in synchronization with each other. A method of tracking feature points in a two-dimensional moving image, characterized by tracking characteristic points in a two-dimensional moving image by using the obtained moving image and angular velocity data in the following steps (S1 to S5). (S1) and the instant of the image I A with the in the moving image data,
The next moment the image I B of the image I A, rotates the image I A → image I as much image I A and the rotation included in the B and the image I A 'by using the angular velocity data. (S2) for each of the feature points of the image I A ', finds the corresponding points in the image I B by correlating a two-dimensional region. (S3) The procedure from the following is repeated many times, and the error r i 2
Is the focal FOE selected at this stage when the median value of is the smallest. Randomly select p corresponding points.
A focus FOE candidate is obtained by minimizing the evaluation function E (x FOE ) for the selected point. Where the evaluation function E
The (x FOE), the point x FOE and the image I A 'feature points of the image
'Draw a straight line passing through the center of gravity g i and the point of image I B corresponding to the feature points of the straight line and the image I A' I A feature point or image I B of
The sum of the squares of the distances to the corresponding points of the P corresponding points selected at random is used. The error r i 2 (i = 1, 2,..., P) of the focus FOE candidate is calculated. Here, the error is obtained for the candidate focus FOE, using the square of the distance between corresponding points of the feature point or image I B of the straight line and the image I A '. (S4) A corresponding point having a small error r i 2 is selected from the whole with respect to the focus FOE candidate, and a more accurate focus FOE is obtained again by using E (x FOE ). (S5) by correlating on a straight line connecting the feature points in the focal FOE image I A ', finds the corresponding points in the image I B more accurately. According to the method of the present invention, first, a moving image of a stationary object is photographed while moving a camera provided with an angular velocity sensor, and the image and the output of the angular velocity sensor are captured in synchronization. When considering tracking to this from the moment of the image I A with a moving picture next moment an image I B, since the angular velocity data is obtained from the output of the angular velocity sensor, or camera is rotated much by integrating the angular velocity Is required. Using this value, rotate the image I A obtains a new image I 'A. Then, the image I A instead of obtaining the movement of the points of the image I B, obtains the movement of a point of the image I B from the image I 'A. [0015] While use of correlation as in the conventional to determine the candidate points in I B corresponding to the feature point in the I 'A, this corresponds to the often contains incorrect correspondence. Therefore,
Since the movement of the image I 'A to image I B is in a translation by the flow of the "points theoretically FOE (Focus of Expan
at a single point called the sion). Based on this property, a focus FOE of an optical flow of a moving image is obtained by a robust method using candidate corresponding points, and then the image I ' A
By correlating the original point on a line connecting the feature points and the focal FOE in, it is possible to determine the corresponding points in the image I B more accurately. Embodiments of the present invention will be specifically described below. Figure 1 is an image of obtaining the optical flow from image I B of the moment of the next image I A moment with the moving image of the object is stationary. That is, in FIG.
White line indicates the optical flow in the image I B from the image I A. Note that FIG. 2 is obtained by legible by image processing the image of FIG. 1, the optical flow from image I A to the image I B is indicated by a black line. According to the method of the present invention, a sensor (for example, a gyro sensor) for measuring an angular velocity is integrally attached to a camera for capturing a moving image of a stationary object, and the moving image and the angular velocity data are recorded in synchronization. I do. Since the angular velocity can be obtained from the sensor (gyro sensor),
By integrating the angular velocity, it is possible to determine how much the camera has rotated. Using this value, rotate the image I A obtains a new image I 'A. Then, obtained from the image I A instead of obtaining the movement of the points of the image I B, the image I 'A movement of a point of the image I B (the optical flow). This optical flow is shown by a thin black line in FIG. 1 and a broken line in FIG. [0019] Since the movement of the points from the image I 'A to image I B such translation only intersect at Think Theoretically infinity position in the three-dimensional space. It intersects at a certain point on the image, as in perspective. This point is due to the FOE (Focus of
Expansion). That is, the image is rotated I A to 'seek A, image I' new image I by only translate the optical flow in the image I B from A, with the corresponding point candidate, robust (robust, FOE can be obtained in a robust manner. Then, by taking the correlation between the original point on a line connecting the feature points and the FOE in the image I 'A, we obtain the corresponding points in the image I B more accurately. FIG. 3 is a flowchart illustrating the method of the present invention. The method of the present invention will be described below in detail with reference to FIG. [0021] Description Introduction The image processing method of the image I A → image I picture I A is subjected to rotation applied at B in step 1 of FIG. 3 (method performs rotation to the image) (S1) in the image I 'A I do. The image processing by the motion of the image I B from the image I 'A (optical flow) rotation is removed, the translation only. The position of a feature point in an image is set to u = (u, v) T.
If this is represented by homogeneous coordinates, m = (u, v, 1) T. That is,
When u 1 = m 1 / m 3 and u 2 = m 2 / m 3 , m is u
Are homogeneous coordinates. Using the homogeneous coordinates, the vector from the camera center to the three-dimensional position of the feature point can be written as equation (1). Here, u 0, v 0, f x, f y is the specific parameters to the camera, and has been obtained in advance by the calibration of the camera. By applying a matrix R representing the rotation of the camera obtained from the gyro sensor to this vector q and returning it as an inverse matrix P −1 of P, homogeneous coordinates m ′ with the rotation added can be obtained. That is, equation (2) holds. Note that the inverse matrix P −1 of P is represented by Expression (3). From homogeneous coordinates m ',
The position u 'of the rotated feature point is u 1 ' = m 1 '/ m 3 ', u 2 '= m 2 '
It is obtained from the homogeneous coordinate relationship of / m 3 '. ## EQU1 ## [0024] Step 2 in (S2) in FIG. 3, for each point in the I A ', finds the corresponding points in the I B by correlating a two-dimensional region. As shown in FIGS. 8 and 10, in this correlation, almost correct correspondence is obtained, but there may be erroneous correspondence and poor position accuracy. Next, in S3, F
An evaluation function is introduced to obtain the OE, and the LMedS method (Least Median of S
quares method). (Evaluation Function) FIG. 4 is an explanatory diagram of the evaluation function. FOE from point correspondence
As an evaluation function for obtaining a, as schematically shown in this figure, the center of gravity g of the corresponding points in the I B and I A 'from the candidates of the FOE
a straight line is drawn to i, used after taking the sum with respect to three or more corresponding points of the square of the distance between corresponding points of the straight line and the image I B. X B; i is positive for all i considered
If it is determined properly , the straight line connecting x'A ; i and xB ; I
Since all the points intersect at one point, the point where this evaluation function is 0 is positive.
New FOE. If there is an erroneous response, set the evaluation function to 0
However, the point to be minimized is a candidate for FOE. The distance between the corresponding point and the straight line l i of the image I B image
It is equal to the distance between the corresponding points and the straight line I A ', is used only in the evaluation function one. The position of the corresponding point i of the image I A '
x 'A; i, position x B of the corresponding point i of the corresponding image I B; i, the point x'
Assuming that the center of gravity of A; i and point xB ; i is g i , the evaluation function is represented by Expression (4). Where l i (x FOE , g i ) is the point x FOE and the center of gravity g
a straight line passing through i, dist 2 (x B; i, l i) the point x B; i and the line l i
Is the square of the Euclidean distance to Let n i be the normalized normal vector of l i and a i = x B; i -g i ,
Expressions (5) and (6) are obtained. [Mathematical formula-see original document] [0028] determine the x FOE to minimize the evaluation function E (x FOE). For this purpose, some numerical calculation method such as a conjugate gradient method is used. This requires a gradient, which can be calculated as follows: That is, Expression (7) and Expression (8)
Then, the gradient can be expressed by Expressions (9) and (10). [Equation 3] (LMedS Method for Dealing with Error in Correspondence) Next, in order to correctly obtain the FOE when the correspondence between points is incorrect, the LMedS method (Least Median of Squares method)
Introduce d). From the whole correspondence of the points obtained by the first matching, a part of the correspondence of the p points (for example, 5 points) is randomly taken out, and this is taken as {x 1 sub , x 2 sub , ..., x p
sub }. Also, x i sub in image I ′ A is x A; i sub , image
The x i sub in I B x B; denoted as i sub. For this subset, the FOE candidate x is calculated using the evaluation function E (x FOE ) described above.
Ask for FOE . An error {r 1 2 , r 2 2 ,..., R p 2 } of each point in the subset is obtained for this candidate. Here, equation (11) holds. g i sub is the center of gravity of x A; i sub and x B; i sub . x B; i sub (i = 1,2, ..., p)
If it is found more correctly, the errors r i 2 are all 0 and
Become. If there is an erroneous response, it does not become 0, but LMe
Based on the dS method, when the median of the error r i 2 is minimized
The obtained FOE is the FOE obtained robustly. There
Then, this action is repeated many times, and x FOE when the median of r i 2 is minimized, that is, x FOE when equation (12) is minimized, is adopted as the robustly obtained FOE. [Equation 4] In step 3 (S3) of FIG. 3, a result from which a corresponding error is eliminated is obtained. However, the position error is not an optimal value because few points are used. Therefore, in step 4 (S4), a correspondence that does not contradict the FOE obtained above is selected.
Find E. Specifically, r i 2 is calculated for all point correspondences, and E (x FOE ) is again calculated for the selected correspondence.
X FOE that minimizes This is the final F
OE. [0033] (matching with FOE) FOE and image I 'a point in A x'A; there should i also; i and a point in the image I B on the straight line connecting x B. All points are FOE
Or x A; i 'on the same side of the straight line. Therefore, in step 5 (S5), the average value and the standard deviation of the flow size are obtained for the pair of points used when finally obtaining the FOE, that is, the pair considered to be almost correctly obtained, and the average value is obtained. Matching is performed on a straight line while moving the range before and after within a constant multiple of the standard deviation (usually about three times). However, since this range does not theoretically exceed x A; i ′ or x FOE , if the range exceeds this, no matching is performed for the excess part. Thereby, the final corresponding point xB ; i is obtained. [0034] As EXAMPLES image I A using the image shown in FIG. If determined corresponding points in the I B using only correlation without using gyro sensors, it occurs erroneous correspondence as shown in FIG. 8 and 10. On the other hand, when a correspondence was obtained by the method of the present invention using a gyro sensor, a correct corresponding point could be obtained as shown in FIGS. It should be noted that the present invention is not limited to the above-described embodiment, but can be variously modified without departing from the gist of the present invention. Further, the line drawings shown in FIGS. 2, 6, 9, and 10 are for directly viewing the images and are not directly related to the present invention. As described above, according to the method for tracking feature points in a two-dimensional moving image of the present invention, errors in corresponding points that may occur when corresponding points on a moving image are obtained using only correlations. Was corrected,
In addition, there is an excellent effect that the positional accuracy of the corresponding point can be improved.

【図面の簡単な説明】 【図1】静止物のある瞬間のディスプレイ上の中間調画
像IAである。 【図2】図1を画像処理したディスプレイ上の中間調画
像である。 【図3】本発明の方法を示すフローチャートである。 【図4】評価関数の説明図である。 【図5】画像IAの短時間後の本発明によるディスプレイ
上の中間調画像IBである。 【図6】図5を画像処理したディスプレイ上の中間調画
像である。 【図7】ある瞬間の立方体のディスプレイ上の中間調画
像IAである。 【図8】画像IAの短時間後のディスプレイ上の中間調画
像IBである。 【図9】図7を画像処理したディスプレイ上の中間調画
像である。 【図10】図9を画像処理したディスプレイ上の中間調
画像である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a halftone image I A on the moment of the display with a stationary object. FIG. 2 is a halftone image on a display obtained by performing image processing on FIG. 1; FIG. 3 is a flowchart illustrating a method of the present invention. FIG. 4 is an explanatory diagram of an evaluation function. 5 is a halftone image I B on the display by shortly after the invention of the image I A. 6 is a halftone image on a display obtained by performing image processing on FIG. 5; 7 is a halftone image I A on the moment of the cube in the display. 8 is a halftone image I B on shortly after the display of the image I A. FIG. 9 is a halftone image on the display obtained by performing image processing on FIG. 7; 10 is a halftone image on the display obtained by performing image processing on FIG. 9;

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大西 昇 愛知県名古屋市守山区大字下志段味字穴 ケ洞2271−130 サイエンスパーク研究 開発センター内 理化学研究所バイオ・ ミメティックコントロール研究センター 内 (56)参考文献 特開 平9−249083(JP,A) 特開 平9−212648(JP,A) 特開 平9−86314(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 5/232 H04N 7/18 ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Noboru Noboru 2271-130 Science Park Research and Development Center, Shimo-Shidami Tateji, Moriyama-ku, Nagoya-shi, Aichi Pref. RIKEN Bio-Mimetic Control Research Center (56) Reference Document JP-A-9-249083 (JP, A) JP-A-9-212648 (JP, A) JP-A-9-86314 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/00-7/60 G06T 1/00 H04N 5/232 H04N 7/18

Claims (1)

(57)【特許請求の範囲】 【請求項1】 静止している対象物の動画像を撮像する
カメラに角速度を計測するセンサを一体的に取り付け、
動画像と角速度のデータを同期させて記録し、得られた
動画像及び角速度データを用いて、以下のステップ(S
1〜S5)により、2次元動画像中の特徴点を追跡する
ことを特徴とする2次元動画像中の特徴点の追跡方法。 (S1)前記動画像データ中のある瞬間の画像IA と、
該画像 A の次の瞬間の画像IBから、前記角速度データ
を用いて画像IA→画像IBに含まれる回転と同じだけ画
像IAを回転させて画像IA'とする。 (S2)前記画像IA'の各特徴点について、2次元領域
で相関をとることにより画像IB中の対応点を見つけ
る。 (S3)以下からの手順を多数繰り返し、誤差ri 2
の中央値が一番小さい時の焦点FOEをこの段階で選ばれ
た焦点FOEとする。ランダムにp個の対応点を選ぶ。
選んだ点に関し評価関数E(xFOE)を最小化することに
より焦点FOEの候補を求める。ここで、評価関数E
(xFOE)には、点x FOE と、画像IA'の特徴点と前記画像
A の特徴点に対応する画像IBの点との重心giを通る
直線を引き、この直線と画像IA'の特徴点又は画像IB
の対応点との距離の2乗をランダムに選んだP個の対応
点に関して和をとったものを用いる。焦点FOEの候補
の誤差ri 2(i=1,2,・・・,p)を計算する。ここで、誤
差には、焦点FOEの候補に対して求めた、前記直線と画
像IA'の特徴点又は画像IBの対応点との距離の2乗を
用いる。 (S4)焦点FOEの候補に関して誤差ri 2の小さい対応点
を全体から選びだし、もう一回E(xFOE)を使ってより正
確な焦点FOEを求める。 (S5)焦点FOEと画像IA'中の特徴点を結ぶ直線上で
相関をとることにより、画像IB中の対応点をより正確
に見つける。
(57) [Claims] [Claim 1] A sensor for measuring an angular velocity is integrally attached to a camera for capturing a moving image of a stationary object,
The moving image and the angular velocity data are recorded in synchronization with each other, and using the obtained moving image and angular velocity data, the following steps (S
A method of tracking feature points in a two-dimensional moving image, characterized by tracking feature points in a two-dimensional moving image according to 1 to S5). (S1) and the instant of the image I A with the in the moving image data,
The next moment the image I B of the image I A, rotates the image I A → image I as much image I A and the rotation included in the B and the image I A 'by using the angular velocity data. (S2) for each of the feature points of the image I A ', finds the corresponding points in the image I B by correlating a two-dimensional region. (S3) The procedure from the following is repeated many times, and the error r i 2
Is the focal FOE selected at this stage when the median value of is the smallest. Randomly select p corresponding points.
A focus FOE candidate is obtained by minimizing the evaluation function E (x FOE ) for the selected point. Where the evaluation function E
The (x FOE), the point x FOE and the image I A 'feature points of the image
'Draw a straight line passing through the center of gravity g i and the point of image I B corresponding to the feature points of the straight line and the image I A' I A feature point or image I B of
The sum of the squares of the distances to the corresponding points of the P corresponding points selected at random is used. The error r i 2 (i = 1, 2,..., P) of the focus FOE candidate is calculated. Here, the error is obtained for the candidate focus FOE, using the square of the distance between corresponding points of the feature point or image I B of the straight line and the image I A '. (S4) A corresponding point having a small error r i 2 is selected from the whole with respect to the focus FOE candidate, and a more accurate focus FOE is obtained again by using E (x FOE ). (S5) by correlating on a straight line connecting the feature points in the focal FOE image I A ', finds the corresponding points in the image I B more accurately.
JP14760399A 1999-05-27 1999-05-27 Tracking method of feature points in 2D video Expired - Fee Related JP3452188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14760399A JP3452188B2 (en) 1999-05-27 1999-05-27 Tracking method of feature points in 2D video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14760399A JP3452188B2 (en) 1999-05-27 1999-05-27 Tracking method of feature points in 2D video

Publications (2)

Publication Number Publication Date
JP2000339473A JP2000339473A (en) 2000-12-08
JP3452188B2 true JP3452188B2 (en) 2003-09-29

Family

ID=15434073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14760399A Expired - Fee Related JP3452188B2 (en) 1999-05-27 1999-05-27 Tracking method of feature points in 2D video

Country Status (1)

Country Link
JP (1) JP3452188B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915964A (en) * 2014-03-11 2015-09-16 株式会社理光 Object tracking method and device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4193342B2 (en) 2000-08-11 2008-12-10 コニカミノルタホールディングス株式会社 3D data generator
DE102010038905A1 (en) * 2010-08-04 2012-02-09 Robert Bosch Gmbh Method and device for determining wheel and body movements of a vehicle
CN102714696B (en) * 2010-11-11 2016-03-02 松下电器(美国)知识产权公司 Image processing apparatus, image processing method and camera
US8798387B2 (en) 2010-11-11 2014-08-05 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and program for image processing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915964A (en) * 2014-03-11 2015-09-16 株式会社理光 Object tracking method and device
CN104915964B (en) * 2014-03-11 2017-08-11 株式会社理光 Method for tracing object and equipment

Also Published As

Publication number Publication date
JP2000339473A (en) 2000-12-08

Similar Documents

Publication Publication Date Title
WO2021115071A1 (en) Three-dimensional reconstruction method and apparatus for monocular endoscope image, and terminal device
US10334168B2 (en) Threshold determination in a RANSAC algorithm
Fitzgibbon et al. Multibody structure and motion: 3-d reconstruction of independently moving objects
EP3028252B1 (en) Rolling sequential bundle adjustment
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
US6438507B1 (en) Data processing method and processing device
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
WO2017022033A1 (en) Image processing device, image processing method, and image processing program
JP2007323615A (en) Image processor and processing method thereof
GB2567245A (en) Methods and apparatuses for depth rectification processing
JP2023502192A (en) Visual positioning method and related apparatus, equipment and computer readable storage medium
Zhu et al. Robust plane-based calibration of multiple non-overlapping cameras
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
Rudakova et al. Camera matrix calibration using circular control points and separate correction of the geometric distortion field
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP3452188B2 (en) Tracking method of feature points in 2D video
JP2006113832A (en) Stereoscopic image processor and program
JP2003006618A (en) Method and device for generating three-dimensional model and computer program
WO2018150086A2 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JPH1173492A (en) Method for transforming coordinate, method for synthesizing image and information recording medium
WO2024009427A1 (en) Information processing device, generation method, and generation program
JP2003256811A (en) Three-dimensional information restoring device and method, program for three-dimensional information restoring method and recording medium with its program recorded
EP3594900A1 (en) Tracking an object in a sequence of panoramic images

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees