JPH1115953A - Camera operation estimating method, and recording medium recorded with camera operation estimation program - Google Patents

Camera operation estimating method, and recording medium recorded with camera operation estimation program

Info

Publication number
JPH1115953A
JPH1115953A JP9169333A JP16933397A JPH1115953A JP H1115953 A JPH1115953 A JP H1115953A JP 9169333 A JP9169333 A JP 9169333A JP 16933397 A JP16933397 A JP 16933397A JP H1115953 A JPH1115953 A JP H1115953A
Authority
JP
Japan
Prior art keywords
camera
error amount
camera operation
compensation
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9169333A
Other languages
Japanese (ja)
Other versions
JP3408117B2 (en
Inventor
Yukinobu Taniguchi
行信 谷口
Akito Akutsu
明人 阿久津
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP16933397A priority Critical patent/JP3408117B2/en
Publication of JPH1115953A publication Critical patent/JPH1115953A/en
Application granted granted Critical
Publication of JP3408117B2 publication Critical patent/JP3408117B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly decide the validity/invality of a camera parameter regard lessly of the degree of complexity of an image by making an estimated camera parameter invalid when the ratio of an error amount after camera operation compensation to an error amount before compensation is not the given threshold or below. SOLUTION: A variable t that stores a frame number is initialized to one and a variable v that stores plural camera parameters is initialized to null (ϕ) (S101). A parameter b(t)=(bx (t), by (t)) is estimated from two images ft (x and y) and ft-1 (x, y) (S102). An error amount MET(t) after camera operation compensation is performed by using the estimated parameter b(t) is calculated with a prescribed expression (S103). Further, an error amount MSE0 (t) when camera compensation is not performed is calculated through the prescribed expression. When all prescribed conditions are satisfied, a camera parameter rid decided as valid (S104 to S106).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,映像を構成する画
像データ列からカメラ操作を推定する方法およびカメラ
操作推定プログラムを記録した記録媒体に関するもので
ある。推定されたカメラパラメータは映像データベース
に格納され,検索または表示の際に利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for estimating a camera operation from a sequence of image data constituting a video, and a recording medium storing a camera operation estimation program. The estimated camera parameters are stored in a video database and are used when searching or displaying.

【0002】[0002]

【従来の技術】画像列からカメラ操作を解析するため
に,カメラパラメータを推定する方法として様々なもの
が開示されている。推定されたカメラパラメータを映像
と関連付けてデータベースに格納しておくことにより,
「カメラがパンしたところを提示せよ」といった検索要
求に応えることができるようになる。
2. Description of the Related Art Various methods have been disclosed for estimating camera parameters in order to analyze a camera operation from an image sequence. By storing the estimated camera parameters in the database in association with the video,
It is possible to respond to a search request such as “show the camera panned”.

【0003】さらに,推定されたカメラパラメータに応
じて変換を施しながら画像列を合成することにより,パ
ノラマ画像を構成できる(特開平5−304675号,
「異なる焦点距離又は異なる視域の複数の像を使用した
高解像度静止画像を得る方法及び装置」)。
Further, a panoramic image can be constructed by synthesizing an image sequence while performing conversion in accordance with the estimated camera parameters (Japanese Patent Laid-Open No. 5-304675,
"Method and apparatus for obtaining high-resolution still images using multiple images with different focal lengths or different viewing zones").

【0004】図4は,パノラマ画像合成過程を説明する
ための図である。図4に示すような4枚の画像91〜9
4を考える。画像91と画像92とを比べると,カメラ
が右側に少し動いたため,画像が左にずれていることが
分かる。ここで,10ピクセルの移動があったとする。
この平行移動量b(1)=(10,0)をカメラパラメ
ータと呼ぶ。このようにカメラの光軸を固定したまま水
平方向(x軸方向)に回転させるカメラ操作を「パン」
と呼ぶ。
FIG. 4 is a diagram for explaining a panoramic image synthesizing process. Four images 91 to 9 as shown in FIG.
Consider four. Comparing the image 91 and the image 92, it can be seen that the image has shifted to the left because the camera has moved slightly to the right. Here, it is assumed that there is a movement of 10 pixels.
This translation amount b (1) = (10, 0) is called a camera parameter. In this way, the camera operation of rotating in the horizontal direction (x-axis direction) while keeping the optical axis of the camera fixed is called "pan"
Call.

【0005】画像92と画像93の間でも,同様にして
平行移動ベクトルb(2)=(10,0)を推定するこ
とができる。画像93と画像94の間ではカメラが上方
向に動いており,カメラパラメータb(3)=(0,
5)となる。このようにカメラの光軸を固定したまま垂
直方向(y軸方向)に回転させるカメラ操作を「チル
ト」と呼ぶ。
The parallel movement vector b (2) = (10, 0) can be similarly estimated between the image 92 and the image 93. The camera moves upward between the image 93 and the image 94, and the camera parameter b (3) = (0,
5). The camera operation of rotating the camera in the vertical direction (y-axis direction) while keeping the optical axis of the camera fixed is called "tilt".

【0006】推定された三つのカメラパラメータb
(t)に応じて画像をずらしながら合成することによっ
て,パノラマ画像95を構成することができる。カメラ
パラメータ推定の従来技術について説明する。
The estimated three camera parameters b
By synthesizing the images while shifting them according to (t), a panoramic image 95 can be configured. A conventional technique of camera parameter estimation will be described.

【0007】(1)カメラモデル まず,カメラパラメータを定義するために,カメラモデ
ルを設定する必要がある。カメラモデルとは2次元画像
中の点が,次の時間の画像中のどの点に移動するかを示
す数学的なモデルである。
(1) Camera Model First, it is necessary to set a camera model in order to define camera parameters. The camera model is a mathematical model that indicates to which point in the image at the next time a point in the two-dimensional image moves.

【0008】平行移動モデル 平行移動モデルは,ある画像上の点(x,y)が別の画
像の点(x’,y’)に, x’=x+bx , y’=y+by , で変換されるとするものである。これは,カメラを動か
すことで画像中の点がすべて(bx ,by )だけ平行移
動するとしたモデルである。このモデルを仮定した場合
のカメラパラメータは(bx ,by )の二つである。
[0008] translation model translation model, a point on one image (x, y) point of another image (x ', y') to, x '= x + b x , y' = y + b y, in conversion It is to be done. This is a model with a point in the image by moving the camera, all (b x, b y) only moves in parallel. Assuming this model, there are two camera parameters (b x , b y ).

【0009】射影モデル 実際のカメラにより忠実なモデルとして射影モデルがあ
る(Brown, L.G.: A Survey of Image Registration Te
chniques. ACM Computing Surveys, Vol.24, No.4, pp.
325-376 )。
Projection Model A projection model is a model more faithful to an actual camera (Brown, LG: A Survey of Image Registration Te
chniques. ACM Computing Surveys, Vol.24, No.4, pp.
325-376).

【0010】 x’=(a1 x+a2 y+a3 )/(a4 x+a5 y+
1), y’=(a6 x+a7 y+a8 )/(a4 x+a5 y+
1), このモデルでは8つのパラメータを持つ。
X ′ = (a 1 x + a 2 y + a 3 ) / (a 4 x + a 5 y +
1), y ′ = (a 6 x + a 7 y + a 8 ) / (a 4 x + a 5 y +
1), This model has eight parameters.

【0011】その他にも,アフィンモデル,Bilinearモ
デル等がある。 (2)カメラパラメータ推定方法 誤差尺度 二つの画像の一致度(誤差)を見積もるために,次の平
均二乗誤差(Mean Square Error(MSE))がよく用い
られる。
Other examples include an affine model and a bilinear model. (2) Camera Parameter Estimation Method Error Scale The following mean square error (MSE) is often used to estimate the degree of coincidence (error) between two images.

【0012】MSE(t) =Σx,y {f(x,y) −f'
(x',y')}2 /N ただし,和(Σx,y )は,すべての対応する画素につい
て計算され,Nは対応する画素数である。MSE以外に
も,ロバスト統計の考え方を導入したM推定法等もあ
る。
MSE (t) = Σx , y {f (x, y) -f '
(x ′, y ′)} 2 / N where the sum (Σ x, y ) is calculated for all corresponding pixels, where N is the number of corresponding pixels. In addition to MSE, there is also an M estimation method that introduces the concept of robust statistics.

【0013】最適化手法 実際の2枚の画像からカメラパラメータを推定する問題
は,誤差量を最小にするカメラパラメータを求める最適
化問題に帰着される。単純にカメラパラメータの取りう
るすべての組み合わせについて誤差量を計算し,その最
小値を達成するパラメータを出力する単純な方法でもよ
いが,処理コストが膨大であることが問題である。
Optimization Method The problem of estimating camera parameters from actual two images can be reduced to an optimization problem of finding camera parameters that minimizes the amount of error. A simple method of simply calculating an error amount for all possible combinations of camera parameters and outputting a parameter that achieves the minimum value may be used, but the problem is that the processing cost is enormous.

【0014】そこで,解像度を段階的に落とした画像
(ピラミッド画像と呼ばれる)を作成し,まず解像度の
最も低い画像を使ってカメラパラメータを推定し,推定
されたカメラパラメータを初期値として,もう一段解像
度の高い画像について最適解を得る,ということを段階
的に解像度を高めながら繰り返すことによってパラメー
タを効率的かつ正確に推定する方法がある(H.S.Sawhne
y and S.Ayer: CompactRepresentation of Videos Thro
ugh Dominant and Multiple Motion Estimation. IEEE
Transactions on Pattren Analysis and Machine Intel
ligence, Vol.18, No.8, pp.814-830, 1996)。
Therefore, an image with a stepwise reduced resolution (called a pyramid image) is created, and camera parameters are estimated using the image with the lowest resolution. There is a method for efficiently and accurately estimating parameters by repeating the process of obtaining the optimal solution for high-resolution images while gradually increasing the resolution (HSSawhne
y and S. Ayer: CompactRepresentation of Videos Thro
ugh Dominant and Multiple Motion Estimation. IEEE
Transactions on Pattren Analysis and Machine Intel
ligence, Vol. 18, No. 8, pp. 814-830, 1996).

【0015】[0015]

【発明が解決しようとする課題】被写体の動き,場面の
切換え等のカメラモデルで想定していない変化が映像中
に含まれている場合に,上記のカメラ操作推定方法は,
間違ったカメラパラメータを出力することがある。
The above-described camera operation estimating method is used when an image includes a change that is not assumed by a camera model, such as a movement of a subject or a change of a scene.
May output wrong camera parameters.

【0016】例えば,真っ青な空をカメラを固定して写
した映像中に,小さな虫が画面の左から右に飛んでいく
と,実際にはカメラは移動していないのにカメラが移動
したと誤認識して,無意味なカメラパラメータを出力す
ることがある。
For example, if a small insect flies from the left to the right of the screen in an image of a deep blue sky with the camera fixed, the camera may have moved without actually moving. Incorrect recognition may output meaningless camera parameters.

【0017】このように,従来のカメラ操作推定方法で
は,出力されたカメラパラメータが信頼できるものか否
かを知る手段がなかった。誤推定されたカメラパラメー
タを信用して,パノラマ画像合成等の応用に利用すると
その結果として問題が生じていた。例えば,誤推定され
たカメラパラメータを使用してパノラマ画像合成を行う
と歪んだ画像が出力されるという問題があった。
As described above, in the conventional camera operation estimation method, there is no means for knowing whether or not the output camera parameters are reliable. If the camera parameters that were erroneously estimated are trusted and used for applications such as panoramic image synthesis, a problem arises as a result. For example, there is a problem that a distorted image is output when a panoramic image is synthesized using camera parameters that are erroneously estimated.

【0018】本発明は上記問題点を解決するためになさ
れたものであり,推定されたカメラパラメータが有効か
否かを判定することのできるカメラ操作推定方法および
カメラ操作推定プログラムを記録した記録媒体を提供す
ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and a camera operation estimating method and a recording medium storing a camera operation estimating program capable of determining whether or not an estimated camera parameter is valid. The purpose is to provide.

【0019】[0019]

【課題を解決するための手段】請求項1の発明は,カメ
ラパラメータ推定を行い,その結果出力されるカメラパ
ラメータをもって“カメラ操作補償を行った後で計算さ
れる誤差量(ERROR)”を“カメラ操作補償を行わ
ない場合の誤差量(ERROR0)”と比較して,この
比ERROR/ERROR0がある閾値より小さい場合
にはカメラパラメータを有効とみなし,そうでない場合
にはカメラパラメータ推定が誤っているとみなす。被写
体の大きな動き等のカメラモデルで想定していない画像
変化が含まれており,有効なカメラパラメータが得られ
ない場合に誤差量ERRORは大きな値をとる傾向があ
るからである。
According to a first aspect of the present invention, a camera parameter is estimated, and an error amount (ERROR) calculated after performing a camera operation compensation is calculated based on a camera parameter output as a result. If the ratio ERROR / ERROR0 is smaller than a certain threshold value, the camera parameter is regarded as valid. Otherwise, the camera parameter estimation is erroneously performed. Consider it to be. This is because an error change ERROR tends to take a large value when an image change such as a large motion of a subject that is not assumed in the camera model is included and an effective camera parameter cannot be obtained.

【0020】ERROR/ERROR0を閾値処理する
ことにより,カメラパラメータの有効/無効を判定する
ことができる。誤差量ERRORは画像の複雑度(テク
スチャの程度)に応じて増減するが,ERROR0との
比を閾値処理するようにすることで画像の複雑度によら
ない判定ができる。
By performing threshold processing on ERROR / ERROR0, it is possible to determine whether camera parameters are valid or invalid. The error amount ERROR increases or decreases in accordance with the complexity (the degree of texture) of the image. However, by performing threshold processing on the ratio with ERROR0, it is possible to make a determination independent of the complexity of the image.

【0021】請求項2の発明は,推定されたカメラパラ
メータが滑らかに時間変化するという条件をさらに満た
さない場合に,推定されたカメラパラメータを無効とす
る。カメラの動きは一般的に滑らかに時間変化する性質
を利用したものであり,これにより,手ぶれ等の意図し
ないカメラの動きを意図されたカメラ操作と区別するこ
とができる。
According to a second aspect of the present invention, when the condition that the estimated camera parameter smoothly changes with time is not further satisfied, the estimated camera parameter is invalidated. In general, the movement of a camera utilizes the property of smoothly changing with time, whereby an unintended camera movement such as camera shake can be distinguished from an intended camera operation.

【0022】請求項3の発明は,被写体の領域を除いた
部分領域に限定して誤差量を算出することを特徴とす
る。映像中で“動きのある被写体が映っている”領域を
除いた画面領域に限定して誤差量を算出することによ
り,被写体の動きによらずカメラパラメータの有効/無
効を判定することができる。
The invention according to a third aspect is characterized in that the error amount is calculated only in a partial area excluding the area of the subject. By calculating the error amount only in the screen area excluding the area where the “moving subject is reflected” in the video, the validity / invalidity of the camera parameter can be determined regardless of the movement of the subject.

【0023】請求項4の発明は,カメラ操作補償後の誤
差量と補償前の誤差量の比がある与えられた閾値以下で
あるという条件を満たさない場合に,推定されたカメラ
パラメータを無効とする処理をコンピュータに実行させ
るカメラ操作推定プログラムを,コンピュータが読み取
り可能な記録媒体に記録したことを特徴とする。これに
よって,請求項1のカメラ操作推定方法をコンピュータ
により実現することができる。
According to a fourth aspect of the present invention, when the ratio of the error amount after camera operation compensation and the error amount before compensation does not satisfy a condition that the ratio is equal to or less than a given threshold, the estimated camera parameters are invalidated. A camera operation estimating program for causing a computer to execute the processing to be performed, on a computer-readable recording medium. Thus, the camera operation estimating method according to claim 1 can be realized by a computer.

【0024】請求項5の発明は,さらに推定されたカメ
ラパラメータが滑らかに時間変化するという条件を満た
さない場合には,推定されたカメラパラメータを無効と
する処理をコンピュータに実行させるカメラ操作推定プ
ログラムを,コンピュータが読み取り可能な記録媒体に
記録したことを特徴とする。これによって,請求項2の
カメラ操作推定方法をコンピュータにより実現すること
ができる。
According to a fifth aspect of the present invention, there is provided a camera operation estimating program for causing a computer to execute processing for invalidating the estimated camera parameter when the condition that the estimated camera parameter smoothly changes with time is not satisfied. Is recorded on a computer-readable recording medium. Thus, the camera operation estimation method according to claim 2 can be realized by a computer.

【0025】請求項6の発明は,さらに被写体の領域を
除いた部分領域に限定して誤差量を算出する処理をコン
ピュータに実行させるカメラ操作推定プログラムを,コ
ンピュータが読み取り可能な記録媒体に記録したことを
特徴とする。これによって,請求項3のカメラ操作推定
方法をコンピュータにより実現することができる。
According to a sixth aspect of the present invention, a camera operation estimation program for causing a computer to execute a process of calculating an error amount limited to a partial area excluding an area of a subject is recorded on a computer-readable recording medium. It is characterized by the following. Thus, the camera operation estimation method according to claim 3 can be realized by a computer.

【0026】[0026]

【発明の実施の形態】以下,本発明の実施の形態を,図
を用いて説明する。図1は,本発明の実施の形態を説明
する処理フロー図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a processing flow chart for explaining an embodiment of the present invention.

【0027】(1)カメラパラメータ推定 本実施の形態では,従来技術で説明した平行移動モデル
をカメラモデルとして使用する。従って,求めるカメラ
パラメータは平行移動ベクトル(bx (t),b
y (t))である。ここで,tを映像中の画像を指定す
るフレーム番号とし,t=0,1,2,3…をとるもの
とする。カメラパラメータ推定方法としては,従来技術
で述べたいずれの方法を用いてもよい。
(1) Camera Parameter Estimation In this embodiment, the translation model described in the prior art is used as a camera model. Therefore, the camera parameters to be obtained are the translation vectors (b x (t), b
y (t)). Here, it is assumed that t is a frame number designating an image in a video, and t = 0, 1, 2, 3,.... As a camera parameter estimation method, any of the methods described in the related art may be used.

【0028】ステップS101では,フレーム番号を格
納する変数tを1に,複数のカメラパラメータを格納す
るための変数vを空(φ)に初期化する。ステップS1
02では,二枚の画像ft (x,y)とft-1 (x,
y)からカメラパラメータb(t)=(bx (t),b
y (t))を推定する。
In step S101, a variable t for storing a frame number is initialized to 1, and a variable v for storing a plurality of camera parameters is initialized to empty (φ). Step S1
02, two images f t (x, y) and f t−1 (x,
y), the camera parameters b (t) = (b x (t), b
y (t)).

【0029】ステップS103では,推定されたパラメ
ータb(t)を用いてカメラ操作補償を行った後の誤差
量MSE(t)を,次式により計算する。 MSE(t)=Σx,y {ft-1 (x,y) −ft (x+bx (t), y+by
(t))}2 /N さらに,カメラ操作補償を行わない場合の誤差量MSE
0 (t)とを,次式により計算する。
In step S103, the error amount MSE (t) after performing the camera operation compensation using the estimated parameter b (t) is calculated by the following equation. MSE (t) = Σ x, y {f t-1 (x, y) -f t (x + b x (t), y + b y
(t))} 2 / N Furthermore, the error amount MSE when camera operation compensation is not performed
0 (t) is calculated by the following equation.

【0030】 MSE0 (t)=Σx,y {ft-1 (x,y) −ft (x,y) }2 /N ただし,Σx,y は,すべての対応する画素についての
和,Nは対応する画素数である。
MSE 0 (t) = Σ x, y {f t-1 (x, y) −f t (x, y)} 2 / N where た だし x, y is The sum, N, is the number of corresponding pixels.

【0031】(2)カメラパラメータの有効性の判定 ステップS104〜S106は,カメラパラメータが有
効であるか否かを判定するステップである。以下の三つ
の条件をすべて満たす場合に,カメラパラメータは有効
であると判定する。
(2) Determination of validity of camera parameters Steps S104 to S106 are steps for determining whether or not the camera parameters are valid. When all of the following three conditions are satisfied, it is determined that the camera parameters are valid.

【0032】 条件1) b(t)≠0 (ステップS104) 条件2) b(t)・b(t−1)>0 (ステップS
105) 条件3) MSE(t)/MSE0 (t)<T (ステ
ップS106) 「条件1」は,推定したカメラパラメータが0か否かを
調べるもので,カメラパラメータが0ということはカメ
ラ操作がないということで無効とする。なお,目的によ
っては有効と判断してもよい。
Condition 1) b (t) ≠ 0 (Step S104) Condition 2) b (t) · b (t−1)> 0 (Step S104)
105) Condition 3) MSE (t) / MSE 0 (t) <T (Step S106) “Condition 1” is to check whether or not the estimated camera parameter is 0. Invalid because there is no. Note that it may be determined to be valid depending on the purpose.

【0033】「条件2」は,カメラパラメータが滑らか
に変化しているかどうかを調べるものである。ここで,
推定したカメラパラメータb(t)と一つ前に推定した
カメラパラメータb(t−1)との間の内積をとり,内
積が0より大きい場合,すなわち,図2に示すように,
角度θが90度未満である場合には,「カメラパラメー
タが滑らかに時間変化している」とする。
"Condition 2" is to check whether the camera parameters are changing smoothly. here,
The inner product between the estimated camera parameter b (t) and the camera parameter b (t-1) estimated immediately before is taken, and when the inner product is larger than 0, that is, as shown in FIG.
If the angle θ is less than 90 degrees, it is determined that “camera parameters smoothly change over time”.

【0034】「条件3」は,カメラ操作補償によって誤
差量が十分小さくなっているかを確認するためのもので
ある。カメラ操作補償を行った場合の誤差量MSE
(t)と,行わない場合の誤差量MSE0 (t)の比を
とり,閾値T(0<T<1)と比較する。この条件3に
ついては,その意味について後述する。
"Condition 3" is for confirming whether the error amount is sufficiently reduced by the camera operation compensation. Error MSE when camera operation compensation is performed
The ratio between (t) and the error amount MSE 0 (t) when not performed is taken and compared with a threshold value T (0 <T <1). The meaning of the condition 3 will be described later.

【0035】上記三つの条件をすべて満たしているとき
には,カメラパラメータb(t)は有効である可能性が
高いと判断し,変数vにカメラパラメータb(t)を追
加して格納しておく(ステップS107)。
When all of the above three conditions are satisfied, it is determined that the camera parameter b (t) is likely to be effective, and the camera parameter b (t) is added to the variable v and stored ( Step S107).

【0036】変数tに1を足して(ステップS10
8),映像の終わりに達していなければ(ステップS1
09),ステップS102の処理へ戻る。上記三つの条
件のうち一つでも満たさないものがあれば,カメラパラ
メータb(t)は無効であると判断し,ステップS11
0の処理へ移る。
One is added to the variable t (step S10).
8) If the end of the video has not been reached (step S1)
09), the process returns to step S102. If any one of the above three conditions is not satisfied, it is determined that the camera parameter b (t) is invalid, and step S11 is performed.
Move to the process of 0.

【0037】ステップS110では,変数vに閾値L個
以上のカメラパラメータが格納されている場合には,変
数vに格納されている複数のカメラパラメータを有効な
ものとして出力する(ステップS111)。そうでない
場合には,手ぶれ等で一瞬カメラが動いた場合である可
能性が高いので無効なパラメータと判断する。
In step S110, if the variable v stores at least the threshold L camera parameters, the plurality of camera parameters stored in the variable v are output as valid ones (step S111). Otherwise, it is highly likely that the camera has momentarily moved due to camera shake or the like, so it is determined to be an invalid parameter.

【0038】ステップS112では,変数vを空(φ)
に再度初期化し,ステップS108の処理へ移り,次フ
レームの処理に移る。 (3)条件3の意味について 「条件3」の意味について詳細に説明する。
In step S112, the variable v is set to empty (φ).
Then, the process shifts to the process of step S108, and shifts to the process of the next frame. (3) Meaning of Condition 3 The meaning of “condition 3” will be described in detail.

【0039】MSE(t)はカメラ操作補償を行った後
の誤差量を表している。この誤差量MSE(t)が小さ
いということは,設定したカメラモデルによって画像の
変化がうまく説明できていることを意味する。MSE
(t)を,単に閾値処理(例えばMSE(t)<Tなら
ば,カメラパラメータを有効とする処理)をしても良さ
そうであるが,実際には次のような問題がある。
MSE (t) represents the amount of error after performing camera operation compensation. The fact that the error amount MSE (t) is small means that the change of the image can be well explained by the set camera model. MSE
Although it seems good that (t) is simply subjected to threshold processing (for example, if MSE (t) <T, processing for validating camera parameters), there is actually the following problem.

【0040】MSE(t)は画像の複雑度(テクスチャ
の細かさ)によって増減する性質があり,テクスチャが
細かい場合には高い値をとる傾向がある。従って,固定
閾値処理では正しい判定ができないことが実験により分
かった。MSE(t)とMSE0 (t)との比をとった
ものを閾値処理することにより,画像の複雑度によらず
カメラ操作の有効/無効を判定できる。
MSE (t) has the property of increasing or decreasing depending on the complexity of the image (fineness of the texture), and tends to take a high value when the texture is fine. Therefore, it was found through experiments that the correct decision cannot be made by the fixed threshold processing. By performing threshold processing on the ratio between MSE (t) and MSE 0 (t), the validity / invalidity of the camera operation can be determined regardless of the complexity of the image.

【0041】(4)誤差量の算出 上記実施の形態では,全画面を対象として誤差量MSE
(t)を計算したが,ある画面領域に限定して誤差量を
算出するようにすることもできる。
(4) Calculation of Error Amount In the above embodiment, the error amount MSE is set for the entire screen.
Although (t) is calculated, the error amount may be calculated only for a certain screen area.

【0042】例えば,図3に示すように,画面の部分領
域33についてだけ誤差量を算出する。すなわち,図1
のステップS103において,部分領域33内に限定し
て和をとるようにする。このように画面領域を設定して
誤差量を算出することで次のような効果が生じる。すな
わち,画面の中心部で被写体の動きがあることが事前に
分かっている場合には,図3の部分領域33が被写体領
域に重ならないように幅Δxや高さΔyを設定する。
For example, as shown in FIG. 3, the error amount is calculated only for the partial area 33 of the screen. That is, FIG.
In step S103, the sum is limited to the partial area 33. By setting the screen area and calculating the error amount in this way, the following effects are produced. That is, when it is known in advance that the subject moves at the center of the screen, the width Δx and the height Δy are set so that the partial region 33 in FIG. 3 does not overlap the subject region.

【0043】このように設定された部分領域33に限定
して誤差量MSE(t)を算出すると,その誤差量MS
E(t)は被写体の動き等の影響を受けにくくなる。し
たがって,被写体の動きによらずカメラパラメータの有
効性を確認することができるという効果がある。(全画
面について誤差量を計算すると,被写体の動きによって
誤差量が増加し,カメラパラメータが有効でないと判断
される。)この場合,図1のステップS102における
カメラパラメータb(t)の推定においても,同じ幅Δ
xや高さΔyでもって設定した部分領域を対象としてカ
メラパラメータを求めるようにしたほうが望ましい。
When the error amount MSE (t) is calculated only for the partial area 33 set as described above, the error amount MSE (t) is calculated.
E (t) is less affected by the movement of the subject. Therefore, there is an effect that the validity of the camera parameter can be confirmed regardless of the movement of the subject. (When the error amount is calculated for the entire screen, the error amount increases due to the movement of the subject, and it is determined that the camera parameter is not valid.) In this case, the camera parameter b (t) in step S102 in FIG. , The same width Δ
It is desirable to obtain the camera parameters for a partial area set by x and height Δy.

【0044】本発明は,以上説明した実施の形態に限ら
れるものではない。上記の実施の形態では,カメラモデ
ルとして平行移動モデルを設定したが,アフィンモデ
ル,射影モデル等,任意のものを利用することが可能で
ある。また,誤差量として平均二乗誤差(MSE
(t))の例を説明したが,その他,誤差の絶対値和や
ロバスト統計の分野で開発された様々な誤差量とするこ
とも可能である。
The present invention is not limited to the embodiment described above. In the above embodiment, the translation model is set as the camera model. However, an arbitrary model such as an affine model or a projection model can be used. The mean square error (MSE)
Although the example of (t)) has been described, it is also possible to use various error amounts developed in the field of absolute value sum of errors and robust statistics.

【0045】「カメラパラメータが滑らかに時間変化し
ている」ことを確認するための条件として,「条件2」
を利用したが,その他の条件を利用することもできる。
例えば,カメラパラメータのベクトルの大きさが大きく
変化しないという条件を追加することもできるし,内積
演算以外の演算により滑らかさを定義することもでき
る。
As a condition for confirming that “camera parameters smoothly change over time”, “condition 2”
Was used, but other conditions can also be used.
For example, a condition that the magnitude of the camera parameter vector does not change significantly can be added, and smoothness can be defined by an operation other than the inner product operation.

【0046】さらに,誤差量の算出対象とする部分領域
の設定についても様々な変形が考えられる。上記の実施
の形態で説明したように,予め部分領域を設定しておく
方法だけでなく,画像処理によって被写体領域を切り出
し,その領域を除いた画面領域を誤差量の算出対象とす
る部分領域とすることもできる。
Further, various modifications are conceivable for the setting of the partial area for which the error amount is to be calculated. As described in the above embodiment, in addition to the method of setting a partial area in advance, a subject area is cut out by image processing, and a screen area excluding the area is set as a partial area for which an error amount is to be calculated. You can also.

【0047】なお,以上説明したカメラ操作推定手続き
は,コンピュータプログラムとして実現され,該プログ
ラムはフロッピーディスク,コンパクトディスク,テー
プ等の記録媒体に記録して提供される。
Note that the camera operation estimation procedure described above is realized as a computer program, and the program is provided by being recorded on a recording medium such as a floppy disk, a compact disk, or a tape.

【0048】[0048]

【発明の効果】請求項1の発明は,カメラ操作補償後の
誤差量と補償前の誤差量の比がある与えられた閾値以下
であるという条件を満たさない場合に,推定されたカメ
ラパラメータを無効とするようにしたので,カメラパラ
メータの有効/無効を画像の複雑度によらず正しく判定
することができる効果がある。
According to the first aspect of the present invention, when the ratio of the error amount after the camera operation compensation and the error amount before the compensation does not satisfy a condition that the ratio is equal to or less than a given threshold, the estimated camera parameters are changed. Since the setting is made invalid, there is an effect that the validity / invalidity of the camera parameter can be correctly determined regardless of the complexity of the image.

【0049】請求項2の発明は,推定されたカメラパラ
メータが滑らかに時間変化するという条件を満たさない
場合に,推定されたカメラパラメータを無効と判定する
ようにしたので,手ぶれ等の意図しないカメラの動きを
無効と判定できる効果がある。
According to the second aspect of the present invention, when the estimated camera parameters do not satisfy the condition of smoothly changing with time, the estimated camera parameters are determined to be invalid, so that an unintended camera such as a camera shake is obtained. There is an effect that it is possible to determine that the movement is invalid.

【0050】請求項3の発明は,被写体領域を除いた部
分領域に限定して誤差量を算出するようにしたので,被
写体等の動きによらずカメラパラメータが有効/無効を
正しく判定することができる効果がある。
According to the third aspect of the present invention, the error amount is calculated only in the partial area excluding the object area, so that it is possible to correctly determine whether the camera parameter is valid or invalid regardless of the movement of the object or the like. There is an effect that can be done.

【0051】請求項4ないし請求項6の発明は,カメラ
操作推定プログラムをコンピュータに実行させることに
より,それぞれ請求項1ないし請求項3の方法をコンピ
ュータによって実現することができるという効果があ
る。
The inventions of claims 4 to 6 have the effect that the methods of claims 1 to 3 can be realized by a computer by causing the computer to execute the camera operation estimation program.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態を説明するための処理フロ
ーである。
FIG. 1 is a process flow for explaining an embodiment of the present invention.

【図2】「カメラパラメータの滑らかな変化」の幾何学
的意味を説明するための図である。
FIG. 2 is a diagram for explaining the geometric meaning of “smooth change of camera parameters”;

【図3】本実施の形態における画面領域を説明するため
の模式図である。
FIG. 3 is a schematic diagram for explaining a screen area in the present embodiment.

【図4】パノラマ画像合成過程を説明するための図であ
る。
FIG. 4 is a diagram for explaining a panoramic image synthesizing process.

【符号の説明】[Explanation of symbols]

S101〜S112 実施の形態の処理ステップ S101 to S112 Processing steps of the embodiment

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像列データからカメラパラメータを推
定するカメラ操作推定方法であって,カメラ操作補償後
の誤差量とカメラ操作補償前の誤差量とを算出し,補償
後の誤差量と補償前の誤差量との比が,ある与えられた
閾値以下であるという条件を満たさない場合に推定され
たカメラパラメータを無効とすることを特徴とするカメ
ラ操作推定方法。
1. A camera operation estimating method for estimating a camera parameter from image sequence data, comprising calculating an error amount after camera operation compensation and an error amount before camera operation compensation, and calculating the error amount after compensation and the error amount before compensation. A camera operation estimating method, wherein an estimated camera parameter is invalidated when a condition that a ratio with respect to an error amount is not more than a given threshold value is not satisfied.
【請求項2】 請求項1記載のカメラ操作推定方法にお
いて,前記推定されたカメラパラメータが滑らかに時間
変化するという条件を満たさない場合に推定されたカメ
ラパラメータを無効とすることを特徴とするカメラ操作
推定方法。
2. The camera operation estimating method according to claim 1, wherein the estimated camera parameters are invalidated when the condition that the estimated camera parameters smoothly change with time is not satisfied. Operation estimation method.
【請求項3】 請求項1または請求項2記載のカメラ操
作推定方法において,被写体領域を除いた部分領域に限
定して前記誤差量を算出することを特徴とするカメラ操
作推定方法。
3. The camera operation estimating method according to claim 1, wherein the error amount is calculated only for a partial area excluding a subject area.
【請求項4】 画像列データからカメラパラメータをコ
ンピュータによって推定するためのカメラ操作推定プロ
グラムを記録した記録媒体であって,カメラ操作補償後
の誤差量とカメラ操作補償前の誤差量を算出し,補償後
の誤差量と補償前の誤差量との比が,ある与えられた閾
値以下であるという条件を満たさない場合に推定された
カメラパラメータを無効とする処理をコンピュータに実
行させるプログラムを記録したことを特徴とするカメラ
操作推定プログラムを記録した記録媒体。
4. A recording medium storing a camera operation estimation program for estimating camera parameters from image sequence data by a computer, wherein an error amount after camera operation compensation and an error amount before camera operation compensation are calculated. Recorded a program that causes the computer to execute processing to invalidate the estimated camera parameters when the ratio between the error amount after compensation and the error amount before compensation does not satisfy the condition that the error amount is equal to or less than a given threshold value. A recording medium on which a camera operation estimation program is recorded.
【請求項5】 請求項4記載のカメラ操作推定プログラ
ムを記録した記録媒体において,前記推定されたカメラ
パラメータが滑らかに時間変化するという条件を満たさ
ない場合に,推定されたカメラパラメータを無効とする
処理をコンピュータに実行させるプログラムを記録した
ことを特徴とするカメラ操作推定プログラムを記録した
記録媒体。
5. A recording medium storing the camera operation estimation program according to claim 4, wherein the estimated camera parameter is invalidated when the condition that the estimated camera parameter smoothly changes with time is not satisfied. A recording medium recording a camera operation estimation program, characterized by recording a program for causing a computer to execute processing.
【請求項6】 請求項4または請求項5のカメラ操作推
定プログラムを記録した記録媒体において,被写体領域
を除いた部分領域に限定して前記誤差量を算出する処理
をコンピュータに実行させるプログラムを記録したこと
を特徴とするカメラ操作推定プログラムを記録した記録
媒体。
6. A recording medium on which the camera operation estimating program according to claim 4 or 5 is recorded, wherein a program for causing a computer to execute a process of calculating the error amount limited to a partial area excluding a subject area is recorded. A recording medium storing a camera operation estimating program characterized by the following.
JP16933397A 1997-06-26 1997-06-26 Camera operation estimation method and recording medium storing camera operation estimation program Expired - Lifetime JP3408117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16933397A JP3408117B2 (en) 1997-06-26 1997-06-26 Camera operation estimation method and recording medium storing camera operation estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16933397A JP3408117B2 (en) 1997-06-26 1997-06-26 Camera operation estimation method and recording medium storing camera operation estimation program

Publications (2)

Publication Number Publication Date
JPH1115953A true JPH1115953A (en) 1999-01-22
JP3408117B2 JP3408117B2 (en) 2003-05-19

Family

ID=15884615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16933397A Expired - Lifetime JP3408117B2 (en) 1997-06-26 1997-06-26 Camera operation estimation method and recording medium storing camera operation estimation program

Country Status (1)

Country Link
JP (1) JP3408117B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524710A (en) * 2015-06-30 2018-08-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Panorama image generation method and apparatus for user terminal

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62175080A (en) * 1986-01-28 1987-07-31 Sony Corp Motion correcting device
JPH04148282A (en) * 1990-10-08 1992-05-21 Nippon Telegr & Teleph Corp <Ntt> Image pickup state detecting method for picture image pickup device
JPH0746582A (en) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> Video segmenting method
JPH07162738A (en) * 1993-12-13 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Video photographing state detector
JPH08240421A (en) * 1995-03-06 1996-09-17 Meidensha Corp Estimating method for camera parameter and object recognizing method utilizing the parameter
JPH09161067A (en) * 1995-12-08 1997-06-20 Ricoh Co Ltd Picture matching method
JPH10240939A (en) * 1997-02-28 1998-09-11 Meidensha Corp Camera calibration method
JPH10304244A (en) * 1997-05-01 1998-11-13 Sony Corp Image processing unit and its method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62175080A (en) * 1986-01-28 1987-07-31 Sony Corp Motion correcting device
JPH04148282A (en) * 1990-10-08 1992-05-21 Nippon Telegr & Teleph Corp <Ntt> Image pickup state detecting method for picture image pickup device
JPH0746582A (en) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> Video segmenting method
JPH07162738A (en) * 1993-12-13 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Video photographing state detector
JPH08240421A (en) * 1995-03-06 1996-09-17 Meidensha Corp Estimating method for camera parameter and object recognizing method utilizing the parameter
JPH09161067A (en) * 1995-12-08 1997-06-20 Ricoh Co Ltd Picture matching method
JPH10240939A (en) * 1997-02-28 1998-09-11 Meidensha Corp Camera calibration method
JPH10304244A (en) * 1997-05-01 1998-11-13 Sony Corp Image processing unit and its method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524710A (en) * 2015-06-30 2018-08-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Panorama image generation method and apparatus for user terminal
US10395341B2 (en) 2015-06-30 2019-08-27 Baidu Online Network Technology (Beijing) Co., Ltd. Panoramic image generation method and apparatus for user terminal

Also Published As

Publication number Publication date
JP3408117B2 (en) 2003-05-19

Similar Documents

Publication Publication Date Title
US10832424B2 (en) Image registration method
US6078701A (en) Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US7548253B2 (en) Self-calibration for a catadioptric camera
US8126206B2 (en) Image processing apparatus, image processing method, and program
EP3800878B1 (en) Cascaded camera motion estimation, rolling shutter detection, and camera shake detection for video stabilization
US20050053291A1 (en) Frame interpolation method and apparatus, and image display system
Wang et al. Sparsenerf: Distilling depth ranking for few-shot novel view synthesis
US7522749B2 (en) Simultaneous optical flow estimation and image segmentation
US20060072851A1 (en) Deghosting mosaics using multiperspective plane sweep
CN110753181A (en) Video image stabilization method based on feature tracking and grid path motion
US10701336B2 (en) Rectifying a sequence of stereo images
US10529092B2 (en) Method for reducing matching error in disparity image by information in zoom image
EP3093822B1 (en) Displaying a target object imaged in a moving picture
US7477769B2 (en) Data processing method usable for estimation of transformed signals
US10432962B1 (en) Accuracy and local smoothness of motion vector fields using motion-model fitting
JPH1115953A (en) Camera operation estimating method, and recording medium recorded with camera operation estimation program
JP2001167249A (en) Method and device for synthesizing image and recording medium stored with image synthesizing program
Yang Particle filtering based estimation of consistent motion and disparity with reduced search points
Huang et al. Weighted large margin nearest center distance-based human depth recovery with limited bandwidth consumption
Su et al. Robust spatial–temporal Bayesian view synthesis for video stitching with occlusion handling
JP3523064B2 (en) Three-dimensional shape input method and recording medium storing three-dimensional shape input program
Farin et al. Minimizing MPEG-4 sprite coding cost using multi-sprites
Chen et al. Video stitching with extended-MeshFlow
Ke et al. Efficient online real-time video stabilization with a novel least squares formulation and parallel AC-RANSAC
US11638031B2 (en) Motion compensation method and module, chip, electronic device and storage media

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090314

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090314

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100314

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 10

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term