JP2006190176A - Camera work parameter calculation method, device and program executing the method, and recording medium therefor - Google Patents

Camera work parameter calculation method, device and program executing the method, and recording medium therefor Download PDF

Info

Publication number
JP2006190176A
JP2006190176A JP2005002751A JP2005002751A JP2006190176A JP 2006190176 A JP2006190176 A JP 2006190176A JP 2005002751 A JP2005002751 A JP 2005002751A JP 2005002751 A JP2005002751 A JP 2005002751A JP 2006190176 A JP2006190176 A JP 2006190176A
Authority
JP
Japan
Prior art keywords
camera work
point
work parameter
calculation
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005002751A
Other languages
Japanese (ja)
Other versions
JP4473736B2 (en
Inventor
Yosuke Torii
陽介 鳥井
Seiichi Konya
精一 紺谷
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005002751A priority Critical patent/JP4473736B2/en
Publication of JP2006190176A publication Critical patent/JP2006190176A/en
Application granted granted Critical
Publication of JP4473736B2 publication Critical patent/JP4473736B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera work parameter calculation method necessary for a preprocess of sprite coding and moving object extraction of a video stored in a technological field of moving image processing, and to provide a device and a program executing the method, and a recording medium therefor. <P>SOLUTION: This camera work parameter calculation device has: a representative point calculation part 104 calculating a point that is a characteristic from a frame image inside the video as a representative point; a corresponding point calculation part 105 calculating a point corresponding to the representative point of a certain frame image from another frame image; a camera work parameter calculation part 106 performing exception value decision by redundant use of a set of point correspondence relation of the image, and calculating a camera work parameter except an exception value; a representative point calculation decision part 107 deciding whether the calculation of the representative point is required or not; and a frame image update part 103 updating the frame image and the representative point. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、カメラワークパラメータ算出方法、この方法を実施する装置、プログラムおよびその記憶媒体に関し、特に動画像処理の分野で、蓄積された映像の動物体抽出やスプライト符号化の前処理などに必要なカメラワークパラメータ算出方法、この方法を実施する装置、プログラムおよびその記憶媒体に関する。   The present invention relates to a camera work parameter calculation method, an apparatus for implementing the method, a program, and a storage medium for the method, and particularly in the field of moving image processing, necessary for pre-processing of moving object extraction of accumulated video, sprite encoding, and the like. The present invention relates to a simple camera work parameter calculation method, an apparatus for implementing this method, a program, and a storage medium thereof.

非特許文献1には、3次元物体がカメラに投影される時のカメラモデルを利用して背景に属する特徴点を分類する技術が開示されている。カメラモデルを表す部分空間に、背景に属する特徴点の軌跡ベクトルが存在することを用いて、各点の軌跡を背景とそれ以外の軌跡に分類する。この手法により背景に属する軌跡を持つ点のみを用いてカメラワークに相当する射影変換パラメータを算出、背景を変換してメジアン法により背景パノラマを作成し、その背景パノラマを利用して動物体抽出を行っていた。また、動きベクトル算出に特徴点マッチングを利用している。なお、画面の変化に伴う特徴点の算出方法は特徴点追跡失敗による特徴点の数が少なくなった時である。   Non-Patent Document 1 discloses a technique for classifying feature points belonging to a background using a camera model when a three-dimensional object is projected onto a camera. By using the fact that the trajectory vector of the feature point belonging to the background exists in the partial space representing the camera model, the trajectory of each point is classified into the background and other trajectories. This method calculates projective transformation parameters corresponding to camerawork using only points with trajectories belonging to the background, converts the background to create a background panorama using the median method, and uses this background panorama to extract moving objects. I was going. Also, feature point matching is used for motion vector calculation. Note that the feature point calculation method associated with the screen change is when the number of feature points due to feature point tracking failure has decreased.

背景点軌跡の分類の処理ステップを以下に略記する。
(1)Lフレーム分の軌跡ベクトル(L個の点軌跡を繋げた2L次元ベクトル)の中から3点の軌跡を取り出す。
(2)取り出したベクトルの重心まわりのモーメント行列M2(2L×2L次元)を計算する。
(3)M2の大きい2つの固有値と対応する単位固有ベクトルを計算する。
(4)2L×2L射影行列を固有ベクトルから算出する。
(5)射影行列から算出される判別値が一定値以下になる全軌跡ベクトル個数を算出する。
(6)(1)〜(5)を別の3点で繰り返して(5)で算出される個数を最大とする射影行列を求め、その行列を用いて更に(5)と同様の判別値を用いて各軌跡ベクトルを背景点とそれ以外の点に分類する。
(7)算出された背景点の対応から射影変換パラメータを、くりこみ法を用いて算出してカメラワークパラメータとする。
譲田、金谷ほか「移動ビデオカメラ画像からの運動物体の抽出」(情報処理学会 CVIM March 2004)。
The processing steps for background point trajectory classification are briefly described below.
(1) Extract three-point trajectories from L-frame trajectory vectors (2 L-dimensional vectors connecting L point trajectories).
(2) A moment matrix M2 (2L × 2L dimensions) around the center of gravity of the extracted vector is calculated.
(3) A unit eigenvector corresponding to two eigenvalues having a large M2 is calculated.
(4) A 2L × 2L projection matrix is calculated from the eigenvectors.
(5) Calculate the total number of trajectory vectors for which the discriminant value calculated from the projection matrix is less than or equal to a certain value.
(6) Repeat (1) to (5) at another three points to obtain a projection matrix that maximizes the number calculated in (5), and further use the matrix to obtain a discrimination value similar to (5). Using these, the trajectory vectors are classified into background points and other points.
(7) Projective transformation parameters are calculated from the correspondence of the calculated background points using the renormalization method and set as camera work parameters.
Jyoda, Kanaya et al. "Extracting moving objects from moving video camera images" (Information Processing Society of Japan CVIM March 2004).

非特許文献1の手法においては、カメラモデルに基づく背景に属する点の算出処理、また、背景に属する点を利用してカメラワークパラメータに相当する射影変換パラメータを算出する、という2つのステップが必要であった。このため計算ステップが多くなり、処理速度が遅くなる欠点があった。また、ある一つの特徴点に対してLフレーム長の特徴点追跡履歴を算出した後にその点が背景に属すか否かを判定する必要があり、その途中にカット点の如き急激な画像変化が起こり、且つ対応点が一定数以上誤対応してしまった場合は正常なパラメータ算出ができず、また、変化の起こった点を特定することも難しかった。   The method of Non-Patent Document 1 requires two steps of calculating a point belonging to the background based on the camera model and calculating a projective transformation parameter corresponding to the camera work parameter using the point belonging to the background. Met. For this reason, there are disadvantages that the number of calculation steps increases and the processing speed becomes slow. In addition, after calculating a feature point tracking history of L frame length for a certain feature point, it is necessary to determine whether or not the point belongs to the background, and a sudden image change such as a cut point occurs in the middle. If this occurs and the corresponding points are miscorresponding more than a certain number, normal parameter calculation cannot be performed, and it is also difficult to specify the point where the change has occurred.

この発明は、以上の点を鑑みてなされたものであり、比較的計算速度が早く、画面の急激な変化が起こる時刻を検知することができるカメラワークパラメータ算出方法を提供することをその目的としている。   The present invention has been made in view of the above points, and has as its object to provide a camera work parameter calculation method capable of detecting the time at which a rapid change of the screen occurs at a relatively high calculation speed. Yes.

上記課題を解決するために、請求項1に記載のカメラワークパラメータ算出装置は、必要なフレーム画像を入力し、処理済みのフレーム画像と代表点算出部よりメモリに入出力される代表点を更新して処理に必要なフレーム画像を出力するフレーム画像更新部と、必要に応じて映像中のフレーム画像を入力し特徴となる点を代表点として算出しその座標を出力する代表点算出部と、そのフレーム画像からあるフレーム数だけ後のフレーム画像を参照フレームとしてフレーム画像更新部より入力し、また代表点算出部から代表点座標を入力し、2画像間で比較して算出された代表点と対応する点を参照フレームから算出してその対応する座標の組を出力する対応点算出部と、代表点と算出された対応点を対応点算出部より入力しカメラワークパラメータを冗長に算出することで信頼度の低い点対応の組を取り除いてカメラワークパラメータを算出し出力するカメラワークパラメータ算出部と、代表点と算出されたその対応点やカメラワークパラメータを入力し代表点の算出が必要かどうかを判定し、代表点算出部に必要の有無を出力する代表点算出判定部とを具備している。ここで、特に、カメラワークパラメータ算出部と代表点算出判定部とを具備することにより、比較的速い処理速度でカット点を含む編集済映像などを安定に処理することができる、という効果を奏す。   In order to solve the above-described problem, the camera work parameter calculation apparatus according to claim 1 inputs a necessary frame image, and updates a processed frame image and a representative point input to and output from a representative point calculation unit. A frame image update unit that outputs a frame image necessary for processing, a representative point calculation unit that inputs a frame image in the video as necessary, calculates a characteristic point as a representative point, and outputs its coordinates, The frame image after a certain number of frames from the frame image is input as a reference frame from the frame image update unit, the representative point coordinates are input from the representative point calculation unit, and the representative point calculated by comparing the two images A corresponding point calculation unit that calculates a corresponding point from the reference frame and outputs a corresponding set of coordinates, and a representative point and the calculated corresponding point are input from the corresponding point calculation unit, A camera work parameter calculation unit that calculates and outputs camera work parameters by removing points with low reliability by calculating the meter redundantly, and inputs the corresponding points and camera work parameters calculated as representative points. A representative point calculation determination unit that determines whether or not the calculation of the representative point is necessary, and outputs the necessity to the representative point calculation unit; Here, in particular, by including the camera work parameter calculation unit and the representative point calculation determination unit, it is possible to stably process an edited video including a cut point at a relatively high processing speed. .

また、請求項2に記載のカメラワークパラメータ算出装置は、必要なフレーム画像を入力し、処理済みのフレーム画像と代表点算出部より入出力される代表点を更新して処理に必要なフレーム画像と代表点とを出力するフレーム画像更新部と、必要に応じて映像中のフレーム画像を入力し特徴となる点を代表点として算出しその座標を出力する代表点算出部と、そのフレーム画像から後の映像時刻のフレーム画像を参照フレームとしてフレーム画像更新部より複数枚入力し、また代表点算出部から代表点座標を入力し、代表点の算出されたフレーム画像と複数枚の参照画像の間でそれぞれ比較して代表点と対応する点を複数の参照フレームから算出してその対応する座標の組を複数出力する対応点算出部と、代表点と複数出力された対応点を入力してどの参照フレームを採用すべきか決定し、その参照フレームの番号と代表点、対応点の組を出力するフレーム間隔決定部と、代表点と算出された対応点を対応点算出部より入力してカメラワークパラメータを冗長に算出することで信頼度の低い点対応の組を取り除いてカメラワークパラメータを算出し出力するカメラワークパラメータ算出部と、代表点と算出されたその対応点やカメラワークパラメータを入力し代表点の算出が必要かどうかを判定し、代表点算出部に必要の有無を出力する代表点算出判定部とを具備する。ここで、特に、請求項2のカメラワークパラメータ算出装置において、請求項1の構成に加えてフレーム間隔決定部とこれに対応する構成とを具備することにより、更なる処理速度向上を安定に実施することができるに至る。   The camera work parameter calculation apparatus according to claim 2 inputs a necessary frame image, updates a processed frame image and a representative point input / output from the representative point calculation unit, and a frame image necessary for processing. A frame image update unit that outputs a representative point, a frame image in the video as necessary, a feature point that calculates a characteristic point as a representative point, and outputs the coordinates, and a frame image A plurality of frame images at a later video time are input as reference frames from the frame image update unit, and representative point coordinates are input from the representative point calculation unit, and the frame image between the representative point calculated and the plurality of reference images is input. And a corresponding point calculation unit for calculating a point corresponding to the representative point from a plurality of reference frames and outputting a plurality of pairs of the corresponding coordinates, and a corresponding point output to the representative point and the plurality of corresponding points. To determine which reference frame should be adopted, and to input the reference frame number, representative point, and corresponding point set frame interval determination unit, and input the representative point and calculated corresponding point from the corresponding point calculation unit The camerawork parameter calculation unit that calculates and outputs the camerawork parameter by removing the pair corresponding to the point with low reliability by calculating the camerawork parameter redundantly, and the corresponding point calculated by the representative point and the camerawork A representative point calculation determination unit that inputs a parameter, determines whether or not the calculation of a representative point is necessary, and outputs the necessity to the representative point calculation unit; Here, in particular, in the camera work parameter calculation device according to claim 2, in addition to the configuration of claim 1, the frame interval determination unit and the configuration corresponding thereto are provided to further improve the processing speed stably. To be able to.

請求項3に記載のカメラワークパラメータ算出部は、代表点と算出された対応点との組合せの中からパラメータ算出に必要な最低点組数より多くの点組数を選択する点組合せ冗長選択部と、複数のカメラワークパラメータを算出する暫定パラメータ算出部と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証部と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定部とを具備する。ここで、請求項3に記載のカメラワークパラメータ算出装置は、上述した点組合せ冗長選択部と暫定パラメータ算出部とパラメータ検証部とカメラワークパラメータ決定部と、それら全てを具備することにより、非特許文献1の奏する効果と類似した効果、即ち、動物体の動きの影響を抑えたカメラワークパラメータの算出を比較的に速い処理速度にて実行することができるに至る。   The camera work parameter calculation unit according to claim 3, wherein the point combination redundancy selection unit selects a number of point pairs more than the minimum number of point sets necessary for parameter calculation from combinations of representative points and calculated corresponding points. A temporary parameter calculation unit that calculates a plurality of camera work parameters, a parameter verification unit that determines whether the value is reliable by performing threshold processing based on the degree of dispersion of the variance value, and the camera work using only the reliable value A camera work parameter determination unit for determining parameters. Here, the camera work parameter calculation apparatus according to claim 3 is provided with a point combination redundancy selection unit, a provisional parameter calculation unit, a parameter verification unit, a camera work parameter determination unit, and all of them. An effect similar to that produced by Document 1, that is, calculation of camera work parameters with suppressed influence of the movement of the moving object can be executed at a relatively high processing speed.

また、請求項4に記載のカメラワークパラメータ算出部は、代表点と算出された対応点を入力し、その中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択部と、複数のカメラワークパラメータを算出する暫定パラメータ算出部と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証部と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定部と、決定されたカメラワークパラメータを入力し、それが正常かどうか判定して異常な場合を算出不能な時刻として記憶或いは出力するカメラワークパラメータ正常判定部とを具備する。ここで、請求項4において、請求項3のカメラワークパラメータ算出装置に加えて、カメラワークパラメータ正常判定部を具備することにより、カット点など映像の急激な変化を検知して安定なパラメータ算出を可能にし、或いはパラメータ算出が不安定な映像区間を検知することができる効果を奏す。   In addition, the camera work parameter calculation unit according to claim 4 inputs a representative point and the calculated corresponding point, and selects a point combination redundancy selection unit that selects more points than the minimum number necessary for parameter calculation from among them A temporary parameter calculation unit that calculates a plurality of camera work parameters, a parameter verification unit that determines whether the values are reliable by performing threshold processing based on the degree of dispersion of the variance values, and the camera work parameters using only reliable values A camera work parameter determination unit that determines the camera work parameter, inputs the determined camera work parameter, determines whether it is normal, and stores or outputs the abnormal case as an uncalculated time. To do. Here, in claim 4, in addition to the camera work parameter calculation device of claim 3, a camera work parameter normality determination unit is provided to detect a sudden change in the image such as a cut point and perform stable parameter calculation. This makes it possible to detect a video section in which parameter calculation is unstable or unstable.

また、上記課題を解決するために、請求項5に記載のカメラワークパラメータ算出方法は、必要なフレーム画像を入力し、処理済みのフレーム画像と代表点算出部よりメモリに入出力される代表点を更新して処理に必要なフレーム画像を出力するフレーム画像更新手順と、必要に応じて映像中のフレーム画像を入力し特徴となる点を代表点として算出しその座標を出力する代表点算出手順と、そのフレーム画像からあるフレーム数だけ後のフレーム画像を参照フレームとしてフレーム画像更新部より入力し、また代表点算出部から代表点座標を入力し、2画像間で比較して算出された代表点と対応する点を参照フレームから算出してその対応する座標の組を出力する対応点算出手順と、代表点と算出された対応点との組を対応点算出手順より入力しカメラワークパラメータを冗長に算出することで信頼度の低い点対応の組を取り除いてカメラワークパラメータを算出し出力するカメラワークパラメータ算出手順と、代表点と算出されたその対応点やカメラワークパラメータを入力し代表点の算出が必要かどうかを判定し、代表点算出手順に必要の有無を出力する代表点算出判定手順とを有することを特徴としている。ここで、特に、カメラワークパラメータ算出手順と代表点算出判定手順とを有することにより、比較的速い処理速度でカット点を含む編集済映像などを安定に処理することができる、という効果を奏す。   In order to solve the above-mentioned problem, the camera work parameter calculation method according to claim 5 inputs a necessary frame image and inputs / outputs the processed frame image and the representative point input / output to / from the representative point calculation unit. Frame image update procedure for updating the frame image and outputting the frame image necessary for processing, and if necessary, the frame image in the video is input, the characteristic point is calculated as the representative point, and the coordinates are output The frame image after a certain number of frames from the frame image is input as a reference frame from the frame image update unit, the representative point coordinates are input from the representative point calculation unit, and the representative image is calculated by comparison between the two images. A corresponding point calculation procedure for calculating a point corresponding to a point from the reference frame and outputting the corresponding coordinate pair, and a pair of the representative point and the calculated corresponding point according to the corresponding point calculation procedure The camera work parameter calculation procedure for calculating and outputting the camera work parameter by removing the pair corresponding to the point with low reliability by calculating the camera work parameter redundantly, and the corresponding point and the camera work calculated as the representative point And a representative point calculation determination procedure for determining whether or not the calculation of a representative point is necessary by inputting a parameter and outputting whether or not the representative point calculation procedure is necessary. Here, in particular, by having the camera work parameter calculation procedure and the representative point calculation determination procedure, there is an effect that an edited video including a cut point can be stably processed at a relatively high processing speed.

また、請求項6に記載のカメラワークパラメータ算出方法は、必要なフレーム画像を入力し、処理済みのフレーム画像と代表点算出手順より入出力される代表点を更新して処理に必要なフレーム画像と代表点とを出力するフレーム画像更新手順と、必要に応じて映像中のフレーム画像を入力し特徴となる点を代表点として算出しその座標を出力する代表点算出手順と、そのフレーム画像から後の映像時刻のフレーム画像を参照フレームとしてフレーム画像更新手順より複数枚入力し、また代表点算出部から代表点座標を入力し、代表点の算出されたフレーム画像と複数枚の参照画像の間でそれぞれ比較して代表点と対応する点を複数の参照フレームから算出して、その対応する座標の組を複数出力する対応点算出手順と、代表点と複数出力された対応点を入力してどの参照フレームを採用すべきか決定し、その参照フレームの番号と代表点、対応点の組を出力するフレーム間隔決定手順と、代表点と算出された対応点を対応点算出手順により入力してカメラワークパラメータを冗長に算出することで信頼度の低い点対応の組を取り除いてカメラワークパラメータを算出し出力するカメラワークパラメータ算出手順と、代表点と算出されたその対応点やカメラワークパラメータを入力し代表点の算出が必要かどうかを判定し、代表点算出手順に対し必要の有無を出力する代表点算出判定手順とを有することを特徴とする。ここで、特に、請求項6のカメラワークパラメータ算出方法において、請求項5の構成に加えてフレーム間隔決定手順とこれに対応する手順とを具備することにより、更なる処理速度向上を安定に実施することができるに至る。   The camera work parameter calculation method according to claim 6 inputs a necessary frame image, updates a processed frame image and a representative point inputted / outputted from a representative point calculation procedure, and a frame image necessary for processing. A frame image update procedure for outputting a representative point and a frame point in the video as necessary, calculating a feature point as a representative point and outputting the coordinates as necessary, and a frame point update procedure from the frame image A plurality of frame images at a later video time are input as reference frames from the frame image update procedure, and representative point coordinates are input from the representative point calculation unit, and the frame image between the representative point calculated and the plurality of reference images is input. The corresponding point calculation procedure for calculating the points corresponding to the representative points from the plurality of reference frames and outputting the corresponding pairs of coordinates, and the representative points and the plurality of outputs. Input corresponding points to determine which reference frame should be adopted, frame interval determination procedure for outputting the reference frame number and representative point, pair of corresponding points, and representative points and calculated corresponding points as corresponding points Camerawork parameter calculation procedure that calculates and outputs camerawork parameters by removing the pair of low-reliability points by inputting the calculation procedure and calculating camerawork parameters redundantly, and the corresponding points calculated as representative points A representative point calculation determination procedure for inputting a point or a camera work parameter, determining whether or not a representative point calculation is necessary, and outputting whether or not the representative point calculation is necessary. Here, in particular, in the camera work parameter calculation method according to claim 6, in addition to the configuration of claim 5, the frame interval determination procedure and the corresponding procedure are provided, thereby further improving the processing speed stably. To be able to.

請求項7に記載のカメラワークパラメータ算出方法は、代表点と算出された対応点との組合せの中からパラメータ算出に必要な最低点組数より多くの点組数を選択する点組合せ冗長選択手順と、複数のカメラワークパラメータを算出する暫定パラメータ算出手順と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証手順と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定手順とを有することを特徴とする。ここで、請求項7に記載のカメラワークパラメータ算出方法は、上述した点組合せ冗長選択手順、暫定パラメータ算出手順、パラメータ検証手順、およびカメラワークパラメータ決定部、それら全てを有することにより、非特許文献1の奏する効果と類似した効果、即ち、動物体の動きの影響を抑えたカメラワークパラメータの算出を比較的に速い処理速度にて実行することができるに至る。   8. The camera work parameter calculation method according to claim 7, wherein a point combination redundancy selection procedure for selecting a number of point pairs more than a minimum number of point pairs necessary for parameter calculation from combinations of representative points and calculated corresponding points. A provisional parameter calculation procedure for calculating a plurality of camera work parameters, a parameter verification procedure for determining whether the values are reliable by performing threshold processing based on the degree of dispersion of the variance values, and the camera work using only reliable values. And a camera work parameter determining procedure for determining the parameter. Here, the camera work parameter calculation method according to claim 7 has the above-described point combination redundancy selection procedure, provisional parameter calculation procedure, parameter verification procedure, and camera work parameter determination unit, all of which, The effect similar to the effect of No. 1, that is, the calculation of the camera work parameter while suppressing the influence of the movement of the moving object can be executed at a relatively high processing speed.

また、請求項8に記載のカメラワークパラメータ算出方法は、代表点と算出された対応点を入力し、その中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択手順と、複数のカメラワークパラメータを算出する暫定パラメータ算出手順と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証手順と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定手順と、決定されたカメラワークパラメータを入力し、それが正常かどうか判定して異常な場合を算出不能な時刻として記憶或いは出力するカメラワークパラメータ正常判定手順とを備えたことを特徴とする。ここで、請求項8において、請求項7のカメラワークパラメータ算出方法に加えて、カメラワークパラメータ正常判定手順を有することにより、カット点など映像の急激な変化を検知して安定なパラメータ算出を可能にし、或いはパラメータ算出が不安定な映像区間を検知することができる効果を奏す。   A camera work parameter calculation method according to claim 8 is a point combination redundancy selection procedure in which a representative point and a calculated corresponding point are input, and more points than the minimum number necessary for parameter calculation are selected therefrom. , A provisional parameter calculation procedure for calculating a plurality of camera work parameters, a parameter verification procedure for determining whether the values are reliable by performing threshold processing according to the degree of dispersion of the variance values, and the camera work parameters using only reliable values A camera work parameter determination procedure for inputting the determined camera work parameter, and determining whether the camera work parameter is normal and storing or outputting the abnormal case as an uncalculated time. It is characterized by that. Here, in claim 8, in addition to the camera work parameter calculation method of claim 7, by having a camera work parameter normal determination procedure, it is possible to detect a sudden change in an image such as a cut point and to calculate a stable parameter. Alternatively, it is possible to detect a video section in which parameter calculation is unstable.

請求項9として請求項5、請求項6、請求項7、請求項8の内の何れかに記載されるカメラワークパラメータ算出方法を実行すべき指令をコンピュータに対してするカメラワークパラメータ算出プログラムを構成することを特徴とする。
請求項10として、請求項9に記載されるカメラワークパラメータ算出プログラムを記憶した記憶媒体を構成することを特徴とする。
A camera work parameter calculation program for instructing a computer to execute a camera work parameter calculation method according to any one of claims 5, 6, 7, and 8 as claim 9. It is characterized by comprising.
According to a tenth aspect of the present invention, a storage medium storing the camera work parameter calculation program according to the ninth aspect is configured.

この発明によれば、特徴点を代表点として代表点マッチングを行うことでフレーム間における対応点を算出し、カメラワークパラメータを算出する。なお、特徴点として算出される画像上の点としては、例えば四角形の角のような画像上である程度以上の輝度勾配を持つ角の点を選ぶことで比較的安定した追跡を行えることが知られている。次に、フレーム間での対応関係から射影変換などのフレーム間カメラワークパラメータを算出する。ロバストなカメラワークパラメータ算出を行うために、カメラワークパラメータを冗長に算出しアウトライアの除去を行う。アウトライアとは背景点と見なせない軌跡を持つ点軌跡を指し、動物体上の特徴点や誤追跡の生じた軌跡のことである。即ち、射影変換などのカメラワークパラメータ算出の際には連立一次方程式を解くことになるが、その算出に必要な代表点、対応点の数より多い点数を利用して複数の暫定的なカメラワークパラメータを算出し、算出されたカメラワークパラメータの値のばらつきが大きなものを不適切なカメラワークパラメータと判定することでアウトライアを少なくしたカメラワークパラメータ算出を行う。なお暫定的に算出するカメラワークパラメータの個数は、算出可能な最大個数より少なく2よりは多い個数であれば良い。運動物体がカメラワークモデルに当てはまらない動きをしている場合や背景に代表点が充分な数存在していれば、画像の過半数の画素を動物体による画素が占めている場合でもカメラワークパラメータを算出することができる。この作用は非特許文献1でもあるが、この発明では計算コストの比較的少ない計算方法を発明した。   According to the present invention, corresponding points between frames are calculated by performing representative point matching using feature points as representative points, and camera work parameters are calculated. Note that it is known that relatively stable tracking can be performed by selecting a corner point having a luminance gradient of a certain degree or more on the image, such as a square corner, as a point on the image calculated as a feature point. ing. Next, inter-frame camera work parameters such as projective transformation are calculated from the correspondence between the frames. In order to perform robust camera work parameter calculation, camera work parameters are calculated redundantly and outliers are removed. An outlier is a point trajectory that has a trajectory that cannot be considered as a background point, and is a trajectory on a moving object or a feature point on a moving object. That is, when calculating camera work parameters such as projective transformation, simultaneous linear equations are solved, but a plurality of temporary camera works are used by using more points than the representative points and corresponding points necessary for the calculation. The camera work parameters are calculated by reducing the outliers by calculating the parameters, and determining that the calculated camera work parameters have large variations as inappropriate camera work parameters. The number of camerawork parameters to be tentatively calculated may be any number that is less than the maximum number that can be calculated and greater than two. If the moving object moves in a way that does not apply to the camera work model, or if there are a sufficient number of representative points in the background, the camera work parameters can be set even if the majority of the pixels are occupied by pixels from the moving object. Can be calculated. Although this effect is also non-patent document 1, the present invention has invented a calculation method with relatively low calculation cost.

処理速度に関して、上記代表点マッチングに加えて動きベクトル算出におけるフレーム間隔を1フレーム毎ではなく数フレーム毎或いは可変にして、動きの少ない、或いはカメラワークのほとんど無いフレーム間の場合は複数フレーム飛ばしでカメラワークパラメータを算出することで速度向上を行う。また、パラメータの算出を2フレーム間の代表点の対応関係を用いてアウトライア除去の際に同時に行うため、非特許文献1に比べて計算コストを減少させられる。
計算コストについて非特許文献1と比較する。非特許文献1においてはアウトライア除去に用いる背景点分類に2M×2M次元行列の固有値、固有ベクトルを算出するステップがあり、この算出オーダーはO(M2 )であるといわれている。各特徴点の3点の組においてこのオーダーの処理が必要となる。一方、後述される図4のカメラワークパラメータ算出の際のアウトライア除去における算出オーダーは、各代表点3点の組についてMフレームでO(M)である。これは後述のカメラワークパラメータ算出を含めない算出オーダーである。それ以外の処理としてカメラワークパラメータ算出の連立一次方程式を解く処理は両者とも同様に必要であり、アウトライア除去処理の面で高速であることが分かる。
Regarding the processing speed, in addition to the above representative point matching, the frame interval in motion vector calculation is made variable every few frames instead of every frame, and in the case of frames with little motion or almost no camera work, skip multiple frames. Speed is improved by calculating camera work parameters. In addition, since the calculation of parameters is performed simultaneously with the removal of outliers using the correspondence between representative points between two frames, the calculation cost can be reduced compared to Non-Patent Document 1.
The calculation cost is compared with Non-Patent Document 1. In Non-Patent Document 1, there is a step of calculating eigenvalues and eigenvectors of a 2M × 2M dimensional matrix for background point classification used for outlier removal, and this calculation order is said to be O (M 2 ). This order processing is required for a set of three feature points. On the other hand, the calculation order in the outlier removal at the time of camera work parameter calculation in FIG. 4 described later is O (M) in M frames for a set of three representative points. This is a calculation order not including camerawork parameter calculation described later. It is understood that both the processes for solving the simultaneous linear equations for calculating the camera work parameters are necessary in the same way, and that the process is fast in terms of outlier removal processing.

上述した通り、比較的速い計算速度でアウトライアを排したカメラワークパラメータを算出することができる。そして、カメラワークパラメータを算出することができないカット点、或いは急激な画像変化などの生じた時刻も同時に算出することができる。   As described above, it is possible to calculate camera work parameters that exclude outliers at a relatively high calculation speed. Then, a cut point where camerawork parameters cannot be calculated, or a time when a sudden image change occurs can be calculated at the same time.

以下、図の実施例を参照して更に具体的に説明する。
図1は請求項1に対応するカメラワークパラメータ算出装置の実施例を説明するブロック図である。
映像蓄積部101は、カメラワークパラメータ算出装置に入力して画像処理されるべき映像が蓄積されている記憶部位である。
映像入力部102は、映像蓄積部101からユーザのキーボードによるコマンドなどにより選択される映像、或いは自動的に映像蓄積部101から選択される映像を入力する装置である。入力された映像が符号化されている場合はここで個々の既存の映像符号化技術を用いてデコードしてフレーム画像毎に分割して入力する。
Hereinafter, a more specific description will be given with reference to the illustrated embodiment.
FIG. 1 is a block diagram for explaining an embodiment of a camera work parameter calculation apparatus corresponding to claim 1.
The video storage unit 101 is a storage part that stores video to be input to the camera work parameter calculation device and to be processed.
The video input unit 102 is a device that inputs a video selected from the video storage unit 101 by a user's keyboard command or the like, or a video automatically selected from the video storage unit 101. If the input video is encoded, it is decoded using each existing video encoding technique and divided into frame images for input.

フレーム画像更新部103は、映像入力部102を介して入力された映像から次段の対応点算出部105に入力すべきフレーム画像を選択して出力したりメモリ100に記憶したりする部位である。フレーム画像更新部103での初期の読み込みにおいては、処理対象フレームをメモリ100の中でフレーム番号(映像時刻)の最も小さなものとし、参照フレームを次フレーム或いはそれ以降のフレーム画像として次段の処理を行う。更新するループ処理においては、現在の参照フレームより前のフレーム画像をクリアし、現参照フレームを次の処理対象フレームにし、また次の参照フレーム画像になるべきフレーム画像を映像入力部102から入力することで参照フレーム画像も入力する。   The frame image update unit 103 is a part that selects and outputs a frame image to be input to the corresponding point calculation unit 105 in the next stage from the video input via the video input unit 102 or stores it in the memory 100. . In the initial reading by the frame image update unit 103, the processing target frame is the one with the smallest frame number (video time) in the memory 100, and the next frame is processed with the reference frame as the next frame or a subsequent frame image. I do. In the updating loop processing, the frame image before the current reference frame is cleared, the current reference frame is set as the next processing target frame, and the frame image to be the next reference frame image is input from the video input unit 102. Thus, the reference frame image is also input.

代表点算出部104は、処理対象フレーム画像を入力しその画像から特徴点を探索し、その座標を代表点座標として記憶するための装置である。この処理は、例えば、非特許文献2の4節に記載の技術などの既存技術で実現可能である。即ち、例えば、画像の2x2の輝度勾配行列の固有値の小さな方が一定値以上である点を、その値が大きなものから優先的に所望の数だけ選ぶことで角にあたる特徴点を所望の上限点数だけ算出することが可能である。なお、特徴点算出技術としては、単純に画像の輝度勾配のx、y方向両者の絶対値の大きな点を代表点の決定基準とするなどの他の既存手法を利用することも勿論可能である。この装置における処理は読み込まれた初期フレームや後段の対応点算出部105、代表点算出判定部107などで代表点算出フラグが立てられた時に行われる。   The representative point calculation unit 104 is a device for inputting a processing target frame image, searching for a feature point from the image, and storing the coordinates as representative point coordinates. This process can be realized by an existing technique such as the technique described in Section 4 of Non-Patent Document 2. That is, for example, by selecting a desired number of points having a smaller eigenvalue of a 2 × 2 luminance gradient matrix of an image that is equal to or greater than a predetermined value from a larger value, a feature point corresponding to a corner is determined as a desired upper limit score. It is possible to calculate only. As a feature point calculation technique, it is of course possible to use other existing methods such as simply using a point having a large absolute value in both the x and y directions of the luminance gradient of the image as a criterion for determining a representative point. . The processing in this apparatus is performed when the representative point calculation flag is set in the read initial frame, the corresponding point calculation unit 105 in the subsequent stage, the representative point calculation determination unit 107, or the like.

対応点算出部105は入力された処理対象フレーム画像上の代表点に対応する点を参照フレーム画像内で探索する部位である。この処理には例えば参照文献1の3節の技術などを利用することで実現可能である。また上記手法で定義される非類似度(“dissimilarity”)を閾値処理することで画像上から消失した点を判定することができる。消失した処理対象フレームの特徴点の座標は消去してもよい。
対応点の算出の別例としては代表点の周辺画素を用いたブロックマッチングや、動き補償を用いた符号化がなされた映像に対して、その代表点座標の属するマクロブロックにおける動き補償ベクトルとその座標との和を利用するなど、対応点を算出する他の手法を利用することも勿論可能である。ここで周辺画素の残差絶対値総和などの点対応の評価値がある閾値以下の点は消失したと判断することができる。
The corresponding point calculation unit 105 is a part that searches the reference frame image for a point corresponding to the representative point on the input processing target frame image. This processing can be realized by using, for example, the technique described in Section 3 of Reference Document 1. Further, by performing threshold processing on the dissimilarity (“dissimilarity”) defined by the above method, it is possible to determine a point that has disappeared from the image. The coordinates of the feature points of the lost processing target frame may be deleted.
As another example of the calculation of corresponding points, a motion compensation vector in a macroblock to which the representative point coordinates belong and an image that has been encoded using block matching or motion compensation using the peripheral pixels of the representative point and its It is of course possible to use other methods for calculating corresponding points, such as using the sum of coordinates. Here, it can be determined that points whose evaluation values corresponding to points, such as the sum of residual absolute values of neighboring pixels, are below a certain threshold value have disappeared.

カメラワークパラメータ算出部106は、処理対象フレームおよび参照フレームの2フレーム間で算出された対応点組集合からカメラワークパラメータを算出する部位である。この動作については図3、図4のフローチャートを参照して後で詳細に説明される。
代表点算出判定部107は、対応点算出部105の結果を受けて現フレームの特徴点を算出しなおすべきか否かを判定する部位である。この動作については図2のS204、S206、S209を参照して、後で詳細に説明される。
処理結果出力部108は、算出された各フレームにおけるカメラワークパラメータ、抽出物体の座標、特徴点、フレーム画像等を記憶装置に格納したり、ユーザに見えるように表示したりする部位である。なおメモリ100の中には処理対象フレーム画像、参照フレーム画像、代表点算出フラグ、代表点座標集合、対応点座標集合などがそれぞれ記憶可能とする。
The camera work parameter calculation unit 106 is a part that calculates a camera work parameter from a set of corresponding points calculated between two frames of a processing target frame and a reference frame. This operation will be described in detail later with reference to the flowcharts of FIGS.
The representative point calculation determination unit 107 is a part that receives the result of the corresponding point calculation unit 105 and determines whether or not the feature point of the current frame should be calculated again. This operation will be described in detail later with reference to S204, S206, and S209 of FIG.
The processing result output unit 108 is a part that stores camerawork parameters, coordinates of extracted objects, feature points, frame images, and the like in each frame in a storage device or displays them so as to be visible to the user. In the memory 100, a processing target frame image, a reference frame image, a representative point calculation flag, a representative point coordinate set, a corresponding point coordinate set, and the like can be stored.

また、各結線に流れるデータはそれぞれ始めにIDなどが付され、どの箇所で処理すべきデータかを判別可能であり、各部位はそれぞれ自分の処理すべきデータのみ入力しそれ以外は無視するなどのデータ制御を行うものとする。
図2は図1のカメラワークパラメータ算出装置の具体的な処理手順の内容を記述したフローチャートである。また、実施例5と実施7との組合せに対応するカメラワークパラメータ算出方法の具体的な記述でもある。なお、このフローチャートではリトライフラグは未使用である。リトライフラグは図5で利用する。
In addition, the data that flows through each connection is first given an ID, etc., so that it is possible to determine where the data should be processed. Each part inputs only its own data and ignores the rest. Data control shall be performed.
FIG. 2 is a flowchart describing the contents of a specific processing procedure of the camera work parameter calculation apparatus of FIG. This is also a specific description of the camera work parameter calculation method corresponding to the combination of the fifth embodiment and the seventh embodiment. In this flowchart, the retry flag is not used. The retry flag is used in FIG.

(S201) 映像蓄積部101から映像入力部102へ映像を読み込み、映像入力部102にてフレーム毎の画像に変換して出力し、その映像の初期の処理対象フレーム画像(第1フレーム)と初期の参照フレーム画像(フレーム番号F+1のフレーム画像。Fは自然数の定数)をメモリに入力する。またメモリ100上の代表点算出フラグをオンにする。処理対象フレーム画像と参照フレーム画像をフレーム画像更新部103へ出力し、S202へ移る。   (S201) The video is read from the video storage unit 101 to the video input unit 102, converted into an image for each frame by the video input unit 102 and output, and the initial processing target frame image (first frame) of the video and the initial The reference frame image (frame image of frame number F + 1, F is a natural number constant) is input to the memory. Also, the representative point calculation flag on the memory 100 is turned on. The processing target frame image and the reference frame image are output to the frame image update unit 103, and the process proceeds to S202.

(S202) 請求項5および請求項6の代表点算出手順の具体例である。S201により、或いはS207によりメモリ100に記憶されている処理対象フレーム画像と参照フレーム画像を代表点算出部104へ入力し、代表点算出の必要がある時には処理対象フレーム画像上の特徴点を算出し、代表点P=[p(i)]としてメモリ100に座標を記憶する。この特徴点算出技術については前述の非特許文献2の4節などを利用して行うことができる。なお、特徴点の算出は、単純に画像の輝度勾配のx,y方向両者の絶対値の局所的最大の点を代表点とするなどの他の既存手法を利用することも勿論可能である。ここで得られた特徴点の数 Num(P)をメモリ100に記憶する。また代表点算出フラグをオフにする。処理対象フレーム画像とその代表点の座標、参照フレーム画像を対応点算出部へ出力してS203へ移る。なお、フレーム画像更新部103における更新処理の内容はS207の説明において述べる。また代表点算出の必要があるかどうかの判定はS209において行なう。    (S202) This is a specific example of the representative point calculation procedure of claims 5 and 6. The processing target frame image and the reference frame image stored in the memory 100 by S201 or S207 are input to the representative point calculation unit 104, and feature points on the processing target frame image are calculated when the representative point needs to be calculated. The coordinates are stored in the memory 100 as the representative point P = [p (i)]. This feature point calculation technique can be performed using Section 4 of Non-Patent Document 2 described above. It should be noted that the feature points can be calculated using other existing methods such as simply using the local maximum point of the absolute value in both the x and y directions of the luminance gradient of the image as a representative point. The number Num (P) of feature points obtained here is stored in the memory 100. Also, the representative point calculation flag is turned off. The processing target frame image, the coordinates of the representative point, and the reference frame image are output to the corresponding point calculation unit, and the process proceeds to S203. The contents of the update process in the frame image update unit 103 will be described in the description of S207. In addition, it is determined in step S209 whether the representative point needs to be calculated.

(S203) 請求項5の対応点算出手順の具体例である。また、この処理は対応点算出部105の実行する処理である。処理対象フレーム画像と参照フレーム画像をメモリ100より、その代表点座標を代表点算出部よりそれぞれ入力し、処理対象フレーム画像における代表点座標に対応する点を参照フレーム画像中から探し、算出された対応点の座標をメモリ100に記憶する。この手順については非特許文献2の第3節に記載される技術を利用することができる。また消失した処理対象フレームの代表点の座標は消去することもできる。対応点算出の別の例としては代表点の周辺画素を用いたブロックマッチングや、動き補償を用いた符号化がなされた映像に対して、その代表点座標の属するマクロブロックにおける動き補償ベクトルとその座標との和を利用するなど、対応点を算出する他の手法を利用することも勿論可能である。ここで周辺画素の残差絶対値総和などの点対応の評価値がある閾値以下の点は消失したと判断することができる。なお、何れの例についても、算出された対応点の座標をメモリ100に格納し、その点数Num(P’)を代表点算出判定部107へ出力し、また、代表点座標とその対応点座標をカメラワークパラメータ算出部106へ出力してS204へ移行する。   (S203) This is a specific example of the corresponding point calculation procedure of claim 5. This process is a process executed by the corresponding point calculation unit 105. The processing target frame image and the reference frame image are input from the memory 100 and the representative point coordinates thereof are input from the representative point calculation unit, respectively, and a point corresponding to the representative point coordinates in the processing target frame image is searched from the reference frame image and calculated. The coordinates of the corresponding points are stored in the memory 100. For this procedure, the technique described in Section 3 of Non-Patent Document 2 can be used. In addition, the coordinates of the representative point of the lost processing target frame can be deleted. Another example of the corresponding point calculation is a motion compensation vector in a macroblock to which the representative point coordinates belong and an image that has been encoded using block matching or motion compensation using the peripheral pixels of the representative point, It is of course possible to use other methods for calculating corresponding points, such as using the sum of coordinates. Here, it can be determined that points whose evaluation values corresponding to points, such as the sum of residual absolute values of neighboring pixels, are below a certain threshold value have disappeared. In any example, the coordinates of the corresponding points calculated are stored in the memory 100, and the number Num (P ′) of the corresponding points is output to the representative point calculation determination unit 107. The representative point coordinates and the corresponding point coordinates are also output. Is output to the camera work parameter calculation unit 106, and the process proceeds to S204.

(S204) 請求項5の代表点算出判定手順の具体例である。また、この処理は代表点算出判定部107の実行する処理の一部である。S203にて算出された対応点と対応点数をメモリ100から入力し、このフレームにおける処理のスキップ判定を行い、また代表点再算出の必要の有無を判定する。始めに対応点数が極端に減少しているか否かによってスキップ判定を行なう。即ち対応点数が上記とは別の閾値より少なくなっている場合はスキップすると判定しS206へ、それ以外の場合はS205へそれぞれ移る。スキップ判定における閾値の例としては、次ステップS205のカメラワークパラメータ算出に必要な最低点数(後述の図3中の数値M')、それに1以上のある数を乗じたもの、あるいは記憶された数Num(P’)にある数(0〜1)を乗じたもの、あるいはある一定の数など様々な数値を利用することが可能である。次に代表点の再算出が必要か判定する。この判定に利用するのは、例えば、対応点数の条件、対応点の位置関係である。対応点数の条件としては算出された対応点数がある数値Vpnより大の時は次回の処理において代表点を算出し直す必要は無いと判定し、Vpn以下の時は代表点を取り直す必要が有ると判定する。ここにおいては、一例として、S203で記憶された対応点数Num(P’)に0から1までの実数を乗じた値をVpnとして採用する。また、対応点の位置関係の条件としては、例えば、算出された対応点毎に隣接対応点までの距離を算出し、その中間値が閾値を下回ったときに次回の処理において代表点を取り直す必要が有ると判定する。位置関係の条件の例としては、他にも、対応点座標のx、y成分それぞれの分散値の最小値なども利用して良い。位置条件の閾値の例としてS202にて算出された代表点について、位置関係の何れかの条件の値の一定割合を利用するなどできる。また、対応点の位置関係の条件として別の例としては前記と同様に隣接点までの距離の平均値が閾値以下の場合、または対応点座標x, yそれぞれについての分散値の和、もしくは小さい方の値、もしくは大きい方の値が閾値を超えたときに代表点を取り直す必要有と判定する、などの例がある。この対応点数の条件、位置関係の条件の何れかによって代表点を取り直す必要があると判定された場合は代表点算出フラグをセット(ON)にする。或いは対応点数の条件、対応点の位置関係の条件のいずれか一方のみを用いて代表点の再算出判定を行なってもよい。   (S204) This is a specific example of the representative point calculation determination procedure of claim 5. This process is a part of the process executed by the representative point calculation determination unit 107. The corresponding points and the number of corresponding points calculated in S203 are input from the memory 100, the process skip determination in this frame is performed, and whether or not the representative point recalculation is necessary is determined. First, a skip determination is made based on whether or not the number of corresponding points is extremely reduced. That is, if the number of corresponding points is smaller than a threshold different from the above, it is determined to skip, and the process proceeds to S206, and otherwise, the process proceeds to S205. As an example of the threshold value in the skip determination, the minimum score (numerical value M ′ in FIG. 3 to be described later) necessary for camera work parameter calculation in the next step S205, a value obtained by multiplying by a certain number of 1 or more, or a stored number It is possible to use various numerical values such as a value obtained by multiplying Num (P ′) by a certain number (0 to 1) or a certain number. Next, it is determined whether it is necessary to recalculate the representative points. What is used for this determination is, for example, the condition of the number of corresponding points and the positional relationship of the corresponding points. As a condition for the number of corresponding points, when the calculated number of corresponding points is larger than a certain numerical value Vpn, it is determined that it is not necessary to recalculate the representative points in the next processing, and when the number is less than Vpn, it is necessary to reacquire the representative points. judge. Here, as an example, a value obtained by multiplying the number of corresponding points Num (P ′) stored in S203 by a real number from 0 to 1 is adopted as Vpn. In addition, as a condition of the positional relationship of corresponding points, for example, it is necessary to calculate the distance to the adjacent corresponding point for each calculated corresponding point, and to re-represent the representative point in the next processing when the intermediate value falls below the threshold value It is determined that there is. As an example of the positional relationship condition, the minimum value of the variance value of each of the x and y components of the corresponding point coordinates may be used. As an example of the threshold value of the position condition, for a representative point calculated in S202, a certain ratio of the value of any of the positional relationship conditions can be used. As another example of the positional relationship between corresponding points, as described above, the average value of distances to adjacent points is equal to or less than a threshold value, or the sum of variance values for corresponding point coordinates x and y, or a small value. There is an example in which it is determined that the representative point needs to be taken again when the larger value or the larger value exceeds the threshold value. If it is determined that the representative point needs to be retaken according to either the number of corresponding points or the positional relationship, the representative point calculation flag is set (ON). Alternatively, the representative point recalculation determination may be performed using only one of the condition of the number of corresponding points and the condition of the positional relationship of the corresponding points.

上記の対応点数の条件は映像内の動物体の後ろなどに代表点の多くが隠れてしまい多くの対応点を算出できず消失と判断された場合、あるいは前記の原因が数フレーム間において生じて代表点数が減少し過ぎてしまった際に代表点をもう一度取り直すための判定処理である。また極端に対応点数が減少する場合は急激なカメラワークやカット点などの映像の不連続が生じていると考えられ、その場合はカメラワークパラメータを算出できないためその処理をスキップする。
対応点の位置関係の条件は、非特許文献2の3節の技術を用いて対応点算出を行なった場合、動物体が画面を移動した時対応点が動物体に付随して集中してしまうことがある。この時には対応点の数は多くともほとんどの対応点が動物体上に存在してしまうこともあり、その場合に適切なカメラワークパラメータを算出することができなくなるので、代表点を取り直すための判定として利用するものである。
The above conditions for the number of corresponding points are that many of the representative points are hidden behind the moving object in the video, and many corresponding points cannot be calculated. This is a determination process for re-taking representative points once the number of representative points has decreased too much. In addition, when the number of corresponding points is extremely reduced, it is considered that there is an abrupt discontinuity of the image such as a camera work or a cut point. In this case, since the camera work parameter cannot be calculated, the processing is skipped.
When the corresponding points are calculated using the technique described in Section 3 of Non-Patent Document 2, the corresponding points are concentrated along with the moving object when the moving object moves on the screen. Sometimes. At this time, most of the corresponding points may exist on the moving object at most, and in this case, it is impossible to calculate appropriate camerawork parameters, so the determination to re-represent the representative points It is intended to be used as

(S205) 請求項5および請求項6のカメラワークパラメータ算出手順に対応する処理内容である。またこの処理はカメラワークパラメータ算出部106の処理内容であり、S203にて算出された代表点とその対応点からカメラワークパラメータを算出するステップである。メモリ100より代表点の座標とその対応点の座標をカメラワークパラメータ算出部106へ入力して処理を行なう。或る代表点をカメラワークパラメータ算出に最低必要な数より多く取り出し、カメラワークモデルに当てはめて、1次方程式を複数回解き、複数のカメラワークパラメータを算出し、これら複数の値の分散値の如きばらつき度合を表す値を閾値処理することにより運動物体や対応点算出の誤りなどのアウトライアとなる点を排除したカメラワークパラメータ算出を行う。この処理の詳細については図3を参照して後で説明する。算出されたカメラワークパラメータを記憶或いは出力してS207へ移る。また、算出されたカメラワークパラメータおよび代表点座標、対応点座標を処理結果出力部108および代表点算出判定部107へそれぞれ出力する。   (S205) The processing content corresponding to the camera work parameter calculation procedure of claims 5 and 6. This processing is the processing content of the camera work parameter calculation unit 106, and is a step of calculating camera work parameters from the representative points calculated in S203 and the corresponding points. The coordinates of the representative points and the coordinates of the corresponding points are input from the memory 100 to the camera work parameter calculation unit 106 to perform processing. Take more representative points than the minimum necessary for camerawork parameter calculation, apply them to the camerawork model, solve the linear equation multiple times, calculate multiple camerawork parameters, and calculate the variance of these multiple values. Such a value representing the degree of variation is subjected to threshold processing to calculate camera work parameters that exclude outliers such as moving objects and corresponding point calculation errors. Details of this processing will be described later with reference to FIG. The calculated camera work parameters are stored or output, and the process proceeds to S207. Further, the calculated camera work parameters, representative point coordinates, and corresponding point coordinates are output to the processing result output unit 108 and the representative point calculation determination unit 107, respectively.

(S206) 代表点を算出し直すために代表点算出フラグをオンにしてS207へ移行する。
(S207) 請求項5に記載のフレーム画像更新手順の具体例である。フレーム画像更新部103の処理手順であり、代表点算出判定部107の動作により信号が出力されたタイミングで次に入力すべきフレーム番号の決定を行なう。処理の内容は、現在の参照フレームを次のループにおける処理対象フレームに、算出された対応点を次のループにおける代表点に、それぞれメモリ100を更新する。またその更新された処理対象フレームの次のFフレーム後のフレーム画像をメモリ100に読み込み、参照フレーム画像も更新する。このようにフレーム画像の読み込みはFフレーム毎で飛ばして読みこむこととする(F:自然数の定数)。つまり前回読み込んだのがフレーム番号fの画像の時、次に、読み込むのはフレーム番号f+Fの画像であるとする。この次に読み込むべきフレーム番号を映像入力部102へ出力する。
(S206) In order to recalculate the representative point, the representative point calculation flag is turned on and the process proceeds to S207.
(S207) This is a specific example of the frame image update procedure according to claim 5. This is a processing procedure of the frame image update unit 103, and the frame number to be input next is determined at the timing when the signal is output by the operation of the representative point calculation determination unit 107. As for the processing contents, the memory 100 is updated with the current reference frame as the processing target frame in the next loop and the calculated corresponding point as the representative point in the next loop. Further, the frame image after the F frame next to the updated processing target frame is read into the memory 100, and the reference frame image is also updated. In this way, reading of frame images is skipped every F frames (F: natural number constant). That is, when the image read last time is an image of frame number f, it is assumed that the image read next is an image of frame number f + F. The frame number to be read next is output to the video input unit 102.

(S208) 次に読み込むべきフレーム画像が存在するかどうか、即ち、映像の終りまで読みこんだか否かを判定する。映像入力部102にフレーム画像更新部103から読み込むべきフレーム番号の入力があった時に、この判定を映像入力部102の機能として行なう。映像の最後まで読み込んだ判定の場合は処理を終了し、それ以外の場合では映像入力部102はフレーム画像更新部103へ要求されたフレーム番号を持つフレーム画像を出力する。具体的には現在の参照フレームのフレーム番号にFを加えた値が映像の総フレーム数を超えないかどうかを判定する。超えない場合はS209へ移行し、超える場合は処理を終了する。   (S208) It is determined whether there is a frame image to be read next, that is, whether the image has been read to the end of the video. This determination is performed as a function of the video input unit 102 when a frame number to be read from the frame image update unit 103 is input to the video input unit 102. If it is determined that the video has been read to the end, the process ends. In other cases, the video input unit 102 outputs a frame image having the requested frame number to the frame image update unit 103. Specifically, it is determined whether the value obtained by adding F to the frame number of the current reference frame does not exceed the total number of frames of the video. If not, the process proceeds to S209, and if it exceeds, the process ends.

(S209) 請求項5に記載の代表点算出判定手順の具体例である。また、この処理は代表点算出判定部107において実行される処理である。代表点を算出しなおす必要があるかどうかを代表点算出フラグで判定するステップである。ここでは代表点算出フラグがセットされている(ON)かどうかを、メモリ100を参照して判定し、ONの場合はS202へ移り、OFFの場合はS203へそれぞれ移行する。
図9は図1のカメラワークパラメータ算出部の構成の詳細を説明する図である。また、請求項3に対応する実施例を説明するブロック図でもある。動作の詳細は図3を参照して説明される。
(S209) This is a specific example of the representative point calculation determination procedure according to claim 5. This process is a process executed by the representative point calculation determination unit 107. In this step, it is determined by a representative point calculation flag whether or not it is necessary to recalculate the representative point. Here, whether or not the representative point calculation flag is set (ON) is determined with reference to the memory 100. If ON, the process proceeds to S202, and if OFF, the process proceeds to S203.
FIG. 9 is a diagram for explaining the details of the configuration of the camera work parameter calculation unit in FIG. Moreover, it is also a block diagram explaining the Example corresponding to Claim 3. Details of the operation will be described with reference to FIG.

点組合せ冗長選択部901においては代表点とその対応点の集合を入力し、その中からカメラワークパラメータ算出に必要な個数より多くの点を選択し、その点の組によりパラメータ算出が可能かどうか判定し、可能な場合その組を出力する装置である。なお、一度選択した点の組合せは2度選択しないように記憶する。なおこの部位の動作の詳細は図3のS299、S300、S302、S309、S310で説明される。
暫定パラメータ算出部902では点組合せ冗長選択部901において選択された冗長な点の組からパラメータ算出に必要な組を総当り的に選択し、暫定のカメラワークパラメータを算出し、それらの値を出力する部位である。また、その代表点の組合せと算出された暫定パラメータの値を記憶しておくテーブルとして暫定パラメータ記憶テーブル903を持つ。このテーブルは最終的なカメラワークパラメータをカメラワークパラメータ決定部905で出力し、処理対象フレームが変更になる時にクリアされる。なお、この部位の動作の詳細は図3のS303〜S306において説明される。
In the point combination redundancy selection unit 901, a representative point and a set of corresponding points are input, and more points than the number necessary for camera work parameter calculation are selected from them, and whether parameter calculation is possible with the set of points. It is a device that determines and outputs the set if possible. The combination of points once selected is stored so as not to be selected twice. Details of the operation of this part will be described in S299, S300, S302, S309, and S310 of FIG.
The provisional parameter calculation unit 902 selects a set necessary for parameter calculation from the redundant point pairs selected by the point combination redundancy selection unit 901, calculates provisional camera work parameters, and outputs those values. It is a part to do. Further, a temporary parameter storage table 903 is provided as a table for storing the combinations of the representative points and the calculated temporary parameter values. This table is cleared when the final camera work parameter is output by the camera work parameter determination unit 905 and the processing target frame is changed. Details of the operation of this part will be described in S303 to S306 of FIG.

パラメータ検証部904では暫定パラメータ算出部で算出された複数の暫定カメラワークパラメータのばらつきを分散値等のばらつき度合により検証し、それらの暫定パラメータが信頼できる値かどうか判定する。信頼できる値の場合はそれらの暫定パラメータをカメラワークパラメータ決定部905へ出力する。
カメラワークパラメータ決定部905においてはパラメータ検証部において信頼できると判定されたカメラワークパラメータから1つの暫定カメラワークパラメータを算出し、また点組合せ冗長選択部901にて全ての点の組合せについて処理が終了した後に算出された全ての暫定カメラワークパラメータより1つのカメラワークパラメータに決定する装置である。
The parameter verification unit 904 verifies the variation of the plurality of temporary camera work parameters calculated by the temporary parameter calculation unit based on the degree of variation such as the variance value, and determines whether these temporary parameters are reliable values. If the values are reliable, those temporary parameters are output to the camera work parameter determination unit 905.
The camera work parameter determination unit 905 calculates one provisional camera work parameter from the camera work parameters determined to be reliable by the parameter verification unit, and the point combination redundancy selection unit 901 completes the processing for all combinations of points. The apparatus determines one camera work parameter from all the provisional camera work parameters calculated after the operation.

図3は図9の動作および図2のS205の動作を説明する詳細フローチャートであり、即ち、請求項3に記載されているカメラワークパラメータの算出装置の動作を説明している。また請求項7に記載されているカメラワークパラメータ算出方法の具体的説明でもある。入力は代表点集合P=[p(i)] (i=1,2,…, Np)とその対応点集合P'=[p'(i)] (ただしp(i)とp’(i)が対応しているとする)である。出力はカメラワークパラメータCである。なお、カメラワークパラメータとして算出されるのは代表点p=(x, y, 1)とその対応点p’=(x',y', 1) (両者とも同次座標系)を用いて、式1中ので表される射影変換などの線形変換行列である。式1のカメラワークモデルの場合、カメラワークパラメータ数Mは9であり、パラメータ算出に必要な最低点数NRは5である。具体例は図4を参照して後で説明される。   FIG. 3 is a detailed flowchart for explaining the operation of FIG. 9 and the operation of S205 of FIG. 2, that is, the operation of the camera work parameter calculation apparatus according to claim 3. This is also a specific explanation of the camera work parameter calculation method described in claim 7. The input is a representative point set P = [p (i)] (i = 1, 2,..., Np) and its corresponding point set P ′ = [p ′ (i)] (where p (i) and p ′ (i) ) Is supported). The output is camerawork parameter C. The camerawork parameter is calculated using the representative point p = (x, y, 1) and its corresponding point p ′ = (x ′, y ′, 1) (both are in the same coordinate system). It is a linear transformation matrix such as a projective transformation expressed in Equation 1. In the case of the camera work model of Equation 1, the camera work parameter number M is 9, and the minimum score NR required for parameter calculation is 5. A specific example will be described later with reference to FIG.

(S299) カウンタnを1で初期化する。 (S299) The counter n is initialized with 1.

(S300) 点組合せ冗長選択部901により実行される処理であり、また請求項7および請求項8に記載の点組合せ冗長選択手順の具体例である。代表点座標の集合P(代表点集合と呼ぶ)とそれに対応する対応点座標の集合P’(対応点集合と呼ぶ)を初めに入力し、その入力により処理を開始する。対応点の算出されている代表点集合Pの中から任意のNQ個の点集合Q=[q(j)] (NQ > NR としてj=1,2,…, NQ)を重複のないように取り出す。同様に取り出されたQの対応点の集合Q’も取り出す。なお、このS300の2回目以降はそれぞれ異なる組合せの点集合Qを取り出すこととする。このS300で取り出す点の数NQはパラメータ算出に必要な点数NRより多くなるようにする。メモリにQ、Q’の座標を記憶し、S302へQ、Q’の座標を出力する。   (S300) This process is executed by the point combination redundancy selection unit 901, and is a specific example of the point combination redundancy selection procedure according to claims 7 and 8. A set of representative point coordinates P (referred to as a representative point set) and a corresponding set of corresponding point coordinates P ′ (referred to as a corresponding point set) are input first, and the processing is started by the input. Arbitrary NQ point sets Q = [q (j)] (where NQ> NR and j = 1, 2,..., NQ) from the representative point set P for which corresponding points have been calculated not to overlap. Take out. Similarly, a set Q ′ of corresponding points of Q extracted is also extracted. In the second and subsequent steps of S300, point sets Q having different combinations are extracted. The number NQ of points extracted in S300 is set to be larger than the number NR required for parameter calculation. The coordinates of Q and Q 'are stored in the memory, and the coordinates of Q and Q' are output to S302.

(S301) カウンタmを0で初期化してS302へ移行する。
(S302) 点組合せ冗長選択部901により実行される処理であり、また請求項7および請求項8に記載の点組合せ冗長選択手順の具体例である。S301より入力されるQによって式1を用いてパラメータが安定に算出できるか否かを判定する。つまり、Q内の任意の3点が同一直線上に存在するなどの場合、算出が不安定とする。
例えば、Q内の任意の3点をq1=(x1、y1)、q2=(x2、y2)、q3=(x3、y3)としたとき、Thを或る閾値として次式の条件を満たさない時を算出が不安定と判定する。
|(x3−x1)(y2−y1)−(y3−y1)(x2−x1)|/(|q3−q1|・|q2−q1|)/2>Th (Thは閾値。ここでは例として定数とする)。
なお、上式の左辺の意味はq1が起点のq2、q3へのベクトルの成す角のsin値である。また各点間の距離の条件 |q3−q1|<Thd , |q2−q1|<Thd(Thdは閾値。定数とする) を更に条件として加えることもできる。また距離の条件の別例としては、3点の作る三角形の重心位置からの距離で閾値処理を行う方法もある。また、距離と直線上判定の2条件の任意の論理演算によって算出不可能かどうか判定してもよい。
上記2条件のいずれかが満たされず、算出が不安定と判定された場合はS301へ戻り点集合Qを選び直す。そうでない場合はQ、Q’を出力しS303へ移る。なお、算出可能の判定の時、点組合せ冗長選択部901はこの処理ステップにて暫定パラメータ算出部902へQ、Q’を出力する。
(S301) The counter m is initialized with 0, and the process proceeds to S302.
(S302) This process is executed by the point combination redundancy selection unit 901, and is a specific example of the point combination redundancy selection procedure according to claims 7 and 8. It is determined whether or not the parameter can be stably calculated using Equation 1 based on Q input from S301. That is, when any three points in Q are on the same straight line, the calculation is unstable.
For example, when arbitrary three points in Q are q 1 = (x 1 , y 1 ), q 2 = (x 2 , y 2 ), q 3 = (x 3 , y 3 ), Th is given It is determined that the calculation is unstable when the condition of the following expression is not satisfied as the threshold value.
| (X 3 −x 1 ) (y 2 −y 1 ) − (y 3 −y 1 ) (x 2 −x 1 ) | / (| q 3 −q 1 | · | q 2 −q 1 |) / 2> Th (Th is a threshold value. Here, a constant is used as an example).
Incidentally, the meaning of the left side of the above equation is the sin value of the angle between the vector of q 1 is the q 2, q 3 of origin. Further, the condition of the distance between each point | q 3 −q 1 | <Th d , | q 2 −q 1 | <Th d (Th d is a threshold value, a constant) can be further added as a condition. As another example of the distance condition, there is a method in which threshold processing is performed using a distance from the center of gravity of a triangle formed by three points. Further, it may be determined whether or not calculation is possible by an arbitrary logical operation of two conditions of distance and straight line determination.
If either of the above two conditions is not satisfied and the calculation is determined to be unstable, the process returns to S301 and the point set Q is selected again. Otherwise, Q and Q ′ are output and the process proceeds to S303. When determining that calculation is possible, the point combination redundancy selection unit 901 outputs Q and Q ′ to the provisional parameter calculation unit 902 in this processing step.

(S303) 暫定パラメータ算出部902の実行する処理の一部で、また請求項7および請求項8に記載の暫定パラメータ算出手順の具体例である。Q、Q’を点組合せ冗長選択部901より入力する。S300で取り出した点集合Q、Q’からパラメータ算出に必要な点数であるNR=[Mが偶数ならばM/2、Mが奇数ならば(M+1)/2 ] 個の点を点集合Rとして、その対応点をR’として取り出し、R、R’をS305へ出力する。また、暫定パラメータ算出部902はメモリにR、R’を記憶する。   (S303) Part of the processing executed by the provisional parameter calculation unit 902, and is a specific example of the provisional parameter calculation procedure according to claims 7 and 8. Q and Q ′ are input from the point combination redundancy selection unit 901. NR = [M / 2 if M is an even number, or (M + 1) / 2] if M is an odd number as the point set R, which is the number of points required for parameter calculation from the point sets Q and Q ′ taken out in S300 The corresponding point is extracted as R ′, and R and R ′ are output to S305. The temporary parameter calculation unit 902 stores R and R ′ in the memory.

式1を見ると代表点とその対応点の1組で2つの式が立つため、M個のパラメータを算出するのに必要な点数は先のNR個である。なお、このステップの2回目以降はそれぞれ異なる組合せの点集合Rを取り出すこととする。
(S304) カウンタmをインクリメントしてS305へ移行する。
Looking at Formula 1, two sets of formulas are established for a set of representative points and corresponding points, so the number of points required to calculate M parameters is the previous NR. In the second and subsequent steps of this step, point sets R with different combinations are taken out.
(S304) The counter m is incremented and the process proceeds to S305.

(S305) 暫定パラメータ算出部902の実行する処理の一部であり、また請求項7および請求項8に記載の暫定パラメータ算出部の具体例である。S303にて記憶されたR、R’を利用する。R、R’を用いて式1に基づいてカメラワークパラメータを算出する。つまり、式1を式2のように変形すると、a11〜a33までの1次方程式となる。よって、x、y、x'、 y'にそれぞれR、R’の値を代入し、必要な式の数がそろうと各パラメータの値を算出することができる。一次方程式の解き方はLU分解と後退法を用いるなど任意の既存手法を利用して実行する。 (S305) This is a part of the processing executed by the provisional parameter calculation unit 902, and is a specific example of the provisional parameter calculation unit according to claims 7 and 8. R and R ′ stored in S303 are used. Camera work parameters are calculated based on Equation 1 using R and R ′. That is, when Equation 1 is transformed to Equation 2, a linear equation from a 11 to a 33 is obtained. Therefore, by substituting the values of R and R ′ for x, y, x ′, and y ′, respectively, the values of the respective parameters can be calculated when the required number of expressions is the same. The solution of the linear equation is performed using any existing method such as LU decomposition and regression.

x’・(xa13+ya23+a33)=(xa11+ya21+a31
y’・(xa13+ya23+a33)=(xa12+ya22+a32) (式2)
算出された値は暫定パラメータ記憶テーブル903内のp(i)の点番号iの組合せに対応した箇所に保存し、同じ組の点の算出は1度だけ計算するようにする。この場合の上記方程式を解く回数は最大でNPNR回である。ここで算出できたカメラワークパラメータ行列をCnm(あるm、nの一つの組合せにつきカメラワークパラメータ行列Cnm一つ)とする。なお、算出されたカメラワークパラメータ行列nmをメモリ100に記憶する。
x ′ · (xa 13 + ya 23 + a 33 ) = (xa 11 + ya 21 + a 31 )
y ′ · (xa 13 + ya 23 + a 33 ) = (xa 12 + ya 22 + a 32 ) (Formula 2)
The calculated value is stored in a location corresponding to the combination of the point number i of p (i) in the temporary parameter storage table 903, and the calculation of the same set of points is performed only once. Number of solving the above equation for this case is NP C NR times at maximum. The camera work parameter matrix calculated here is Cnm (one camera work parameter matrix Cnm per one combination of m and n). The calculated camera work parameter matrix nm is stored in the memory 100.

(S306) 暫定パラメータ算出部902の実行する処理の一つである。RがQのある一定の部分集合の全ての組合せを取ったかどうか判定し、ある一定の部分集合全てを取った場合はカメラワークパラメータ行列Cnmを出力しS307へ、そうでない場合はS303へ移る。なお、Qから部分集合Rを取り出す総数はNQNR 通りの組み合わせある。ある一定の部分集合の取り方は、例えば、この総数全てを取ってもよいし、或る一点を必ず組合せるような部分集合(NQNR-1通り)を取ってもよい。
また、全てのある一定の部分集合を取った場合、暫定パラメータ算出部はパラメータ検証部904へカメラワークパラメータ行列Cnmを出力する。
(S306) This is one of the processes executed by the provisional parameter calculation unit 902. It is determined whether R has taken all the combinations of a certain subset of Q. If all the certain subsets are taken, the camera work parameter matrix Cnm is output, and if not, the process proceeds to S307. Note that the total number of subsets R extracted from Q is NQ C NR combinations. As a method of taking a certain subset, for example, all of this total number may be taken, or a subset ( NQ C NR-1 ways) in which a certain point is necessarily combined may be taken.
Further, when all the certain subsets are taken, the temporary parameter calculation unit outputs the camera work parameter matrix Cnm to the parameter verification unit 904.

(S307) パラメータ検証部904の機能であり、また、請求項7および請求項8に記載のパラメータ検証手順の具体例である。暫定パラメータ算出部902よりカメラワークパラメータCnmを入力する。この処理ステップでは算出されたパラメータの信頼性を判定する。取り出された点集合Rの中に一つでも式1で表されるカメラワークモデルと異なる動きをもつ点が入っている場合、算出されるパラメータの値がmによってばらばらになる。また、この場合算出されたパラメータの値も信頼性の低い値となるため、最終的なパラメータ算出(S311)に利用しないことにする。   (S307) This is a function of the parameter verification unit 904, and is a specific example of the parameter verification procedure according to claims 7 and 8. The camera work parameter Cnm is input from the temporary parameter calculation unit 902. In this processing step, the reliability of the calculated parameter is determined. When at least one point in the extracted point set R has a different motion from the camera work model represented by Equation 1, the calculated parameter value varies depending on m. In this case, since the calculated parameter value is also a low reliability value, it is not used for the final parameter calculation (S311).

例えば、パラメータ行列Cnmの成分それぞれについて、mについての分散値の大きさで信頼性を判定する。或る閾値を超える場合は信頼性の低いパラメータとして値を捨ててS310へ移り、ある閾値以下の場合は信頼性の高いパラメータとして、そのパラメータを記憶してS308へ移行する。
信頼度を判定する他の値の例としては、Cnmの異なる2つのmについてパラメータの差分をとり、各パラメータについてその差分値の小さなものからm0番目の値をそれぞれ判定に利用する方法もあるし、その差分値を無作為に選んでその値を判定に用いる方法もある。
For example, the reliability of each component of the parameter matrix Cnm is determined by the magnitude of the variance value for m. If it exceeds a certain threshold, the value is discarded as a parameter with low reliability and the process proceeds to S310. If it is equal to or less than a certain threshold, the parameter is stored as a parameter with high reliability and the process proceeds to S308.
As another example of the value for determining the reliability, there is a method in which a difference between parameters is taken for two m having different Cnm, and the m 0th value from the smallest difference value is used for each parameter. There is also a method of randomly selecting the difference value and using the value for the determination.

(S308) カメラワークパラメータ決定部905の実行する処理の一部であり、また請求項7および請求項8に記載のカメラワークパラメータ決定手順の具体例である。代表点集合Qから算出されたパラメータ行列Cmnの成分それぞれについて平均値を算出し、それらを行列Cnとして記憶する。
また、S307の信頼性判定にて信頼性が高いと判定された場合には、パラメータ検証部904はカメラワークパラメータ決定部905へ行列Cnを出力する。
(S309) カウンタnをインクリメントしてS310へ移行する。
(S308) This is a part of processing executed by the camera work parameter determination unit 905, and is a specific example of the camera work parameter determination procedure according to claims 7 and 8. An average value is calculated for each component of the parameter matrix Cmn calculated from the representative point set Q, and stored as a matrix Cn.
If it is determined in S307 that the reliability is high, the parameter verification unit 904 outputs the matrix Cn to the camera work parameter determination unit 905.
(S309) The counter n is incremented and the process proceeds to S310.

(S310) 点組合せ冗長選択部901の実行する処理の一部であり、また、請求項7および請求項8に記載の点組合せ冗長選択部901の具体例である。部分点集合Qが点集合Pの可能な組合せ全体をとったかどうかを判定し、全体をとった場合はS311へ移り、まだの場合はS300へ移る。なお、Pから部分集合Qを取り出す総数はNPNQ通りの組合せだけある。 (S310) This is a part of the processing executed by the point combination redundancy selection unit 901, and is a specific example of the point combination redundancy selection unit 901 according to claims 7 and 8. It is determined whether or not the partial point set Q has taken all possible combinations of the point set P. If the partial set Q has been taken, the process proceeds to S311; otherwise, the process proceeds to S300. Note that the total number of subsets Q extracted from P is only NP CNQ combinations.

(S311) カメラワークパラメータ決定部905の実行する処理の一部であり、また請求項7および請求項8に記載のカメラワークパラメータ決定手順の具体例である。点組合せ冗長選択部901から全ての点についてのパラメータを算出したという信号を受けると、メモリ100内にあるCnを用いて処理を行なう。CnからカメラワークパラメータCを算出する。算出方法は例としてCnの各成分の中間値をCとする。他のCの決定方法の例としてはCnの成分それぞれのパラメータを量子化した後のヒストグラムにおける最頻値とする方法もあるし、平均値としてもよい。   (S311) This is a part of processing executed by the camera work parameter determination unit 905, and is a specific example of the camera work parameter determination procedure according to claims 7 and 8. When a signal indicating that the parameters for all the points have been calculated from the point combination redundancy selection unit 901, processing is performed using Cn in the memory 100. The camera work parameter C is calculated from Cn. In the calculation method, for example, an intermediate value of each component of Cn is C. As another example of determining C, there is a method of setting a mode value in a histogram after quantizing each parameter of Cn components, or an average value.

また、S307の判定により、算出された全てのカメラワークパラメータの信頼性が低いとして捨てられてしまい、Cnが空の場合は算出不能と判定し、異常を表すカメラワークパラメータの値を出力する。異常を表すカメラワークパラメータの値としては全ての成分が0のパラメータ行列など、カメラワークパラメータとして通常算出され得ない値であれば何でも良い。この値は図5の実施例のS502で異常判定を行なう時に利用する。図2の実施例では算出不能の場合は処理を強制終了してもよいし、算出不能として既定のパラメータ値を出力して終了しても良い。   In addition, the determination in S307 causes all the calculated camera work parameters to be discarded because they are low in reliability. If Cn is empty, it is determined that the calculation is impossible, and the camera work parameter value indicating abnormality is output. The value of the camera work parameter indicating an abnormality may be any value that cannot be normally calculated as a camera work parameter, such as a parameter matrix in which all components are zero. This value is used when abnormality determination is performed in S502 of the embodiment of FIG. In the embodiment of FIG. 2, if the calculation is impossible, the process may be forcibly terminated, or the calculation may be terminated by outputting a predetermined parameter value.

以上のようにしてカメラワークパラメータ決定部905はカメラワークパラメータ算出部106の出力として算出されたカメラワークパラメータの値Cを出力する。
図4は図3のカメラワークモデルを式3 (M=4,NR=2)とし、NQ=3とした場合の具体例を示したフローチャートである。なお、a1 はズームパラメータ、a2 は回転パラメータ、a3 はx軸移動パラメータ、a4 はy軸移動パラメータである。
(S400) カウンタnを初期化する。
The camera work parameter determination unit 905 outputs the camera work parameter value C calculated as the output of the camera work parameter calculation unit 106 as described above.
FIG. 4 is a flowchart showing a specific example when the camera work model of FIG. 3 is represented by Equation 3 (M = 4, NR = 2) and NQ = 3. Here, a 1 is a zoom parameter, a 2 is a rotation parameter, a 3 is an x-axis movement parameter, and a 4 is a y-axis movement parameter.
(S400) The counter n is initialized.

(S401) 点組合せ冗長選択部901の実行する処理の一部である。代表点集合Pとその対応点集合P’を入力する。代表点集合Pの中から任意の3個の点集合Q=[q(1),q(2),q(3)]と、その対応点Q’=[q’(1),q’(2),q’(3)]を取り出して、P、P’、Q、Q’を出力する。なお、このステップの2回目以降はそれぞれ異なる組合せの点集合Q、Q’を取り出すこととする。   (S401) Part of the processing executed by the point combination redundancy selection unit 901. The representative point set P and its corresponding point set P ′ are input. Arbitrary three point sets Q = [q (1), q (2), q (3)] from the representative point set P and their corresponding points Q ′ = [q ′ (1), q ′ ( 2), q ′ (3)] are extracted and P, P ′, Q, and Q ′ are output. In the second and subsequent steps of this step, point sets Q and Q 'having different combinations are taken out.

(S402) 点組合せ冗長選択部901の実行する処理の一部である。S302と同様の処理であり、Qによって式3を用いたパラメータの算出ができるか判定する。即ち、Q、Q’を入力しその3点q(1),q(2),q(3)を用いてS302と同様の基準で算出不安定判定を行い、算出不安定な場合S401へ戻り点集合Qを選び直す。そうでない場合はQ、Q’を出力してS403へ移行する。   (S402) This is part of the processing executed by the point combination redundancy selection unit 901. It is the same processing as S302, and it is determined whether or not the parameter can be calculated using Equation 3 by Q. That is, Q and Q ′ are input, and the calculation instability determination is performed using the three points q (1), q (2), and q (3) on the same basis as S302. If the calculation is unstable, the process returns to S401. Reselect the point set Q. Otherwise, Q and Q 'are output and the process proceeds to S403.

(S403) 暫定パラメータ算出部902の実行する処理の一部であり、Q、Q’を入力し、Qの中からパラメータ算出に必要な点数である2点の全組合せとその対応点Q’を取り出し対応点と共に出力する。即ち、[q(1),q(2)],[q(2),q(3)],[q(3),q(1)]の3通りである。なお、この2点の集合が図3のRに相当する。   (S403) This is a part of the processing executed by the provisional parameter calculation unit 902. Q and Q ′ are input, and all combinations of two points, which are points necessary for parameter calculation, from Q and corresponding points Q ′ are obtained. Output along with the corresponding extraction point. That is, [q (1), q (2)], [q (2), q (3)], [q (3), q (1)]. Note that the set of these two points corresponds to R in FIG.

(S404) 暫定パラメータ算出部902の実行する処理の一部である。取り出された全組合せである3通りの2点組合せを入力し、式3に基づいてカメラワークパラメータCn1 〜Cn3 (図3のCnm,m=1,2,3)を算出する。即ち、式3を式4のように変形するとa1 〜a4 までの1次方程式となり、式4に代表点(x,y)とその対応点(x',y')それぞれの値を代入すると2つの1次方程式となるので、S403で取り出した3通りの2点組合せを利用して4つの方程式を立て、1つのパラメータ行列の値を算出することができる。連立1次方程式の解法は既存手法を利用する。なお[q(1),q(2)]から算出されたパラメータ行列をCn1、[q(2),q(3)]から算出されたパラメータ行列をCn2 、[q(3),q(1)]から算出されたパラメータ行列をCn3 と表現する。なお、算出されたそれぞれのパラメータ行列はテーブルに保存し、以降、算出された点の組のパラメータ行列はテーブルを参照することにする。このことによりこの方程式を解く総回数はNp(Np−1)/2回となる。
x’a1+ya2−a3−x=0
y’a1−xa2−a4−y=0 (式4)
(S404) This is part of the processing executed by the provisional parameter calculation unit 902. Three kinds of two-point combinations, which are all the extracted combinations, are input, and camera work parameters Cn 1 to Cn 3 (Cnm, m = 1, 2, 3 in FIG. 3) are calculated based on Equation 3. In other words, when Equation 3 is transformed into Equation 4, a linear equation from a 1 to a 4 is obtained, and the values of the representative point (x, y) and its corresponding point (x ′, y ′) are substituted into Equation 4. Then, since it becomes two linear equations, four equations can be established using the three two-point combinations extracted in S403, and the value of one parameter matrix can be calculated. Existing methods are used to solve simultaneous linear equations. The parameter matrix calculated from [q (1), q (2)] is Cn 1 , the parameter matrix calculated from [q (2), q (3)] is Cn 2 , [q (3), q The parameter matrix calculated from (1)] is expressed as Cn 3 . Each calculated parameter matrix is stored in a table, and thereafter, the parameter matrix of the calculated set of points is referred to the table. As a result, the total number of times to solve this equation is Np (Np-1) / 2.
x′a 1 + ya 2 −a 3 −x = 0
y′a 1 −xa 2 −a 4 −y = 0 (Formula 4)

(S405) パラメータ検証部904の実行する処理であり、上記算出されたCn1 〜Cn3 を入力し、|Cn1−Cn2 |、|Cn2−Cn3|、|Cn3−Cn1 |の中のそれぞれのパラメータについて最小値を取り出し、その値の大小をそれぞれ計る。その値がある閾値より大きなものが3つの差分の内2つ以上ある場合は信頼度が低いとしてS407へ移行する。1つ以下のときは信頼度が高いとしてCn1 〜Cn3 を出力してS406へ移行する。パラメータの閾値はパラメータ成分毎に設定してよい。なお、パラメータの各成分それぞれについて分散値を算出して信頼度の高低を測ってもよいし、|Cn1−Cn2 |など任意の差分値を単独で用いてそれぞれのパラメータの差分値の大小で信頼度の高低を測ってもよい。 (S405) This is a process executed by the parameter verification unit 904. The calculated Cn 1 to Cn 3 are input, and | Cn 1 -Cn 2 |, | Cn 2 -Cn 3 |, | Cn 3 -Cn 1 | The minimum value is taken out for each parameter in, and the value is measured. If there are two or more of the three differences whose values are greater than a certain threshold value, the reliability is low and the process proceeds to S407. If the number is less than 1, Cn 1 to Cn 3 are output because the reliability is high, and the process proceeds to S406. The parameter threshold value may be set for each parameter component. Note that a variance value may be calculated for each component of the parameter to measure the level of reliability, or an arbitrary difference value such as | Cn 1 −Cn 2 | may be used alone to determine the magnitude of the difference value of each parameter. You can measure the level of reliability.

(S406) カメラワークパラメータ決定部905の機能の一部である。算出されたパラメータ行列Cn1 〜Cn3 を入力しその成分それぞれについて平均値を算出し、それらを行列Cnとしてメモリに記憶する。また、カウンタnをインクリメントしてS407へ移る。
(S407) 点組合せ冗長選択部901の実行する処理の一部である。部分点集合Qが点集合Pの組合せ全体をとったかどうかを判定し、全体をとった場合はCnを出力してS408へ移り、まだの場合はS401へ移る。なお、PからQの選び方の総数がCnの最大個数であり、その数は、NP3=NP(NP−1)(NP−2)通りである。なお、ここで、QがPの全体の組合せで判定するのではなく、所定の部分集合を取ったかどうかの判定としても良い。
(S406) This is a part of the function of the camera work parameter determination unit 905. The calculated parameter matrices Cn 1 to Cn 3 are input, the average value is calculated for each of the components, and these are stored in the memory as the matrix Cn. Further, the counter n is incremented and the process proceeds to S407.
(S407) This is part of the processing executed by the point combination redundancy selection unit 901. It is determined whether or not the partial point set Q has taken the entire combination of the point set P. If the partial set Q is taken, Cn is output and the process proceeds to S408, and if not, the process proceeds to S401. Note that the total number of selection methods from P to Q is the maximum number of Cn, and the number is as follows: NPC 3 = NP (NP-1) (NP-2). Here, it is possible to determine whether or not a predetermined subset has been taken, instead of determining with Q being the total combination of P.

(S408) カメラワークパラメータ決定部905の実行する処理の一部である。Cnを入力し、カメラワークパラメータCを算出して出力する。ここでは例としてCnの各成分の中間値をCとして採用する。CnからCの算出方法の他の例として、Cnの平均値をCとしてもよいし、Cnの各パラメータ毎に量子化した後に最頻値を算出することでCを決定してもよい。
以上のようにしてカメラワークパラメータ決定部905はカメラワークパラメータ算出部106の出力として算出されたカメラワークパラメータの値Cを出力する。
(S408) This is part of the processing executed by the camera work parameter determination unit 905. Cn is input, and camera work parameter C is calculated and output. Here, as an example, an intermediate value of each component of Cn is adopted as C. As another example of the calculation method of Cn to C, the average value of Cn may be C, or C may be determined by calculating the mode value after quantization for each parameter of Cn.
The camera work parameter determination unit 905 outputs the camera work parameter value C calculated as the output of the camera work parameter calculation unit 106 as described above.

なお、S404のカメラワークパラメータの別の算出方法として2つの点[q(1),q(2)]からパラメータa〜1〜a〜4を算出しておき、残る一点q(3)はS405の誤差判定に用いる方法がある。この時はS405、S406も同時に以下の変更を行う。S405で誤差としてq(3)を式3に当てはめた場合の誤差を算出し、それを閾値処理することで誤差判定を行う。即ち、式5の値を誤差として閾値処理することで誤差の大小を決定する。S406では算出されているをそのままパラメータCnとする方法や、前記図4の説明の方法と同様にしてCn1 〜Cn3 まで算出し直して平均値を取り直す方法などがある。 As another method for calculating camera work parameters in S404, parameters a- 1 to a- 4 are calculated from two points [q (1), q (2)], and the remaining one point q (3) is S405. There is a method used for error determination. At this time, the following changes are made at the same time in S405 and S406. In S405, an error when q (3) is applied to Equation 3 is calculated as an error, and error determination is performed by thresholding it. That is, the magnitude of the error is determined by thresholding the value of Equation 5 as an error. In S406, there are a method of using the calculated value as it is as the parameter Cn, a method of recalculating Cn 1 to Cn 3 and taking the average value in the same manner as the method described in FIG.

Max(|x′a〜1+ya〜2−a〜3−x|,|y′a〜1−xa〜2−a〜4−y|)
(式5)
図10は図9にカメラワークパラメータ正常判定部を追加したフローチャートである。図9に追加されたカメラワークパラメータ正常判定部1006のみについて説明する。
カメラワークパラメータ正常判定部1006では算出されたカメラワークパラメータが正常か否かを判定する部位である。この部位の動作はS502において詳細に説明される。
Max (| x'a~ 1 + ya~ 2 -a~ 3 -x |, | y'a~ 1 -xa~ 2 -a~ 4 -y |)
(Formula 5)
FIG. 10 is a flowchart in which a camera work parameter normality determination unit is added to FIG. Only the camera work parameter normality determination unit 1006 added to FIG. 9 will be described.
The camera work parameter normality determination unit 1006 is a part for determining whether or not the calculated camerawork parameter is normal. The operation of this part will be described in detail in S502.

図5は請求項1と請求項4との組合せに対応した実施例であり、図2のフローチャートにカメラワークパラメータの正常判定を追加したフローチャートである。また、同様に、請求項5と請求項8との組合せに対応したカメラワークパラメータ算出方法の具体的な説明となるフローチャートである。即ち、図5のフローチャートを実行する算出装置自体は図1とほぼ同様のカメラワークパラメータ算出装置であるが、図5の装置はカメラワークパラメータ算出部106として、図9の代わりに図10により図示説明されるカメラワークパラメータ算出部を使用する。またメモリ100の内容のリトライフラグを使用する。図5のフローチャートにおける処理内容には図2における処理に追加のステップであるS502が付加されている。以下において、図2から変更、追加された処理のみについて図1および図10をも参照して説明する。   FIG. 5 shows an embodiment corresponding to the combination of claim 1 and claim 4, and is a flowchart in which the camerawork parameter normality determination is added to the flowchart of FIG. Similarly, the flowchart is a specific description of the camera work parameter calculation method corresponding to the combination of claim 5 and claim 8. That is, the calculation apparatus itself that executes the flowchart of FIG. 5 is a camera work parameter calculation apparatus that is substantially the same as that of FIG. 1, but the apparatus of FIG. 5 is illustrated as a camera work parameter calculation unit 106 in FIG. 10 instead of FIG. Use the camerawork parameter calculator described. The retry flag of the contents of the memory 100 is used. The processing content in the flowchart of FIG. 5 is added with S502 which is an additional step in the processing of FIG. In the following, only processes that are changed or added from FIG. 2 will be described with reference to FIGS. 1 and 10 as well.

(S501) 映像蓄積部101から映像入力部102へ映像を入力し、映像入力部102にてフレーム毎の画像に変換して出力し、その初期の処理対象フレーム(第1フレーム)と、それからFフレーム後のフレーム画像である初期の参照フレーム(フレーム番号F+1のフレーム画像)をメモリに入力する。また、代表点算出フラグ、リトライフラグをオフにする。処理対象フレームと参照フレームを出力し、S202へ移行する。   (S501) A video is input from the video storage unit 101 to the video input unit 102, converted into an image for each frame by the video input unit 102, and output. The initial processing target frame (first frame), and then F An initial reference frame (frame image of frame number F + 1) that is a frame image after the frame is input to the memory. Further, the representative point calculation flag and the retry flag are turned off. The processing target frame and the reference frame are output, and the process proceeds to S202.

(S502) 図10のカメラワークパラメータ正常判定部1006の実行する処理であり、また請求項8に記載のカメラワークパラメータ正常判定手順の具体例である。算出されたカメラワークパラメータを入力し、その値が正常かどうかを判定する。判定方法の例として、一つ前のループにて算出されたカメラワークパラメータが正常な場合はその値と現算出値の差分の二乗総和を取り、その値が閾値を超えない場合を正常とする。一つ前のループにて算出されたカメラワークパラメータが正常と判定されており、かつその値が閾値を超える場合を異常とする。また、一つ前のループにて算出されたカメラワークパラメータが異常と判定されている場合はパラメータ値のそれぞれの値が一定範囲内に納まっているか否かで正常か異常かを判定する。なお、初期フレームでは一つ前のループは存在していないが、一つ前のループのカメラワークパラメータ算出は異常の判定であったと見なして同様に判定する。一つ前のループにて算出されたカメラワークパラメータが異常になった場合も初期フレームの場合と同様の処理を行う。判定方法の他の例として、算出されたパラメータのそれぞれの値が一定範囲内にあるか否かのみで正常か異常かを判定する方法もある。何れの例でも正常と判定された場合はS207へ、異常と判定された場合はS512へ移行する。   (S502) This process is executed by the camera work parameter normality determination unit 1006 in FIG. 10, and is a specific example of the camera work parameter normality determination procedure according to claim 8. The calculated camera work parameter is input to determine whether the value is normal. As an example of the judgment method, if the camera work parameter calculated in the previous loop is normal, the sum of squares of the difference between that value and the current calculated value is taken, and the case where the value does not exceed the threshold is normal . The case where the camera work parameter calculated in the previous loop is determined to be normal and the value exceeds the threshold is regarded as abnormal. If the camera work parameter calculated in the previous loop is determined to be abnormal, whether the parameter value is within a certain range is determined as normal or abnormal. Although the previous loop does not exist in the initial frame, the camera work parameter calculation of the previous loop is regarded as an abnormality determination, and is determined in the same manner. When the camera work parameter calculated in the previous loop becomes abnormal, the same processing as in the case of the initial frame is performed. As another example of the determination method, there is also a method of determining whether the calculated parameter value is normal or abnormal only by whether or not each value of the calculated parameter is within a certain range. In any example, if it is determined to be normal, the process proceeds to S207, and if it is determined to be abnormal, the process proceeds to S512.

急激なカメラワーク、編集済み映像などにおけるカット点、または映像内の動物体の裏などに代表点の多くが隠れてしまった時に多くの対応点を算出できない場合、あるいは前記の原因が数フレーム間において生じて代表点数が減少してしまった際に、フレーム間で前記原因が累積して生じた対応点減少か、それともこのフレームの映像時刻がカット点になっている等そもそも対応点算出が不可能なフレームなのかを判定するために、もう一度代表点を算出し直して対応点探索を行うための判定処理がS204であり、同じ再算出を行わないために必要なフラグがリトライフラグである。S204のスキップ判定は対応点探索に失敗して点数が極端に少なくなった場合の判定であり、このS507の判定は対応点算出において点の誤対応が多数発生してしまい、対応点数では映像の不連続を判定できない場合の判定条件である。この結果はS514にて出力される。   When many representative points are hidden behind sudden camerawork, cut points in edited video, etc., or behind the moving object in the video, etc., or the cause is several frames When the number of representative points is reduced, the corresponding points decrease due to the accumulation of the cause between frames, or the video time of this frame is a cut point. In order to determine whether the frame is possible, the determination process for calculating the representative point again and performing the corresponding point search is S204, and the flag necessary for not performing the same recalculation is the retry flag. The skip determination of S204 is a determination when the corresponding point search has failed and the number of points has become extremely small. In this determination of S507, many miscorresponding points occur in the calculation of the corresponding points. This is a determination condition when discontinuity cannot be determined. This result is output in S514.

(S512) 算出された対応点、あるいはカメラワークパラメータが異常値をとった時に対応するステップである。リトライフラグがセットされている(ON)か否かを判定する。セットされている場合はS514へ移行し、されていない時はS513へ移行する。リトライフラグはS204、S502で対応点、もしくはカメラワークパラメータが算出不可能と判定されて代表点を再算出、再追跡したことを示し、二度同じ処理を行わないために必要なフラグである。
(S513) 算出されたカメラワークパラメータが異常な時で、その原因が背景部分における代表点と対応点の減少であるか否かをテストするために、代表点を取り直して同一フレーム間でもう一度同じ処理を行う時に来るステップである。ここでは代表点算出フラグ、リトライフラグの両者をセットしS209へ移行する。
(S512) This step corresponds to when the calculated corresponding point or the camera work parameter takes an abnormal value. It is determined whether the retry flag is set (ON). If it is set, the process proceeds to S514. If it is not set, the process proceeds to S513. The retry flag indicates that the corresponding point or the camera work parameter is determined not to be calculated in S204 and S502 and indicates that the representative point has been recalculated and retraced, and is a flag necessary for not performing the same process twice.
(S513) When the calculated camera work parameter is abnormal, in order to test whether or not the cause is a decrease in the representative point and the corresponding point in the background portion, the representative point is taken again and the same between the same frames. This is the step that comes when processing. Here, both the representative point calculation flag and the retry flag are set, and the process proceeds to S209.

(S514) 算出された対応点、或いはカメラワークパラメータが異常値をとり、リトライフラグがONの時に来るステップで、代表点算出フラグをONに、また、リトライフラグをOFFにしてS207へ移行する。また、このときカメラワークパラメータ算出部106の出力としては、例えば既定のパラメータ値を出力するなどとする。また、この映像時刻を不連続が生じた時刻として記録してもよい。ここのステップに至る場合はフレーム間で映像の不連続等の原因でカメラワークパラメータを算出できない場合である。
図6は請求項2および4の両者を具備した実施例である。即ち、図4の実施例にフレーム間隔を決定するフレーム間隔決定部609を追加したものに相当する。その他は基本的には図4と同じ働きをするが、対応点の算出を複数の参照フレーム画像を用いて算出するように処理内容が変更されている。具体的な変更については図7を参照して後に説明される。
(S514) In the step that comes when the calculated corresponding point or camera work parameter has an abnormal value and the retry flag is ON, the representative point calculation flag is turned ON, the retry flag is turned OFF, and the process proceeds to S207. At this time, as an output of the camera work parameter calculation unit 106, for example, a predetermined parameter value is output. Further, this video time may be recorded as the time when the discontinuity occurs. The case where this step is reached is a case where the camera work parameter cannot be calculated due to the discontinuity of the video between frames.
FIG. 6 shows an embodiment having both claims 2 and 4. In other words, this corresponds to the addition of the frame interval determination unit 609 for determining the frame interval to the embodiment of FIG. The other functions are basically the same as those in FIG. 4, but the processing content is changed so that the corresponding points are calculated using a plurality of reference frame images. Specific changes will be described later with reference to FIG.

フレーム間隔を広げることのメリットは比較的動きの少ない映像区間においてカメラワーク検出の処理を減らし、処理速度向上に繋がることである。ただ広げすぎると大きなカメラワークなどが生じた際に対応点を取りきれないし、またカメラの往復などのカメラワーク変化が取れないことなどがある。そこで、処理を行うフレーム間隔に上限FMaxを設ける。また、複数の参照フレームを用いて対応点を算出し、対応点数を比較することで、動きが大きい、即ち、対応点が大きく減少する場合はフレーム間隔を短くし、対応点の減少が少ない或いは無い場合はフレーム間隔を長くする設定をする。 The advantage of widening the frame interval is that the camera work detection process is reduced in a video section with relatively little movement, leading to an improvement in processing speed. However, if it is too wide, it may not be possible to take corresponding points when large camera work occurs, and camera work changes such as camera reciprocation may not be taken. Therefore, an upper limit F Max is provided for the frame interval for processing. Also, by calculating the corresponding points using a plurality of reference frames and comparing the number of corresponding points, if the movement is large, that is, if the corresponding points are greatly reduced, the frame interval is shortened, and the corresponding points decrease little. If not, set the frame interval longer.

フレーム間隔決定部609では複数の参照フレームで算出された対応点の数からどの参照フレームを用いてカメラワークパラメータを算出するかを決定する。具体的な処理内容は図7にて説明する。
図7は図6の具体的処理内容を示すフローチャートであり、また請求項6と請求項8とを組合せた実施例に相当する。図5においてS501、S203、S204、S207がそれぞれS701、S703、S704、S707へ変更されたものである。変更部分のみを図6をも参照して説明する。
A frame interval determination unit 609 determines which reference frame is used to calculate the camera work parameter from the number of corresponding points calculated in a plurality of reference frames. Specific processing contents will be described with reference to FIG.
FIG. 7 is a flowchart showing the specific processing contents of FIG. 6 and corresponds to an embodiment in which claims 6 and 8 are combined. In FIG. 5, S501, S203, S204, and S207 are changed to S701, S703, S704, and S707, respectively. Only the changed part will be described with reference to FIG.

(S701) 映像蓄積部101から映像入力部102へ映像を入力し、映像入力部102にてフレーム毎の画像に変換して出力し、その初期の処理対象フレームである第1フレームを入力する。 また、参照フレームを次の第2フレームから第FMax+1フレームの内任意のf枚(f≦FMax+1)を選び、入力する。また、代表点算出フラグ、リトライフラグをオフにする。処理対象フレームと参照フレームをメモリに記憶および出力し、S202へ移行する。
(S703) 対応点算出部105の実行する処理である。また、請求項6に記載の対応点算出手順の具体例である。処理対象フレーム画像と参照フレーム画像をメモリより、その代表点座標を代表点算出部よりそれぞれ入力し、処理対象フレーム画像における代表点座標に対応する点をf枚の参照フレーム画像中からそれぞれ探し、算出された対応点の座標をそれぞれメモリに記憶する。即ち、対応点算出部105における処理、S203と同様の処理をf回行なうことになる。算出された参照フレーム画像f枚のそれぞれの対応点の座標と、その点数を代表点算出判定部107へ出力し、また代表点座標とその対応点座標をカメラワークパラメータ算出部106へ出力してS704へ移行する。
(S701) The video is input from the video storage unit 101 to the video input unit 102, converted into an image for each frame by the video input unit 102 and output, and the first frame which is the initial processing target frame is input. Further, any f frames (f ≦ F Max +1) are selected from the next second frame to the F Max +1 frame and are input. Further, the representative point calculation flag and the retry flag are turned off. The processing target frame and the reference frame are stored and output in the memory, and the process proceeds to S202.
(S703) This process is executed by the corresponding point calculation unit 105. A corresponding point calculation procedure according to claim 6 is a specific example. The processing target frame image and the reference frame image are input from the memory, the representative point coordinates thereof are input from the representative point calculation unit, respectively, and the points corresponding to the representative point coordinates in the processing target frame image are respectively searched from the f reference frame images, The coordinates of the corresponding points calculated are stored in the memory. That is, the processing in the corresponding point calculation unit 105, the same processing as S203, is performed f times. The coordinates of the corresponding points of the calculated reference frame images f and the number of points are output to the representative point calculation determination unit 107, and the representative point coordinates and the corresponding point coordinates are output to the camera work parameter calculation unit 106. The process proceeds to S704.

(S704) フレーム間隔決定部609が実行する処理であり、また請求項6に記載のフレーム間隔決定手順の具体例である。対応点算出部105の処理であるS703にて算出されたfフレーム分の対応点とその数をメモリから入力し、S204と同様のスキップ判定を算出された全ての参照フレーム上の対応点に対して行ない、どの参照フレームを採用するのが適切かを判定する。全ての参照フレームにおいてS204の判定処理によりスキップする必要有りと判定された場合はS512へ移行する。1つの参照フレームのみスキップする必要が無いと判定された場合はその参照フレーム番号を記憶し、対応点をS205へ出力する。複数の参照フレームでスキップする必要が無いと判定された場合は、算出された対応点数を比較する。フレーム番号が小さな参照フレームの対応点数から順に比較していき、数が減少しているか調べる。同じ場合は大きなフレーム番号の方を順に採用していく。減少した時にはその参照フレーム番号を記憶し、また、その対応点集合をS205へ出力する。なお、減少したと判定する条件をある値以上減少したとし、対応点数が同じと判定する条件を対応点数の減少がある値より少ない、として処理しても良い。またこの選択された参照フレームに対してS204と同様の代表点算出フラグのセット判定を行い、判定に応じて代表点算出フラグの状態を変更する。   (S704) This process is executed by the frame interval determination unit 609, and is a specific example of the frame interval determination procedure according to claim 6. The corresponding points for f frames calculated in S703, which is the process of the corresponding point calculation unit 105, and the number of the corresponding points are input from the memory, and the same skip determination as in S204 is performed on the corresponding points on all reference frames. And determine which reference frame is appropriate to use. If it is determined in step S204 that it is necessary to skip all reference frames, the process proceeds to step S512. If it is determined that it is not necessary to skip only one reference frame, the reference frame number is stored, and the corresponding point is output to S205. When it is determined that there is no need to skip a plurality of reference frames, the calculated number of corresponding points is compared. Comparison is made in order from the number of corresponding points of the reference frame with the smallest frame number, and it is checked whether the number is decreasing. In the same case, the larger frame number is adopted in order. When the number is decreased, the reference frame number is stored, and the corresponding point set is output to S205. Note that the condition for determining that the number of corresponding points is determined to have decreased by a certain value or more and the condition for determining that the number of corresponding points is the same may be processed to be less than a certain value. Further, the representative point calculation flag set determination similar to S204 is performed on the selected reference frame, and the state of the representative point calculation flag is changed according to the determination.

(S707) フレーム画像更新部103において現在決定されている参照フレームを次のループにおける処理対象フレームに、またその参照フレームに対して算出された対応点を次のループにおける代表点に、それぞれ更新する。また、現在決定されている参照フレームの、現在のループで決定された処理対象フレームに対するフレーム間隔fpを入力し、f枚の読み込むべき次のループにおける参照フレームの番号をフレーム間隔決定部609にて決定する。即ち、その更新された処理対象フレームの次からそのFMaxフレーム後までのFMax枚のフレーム画像の中から決定されたf枚のフレームをメモリ100に記憶することで参照フレーム画像も更新する。このフレーム間隔決定部609で実行される処理は請求項6に記載のフレーム間隔決定手順の具体例でもある。 (S707) The frame image updating unit 103 updates the reference frame currently determined to the processing target frame in the next loop, and the corresponding point calculated for the reference frame is updated to the representative point in the next loop. . Also, the frame interval fp of the currently determined reference frame with respect to the processing target frame determined in the current loop is input, and the frame interval determining unit 609 sets the reference frame number in the next loop to be read in f frames. decide. That is, the reference frame image is also updated by storing in the memory 100 f frames determined from the F Max frame images from the next to the updated processing target frame to after the F Max frame. The processing executed by the frame interval determination unit 609 is also a specific example of the frame interval determination procedure according to claim 6.

参照フレームの選択方法の具体例としてフレーム間隔fpの前後を一定フレーム間隔で、FMaxを上限として画像を選択する、などがある。
例えば、f=2、FMax=10、fp=9、一定間隔2で選ぶ場合には読み込んだフレームの9−2=7枚目、9+2=11>10 で10枚目を参照画像に選択する。また、例えば、f=5、FMax=10、fp=9、一定間隔2で選ぶ場合には読み込んだフレームから数えて9−22=5枚目、9−21=7枚目、9+0=9枚目、9+2=11>10 で10枚目を参照画像に選択する。この例は10枚目の画像は2回選ばれるが、1回選ばれたとすることで、選択される画像数は4枚となる。
As a specific example of the reference frame selection method, there is a method of selecting an image with a fixed frame interval before and after the frame interval fp and with F Max as an upper limit.
For example, when selecting f = 2, F Max = 10, fp = 9, and a constant interval of 2, the reference frame is selected as the reference image with 9-2 = 7th frame of the read frame and 9 + 2 = 11> 10. . For example, when selecting f = 5, F Max = 10, fp = 9, and a fixed interval 2, counting from the read frame 9-2 2 = 5th, 9-2 1 = 7th, 9 + 0 = 9th, 9 + 2 = 11> 10 The 10th is selected as the reference image. In this example, the tenth image is selected twice, but if it is selected once, the number of images selected is four.

また、参照フレームの選択方法の別の例としては、更新後の処理対象フレームから次のf枚のフレームを、ランダムに選ぶ、または、FMax枚のフレーム画像を一定間隔でf枚になるように選ぶ、などが考えられる。また、このフレーム間のカメラワークパラメータが算出不能(リトライフラグOFF、代表点算出フラグON)の場合には、この間に大きな画像変化があったと見なし、その画像変化がどこで起こったかを詳細に調べるために更新された処理対象フレームの次から1フレーム毎にf枚を取り出して再実行を行うことも可能である。もしくは、上記以外の他の数値計算、条件を用いて算出することもむろん可能である。 As another example of the reference frame selection method, the next f frames are selected at random from the processing target frame after the update, or F Max frame images are changed to f frames at regular intervals. You can choose to. In addition, when the camerawork parameter between frames cannot be calculated (retry flag OFF, representative point calculation flag ON), it is considered that there has been a large image change during this period, and in order to investigate in detail where the image change has occurred It is also possible to take out f frames for each frame from the next frame to be processed and re-execute. Alternatively, it is possible to calculate using other numerical calculations and conditions other than those described above.

最後に決定された参照フレーム番号をフレーム画像更新部103へ全て出力し、f枚の参照フレームをメモリ100へ読み込む。
この発明の図7の実施例を、図4のカメラワーク算出の実施例を用いて行なった実例を以下に示す。背景の一致を見るために重ね合わせて差分を取った画像を図8(a)に、またその差分を取る前の処理対象フレーム画像、参照フレーム画像とその代表点を図8(b)、(c)にそれぞれ示す。なお、図8(b)および(c)間のフレーム間隔は7フレームである。また、図中に示した代表点は算出されたカメラワークパラメータを用いて処理対象フレームの代表点を変換し参照フレームの対応点との差分の大きさを算出し、その値が大きな時にその代表点は背景以外の動きを持つ物体の点であると判定し、また、その値が小さなものを背景に属する点とすることで各代表点を分類して、点の濃淡を変更して表示したものである。ここで、灰色で示した丸が背景を示し、白丸がアウトライアを示す。これは非特許文献1と類似した表示方法である。また、図8(a)中右端と上下端にライン状に残っている画素値はカメラワークが右とズームアウト方向に生じて差分の取られなかった画素である。
All the reference frame numbers determined last are output to the frame image update unit 103, and f reference frames are read into the memory 100.
An example in which the embodiment of FIG. 7 of the present invention is performed using the embodiment of camera work calculation of FIG. 4 is shown below. FIG. 8A shows an image obtained by superimposing a difference to see the background coincidence. FIG. 8B shows a processing target frame image, a reference frame image and a representative point before the difference is obtained. Each is shown in c). The frame interval between FIGS. 8B and 8C is 7 frames. The representative points shown in the figure are converted using the calculated camera work parameters to calculate the difference between the representative point of the frame to be processed and the corresponding point of the reference frame. The point is determined to be a point of an object with movement other than the background, and each representative point is classified by changing the value of the point to a point that belongs to the background with a small value, and displayed by changing the shade of the point Is. Here, a circle shown in gray indicates a background, and a white circle indicates an outlier. This is a display method similar to Non-Patent Document 1. Further, the pixel values remaining in a line shape at the right end and the upper and lower ends in FIG. 8A are pixels in which the difference between the camera work occurs in the right and zoom-out directions.

このフレーム間ではカメラは少し右に動き、かつズームアウトしており、画像上で背景物体は左方向と画像中央方向に動くが、テロップ(図8に明示されていない)は止まっており、また、運動物体は異なる動きをしている。即ち、テロップや運動物体はカメラワークパラメータに則さないが、テロップおよび運動物体上に代表点が取られているのに関わらず、背景の一致が行えていることが分かる。
なお、運動物体上の代表点で背景に属する点として分類されているものがあるが、これはその点の運動が偶然カメラワークパラメータと同じ動きをしていたか、もしくは対応点が正確に算出できておらず、偶然カメラワークパラメータと同様の動きをしていると判断されているためである。逆に、背景上の代表点であるにもかかわらず背景に属さないと分類されているものがあるが、これは映像のノイズなどの影響で対応点算出に若干のずれが生じている点で、算出されたカメラワークパラメータの示す動きと若干異なる対応点が算出されたためと考えられる。
Between these frames, the camera moves slightly to the right and zooms out, and the background object moves to the left and the center of the image on the image, but the telop (not explicitly shown in FIG. 8) has stopped, The moving objects are moving differently. That is, the telop and the moving object do not conform to the camera work parameters, but it can be seen that the background can be matched regardless of the representative points on the telop and the moving object.
Some of the representative points on the moving object are classified as points belonging to the background, but this is because the movement of that point happens to be the same as the camera work parameter, or the corresponding point can be calculated accurately. This is because it is determined that the camera work parameter is accidentally moved. On the other hand, some of them are classified as not belonging to the background even though they are representative points on the background, but this is because there is a slight shift in the corresponding point calculation due to the effects of video noise and the like. This is probably because a corresponding point slightly different from the motion indicated by the calculated camera work parameter is calculated.

また、カット点等の画像の著しい変化が生じたフレーム間ではカメラワークパラメータ算出不可能と判定できていた。
この発明の最適な実施例として、図6により図示説明される実施例を図7のフローチャートの処理方法で実行する例を挙げることができる。カメラワークパラメータ算出法は図4を用いて説明した方法を用いる。
ところで、この発明のカメラワークパラメータ算出装置は、これをDSP(Digital Signal Processor) により構成することができる。また、コンピュータのよりプログラムを実行させることにより機能させてもよい。この場合は、そのプログラムはC-ROM、フロッピー (登録商標)ディスク、磁気ディスクなどに記録されたものを、コンピュータ内のプログラム用メモリに取り込んで行うことになる。このプログラム用メモリには、通信によりプログラムをダウンロードさせてもよい。
Further, it has been determined that the camerawork parameter cannot be calculated between frames in which a significant change in the image such as a cut point has occurred.
As an optimum embodiment of the present invention, an example in which the embodiment illustrated and described with reference to FIG. 6 is executed by the processing method of the flowchart of FIG. The camera work parameter calculation method uses the method described with reference to FIG.
By the way, the camera work parameter calculation device of the present invention can be configured by a DSP (Digital Signal Processor). Further, it may function by executing a program from a computer. In this case, the program is recorded on a C-ROM, a floppy (registered trademark) disk, a magnetic disk, or the like by being loaded into a program memory in the computer. The program memory may be downloaded by communication.

[参照文献1] Jianbo Shi, Carlo Tomasi. "Good Features to Track ", IEEE Conference CVPR 94, June 1994.   [Reference 1] Jianbo Shi, Carlo Tomasi. "Good Features to Track", IEEE Conference CVPR 94, June 1994.

請求項1に対応する実施例を説明するブロック図。The block diagram explaining the Example corresponding to Claim 1. 図1の実施例の動作フローチャート。請求項5に対応する実施例を説明する詳細フローチャート。The operation | movement flowchart of the Example of FIG. The detailed flowchart explaining the Example corresponding to Claim 5. 図2のS205の詳細フローチャート。請求項7に対応する実施例を説明する詳細フローチャート。3 is a detailed flowchart of S205 of FIG. The detailed flowchart explaining the Example corresponding to Claim 7. 図3のカメラワークパラメータ算出の手順の具体例を示した動作フローチャート。請求項8に対応する実施例を説明する詳細フローチャート。The operation | movement flowchart which showed the specific example of the procedure of the camera work parameter calculation of FIG. The detailed flowchart explaining the Example corresponding to Claim 8. 図1の実施例にカメラワークパラメータ正常判定部を付加した実施例の動作フローチャート。請求項5の中のカメラワーク算出手順に請求項8の手順を採用した実施例を示すフローチャート。The operation | movement flowchart of the Example which added the camera work parameter normal determination part to the Example of FIG. The flowchart which shows the Example which employ | adopted the procedure of Claim 8 to the camera work calculation procedure in Claim 5. 図1の実施例にフレーム間隔決定部を付加した実施例を説明するブロック図。The block diagram explaining the Example which added the frame space | interval determination part to the Example of FIG. 図6の実施例の動作フローチャート。請求項6の中のカメラワーク算出手順に請求項8の手順を採用した実施例を示すフローチャート。The operation | movement flowchart of the Example of FIG. The flowchart which shows the Example which employ | adopted the procedure of Claim 8 to the camera work calculation procedure in Claim 6. 算出パラメータを用いた映像に対する適用例を示す図。The figure which shows the example of application with respect to the image | video using a calculation parameter. 請求項3に対応する実施例を説明するブロック図。図1の実施例のカメラワークパラメータ算出部の詳細な構成を示すブロック図。The block diagram explaining the Example corresponding to Claim 3. The block diagram which shows the detailed structure of the camera work parameter calculation part of the Example of FIG. 請求項4に対応する実施例を説明するブロック図。カメラワークパラメータ算出部にカメラワークパラメータ正常判定部を付加した構成を示す図。The block diagram explaining the Example corresponding to Claim 4. The figure which shows the structure which added the camera work parameter normal determination part to the camera work parameter calculation part.

符号の説明Explanation of symbols

100 メモリ 101 映像蓄積部
102 映像入力部 103 フレーム画像更新部
104 代表点算出部 105 対応点算出部
106 カメラワークパラメータ算出部 107 代表点算出判定部
108 処理結果出力部 609 フレーム間隔決定部
901 点組合せ冗長選択部 902 暫定パラメータ算出部
903 暫定パラメータ記憶テーブル 904 パラメータ検証部
905 カメラワークパラメータ決定部 1006 カメラワークパラメータ正常判定部
DESCRIPTION OF SYMBOLS 100 Memory 101 Image | video accumulation | storage part 102 Image | video input part 103 Frame image update part 104 Representative point calculation part 105 Corresponding point calculation part 106 Camerawork parameter calculation part 107 Representative point calculation determination part 108 Processing result output part 609 Frame space | interval determination part 901 Point combination Redundancy selection unit 902 Provisional parameter calculation unit 903 Provisional parameter storage table 904 Parameter verification unit 905 Camera work parameter determination unit 1006 Camera work parameter normality determination unit

Claims (10)

映像中のフレーム画像から特徴となる点を代表点として算出する代表点算出部と、或るフレーム画像の代表点に対応する点を他のフレーム画像から算出する対応点算出部と、画像の点対応関係の組を冗長に用いて信頼度判定を行ない、信頼度の低い点対応の組を除いてカメラワークパラメータを算出するカメラワークパラメータ算出部と、代表点の算出が必要かどうかを判定する代表点算出判定部と、フレーム画像と代表点を更新するフレーム画像更新部とを具備したカメラワークパラメータ算出装置。   A representative point calculating unit that calculates a characteristic point from a frame image in the video as a representative point, a corresponding point calculating unit that calculates a point corresponding to a representative point of a certain frame image from another frame image, and an image point Performs reliability determination using redundant pairs of correspondence relationships, and determines whether it is necessary to calculate representative points, and a camera work parameter calculation unit that calculates camera work parameters by excluding pairs with low reliability points A camera work parameter calculation apparatus comprising: a representative point calculation determination unit; and a frame image and a frame image update unit that updates a representative point. 映像中のフレーム画像から特徴となる点を代表点として算出する代表点算出部と、或るフレーム画像の代表点に対応する点を他のフレーム画像から算出する対応点算出部と、算出された複数の参照フレーム上の対応点数を比較して採用する参照フレームを決定するフレーム間隔決定部と、画像の点対応関係の組を冗長に用いて信頼度判定を行ない、信頼度の低い点対応の組を除いてカメラワークパラメータを算出するカメラワークパラメータ算出部と、代表点の算出が必要かどうかを判定する代表点算出判定部と、フレーム画像と代表点を更新するフレーム画像更新部と、を具備したカメラワークパラメータ算出装置。   A representative point calculation unit that calculates a characteristic point from a frame image in the video as a representative point; a corresponding point calculation unit that calculates a point corresponding to a representative point of a certain frame image from another frame image; A frame interval determination unit that determines the reference frame to be adopted by comparing the number of corresponding points on a plurality of reference frames and a pair of image point correspondences are used redundantly to make a reliability determination. A camera work parameter calculation unit that calculates camera work parameters excluding the set, a representative point calculation determination unit that determines whether the calculation of the representative point is necessary, and a frame image update unit that updates the frame image and the representative point. A camera work parameter calculation device provided. 請求項1および請求項2の内の何れかに記載されるカメラワークパラメータ算出装置において、
カメラワークパラメータ算出部は、代表点と算出された対応点の中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択部と、選択された冗長な点の組合せから複数のカメラワークパラメータを算出する暫定パラメータ算出部と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証部と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定部とを具備したカメラワークパラメータ算出装置。
In the camera work parameter calculation device according to any one of claims 1 and 2,
The camera work parameter calculation unit includes a point combination redundancy selection unit that selects more points than the minimum number necessary for parameter calculation from the representative points and the calculated corresponding points, and a plurality of combinations of the selected redundant points. A temporary parameter calculation unit that calculates a camera work parameter, a parameter verification unit that determines whether the value is reliable by performing threshold processing based on the degree of dispersion of the variance value, and the like, and determines the camera work parameter using only the reliable value A camera work parameter calculation device comprising a camera work parameter determination unit.
請求項1および請求項2の内の何れかに記載されるカメラワークパラメータ算出装置において、
カメラワークパラメータ算出部は、代表点と算出された対応点の中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択部と、選択された冗長な点の組合せから複数のカメラワークパラメータを算出する暫定パラメータ算出部と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証部と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定部と、算出されたカメラワークパラメータが正常かどうか判定して異常な場合を算出不能な時刻として記憶するカメラワークパラメータ正常判定部とを備えたカメラワークパラメータ算出装置。
In the camera work parameter calculation device according to any one of claims 1 and 2,
The camera work parameter calculation unit includes a point combination redundancy selection unit that selects more points than the minimum number necessary for parameter calculation from the representative points and the calculated corresponding points, and a plurality of combinations of the selected redundant points. A temporary parameter calculation unit that calculates a camera work parameter, a parameter verification unit that determines whether the value is reliable by performing threshold processing based on the degree of dispersion of the variance value, and the like, and determines the camera work parameter using only the reliable value A camera work parameter calculation apparatus comprising: a camera work parameter determination unit; and a camera work parameter normality determination unit that determines whether the calculated camera work parameter is normal and stores an abnormal case as an uncalculatable time.
映像中のフレーム画像から特徴となる点を代表点として算出する代表点算出手順と、或るフレーム画像の代表点に対応する点を他のフレーム画像から算出する対応点算出手順と、画像の点対応関係の組を冗長に用いて信頼度判定を行ない、信頼度の低い点対応の組を除いてカメラワークパラメータを算出するカメラワークパラメータ算出手順と、代表点の算出が必要かどうかを判定する代表点算出判定手順と、フレーム画像と代表点を更新するフレーム画像更新手順と、を有するカメラワークパラメータ算出方法。   A representative point calculation procedure for calculating a characteristic point from a frame image in a video as a representative point, a corresponding point calculation procedure for calculating a point corresponding to a representative point of a certain frame image from another frame image, and an image point Performs reliability determination using redundant pairs of correspondence relationships, determines the camera work parameter calculation procedure for calculating camera work parameters excluding point correspondence pairs with low reliability, and determines whether representative points need to be calculated A camera work parameter calculation method comprising: a representative point calculation determination procedure; and a frame image update procedure for updating a frame image and a representative point. 映像中のフレーム画像から特徴となる点を代表点として算出する代表点算出手順と、或るフレーム画像の代表点に対応する点を他のフレーム画像から算出する対応点算出手順と、算出された複数の参照フレーム上の対応点数を比較して採用する参照フレームを決定するフレーム間隔決定手順と、画像の点対応関係の組を冗長に用いて信頼度判定を行ない、信頼度の低い点対応の組を除いてカメラワークパラメータを算出するカメラワークパラメータ算出手順と、代表点の算出が必要かどうかを判定する代表点算出判定手順と、フレーム画像と代表点を更新するフレーム画像更新手順と、を有するカメラワークパラメータ算出方法。   A representative point calculation procedure for calculating a characteristic point from a frame image in the video as a representative point; a corresponding point calculation procedure for calculating a point corresponding to a representative point of a certain frame image from another frame image; A frame interval determination procedure for determining the reference frame to be adopted by comparing the number of corresponding points on a plurality of reference frames and a pair of image point correspondences are used redundantly to make a reliability determination, and a point corresponding to a low reliability point A camera work parameter calculation procedure for calculating camera work parameters excluding the set, a representative point calculation determination procedure for determining whether or not a representative point needs to be calculated, and a frame image update procedure for updating the frame image and the representative point. A camera work parameter calculation method. 請求項5および請求項6の内の何れかに記載されるカメラワークパラメータ算出方法において、
カメラワークパラメータ算出手順として、代表点と算出された対応点の中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択手順と、選択された冗長な点の組合せから複数のカメラワークパラメータを算出する暫定パラメータ算出手順と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証手順と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定手順と、を有するカメラワークパラメータ算出方法。
In the camera work parameter calculation method according to any one of claims 5 and 6,
As a camera work parameter calculation procedure, a point combination redundancy selection procedure for selecting more points than the minimum number required for parameter calculation from representative points and calculated corresponding points, and a plurality of combinations of the selected redundant points are selected. A provisional parameter calculation procedure for calculating camera work parameters, a parameter verification procedure for determining whether or not a reliable value is obtained by performing threshold processing based on the degree of dispersion of the variance value, and the camera work parameter is determined using only the reliable value. A camera work parameter determination procedure.
請求項5および請求項6の内の何れかに記載されるカメラワークパラメータ算出方法において、
カメラワークパラメータ算出手順として、代表点と算出された対応点の中からパラメータ算出に必要な最低点数より多くの点数を選択する点組合せ冗長選択手順と、選択された冗長な点の組合せから複数のカメラワークパラメータを算出する暫定パラメータ算出手順と、その分散値等のばらつき度合により閾値処理することで信頼できる値かどうか判定するパラメータ検証手順と、信頼できる値のみを用いてカメラワークパラメータを決定するカメラワークパラメータ決定手順と、算出されたカメラワークパラメータが正常かどうか判定して異常な場合を算出不能な時刻として記憶するカメラワークパラメータ正常判定手順とを有するカメラワークパラメータ算出方法。
In the camera work parameter calculation method according to any one of claims 5 and 6,
As a camera work parameter calculation procedure, a point combination redundancy selection procedure for selecting more points than the minimum number required for parameter calculation from representative points and calculated corresponding points, and a plurality of combinations of the selected redundant points are selected. A provisional parameter calculation procedure for calculating camera work parameters, a parameter verification procedure for determining whether or not a reliable value is obtained by performing threshold processing based on the degree of dispersion of the variance value, and the camera work parameter is determined using only the reliable value. A camera work parameter calculation method comprising: a camera work parameter determination procedure; and a camera work parameter normal determination procedure for determining whether or not the calculated camera work parameter is normal and storing an abnormal case as an uncalculatable time.
請求項5ないし請求項8の内の何れかに記載されるカメラワークパラメータ算出方法を実行すべき指令をコンピュータに対してするカメラワークパラメータ算出プログラム。   A camera work parameter calculation program for instructing a computer to execute the camera work parameter calculation method according to any one of claims 5 to 8. 請求項9に記載されるカメラワークパラメータ算出プログラムを記憶した記憶媒体。   A storage medium storing the camera work parameter calculation program according to claim 9.
JP2005002751A 2005-01-07 2005-01-07 Camera work parameter calculation method, apparatus for implementing this method, program, and storage medium Active JP4473736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005002751A JP4473736B2 (en) 2005-01-07 2005-01-07 Camera work parameter calculation method, apparatus for implementing this method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005002751A JP4473736B2 (en) 2005-01-07 2005-01-07 Camera work parameter calculation method, apparatus for implementing this method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2006190176A true JP2006190176A (en) 2006-07-20
JP4473736B2 JP4473736B2 (en) 2010-06-02

Family

ID=36797311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005002751A Active JP4473736B2 (en) 2005-01-07 2005-01-07 Camera work parameter calculation method, apparatus for implementing this method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4473736B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
JP2014086773A (en) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
JP2014086773A (en) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method

Also Published As

Publication number Publication date
JP4473736B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP4471039B2 (en) Moving vector detection device
US20060002470A1 (en) Motion vector detection circuit, image encoding circuit, motion vector detection method and image encoding method
US20110255747A1 (en) Moving object detection apparatus and moving object detection method
WO2001010135A1 (en) Moving vector detecting method
JP5471449B2 (en) Moving area detector
WO2013031424A1 (en) Image processing device, image processing method, and program
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JP6240706B2 (en) Line tracking using automatic model initialization with graph matching and cycle detection
US8395824B2 (en) Method for determining ground line
JP5979145B2 (en) Video area detector
JP4473736B2 (en) Camera work parameter calculation method, apparatus for implementing this method, program, and storage medium
US20170289493A1 (en) Projection apparatus, image processing apparatus, and image processing method
JP2020098575A (en) Image processor, method for processing information, and image processing program
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
US10674174B2 (en) Coding apparatus, coding method, and recording medium
JP6814484B2 (en) Image processing equipment, image processing method and image processing program
WO2016142965A1 (en) Video processing device, video processing method, and storage medium storing video processing program
JP2010211398A (en) Image processing apparatus
JP2007087049A (en) Dynamic image processor
JP2009225211A (en) Information processing apparatus and method, and program
JP2009267726A (en) Moving image encoding apparatus, recorder, moving image encoding method, moving image encoding program
JP2004164479A (en) Device, method, and program for generating image deformation information
Chung et al. Reliability analysis for global motion estimation
JPH08242454A (en) Method for detecting global motion parameter

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4473736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350