JP2004234637A - Moving image compositing device and method and program - Google Patents

Moving image compositing device and method and program Download PDF

Info

Publication number
JP2004234637A
JP2004234637A JP2003407321A JP2003407321A JP2004234637A JP 2004234637 A JP2004234637 A JP 2004234637A JP 2003407321 A JP2003407321 A JP 2003407321A JP 2003407321 A JP2003407321 A JP 2003407321A JP 2004234637 A JP2004234637 A JP 2004234637A
Authority
JP
Japan
Prior art keywords
frame
patch
correlation
image
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003407321A
Other languages
Japanese (ja)
Other versions
JP4356876B2 (en
Inventor
Sukekazu Kameyama
祐和 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003407321A priority Critical patent/JP4356876B2/en
Priority to US10/750,461 priority patent/US7391931B2/en
Publication of JP2004234637A publication Critical patent/JP2004234637A/en
Application granted granted Critical
Publication of JP4356876B2 publication Critical patent/JP4356876B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a high resolution frame where the deterioration of picture quality is reduced regardless of the movement of an object included in the frame at the time of acquiring one high resolution frame from a plurality of frames sampled from moving image data. <P>SOLUTION: Patches are arranged in a plurality of frames FrN, FrN+1, and the patches are moved and/or deformed so that the corresponding relations of those respective frames can be estimated, and the frame FrN+1 is coordinate transformed based on the estimated corresponding relation, and a correlation value between that and the frame FrN is calculated. The number of divisions of the patches is changed, and the correlation value is calculated in the same way. Then, a composited frame FrG is prepared from the frames FrN and FrN+1 based on the corresponding relation estimated from the number of divisions leading to the maximum correlation. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、動画像をサンプリングすることにより得られた連続する複数のフレームを合成して、サンプリングしたフレームよりも高解像度の1の合成フレームを作成する動画像合成装置および方法並びに動画像合成方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to a moving image synthesizing apparatus and method, and a moving image synthesizing method for synthesizing a plurality of consecutive frames obtained by sampling moving images to create one synthesized frame having a higher resolution than the sampled frames. The present invention relates to a program for causing a computer to execute.

近年のデジタルビデオカメラの普及により、動画像を1フレーム単位で扱うことが可能となっている。このような動画像のフレームをプリント出力する際には、画質を向上させるためにフレームを高解像度にする必要がある。このため、動画像からサンプリングした複数のフレームから、これらのフレームよりも高解像度の1の合成フレームを作成する方法が提案されている(例えば、特許文献1参照)。この方法は、複数のフレーム間の動ベクトルを求め、この動ベクトルに基づいて、複数のフレームから合成フレームを合成する際に、画素間に内挿する信号値を算出する方法である。とくに特許文献1に記載された方法では、各フレームを複数のブロックに分割し、フレーム間で対応するブロックの直交座標係数を算出し、この直交座標係数における高周波の情報を他のブロックにおける低周波の情報と合成して内挿される画素値を算出しているため、必要な情報が低減されることなく、高画質の合成フレームを得ることができる。また、この方法においては、画素間距離よりもさらに細かい分解能にて動ベクトルを算出しているため、フレーム間の動きを正確に補償してより高画質の合成フレームを得ることができる。   With the recent spread of digital video cameras, it is possible to handle moving images in units of frames. When printing out a frame of such a moving image, it is necessary to make the frame high resolution in order to improve the image quality. For this reason, a method of creating one composite frame having a higher resolution than those frames from a plurality of frames sampled from a moving image has been proposed (for example, see Patent Document 1). In this method, a motion vector between a plurality of frames is obtained, and a signal value to be interpolated between pixels is calculated based on the motion vector when a synthesized frame is synthesized from a plurality of frames. In particular, in the method described in Patent Document 1, each frame is divided into a plurality of blocks, the orthogonal coordinate coefficients of the corresponding blocks between the frames are calculated, and high-frequency information in the orthogonal coordinate coefficients is used as low-frequency information in other blocks. Since the pixel value to be interpolated by combining with this information is calculated, a high-quality synthesized frame can be obtained without reducing necessary information. Further, in this method, since the motion vector is calculated with a resolution finer than the inter-pixel distance, it is possible to obtain a synthesized frame with higher image quality by accurately compensating for the motion between frames.

また、複数のフレームのうち1のフレームを基準フレームとし、基準フレームに複数の矩形領域からなる基準パッチを、基準フレーム以外の他のフレームに基準パッチと同様のパッチを配置し、パッチ内の画像が基準パッチ内の画像と一致するようにパッチを他のフレーム上において移動および/または変形し、移動および/または変形後のパッチおよび基準パッチに基づいて、他のフレーム上のパッチ内の画素と基準フレーム上の基準パッチ内の画素との対応関係を推定して複数フレームをより精度よく合成する方法も提案されている(例えば、非特許文献1参照)。   Also, one of the plurality of frames is set as a reference frame, a reference patch composed of a plurality of rectangular areas is arranged in the reference frame, and a patch similar to the reference patch is arranged in a frame other than the reference frame. Move and / or deform the patch on the other frame so that the image matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch, the pixels in the patch on the other frame A method has also been proposed in which a correspondence relationship with pixels in a reference patch on a reference frame is estimated to synthesize a plurality of frames more accurately (see, for example, Non-Patent Document 1).

非特許文献1の方法においては、基準フレームと他のフレームとの対応関係を推定し、推定後、他のフレームと基準フレームとを、最終的に必要な解像度を有する統合画像上に割り当てることにより、高精細な合成フレームを得ることができる。
特開2000−354244号公報 中沢祐二、小松隆、斉藤隆弘,「フレーム間統合による高精細ディジタル画像の獲得」,テレビジョン学会誌,1995年,Vol.49,No.3,p299−308
In the method of Non-Patent Document 1, the correspondence between the reference frame and other frames is estimated, and after the estimation, the other frames and the reference frame are finally allocated on the integrated image having the necessary resolution. A high-definition composite frame can be obtained.
JP 2000-354244 A Yuji Nakazawa, Takashi Komatsu, Takahiro Saito, “Acquisition of high-definition digital images by interframe integration”, Journal of the Television Society, 1995, Vol. 49, no. 3, p299-308

しかしながら、非特許文献1に記載された方法においては、他のフレームに含まれる被写体の動きが非常に大きい場合や、局所的に含まれる被写体が複雑な動きをしていたり非常に高速で動いている場合には、被写体の動きにパッチの移動および/または変形が追随できない場合がある。このように、パッチの移動および/または変形が被写体の移動および/または変形に追随できないと、合成フレームの全体がぼけたり、フレームに含まれる動きの大きい被写体がぼけたりするため、高画質の合成フレームを得ることができないという問題がある。この場合、パッチをより多くの矩形領域に分割することにより、被写体の移動および/または変形にパッチの移動および/または変形を追随させることができる。しかしながら、分割数をあまりに多くすると矩形領域が小さくなりすぎて、却って被写体の移動および/または変形にパッチの移動および/または変形を追随させることが困難となってしまう。   However, in the method described in Non-Patent Document 1, when the movement of the subject included in another frame is very large, or the subject included locally moves in a complicated manner or moves at a very high speed. In some cases, the movement and / or deformation of the patch cannot follow the movement of the subject. In this way, if the movement and / or deformation of the patch cannot follow the movement and / or deformation of the subject, the entire composite frame will be blurred, or the subject with large movement included in the frame will be blurred, so high-quality composition is possible. There is a problem that a frame cannot be obtained. In this case, by dividing the patch into more rectangular areas, the movement and / or deformation of the subject can follow the movement and / or deformation of the subject. However, if the number of divisions is too large, the rectangular area becomes too small, and it becomes difficult to make the movement and / or deformation of the subject follow the movement and / or deformation of the subject.

本発明は上記事情に鑑みなされたものであり、最適なパッチの分割数にて高画質の合成フレームを得ることを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to obtain a high-quality composite frame with an optimal number of patch divisions.

本発明による第1の動画像合成装置は、動画像から連続する2つのフレームをサンプリングするサンプリング手段と、
該2つのフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する対応関係推定手段と、
前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する座標変換手段と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する相関値算出手段と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得するよう、前記対応関係推定手段、前記座標変換手段および前記相関値算出手段を制御する制御手段と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する比較手段と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い合成フレームを作成する合成手段とを備えたことを特徴とするものである。
A first moving image synthesizing apparatus according to the present invention comprises sampling means for sampling two consecutive frames from a moving image;
Of the two frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is arranged on a frame other than the reference frame. , Moving and / or deforming the patch on the other frame so that the image in the patch matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch A correspondence estimation means for estimating a correspondence between a pixel in the patch on the other frame and a pixel in the reference patch on the reference frame;
Based on the correspondence, coordinate conversion means for converting the image in the patch of the other frame to the coordinate space of the reference frame to obtain a coordinate-converted frame;
Correlation value calculating means for calculating a correlation value representing a correlation between the coordinate-converted frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Control means for controlling the correspondence estimation means, the coordinate conversion means, and the correlation value calculation means so as to obtain a plurality of correlation values according to the patch and the number of divisions of the patch;
Comparing means for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated in the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other frame and the image in the reference patch of the reference frame, and And a synthesizing unit that creates a synthetic frame having a higher resolution than each frame.

「分割数を段階的に変更する」とは、少ない分割数から予め定められた分割数まで段階的に分割数を徐々に大きくすること、および大きい分割数から予め定められた分割数まで段階的に分割数を徐々に小さくすることの双方を含む。   “Change the number of divisions stepwise” means that the number of divisions is gradually increased from a small number of divisions to a predetermined number of divisions, and stepwise from a large number of divisions to a predetermined number of divisions. Includes gradually reducing the number of divisions.

「相関値」は、座標変換済みフレームと基準フレームの基準パッチ内の画像とのパッチの矩形領域単位またはフレーム単位で算出すればよい。   The “correlation value” may be calculated in units of a rectangular area or a frame of a patch between the coordinate-converted frame and the image in the reference patch of the reference frame.

「相関の大きさを比較する」とは、相関値がフレーム単位で算出された場合にはフレーム間での相関の大きさを比較することを意味し、相関値が矩形領域単位で算出された場合には各矩形領域間での相関の大きさを比較することを意味する。なお、比較はある分割数において算出された相関値と他の分割数において算出された相関値とで行われる。ここで、分割数が大きいほど矩形領域のサイズは小さくなるため、ある分割数において算出された相関値と他の分割数において算出された相関値との比較は、サイズが大きい方の矩形領域の相関値と、その矩形領域に対応するサイズが小さい方の複数の矩形領域の相関値の平均値および中間値等とにより行われる。   “Comparing the magnitude of correlation” means comparing the magnitude of correlation between frames when the correlation value is calculated in units of frames, and the correlation value is calculated in units of rectangular areas. In this case, it means that the magnitude of correlation between the rectangular areas is compared. Note that the comparison is performed between the correlation value calculated in a certain division number and the correlation value calculated in another division number. Here, the larger the number of divisions, the smaller the size of the rectangular area. Therefore, the comparison between the correlation value calculated for one number of divisions and the correlation value calculated for other number of divisions is for the rectangular area with the larger size. The correlation value is calculated based on the average value and intermediate value of the correlation values of a plurality of rectangular areas having smaller sizes corresponding to the rectangular area.

なお、本発明による第1の動画像合成装置においては、前記合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであってもよい。   In the first moving image synthesizing apparatus according to the present invention, the correspondence used for creating the synthesized frame may be estimated for each rectangular area.

また、本発明による第1の動画像合成装置においては、前記対応関係推定手段、前記座標変換手段、前記相関値算出手段、前記制御手段および前記合成手段を、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行う手段としてもよい。   Further, in the first moving image synthesizing apparatus according to the present invention, the correspondence relationship estimation means, the coordinate conversion means, the correlation value calculation means, the control means, and the composition means are used for the correspondence relationship estimation, the coordinate conversion, and the like. As means for performing acquisition of a completed frame, calculation of the correlation value, acquisition of the plurality of correlation values, comparison of the magnitude of the correlation, and creation of the composite frame using at least one component constituting the frame Good.

「フレームを構成する少なくとも1つの成分」とは、例えばフレームがRGBの3つの色データからなる場合においてはRGB各色成分のうちの少なくとも1つの成分であり、YCC輝度色差成分からなる場合には、輝度および色差の各成分のうちの少なくとも1つの成分、好ましくは輝度成分である。   “At least one component constituting the frame” is, for example, at least one component of RGB color components when the frame is composed of three RGB color data, and when composed of YCC luminance color difference components, At least one of the luminance and color difference components, preferably the luminance component.

本発明による第2の動画像合成装置は、動画像から連続する3以上のフレームをサンプリングするサンプリング手段と、
該3以上のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他の1のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他の1のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他の1のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する対応関係推定手段と、
前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する座標変換手段と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する相関値算出手段と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得するよう、前記対応関係推定手段、前記座標変換手段および前記相関値算出手段を制御する制御手段と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する比較手段と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い中間合成フレームを取得し、全ての前記他のフレームについて、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記中間合成フレームの取得を行い、全ての前記他のフレームについて取得された複数の前記中間合成フレームを合成することにより合成フレームを作成する合成手段とを備えたことを特徴とするものである。
A second moving image synthesizing apparatus according to the present invention comprises sampling means for sampling three or more consecutive frames from a moving image;
Among the three or more frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is placed on one other frame other than the reference frame And moving and / or deforming the patch on the other one frame so that the image in the patch matches the image in the reference patch, and the patch after the movement and / or deformation and Correspondence estimation means for estimating a correspondence between a pixel in the patch on the other one frame and a pixel in the reference patch on the reference frame based on the reference patch;
Coordinate conversion means for converting the image in the patch of the other one frame into the coordinate space of the reference frame to obtain a coordinate-converted frame based on the correspondence relationship;
Correlation value calculating means for calculating a correlation value representing a correlation between the coordinate-converted frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Control means for controlling the correspondence estimation means, the coordinate conversion means, and the correlation value calculation means so as to obtain a plurality of correlation values according to the patch and the number of divisions of the patch;
Comparing means for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated at the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other one frame and the image in the reference patch of the reference frame. , Obtaining an intermediate composite frame having a higher resolution than each frame, and for all the other frames, estimating the correspondence, obtaining the coordinate-transformed frame, calculating the correlation value, and calculating the plurality of correlation values. A synthesizing unit that obtains, compares the correlation magnitudes, and obtains the intermediate synthesized frame, and synthesizes a plurality of the intermediate synthesized frames obtained for all the other frames; It is characterized by that.

なお、本発明による第2の動画像合成装置においては、前記中間合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであってもよい。   In the second moving image synthesizing apparatus according to the present invention, the correspondence used for creating the intermediate synthesized frame may be estimated for each rectangular area.

また、本発明による第2の動画像合成装置においては、前記対応関係推定手段、前記座標変換手段、前記相関値算出手段、前記制御手段および前記合成手段を、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較、前記中間合成フレームの取得および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行う手段としてもよい。   In the second moving image synthesizing apparatus according to the present invention, the correspondence relationship estimation means, the coordinate conversion means, the correlation value calculation means, the control means, and the composition means are connected to the correspondence relationship estimation, the coordinate conversion, and the like. Acquisition of completed frames, calculation of the correlation values, acquisition of the plurality of correlation values, comparison of the magnitudes of the correlations, acquisition of the intermediate composite frame and creation of the composite frame, at least one component constituting the frame It is good also as a means to perform using.

本発明による第1の動画像合成方法は、動画像から連続する2つのフレームをサンプリングし、
該2つのフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定し、
前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得し、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出し、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得し、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較し、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い合成フレームを作成することを特徴とするものである。
A first moving image composition method according to the present invention samples two consecutive frames from a moving image,
Of the two frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is arranged on a frame other than the reference frame. , Moving and / or deforming the patch on the other frame so that the image in the patch matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch Estimating a correspondence between a pixel in the patch on the other frame and a pixel in the reference patch on the reference frame,
Based on the correspondence relationship, the image in the patch of the other frame is coordinate-transformed into the coordinate space of the reference frame to obtain a coordinate-transformed frame,
Calculating a correlation value representing a correlation between the coordinate-transformed frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Obtain a plurality of correlation values according to the patch and the number of divisions of the patch,
Comparing the correlation magnitude for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated in the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other frame and the image in the reference patch of the reference frame, and A composite frame having a higher resolution than each frame is created.

なお、本発明による第1の動画像合成方法においては、前記合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであってもよい。   In the first moving image composition method according to the present invention, the correspondence used for creating the composite frame may be estimated for each rectangular area.

また、本発明による第1の動画像合成方法においては、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行ってもよい。   In the first moving image composition method according to the present invention, the correspondence is estimated, the coordinate-transformed frame is acquired, the correlation value is calculated, the plurality of correlation values are acquired, and the correlation magnitude is compared. The composite frame may be created using at least one component constituting the frame.

本発明による第2の動画像合成方法は、動画像から連続する3以上のフレームをサンプリングし、
該3以上のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他の1のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他の1のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他の1のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定し、
前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得し、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出し、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得し、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較し、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い中間合成フレームを取得し、
全ての前記他のフレームについて、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記中間合成フレームの取得を行い、
全ての前記他のフレームについて取得された複数の前記中間合成フレームを合成することにより合成フレームを作成することを特徴とするものである。
The second moving image composition method according to the present invention samples three or more consecutive frames from a moving image,
Among the three or more frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is placed on one other frame other than the reference frame And moving and / or deforming the patch on the other one frame so that the image in the patch matches the image in the reference patch, and the patch after the movement and / or deformation and Based on the reference patch, a correspondence relationship between a pixel in the patch on the other one frame and a pixel in the reference patch on the reference frame is estimated,
Based on the correspondence, the image in the patch of the other one frame is coordinate-transformed into the coordinate space of the reference frame to obtain a coordinate-transformed frame;
Calculating a correlation value representing a correlation between the coordinate-transformed frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Obtain a plurality of correlation values according to the patch and the number of divisions of the patch,
Comparing the correlation magnitude for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated at the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other one frame and the image in the reference patch of the reference frame. , Obtain an intermediate composite frame having a higher resolution than each of the frames,
For all the other frames, estimation of the correspondence, acquisition of the coordinate-transformed frame, calculation of the correlation value, acquisition of the plurality of correlation values, comparison of the correlation magnitudes, and acquisition of the intermediate composite frame And
A synthesized frame is created by synthesizing a plurality of the intermediate synthesized frames acquired for all the other frames.

なお、本発明による第2の動画像合成方法においては、前記中間合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであってもよい。   In the second moving image composition method according to the present invention, the correspondence used for creating the intermediate composition frame may be estimated for each rectangular area.

また、本発明による第2の動画像合成方法においては、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較、前記中間合成フレームの取得および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行ってもよい。   In the second moving image composition method according to the present invention, the correspondence is estimated, the coordinate-transformed frame is acquired, the correlation value is calculated, the plurality of correlation values are acquired, and the correlation magnitude is compared. The acquisition of the intermediate composite frame and the creation of the composite frame may be performed using at least one component constituting the frame.

なお、本発明による第1および第2の動画像合成方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the 1st and 2nd moving image composition method by this invention.

本発明によれば、動画像がサンプリングされて連続する複数のフレームが取得され、複数のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチが配置される。また、基準フレーム以外の他のフレーム上に、基準パッチと同様のパッチが配置される。そして、パッチ内の画像が基準パッチ内の画像と一致するように移動および/または変形され、移動および/または変形後のパッチおよび基準パッチに基づいて、他のフレームの上のパッチ内の画素と基準フレーム上の基準パッチ内の画素との対応関係が推定される。   According to the present invention, a plurality of continuous frames are acquired by sampling a moving image, and a reference patch having one or more rectangular areas is arranged on one reference frame as a reference among the plurality of frames. . A patch similar to the reference patch is arranged on a frame other than the reference frame. Then, the image in the patch is moved and / or deformed so as to match the image in the reference patch, and based on the moved and / or deformed patch and the reference patch, A correspondence relationship with the pixels in the reference patch on the reference frame is estimated.

さらに、対応関係に基づいて他のフレームのパッチ内の画像が基準フレームの座標空間に座標変換されて座標変換済みフレームが取得され、座標変換済みフレームと基準フレームの基準パッチ内の画像との相関を表す相関値が算出される。   Further, based on the correspondence, the image in the patch of the other frame is transformed into the coordinate space of the reference frame to obtain the coordinate-converted frame, and the correlation between the coordinate-converted frame and the image in the reference patch of the reference frame is obtained. Is calculated.

そして、基準パッチおよびパッチ内の矩形領域の分割数が段階的に変更され、各段階において対応関係の推定、座標変換済みフレームの取得および相関値の算出が行われて、分割数に応じた複数の相関値が取得される。   Then, the division number of the reference patch and the rectangular area in the patch is changed in stages, and in each stage, the correspondence is estimated, the coordinate converted frame is obtained, and the correlation value is calculated. Is obtained.

さらに、複数の相関値に基づいて分割数毎に相関の大きさが比較され、相関が最大となる分割数において推定された対応関係に基づいて、他のフレームのパッチ内の画像および基準フレームのパッチ内の画像に対して補間演算が施されて、各フレームよりも解像度が高い合成フレームが作成される。   Further, the magnitude of the correlation is compared for each number of divisions based on a plurality of correlation values, and the images in the patches of the other frames and the reference frame are determined based on the correspondence relationship estimated in the number of divisions that maximizes the correlation. Interpolation is performed on the image in the patch to create a composite frame having a higher resolution than each frame.

なお、フレームが3以上サンプリングされた場合には、基準フレーム以外の全ての他のフレームについて、対応関係の推定、座標変換済みフレームの取得、相関値の算出、複数の相関値の取得および相関の大きさの比較が行われ、基準フレームと他のフレームのそれぞれとから複数の中間合成フレームが取得され、さらに複数の中間合成フレームから合成フレームが作成される。   When three or more frames are sampled, for all other frames other than the reference frame, correspondence estimation, acquisition of coordinate-transformed frames, calculation of correlation values, acquisition of a plurality of correlation values, and correlation The size is compared, a plurality of intermediate composite frames are acquired from the reference frame and each of the other frames, and a composite frame is created from the plurality of intermediate composite frames.

このため、フレーム内における動いている被写体の移動および/または変形に追随可能な最適な分割数により合成フレームを作成することができ、これにより、フレームに含まれる被写体の動きに拘わらず、高画質の合成フレームを得ることができる。   For this reason, it is possible to create a composite frame with an optimal number of divisions that can follow the movement and / or deformation of a moving subject within the frame, thereby enabling high image quality regardless of the movement of the subject included in the frame. Can be obtained.

また、合成フレームまたは中間合成フレームの作成に用いる対応関係を矩形領域毎に推定することにより、基準パッチおよびパッチ内における分割された矩形領域毎に、合成フレームまたは中間合成フレームが作成されることとなる。このため、フレーム内の各部分に含まれる被写体の動きに追随した最適な分割数により合成フレームを作成することができ、これにより、フレームに含まれる被写体の動きに拘わらず、より高画質の合成フレームを得ることができる。   In addition, by estimating the correspondence used for creating a composite frame or an intermediate composite frame for each rectangular area, a composite frame or an intermediate composite frame is created for each rectangular area divided within the reference patch and the patch. Become. For this reason, a composite frame can be created with an optimal number of divisions that follow the movement of the subject included in each part of the frame, thereby enabling a higher quality composite regardless of the movement of the subject included in the frame. You can get a frame.

また、対応関係の推定、座標変換済みフレームの取得、相関値の算出、複数の相関値の取得、相関の大きさの比較、中間合成フレームの取得(3以上のフレームがサンプリングされた場合)および合成フレームの作成をフレームを構成する少なくとも1つの成分を用いて行うことにより、各成分毎に画質の劣化を低減した合成フレームを得ることができ、これにより、各成分毎の合成フレームからなる高画質の合成フレームを得ることができる。   Also, estimation of correspondence, acquisition of coordinate-converted frames, calculation of correlation values, acquisition of a plurality of correlation values, comparison of correlation magnitudes, acquisition of intermediate composite frames (when three or more frames are sampled) and By creating a composite frame using at least one component constituting the frame, it is possible to obtain a composite frame with reduced image quality degradation for each component. A composite frame with high image quality can be obtained.

以下図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による動画像合成装置の構成を示す概略ブロック図である。図1に示すように、本実施形態による動画像合成装置は、入力された動画像データM0から複数のフレームをサンプリングするサンプリング手段1と、複数のフレームのうち、基準となる1の基準フレームの画素および基準フレーム以外の他のフレームの画素の対応関係を推定する対応関係推定手段2と、対応関係推定手段2において推定された対応関係に基づいて、他のフレームをそれぞれ基準フレームの座標空間上に座標変換して、後述するように対応関係を推定するパッチの分割数に応じた複数の座標変換済みのフレーム(以下座標変換フレームとする)FrT0,FrT1を取得する座標変換手段3と、座標変換フレームFrT0,FrT1と基準フレームとの相関を表す相関値を後述するように対応関係を推定するパッチの分割数に応じて複数算出する相関値算出手段4と、複数の相関値に基づいて分割数毎に相関の大きさを比較する比較手段5と、相関が最大となる分割数において対応関係推定手段2により推定された対応関係に基づいて、基準フレームおよび他のフレームに対して補間演算を施して各フレームよりも解像度が高い合成フレームFrGを作成する合成手段6とを備える。なお、本実施形態において合成フレームFrGはサンプリングしたフレームの縦横それぞれ2倍の画素を有するものとする。なお、以降では、合成フレームFrGはサンプリングしたフレームの縦横それぞれ2倍の画素を有するものとして説明するが、n倍(n:正数)の画素数を有するものであってもよい。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a moving image synthesis apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the moving image synthesizing apparatus according to the present embodiment includes a sampling unit 1 that samples a plurality of frames from input moving image data M0, and one reference frame that is a reference among the plurality of frames. Correspondence relationship estimation means 2 for estimating the correspondence relationship between the pixels and the pixels of other frames other than the reference frame, and other frames on the coordinate space of the reference frame based on the correspondence relation estimated by the correspondence relationship estimation means 2 The coordinate conversion means 3 for obtaining a plurality of coordinate-converted frames (hereinafter referred to as coordinate conversion frames) FrT0 and FrT1 according to the number of divisions of the patch whose relationship is estimated as described later, The number of patches divided to estimate the correlation as will be described later with respect to the correlation value representing the correlation between the converted frames FrT0 and FrT1 and the reference frame Correlation value calculation means 4 for calculating a plurality of values in response, comparison means 5 for comparing the magnitudes of the correlations for each number of divisions based on the plurality of correlation values, and estimation by the correspondence relationship estimation means 2 for the number of divisions with the maximum correlation And a synthesizing unit 6 that performs an interpolation operation on the reference frame and other frames based on the correspondence relationship and creates a synthesized frame FrG having a higher resolution than each frame. In the present embodiment, it is assumed that the synthesized frame FrG has twice as many pixels as the sampled frame. In the following description, the composite frame FrG is described as having twice as many pixels as the sampled frame, but it may be n times (n: positive number).

サンプリング手段1は、動画像データM0から複数のフレームをサンプリングするが、本実施形態においては動画像データM0から2つのフレームFrNおよびフレームFrN+1をサンプリングするものとする。なお、フレームFrNを基準フレームとする。ここで、動画像データM0はカラーの動画像を表すものであり、フレームFrN,FrN+1はY,Cb,Crの輝度色差成分からなるものとする。なお、以降の説明において、Y,Cb,Crの各成分に対して処理が行われるが、行われる処理は全ての成分について同様であるため、本実施形態においては輝度成分Yの処理について詳細に説明し、色差成分Cb,Crに対する処理については説明を省略する。   The sampling means 1 samples a plurality of frames from the moving image data M0. In this embodiment, the sampling means 1 samples two frames FrN and FrN + 1 from the moving image data M0. Note that the frame FrN is a reference frame. Here, the moving image data M0 represents a color moving image, and the frames FrN and FrN + 1 are composed of luminance, color difference components of Y, Cb, and Cr. In the following description, processing is performed for each component of Y, Cb, and Cr. Since the processing to be performed is the same for all components, the processing of the luminance component Y is described in detail in the present embodiment. A description of the processing for the color difference components Cb and Cr will be omitted.

対応関係推定手段2は、以下のようにしてフレームFrN+1と基準フレームFrNとの対応関係を推定する。図2はフレームFrN+1と基準フレームFrNとの対応関係の推定を説明するための図である。なお、図2において、基準フレームFrNに含まれる円形の被写体が、フレームFrN+1においては図面上右側に若干移動しているものとする。   The correspondence estimation means 2 estimates the correspondence between the frame FrN + 1 and the reference frame FrN as follows. FIG. 2 is a diagram for explaining the estimation of the correspondence between the frame FrN + 1 and the reference frame FrN. In FIG. 2, it is assumed that the circular subject included in the reference frame FrN has moved slightly to the right in the drawing in the frame FrN + 1.

まず、対応関係推定手段2は、まず、基準フレームFrN上に1または複数の矩形領域からなる基準パッチP0を配置する。図2(a)は、基準フレームFrN上に基準パッチP0が配置された状態を示す図である。図2(a)に示すように、本実施形態においては、基準パッチP0は2×2の矩形領域からなるものとする。次いで、図2(b)に示すように、フレームFrN+1の適当な位置に基準パッチP0と同様のパッチP1を配置し、基準パッチP0内の画像とパッチP1内の画像との相関を表す相関値を算出する。なお、相関値は下記の式(1)により平均二乗誤差として算出することができる。また、座標軸は紙面左右方向にx軸、紙面上下方向にy軸をとるものとする。

Figure 2004234637
First, the correspondence estimation means 2 first arranges a reference patch P0 composed of one or a plurality of rectangular areas on the reference frame FrN. FIG. 2A shows a state in which the reference patch P0 is arranged on the reference frame FrN. As shown in FIG. 2A, in the present embodiment, the reference patch P0 is assumed to be composed of a 2 × 2 rectangular area. Next, as shown in FIG. 2B, a patch P1 similar to the reference patch P0 is arranged at an appropriate position in the frame FrN + 1, and a correlation value representing the correlation between the image in the reference patch P0 and the image in the patch P1. Is calculated. The correlation value can be calculated as a mean square error by the following equation (1). The coordinate axes are assumed to be the x axis in the left and right direction on the paper and the y axis in the vertical direction on the paper.
Figure 2004234637

但し、E:相関値
pi,qi:基準パッチP0,P1内にそれぞれ対応する画素の画素値
N:基準パッチP0およびパッチP1内の画素数
Where E: correlation value pi, qi: pixel value of the corresponding pixel in each of the reference patches P0, P1 N: number of pixels in the reference patch P0 and patch P1

次いで、フレームFrN+1上のパッチP1を上下左右の4方向に一定画素±Δx,±Δy移動し、このときのパッチP1内の画像と基準フレームFrN上の基準パッチP0内の画像との相関値を算出する。ここで、相関値は上下左右方向のそれぞれについて算出され、各相関値をそれぞれE(Δx,0),E(−Δx,0),E(0,Δy),E(0,−Δy)とする。   Next, the patch P1 on the frame FrN + 1 is moved by fixed pixels ± Δx, ± Δy in four directions, up, down, left, and right. The correlation value between the image in the patch P1 and the image in the reference patch P0 on the reference frame FrN is calculate. Here, the correlation value is calculated for each of the up, down, left, and right directions, and each correlation value is expressed as E (Δx, 0), E (−Δx, 0), E (0, Δy), E (0, −Δy), respectively. To do.

そして、移動後の4つの相関値E(Δx,0),E(−Δx,0),E(0,Δy),E(0,−Δy)から相関値が小さく(すなわち相関が大きく)なる勾配方向を相関勾配として求め、この方向に予め設定した実数値倍だけ図2(c)に示すようにパッチP1を移動する。具体的には、下記の式(2)により係数C(Δx,0),C(−Δx,0),C(0,Δy),C(0,−Δy)を算出し、これらの係数C(Δx,0),C(−Δx,0),C(0,Δy),C(0,−Δy)から下記の式(3),(4)により相関勾配gx,gyを算出する。

Figure 2004234637
Then, the correlation value becomes smaller (that is, the correlation becomes larger) from the four correlation values E (Δx, 0), E (−Δx, 0), E (0, Δy), and E (0, −Δy) after the movement. The gradient direction is obtained as the correlation gradient, and the patch P1 is moved in this direction by a preset real value multiple as shown in FIG. Specifically, coefficients C (Δx, 0), C (−Δx, 0), C (0, Δy), C (0, −Δy) are calculated by the following equation (2), and these coefficients C Correlation gradients gx and gy are calculated from the following equations (3) and (4) from (Δx, 0), C (−Δx, 0), C (0, Δy), and C (0, −Δy).
Figure 2004234637

そして、算出された相関勾配gx,gyに基づいてパッチP1の全体を(−λ1gx,−λ1gy)移動し、さらに上記と同様の処理を繰り返すことにより、図2(d)に示すようにパッチP1がある位置に収束するまで反復的にパッチP1を移動する。ここで、λ1は収束の速さを決定するパラメータであり、実数値をとるものとする。なお、λ1をあまり大きな値とすると反復処理により解が発散してしまうため、適当な値(例えば10)を選ぶ必要がある。   Then, the entire patch P1 is moved (−λ1gx, −λ1gy) based on the calculated correlation gradients gx, gy, and the same processing as described above is repeated, so that the patch P1 as shown in FIG. The patch P1 is repeatedly moved until it converges to a certain position. Here, λ1 is a parameter that determines the speed of convergence, and takes a real value. If λ1 is too large, the solution is diverged by iterative processing, so an appropriate value (for example, 10) needs to be selected.

さらに、パッチP1の格子点を座標軸に沿った4方向に一定画素移動させる。このとき、移動した格子点を含む矩形領域は例えば図3に示すように変形する。そして、変形した矩形領域について基準パッチP0の対応する矩形領域との相関値を算出する。この相関値をそれぞれE1(Δx,0),E1(−Δx,0),E1(0,Δy),E1(0,−Δy)とする。   Further, the lattice point of the patch P1 is moved by a fixed pixel in four directions along the coordinate axis. At this time, the rectangular area including the moved grid point is deformed as shown in FIG. 3, for example. Then, a correlation value between the deformed rectangular area and the corresponding rectangular area of the reference patch P0 is calculated. The correlation values are defined as E1 (Δx, 0), E1 (−Δx, 0), E1 (0, Δy), and E1 (0, −Δy), respectively.

そして、上記と同様に、変形後の4つの相関値E1(Δx,0),E1(−Δx,0),E1(0,Δy),E1(0,−Δy)から相関値が小さく(すなわち相関が大きく)なる勾配方向を求め、この方向に予め設定した実数値倍だけパッチP1の格子点を移動する。これをパッチP1の全ての格子点について行い、これを1回の処理とする。そして格子点の座標が収束するまでこの処理を繰り返す。   Similarly to the above, the correlation value is small from the four correlation values E1 (Δx, 0), E1 (−Δx, 0), E1 (0, Δy), and E1 (0, −Δy) after deformation (ie, The gradient direction (in which the correlation is large) is obtained, and the grid point of the patch P1 is moved in this direction by a preset real value multiple. This is performed for all the grid points of the patch P1, and this is regarded as one process. This process is repeated until the coordinates of the grid points converge.

これにより、パッチP1の基準パッチP0に対する移動量および変形量が求まり、これに基づいて基準パッチP0内の画素とパッチP1内の画素との対応関係を推定することができる。   Thereby, the movement amount and the deformation amount of the patch P1 with respect to the reference patch P0 are obtained, and the correspondence between the pixels in the reference patch P0 and the pixels in the patch P1 can be estimated based on this.

続いて、対応関係推定手段2は、図4(a)に示すように分割数をさらに大きくした(ここでは4×4)基準パッチP01およびパッチP11を基準フレームFrNおよびフレームFrN+1の適当な位置に配置し、上記と同様にパッチP11の基準パッチP01に対する移動量および変形量を求め、基準パッチP01内の画素とパッチP11内の画素との対応関係を推定する。   Subsequently, the correspondence estimation means 2 further increases the number of divisions (here, 4 × 4) as shown in FIG. 4A, and sets the reference patch P01 and the patch P11 to appropriate positions of the reference frame FrN and the frame FrN + 1. In the same manner as described above, the movement amount and deformation amount of the patch P11 with respect to the reference patch P01 are obtained, and the correspondence between the pixels in the reference patch P01 and the pixels in the patch P11 is estimated.

なお、図4(b)に示すようにさらに分割数を多くした(ここでは8×8)基準パッチP02およびパッチP12を用いてもよいが、本実施形態においては、2×2および4×4の2段階の分割数にて対応関係を推定するものとする。ここで、本実施形態においては、分割数が2×2の基準パッチP0およびパッチP1により推定された対応関係を第1の対応関係、分割数が4×4の基準パッチP01およびパッチP11により推定された対応関係を第2の対応関係と称する。   As shown in FIG. 4B, the reference patch P02 and the patch P12 having a larger number of divisions (here, 8 × 8) may be used, but in this embodiment, 2 × 2 and 4 × 4 are used. Assume that the correspondence relationship is estimated by the number of divisions in two stages. In this embodiment, the correspondence estimated by the reference patches P0 and P1 having the division number of 2 × 2 is estimated by the first correspondence, and the reference patches P01 and patch P11 having the division number of 4 × 4. This correspondence is referred to as a second correspondence.

座標変換手段3は、推定された第1および第2の対応関係に基づいて、以下のようにして分割数毎にフレームFrN+1を基準フレームFrNの座標空間に座標変換して座標変換フレームFrT0,FrT1を取得する。まず、第1の対応関係に基づく座標変換フレームFrT0の取得について説明する。なお、以降の説明においては、基準フレームFrNの基準パッチP0,P01内の領域およびフレームFrN+1のパッチP1,P11内の領域についてのみ変換および合成が行われる。   The coordinate conversion means 3 performs coordinate conversion of the frame FrN + 1 into the coordinate space of the reference frame FrN for each division number based on the estimated first and second correspondences as follows, and converts the coordinate conversion frames FrT0 and FrT1. To get. First, acquisition of the coordinate conversion frame FrT0 based on the first correspondence will be described. In the following description, conversion and synthesis are performed only for the regions in the reference patches P0 and P01 of the reference frame FrN and the regions in the patches P1 and P11 of the frame FrN + 1.

本実施形態においては、座標変換は双1次変換を用いて行うものとする。双1次変換による座標変換は、下記の式(5),(6)により定義される。

Figure 2004234637
In the present embodiment, coordinate transformation is performed using bilinear transformation. Coordinate transformation by bilinear transformation is defined by the following equations (5) and (6).
Figure 2004234637

式(5),(6)は、2次元座標上の4点(xn,yn)(1≦n≦4)で与えられたパッチP1内の座標を、正規化座標系(u,v)(0≦u,v≦1)によって補間するものであり、任意の2つの矩形内の座標変換は、式(5),(6)および式(5),(6)の逆変換を組み合わせることにより行うことができる。   Expressions (5) and (6) express coordinates in the patch P1 given by four points (xn, yn) (1 ≦ n ≦ 4) on a two-dimensional coordinate in a normalized coordinate system (u, v) ( 0 ≦ u, v ≦ 1), and coordinate transformation in any two rectangles is performed by combining the inverse transformations of equations (5) and (6) and equations (5) and (6). It can be carried out.

ここで、図5に示すように、パッチP1(xn,yn)内の点(x,y)が対応する基準パッチP0(x′n,y′n)内のどの位置に対応するかを考える。まずパッチP1(xn,yn)内の点(x,y)について、正規化座標(u,v)を求める。これは式(5),(6)の逆変換により求める。そしてこのときの(u,v)と対応する基準パッチP0(x′n,y′n)を元に、式(5),(6)から点(x,y)に対応する座標(x′,y′)を求める。ここで、点(x,y)が本来画素値が存在する整数座標であるのに対し、点(x′,y′)は本来画素値が存在しない実数座標となる場合があるため、変換後の整数座標における画素値は、基準パッチP0の整数座標に隣接する8近傍の整数座標に囲まれた領域を設定し、この領域内に変換された座標(x′,y′)の画素値の荷重和として求めるものとする。   Here, as shown in FIG. 5, the position in the reference patch P0 (x′n, y′n) corresponding to the point (x, y) in the patch P1 (xn, yn) is considered. . First, normalized coordinates (u, v) are obtained for the point (x, y) in the patch P1 (xn, yn). This is obtained by inverse transformation of equations (5) and (6). Based on the reference patch P0 (x′n, y′n) corresponding to (u, v) at this time, the coordinates (x ′) corresponding to the point (x, y) from the equations (5) and (6) , Y ′). Here, since the point (x, y) is an integer coordinate where the pixel value originally exists, the point (x ′, y ′) may be a real number coordinate where the pixel value originally does not exist. As for the pixel value in the integer coordinates, an area surrounded by integer coordinates in the vicinity of 8 adjacent to the integer coordinates of the reference patch P0 is set, and the pixel value of the converted coordinates (x ′, y ′) is set in this area. It shall be obtained as the load sum.

具体的には、図6に示すように基準パッチP0上における整数座標b(x,y)について、その8近傍の整数座標b(x−1,y−1),b(x,y−1),b(x+1,y−1),b(x−1,y),b(x+1,y),b(x−1,y+1),b(x,y+1),b(x+1,y+1)に囲まれる領域内に変換されたフレームFrN+1の画素値に基づいて算出する。ここで、フレームFrN+1のm個の画素値が8近傍の画素に囲まれる領域内に変換され、変換された各画素の画素値をItj(x°,y°)(1≦j≦m)とすると、整数座標b(x,y)における画素値It(x^,y^)は、下記の式(7)により算出することができる。なお、式(7)においてφは荷重和演算を表す関数である。

Figure 2004234637
Specifically, as shown in FIG. 6, for integer coordinates b (x, y) on the reference patch P0, integer coordinates b (x-1, y-1) and b (x, y-1) in the vicinity of the eight coordinates. ), B (x + 1, y-1), b (x-1, y), b (x + 1, y), b (x-1, y + 1), b (x, y + 1), b (x + 1, y + 1) Calculation is performed based on the pixel value of the frame FrN + 1 converted in the enclosed area. Here, m pixel values of the frame FrN + 1 are converted into an area surrounded by eight neighboring pixels, and the converted pixel value of each pixel is Itj (x °, y °) (1 ≦ j ≦ m). Then, the pixel value It (x ^, y ^) at the integer coordinates b (x, y) can be calculated by the following equation (7). In Expression (7), φ is a function representing the load sum calculation.
Figure 2004234637

但し、Wj(1≦j≦m):画素値Itj(x°,y°)が割り当てられた位置における近傍の整数画素から見た座標内分比の積   However, Wj (1 ≦ j ≦ m): product of the internal ratio of coordinates as viewed from neighboring integer pixels at the position where the pixel value Itj (x °, y °) is assigned.

ここで、簡単のため、図6を用いて8近傍の画素に囲まれる領域内にフレームFrN+1の2つの画素値It1,It2が変換された場合について考えると、整数座標b(x,y)における画素値It(x^,y^)は下記の式(8)により算出することができる。

Figure 2004234637
Here, for the sake of simplicity, consider the case where the two pixel values It1 and It2 of the frame FrN + 1 are transformed into the area surrounded by the eight neighboring pixels with reference to FIG. 6, at the integer coordinate b (x, y). The pixel value It (x ^, y ^) can be calculated by the following equation (8).
Figure 2004234637

但し、W1=u×v、W2=(1−s)×(1−t)   However, W1 = u × v, W2 = (1-s) × (1-t)

以上の処理をパッチP1内の全ての画素について行うことにより、パッチP1内の画像が基準フレームFrNの座標空間に変換されて、座標変換フレームFrT0が取得される。   By performing the above processing for all the pixels in the patch P1, the image in the patch P1 is converted into the coordinate space of the reference frame FrN, and the coordinate conversion frame FrT0 is acquired.

また、同様に第2の対応関係に基づいて、パッチP11内の画像を基準フレームFrNの座標空間に変換して座標変換フレームFrT1が取得される。   Similarly, based on the second correspondence relationship, the image in the patch P11 is converted into the coordinate space of the reference frame FrN to obtain the coordinate conversion frame FrT1.

相関値算出手段4は、座標変換フレームFrT0と基準フレームFrNとの相関値d0および座標変換フレームFrT1と基準フレームFrNとの相関値d1を算出する。具体的には下記の式(9)に示すように、座標変換フレームFrT0と基準フレームFrNとの対応する画素における画素値FrT0(x,y),FrN(x,y)との差の絶対値の基準パッチP0内の全画素についての加算値を基準パッチP0内の画素数mで除した値、すなわち差の絶対値の基準パッチP0内の全画素についての平均値を相関値d0として算出する。また、下記の式(10)に示すように、座標変換フレームFrT1と基準フレームFrNとの対応する画素における画素値FrT1(x,y),FrN(x,y)との差の絶対値の基準パッチP0内の全画素についての平均値を相関値d1として算出する。なお、相関値d0,d1は座標変換フレームFrT0,FrT1と基準フレームFrNとの相関が大きいほど小さい値となる。

Figure 2004234637
The correlation value calculation means 4 calculates a correlation value d0 between the coordinate conversion frame FrT0 and the reference frame FrN and a correlation value d1 between the coordinate conversion frame FrT1 and the reference frame FrN. Specifically, as shown in the following formula (9), the absolute value of the difference between the pixel values FrT0 (x, y) and FrN (x, y) in the corresponding pixels of the coordinate conversion frame FrT0 and the reference frame FrN. A value obtained by dividing the addition value for all the pixels in the reference patch P0 by the number m of pixels in the reference patch P0, that is, the average value for all the pixels in the reference patch P0 of the absolute difference is calculated as the correlation value d0. . Further, as shown in the following formula (10), the reference of the absolute value of the difference between the pixel values FrT1 (x, y) and FrN (x, y) in the corresponding pixels of the coordinate conversion frame FrT1 and the reference frame FrN The average value for all pixels in the patch P0 is calculated as the correlation value d1. The correlation values d0 and d1 are smaller as the correlation between the coordinate conversion frames FrT0 and FrT1 and the reference frame FrN is larger.
Figure 2004234637

なお、本実施形態では座標変換フレームFrT0,FrT1と基準フレームFrNとの対応する画素における画素値の差の絶対値から相関値d0,d1を算出しているが、差の二乗から相関値を算出してもよい。また、座標変換フレームFrT0,FrT1と基準フレームFrNとの対応する画素における画素値の差の絶対値の加算値を相関値としてもよい。また、座標変換フレームFrT0,FrT1および基準フレームFrNのヒストグラムをそれぞれ算出し、座標変換フレームFrT0,FrT1および基準フレームFrNのヒストグラムの平均値、メディアン値または標準偏差の差分値、もしくはヒストグラムの差分値の累積和を相関値として用いてもよい。また、基準フレームFrNに対する座標変換フレームFrT0、FrT1の動きを表す動きベクトルを基準フレームFrNの各画素または小領域毎に算出し、算出された動ベクトルの平均値、メディアン値または標準偏差を相関値として用いてもよく、動ベクトルのヒストグラムの累積和を相関値として用いてもよい。   In the present embodiment, the correlation values d0 and d1 are calculated from the absolute value of the difference between the pixel values of the corresponding pixels in the coordinate conversion frames FrT0 and FrT1 and the reference frame FrN, but the correlation value is calculated from the square of the difference. May be. Further, an addition value of absolute values of pixel value differences in corresponding pixels between the coordinate conversion frames FrT0 and FrT1 and the reference frame FrN may be used as a correlation value. Also, the histograms of the coordinate transformation frames FrT0, FrT1 and the reference frame FrN are calculated, respectively, and the average value, median value or standard deviation difference value of the histograms of the coordinate transformation frames FrT0, FrT1 and the reference frame FrN, or the difference value of the histogram are calculated. A cumulative sum may be used as a correlation value. Further, a motion vector representing the motion of the coordinate conversion frames FrT0 and FrT1 with respect to the reference frame FrN is calculated for each pixel or small region of the reference frame FrN, and the calculated average value, median value, or standard deviation of the motion vectors is a correlation value. Or a cumulative sum of histograms of motion vectors may be used as a correlation value.

比較手段5は相関値d0と相関値d1とを比較し、相関値が小さいすなわち相関が大きい方の相関値を選択する。なお、本実施形態においては、4×4に分割された基準パッチP01およびパッチP11に基づいて算出された相関値d1が選択されたものとする。   The comparing means 5 compares the correlation value d0 and the correlation value d1, and selects the correlation value having the smaller correlation value, that is, the correlation having the larger correlation value. In the present embodiment, it is assumed that the correlation value d1 calculated based on the reference patch P01 and the patch P11 divided into 4 × 4 is selected.

合成手段6は、比較手段5において選択された相関値d1を得た分割数により推定された第2の対応関係に基づいて、基準フレームFrNおよびフレームFrN+1に対して補間演算を施して合成フレームFrGを作成する。具体的には、まず図7に示すように、最終的に必要な画素数を有する統合画像(本実施形態においては、フレームFrN,FrN+1の縦横それぞれ2倍の画素数を有する場合について説明するが、n倍(n:正数)の画素数を有するものであってもよい)を用意し、対応関係推定手段2において求められた第2の対応関係に基づいて、フレームFrN+1(パッチP11内の領域)の画素の画素値を統合画像上に割り当てる。この割り当てを行う関数をΠとすると、下記の式(11)によりフレームFrN+1の各画素の画素値が統合画像上に割り当てられる。

Figure 2004234637
The synthesizing unit 6 performs an interpolation operation on the reference frame FrN and the frame FrN + 1 on the basis of the second correspondence estimated by the number of divisions obtained from the correlation value d1 selected by the comparing unit 5, and combines the frame FrG. Create Specifically, first, as shown in FIG. 7, an integrated image having a finally required number of pixels (in the present embodiment, a case where the number of pixels is doubled in both the vertical and horizontal directions of the frames FrN and FrN + 1 will be described. , Which may have a pixel number n times (n: positive number)), and based on the second correspondence obtained by the correspondence estimation means 2, the frame FrN + 1 (in the patch P11) The pixel values of the pixels in (region) are assigned on the integrated image. Assuming that the function for performing this assignment is Π, the pixel value of each pixel of the frame FrN + 1 is assigned on the integrated image by the following equation (11).
Figure 2004234637

但し、I1N+1(x°,y°):統合画像上に割り当てられたフレームFrN+1の画素値
FrN+1(x,y):フレームFrN+1の画素値
However, I1N + 1 (x °, y °): the pixel value of the frame FrN + 1 allocated on the integrated image FrN + 1 (x, y): the pixel value of the frame FrN + 1

このように統合画像上にフレームFrN+1の画素値を割り当てることにより画素値I1N+1(x°,y°)を得、各画素についてI1(x°,y°)(=I1N+1(x°,y°))の画素値を有する第1の補間フレームを取得する。   Thus, by assigning the pixel value of the frame FrN + 1 on the integrated image, the pixel value I1N + 1 (x °, y °) is obtained, and I1 (x °, y °) (= I1N + 1 (x °, y °)) for each pixel. A first interpolation frame having a pixel value of) is acquired.

ここで、画素値を統合画像上に割り当てる際に、統合画像の画素数とフレームFrN+1の画素数との関係によっては、フレームFrN+1上の各画素が統合画像の整数座標(すなわち画素値が存在すべき座標)に対応しない場合がある。本実施形態においては、統合画像の整数座標における画素値は、統合画像の整数座標に隣接する8近傍の整数座標に囲まれた領域を設定し、この領域内に割り当てられたフレームFrN+1上の各画素の画素値の荷重和として求める。   Here, when assigning pixel values to the integrated image, depending on the relationship between the number of pixels in the integrated image and the number of pixels in the frame FrN + 1, each pixel on the frame FrN + 1 has an integer coordinate (that is, a pixel value exists). (Coordinates) may not correspond. In this embodiment, the pixel value in the integer coordinates of the integrated image is set to an area surrounded by integer coordinates in the vicinity of 8 adjacent to the integer coordinates of the integrated image, and each of the frames on the frame FrN + 1 assigned in this area is set. Obtained as a weighted sum of pixel values of pixels.

すなわち、図8に示すように統合画像における整数座標p(x,y)については、その8近傍の整数座標p(x−1,y−1),p(x,y−1),p(x+1,y−1),p(x−1,y),p(x+1,y),p(x−1,y+1),p(x,y+1),p(x+1,y+1)に囲まれる領域内に割り当てられたフレームFrN+1の画素値に基づいて算出する。ここで、フレームFrN+1のk個の画素値が8近傍の画素に囲まれる領域内に割り当てられ、割り当てられた各画素の画素値をI1N+1i(x°,y°)(1≦i≦k)とすると、整数座標p(x,y)における画素値I1N+1(x^,y^)は、下記の式(12)により算出することができる。なお、式(12)においてΦは荷重和演算を表す関数である。

Figure 2004234637
That is, as shown in FIG. 8, for integer coordinates p (x, y) in the integrated image, integer coordinates p (x-1, y-1), p (x, y-1), p (8) in the vicinity of the eight. x + 1, y-1), p (x-1, y), p (x + 1, y), p (x-1, y + 1), p (x, y + 1), p (x + 1, y + 1) Is calculated based on the pixel value of the frame FrN + 1 assigned to. Here, k pixel values of the frame FrN + 1 are allocated in a region surrounded by eight neighboring pixels, and the pixel values of the allocated pixels are I1N + 1i (x °, y °) (1 ≦ i ≦ k). Then, the pixel value I1N + 1 (x ^, y ^) at the integer coordinates p (x, y) can be calculated by the following equation (12). In Expression (12), Φ is a function representing the load sum calculation.
Figure 2004234637

但し、Mi(1≦i≦k):画素値I1N+1i(x°,y°)が割り当てられた位置における近傍の整数画素から見た座標内分比の積   However, Mi (1 ≦ i ≦ k): product of the internal ratio of coordinates as viewed from neighboring integer pixels at the position where the pixel value I1N + 1i (x °, y °) is assigned.

ここで、簡単のため、図8を用いて8近傍の画素に囲まれる領域内にフレームFrN+1の2つの画素値I1N+11,I1N+12が割り当てられた場合について考えると、整数座標p(x,y)における画素値I1N+1(x^,y^)は下記の式(13)により算出することができる。

Figure 2004234637
Here, for the sake of simplicity, consider the case where the two pixel values I1N + 11 and I1N + 12 of the frame FrN + 1 are assigned to the region surrounded by the pixels in the vicinity of 8 with reference to FIG. 8 at the integer coordinates p (x, y). Pixel value I1N + 1 (x ^, y ^) can be calculated by the following equation (13).
Figure 2004234637

但し、M1=u×v、M2=(1−s)×(1−t)   However, M1 = u × v, M2 = (1-s) × (1-t)

そして、統合画像の全ての整数座標について、フレームFrN+1の画素値を割り当てることにより画素値I1N+1(x^,y^)を得ることができる。この場合、第1の補間フレームの各画素値I1(x^,y^)はI1N+1(x^,y^)となる。   The pixel value I1N + 1 (x ^, y ^) can be obtained by assigning the pixel value of the frame FrN + 1 for all integer coordinates of the integrated image. In this case, each pixel value I1 (x ^, y ^) of the first interpolation frame is I1N + 1 (x ^, y ^).

なお、基準フレームFrNについては、基準フレームFrNの画素を統合画像の整数座標に補間して直接割り当てることにより取得される。この基準フレームFrNを統合画像の整数座標に割り当てることにより得られた画素値をI2(x^,y^)とし、画素値I2(x^,y^)を有するフレームを第2の補間フレームとする。   Note that the reference frame FrN is acquired by interpolating and directly assigning the pixels of the reference frame FrN to the integer coordinates of the integrated image. A pixel value obtained by assigning the reference frame FrN to the integer coordinates of the integrated image is I2 (x ^, y ^), and a frame having the pixel value I2 (x ^, y ^) is a second interpolation frame. To do.

そして、第1および第2の補間フレームの対応する画素における画素値I1(x^,y^)およびI2(x^,y^)を加算または重み付け加算することにより、画素値FrG(x^,y^)を有する合成フレームFrGを作成する。なお、画素値I1(x^,y^)のみから画素値FrG(x^,y^)を有する合成フレームFrGを作成してもよい。   Then, by adding or weighting the pixel values I1 (x ^, y ^) and I2 (x ^, y ^) in the corresponding pixels of the first and second interpolation frames, the pixel value FrG (x ^, A composite frame FrG having y ^) is created. Note that the composite frame FrG having the pixel value FrG (x ^, y ^) may be created only from the pixel value I1 (x ^, y ^).

なお、統合画像の全ての整数座標に画素値を割り当てることができない場合がある。このような場合は、割り当てられた画素値または基準フレームの画素値(割り当てられていない座標に対応する)に対して線形補間演算、スプライン補間演算等の種々の補間演算を施して、画素値が割り当てられなかった整数座標の画素値を算出すればよい。   Note that pixel values may not be assigned to all integer coordinates of the integrated image. In such a case, various interpolation operations such as a linear interpolation operation and a spline interpolation operation are performed on the assigned pixel value or the pixel value of the reference frame (corresponding to the coordinates not assigned), and the pixel value is What is necessary is just to calculate the pixel value of the integer coordinate which was not allocated.

また、上記では輝度成分Yについての合成フレームFrGを求める処理について説明したが、色差成分Cb,Crについても同様に合成フレームFrGが取得される。そして、輝度成分Yから求められた合成フレームFrG(Y)および色差成分Cb,Crから求められた合成フレームFrG(Cb),FrG(Cr)を合成することにより、最終的な合成フレームが得られることとなる。なお、処理の高速化のためには、輝度成分Yについてのみ基準フレームFrNとフレームFrN+1との対応関係を推定し、色差成分Cb,Crについては輝度成分Yについて推定された対応関係に基づいて処理を行うことが好ましい。   In the above description, the process for obtaining the composite frame FrG for the luminance component Y has been described. However, the composite frame FrG is also obtained for the color difference components Cb and Cr. Then, a synthesized frame FrG (Y) obtained from the luminance component Y and synthesized frames FrG (Cb) and FrG (Cr) obtained from the color difference components Cb and Cr are synthesized to obtain a final synthesized frame. It will be. In order to increase the processing speed, the correspondence relationship between the reference frame FrN and the frame FrN + 1 is estimated only for the luminance component Y, and the color difference components Cb and Cr are processed based on the correspondence relationship estimated for the luminance component Y. It is preferable to carry out.

次いで、本実施形態の動作について説明する。図9は本実施形態において行われる処理を示すフローチャートである。まず、サンプリング手段1に動画像データM0が入力され(ステップS1)、ここで、動画像データM0から基準フレームFrNおよびフレームFrN+1がサンプリングされる(ステップS2)。続いて、対応関係推定手段2により、基準フレームFrNとフレームFrN+1との対応関係がパッチの分割数に応じて複数推定される(ステップS3)。   Next, the operation of this embodiment will be described. FIG. 9 is a flowchart showing processing performed in the present embodiment. First, the moving image data M0 is input to the sampling means 1 (step S1), and here, the reference frame FrN and the frame FrN + 1 are sampled from the moving image data M0 (step S2). Subsequently, a plurality of correspondence relationships between the reference frame FrN and the frame FrN + 1 are estimated by the correspondence estimation means 2 according to the number of divisions of the patch (step S3).

そして、推定された複数の対応関係のそれぞれに基づいて、座標変換手段3によりフレームFrN+1が基準フレームFrNの座標空間に変換されて複数の座標変換フレームFrT0,FrT1が取得される(ステップS4)。そして、相関値算出手段4により座標変換フレームFrT0と基準フレームFrNとの相関値d0および座標変換フレームFrT1と基準フレームFrNとの相関値d1が算出される(ステップS5)。さらに、比較手段5により相関が大きい方の相関値が選択される(ステップS6)。   Then, based on each of the estimated plurality of correspondences, the coordinate conversion means 3 converts the frame FrN + 1 into the coordinate space of the reference frame FrN to obtain a plurality of coordinate conversion frames FrT0 and FrT1 (step S4). Then, the correlation value calculation means 4 calculates the correlation value d0 between the coordinate conversion frame FrT0 and the reference frame FrN and the correlation value d1 between the coordinate conversion frame FrT1 and the reference frame FrN (step S5). Furthermore, the correlation value with the larger correlation is selected by the comparison means 5 (step S6).

そして、選択された相関値d1を得た分割数(ここでは4×4)により推定された対応関係(第2の対応関係)に基づいて、合成手段6により基準フレームFrNおよびフレームFrN+1から合成フレームFrGが作成され(ステップS7)、処理を終了する。   Then, based on the correspondence relationship (second correspondence relationship) estimated by the number of divisions (4 × 4 in this case) from which the selected correlation value d1 was obtained, the synthesis means 6 uses the reference frame FrN and the frame FrN + 1 as a synthesis frame. FrG is created (step S7), and the process ends.

このように、本実施形態においては、相関が大きい分割数により推定された対応関係に基づいて、フレームFrNおよびフレームFrN+1から合成フレームFrGを作成しているため、フレーム内における動いている被写体の移動および/または変形に追随可能な最適な分割数により合成フレームFrGを作成することができ、これにより、フレームに含まれる被写体の動きに拘わらず、高画質の合成フレームFrGを得ることができる。   Thus, in the present embodiment, since the composite frame FrG is created from the frame FrN and the frame FrN + 1 based on the correspondence estimated by the number of divisions having a large correlation, the movement of the moving subject within the frame is generated. In addition, a composite frame FrG can be created with an optimal number of divisions that can follow the deformation, whereby a high-quality composite frame FrG can be obtained regardless of the movement of the subject included in the frame.

次いで、本発明の第2の実施形態について説明する。上記第1の実施形態においては、相関が大きい分割数により推定されたフレームFrN,FrN+1のパッチ内の画像全体の対応関係に基づいて合成フレームFrGを作成しているが、第2の実施形態においては、パッチを分割することにより得られる矩形領域毎に相関値を算出し、矩形領域毎の対応関係に基づいて合成フレームFrGを作成するようにしたものである。   Next, a second embodiment of the present invention will be described. In the first embodiment, the composite frame FrG is created based on the correspondence between the entire images in the patch of the frames FrN and FrN + 1 estimated by the number of divisions having a large correlation. In the second embodiment, In this example, a correlation value is calculated for each rectangular area obtained by dividing the patch, and a composite frame FrG is created based on the correspondence relationship for each rectangular area.

図10は矩形領域毎の相関値の算出を説明するための図である。図10(a)に示すように分割数が2×2の基準パッチP0およびパッチP1の各矩形領域を矩形領域A1〜A4とする。一方、図10(b)に示すように分割数が4×4の基準パッチP01およびパッチP11の各矩形領域を矩形領域A11〜A14,A21〜A24,A31〜A34,A41〜A44とする。なお、矩形領域A1が矩形領域A1〜A14に、矩形領域A2が矩形領域A21〜A24に、矩形領域A3が矩形領域A31〜A34に、矩形領域A4が矩形領域A41〜A44にそれぞれ対応する。   FIG. 10 is a diagram for explaining the calculation of the correlation value for each rectangular area. As shown in FIG. 10A, the rectangular areas of the reference patch P0 and the patch P1 having the number of divisions of 2 × 2 are defined as rectangular areas A1 to A4. On the other hand, as shown in FIG. 10B, the rectangular areas of the reference patch P01 and the patch P11 having a division number of 4 × 4 are defined as rectangular areas A11 to A14, A21 to A24, A31 to A34, and A41 to A44. The rectangular area A1 corresponds to the rectangular areas A1 to A14, the rectangular area A2 corresponds to the rectangular areas A21 to A24, the rectangular area A3 corresponds to the rectangular areas A31 to A34, and the rectangular area A4 corresponds to the rectangular areas A41 to A44.

そして、分割数が2×2の場合には、矩形領域A1〜A4毎に基準フレームFrNとフレームFrN+1との相関値を算出する。矩形領域A1〜A4のそれぞれにおける相関値をd01、d02、d03、d04とする。   When the number of divisions is 2 × 2, the correlation value between the reference frame FrN and the frame FrN + 1 is calculated for each of the rectangular areas A1 to A4. Assume that the correlation values in each of the rectangular areas A1 to A4 are d01, d02, d03, and d04.

一方、分割数が4×4の場合には、矩形領域A11〜A14,A21〜A24,A31〜A34,A41〜A44毎に相関値を算出し、さらに矩形領域A11〜A14の相関値の平均値を相関値d11として、矩形領域A21〜A24の相関値の平均値を相関値d12として、矩形領域A31〜A34の相関値の平均値を相関値d13として、および矩形領域A41〜A44の相関値の平均値を相関値d14として算出する。   On the other hand, when the number of divisions is 4 × 4, the correlation value is calculated for each of the rectangular areas A11 to A14, A21 to A24, A31 to A34, A41 to A44, and the average value of the correlation values of the rectangular areas A11 to A14 is calculated. Is the correlation value d11, the average value of the correlation values of the rectangular areas A21 to A24 is the correlation value d12, the average value of the correlation values of the rectangular areas A31 to A34 is the correlation value d13, and the correlation values of the rectangular areas A41 to A44 The average value is calculated as the correlation value d14.

次いで、相対応する領域毎に相関値を比較する。すなわち、矩形領域A1の相関値d01と矩形領域A11〜A41の相関値d11とを、矩形領域A2の相関値d02と矩形領域A21〜A24の相関値d12とを、矩形領域A3の相関値d03と矩形領域A31〜A34の相関値d13とを、矩形領域A4の相関値d04と矩形領域A41〜A44の相関値d14とをそれぞれ比較する。そして、比較結果に応じて相関が大きい方の領域の分割数にて推定された対応関係により、矩形領域毎に基準フレームFrNおよびフレームFrN+1から合成フレームFrGを作成する。   Next, the correlation values are compared for each corresponding region. That is, the correlation value d01 of the rectangular area A1 and the correlation value d11 of the rectangular areas A11 to A41, the correlation value d02 of the rectangular area A2, the correlation value d12 of the rectangular areas A21 to A24, and the correlation value d03 of the rectangular area A3 The correlation value d13 of the rectangular areas A31 to A34 is compared with the correlation value d04 of the rectangular area A4 and the correlation value d14 of the rectangular areas A41 to A44, respectively. Then, a composite frame FrG is created from the reference frame FrN and the frame FrN + 1 for each rectangular region based on the correspondence estimated by the number of divisions of the region having the larger correlation according to the comparison result.

例えば、本実施形態においては相関値が小さい方が相関が大きいことから、相関値d01<相関値d11の場合には、基準フレームFrNおよびフレームFrN+の矩形領域A1に対応する領域については、2×2の分割数により推定された対応関係に基づいて補間演算を行う。また、相関値d02<相関値d12の場合には、基準フレームFrNおよびフレームFrN+の矩形領域A2に対応する領域については、2×2の分割数により推定された対応関係に基づいて補間演算を行う。   For example, in the present embodiment, the smaller the correlation value, the larger the correlation. Therefore, when the correlation value d01 <correlation value d11, the region corresponding to the rectangular region A1 of the reference frame FrN and the frame FrN + is 2 ×. Interpolation is performed based on the correspondence estimated by the number of divisions of 2. If correlation value d02 <correlation value d12, interpolation calculation is performed on the area corresponding to rectangular area A2 of reference frame FrN and frame FrN + based on the correspondence estimated by the number of divisions of 2 × 2. .

一方、相関値d03>相関値d13の場合には、基準フレームFrNおよびフレームFrN+の矩形領域A3に対応する領域については、4×4の分割数により推定された対応関係に基づいて補間演算を行う。さらに、相関値d04>相関値d14の場合には、基準フレームFrNおよびフレームFrN+の矩形領域A4に対応する領域については、4×4の分割数により推定された対応関係に基づいて補間演算を行う。そして、補間演算により得られた画素からなる合成フレームFrGを作成する。   On the other hand, in the case of correlation value d03> correlation value d13, an interpolation calculation is performed on the area corresponding to the rectangular area A3 of the reference frame FrN and the frame FrN + based on the correspondence estimated by the number of divisions of 4 × 4. . Further, in the case of correlation value d04> correlation value d14, an interpolation calculation is performed on the area corresponding to the rectangular area A4 of the reference frame FrN and the frame FrN + based on the correspondence estimated by the number of 4 × 4 divisions. . Then, a composite frame FrG composed of pixels obtained by the interpolation calculation is created.

このように、合成フレームFrGの作成に用いる対応関係を矩形領域毎に推定することにより、基準パッチおよびパッチ内における分割された矩形領域毎に、合成フレームFrGが作成されることとなる。このため、フレーム内の各部分に含まれる被写体の動きに追随した最適な分割数により合成フレームFrGを作成することができ、これにより、フレームに含まれる被写体の動きに拘わらず、より高画質の合成フレームFrGを得ることができる。   In this way, by estimating the correspondence used for creating the synthesized frame FrG for each rectangular area, the synthesized frame FrG is created for each reference patch and each divided rectangular area in the patch. For this reason, the composite frame FrG can be created with the optimal number of divisions following the movement of the subject included in each part in the frame, and thus, higher image quality can be achieved regardless of the movement of the subject included in the frame. A composite frame FrG can be obtained.

なお、上記第1および第2の実施形態においては、基準フレームFrNおよびフレームFrN+1の輝度色差成分Y,Cb,Cr毎に合成フレームFrGを取得しているが、輝度成分Yについてのみ合成フレームFrGを取得し、色差成分Cb,Crについては、基準フレームFrNの色差成分Cb,Crを線形補間して色差成分の合成フレームを求めてもよい。   In the first and second embodiments, the synthesized frame FrG is acquired for each of the luminance color difference components Y, Cb, and Cr of the reference frame FrN and the frame FrN + 1. However, the synthesized frame FrG is obtained only for the luminance component Y. For the color difference components Cb and Cr, the color difference components Cb and Cr of the reference frame FrN may be linearly interpolated to obtain a color difference component composite frame.

また、フレームFrN,FrN+1がRGBの色データからなる場合には、RGB各色データ毎に処理を行って合成フレームFrGを作成してもよい。   If the frames FrN and FrN + 1 are composed of RGB color data, the composite frame FrG may be created by performing processing for each RGB color data.

また、上記第1および第2の実施形態においては、輝度色差成分Y,Cb,Cr毎に相関値d0,d1を算出しているが、下記の式(14)に示すように、例えば相関値d0について、輝度成分の相関値d0Y、色差成分の相関値d0Cb,d0Crを重み係数a1,b1,c1により重み付け加算することにより、1の相関値d0′を算出してもよい。

Figure 2004234637
In the first and second embodiments, the correlation values d0 and d1 are calculated for each of the luminance and chrominance components Y, Cb, and Cr. As shown in the following equation (14), for example, the correlation value is calculated. For d0, the correlation value d0 ′ of luminance component correlation value d0Y and the correlation values d0Cb and d0Cr of color difference component may be weighted and added by weighting coefficients a1, b1, and c1 to calculate one correlation value d0 ′.
Figure 2004234637

また、下記の式(15)に示すように、座標変換フレームFrTiの輝度成分FrTiY(x,y)および色差成分FrTiCb(x,y),FrTiCr(x,y)と、基準フレームFrNのFrNY(x,y)および色差成分FrNCb(x,y),FrNCr(x,y)との重み係数a2,b2,c2を用いたユークリッド距離を基準パッチP0内の各画素毎に算出し、これを各画素の相関値di″(x,y)とし、第1の実施形態においてはこの相関値di″(x,y)の基準パッチP0内の全画素についての平均値を、第2の実施形態においてはこの相関値di″(x,y)の各矩形領域内の全画素についての平均値を、比較に用いる相関値としてもよい。

Figure 2004234637
Further, as shown in the following equation (15), the luminance component FrTiY (x, y) and the color difference components FrTiCb (x, y), FrTiCr (x, y) of the coordinate conversion frame FrTi, and FrNY ( x, y) and the Euclidean distance using the weight coefficients a2, b2, c2 with the color difference components FrNCb (x, y), FrNCr (x, y) are calculated for each pixel in the reference patch P0. The correlation value di ″ (x, y) of the pixel is used, and in the first embodiment, the average value of all the pixels in the reference patch P0 of the correlation value di ″ (x, y) is used in the second embodiment. The correlation value di ″ (x, y) may be an average value for all pixels in each rectangular area as a correlation value used for comparison.
Figure 2004234637

また、上記第1および第2の実施形態においては、2つのフレームFrN,FrN+1から合成フレームFrGを作成しているが、3以上の複数のフレームから合成フレームFrGを作成してもよい。例えば、T個のフレームFrN+t′(0≦t′≦T−1)から合成フレームFrGを作成する場合、基準フレームFrN(=FrN+0)以外の他のフレームFrN+t(1≦t≦T−1)のそれぞれについて、基準フレームFrNとの対応関係をパッチの分割数に応じて複数推定し、さらに複数の対応関係に応じて複数の座標変換フレームを取得し、複数の座標変換フレームと基準フレームFrNとの相関値を算出する。そして相関値に基づいていずれの分割数により推定された対応関係に基づいて合成フレームを作成するかを選択し、選択された分割数により推定された対応関係に基づいて、上記第1の実施形態と同様に合成フレームを作成する。この合成フレームを中間合成フレームFrGtとする。なお、中間合成フレームFrGtの統合画像の整数座標における画素値をFrGt(x^,y^)とする。   In the first and second embodiments, the composite frame FrG is created from the two frames FrN and FrN + 1. However, the composite frame FrG may be created from a plurality of three or more frames. For example, when creating a composite frame FrG from T frames FrN + t ′ (0 ≦ t ′ ≦ T−1), other frames FrN + t (1 ≦ t ≦ T−1) other than the reference frame FrN (= FrN + 0) For each, a plurality of correspondences with the reference frame FrN are estimated according to the number of divisions of the patch, and a plurality of coordinate conversion frames are acquired according to the plurality of correspondences, and a plurality of coordinate conversion frames and the reference frame FrN are obtained. A correlation value is calculated. Then, based on the correlation estimated based on the correspondence estimated by which division number, the composite frame is selected, and the first embodiment is selected based on the correspondence estimated by the selected division number. Create a composite frame in the same way as This synthesized frame is referred to as an intermediate synthesized frame FrGt. Note that the pixel value at integer coordinates of the integrated image of the intermediate composite frame FrGt is FrGt (x ^, y ^).

そして、全ての他のフレームFrN+tについて中間合成フレームFrGtを取得し、下記の式(16)により中間合成フレームFrGtを対応する画素同士で加算することにより、画素値FrG(x^,y^)を有する合成フレームFrGを作成する。

Figure 2004234637
Then, the intermediate composite frame FrGt is obtained for all other frames FrN + t, and the intermediate composite frame FrGt is added between corresponding pixels by the following equation (16), whereby the pixel value FrG (x ^, y ^) is obtained. A composite frame FrG is created.
Figure 2004234637

なお、統合画像の全ての整数座標に画素値を割り当てることができない場合がある。このような場合は、割り当てられた画素値または基準フレームの画素値(割り当てられていない座標に対応する)に対して線形補間演算、スプライン補間演算等の種々の補間演算を施して、画素値が割り当てられなかった整数座標の画素値を算出すればよい。   Note that pixel values may not be assigned to all integer coordinates of the integrated image. In such a case, various interpolation operations such as a linear interpolation operation and a spline interpolation operation are performed on the assigned pixel value or the pixel value of the reference frame (corresponding to the coordinates not assigned), and the pixel value is What is necessary is just to calculate the pixel value of the integer coordinate which was not allocated.

また、3以上の複数のフレームから合成フレームFrGを作成する場合において、中間合成フレームFrGtを取得する際に、上記第2の実施形態と同様に、パッチを構成する矩形領域毎に相関値を算出し、矩形領域毎の対応関係に基づいて中間合成フレームFrGtを作成してもよい。   Further, in the case where the composite frame FrG is created from a plurality of three or more frames, when the intermediate composite frame FrGt is acquired, the correlation value is calculated for each rectangular area constituting the patch, as in the second embodiment. Then, the intermediate composite frame FrGt may be created based on the correspondence relationship for each rectangular area.

本発明の第1の実施形態による動画像合成装置の構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of a moving image synthesis apparatus according to a first embodiment of the present invention. フレームFrN+1と基準フレームFrNとの対応関係の推定を説明するための図The figure for demonstrating estimation of the correspondence of frame FrN + 1 and the reference | standard flame | frame FrN パッチの変形を説明するための図Diagram for explaining patch deformation 分割数が異なるパッチを示す図Diagram showing patches with different number of divisions パッチP1と基準パッチP0との対応関係を説明するための図The figure for demonstrating the correspondence of patch P1 and reference | standard patch P0 双1次内挿を説明するための図Diagram for explaining bilinear interpolation フレームFrN+1の統合画像への割り当てを説明するための図The figure for demonstrating allocation to the integrated image of frame FrN + 1 統合画像における整数座標の画素値の算出を説明するための図The figure for demonstrating the calculation of the pixel value of the integer coordinate in an integrated image 本実施形態において行われる処理を示すフローチャートA flowchart showing processing performed in the present embodiment 本発明の第2の実施形態において行われる処理を説明するための図The figure for demonstrating the process performed in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 サンプリング手段
2 対応関係推定手段
3 座標変換手段
4 相関値算出手段
5 比較手段
6 合成手段
DESCRIPTION OF SYMBOLS 1 Sampling means 2 Correspondence relation estimation means 3 Coordinate conversion means 4 Correlation value calculation means 5 Comparison means 6 Composition means

Claims (10)

動画像から連続する2つのフレームをサンプリングするサンプリング手段と、
該2つのフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する対応関係推定手段と、
前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する座標変換手段と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する相関値算出手段と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得するよう、前記対応関係推定手段、前記座標変換手段および前記相関値算出手段を制御する制御手段と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する比較手段と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い合成フレームを作成する合成手段とを備えたことを特徴とする動画像合成装置。
Sampling means for sampling two consecutive frames from a moving image;
Of the two frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is arranged on a frame other than the reference frame. , Moving and / or deforming the patch on the other frame so that the image in the patch matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch A correspondence estimation means for estimating a correspondence between a pixel in the patch on the other frame and a pixel in the reference patch on the reference frame;
Based on the correspondence, coordinate conversion means for converting the image in the patch of the other frame to the coordinate space of the reference frame to obtain a coordinate-converted frame;
Correlation value calculating means for calculating a correlation value representing a correlation between the coordinate-converted frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Control means for controlling the correspondence estimation means, the coordinate conversion means, and the correlation value calculation means so as to obtain a plurality of correlation values according to the patch and the number of divisions of the patch;
Comparing means for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated in the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other frame and the image in the reference patch of the reference frame, and A moving image synthesizing apparatus comprising: synthesizing means for creating a synthetic frame having a higher resolution than each frame.
前記合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであることを特徴とする請求項1記載の動画像合成装置。   2. The moving image synthesizing apparatus according to claim 1, wherein the correspondence used for creating the synthesized frame is estimated for each rectangular area. 前記対応関係推定手段、前記座標変換手段、前記相関値算出手段、前記制御手段および前記合成手段は、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行う手段であることを特徴とする請求項1または2記載の動画像合成装置。   The correspondence estimation means, the coordinate conversion means, the correlation value calculation means, the control means, and the synthesis means are configured to estimate the correspondence, acquire the coordinate-converted frame, calculate the correlation value, and calculate the plurality of correlations. The moving image composition according to claim 1 or 2, wherein said means is a means for performing acquisition of a value, comparison of the magnitude of said correlation and creation of said composite frame using at least one component constituting said frame. apparatus. 動画像から連続する3以上のフレームをサンプリングするサンプリング手段と、
該3以上のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他の1のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他の1のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他の1のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する対応関係推定手段と、
前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する座標変換手段と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する相関値算出手段と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得するよう、前記対応関係推定手段、前記座標変換手段および前記相関値算出手段を制御する制御手段と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する比較手段と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い中間合成フレームを取得し、全ての前記他のフレームについて、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記中間合成フレームの取得を行い、全ての前記他のフレームについて取得された複数の前記中間合成フレームを合成することにより合成フレームを作成する合成手段とを備えたことを特徴とする動画像合成装置。
Sampling means for sampling three or more consecutive frames from a moving image;
Among the three or more frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is placed on one other frame other than the reference frame And moving and / or deforming the patch on the other one frame so that the image in the patch matches the image in the reference patch, and the patch after the movement and / or deformation and Correspondence estimation means for estimating a correspondence between a pixel in the patch on the other one frame and a pixel in the reference patch on the reference frame based on the reference patch;
Coordinate conversion means for converting the image in the patch of the other one frame into the coordinate space of the reference frame to obtain a coordinate-converted frame based on the correspondence relationship;
Correlation value calculating means for calculating a correlation value representing a correlation between the coordinate-converted frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Control means for controlling the correspondence estimation means, the coordinate conversion means, and the correlation value calculation means so as to obtain a plurality of correlation values according to the patch and the number of divisions of the patch;
Comparing means for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated at the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other one frame and the image in the reference patch of the reference frame. , Obtaining an intermediate composite frame having a higher resolution than each frame, and for all the other frames, estimating the correspondence, obtaining the coordinate-transformed frame, calculating the correlation value, and calculating the plurality of correlation values. A synthesizing unit that obtains, compares the correlation magnitudes, and obtains the intermediate synthesized frame, and synthesizes a plurality of the intermediate synthesized frames obtained for all the other frames; An apparatus for synthesizing moving images.
前記中間合成フレームの作成に用いる前記対応関係は、前記矩形領域毎に推定されたものであることを特徴とする請求項4記載の動画像合成装置。   5. The moving image synthesizing apparatus according to claim 4, wherein the correspondence used for creating the intermediate synthesized frame is estimated for each rectangular area. 前記対応関係推定手段、前記座標変換手段、前記相関値算出手段、前記制御手段および前記合成手段は、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較、前記中間合成フレームの取得および前記合成フレームの作成を、前記フレームを構成する少なくとも1つの成分を用いて行う手段であることを特徴とする請求項4または5記載の動画像合成装置。   The correspondence estimation means, the coordinate conversion means, the correlation value calculation means, the control means, and the synthesis means are configured to estimate the correspondence, acquire the coordinate-converted frame, calculate the correlation value, and calculate the plurality of correlations. 5. The means for performing acquisition of a value, comparison of the magnitude of the correlation, acquisition of the intermediate composite frame, and creation of the composite frame using at least one component constituting the frame. Or the moving image synthesizing device according to 5. 動画像から連続する2つのフレームをサンプリングし、
該2つのフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定し、
前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得し、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出し、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得し、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較し、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い合成フレームを作成することを特徴とする動画像合成方法。
Sampling two consecutive frames from a video,
Of the two frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is arranged on a frame other than the reference frame. , Moving and / or deforming the patch on the other frame so that the image in the patch matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch Estimating a correspondence between a pixel in the patch on the other frame and a pixel in the reference patch on the reference frame,
Based on the correspondence relationship, the image in the patch of the other frame is coordinate-transformed into the coordinate space of the reference frame to obtain a coordinate-transformed frame,
Calculating a correlation value representing a correlation between the coordinate-transformed frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Obtain a plurality of correlation values according to the patch and the number of divisions of the patch,
Comparing the correlation magnitude for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated in the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other frame and the image in the reference patch of the reference frame, and A moving image synthesizing method, characterized in that a synthetic frame having a higher resolution than each frame is created.
動画像から連続する3以上のフレームをサンプリングし、
該3以上のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他の1のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他の1のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他の1のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定し、
前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得し、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出し、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得し、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較し、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い中間合成フレームを取得し、
全ての前記他のフレームについて、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記中間合成フレームの取得を行い、
全ての前記他のフレームについて取得された複数の前記中間合成フレームを合成することにより合成フレームを作成することを特徴とする動画像合成方法。
Sampling three or more consecutive frames from a video,
Among the three or more frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is placed on one other frame other than the reference frame And moving and / or deforming the patch on the other one frame so that the image in the patch matches the image in the reference patch, and the patch after the movement and / or deformation and Based on the reference patch, a correspondence relationship between a pixel in the patch on the other one frame and a pixel in the reference patch on the reference frame is estimated,
Based on the correspondence, the image in the patch of the other one frame is coordinate-transformed into the coordinate space of the reference frame to obtain a coordinate-transformed frame;
Calculating a correlation value representing a correlation between the coordinate-transformed frame and an image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. Obtain a plurality of correlation values according to the patch and the number of divisions of the patch,
Comparing the correlation magnitude for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated at the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other one frame and the image in the reference patch of the reference frame. , Obtain an intermediate composite frame having a higher resolution than each of the frames,
For all the other frames, estimation of the correspondence, acquisition of the coordinate-transformed frame, calculation of the correlation value, acquisition of the plurality of correlation values, comparison of the correlation magnitudes, and acquisition of the intermediate composite frame And
A moving image synthesizing method, wherein a synthesized frame is created by synthesizing a plurality of the intermediate synthesized frames acquired for all the other frames.
動画像から連続する2つのフレームをサンプリングする手順と、
該2つのフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する手順と、
前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する手順と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する手順と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得する手順と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する手順と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い合成フレームを作成する手順とを有する動画像合成方法をコンピュータに実行させるためのプログラム。
A procedure for sampling two consecutive frames from a moving image;
Of the two frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is arranged on a frame other than the reference frame. , Moving and / or deforming the patch on the other frame so that the image in the patch matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch Estimating a correspondence between a pixel in the patch on the other frame and a pixel in the reference patch on the reference frame;
A procedure for obtaining a coordinate-converted frame by converting the image in the patch of the other frame into the coordinate space of the reference frame based on the correspondence relationship;
Calculating a correlation value representing a correlation between the coordinate-transformed frame and the image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-transformed frame is obtained, and the correlation value is calculated in each stage. A procedure for obtaining a plurality of correlation values according to the patch and the number of divisions of the patch;
A procedure for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated in the number of divisions that maximizes the correlation, an interpolation operation is performed on the image in the patch of the other frame and the image in the reference patch of the reference frame, and A program for causing a computer to execute a moving image synthesizing method including a procedure for creating a synthesized frame having a higher resolution than each frame.
動画像から連続する3以上のフレームをサンプリングする手順と、
該3以上のフレームのうち、基準となる1の基準フレーム上に1または複数の矩形領域を有する基準パッチを配置し、該基準パッチと同様のパッチを該基準フレーム以外の他の1のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と一致するように、該パッチを前記他の1のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他の1のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を推定する手順と、
前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像を前記基準フレームの座標空間に座標変換して座標変換済みフレームを取得する手順と、
該座標変換済みフレームと前記基準フレームの前記基準パッチ内の画像との相関を表す相関値を算出する手順と、
前記基準パッチおよび前記パッチ内の前記矩形領域の分割数を段階的に変更して、各段階において前記対応関係の推定、前記座標変換済みフレームの取得および前記相関値の算出を行って、前記基準パッチおよび前記パッチの分割数に応じた複数の相関値を取得する手順と、
前記複数の相関値に基づいて前記分割数毎に前記相関の大きさを比較する手順と、
前記相関が最大となる分割数において推定された前記対応関係に基づいて、前記他の1のフレームの前記パッチ内の画像および前記基準フレームの前記基準パッチ内の画像に対して補間演算を施して、前記各フレームよりも解像度が高い中間合成フレームを取得する手順と、
全ての前記他のフレームについて、前記対応関係の推定、前記座標変換済みフレームの取得、前記相関値の算出、前記複数の相関値の取得、前記相関の大きさの比較および前記中間合成フレームの取得を行う手順と、
全ての前記他のフレームについて取得された複数の前記中間合成フレームを合成することにより合成フレームを作成する手順とを有する動画像合成方法をコンピュータに実行させるためのプログラム。
A procedure for sampling three or more consecutive frames from a moving image;
Among the three or more frames, a reference patch having one or more rectangular areas is arranged on one reference frame serving as a reference, and a patch similar to the reference patch is placed on one other frame other than the reference frame And moving and / or deforming the patch on the other one frame so that the image in the patch matches the image in the reference patch, and the patch after the movement and / or deformation and Estimating a correspondence relationship between a pixel in the patch on the other one frame and a pixel in the reference patch on the reference frame based on the reference patch;
A procedure for obtaining a coordinate-converted frame by converting the image in the patch of the other one frame into the coordinate space of the reference frame based on the correspondence relationship;
Calculating a correlation value representing a correlation between the coordinate-transformed frame and the image in the reference patch of the reference frame;
The reference patch and the number of divisions of the rectangular area in the patch are changed in stages, and the correlation is estimated, the coordinate-converted frame is obtained, and the correlation value is calculated in each stage. A procedure for obtaining a plurality of correlation values according to the patch and the number of divisions of the patch;
A procedure for comparing the magnitude of the correlation for each of the number of divisions based on the plurality of correlation values;
Based on the correspondence estimated at the number of divisions that maximizes the correlation, interpolation is performed on the image in the patch of the other one frame and the image in the reference patch of the reference frame. Obtaining an intermediate composite frame having a higher resolution than each of the frames;
For all the other frames, estimation of the correspondence, acquisition of the coordinate-transformed frame, calculation of the correlation value, acquisition of the plurality of correlation values, comparison of the magnitude of the correlation, and acquisition of the intermediate composite frame The steps to do
A program for causing a computer to execute a moving image synthesizing method including a procedure for creating a synthesized frame by synthesizing a plurality of the intermediate synthesized frames acquired for all the other frames.
JP2003407321A 2003-01-10 2003-12-05 Moving image synthesizing apparatus, method, and program Expired - Fee Related JP4356876B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003407321A JP4356876B2 (en) 2003-01-10 2003-12-05 Moving image synthesizing apparatus, method, and program
US10/750,461 US7391931B2 (en) 2003-01-10 2004-01-02 Method, apparatus, and program for moving image synthesis

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003004552 2003-01-10
JP2003407321A JP4356876B2 (en) 2003-01-10 2003-12-05 Moving image synthesizing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2004234637A true JP2004234637A (en) 2004-08-19
JP4356876B2 JP4356876B2 (en) 2009-11-04

Family

ID=32964687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407321A Expired - Fee Related JP4356876B2 (en) 2003-01-10 2003-12-05 Moving image synthesizing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4356876B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178857A (en) * 2004-12-24 2006-07-06 Yokohama National Univ Image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178857A (en) * 2004-12-24 2006-07-06 Yokohama National Univ Image processor

Also Published As

Publication number Publication date
JP4356876B2 (en) 2009-11-04

Similar Documents

Publication Publication Date Title
JPH09284798A (en) Signal processor
JP5451313B2 (en) Image processing apparatus, image processing method, and program
JP5158262B2 (en) Image processing method and image processing apparatus
Jeong et al. Multi-frame example-based super-resolution using locally directional self-similarity
JP4714038B2 (en) Method and apparatus for increasing image resolution
JP4173705B2 (en) Moving picture composition method, apparatus, and program
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP6840506B2 (en) Image processing device, image processing method, program
JP4250237B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
CN106296614B (en) Image processing apparatus and image processing method
JP4104937B2 (en) Moving picture composition method, apparatus, and program
JP4121024B2 (en) Moving image synthesizing apparatus, method, and program
JP4356876B2 (en) Moving image synthesizing apparatus, method, and program
JP2004152148A (en) Dynamic image composition method and device, program
JP6762737B2 (en) Image processing device
JP4350493B2 (en) Moving image synthesizing apparatus, method, and program
JP4582993B2 (en) Moving picture composition method, apparatus, and program
JP4515698B2 (en) Moving picture composition method, apparatus, and program
JP4104947B2 (en) Moving picture composition method, apparatus, and program
JP6059899B2 (en) Frame interpolation apparatus and program
JP7005168B2 (en) Image processing equipment, image processing methods and programs
JP6854629B2 (en) Image processing device, image processing method
JP2011043901A (en) Image processor, image processing method, image processing program, and electronic equipment
JP2009064193A (en) Resolution converter and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060519

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees