JP2004120626A - Moving image compositing method and apparatus, and program - Google Patents

Moving image compositing method and apparatus, and program Download PDF

Info

Publication number
JP2004120626A
JP2004120626A JP2002284126A JP2002284126A JP2004120626A JP 2004120626 A JP2004120626 A JP 2004120626A JP 2002284126 A JP2002284126 A JP 2002284126A JP 2002284126 A JP2002284126 A JP 2002284126A JP 2004120626 A JP2004120626 A JP 2004120626A
Authority
JP
Japan
Prior art keywords
frame
frames
patch
correspondence
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002284126A
Other languages
Japanese (ja)
Other versions
JP4104947B2 (en
Inventor
Wataru Ito
伊藤 渡
Sukekazu Kameyama
亀山 祐和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002284126A priority Critical patent/JP4104947B2/en
Priority to US10/646,753 priority patent/US7729563B2/en
Publication of JP2004120626A publication Critical patent/JP2004120626A/en
Application granted granted Critical
Publication of JP4104947B2 publication Critical patent/JP4104947B2/en
Priority to US12/754,718 priority patent/US8078010B2/en
Priority to US13/172,437 priority patent/US8275219B2/en
Priority to US13/438,057 priority patent/US20120189066A1/en
Priority to US13/593,636 priority patent/US8805121B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form a highly precise composite frame by sampling a plurality of consecutive frames in a moving image. <P>SOLUTION: A sampling means 1 decides the number S of frames to be sampled on the basis of moving image data M0 and image characteristics of the composite frame, and samples S pieces of frames including a reference frame FrN. A correlation finding means 2 finds correlations between other frames and the reference frame successively from the other frames near the reference frame out of the S pieces of frames. For the other frames for which the correlations with the reference frame are found by the correlation means 2, a stopping means 10 finds the correlation between each of these frames and the reference frame, and when the correlation is lower than a predetermined threshold, the stopping means 10 stops its finding operation of the correlations with this frame and subsequent frames. The composite frame is generated on the basis of the correlation found by the correlation means 2. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、動画像の連続する複数のフレームを統合して、これら複数のフレームよりも高解像度の合成フレームを作成することができる動画像合成方法および装置並びに動画像合成方法をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
近年、デジタルビデオカメラの普及により、動画像を1フレーム単位で扱うことが可能となっている。このような動画像のフレームをプリント出力する際には、画質を向上させるためにフレームを高解像度にする必要がある。このため、動画像から複数のフレームをサンプリングし、サンプリングした複数のフレームを統合することにより、これらのフレームよりも高解像度の1の合成フレームを作成する方法が提案されている。
【0003】
動画像の複数のフレームを統合する際に必要とされるのは、動領域における各フレーム間の画素の対応関係を求めることである。これには通常、ブロックマッチング法や勾配法が用いられるが、従来のブロックマッチング法は、ブロック内の動き量が同一方向であることを仮定したものであるため、回転、拡大、縮小、変形といった様々な動きに対応する柔軟性に欠けている上に、処理時間がかかり、実用的ではないという問題がある。一方、勾配法は、従来のブロックマッチング法と比較して安定に解を求めることができないという問題がある。これらの問題を克服した方法としては、統合される複数のフレームのうちの1つのフレームを基準フレームとし、基準フレームに1または複数の矩形領域からなる基準パッチを、基準フレーム以外の他のフレームに基準パッチと同様のパッチを配置し、パッチ内の画像が基準パッチ内の画像と一致するようにパッチを他のフレーム上において移動および/または変形し、移動および/または変形後のパッチおよび基準パッチに基づいて、他のフレーム上のパッチ内の画素と基準フレーム上の基準パッチ内の画素との対応関係を求めて複数フレームを精度よく合成する方法が提案されている(非特許文献1参照)。
【0004】
非特許文献1の方法においては、基準フレームと他のフレームとの対応関係を求め、求めた後、他のフレームと基準フレームとを、最終的に必要な解像度を有する統合画像上に割り当てることにより、高精細な合成フレームを得ることができる。
【0005】
【非特許文献1】
「フレーム間統合による高精細ディジタル画像の獲得」,中沢祐二、小松隆、斉藤隆弘,テレビジョン学会誌,1995年,Vol.49,No.3,p299−308
【0006】
【発明が解決しようとする課題】
しかし、非特許文献1に記載された方法においては、動画像から複数のフレームをサンプリングする際に、基準フレームを含むどの範囲のフレーム、すなわち、基準フレームを含む何枚までのフレームを統合に使用するフレームとすることについては、操作者の手動により設定されることになっている。操作者に画像処理の知識を要求すると共に、手間がかかるという問題がある。また、操作者の手動により設定されるので、操作者の主観が入り、必ずしも客観的に適切な範囲を得ることができず、合成フレームの品質に悪い影響を与えてしまうという問題がある。
【0007】
本発明は、上記事情を鑑みなされたものであり、動画像の複数のフレームを統合して合成フレームを作成する際に、簡単かつ客観的に適切なフレーム範囲を決定し、品質の良い合成フレームを作成することが可能な動画像合成方法および装置並びにプログラムを提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明の動画像合成方法は、動画像の連続する、基準フレームを含む2以上の所定の枚数のフレームをサンプリングし、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、
該基準パッチと同様のパッチを前記所定の枚数のフレームのうちの他のフレーム上に配置し、
該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、
該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求め、
求められた前記対応関係に基づいて前記所定の枚数のフレームから合成フレームを作成する動画像合成方法において、
前記動画像および/または作成しようとする前記合成フレームの画像特性に基づいて前記所定の枚数を決定して該所定の枚数のフレームをサンプリングすることを特徴とするものである。
【0009】
ここで、動画像の画像特性とは、動画像から合成フレームを作成する際に合成フレームの品質に影響を与える可能性のある特性を意味し、例えば、動画像の各フレームの画素サイズや解像度、動画像のフレームレート、動画像の圧縮率などを例として挙げることができる。同様に、作成しようとする合成フレームの画像特性とは、該合成フレームを作成するのにサンプリングするフレームの数、若しくは必要とするフレームの数を決定する上で影響を与える可能性のある特性を意味し、例えば、作成しようとする合成フレームの画素サイズや解像度などを例として挙げることができる。また、直接的ではないが、例えば作成しようとする合成フレームの画素サイズが、前記動画像のフレームの画素サイズに対する倍率なども、間接的に前記動画像および作成しようとする前記合成フレームの画像特性である。
【0010】
本発明の動画像合成方法において、前記画像特性を取得する方式としては、必要な画像特性を取得することができればいかなる方式であってもよく、例えば、動画像の画像特性としては、動画像のタグなどの付属情報を読み取って取得するようにしてもよいし、操作者により入力された値を用いるようにしてもよく、作成しようとする合成フレームの画像特性としては、操作者により入力された値を用いてよいし、固定した目標値を用いるようにしてもよい。
【0011】
本発明の画像処理方法は、前記基準フレームに近い他のフレームから順に、前記対応関係を求めると共に、前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めていき、
前記相関が所定の閾値より低くなったフレームにおいて、前記対応関係を求める処理を中止し、
求められた前記対応関係に基づいて、前記基準フレームおよび前記対応関係が求められた前記他のフレームを用いて前記合成フレームを作成することが好ましい。
【0012】
ここで、「基準フレームに近い他のフレームから順に」とは、例えば、サンプリングされた複数のフレームにおける基準フレームの時系列的な位置が先頭または末端であれば、「基準フレームより時系列的に早い他のフレームから順に」または「基準フレームより時系列的に遅い他のフレームから順に」とのことを意味するが、サンプリングされた複数のフレームにおける基準フレームの時系列的な位置が先頭および末端ではなければ、「基準フレームより時系列的に早い他のフレームから順に」と「基準フレームより時系列的に遅い他のフレームから順に」との夫々両方のことを意味する。
【0013】
本発明の動画像合成装置は、動画像の連続する、基準フレームを含む2以上の所定の枚数のフレームをサンプリングするサンプリング手段と、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、該基準パッチと同様のパッチを前記所定の枚数のフレームのうちの他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求める対応関係求出手段と、
該対応関係求出手段により求められた前記対応関係に基づいて前記所定の枚数のフレームから合成フレームを作成するフレーム統合手段とを備えてなる動画像合成装置であって、
前記サンプリング手段が、前記動画像および/または作成しようとする前記合成フレームの画像特性に基づいて前記所定の枚数を決定するフレーム枚数決定手段を備え、該フレーム枚数決定手段に決定された前記所定の枚数のフレームをサンプリングするものであることを特徴とするものである。
【0014】
本発明の動画像合成装置は、前記対応関係求出手段の処理を中止する中止手段をさらに備え、
前記対応関係求出手段が、前記基準フレームに近い他のフレームから順に、前記対応関係を求めるものであり、
前記中止手段が、前記対応関係求出手段により前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めると共に、前記相関が所定の閾値より低くなったフレームから、前記対応関係求出手段の処理を中止するものであり、
前記フレーム統合手段が、求められた前記対応関係に基づいて、前記基準フレームおよび前記対応関係が求められた前記他のフレームを用いて前記合成フレームを作成するものであることが好ましい。
【0015】
本発明のプログラムは、動画像および/または該動画像の複数のフレームから作成しようとする合成フレームの画像特性に基づいて、合成に使用する前記フレームの枚数を決定する枚数決定処理と、
前記動画像の連続する、基準フレームを含む前記枚数のフレームをサンプリングするサンプリング処理と、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、該基準パッチと同様のパッチを前記枚数のフレームのうちの他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求める対応関係求出処理と、
求められた前記対応関係に基づいて前記枚数のフレームから合成フレームを作成するフレーム統合処理とをコンピュータに実行させることを特徴とするものである。
【0016】
前記対応関係求出処理が、前記基準フレームに近い他のフレームから順に、前記対応関係を求めるものであり、本発明のプログラムは、前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めると共に、前記相関が所定の閾値より低くなったフレームから、前記対応関係を求める処理を中止する中止処理をさらにコンピュータに実行させるものであることが好ましい。
【0017】
【発明の効果】
本発明の動画像合成方法および装置によれば、動画像の複数の連続するフレームをサンプリングして合成フレームを作成する際に、動画像および/または合成しようとする合成フレームの画像特性に基づいてサンプリングするフレームの数を決定するようにしているので、操作者が手動でフレームの数を決定する必要がなく、便利である。また、動画像および/または作成しようとする合成フレームの画像特性に基づいてフレームの数を決定することによって、客観的に適切なフレームの数を決定することができので、高品質の合成フレームを作成することができる。
【0018】
本発明の動画像合成方法および装置において、決定されたフレームの数のフレームをサンプリングし、これらのフレームに対して、基準フレームに近い基準フレーム以外の他のフレームから順に、他のフレーム上のパッチ内の画素と基準フレーム上の基準パッチ上内の画素との対応関係を求めると共に、他のフレームと基準フレームとの相関を求めていき、相関が所定の閾値より大きければ、次の他のフレームに対して対応関係を求める処理を続行するが、相関が所定の閾値より低くなったフレームを検出すると、決定されたフレームの数に到達していなくても、このフレーム以降の他のフレームに対する対応関係求出処理を中止するようにすることによって、基準フレームと相関が低いフレーム(例えば基準フレームのシーンと切り替わったシーンにフレーム)を用いて合成フレームを作成することを避けることができ、より高品質の合成フレームを作成することが可能となる。
【0019】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について説明する。
【0020】
図1は、本発明の実施形態となる動画像合成装置の構成を示すブロック図である。図1に示すように、本実施形態による動画像合成装置は、入力された動画像データM0から複数のフレームをサンプリングするサンプリング手段1と、後述する対応関係求出手段2の処理を中止させる中止手段10と、サンプリング手段1によりサンプリングした複数のフレームのうち、中止手段10により中止されるフレームまでのフレーム(中止されなければ複数のフレーム全部)に対して、基準となる1つの基準フレームの画素および基準フレーム以外の他のフレームの画素の対応関係を、基準フレームに近い他のフレームから順に求める対応関係求出手段2と、対応関係求出手段2により求められた対応関係に基づいて、対応関係が求められた他のフレームを夫々基準フレームの座標空間上に座標変換して座標変換済みフレームを取得する座標変換手段3と、対応関係求出手段2において求められた対応関係に基づいて、対応関係が求められた他のフレームに対して補間演算を施して各フレームよりも解像度が高い第1の補間フレームを取得する時空間補間手段4と、基準フレームに対して補間演算を施して各フレームよりも解像度が高い第2の補間フレームを取得する空間補間手段5と、夫々の座標変換済みフレームと基準フレームとの相関を表す相関値を算出する相関値算出手段6と、第1の補間フレームと第2の補間フレームとを重み付け加算するための重み係数を相関値算出手段6において算出された相関値に基づいて算出する重み算出手段7と、重み算出手段7において算出された重み係数に基づいて第1および第2の補間フレームを重み付け加算して合成フレームFrGを取得する合成手段8とを備える。なお、座標変換手段3と、時空間補間手段4と、空間補間手段5と、相関値算出手段6と、重み算出手段7と、合成手段8とは、請求項記載のフレーム統合手段に当たるものである。
【0021】
図2は、図1に示す動画像合成装置におけるサンプリング手段1の構成を示すブロック図である。図2に示すように、サンプリング手段1は、合成フレームの画素サイズが動画像の1フレームの画素サイズに対する倍率、動画像のフレームレート、および動画像の圧縮クオリティと、サンプリングすべきフレームの数Sとを対応付けて作成されたフレーム数決定テーブルを記憶した記憶手段12と、実際に作成しようとする合成フレームFrGの画素サイズが動画像の1フレームの画素サイズに対する倍率、動画像データM0のフレームレート、および動画像データM0の圧縮クオリティを入力させるための条件設定手段14と、記憶手段12に記憶されたフレーム数決定テーブルを参照し、条件設定手段14を介して入力された倍率、フレームレート、圧縮クオリティに対応した、サンプリングすべきフレームの数Sを検出して、S枚の連続したフレームを動画像データM0からサンプリングするサンプリング実行手段16とを備えてなるものである。
【0022】
図3は、図2に示すサンプリング手段1の記憶手段12に記憶されたフレーム数決定テーブルの1例を示している。図示の例は、下記の式(1)に従って、様々な倍率、フレームレート、圧縮クオリティの組み合わせから、この組み合わせに対応してサンプリングすべきフレームの数Sを求めたものである。
【0023】
S=min(S1,S2×S3)
S1=フレームレート×3               (1)
S2=倍率×1.5
S3=1.0(高圧縮クオリティ)
S3=1.2(中圧縮クオリティ)
S3=1.5(低圧縮クオリティ)
即ち、フレームレートが大きければフレームの数Sが多く、倍率が大きければフレームの数Sが多く、圧縮クオリティが低ければフレームの数Sが多くなる傾向でフレームの数が求められている。
【0024】
サンプリング手段1は、サンプリングしたS枚のフレームを対応関係求出手段2に出力し、対応関係求出手段2は、このS枚のフレーム(中止手段10により中止されれば、このS枚のフレームのうちの中止されたフレームまでのフレーム)のうちの基準フレームの画素および他のフレームの画素の対応関係を、基準フレームに近い他のフレームから順に求める。ここで対応関係求出手段2の動作を説明する。なお、動画像データM0はカラーの動画像を表すものであり、各フレームはY,Cb,Crの輝度色差成分からなるものとする。また、以降の説明において、Y,Cb,Crの各成分に対して処理が行われるが、行われる処理は全ての成分について同様であるため、本実施形態においては輝度成分Yの処理について詳細に説明し、色差成分Cb,Crに対する処理については説明を省略する。
【0025】
サンプリング手段1から出力されてきたS枚のフレームは、例として1つの基準フレームFrNを先頭にして、基準フレームFrNに近い順からFrN+1,FrN+2...FrN+(S−1)のように連続して並んだものである。ここで、フレームFrN+1と基準フレームFrNとを例にして対応関係求出手段2の動作を説明する。なお、以降では、作成しようとする合成フレームFrGはサンプリングしたフレームの縦横それぞれ2倍(倍率が4倍となる)の画素数を有する場合について説明するが、n倍(n:正数)の画素数を有するものであってもよい。
【0026】
対応関係求出手段2は、以下のようにしてフレームFrN+1と基準フレームFrNとの対応関係を求める。図4はフレームFrN+1と基準フレームFrNとの対応関係の求出を説明するための図である。なお、図4において、基準フレームFrNに含まれる円形の被写体が、フレームFrN+1においては図面上右側に若干移動しているものとする。
【0027】
まず、対応関係求出手段2は、基準フレームFrN上に1または複数の矩形領域からなる基準パッチP0を配置する。図4(a)は、基準フレームFrN上に基準パッチP0が配置された状態を示す図である。図4(a)に示すように、本実施形態においては、基準パッチP0は4×4の矩形領域からなるものとする。
次いで、図4(b)に示すように、フレームFrN+1の適当な位置に基準パッチP0と同様のパッチP1を配置し、基準パッチP0内の画像とパッチP1内の画像との相関を表す相関値を算出する。なお、相関値は下記の式(2)により平均二乗誤差として算出することができる。また、座標軸は紙面左右方向にx軸、紙面上下方向にy軸をとるものとする。
【0028】
【数1】

Figure 2004120626
但し、E:相関値
pi,qi:基準パッチP0,P1内にそれぞれ対応する画素の画素値
N:基準パッチP0およびパッチP1内の画素数
次いで、フレームFrN+1上のパッチP1を上下左右の4方向に一定画素±Δx,±Δy移動し、このときのパッチP1内の画像と基準フレームFrN上の基準パッチP0内の画像との相関値を算出する。ここで、相関値は上下左右方向のそれぞれについて算出され、各相関値をそれぞれE(Δx,0),E(−Δx,0),E(0,Δy),E(0,−Δy)とする。
【0029】
そして、移動後の4つの相関値E(Δx,0),E(−Δx,0),E(0,Δy),E(0,−Δy)から相関値が小さく(すなわち相関が大きく)なる勾配方向を相関勾配として求め、この方向に予め設定した実数値倍だけ図4(c)に示すようにパッチP1を移動する。具体的には、下記の式(3)により係数C(Δx,0),C(−Δx,0),C(0,Δy),C(0,−Δy)を算出し、これらの係数C(Δx,0),C(−Δx,0),C(0,Δy),C(0,−Δy)から下記の式(4),式(5)により相関勾配gx,gyを算出する。
【0030】
【数2】
Figure 2004120626
そして、算出された相関勾配gx,gyに基づいてパッチP1の全体を(−λ1gx,−λ1gy)移動し、さらに上記と同様の処理を繰り返すことにより、図4(d)に示すようにパッチP1がある位置に収束するまで反復的にパッチP1を移動する。ここで、λ1は収束の速さを決定するパラメータであり、実数値をとるものとする。なお、λ1をあまり大きな値とすると反復処理により解が発散してしまうため、適当な値(例えば10)を選ぶ必要がある。
【0031】
さらに、パッチP1の格子点を座標軸に沿った4方向に一定画素移動させる。
このとき、移動した格子点を含む矩形領域は例えば図5に示すように変形する。
そして、変形した矩形領域について基準パッチP0の対応する矩形領域との相関値を算出する。この相関値をそれぞれE1(Δx,0),E1(−Δx,0),E1(0,Δy),E1(0,−Δy)とする。
【0032】
そして、上記と同様に、変形後の4つの相関値E1(Δx,0),E1(−Δx,0),E1(0,Δy),E1(0,−Δy)から相関値が小さく(すなわち相関が大きく)なる勾配方向を求め、この方向に予め設定した実数値倍だけパッチP1の格子点を移動する。これをパッチP1の全ての格子点について行い、これを1回の処理とする。そして格子点の座標が収束するまでこの処理を繰り返す。
【0033】
これにより、パッチP1の基準パッチP0に対する移動量および変形量が求まり、これに基づいて基準パッチP0内の画素とパッチP1内の画素との対応関係を求めることができる。
【0034】
対応関係求出手段2は、このようにしてサンプリング手段1から出力されてきたS枚のフレームに対して、基準フレームFrNに近いフレームからの順、即ちFrN+1,FrN+2,...の順に対応関係を求めるが、中止手段10により中止されたときは、中止されたフレームから以降のフレームに対する対応関係の求出を中止する。
【0035】
図6は、中止手段10の構成を示すブロック図である。図示のように、中止手段10は、対応関係求出手段2により処理中のフレームと基準フレームとの相関を求める相関取得手段22と、相関取得手段22により求められた相関が所定の閾値以上であれば、対応関係求出手段2の処理を中止しないが、相関が所定の閾値より低ければ、対応関係求出手段2による処理中のフレーム以降のフレームに対する対応関係の求出を中止する。
【0036】
本実施形態において、相関取得手段22は、対応関係求出手段2において1つのフレームに対して算出された、収束時の相関値Eの和を、このフレームと基準フレームとの相関値として用い、この相関値が所定の閾値より高ければ(すなわち、相関が所定の閾値より低くければ)、対応関係求出手段2の処理を中止させ、すなわち、処理中のフレーム以降のフレームに対する対応関係の求出処理を中止させる。
【0037】
座標変換手段3などからなるフレーム統合手段は、対応関係求出手段2により求められた対応関係に基づいて、基準フレームおよび、基準フレームとの対応関係が求められた他のフレームを用いて合成フレームを作成するものである。説明上の便宜のため、まず、対応関係求出手段2により対応関係が求められたフレームはFrN+1のみであると仮定して、フレーム統合手段の動作を説明する。
【0038】
座標変換手段3は以下のようにしてフレームFrN+1を基準フレームFrNの座標空間に座標変換して座標変換済みフレームFrT0を取得する。なお、以降の説明においては、基準フレームFrNの基準パッチP0内の領域およびフレームFrN+1のパッチP1内の領域についてのみ変換、補間演算および合成が行われる。
【0039】
本実施形態においては、座標変換は双1次変換を用いて行うものとする。双1次変換による座標変換は、下記の式(6),(7)により定義される。
【0040】
【数3】
Figure 2004120626
式(6),(7)は、2次元座標上の4点(xn,yn)(1≦n≦4)で与えられたパッチP1内の座標を、正規化座標系(u,v)(0≦u,v≦1)によって補間するものであり、任意の2つの矩形内の座標変換は、式(6),(7)および式(6),(7)の逆変換を組み合わせることにより行うことができる。
【0041】
ここで、図7に示すように、パッチP1(xn,yn)内の点(x,y)が対応する基準パッチP0(x′n,y′n)内のどの位置に対応するかを考える。
まずパッチP1(xn,yn)内の点(x,y)について、正規化座標(u,v)を求める。これは式(6),(7)の逆変換により求める。そしてこのときの(u,v)と対応する基準パッチP0(x′n,y′n)を元に、式(6),(7)から点(x,y)に対応する座標(x′,y′)を求める。ここで、点(x,y)が本来画素値が存在する整数座標であるのに対し、点(x′,y′)は本来画素値が存在しない実数座標となる場合があるため、変換後の整数座標における画素値は、基準パッチP0の整数座標に隣接する8近傍の整数座標に囲まれた領域を設定し、この領域内に変換された座標(x′,y′)の画素値の荷重和として求めるものとする。
【0042】
具体的には、図8に示すように基準パッチP0上における整数座標b(x,y)について、その8近傍の整数座標b(x−1,y−1),b(x,y−1),b(x+1,y−1),b(x−1,y),b(x+1,y),b(x−1,y+1),b(x,y+1),b(x+1,y+1)に囲まれる領域内に変換されたフレームFrN+1の画素値に基づいて算出する。ここで、フレームFrN+1のm個の画素値が8近傍の画素に囲まれる領域内に変換され、変換された各画素の画素値をItj(x°,y°)(1≦j≦m)とすると、整数座標b(x,y)における画素値It(x^,y^)は、下記の式(8)により算出することができる。なお、式(8)においてφは荷重和演算を表す関数である。
【0043】
【数4】
Figure 2004120626
但し、Wi(1≦j≦m):画素値Itj(x°,y°)が割り当てられた位置における近傍の整数画素から見た座標内分比の積
ここで、簡単のため、図8を用いて8近傍の画素に囲まれる領域内にフレームFrN+1の2つの画素値It1,It2が変換された場合について考えると、整数座標b(x,y)における画素値It(x^,y^)は下記の式(9)により算出することができる。
【0044】
【数5】
Figure 2004120626
但し、W1=u×v、W2=(1−s)×(1−t)
以上の処理をパッチP1内の全ての画素について行うことにより、パッチP1内の画像が基準フレームFrNの座標空間に変換されて、座標変換済みフレームFrT0が得られる。
【0045】
時空間補間手段4は、フレームFrN+1に対して補間演算を施して第1の補間フレームFrH1を取得する。具体的には、まず図9に示すように、最終的に必要な画素数を有する統合画像(本実施形態においては、フレームFrN,FrN+1の縦横それぞれ2倍の画素数を有する場合について説明するが、n倍(n:正数)の画素数を有するものであってもよい)を用意し、対応関係求出手段2において求められた対応関係に基づいて、フレームFrN+1(パッチP1内の領域)の画素の画素値を統合画像上に割り当てる。この割り当てを行う関数をΠとすると、下記の式(10)によりフレームFrN+1の各画素の画素値が統合画像上に割り当てられる。
【0046】
【数6】
Figure 2004120626
但し、I1N+1(x°,y°):統合画像上に割り当てられたフレームFrN+1の画素値
FrN+1(x,y):フレームFrN+1の画素値
このように統合画像上にフレームFrN+1の画素値を割り当てることにより画素値I1N+1(x°,y°)を得、各画素についてI1(x°,y°)(=I1N+1(x°,y°))の画素値を有する第1の補間フレームFrH1を取得する。
【0047】
ここで、画素値を統合画像上に割り当てる際に、統合画像の画素数とフレームFrN+1の画素数との関係によっては、フレームFrN+1上の各画素が統合画像の整数座標(すなわち画素値が存在すべき座標)に対応しない場合がある。
本実施形態においては、後述するように合成時において統合画像の整数座標における画素値を求めるものであるが、以下、合成時の説明を容易にするために統合画像の整数座標における画素値の算出について説明する。
【0048】
統合画像の整数座標における画素値は、統合画像の整数座標に隣接する8近傍の整数座標に囲まれた領域を設定し、この領域内に割り当てられたフレームFrN+1上の各画素の画素値の荷重和として求める。
【0049】
すなわち、図10に示すように統合画像における整数座標p(x,y)については、その8近傍の整数座標p(x−1,y−1),p(x,y−1),p(x+1,y−1),p(x−1,y),p(x+1,y),p(x−1,y+1),p(x,y+1),p(x+1,y+1)に囲まれる領域内に割り当てられたフレームFrN+1の画素値に基づいて算出する。ここで、フレームFrN+1のk個の画素値が8近傍の画素に囲まれる領域内に割り当てられ、割り当てられた各画素の画素値をI1N+1i(x°,y°)(1≦i≦k)とすると、整数座標p(x,y)における画素値I1N+1(x^,y^)は、下記の式(11)により算出することができる。なお、式(11)においてΦは荷重和演算を表す関数である。
【0050】
【数7】
Figure 2004120626
但し、Mi(1≦i≦k):画素値I1N+1i(x°,y°)が割り当てられた位置における近傍の整数画素から見た座標内分比の積
ここで、簡単のため、図10を用いて8近傍の画素に囲まれる領域内にフレームFrN+1の2つの画素値I1N+11,I1N+12が割り当てられた場合について考えると、整数座標p(x,y)における画素値I1N+1(x^,y^)は下記の式(12)により算出することができる。
【0051】
【数8】
Figure 2004120626
但し、M1=u×v、M2=(1−s)×(1−t)
そして、統合画像の全ての整数座標について、フレームFrN+1の画素値を割り当てることにより画素値I1N+1(x^,y^)を得ることができる。この場合、第1の補間フレームFrH1の各画素値I1(x^,y^)はI1N+1(x^,y^)となる。
【0052】
なお、上記ではフレームFrN+1に対して補間演算を施して第1の補間フレームFrH1を取得しているが、フレームFrN+1とともに基準フレームFrNをも用いて第1の補間フレームFrH1を取得してもよい。この場合、基準フレームFrNの画素は、統合画像の整数座標に補間されて直接割り当てられることとなる。
【0053】
空間補間手段5は、基準フレームFrNに対して、統合画像上のフレームFrN+1の画素が割り当てられた座標(実数座標(x°,y°))に画素値を割り当てる補間演算を施すことにより、第2の補間フレームFrH2を取得する。ここで、第2の補間フレームFrH2の実数座標の画素値をI2(x°,y°)とすると、画素値I2(x°,y°)は下記の式(13)により算出される。
【0054】
【数9】
Figure 2004120626
但し、f:補間演算の関数
なお、補間演算としては、線形補間演算、スプライン補間演算等の種々の補間演算を用いることができる。
【0055】
また、本実施形態においては、合成フレームFrGは基準フレームFrNの縦横それぞれ2倍の画素数であるため、基準フレームFrNに対して縦横方向に画素数を2倍とする補間演算を施すことにより、統合画像の画素数と同一の画素数を有する第2の補間フレームFrH2を取得してもよい。この場合、補間演算により得られる画素値は統合画像における整数座標の画素値であり、この画素値をI2(x^,y^)とすると、画素値I2(x^,y^)は下記の式(14)により算出される。
【0056】
【数10】
Figure 2004120626
相関値算出手段6は、座標変換済みフレームFrT0と基準フレームFrNとの相対応する画素同士の相関値d0(x,y)を算出する。具体的には下記の式(15)に示すように、座標変換済みフレームFrT0と基準フレームFrNとの対応する画素における画素値FrT0(x,y),FrN(x,y)との差の絶対値を相関値d0(x,y)として算出する。なお、相関値d0(x,y)は座標変換済みフレームFrT0と基準フレームFrNとの相関が大きいほど小さい値となる。
【0057】
【数11】
Figure 2004120626
なお、本実施形態では座標変換済みフレームFrT0と基準フレームFrNとの対応する画素における画素値FrT0(x,y),FrN(x,y)との差の絶対値を相関値d0(x,y)として算出しているが、差の二乗を相関値として算出してもよい。また、相関値を画素毎に算出しているが、座標変換済みフレームFrT0および基準フレームFrNを複数の領域に分割し、領域内の全画素値の平均値または加算値を算出して、領域単位で相関値を得てもよい。また、画素毎に算出された相関値d0(x,y)のフレーム全体についての平均値または加算値を算出して、フレーム単位で相関値を得てもよい。また、座標変換済みフレームFrT0および基準フレームFrNのヒストグラムをそれぞれ算出し、座標変換済みフレームFrT0および基準フレームFrNのヒストグラムの平均値、メディアン値または標準偏差の差分値、もしくはヒストグラムの差分値の累積和を相関値として用いてもよい。また、基準フレームFrNに対する座標変換済みフレームFrT0の動きを表す動きベクトルを基準フレームFrNの各画素または小領域毎に算出し、算出された動ベクトルの平均値、メディアン値または標準偏差を相関値として用いてもよく、動ベクトルのヒストグラムの累積和を相関値として用いてもよい。
【0058】
重み算出手段7は、相関値算出手段6により算出された相関値d0(x,y)から第1の補間フレームFrH1および第2の補間フレームFrH2を重み付け加算する際の重み係数α(x,y)を取得する。具体的には、図11に示すテーブルを参照して重み係数α(x,y)を取得する。なお、図11に示すテーブルは、相関値d0(x,y)が小さい、すなわち座標変換済みフレームFrT0および基準フレームFrNの相関が大きいほど、重み係数α(x,y)の値が1に近いものとなる。なお、ここでは相関値d0(x,y)は8ビットの値をとるものとする。
【0059】
さらに、重み算出手段7は、フレームFrN+1を統合画像上に割り当てた場合と同様に重み係数α(x,y)を統合画像上に割り当てることにより、フレームFrN+1の画素が割り当てられた座標(実数座標)における重み係数α(x°,y°)を算出する。具体的には、空間補間手段5における補間演算と同様に、重み係数α(x,y)に対して、統合画像上のフレームFrN+1の画素が割り当てられた座標(実数座標(x°,y°))に画素値を割り当てる補間演算を施すことにより、重み係数α(x°,y°)を取得する。
【0060】
なお、統合画像の上記実数座標における重み係数α(x°,y°)を補間演算により算出することなく、基準フレームFrNを統合画像のサイズとなるように拡大または等倍して拡大または等倍基準フレームを取得し、統合画像におけるフレームFrN+1の画素が割り当てられた実数座標の最近傍に対応する拡大または等倍基準フレームの画素について取得された重み係数α(x,y)の値をその実数座標の重み係数α(x°,y°)として用いてもよい。
【0061】
さらに、統合画像の整数座標における画素値I1(x^,y^),I2(x^,y^)が取得されている場合には、統合画像上に割り当てた重み係数α(x°,y°)について上記と同様に荷重和を求めることにより、統合画像の整数座標における重み係数α(x^,y^)を算出すればよい。
【0062】
合成手段8は、第1の補間フレームFrH1および第2の補間フレームFrH2を重み算出手段7により算出された重み係数α(x°,y°)に基づいて重み付け加算するとともに荷重和演算を行うことにより、統合画像の整数座標において画素値FrG(x^,y^)を有する合成フレームFrGを取得する。具体的には、下記の式(16)により第1の補間フレームFrH1および第2の補間フレームFrH2の対応する画素の画素値I1(x°,y°),I2(x°,y°)を重み係数α(x°,y°)により重み付け加算するとともに荷重和演算を行い合成フレームFrGの画素値FrG(x^,y^)を取得する。
【0063】
【数12】
Figure 2004120626
なお、式(16)において、kは合成フレームFrGすなわち統合画像の整数座標(x^,y^)の8近傍の整数座標に囲まれる領域に割り当てられたフレームFrN+1の画素の数であり、この割り当てられた画素がそれぞれ画素値I1(x°,y°),I2(x°,y°)および重み係数α(x°,y°)を有するものである。
【0064】
本実施形態においては、基準フレームFrNと座標変換済みフレームFrT0との相関が大きいほど、第1の補間フレームFrH1の重み付けが大きくされて、第1の補間フレームFrH1および第2の補間フレームFrH2の重み付け加算が行われる。
【0065】
なお、統合画像の全ての整数座標に画素値を割り当てることができない場合がある。このような場合は、割り当てられた画素値に対して前述した空間補間手段5と同様の補間演算を施して、割り当てられなかった整数座標の画素値を算出すればよい。
【0066】
また、上記では輝度成分Yについての合成フレームFrGを求める処理について説明したが、色差成分Cb,Crについても同様に合成フレームFrGが取得される。そして、輝度成分Yから求められた合成フレームFrG(Y)および色差成分Cb,Crから求められた合成フレームFrG(Cb),FrG(Cr)を合成することにより、最終的な合成フレームが得られることとなる。なお、処理の高速化のためには、輝度成分Yについてのみ基準フレームFrNとフレームFrN+1との対応関係を求め、色差成分Cb,Crについては輝度成分Yについて求められた対応関係に基づいて処理を行うことが好ましい。
【0067】
また、統合画像の整数座標について画素値を有する第1の補間フレームFrH1および第2の補間フレームFrH2並びに整数座標の重み係数α(x^,y^)を取得した場合には、下記の式(17)により第1の補間フレームFrH1および第2の補間フレームFrG2の対応する画素の画素値I1(x^,y^),I2(x^,y^)を重み係数α(x^,y^)により重み付け加算して合成フレームFrGの画素値FrG(x,y)を取得すればよい。
【0068】
【数13】
Figure 2004120626
図12は、本実施形態において行われる処理を示すフローチャートである。なお、ここでは統合画像のフレームFrN+1の画素が割り当てられた実数座標について第1の補間フレームFrH1、第2の補間フレームFrH2および重み係数α(x°,y°)を取得するものとして説明する。図12に示すように、本実施形態の動画像合成装置の動作は、動画像データM0が入力される(S2)ことから始まる。動画像データM0から合成フレームを作成するため、サンプリング手段1の条件設定手段14を介して倍率、フレームレート、圧縮クオリティが入力される(S4)と、サンプリング手段1のサンプリング実行手段16は、記憶手段12に記憶されたフレーム数決定テーブルを参照し、条件設定手段14を介して入力された倍率、フレームレート、圧縮クオリティに対応した、サンプリングすべきフレームの数Sを検出して、S枚の連続したフレームを動画像データM0からサンプリングして対応関係求出手段2に出力する(S6)。対応関係求出手段2は、S枚のフレームのうちの基準フレームFrN上に基準パッチを配置する(S8)と共に、フレームFrN+1上に基準パッチと同様のパッチを配置して、パッチ内の画像と、基準パッチ内の画像との相関値Eが収束するまで、パッチを移動および変形する(S12、S14)。中止手段10は、収束時の相関値Eの和を求め、Eの和が所定の閾値より高ければ(すなわち、このフレームと基準フレームとの相関が所定の閾値より低くければ)、対応関係求出手段2の処理を中止させ、すなわち、処理中のフレーム以降のフレームに対する対応関係の求出処理を中止させることによって、動画像合成装置の処理を、座標変換手段3等からなるフレーム統合手段の処理に移行させる(S16:No、S30〜S40)。
【0069】
一方、中止手段10により中止されなければ、対応関係求出手段2は、サンプリング手段1によりサンプリングしたS枚のフレームのうち、基準フレームを除く全てのフレームと基準フレームとの対応関係を求めて、フレーム統合手段に供する(S16:No、S18、S20:Yes、S25)。
【0070】
ステップS30からステップS40までは、座標変換手段などからなるフレーム統合手段の動作を示している。ここでも、説明上の便宜のため、例として、対応関係求出手段2からフレームFrN+1のみについて基準フレームFrNとの対応関係が求められたとして説明をする。
【0071】
対応関係求出手段2により求められた対応関係に基づいて、座標変換手段3によりフレームFrN+1が基準フレームFrNの座標空間に変換されて座標変換済みフレームFrT0が取得される(S30)。そして、相関値算出手段6により座標変換済みフレームFrT0と基準フレームFrNとの対応する画素の相関値d0(x,y)が算出される(S32)。さらに、相関値d0に基づいて重み算出手段7により重み係数α(x°,y°)が算出される(S34)。
【0072】
一方、求められた対応関係に基づいて、時空間補間手段4により第1の補間フレームFrH1が取得され(S36)、空間補間手段5により第2の補間フレームFrH2が取得される(S38)。
【0073】
なお、S36〜S38の処理を先に行ってもよく、ステップS30〜S34の処理およびステップS36〜S38の処理を並列に行ってもよい。
【0074】
そして、合成手段8において上記式(16)により第1の補間フレームFrH1の画素I1(x°,y°)と第2の補間フレームFrH2の画素I2(x°,y°)とが合成されて、画素FrG(x^,y^)からなる合成フレームFrGが取得され(S40)、処理を終了する。
【0075】
上述において、説明上の便宜のため、対応関係求出手段2によりFrN+1のみについて基準フレームFrNとの対応関係が求められ、フレーム統合手段は、基準フレームFrNとFrN+1との2つのフレームを用いて合成フレームを作成することについて説明したが、例えばT個(T≧3)のフレームFrN+t′(0≦t′≦T−1)から合成フレームFrGを取得する場合(すなわち、対応関係求出手段2により2つ以上のフレームと基準フレームとの対応関係が求められた場合)、基準フレームFrN(=FrN+0)以外の他のフレームFrN+t(1≦t≦T−1)について、統合画像上に画素値を割り当てて複数の第1の補間フレームFrH1tを得る。なお、第1の補間フレームFrH1tの画素値をI1t(x°,y°)とする。
【0076】
また、基準フレームFrNに対して、統合画像上のフレームFrN+tの画素が割り当てられた座標(実数座標(x°,y°))に画素値を割り当てる補間演算を施すことにより、フレームFrN+tに対応した第2の補間フレームFrH2tを取得する。なお、第2の補間フレームFrH2tの画素値をI2t(x°,y°)とする。
【0077】
さらに、求められた対応関係に基づいて、対応する第1および第2の補間フレームFrH1t,FrH2tを重み付け加算する重み係数αt(x°,y°)を取得する。
【0078】
そして、互いに対応する第1および第2の補間フレームFrH1t,FrH2tを重み係数αt(x°,y°)により重み付け加算するとともに荷重和演算を行うことにより、統合画像の整数座標において画素値FrGt(x^,y^)を有する中間合成フレームFrGtを取得する。具体的には、下記の式(18)により第1の補間フレームFrH1tおよび第2の補間フレームFrG2tの対応する画素の画素値I1t(x°,y°),I2t(x°,y°)を対応する重み係数αt(x°,y°)により重み付け加算するとともに荷重和演算を行い、中間合成フレームFrGtの画素値FrGt(x^,y^)を取得する。
【0079】
【数14】
Figure 2004120626
なお、式(18)において、kは中間合成フレームFrGtすなわち統合画像の整数座標(x^,y^)の8近傍の整数座標に囲まれる領域に割り当てられたフレームFrN+tの画素の数であり、この割り当てられた画素がそれぞれ画素値I1t(x°,y°),I2t(x°,y°)および重み係数αt(x°,y°)を有するものである。
【0080】
そして、中間合成フレームFrGtを加算することにより合成フレームFrGを取得する。具体的には、下記の式(19)により中間合成フレームFrGtを対応する画素同士で加算することにより、合成フレームFrGの画素値FrG(x^,y^)を取得する。
【0081】
【数15】
Figure 2004120626
なお、統合画像の全ての整数座標に画素値を割り当てることができない場合がある。このような場合は、割り当てられた画素値に対して前述した空間補間手段5と同様の補間演算を施して、割り当てられなかった整数座標の画素値を算出すればよい。
【0082】
また、3以上の複数のフレームから合成フレームFrGを取得する場合、統合画像の整数座標について画素値を有する第1の補間フレームFrH1tおよび第2の補間フレームFrH2t並びに整数座標の重み係数αt(x^,y^)を取得してもよい。この場合、各フレームFrN+t(1≦t≦T−1)について、各フレームFrN+tの画素値FrN+t(x,y)を統合座標の全ての整数座標に割り当てて画素値I1N+t(x^,y^)すなわち画素値I1t(x^,y^)を有する第1の補間フレームFrH1tを取得する。そして、全てのフレームFrN+tについて割り当てられた画素値I1t(x^,y^)と第2の補間フレームFrH2tの画素値I2t(x^,y^)とを加算することにより複数の中間合成フレームFrGtを取得し、これらをさらに加算して合成フレームFrGを取得すればよい。
【0083】
具体的には、まず、下記の式(20)に示すように、全てのフレームFrN+tについて、統合画像の整数座標における画素値I1N+t(x^,y^)を算出する。そして、式(21)に示すように、画素値I1t(x^,y^)と画素値I2t(x^,y^)とを重み係数α(x^,y^)により重み付け加算することにより中間合成フレームFrGtを得る。そして、上記式(20)に示すように、中間合成フレームFrGtを加算することにより合成フレームFrGを取得する。
【0084】
【数16】
Figure 2004120626
なお、3以上の複数のフレームから合成フレームFrGを取得する場合、座標変換済みフレームFrT0は複数取得されるため、相関値および重み係数もフレーム数に対応して複数取得される。この場合、複数取得された重み係数の平均値や中間値を対応する第1および第2の補間フレームFrH1,FrH2を重み付け加算する際の重み係数としてもよい。
【0085】
このように、本実施形態の動画像合成装置において、サンプリング手段1は、動画像データM0の圧縮クオリティおよびフレームレートと、合成しようとする合成フレームの画素サイズが動画像のフレームの画素サイズに対する倍率とに基づいてサンプリングするフレームの数を決定するようにしているので、操作者が手動でフレームの数を決定する必要がなく、便利である。また、動画像と作成しようとする合成フレームとの画像特性に基づいてフレームの数を決定することによって、客観的に適切なフレームの数を決定することができので、高品質の合成フレームを作成することができる。
【0086】
また、本実施形態の動画像合成装置において、サンプリングしたS枚のフレームに対して、基準フレームFrNに近い基準フレーム以外の他のフレームから順に、他のフレーム上のパッチ内の画素と基準フレーム上の基準パッチ上内の画素との対応関係を求めると共に、他のフレームと基準フレームとの相関を求め、相関が所定の閾値より大きければ、次の他のフレームに対して対応関係を求める処理を続行するが、相関が所定の閾値より低くなったフレームを検出すると、決定されたフレームの数に到達していなくても、このフレーム以降の他のフレームに対する対応関係求出処理を中止するようにすることによって、基準フレームと相関が低いフレーム(例えば基準フレームのシーンと切り替わったシーンにフレーム)を用いて合成フレームを作成することを避けることができ、より高品質の合成フレームを作成することを可能とする。
【図面の簡単な説明】
【図1】本発明の実施形態による動画像合成装置の構成を示すブロック図
【図2】図1に示す動画像合成装置のサンプリング手段1の構成を示すブロック図
【図3】フレーム数決定テーブルの一例を示す図
【図4】フレームFrN+1と基準フレームFrNとの対応関係の求出を説明するための図
【図5】パッチの変形を説明するための図
【図6】図1に示す動画像合成装置の中止手段10の構成を示すブロック図
【図7】パッチP1と基準パッチP0との対応関係を説明するための図
【図8】双1次内挿を説明するための図
【図9】フレームFrN+1の統合画像への割り当てを説明するための図
【図10】統合画像における整数座標の画素値の算出を説明するための図
【図11】重み係数を求めるテーブルを示す図
【図12】図1に示す動画像合成装置において行われる処理を示すフローチャート
【符号の説明】
1  サンプリング手段
2  対応関係求出手段
3  座標変換手段
4  時空間補間手段
5  空間補間手段
6  相関値算出手段
7  重み算出手段
8  合成手段
10  中止手段
12  記憶手段
14  条件設定手段
16  サンプリング実行手段
22  相関取得手段
24  中止実行手段[0001]
BACKGROUND OF THE INVENTION
The present invention causes a computer to execute a moving image combining method and apparatus, and a moving image combining method, which can integrate a plurality of consecutive frames of moving images and create a combined frame having a higher resolution than the plurality of frames. Is related to the program.
[0002]
[Prior art]
In recent years, with the spread of digital video cameras, it has become possible to handle moving images in units of frames. When printing out a frame of such a moving image, it is necessary to make the frame high resolution in order to improve the image quality. For this reason, a method has been proposed in which a plurality of frames are sampled from a moving image and a plurality of the sampled frames are integrated to create one composite frame having a higher resolution than those frames.
[0003]
What is required when integrating a plurality of frames of moving images is to obtain a correspondence relationship of pixels between frames in the moving region. For this, the block matching method and the gradient method are usually used, but the conventional block matching method assumes that the amount of motion in the block is in the same direction, so rotation, enlargement, reduction, deformation, etc. In addition to lack of flexibility to cope with various movements, there is a problem that processing time is required and it is not practical. On the other hand, the gradient method has a problem that a solution cannot be obtained stably as compared with the conventional block matching method. As a method for overcoming these problems, one of a plurality of frames to be integrated is set as a reference frame, and a reference patch including one or more rectangular areas is set as a reference frame to other frames other than the reference frame. A patch similar to the reference patch is placed, and the patch is moved and / or deformed on another frame so that the image in the patch matches the image in the reference patch. Based on the above, a method has been proposed in which the correspondence between the pixels in the patch on the other frame and the pixels in the reference patch on the reference frame is obtained to synthesize a plurality of frames with high accuracy (see Non-Patent Document 1). .
[0004]
In the method of Non-Patent Document 1, the correspondence between the reference frame and the other frame is obtained, and after the other frame and the reference frame are finally assigned to the integrated image having the necessary resolution, A high-definition composite frame can be obtained.
[0005]
[Non-Patent Document 1]
“Acquisition of high-definition digital image by interframe integration”, Yuji Nakazawa, Takashi Komatsu, Takahiro Saito, Journal of Television Society, 1995, Vol. 49, no. 3, p299-308
[0006]
[Problems to be solved by the invention]
However, in the method described in Non-Patent Document 1, when sampling a plurality of frames from a moving image, any range of frames including the reference frame, that is, up to how many frames including the reference frame are used for integration. The frame to be set is set manually by the operator. There is a problem that the operator is required to have knowledge of image processing and takes time and effort. In addition, since it is set manually by the operator, there is a problem that the subjectivity of the operator enters and an appropriate range cannot be objectively obtained, and the quality of the composite frame is adversely affected.
[0007]
The present invention has been made in view of the above circumstances. When a composite frame is created by integrating a plurality of frames of moving images, an appropriate frame range is determined simply and objectively, and a high-quality composite frame is obtained. It is an object of the present invention to provide a moving image synthesizing method, apparatus, and program capable of creating a video.
[0008]
[Means for Solving the Problems]
The moving image composition method of the present invention samples two or more predetermined number of frames including a reference frame, which are continuous moving images,
Placing a reference patch consisting of one or more rectangular areas on the reference frame;
A patch similar to the reference patch is arranged on another frame of the predetermined number of frames,
Moving and / or deforming the patch on the other frame so that the image in the patch substantially matches the image in the reference patch;
Based on the patch after the movement and / or deformation and the reference patch, the correspondence relationship between the pixels in the patch on each frame of the other frame and the pixels in the reference patch on the reference frame is respectively determined. Seeking
In the moving image composition method for creating a composite frame from the predetermined number of frames based on the obtained correspondence relationship,
The predetermined number of frames is determined based on the moving image and / or the image characteristics of the composite frame to be created, and the predetermined number of frames are sampled.
[0009]
Here, the image characteristic of a moving image means a characteristic that may affect the quality of the combined frame when creating a combined frame from the moving image. For example, the pixel size or resolution of each frame of the moving image As an example, the frame rate of a moving image, the compression rate of a moving image, and the like can be given. Similarly, the image characteristics of the composite frame to be created are the characteristics that may influence the number of frames to be sampled or the number of frames required to create the composite frame. This means, for example, the pixel size and resolution of the composite frame to be created. In addition, although not directly, for example, the pixel size of the composite frame to be created is a magnification with respect to the pixel size of the frame of the moving image, and the image characteristics of the moving image and the composite frame to be created indirectly. It is.
[0010]
In the moving image composition method of the present invention, the method for acquiring the image characteristics may be any method as long as necessary image characteristics can be acquired. Attached information such as a tag may be read and acquired, or a value input by the operator may be used. The image characteristics of the composite frame to be created are input by the operator. A value may be used, or a fixed target value may be used.
[0011]
The image processing method of the present invention obtains the correspondence relationship in order from other frames close to the reference frame, and obtains the correlation between the other frame for which the correspondence relationship is obtained and the reference frame,
In the frame in which the correlation is lower than a predetermined threshold, the processing for obtaining the correspondence relationship is stopped,
It is preferable that the composite frame is created using the reference frame and the other frame for which the correspondence relationship is obtained based on the obtained correspondence relationship.
[0012]
Here, “in order from other frames close to the reference frame” means that, for example, if the time-series position of the reference frame in a plurality of sampled frames is the head or the end, It means “in order from other early frames” or “in order from other frames that are later in time series than the reference frame”, but the time series position of the reference frame in the sampled frames is the beginning and end. Otherwise, it means both “in order from other frames earlier in time series than the reference frame” and “in order from other frames later in time series than the reference frame”.
[0013]
The moving image synthesizing apparatus of the present invention comprises sampling means for sampling two or more predetermined number of frames including a reference frame, which are continuous moving images,
A reference patch composed of one or a plurality of rectangular areas is arranged on the reference frame, a patch similar to the reference patch is arranged on another frame of the predetermined number of frames, and an image in the patch Is moved and / or deformed on the other frame so that the image substantially matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch, the other Correspondence finding means for obtaining the correspondence between the pixels in the patch on each frame of the frame and the pixels in the reference patch on the reference frame;
A moving image synthesizing apparatus comprising frame integration means for creating a synthesized frame from the predetermined number of frames based on the correspondence obtained by the correspondence finding means;
The sampling means comprises frame number determining means for determining the predetermined number based on the moving image and / or image characteristics of the composite frame to be created, and the predetermined number of frames determined by the frame number determining means It is characterized by sampling a number of frames.
[0014]
The moving image synthesizing apparatus of the present invention further includes a canceling unit for canceling the processing of the correspondence relationship calculating unit,
The correspondence relationship obtaining means obtains the correspondence relationship in order from other frames close to the reference frame,
The cancellation means obtains a correlation between the other frame for which the correspondence relation is obtained by the correspondence relation obtaining means and the reference frame, and obtains the correspondence relation from a frame whose correlation is lower than a predetermined threshold. To stop the processing of the exit means,
It is preferable that the frame integration unit creates the composite frame using the reference frame and the other frame for which the correspondence relationship is obtained based on the obtained correspondence relationship.
[0015]
The program of the present invention includes a number determination process for determining the number of frames used for composition based on image characteristics of a moving image and / or a combined frame to be created from a plurality of frames of the moving image;
Sampling processing for sampling the number of frames including the reference frame that is continuous in the moving image;
A reference patch composed of one or more rectangular areas is arranged on the reference frame, a patch similar to the reference patch is arranged on another frame of the number of frames, and an image in the patch is The patch is moved and / or deformed on the other frame so as to substantially match the image in the reference patch, and the other frame is changed based on the moved and / or deformed patch and the reference patch. A correspondence finding process for obtaining a correspondence between each pixel in the patch on each frame and a pixel in the reference patch on the reference frame;
The computer is caused to execute a frame integration process for creating a composite frame from the number of frames based on the obtained correspondence.
[0016]
The correspondence finding process is for obtaining the correspondence in order from other frames close to the reference frame, and the program of the present invention is configured to determine whether the correspondence between the other frame and the reference frame is obtained. It is preferable to obtain a correlation and to cause the computer to further execute a cancellation process for canceling the process for obtaining the correspondence from a frame in which the correlation is lower than a predetermined threshold.
[0017]
【The invention's effect】
According to the moving image synthesizing method and apparatus of the present invention, when generating a synthesized frame by sampling a plurality of consecutive frames of a moving image, based on the image characteristics of the moving image and / or the synthesized frame to be synthesized. Since the number of frames to be sampled is determined, there is no need for the operator to manually determine the number of frames, which is convenient. In addition, since the number of frames can be objectively determined by determining the number of frames based on the moving image and / or the image characteristics of the composite frame to be created, a high-quality composite frame can be obtained. Can be created.
[0018]
In the moving image composition method and apparatus of the present invention, the determined number of frames are sampled, and patches on other frames are sequentially sampled from these frames other than the reference frame close to the reference frame. The correspondence between the pixels in the reference frame and the pixels in the reference patch on the reference frame is obtained, and the correlation between the other frame and the reference frame is obtained. If the correlation is larger than a predetermined threshold, the next other frame is obtained. The process for obtaining the correspondence relationship is continued, but if a frame whose correlation is lower than the predetermined threshold is detected, the correspondence to other frames after this frame is met even if the determined number of frames has not been reached. By canceling the relationship seeking process, a frame having a low correlation with the reference frame (for example, switching to the scene of the reference frame). Can be avoided to create a composite frame using a frame) to the scene, it is possible to create a higher quality synthesis frame.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
FIG. 1 is a block diagram showing a configuration of a moving image synthesis apparatus according to an embodiment of the present invention. As shown in FIG. 1, the moving image synthesizing apparatus according to the present embodiment stops the processing of sampling means 1 for sampling a plurality of frames from input moving image data M0 and the processing of correspondence relationship finding means 2 described later. Among the plurality of frames sampled by the means 10 and the sampling means 1, the pixels of one reference frame that serves as a reference for the frames up to the frame to be canceled by the stopping means 10 (all the plurality of frames if not canceled) Based on the correspondence relationship obtaining means 2 for obtaining the correspondence relationship of pixels of other frames other than the reference frame in order from other frames close to the reference frame, and the correspondence relationship obtained by the correspondence relationship obtaining means 2 The other frames for which the relationship has been obtained are each transformed into the coordinate space of the reference frame to obtain a coordinate transformed frame. A coordinate conversion unit 3 that performs the interpolation operation on the other frames for which the correspondence relationship is obtained based on the correspondence relationship that is obtained by the correspondence relationship obtaining unit 2 and a resolution that is higher than each frame. A space-time interpolation means 4 for obtaining an interpolation frame; a space interpolation means 5 for performing interpolation on a reference frame to obtain a second interpolation frame having a higher resolution than each frame; Correlation value calculation means 6 for calculating a correlation value representing a correlation with the reference frame, and a correlation coefficient calculated by the correlation value calculation means 6 for weighting and adding the first interpolation frame and the second interpolation frame. Weight calculation means 7 calculated based on the value, and weighted addition of the first and second interpolation frames based on the weight coefficient calculated by the weight calculation means 7, And a synthesizing unit 8 for acquiring beam FrG. The coordinate conversion means 3, the space-time interpolation means 4, the space interpolation means 5, the correlation value calculation means 6, the weight calculation means 7, and the synthesis means 8 correspond to the frame integration means described in the claims. is there.
[0021]
FIG. 2 is a block diagram showing the configuration of the sampling means 1 in the moving image synthesizing apparatus shown in FIG. As shown in FIG. 2, the sampling means 1 is configured such that the composite frame has a pixel size with respect to the pixel size of one frame of the moving image, the frame rate of the moving image, the compression quality of the moving image, and the number S of frames to be sampled. Storage means 12 that stores the frame number determination table created in association with each other, the magnification of the synthesized frame FrG to be actually created with respect to the pixel size of one frame of the moving image, and the frame of the moving image data M0 Referring to the condition setting means 14 for inputting the rate and the compression quality of the moving image data M0 and the frame number determination table stored in the storage means 12, the magnification and the frame rate input via the condition setting means 14 Detecting the number S of frames to be sampled, corresponding to the compression quality, The connection frame from the moving image data M0 is made and a sampling execution unit 16 for sampling.
[0022]
FIG. 3 shows an example of the frame number determination table stored in the storage unit 12 of the sampling unit 1 shown in FIG. In the example shown in the figure, the number S of frames to be sampled is obtained from a combination of various magnifications, frame rates, and compression qualities according to the following equation (1).
[0023]
S = min (S1, S2 × S3)
S1 = frame rate × 3 (1)
S2 = magnification × 1.5
S3 = 1.0 (High compression quality)
S3 = 1.2 (medium compression quality)
S3 = 1.5 (low compression quality)
That is, the number of frames is required such that the number of frames S is large when the frame rate is large, the number S of frames is large when the magnification is large, and the number S of frames is large when the compression quality is low.
[0024]
The sampling means 1 outputs the sampled S frames to the correspondence relationship finding means 2, and the correspondence relationship finding means 2 outputs the S frames (if the suspension means 10 stops, this S frames) Among the frames up to the canceled frame), the correspondence relationship between the pixels of the reference frame and the pixels of the other frames is obtained in order from the other frames close to the reference frame. Here, the operation of the correspondence relationship finding means 2 will be described. The moving image data M0 represents a color moving image, and each frame is composed of luminance, color difference components of Y, Cb, and Cr. In the following description, processing is performed for each component of Y, Cb, and Cr. Since the processing to be performed is the same for all components, the processing of the luminance component Y is described in detail in the present embodiment. A description of the processing for the color difference components Cb and Cr will be omitted.
[0025]
The S frames output from the sampling unit 1 are, for example, FrN + 1, FrN + 2,... Starting from one reference frame FrN in order from the closest to the reference frame FrN. . . They are arranged continuously like FrN + (S-1). Here, the operation of the correspondence relationship finding unit 2 will be described using the frame FrN + 1 and the reference frame FrN as examples. In the following, a description will be given of a case where the composite frame FrG to be created has twice as many pixels as the sampled frame in the vertical and horizontal directions (the magnification is 4 times), but n times (n is a positive number) pixels. It may have a number.
[0026]
The correspondence relationship obtaining means 2 obtains the correspondence relationship between the frame FrN + 1 and the reference frame FrN as follows. FIG. 4 is a diagram for explaining the calculation of the correspondence between the frame FrN + 1 and the reference frame FrN. In FIG. 4, it is assumed that the circular subject included in the reference frame FrN has moved slightly to the right in the drawing in the frame FrN + 1.
[0027]
First, the correspondence relationship obtaining unit 2 arranges the reference patch P0 including one or a plurality of rectangular areas on the reference frame FrN. FIG. 4A is a diagram illustrating a state in which the reference patch P0 is arranged on the reference frame FrN. As shown in FIG. 4A, in the present embodiment, the reference patch P0 is assumed to be a 4 × 4 rectangular area.
Next, as shown in FIG. 4B, a patch P1 similar to the reference patch P0 is arranged at an appropriate position in the frame FrN + 1, and a correlation value representing the correlation between the image in the reference patch P0 and the image in the patch P1. Is calculated. The correlation value can be calculated as a mean square error by the following equation (2). The coordinate axes are assumed to be the x axis in the left and right direction on the paper and the y axis in the vertical direction on the paper.
[0028]
[Expression 1]
Figure 2004120626
Where E: correlation value
pi, qi: pixel values of the corresponding pixels in the reference patches P0, P1
N: Number of pixels in the reference patch P0 and the patch P1
Next, the patch P1 on the frame FrN + 1 is moved by fixed pixels ± Δx, ± Δy in four directions, up, down, left, and right. The correlation value between the image in the patch P1 and the image in the reference patch P0 on the reference frame FrN is calculate. Here, the correlation value is calculated for each of the up, down, left, and right directions, and each correlation value is expressed as E (Δx, 0), E (−Δx, 0), E (0, Δy), E (0, −Δy), respectively. To do.
[0029]
Then, the correlation value becomes smaller (that is, the correlation becomes larger) from the four correlation values E (Δx, 0), E (−Δx, 0), E (0, Δy), and E (0, −Δy) after the movement. The gradient direction is obtained as a correlation gradient, and the patch P1 is moved in this direction by a preset real value multiple as shown in FIG. Specifically, coefficients C (Δx, 0), C (−Δx, 0), C (0, Δy), C (0, −Δy) are calculated by the following equation (3), and these coefficients C Correlation gradients gx and gy are calculated from the following equations (4) and (5) from (Δx, 0), C (−Δx, 0), C (0, Δy), and C (0, −Δy).
[0030]
[Expression 2]
Figure 2004120626
Then, the entire patch P1 is moved (−λ1gx, −λ1gy) based on the calculated correlation gradients gx, gy, and the same processing as described above is repeated, so that the patch P1 is shown in FIG. The patch P1 is repeatedly moved until it converges to a certain position. Here, λ1 is a parameter that determines the speed of convergence, and takes a real value. If λ1 is too large, the solution diverges due to iterative processing, so an appropriate value (for example, 10) must be selected.
[0031]
Further, the lattice point of the patch P1 is moved by a fixed pixel in four directions along the coordinate axis.
At this time, the rectangular area including the moved grid point is deformed as shown in FIG. 5, for example.
Then, a correlation value between the deformed rectangular area and the corresponding rectangular area of the reference patch P0 is calculated. The correlation values are defined as E1 (Δx, 0), E1 (−Δx, 0), E1 (0, Δy), and E1 (0, −Δy), respectively.
[0032]
Similarly to the above, the correlation value is small from the four correlation values E1 (Δx, 0), E1 (−Δx, 0), E1 (0, Δy), and E1 (0, −Δy) after deformation (ie, The gradient direction in which the correlation is large) is obtained, and the lattice point of the patch P1 is moved by a preset real value multiple in this direction. This is performed for all the grid points of the patch P1, and this is regarded as one process. This process is repeated until the coordinates of the grid points converge.
[0033]
Thereby, the movement amount and the deformation amount of the patch P1 with respect to the reference patch P0 are obtained, and based on this, the correspondence relationship between the pixels in the reference patch P0 and the pixels in the patch P1 can be obtained.
[0034]
Correspondence relationship obtaining means 2 applies the S frames output from sampling means 1 in this way in the order from the frame closest to reference frame FrN, that is, FrN + 1, FrN + 2,. . . In this order, the correspondence relationship is obtained. However, when the canceling unit 10 cancels the correspondence, the acquisition of the correspondence relationship from the canceled frame to the subsequent frames is stopped.
[0035]
FIG. 6 is a block diagram illustrating a configuration of the canceling unit 10. As shown in the figure, the canceling means 10 includes a correlation obtaining means 22 for obtaining a correlation between the frame being processed by the correspondence obtaining means 2 and a reference frame, and the correlation obtained by the correlation obtaining means 22 is equal to or greater than a predetermined threshold value. If there is, the processing of the correspondence relationship finding means 2 is not stopped, but if the correlation is lower than a predetermined threshold, the correspondence relationship seeking means 2 stops the finding of the correspondence relationship for the frames after the frame being processed.
[0036]
In the present embodiment, the correlation acquisition unit 22 uses the sum of the correlation values E at the time of convergence calculated for one frame in the correspondence determination unit 2 as the correlation value between this frame and the reference frame, If this correlation value is higher than a predetermined threshold value (that is, if the correlation is lower than the predetermined threshold value), the processing of the correspondence relationship obtaining means 2 is stopped, that is, the correspondence relationship for the frames after the frame being processed is determined. Stop out processing.
[0037]
The frame integration means including the coordinate conversion means 3 and the like is based on the correspondence obtained by the correspondence obtaining means 2 and uses the reference frame and other frames for which the correspondence with the reference frame is obtained. Is to create. For convenience of explanation, first, the operation of the frame integration unit will be described on the assumption that the frame for which the correspondence relationship is obtained by the correspondence relationship obtaining unit 2 is only FrN + 1.
[0038]
The coordinate conversion unit 3 converts the frame FrN + 1 into the coordinate space of the reference frame FrN as follows to obtain the coordinate-converted frame FrT0. In the following description, conversion, interpolation calculation, and synthesis are performed only for the region in the reference patch P0 of the reference frame FrN and the region in the patch P1 of the frame FrN + 1.
[0039]
In the present embodiment, coordinate transformation is performed using bilinear transformation. Coordinate transformation by bilinear transformation is defined by the following equations (6) and (7).
[0040]
[Equation 3]
Figure 2004120626
Expressions (6) and (7) express coordinates in the patch P1 given by four points (xn, yn) (1 ≦ n ≦ 4) on a two-dimensional coordinate in a normalized coordinate system (u, v) ( 0 ≦ u, v ≦ 1), and coordinate transformation in any two rectangles is performed by combining the inverse transformations of equations (6) and (7) and equations (6) and (7). It can be carried out.
[0041]
Here, as shown in FIG. 7, a position in the reference patch P0 (x′n, y′n) corresponding to the point (x, y) in the patch P1 (xn, yn) is considered. .
First, normalized coordinates (u, v) are obtained for the point (x, y) in the patch P1 (xn, yn). This is obtained by inverse transformation of equations (6) and (7). Based on the reference patch P0 (x′n, y′n) corresponding to (u, v) at this time, the coordinates (x ′) corresponding to the point (x, y) from the equations (6) and (7) , Y ′). Here, since the point (x, y) is an integer coordinate where the pixel value originally exists, the point (x ′, y ′) may be a real number coordinate where the pixel value originally does not exist. As for the pixel value in the integer coordinates, an area surrounded by integer coordinates in the vicinity of 8 adjacent to the integer coordinates of the reference patch P0 is set, and the pixel value of the converted coordinates (x ′, y ′) is set in this area. It shall be obtained as the load sum.
[0042]
Specifically, as shown in FIG. 8, for integer coordinates b (x, y) on the reference patch P0, integer coordinates b (x-1, y-1) and b (x, y-1) in the vicinity of the eight coordinates. ), B (x + 1, y-1), b (x-1, y), b (x + 1, y), b (x-1, y + 1), b (x, y + 1), b (x + 1, y + 1) Calculation is performed based on the pixel value of the frame FrN + 1 converted in the enclosed area. Here, m pixel values of the frame FrN + 1 are converted into an area surrounded by eight neighboring pixels, and the converted pixel value of each pixel is Itj (x °, y °) (1 ≦ j ≦ m). Then, the pixel value It (x ^, y ^) at the integer coordinates b (x, y) can be calculated by the following equation (8). In Expression (8), φ is a function representing the load sum calculation.
[0043]
[Expression 4]
Figure 2004120626
However, Wi (1 ≦ j ≦ m): product of the internal ratio of coordinates as viewed from neighboring integer pixels at the position to which the pixel value Itj (x °, y °) is assigned.
Here, for the sake of simplicity, consider the case where the two pixel values It1 and It2 of the frame FrN + 1 are transformed into an area surrounded by pixels in the vicinity of 8 using FIG. 8, at an integer coordinate b (x, y). The pixel value It (x ^, y ^) can be calculated by the following equation (9).
[0044]
[Equation 5]
Figure 2004120626
However, W1 = u × v, W2 = (1-s) × (1-t)
By performing the above processing for all the pixels in the patch P1, the image in the patch P1 is converted into the coordinate space of the reference frame FrN, and a coordinate-converted frame FrT0 is obtained.
[0045]
The spatiotemporal interpolation unit 4 performs an interpolation operation on the frame FrN + 1 to obtain a first interpolation frame FrH1. Specifically, first, as shown in FIG. 9, an integrated image having a finally required number of pixels (in this embodiment, a case in which the number of pixels is twice each in the vertical and horizontal directions of the frames FrN and FrN + 1 will be described. , Which may have a pixel number n times (n: positive number)), and based on the correspondence obtained by the correspondence obtaining means 2, the frame FrN + 1 (area in the patch P1) Are assigned on the integrated image. Assuming that the function for performing this assignment is Π, the pixel value of each pixel of the frame FrN + 1 is assigned on the integrated image by the following equation (10).
[0046]
[Formula 6]
Figure 2004120626
However, I1N + 1 (x °, y °): pixel value of the frame FrN + 1 allocated on the integrated image
FrN + 1 (x, y): pixel value of frame FrN + 1
Thus, by assigning the pixel value of the frame FrN + 1 on the integrated image, the pixel value I1N + 1 (x °, y °) is obtained, and I1 (x °, y °) (= I1N + 1 (x °, y °)) for each pixel. The first interpolation frame FrH1 having the pixel value of) is acquired.
[0047]
Here, when assigning pixel values to the integrated image, depending on the relationship between the number of pixels in the integrated image and the number of pixels in the frame FrN + 1, each pixel on the frame FrN + 1 has an integer coordinate (that is, a pixel value exists). (Coordinates) may not correspond.
In this embodiment, as will be described later, the pixel value at the integer coordinates of the integrated image is obtained at the time of synthesis. Hereinafter, in order to facilitate the explanation at the time of synthesis, the calculation of the pixel value at the integer coordinates of the integrated image is performed. Will be described.
[0048]
As the pixel value in the integer coordinates of the integrated image, a region surrounded by eight integer coordinates adjacent to the integer coordinate of the integrated image is set, and the pixel value load of each pixel on the frame FrN + 1 allocated in this region is set. Find as sum.
[0049]
That is, as shown in FIG. 10, for integer coordinates p (x, y) in the integrated image, integer coordinates p (x-1, y-1), p (x, y-1), p ( x + 1, y-1), p (x-1, y), p (x + 1, y), p (x-1, y + 1), p (x, y + 1), p (x + 1, y + 1) Is calculated based on the pixel value of the frame FrN + 1 assigned to. Here, k pixel values of the frame FrN + 1 are allocated in a region surrounded by eight neighboring pixels, and the pixel values of the allocated pixels are I1N + 1i (x °, y °) (1 ≦ i ≦ k). Then, the pixel value I1N + 1 (x ^, y ^) at the integer coordinates p (x, y) can be calculated by the following equation (11). In Equation (11), Φ is a function representing the load sum calculation.
[0050]
[Expression 7]
Figure 2004120626
However, Mi (1 ≦ i ≦ k): product of the internal ratio of coordinates as viewed from neighboring integer pixels at the position where the pixel value I1N + 1i (x °, y °) is assigned.
Here, for the sake of simplicity, consider the case where the two pixel values I1N + 11 and I1N + 12 of the frame FrN + 1 are assigned to the area surrounded by the eight neighboring pixels with reference to FIG. The pixel value I1N + 1 (x ^, y ^) can be calculated by the following equation (12).
[0051]
[Equation 8]
Figure 2004120626
However, M1 = u × v, M2 = (1-s) × (1-t)
The pixel value I1N + 1 (x ^, y ^) can be obtained by assigning the pixel value of the frame FrN + 1 for all integer coordinates of the integrated image. In this case, each pixel value I1 (x ^, y ^) of the first interpolation frame FrH1 is I1N + 1 (x ^, y ^).
[0052]
In the above description, the first interpolation frame FrH1 is obtained by performing the interpolation operation on the frame FrN + 1. However, the first interpolation frame FrH1 may be obtained by using the reference frame FrN together with the frame FrN + 1. In this case, the pixels of the reference frame FrN are directly assigned after being interpolated into integer coordinates of the integrated image.
[0053]
The spatial interpolation unit 5 performs an interpolation operation for assigning pixel values to coordinates (real number coordinates (x °, y °)) to which the pixels of the frame FrN + 1 on the integrated image are assigned to the reference frame FrN. The second interpolation frame FrH2 is acquired. Here, if the pixel value of the real number coordinate of the second interpolation frame FrH2 is I2 (x °, y °), the pixel value I2 (x °, y °) is calculated by the following equation (13).
[0054]
[Equation 9]
Figure 2004120626
Where f: interpolation calculation function
As the interpolation calculation, various interpolation calculations such as a linear interpolation calculation and a spline interpolation calculation can be used.
[0055]
Further, in the present embodiment, since the composite frame FrG has twice as many pixels as the reference frame FrN in both the vertical and horizontal directions, by performing an interpolation operation to double the number of pixels in the vertical and horizontal directions with respect to the reference frame FrN, A second interpolation frame FrH2 having the same number of pixels as that of the integrated image may be acquired. In this case, the pixel value obtained by the interpolation calculation is a pixel value of integer coordinates in the integrated image. If this pixel value is I2 (x ^, y ^), the pixel value I2 (x ^, y ^) Calculated by equation (14).
[0056]
[Expression 10]
Figure 2004120626
The correlation value calculation means 6 calculates a correlation value d0 (x, y) between corresponding pixels of the coordinate-transformed frame FrT0 and the reference frame FrN. Specifically, as shown in the following equation (15), the absolute difference between the pixel values FrT0 (x, y) and FrN (x, y) in the corresponding pixels of the coordinate-converted frame FrT0 and the reference frame FrN The value is calculated as a correlation value d0 (x, y). The correlation value d0 (x, y) becomes smaller as the correlation between the coordinate-transformed frame FrT0 and the reference frame FrN increases.
[0057]
## EQU11 ##
Figure 2004120626
In the present embodiment, the absolute value of the difference between the pixel values FrT0 (x, y) and FrN (x, y) in the corresponding pixels of the coordinate-converted frame FrT0 and the reference frame FrN is used as the correlation value d0 (x, y). ), But the square of the difference may be calculated as the correlation value. Further, although the correlation value is calculated for each pixel, the coordinate-converted frame FrT0 and the reference frame FrN are divided into a plurality of regions, and an average value or an addition value of all the pixel values in the region is calculated, The correlation value may be obtained by Further, an average value or an addition value of the correlation value d0 (x, y) calculated for each pixel for the entire frame may be calculated to obtain a correlation value for each frame. Also, the histograms of the coordinate-converted frame FrT0 and the reference frame FrN are calculated, respectively, and the average value of the histograms of the coordinate-converted frame FrT0 and the reference frame FrN, the difference value of the median value or the standard deviation, or the cumulative sum of the histogram difference values May be used as the correlation value. Also, a motion vector representing the motion of the coordinate-converted frame FrT0 with respect to the reference frame FrN is calculated for each pixel or small region of the reference frame FrN, and the average value, median value, or standard deviation of the calculated motion vectors is used as a correlation value. Alternatively, a cumulative sum of motion vector histograms may be used as a correlation value.
[0058]
The weight calculation unit 7 weights and adds the first interpolation frame FrH1 and the second interpolation frame FrH2 from the correlation value d0 (x, y) calculated by the correlation value calculation unit 6 by weighting. ) To get. Specifically, the weighting factor α (x, y) is acquired with reference to the table shown in FIG. In the table shown in FIG. 11, the value of the weighting coefficient α (x, y) is closer to 1 as the correlation value d0 (x, y) is smaller, that is, the correlation between the coordinate-transformed frame FrT0 and the reference frame FrN is larger. It will be a thing. Here, the correlation value d0 (x, y) is assumed to be an 8-bit value.
[0059]
Further, the weight calculation means 7 assigns the weight coefficient α (x, y) to the integrated image in the same manner as when the frame FrN + 1 is assigned to the integrated image, thereby the coordinates (real number coordinates) to which the pixels of the frame FrN + 1 are assigned. The weighting coefficient α (x °, y °) is calculated. Specifically, similarly to the interpolation calculation in the spatial interpolation means 5, the coordinates (real number coordinates (x °, y °) where the pixels of the frame FrN + 1 on the integrated image are assigned to the weighting coefficient α (x, y). The weighting coefficient α (x °, y °) is obtained by performing an interpolation operation for assigning pixel values to)).
[0060]
It should be noted that the reference frame FrN is enlarged or enlarged so as to be the size of the integrated image without calculating the weighting coefficient α (x °, y °) in the real coordinates of the integrated image by interpolation calculation. The reference frame is acquired, and the value of the weighting coefficient α (x, y) acquired for the pixel of the enlarged or equal reference frame corresponding to the nearest neighbor of the real number coordinate to which the pixel of the frame FrN + 1 in the integrated image is assigned is the real number. The coordinate weighting coefficient α (x °, y °) may be used.
[0061]
Furthermore, when the pixel values I1 (x ^, y ^) and I2 (x ^, y ^) in the integer coordinates of the integrated image are acquired, the weighting coefficient α (x °, y assigned on the integrated image). The weight coefficient α (x ^, y ^) in the integer coordinates of the integrated image may be calculated by calculating the load sum in the same manner as described above.
[0062]
The synthesizer 8 weights and adds the first interpolation frame FrH1 and the second interpolation frame FrH2 based on the weight coefficient α (x °, y °) calculated by the weight calculator 7, and performs a load sum operation. Thus, a composite frame FrG having the pixel value FrG (x ^, y ^) at the integer coordinates of the integrated image is acquired. Specifically, the pixel values I1 (x °, y °) and I2 (x °, y °) of the corresponding pixels of the first interpolation frame FrH1 and the second interpolation frame FrH2 are expressed by the following equation (16). Weighted addition is performed with a weighting coefficient α (x °, y °) and a load sum operation is performed to obtain a pixel value FrG (x ^, y ^) of the combined frame FrG.
[0063]
[Expression 12]
Figure 2004120626
In Expression (16), k is the number of pixels of the frame FrN + 1 assigned to the region surrounded by the integer frame in the vicinity of the combined frame FrG, that is, the integer coordinates (x ^, y ^) of the integrated image. The assigned pixels have pixel values I1 (x °, y °), I2 (x °, y °) and a weight coefficient α (x °, y °), respectively.
[0064]
In the present embodiment, the greater the correlation between the reference frame FrN and the coordinate-transformed frame FrT0, the greater the weighting of the first interpolation frame FrH1, and the weighting of the first interpolation frame FrH1 and the second interpolation frame FrH2. Addition is performed.
[0065]
Note that pixel values may not be assigned to all integer coordinates of the integrated image. In such a case, an interpolation calculation similar to that of the spatial interpolation unit 5 described above may be performed on the assigned pixel value to calculate a pixel value of an integer coordinate that has not been assigned.
[0066]
In the above description, the process for obtaining the composite frame FrG for the luminance component Y has been described. However, the composite frame FrG is also obtained for the color difference components Cb and Cr. Then, a synthesized frame FrG (Y) obtained from the luminance component Y and synthesized frames FrG (Cb) and FrG (Cr) obtained from the color difference components Cb and Cr are synthesized to obtain a final synthesized frame. It will be. In order to increase the processing speed, the correspondence between the reference frame FrN and the frame FrN + 1 is obtained only for the luminance component Y, and the processing is performed for the color difference components Cb and Cr based on the correspondence obtained for the luminance component Y. Preferably it is done.
[0067]
When the first interpolation frame FrH1 and the second interpolation frame FrH2 having pixel values for the integer coordinates of the integrated image and the weighting coefficient α (x ^, y ^) of the integer coordinates are acquired, the following formula ( 17), the pixel values I1 (x ^, y ^) and I2 (x ^, y ^) of the corresponding pixels of the first interpolation frame FrH1 and the second interpolation frame FrG2 are converted into weighting factors α (x ^, y ^). ) To obtain the pixel value FrG (x, y) of the combined frame FrG.
[0068]
[Formula 13]
Figure 2004120626
FIG. 12 is a flowchart showing processing performed in the present embodiment. Here, the description will be made assuming that the first interpolation frame FrH1, the second interpolation frame FrH2, and the weighting coefficient α (x °, y °) are acquired for the real coordinates to which the pixels of the frame FrN + 1 of the integrated image are assigned. As shown in FIG. 12, the operation of the moving image synthesizing apparatus of the present embodiment starts from the input of moving image data M0 (S2). In order to create a composite frame from the moving image data M0, the magnification, the frame rate, and the compression quality are input via the condition setting unit 14 of the sampling unit 1 (S4), the sampling execution unit 16 of the sampling unit 1 stores the data. Referring to the frame number determination table stored in the means 12, the number S of frames to be sampled corresponding to the magnification, frame rate, and compression quality input via the condition setting means 14 is detected, and S frames The consecutive frames are sampled from the moving image data M0 and output to the correspondence relationship obtaining means 2 (S6). Correspondence relationship obtaining means 2 arranges a reference patch on reference frame FrN among the S frames (S8), and arranges a patch similar to the reference patch on frame FrN + 1 so that the image in the patch The patch is moved and deformed until the correlation value E with the image in the reference patch converges (S12, S14). The canceling means 10 obtains the sum of the correlation values E at the time of convergence, and if the sum of E is higher than a predetermined threshold (that is, if the correlation between this frame and the reference frame is lower than the predetermined threshold), the correspondence relationship is obtained. The processing of the moving image synthesizing apparatus is performed by the frame integration means including the coordinate conversion means 3 by stopping the processing of the output means 2, that is, by stopping the processing for obtaining the correspondence relationship for the frames after the frame being processed. The process is shifted (S16: No, S30 to S40).
[0069]
On the other hand, if not canceled by the canceling means 10, the correspondence determining means 2 obtains the correspondence between all the frames except the reference frame among the S frames sampled by the sampling means 1 and the reference frame, It uses for a frame integration means (S16: No, S18, S20: Yes, S25).
[0070]
Steps S30 to S40 show the operation of the frame integration means including coordinate conversion means. Here, for convenience of explanation, the description will be made on the assumption that the correspondence relationship obtaining means 2 has obtained the correspondence relationship with the reference frame FrN only for the frame FrN + 1.
[0071]
Based on the correspondence obtained by the correspondence obtaining means 2, the frame FrN + 1 is transformed into the coordinate space of the reference frame FrN by the coordinate transformation means 3 to obtain a coordinate transformed frame FrT0 (S30). Then, the correlation value calculation means 6 calculates the correlation value d0 (x, y) of the corresponding pixel between the coordinate-converted frame FrT0 and the reference frame FrN (S32). Further, a weight coefficient α (x °, y °) is calculated by the weight calculation means 7 based on the correlation value d0 (S34).
[0072]
On the other hand, based on the obtained correspondence relationship, the first interpolation frame FrH1 is acquired by the spatiotemporal interpolation unit 4 (S36), and the second interpolation frame FrH2 is acquired by the spatial interpolation unit 5 (S38).
[0073]
In addition, the process of S36-S38 may be performed first and the process of step S30-S34 and the process of step S36-S38 may be performed in parallel.
[0074]
Then, the synthesis means 8 synthesizes the pixel I1 (x °, y °) of the first interpolation frame FrH1 and the pixel I2 (x °, y °) of the second interpolation frame FrH2 by the above equation (16). , A synthesized frame FrG composed of the pixels FrG (x ^, y ^) is acquired (S40), and the process is terminated.
[0075]
In the above description, for convenience of explanation, the correspondence relationship obtaining means 2 obtains the correspondence relationship with the reference frame FrN for only FrN + 1, and the frame integration means combines the two frames of the reference frames FrN and FrN + 1. The generation of the frame has been described. For example, when the composite frame FrG is acquired from T (T ≧ 3) frames FrN + t ′ (0 ≦ t ′ ≦ T−1) (that is, by the correspondence determining unit 2). When a correspondence relationship between two or more frames and a reference frame is obtained), pixel values are displayed on the integrated image for frames FrN + t (1 ≦ t ≦ T−1) other than the reference frame FrN (= FrN + 0). A plurality of first interpolation frames FrH1t are obtained by allocation. It is assumed that the pixel value of the first interpolation frame FrH1t is I1t (x °, y °).
[0076]
In addition, an interpolation operation for assigning pixel values to coordinates (real number coordinates (x °, y °)) to which the pixels of the frame FrN + t on the integrated image are assigned to the reference frame FrN corresponds to the frame FrN + t. A second interpolation frame FrH2t is acquired. Note that the pixel value of the second interpolation frame FrH2t is I2t (x °, y °).
[0077]
Further, based on the obtained correspondence relationship, a weighting coefficient αt (x °, y °) for weighting and adding the corresponding first and second interpolation frames FrH1t and FrH2t is acquired.
[0078]
Then, the first and second interpolated frames FrH1t and FrH2t corresponding to each other are weighted and added by the weighting coefficient αt (x °, y °) and the weighted sum operation is performed, whereby the pixel value FrGt ( An intermediate composite frame FrGt having x ^, y ^) is acquired. Specifically, the pixel values I1t (x °, y °) and I2t (x °, y °) of the corresponding pixels of the first interpolation frame FrH1t and the second interpolation frame FrG2t are expressed by the following equation (18). The weighted addition is performed with the corresponding weighting coefficient αt (x °, y °) and the load sum operation is performed to obtain the pixel value FrGt (x ^, y ^) of the intermediate composite frame FrGt.
[0079]
[Expression 14]
Figure 2004120626
In Expression (18), k is the number of pixels of the frame FrN + t assigned to the intermediate synthesis frame FrGt, that is, the area surrounded by the integer coordinates in the vicinity of the integer coordinates (x ^, y ^) of the integrated image. The assigned pixels have pixel values I1t (x °, y °), I2t (x °, y °) and a weighting coefficient αt (x °, y °), respectively.
[0080]
Then, the synthesized frame FrG is obtained by adding the intermediate synthesized frame FrGt. Specifically, the pixel value FrG (x ^, y ^) of the synthesized frame FrG is acquired by adding the intermediate synthesized frame FrGt between corresponding pixels by the following equation (19).
[0081]
[Expression 15]
Figure 2004120626
Note that pixel values may not be assigned to all integer coordinates of the integrated image. In such a case, an interpolation calculation similar to that of the spatial interpolation unit 5 described above may be performed on the assigned pixel value to calculate a pixel value of an integer coordinate that has not been assigned.
[0082]
Further, when the composite frame FrG is acquired from a plurality of three or more frames, the first interpolation frame FrH1t and the second interpolation frame FrH2t having pixel values with respect to the integer coordinates of the integrated image, and the weight coefficient αt (x ^) of the integer coordinates , Y ^) may be acquired. In this case, for each frame FrN + t (1 ≦ t ≦ T−1), the pixel value FrN + t (x, y) of each frame FrN + t is assigned to all integer coordinates of the integrated coordinates, and the pixel value I1N + t (x ^, y ^) That is, the first interpolation frame FrH1t having the pixel value I1t (x ^, y ^) is acquired. Then, by adding the pixel values I1t (x ^, y ^) assigned to all the frames FrN + t and the pixel values I2t (x ^, y ^) of the second interpolation frame FrH2t, a plurality of intermediate composite frames FrGt And adding them together to obtain a composite frame FrG.
[0083]
Specifically, first, as shown in the following formula (20), pixel values I1N + t (x ^, y ^) in integer coordinates of the integrated image are calculated for all frames FrN + t. Then, as shown in Expression (21), the pixel value I1t (x ^, y ^) and the pixel value I2t (x ^, y ^) are weighted and added by the weighting coefficient α (x ^, y ^). An intermediate composite frame FrGt is obtained. Then, as shown in the above equation (20), the synthesized frame FrG is acquired by adding the intermediate synthesized frame FrGt.
[0084]
[Expression 16]
Figure 2004120626
Note that when the composite frame FrG is acquired from a plurality of three or more frames, a plurality of coordinate-transformed frames FrT0 are acquired, and thus a plurality of correlation values and weighting coefficients are also acquired corresponding to the number of frames. In this case, an average value or an intermediate value of a plurality of obtained weighting factors may be used as the weighting factors for weighted addition of the corresponding first and second interpolation frames FrH1 and FrH2.
[0085]
As described above, in the moving image synthesizing apparatus according to the present embodiment, the sampling unit 1 uses the compression quality and frame rate of the moving image data M0, and the magnification of the pixel size of the synthesized frame to be synthesized with respect to the pixel size of the moving image frame. Since the number of frames to be sampled is determined based on the above, it is not necessary for the operator to manually determine the number of frames, which is convenient. Also, by determining the number of frames based on the image characteristics of the moving image and the composite frame to be created, it is possible to objectively determine the appropriate number of frames, thus creating a high-quality composite frame can do.
[0086]
Further, in the moving image synthesizing apparatus according to the present embodiment, for the sampled S frames, the pixels in the patch on the other frame and the reference frame are sequentially selected from other frames other than the reference frame close to the reference frame FrN. A process of obtaining a correspondence relationship between pixels in the reference patch and obtaining a correlation between another frame and the reference frame, and obtaining a correspondence relationship with respect to the next other frame if the correlation is greater than a predetermined threshold. Continue, but if a frame whose correlation is lower than the predetermined threshold is detected, the correspondence calculation process for other frames after this frame is stopped even if the determined number of frames has not been reached. By using a frame having a low correlation with the reference frame (for example, a frame in a scene switched from the reference frame scene) It can be avoided to create a beam, making it possible to create more high-quality synthetic frame of.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a moving image synthesis apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of sampling means 1 of the moving image synthesizing apparatus shown in FIG.
FIG. 3 is a diagram illustrating an example of a frame number determination table.
FIG. 4 is a diagram for explaining the calculation of the correspondence between the frame FrN + 1 and the reference frame FrN.
FIG. 5 is a diagram for explaining a deformation of a patch.
6 is a block diagram showing a configuration of a canceling unit 10 of the moving image synthesizing apparatus shown in FIG.
FIG. 7 is a diagram for explaining a correspondence relationship between a patch P1 and a reference patch P0;
FIG. 8 is a diagram for explaining bilinear interpolation;
FIG. 9 is a diagram for explaining assignment of a frame FrN + 1 to an integrated image;
FIG. 10 is a diagram for explaining calculation of pixel values of integer coordinates in an integrated image.
FIG. 11 is a diagram showing a table for obtaining weighting factors
12 is a flowchart showing processing performed in the moving image synthesizing apparatus shown in FIG.
[Explanation of symbols]
1 Sampling means
2 Correspondence relationship seeking means
3 Coordinate conversion means
4 Spatio-temporal interpolation means
5 Spatial interpolation means
6 Correlation value calculation means
7 Weight calculation means
8 Synthesis means
10 Means to cancel
12 Storage means
14 Condition setting means
16 Sampling execution means
22 Correlation acquisition means
24 Canceling execution means

Claims (6)

動画像の連続する、基準フレームを含む2以上の所定の枚数のフレームをサンプリングし、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、
該基準パッチと同様のパッチを前記所定の枚数のフレームのうちの他のフレーム上に配置し、
該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、
該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求め、
求められた前記対応関係に基づいて前記所定の枚数のフレームから合成フレームを作成する動画像合成方法において、
前記動画像および/または作成しようとする前記合成フレームの画像特性に基づいて前記所定の枚数を決定して該所定の枚数のフレームをサンプリングすることを特徴とする動画像合成方法。
Sampling a predetermined number of frames of 2 or more including a reference frame that is a sequence of moving images,
Placing a reference patch consisting of one or more rectangular areas on the reference frame;
A patch similar to the reference patch is arranged on another frame of the predetermined number of frames,
Moving and / or deforming the patch on the other frame so that the image in the patch substantially matches the image in the reference patch;
Based on the patch after the movement and / or deformation and the reference patch, the correspondence relationship between the pixels in the patch on each frame of the other frame and the pixels in the reference patch on the reference frame is respectively determined. Seeking
In the moving image composition method for creating a composite frame from the predetermined number of frames based on the obtained correspondence relationship,
A method for synthesizing a moving image, wherein the predetermined number of frames is determined based on the moving image and / or image characteristics of the synthetic frame to be created, and the predetermined number of frames are sampled.
前記基準フレームに近い他のフレームから順に、前記対応関係を求めると共に、前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めていき、
前記相関が所定の閾値より低くなったフレームにおいて、前記対応関係を求める処理を中止し、
求められた前記対応関係に基づいて、前記基準フレームおよび前記対応関係が求められた前記他のフレームを用いて前記合成フレームを作成することを特徴とする請求項1記載の動画像合成方法。
In order from the other frames close to the reference frame, the correspondence is obtained, and the correlation between the other frame and the reference frame for which the correspondence is obtained is obtained.
In the frame in which the correlation is lower than a predetermined threshold, the processing for obtaining the correspondence relationship is stopped,
2. The moving image synthesizing method according to claim 1, wherein the synthesized frame is created using the reference frame and the other frame for which the correspondence is obtained based on the obtained correspondence.
動画像の連続する、基準フレームを含む2以上の所定の枚数のフレームをサンプリングするサンプリング手段と、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、該基準パッチと同様のパッチを前記所定の枚数のフレームのうちの他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求める対応関係求出手段と、
該対応関係求出手段により求められた前記対応関係に基づいて前記所定の枚数のフレームから合成フレームを作成するフレーム統合手段とを備えてなる動画像合成装置であって、
前記サンプリング手段が、前記動画像および/または作成しようとする前記合成フレームの画像特性に基づいて前記所定の枚数を決定するフレーム枚数決定手段を備え、該フレーム枚数決定手段に決定された前記所定の枚数のフレームをサンプリングするものであることを特徴とする動画像合成装置。
Sampling means for sampling a predetermined number of frames of two or more including a reference frame in a moving image;
A reference patch composed of one or a plurality of rectangular areas is arranged on the reference frame, a patch similar to the reference patch is arranged on another frame of the predetermined number of frames, and an image in the patch Is moved and / or deformed on the other frame so that the image substantially matches the image in the reference patch, and based on the moved and / or deformed patch and the reference patch, the other Correspondence finding means for obtaining the correspondence between the pixels in the patch on each frame of the frame and the pixels in the reference patch on the reference frame;
A moving image synthesizing apparatus comprising frame integration means for creating a synthesized frame from the predetermined number of frames based on the correspondence obtained by the correspondence finding means;
The sampling means comprises frame number determining means for determining the predetermined number based on the moving image and / or image characteristics of the composite frame to be created, and the predetermined number of frames determined by the frame number determining means A moving image synthesizing apparatus for sampling a number of frames.
前記対応関係求出手段が、前記基準フレームに近い他のフレームから順に、前記対応関係を求めるものであり、
前記対応関係求出手段により前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めると共に、前記相関が所定の閾値より低くなったフレームから、前記対応関係求出手段の処理を中止する中止手段とを備え、
前記フレーム統合手段が、求められた前記対応関係に基づいて、前記基準フレームおよび前記対応関係が求められた前記他のフレームを用いて前記合成フレームを作成するものであることを特徴とする請求項3記載の動画像合成装置。
The correspondence relationship obtaining means obtains the correspondence relationship in order from other frames close to the reference frame,
A correlation between the other frame for which the correspondence relationship is obtained by the correspondence relationship obtaining unit and the reference frame is obtained, and the processing of the correspondence relationship obtaining unit is performed from a frame whose correlation is lower than a predetermined threshold. A canceling means for canceling,
The frame integration means creates the composite frame using the reference frame and the other frame for which the correspondence relationship is obtained based on the obtained correspondence relationship. 3. The moving image synthesizing apparatus according to 3.
動画像および/または該動画像の複数のフレームから作成しようとする合成フレームの画像特性に基づいて、合成に使用する前記フレームの枚数を決定する枚数決定処理と、
前記動画像の連続する、基準フレームを含む前記枚数のフレームをサンプリングするサンプリング処理と、
前記基準フレーム上に1つまたは複数の矩形領域からなる基準パッチを配置し、該基準パッチと同様のパッチを前記枚数のフレームのうちの他のフレーム上に配置し、該パッチ内の画像が前記基準パッチ内の画像と略一致するように、該パッチを前記他のフレーム上において移動および/または変形し、該移動および/または変形後のパッチおよび前記基準パッチに基づいて、前記他のフレームの夫々のフレーム上の前記パッチ内の画素と前記基準フレーム上の前記基準パッチ内の画素との対応関係を夫々求める対応関係求出処理と、
求められた前記対応関係に基づいて前記枚数のフレームから合成フレームを作成するフレーム統合処理とをコンピュータに実行させることを特徴とするプログラム。
A number determination process for determining the number of frames to be used for synthesis based on the image characteristics of a moving image and / or a combined frame to be created from a plurality of frames of the moving image;
Sampling processing for sampling the number of frames including the reference frame that is continuous in the moving image;
A reference patch composed of one or more rectangular areas is arranged on the reference frame, a patch similar to the reference patch is arranged on another frame of the number of frames, and an image in the patch is The patch is moved and / or deformed on the other frame so as to substantially match the image in the reference patch, and the other frame is changed based on the moved and / or deformed patch and the reference patch. A correspondence finding process for obtaining a correspondence between each pixel in the patch on each frame and a pixel in the reference patch on the reference frame;
A program causing a computer to execute frame integration processing for creating a composite frame from the number of frames based on the obtained correspondence.
前記対応関係求出処理が、前記基準フレームに近い他のフレームから順に、前記対応関係を求めるものであり、
前記対応関係が求められる前記他のフレームと前記基準フレームとの相関を求めると共に、前記相関が所定の閾値より低くなったフレームから、前記対応関係を求める処理を中止する中止処理をさらにコンピュータに実行させるものであることを特徴とする請求項5記載のプログラム。
The correspondence finding process is for obtaining the correspondence in order from other frames close to the reference frame.
The computer further calculates a correlation between the other frame for which the correspondence relationship is required and the reference frame, and further cancels the processing for determining the correspondence relationship from a frame whose correlation is lower than a predetermined threshold. 6. The program according to claim 5, wherein:
JP2002284126A 2002-08-28 2002-09-27 Moving picture composition method, apparatus, and program Expired - Fee Related JP4104947B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2002284126A JP4104947B2 (en) 2002-09-27 2002-09-27 Moving picture composition method, apparatus, and program
US10/646,753 US7729563B2 (en) 2002-08-28 2003-08-25 Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US12/754,718 US8078010B2 (en) 2002-08-28 2010-04-06 Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US13/172,437 US8275219B2 (en) 2002-08-28 2011-06-29 Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US13/438,057 US20120189066A1 (en) 2002-08-28 2012-04-03 Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US13/593,636 US8805121B2 (en) 2002-08-28 2012-08-24 Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002284126A JP4104947B2 (en) 2002-09-27 2002-09-27 Moving picture composition method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2004120626A true JP2004120626A (en) 2004-04-15
JP4104947B2 JP4104947B2 (en) 2008-06-18

Family

ID=32277790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002284126A Expired - Fee Related JP4104947B2 (en) 2002-08-28 2002-09-27 Moving picture composition method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4104947B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226656A (en) * 2006-02-24 2007-09-06 Toshiba Corp Method and device of improving resolution of image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226656A (en) * 2006-02-24 2007-09-06 Toshiba Corp Method and device of improving resolution of image
JP4714038B2 (en) * 2006-02-24 2011-06-29 株式会社東芝 Method and apparatus for increasing image resolution

Also Published As

Publication number Publication date
JP4104947B2 (en) 2008-06-18

Similar Documents

Publication Publication Date Title
US8275219B2 (en) Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
JP3299263B2 (en) Exercise content estimation method in video signal
US20110141348A1 (en) Parallel processor for providing high resolution frames from low resolution frames
JP5158262B2 (en) Image processing method and image processing apparatus
JP6017279B2 (en) Image processing apparatus, image processing method, and program
JP4173705B2 (en) Moving picture composition method, apparatus, and program
JPH0973540A (en) Motion vector calculation device
JP2019207603A (en) Tone mapping processing method by maximizing edge intensity, and hdr video conversion device
US7522189B2 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
JP2012003503A (en) Image processing device, method for controlling the same, and program
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP4104947B2 (en) Moving picture composition method, apparatus, and program
JP4515698B2 (en) Moving picture composition method, apparatus, and program
JP2000152250A (en) Image processing unit, method and computer readable storage medium
JP4104937B2 (en) Moving picture composition method, apparatus, and program
JP4582993B2 (en) Moving picture composition method, apparatus, and program
JP6082304B2 (en) Image processing apparatus and processing method thereof
JP4121024B2 (en) Moving image synthesizing apparatus, method, and program
JP2004152148A (en) Dynamic image composition method and device, program
JP4356876B2 (en) Moving image synthesizing apparatus, method, and program
JP3693187B2 (en) Signal conversion apparatus and signal conversion method
JP4350493B2 (en) Moving image synthesizing apparatus, method, and program
JP6854629B2 (en) Image processing device, image processing method
JP4571370B2 (en) Moving image composition method and apparatus, program, and digital camera
JP3067833B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees