JP2006101032A - Interpolation image generating apparatus, interpolation image generating method, and interpolation image generating program - Google Patents
Interpolation image generating apparatus, interpolation image generating method, and interpolation image generating program Download PDFInfo
- Publication number
- JP2006101032A JP2006101032A JP2004282694A JP2004282694A JP2006101032A JP 2006101032 A JP2006101032 A JP 2006101032A JP 2004282694 A JP2004282694 A JP 2004282694A JP 2004282694 A JP2004282694 A JP 2004282694A JP 2006101032 A JP2006101032 A JP 2006101032A
- Authority
- JP
- Japan
- Prior art keywords
- region
- area
- reference image
- likelihood
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成装置、補間画像生成方法および補間画像生成プログラムに関する。 The present invention relates to an interpolation image generation apparatus, an interpolation image generation method, and an interpolation image generation program for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image.
動画像を滑らかに表示するために、動画像のフレーム間に画像を内挿補間するフレーム補間方法が利用される。このフレーム補間方法としては、次のような手法がある。 In order to display a moving image smoothly, a frame interpolation method for interpolating an image between frames of the moving image is used. As the frame interpolation method, there are the following methods.
まず、補間フレームを一様格子の補間対象ブロックに分割し、この補間対象ブロックを中心として幾何対称的に2つの参照フレーム間の相関を算出して動きベクトルを求める。そして、フレーム間の相関、すなわち2つの参照フレーム間の画素値の差分絶対値が一定の閾値以下か否かを判断し、ブロック内で一定の閾値以下の画素の領域を一致領域とし、一定の閾値より大きい画素の領域を不一致領域として、二つの領域に分割する。そして、一致領域には該動きベクトルを割り当て、不一致領域は再帰的に探索をおこない、補間フレームの画像を生成する手法である(例えば、特許文献1参照)。 First, an interpolation frame is divided into interpolation target blocks having a uniform lattice, and a motion vector is obtained by calculating a correlation between two reference frames geometrically symmetrically about the interpolation target block. Then, it is determined whether the correlation between the frames, that is, the absolute value of the difference between the pixel values between the two reference frames is equal to or less than a certain threshold value, and the pixel area within the certain threshold value within the block is regarded as a matching area. A pixel region larger than the threshold is divided into two regions as a mismatch region. Then, the motion vector is assigned to the matching area, and the mismatching area is recursively searched to generate an interpolated frame image (see, for example, Patent Document 1).
この特許文献1の技術によれば、フレームを一致領域と不一致領域に分割して、各領域で異なる手法で動きベクトルを求めているので、補間フレームに重なりや隙間が生じず、ブロック内に複数の動きが存在してもブロック歪みが発生しないという利点がある。
According to the technique disclosed in
しかしながら、特許文献1の技術では、一致領域と不一致領域に分割する際に、画素ごとに、2つの参照フレーム間の画素値の差分絶対値を算出し、差分絶対値によって、一致領域に属するか不一致領域に属するかを判定しているため、画面全体に対して非常に微細なレベルでの一致判定を行っている。
However, in the technique of
実際に、動画を大域的なレベルで観察するとフレーム間で非常に近似しているように観察される部分でも、微細な画素レベルではフレーム間で大きく異なっている場合がある。このような場合に、画素レベルの一致判定の結果と、大域的なレベルな一致判定の結果は必ずしも一致しない。 Actually, even when a moving image is observed at a global level, even a portion that is observed to be very close between frames may be greatly different between frames at a fine pixel level. In such a case, the pixel level match determination result and the global level match determination result do not necessarily match.
このため、画素レベルでの一致判定を行って補間フレームを生成した場合には、動画を画面全体から観察したときに、実際の動作とは異なる動作に観察されてしまう場合がある。すなわち、画像にノイズが少ない理想的な場合には、領域分割によりブロック歪みを低減することができるが、ノイズが多い画像の場合には、補間フレームにノイズにより本来と異なる画素値が入ることによって、ごま塩雑音のようなノイズとして視認されてしまうという問題がある。 For this reason, when an interpolation frame is generated by performing coincidence determination at the pixel level, when the moving image is observed from the entire screen, it may be observed as an operation different from the actual operation. In other words, block distortion can be reduced by dividing the area in an ideal case where there is little noise in the image. However, in the case of an image where there is a lot of noise, the pixel value that is different from the original value is entered in the interpolation frame due to the noise. There is a problem of being visually recognized as noise such as sesame salt noise.
本発明は、上記に鑑みてなされたものであって、ごま塩雑音のようなノイズを低減するとともに、ブロック歪みを低減して動画像を滑らかに表示することができる補間画像生成装置、補間画像生成方法および補間画像生成プログラムを提供することである。 The present invention has been made in view of the above, and an interpolation image generation device and an interpolation image generation capable of reducing noise such as sesame salt noise and displaying a moving image smoothly by reducing block distortion A method and an interpolated image generation program are provided.
上述した課題を解決し、目的を達成するために、本発明は、動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成装置であって、前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手段と、前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手段と、前記動き探索手段によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手段と、前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手段と、前記尤度算出手段によって算出された尤度と、前記事前確率算出手段によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手段と、前記事後確率算出手段によって算出された前記事後確率が最大値を有する場合に、前記領域分割手段によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手段と、前記判断手段によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is an interpolation image generation apparatus that generates an interpolation image to be interpolated between a first reference image and a second reference image of a moving image, A motion search means for obtaining a first motion vector from the first reference image and the second reference image, and a region for dividing a block of a predetermined size in the first reference image into a matching region and a mismatching region The coincidence in the first block on the first reference image and the second block on the second reference image determined by the dividing means and the first motion vector obtained by the motion search means A likelihood calculating means for calculating a likelihood based on a distribution of pixel information inside the area; a prior probability calculating means for calculating a prior probability indicating a probability of a spatial distribution of the matched area and the mismatched area; and the likelihood. In calculation means A posteriori probability calculating means for calculating, based on the Bayes' theorem, a posterior probability indicating the likelihood of division of the matched area and the mismatched area from the likelihood calculated by the prior probability calculating means and the prior probability calculated by the prior probability calculating means And, when the posterior probability calculated by the posterior probability calculating unit has a maximum value, the determination of determining that the matching region and the mismatching region divided by the region dividing unit are likely region divisions And the determining unit determines that the matching region and the non-matching region are likely region divisions from the first reference image, the second reference image, and the first motion vector. Motion compensation means for performing motion compensation based only on the matching region and generating the interpolated image.
また、本発明は、上記補間画像生成装置に対応した補間画像生成方法および補間画像生成プログラムである。 The present invention also provides an interpolation image generation method and an interpolation image generation program corresponding to the interpolation image generation apparatus.
本発明によれば、第1の動きベクトルによって定められる第1の参照画像上の第1のブロックと第2の参照画像上の第2のブロックにおける一致領域の内部の画素情報の分布に基づいた尤度を算出し、一致領域と不一致領域の空間分布の確率を示す事前確率を算出し、算出された尤度と算出された事前確率から、一致領域と不一致領域の領域分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出し、算出された事後確率が最大値を有する場合に、分割した前記一致領域と不一致領域を尤もらしい領域分割であると判断し、一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、第1の参照画像と第2の参照画像と第1の動きベクトルとから一致領域のみに基づいて動き補償を行い、補間画像を生成することで、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ブロック歪みを低減して動画像を滑らかに表示することができるという効果を奏する。 According to the present invention, based on the distribution of pixel information inside the matching region in the first block on the first reference image and the second block on the second reference image defined by the first motion vector. The likelihood is calculated, the prior probability indicating the probability of the spatial distribution of the coincidence region and the disagreement region is calculated, and the likelihood of the region division of the coincidence region and the disparity region is indicated from the calculated likelihood and the calculated prior probability. The posterior probability is calculated based on Bayes' theorem, and when the calculated posterior probability has the maximum value, the divided matching area and the mismatching area are determined to be likely area divisions, and the matching area and the mismatching area are When it is determined that the region is likely to be divided, motion compensation is performed based on only the matching region from the first reference image, the second reference image, and the first motion vector, and an interpolation image is generated. , Painting It is no longer necessary to perform match determination every time, and it is possible to divide the matching area and the non-matching area using a more probable method, reducing noise such as sesame salt noise and smoothing the moving image by reducing block distortion. The effect that it can be displayed is produced.
以下に添付図面を参照して、この発明にかかる補間画像生成装置、補間画像生成方法および補間画像生成プログラムの最良な実施の形態を詳細に説明する。 Exemplary embodiments of an interpolation image generation apparatus, an interpolation image generation method, and an interpolation image generation program according to the present invention will be described below in detail with reference to the accompanying drawings.
(実施の形態1)
実施の形態1にかかる補間画像生成装置は、動画像の第1の参照フレームp1(第1の参照画像)と第2の参照フレームp2(第2の参照画像)との間に内挿する補間フレームの画像を生成する際に、参照フレームp1内の所定サイズのブロックを、一致領域と不一致領域とに分割し、領域分割が尤もらしい領域分割か否かを、ベイズ決定規定の概念を用いてMAP(maximum a posteriori probability)推定問題として定式化したものである。ここで、一致判定問題は、動き推定によって求められた動きベクトルによって定まるブロック対の中を一致領域と不一致領域に分割する問題である。
(Embodiment 1)
The interpolated image generating apparatus according to the first embodiment interpolates between a first reference frame p1 (first reference image) and a second reference frame p2 (second reference image) of a moving image. When generating an image of a frame, a block of a predetermined size in the reference frame p1 is divided into a matching area and a mismatching area, and whether or not the area division is a likely area division is determined using the concept of Bayes decision rule. It is formulated as a MAP (maximum a posteriori probability) estimation problem. Here, the coincidence determination problem is a problem in which a block pair determined by a motion vector obtained by motion estimation is divided into a coincidence region and a disagreement region.
まず、本実施の形態の補間画像生成装置で行われる一致判定処理で利用するベイズ決定規定について説明する。 First, the Bayes determination rule used in the coincidence determination process performed by the interpolated image generation apparatus according to the present embodiment will be described.
ベイズ決定規定は、統計的パターン認識の確率モデルに基づいている。一般的に、m個の類をc1,c2,・・・cmとし、入力パターンから抽出されたn個の特徴の値の組(特徴ベクトル)を、x=(x1,x2,・・・xn)とすると、各類に属するパターンが生起する確率(事前確率)p(ci)(i=1,・・・,m)と、各類ciのもとで、パターンxの生起確率p(x|ci)(i=1,・・・,m)が知られているものとする。このとき、xが生起したという条件のもとで事後確率を最大とする類ck、すなわち、次式
p(ck|x)=maxp(ci|x)
を満たす類ckにパターンxは属すると決定すれば、全体的な識別の誤り確率が最小になることがわかっているという規則がベイズ決定規則である。
The Bayesian decision rule is based on a stochastic model of statistical pattern recognition. Generally, c 1 of m s, c 2, and · · · c m, the value of n features extracted from the input pattern set (the feature vector), x = (x 1, x 2 ,..., X n ), the probability (prior probability) p (c i ) (i = 1,..., M) that a pattern belonging to each class occurs, and under each class c i , Assume that the occurrence probability p (x | c i ) (i = 1,..., M) of the pattern x is known. At this time, the class c k that maximizes the posterior probability under the condition that x has occurred, that is, the following expression p (c k | x) = maxp (c i | x)
If it is determined that the pattern x belongs to the class c k that satisfies the above, the rule that it is known that the overall identification error probability is minimized is the Bayes determination rule.
本実施の形態の補間画像生成装置では、このベイズ決定規則を、一致判定に利用している。すなわち、一致領域と不一致領域が、入力された画像に対してどの程度尤もらしいかを事後確率(posteriori probability)として定式化している。 In the interpolated image generating apparatus of the present embodiment, this Bayes determination rule is used for matching determination. That is, how likely the matching area and the mismatching area are to the input image is formulated as a posterior probability.
ベイズ決定規則では、事後確率は、尤度と事前確率の積で表現される。事前確率は、一致領域と不一致領域の空間分布の確率を示すものとして定式化する。尤度は、観測されるノイズがガウス分布に従うと仮定して、一致領域内のブロック差分をガウス分布としてモデル化する。このようにノイズも考慮に入れて定式化を行うことによってノイズに対してロバスト性を向上させて領域の一致判定をおこなうことができる。 In the Bayes decision rule, the posterior probability is expressed as a product of likelihood and prior probability. The prior probability is formulated as indicating the probability of the spatial distribution of the coincidence region and the disagreement region. Likelihood assumes that the observed noise follows a Gaussian distribution and models the block difference in the matching region as a Gaussian distribution. In this way, by formulating in consideration of noise, it is possible to improve the robustness against noise and perform region matching determination.
ここで、ya,ybをブロックBの画素値、xを一致領域、不一致領域を示すラベルとする。すなわち、x=1が一致領域のラベル、x=0が不一致領域のラベルである。MAP推定問題は、画像yが与えられたときの一致判定xの確率(事後確率)p(x|y)を最大化する問題である。ベイス決定規則から、事前確率p(x)と、一致判定xが与えられたときのyの尤度p(y|x)には、数1式に示す関係がある。
Here, y a and y b are pixel values of the block B, and x is a label indicating a matching area and a mismatching area. That is, x = 1 is the label of the matching area, and x = 0 is the label of the mismatching area. The MAP estimation problem is a problem that maximizes the probability (posterior probability) p (x | y) of the coincidence determination x when the image y is given. From the base decision rule, the prior probability p (x) and the likelihood p (y | x) of y when the coincidence determination x is given have the relationship shown in
事前確率p(x)は、局所的に0(不一致領域)と1(一致領域)が交互に繰り返される空間分布、すなわち0(不一致領域)と1(一致領域)が分散している場合に確率的に低くなり、さらに0(不一致領域)の空間分布よりも1(一致領域)の空間分布の方が確率的に高いと定められ、数2式のように定式化される。 The prior probability p (x) is a probability when the local distribution of 0 (mismatch region) and 1 (match region) is repeated alternately, that is, 0 (mismatch region) and 1 (match region) are dispersed. It is determined that the spatial distribution of 1 (coincidence region) is stochastically higher than the spatial distribution of 0 (noncoincidence region), and is formulated as shown in Equation 2.
ここで、β、cはブロック内の隣接画素の2点であるクリークであり、Zは正規化定数である。図24は、ブロック内の隣接画素の2点であるクリークの一例を示す説明図である。 Here, β and c are cliques that are two points of adjacent pixels in the block, and Z is a normalization constant. FIG. 24 is an explanatory diagram illustrating an example of a clique that is two points of adjacent pixels in a block.
尤度p(y|x)は、他の条件が同一の場合には、値が大きい程、条件xの元でより尤もらしいことを示す。本実施の形態では、尤もらしさを画素の差分によって表している。よって、一致判定xが与えられたときに、一致領域内の差分値が小さいほど、p(y|x)の値が大きくなり、より尤もらしいとする。 The likelihood p (y | x) indicates that, when the other conditions are the same, the larger the value, the more likely the condition is under the condition x. In the present embodiment, the likelihood is represented by a pixel difference. Therefore, when the match determination x is given, it is assumed that the smaller the difference value in the match region, the larger the value of p (y | x), which is more likely.
画像で観測されるノイズが、分散σ2、平均0の白色ガウスノイズであるとすると、尤度は数3式のようにモデル化することができる。 If the noise observed in the image is white Gaussian noise with variance σ 2 and average 0, the likelihood can be modeled as shown in Equation 3.
なお、本実施の形態では、ノイズがガウス分布に従うとして尤度のモデル化を行ったが、この他、一般化ガウス分布やポアソン分布に従うとして尤度のモデル化を行っても良い。 In the present embodiment, the likelihood modeling is performed assuming that the noise follows a Gaussian distribution. However, the likelihood modeling may be performed based on a generalized Gaussian distribution or a Poisson distribution.
数3式のように尤度をモデル化した場合に、MAP推定問題が、数4式に示すように定式化することができる。 When likelihood is modeled as shown in Equation 3, the MAP estimation problem can be formulated as shown in Equation 4.
上記数4式(若しくは数5式)を解法して一致判定xを算出することにより、ベイズ決定規則のもとでの一致判定を行うことができる。言い換えれば、本実施の形態の補間画像生成装置では、数2式で示される事前確率を求め、数3式で示される尤度を求め、かかる事前確率と尤度とを乗算した数4式で示される事後確率が最大値になる一致判定xを求めている。 By calculating Equation 4 (or Equation 5) and calculating coincidence determination x, it is possible to perform coincidence determination under the Bayes decision rule. In other words, in the interpolated image generation apparatus of the present embodiment, the prior probability represented by Equation 2 is obtained, the likelihood represented by Equation 3 is obtained, and Equation 4 obtained by multiplying the prior probability and the likelihood is obtained by Equation 4. A match determination x that maximizes the posterior probability shown is obtained.
次に、このようなヘイズ決定規則を利用した一致判定をおこない補間フレームを生成する本実施の形態にかかる補間画像生成装置について説明する。 Next, an interpolated image generating apparatus according to the present embodiment that generates an interpolated frame by performing matching determination using such a haze determination rule will be described.
なお、本実施の形態では、入力画像信号(動画像信号)が60Hzのノンインタレース信号(プログレッシブ信号)であり、60Hzのノンインタレース信号に対して隣接する二つの参照フレーム間の時間的中央位置(補間フレーム面)に補間フレームを生成し、その補間フレームを二つの参照フレーム間に内挿することにより120Hzのノンインタレース信号に変換する場合を例にとって説明する。また、時間的に先の参照フレームを参照フレームp1、時間的に後の参照フレームを参照フレームp2とする。ただし、本発明は、上記画像信号に限定されるものではなく、様々なフレームレートの画像信号に対して本発明を適用することができる。 In the present embodiment, the input image signal (moving image signal) is a 60 Hz non-interlaced signal (progressive signal), and the temporal center between two reference frames adjacent to the 60 Hz non-interlaced signal. An example will be described in which an interpolation frame is generated at a position (interpolation frame plane), and the interpolation frame is interpolated between two reference frames to be converted into a 120 Hz non-interlace signal. Further, a temporally preceding reference frame is referred to as a reference frame p1, and a temporally subsequent reference frame is referred to as a reference frame p2. However, the present invention is not limited to the above image signal, and the present invention can be applied to image signals of various frame rates.
図1は、実施の形態1にかかる補間画像生成装置の機能的構成を示すブロック図である。本実施の形態にかかる補間画像生成装置100は、図1に示すように、動き推定部110と動き補償部120とフレームメモリ130とを備えている。
FIG. 1 is a block diagram of a functional configuration of the interpolated image generation apparatus according to the first embodiment. As shown in FIG. 1, the interpolated
動き推定部110は、入力される2つの参照フレームp1、p2を格子状のブロックに分割して分割されたブロックを一致領域と不一致領域に分割して、各領域で動きベクトルを求めるものである。
The
動き推定部110は、図1に示すように、動き探索部111と、領域分割部112と、尤度算出部113と、事前確率算出部114と、事後確率算出部115と、判断部116とを備えている。
As shown in FIG. 1, the
動き探索部111は、2つの参照フレームp1、p2を入力して、一様格子のブロックごとに第1の動きベクトルを求める処理を行う。また、動き探索部111は、後述する判断部116によって一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、さらに不一致領域のみに基づいて第2の動きベクトルを求める処理を行う。
The
領域分割部112は、参照フレームp1,p2内のブロックを、一致領域と不一致領域とに分割する処理を行う。また、領域分割部112は、尤度算出部113、事前確率算出部114、事後確率算出部115、判断部116とともに、分割された一致領域と不一致領域についての一致判定処理を行う。
The
尤度算出部113は、動き探索部111によって求めた第1の動きベクトルによって定められる参照フレームp1のブロックと参照フレームp2上のブロックにおける一致領域の内部の画素値の差分のガウス分布に基づいた尤度p(y|x)を数3式に従って算出する処理を行う。この尤度は、画素の差分によって表され、一致判定xが与えられたときに、一致領域内の差分値が小さいほど、尤度p(y|x)の値が大きくなり、より尤もらしいことを意味する。
The
事前確率算出部114は、一致領域と不一致領域の空間分布の確率を示す事前確率p(x)を数2式に従って算出する処理を行う。この事前確率p(x)は、不一致領域と一致領域が分散している空間分布の場合には低い値となり、さらに不一致領域の空間分布よりも一致領域の空間分布の方が高い値となるように数3式で設定される。
The prior
事後確率算出部115は、尤度算出部113によって算出された尤度と事前確率算出部114によって算出された事前確率とを乗算し、一致領域と不一致領域の分割の尤もらしさを示す事後確率p(x|y)を数4式に従って算出する処理を行う。
The posterior
判断部116は、事後確率p(x|y)が最大値を有するか否かを判定し、最大値となる場合に、領域分割部112によって分割した一致領域と不一致領域を、尤もらしい領域分割であると判断する一致判定処理を行うものである。
The
動き補償部120は、判断部116によって一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、参照フレームp1,p2と動き探索部111で求めた第1の動きベクトルとから一致領域のみに基づいて動き補償を行い、補間フレームを生成する処理を行う。フレームメモリ130は、参照フレームの画像を一時的に保存する記憶装置である。
The
次に、以上のように構成された補間画像生成装置100による補間画像生成処理について説明する。図2は、補間画像生成の全体処理の手順を示すフローチャートである。
Next, an interpolation image generation process by the interpolation
まず、動き探索部111は、補間フレームを一様格子の小ブロックbl0に分割し(ステップS201)、ブロックの走査を開始する(ステップS202)。そして、動き推定を行い、ブロック内の一致領域となる動きベクトルグループmvgと不一致フィルタグループafgを求める(ステップ203)。ここで、かかる動き推定処理については後述する。
First, the
次に、動きベクトルグループmvg、不一致フィルタグループafg、参照フレームp1,参照フレームp2から動き補償処理を行い、補間フレームを生成をする(ステップS204)。かかる動き補償処理については後述する。そして、小ブロックbl0をすべて走査するまで、ステップS203およびS204の処理を繰り返し、小ブロックbl0をすべて走査した場合には処理を完了する(ステップS205)。 Next, motion compensation processing is performed from the motion vector group mvg, the mismatch filter group afg, the reference frame p1, and the reference frame p2, and an interpolation frame is generated (step S204). Such motion compensation processing will be described later. The processes in steps S203 and S204 are repeated until all the small blocks bl0 are scanned. If all the small blocks bl0 are scanned, the process is completed (step S205).
次に、ステップS202における動き推定処理について説明する。図3は、動き推定処理の手順を示すフローチャートである。 Next, the motion estimation process in step S202 will be described. FIG. 3 is a flowchart showing the procedure of the motion estimation process.
動き推定処理では、参照フレームp1、p2の探索領域からもっとも相関度の高いブロックを探索し、第1の動きベクトルを求め(動き探索処理)、探索されたブロック対である小ブロックbl1,bl2の内部において一致・不一致を判定し不一致フィルタafを求め(一致判定処理)、不一致画素のみから再帰的に第2の動きベクトルを探索する処理を行う。 In the motion estimation process, the block having the highest correlation is searched from the search areas of the reference frames p1 and p2, the first motion vector is obtained (motion search process), and the small blocks bl1 and bl2 that are the searched block pairs are searched. A match / mismatch is determined internally to obtain a mismatch filter af (match determination process), and a process of recursively searching for the second motion vector from only the mismatched pixels is performed.
まず、動き探索部111により反復処理のための変数iteを1に初期化して、反復処理を開始し、小ブロックbl0と同サイズのデジタルフィルタを不一致フィルタとし、最初の反復処理の不一致フィルタaf[0]にすべて1(不一致画素)を代入する(ステップS301)。
First, the
図4は、最初の反復処理の不一致フィルタaf[0]の状態を示す説明図である。図4に示すように、ステップS301では、不一致フィルタaf[0]にすべて1(不一致画素)が設定される。なお、不一致フィルタaf[α]は反復回数α(ite=α)における不一致フィルタであることを示している。 FIG. 4 is an explanatory diagram showing the state of the mismatch filter af [0] in the first iterative process. As shown in FIG. 4, in step S301, all 1 (mismatched pixels) are set in the mismatch filter af [0]. Note that the mismatch filter af [α] is a mismatch filter at the number of iterations α (ite = α).
不一致フィルタは、小ブロックbl0と同サイズで、0または1を値として有するデジタルフィルタである。図5は、不一致フィルタの内容を示す説明図である。図5に示すように、不一致フィルタには、一致画素については0、不一致画素について1が設定される。 The mismatch filter is a digital filter having the same size as the small block bl0 and having 0 or 1 as a value. FIG. 5 is an explanatory diagram showing the contents of the mismatch filter. As shown in FIG. 5, the mismatch filter is set to 0 for matching pixels and 1 for mismatching pixels.
次に、動き探索部111により動き探索処理を行う。図6は、動き探索処理の概要を示す説明図である。図6に示すように、動き探索部111は、不一致フィルタ[iteー1]の値が1の画素、すなわち不一致領域のみを用いて、補間フレーム上の小ブロックbl0を中心として、幾何学的に対称的な参照フレームp1上の小ブロックbl1と参照フレームp2上の小ブロックbl2の探索をおこない、最も相関度の高い小ブロックの対を探索し、動きベクトルmv[ite]を求める(ステップS302)。
Next, a motion search process is performed by the
図7は、最初の反復時(ite=1)の場合における動きベクトル推定処理の説明図である。最初の反復処理時において、相関度演算の際に、図7に示すように、不一致フィルタaf[0]の値が1の画素のみについて演算をおこなうが、最初の反復時において不一致フィルタaf[0]はブロック内の全画素が1(不一致画素)に設定されているので、ブロック内のすべての画素について相関度演算が行われることになる。 FIG. 7 is an explanatory diagram of motion vector estimation processing in the case of the first iteration (ite = 1). At the time of the first iteration, when calculating the degree of correlation, as shown in FIG. 7, the calculation is performed only for the pixels whose value of the mismatch filter af [0] is 1, but at the first iteration, the mismatch filter af [0 ], Since all the pixels in the block are set to 1 (mismatched pixels), the correlation calculation is performed for all the pixels in the block.
図8は、二回目以降の反復時(ite>1)の場合における動きベクトル推定処理の説明図である。二回目以降の反復処理時においては、相関度演算の際に、図8に示すように、不一致フィルタaf[ite−1]の値が1の画素のみについて相関度演算が行われる。 FIG. 8 is an explanatory diagram of motion vector estimation processing in the second and subsequent iterations (ite> 1). In the second and subsequent iterations, during the correlation calculation, as shown in FIG. 8, the correlation calculation is performed only for the pixel whose value of the mismatch filter af [ite−1] is 1.
次に、動き探索部111によって、動きベクトルmv[Ite]によって定まる、参照フレームp1上の小ブロックbl1と、参照フレームp2上の小ブロックbl2を求める(ステップS303)。
Next, the
次に、領域分割部112は、小ブロックbl1と小ブロックbl2から一致判定をおこない、不一致フィルタaf[ite]を求める(ステップS304)。なお、かかる一致判定処理については後述する。
Next, the
次に、領域分割部112は、不一致フィルタaf[ite]と不一致フィルタaf[ite−1]の論理積を求めて、求めた論理積を不一致フィルタaf[ite]に設定する(ステップS305)。これにより、一致判定処理で得られた不一致フィルタの値が不一致フィルタaf[ite]に反映されることになる。
Next, the
そして、動き探索部111は、変数iteを1だけ増加して(ステップS306)、ステップS302からS306までの動き探索処理および一致判定処理を繰り返し実行し、変数iteが任意の整数であるnを越えた時点で(ステップS307)、ステップS302からS306までの処理の反復を終了する。これにより、動きベクトルグループmvg(動きベクトルmv[i](i=1...n))と、不一致フィルタグループafg(不一致フィルタaf[i](i=1...n))が出力される。
Then, the
次に、ステップS304における一致判定処理について説明する。図9は、一致判定処理の手順を示すフローチャートである。 Next, the matching determination process in step S304 will be described. FIG. 9 is a flowchart showing the procedure of the coincidence determination process.
本実施の形態では、階層的にMAP推定問題を解法することにより一致判定をおこなっている。まず、領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、小ブロックbl1からブロック層bl_lay1を生成し、小ブロックbl2からブロック層bl_lay2を生成する(ステップS901)。かかる階層生成処理については後述する。
In the present embodiment, the matching is determined by solving the MAP estimation problem hierarchically. First, the
次に、領域分割部112は、ループ変数をiとして、階層を順に再帰的に下るループを開始し、ループ変数iの初期値として0を設定する(ステップS902)。
Next, the
次に、領域分割部112は、ブロック層bl_lay1[i+1]と同サイズの不一致フィルタafを生成し、生成した不一致フィルタafの値にすべて1(不一致画素)を設定し(ステップS903)、ブロック内の走査を開始する(ステップS904)。ここで、走査インデックスを(x、y)とする。
Next, the
次いで、探索領域についての組み合わせ探索ループを開始する(ステップS905)。図10は、探索領域についての全組み合わせを示す探索領域パターンの例を示す説明図である。図10において斜線部分が探索領域であることを示している。 Next, a combination search loop for the search area is started (step S905). FIG. 10 is an explanatory diagram illustrating an example of a search area pattern indicating all combinations of search areas. In FIG. 10, the shaded area indicates the search area.
そして、領域分割部112は、図10に示す探索領域パターンの中からまだ選択されていない任意の探索領域パターンを一つ選択して組み合わせブロックを生成する(ステップS906)。そして、組み合わせブロックを不一致フィルタafにおける(2x、2y)の位置に貼付して不一致フィルタaf_tmpを生成する(ステップS907)。
Then, the
次に、事前確率算出部114により、不一致フィルタaf_tmpを用いて事前確率p(x)を算出する(ステップS908)。ここで、事前確率p(x)の算出処理については後述する。
Next, the prior
そして、尤度算出部113によって、不一致フィルタaf_tmp、ブロック層bl_lay1[i+1]、ブロック層bl_lay2[i+1]を用いて尤度p(y|x)を算出する(ステップS909)。ここで、尤度p(y|x)の算出処理については後述する。
Then, the
次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から事後確率p(x|y)を算出する(ステップS910)。
Next, the posterior
次に、判断部116によって、事後確率pの最大値を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする(ステップS911)。具体的には、判断部116は、前回までの組み合わせループ内において、ステップS906で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)の最大値より、今回の組み合わせループ内で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)が大きいか否かを判断して大きい場合に、今回の事前確率p(x|y)を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする。
Next, the
そして、探索領域の全組み合わせについて探索したか否か、すなわち図10に示す全ての探索領域パターンを選択したか否かを判断し(ステップS912)、全組み合わせを探索していない場合には(ステップS912:No)、ステップS905からS911までの処理を繰り返して実行する。 Then, it is determined whether or not all combinations of search areas have been searched, that is, whether or not all search area patterns shown in FIG. 10 have been selected (step S912). (S912: No), the processing from step S905 to S911 is repeatedly executed.
一方、ステップS912において、探索領域の全組み合わせを探索したと判断された場合には(ステップS912:Yes)、現在の不一致フィルタaf_maxを不一致フィルタafと設定する(ステップS913)。 On the other hand, if it is determined in step S912 that all combinations of search areas have been searched (step S912: Yes), the current mismatch filter af_max is set as the mismatch filter af (step S913).
そして、ブロック内をすべて走査するまでステップS904からS913までの処理を繰り返し実行し(ステップS914:No)、ブロック内をすべて走査したら(ステップS914:Yes)、ループ変数iをi=i+1に更新する(ステップS915)。そして、ループ変数iが階層数n以上になるまで、ステップS902からS915までの処理を繰り返し(ステップS916:No)、ループ変数iが階層数n以上になったら(ステップS916:Yes)、処理を終了する。これにより、事後確率p(x|y)の最大を与える不一致フィルタafが出力される。 Then, the processes from step S904 to S913 are repeatedly executed until the entire block is scanned (step S914: No). When the entire block is scanned (step S914: Yes), the loop variable i is updated to i = i + 1. (Step S915). Then, the processing from step S902 to S915 is repeated until the loop variable i becomes greater than or equal to the number n of layers (step S916: No), and when the loop variable i becomes greater than or equal to the number n of layers (step S916: Yes), the processing is performed. finish. Thereby, the mismatch filter af which gives the maximum of the posterior probability p (x | y) is output.
次に、ステップS901における階層生成処理について説明する。図11は、階層生成処理の手順を示すフローチャートである。ここでは、入力された小ブロックlblから、空間方向にサンプリングされた階層状のブロック層lbl_layを生成する処理について説明する。かかる階層生成処理は、図9の一致判定処理におけるステップS901において、小ブロックbl1、小ブロックbl2のそれぞれに対して実行され、小ブロックbl1のブロック層、小ブロックbl2のブロック層が生成されることになる。ここでは、一般的に、小ブロックlblを入力して、小ブロックlblからブロック層lbl_layを生成する処理について説明する。 Next, the hierarchy generation process in step S901 will be described. FIG. 11 is a flowchart illustrating the procedure of the hierarchy generation process. Here, a process of generating a hierarchical block layer lbl_lay sampled in the spatial direction from the input small block lbl will be described. Such a hierarchy generation process is executed for each of the small block bl1 and the small block bl2 in step S901 in the coincidence determination process of FIG. 9, and the block layer of the small block bl1 and the block layer of the small block bl2 are generated. become. Here, a process of generating a block layer lbl_lay from the small block lbl by inputting the small block lbl will be generally described.
まず、領域分割部112は、小ブロックlblの縦サイズと横サイズから空間方向へのサンプリング回数nを算出する(ステップS1101)。例えば、16×16サイズのブロックの場合には、縦横とも4回ずつ1/2スケールのサンプリングを繰り返し適用すると(n=4)、1×1の最小ブロックとなる。32×16であれば、縦横とも4回ずつ1/2スケールのサンプリングを適用すると(n=4)、2×1の最小ブロックとなる。
First, the
次に、領域分割部112は、n階ブロック層lbl_layのn+1配列を確保する(ステップS1102)。この配列は、各層の小ブロックを格納する領域として使用される。そして、領域分割部112は、ブロック層lbl_lay[n]に小ブロックlblを格納する(ステップS1103)。
Next, the
次に、領域分割部112は、ループ変数iの初期値をnとして、階層ループを開始する(ステップS1104)。そして、ブロック層lbl_lay[i]を、空間方向に1回サンプリングし、lbl_lay[i−1]に格納する(ステップS1105)。ここで、空間方向のサンプリングは任意のサンプリングを用いても良いが、例えば、周囲4点の平均をサンプリング点とするサンプリングを用いることができる。このサンプリングをおこなうと、スケールは1/2となる。
Next, the
次に、領域分割部112は、ループ変数iをi−1に更新する(ステップS1106)。そして、ループ変数iが0よりも小さいか否かを判断し(ステップS1107)、0以上である場合には(ステップS1107:No)、ステップS1104からS1106までの処理を繰り返し実行する。一方、ループ変数iが0よりも小さい場合には(ステップS1107:Yes)、階層生成処理を終了する。これにより、ブロック層lbl_layが生成されて出力される。ステップS901の処理により、小ブロックbl1からブロック層bl_lay1が生成され、小ブロックbl2からブロック層bl_lay2が生成されることになる。
Next, the
次に、図9の一致判定処理のステップS908における事前確率算出部114による事前確率p(x)の算出処理について説明する。図12は、事前確率算出部114による事前確率の算出処理の手順を示すフローチャートである。
Next, the calculation process of the prior probability p (x) by the prior
事前確率算出部114は、まず、不一致フィルタaf_tmpを入力して、変数a,n,dをすべて0に初期化し(ステップS1201)、ブロック内の隣接画素の2点であるクリークを走査する(ステップS1202)。
Prior
次に、対象クリーク内の不一致フィルタaf_tmpの値がすべて0(一致画素)か否かを調べる(ステップS1203)。そして、対象クリーク内の不一致フィルタaf_tmpの値がすべて0(一致画素)である場合には(ステップS1203:Yes)、変数aを1だけインクリメントする(ステップS1205)。 Next, it is checked whether or not the values of the mismatch filter af_tmp in the target clique are all 0 (matching pixels) (step S1203). If the values of the mismatch filter af_tmp in the target clique are all 0 (matching pixel) (step S1203: Yes), the variable a is incremented by 1 (step S1205).
一方、ステップS1203において、対象クリーク内の不一致フィルタaf_tmpのいずれかの値が0(一致画素)でない場合には(ステップS1203:No)、対象クリーク内の不一致フィルタaf_tmpの値がすべて1(不一致画素)であるか否かを調べる(ステップS1204)。そして、対象クリーク内の不一致フィルタaf_tmpの値がすべて1(不一致画素)である場合には(ステップS1204:Yes)、変数nを1だけインクリメントする(ステップS1206)。 On the other hand, if any value of the mismatch filter af_tmp in the target clique is not 0 (match pixel) in step S1203 (step S1203: No), all the values of the mismatch filter af_tmp in the target clique are 1 (mismatch pixels). ) Is checked (step S1204). If the values of the mismatch filter af_tmp in the target clique are all 1 (mismatch pixels) (step S1204: Yes), the variable n is incremented by 1 (step S1206).
一方、ステップS1204において、対象クリーク内の不一致フィルタaf_tmpのいずれかの値が1(不一致画素)でない場合には(ステップS1204:No)、変数dを1だけ増加する(ステップS1207)。 On the other hand, if any value of the mismatch filter af_tmp in the target clique is not 1 (mismatch pixel) in step S1204 (step S1204: No), the variable d is increased by 1 (step S1207).
そして、すべてのクリークを走査したか否かを判断し(ステップS1208)、すべて走査していない場合には(ステップS1208:No)、ステップS1202からS1207までの処理を繰り返し実行する。一方、すべてのクリークを走査した場合には(ステップS1208:Yes)、数6式で示されるsumを算出する(ステップS1209)。 Then, it is determined whether or not all cliques have been scanned (step S1208). If not all have been scanned (step S1208: No), the processing from step S1202 to S1207 is repeatedly executed. On the other hand, when all the cliques have been scanned (step S1208: Yes), sum represented by Equation 6 is calculated (step S1209).
次に、ステップ1209で算出されたsumを用いて、数7式により事前確率p(x)を算出する(ステップS1210)。 Next, a priori probability p (x) is calculated by Equation 7 using the sum calculated in step 1209 (step S1210).
かかる数6式および数7式は、数2式で定式化された事前確率を具体的に求める算出式である。これにより、事前確率が算出されて出力される。 These Formula 6 and Formula 7 are calculation formulas for specifically obtaining the prior probabilities formulated by Formula 2. Thereby, the prior probability is calculated and output.
次に、図9の一致判定処理のステップS909における尤度算出部113による尤度p(y|x)の算出処理について説明する。図13は、尤度算出部113による尤度の算出処理の手順を示すフローチャートである。
Next, the likelihood p (y | x) calculation process by the
まず、尤度算出部113は、ブロックbl_lay1,bl_lay2および不一致フィルタaf_tmpを入力し、ブロックbl_lay1とbl_lay2の差分ブロックdblを算出する(ステップS1301)。そして、不一致フィルタaf_tmpが0の画素(一致画素)のみに対して、(差分ブロックdblの2乗)/2の総和sumを求める(ステップS1302)。そして、数8式により尤度p(y|x)を算出し(ステップS1303)、出力する。
First, the
次に、図2のステップS204における動き補償部120による動き補償処理について説明する。図14は、動き補償部120による動き補償処理の手順を示すフローチャートである。
Next, the motion compensation process by the
動き補償処理では、動き推定処理で出力された動きベクトルグループmvg(動きベクトルmv[i](i=1...n))、不一致フィルタグループafg(不一致フィルタaf[i](i=1...n))、参照フレームp1,参照フレームp2から動き補償をおこない、補間フレームを生成する。 In the motion compensation process, the motion vector group mvg (motion vector mv [i] (i = 1... N)) and mismatch filter group afg (mismatch filter af [i] (i = 1. N)), motion compensation is performed from the reference frame p1 and the reference frame p2, and an interpolation frame is generated.
まず、動き補償部120は、反復処理のための変数iteを初期値1に設定する(ステップS1401)。そして、補間フレーム上の小ブロックbl0を中心として、動きベクトルグループmvgの動きベクトルmv[ite]の点対称位置によって定まる参照フレームp1上の画像ブロックpb1を求め(ステップS1402)、動きベクトルmv[ite]によって定まる参照フレームp2上の画像ブロックpb2を求める(ステップS1403)。そして、動き補償部120は、補間フレーム上の小ブロックbl0の位置を求める(ステップS1404)。
First, the
そして、動き補償部120は、ブロック内の画素の走査を開始し(ステップS1405)、画像ブロックpb1の対象画素位置における画素と、画像ブロックpb2の画素の平均値を求める(ステップS1406)。
Then, the
次に、動き補償部120は、不一致フィルタ[ite]の値が0か否か、すなわち、一致画素か否かを調べる(ステップS1407)。そして、不一致フィルタ[ite]の値が0である場合、すなわち一致画素の場合には(ステップS1407:Yes)、上記平均画素を補間フレーム上の対象画素位置にコピーする(ステップS1408)。一方、ステップS1407において、不一致フィルタ[ite]の値が1の場合、すなわち不一致画素の場合には(ステップS1407:No)、上記平均画素のコピーを行わない。
Next, the
ステップS1407、S1408の処理は、ブロック内の全画素を走査するまで繰り返し実行される(ステップS1409)。これにより、一致領域のみに対して動き補償処理がなされ補間フレームが生成されることになる。一方、不一致領域の場合には、上記平均画素の補間フレームの小ブロックbl0へのコピーは行われないが、動き補償処理終了後、動き推定処理(図3)において、再帰的に動きベクトル(第2の動きベクトル)が求められることになる。 The processes in steps S1407 and S1408 are repeatedly executed until all the pixels in the block are scanned (step S1409). As a result, the motion compensation process is performed only on the matching region, and an interpolation frame is generated. On the other hand, in the case of the mismatch region, the average pixel interpolation frame is not copied to the small block bl0. However, after the motion compensation process is completed, the motion estimation process (FIG. 3) is performed recursively. 2 motion vectors).
ブロック内の全画素の走査が終了したら(ステップS1409:Yes)、動き補償部120は、反復処理のための変数iteを1だけ増加して(ステップS1410)、変数iteがn(任意の整数)を越えたか否かを判断する(ステップS1411)。そして、変数iteがnを越えるまで、ステップS1402からS1410までの処理を繰り返し実行する。
When the scanning of all the pixels in the block is completed (step S1409: Yes), the
図2のステップS203の動き推定処理と上述した動き補償処理は、図2のステップS201で分割した小ブロック0のすべてを走査するまで繰り返し実行され、小ブロック0の走査を終了したら終了し、補間フレームが生成されることになる。
The motion estimation process in step S203 in FIG. 2 and the motion compensation process described above are repeatedly executed until all the
次に、本実施の形態にかかる補間画像生成装置100による一致判定の結果と従来の手法による一致判定の結果を比較して示す。図15は、ブロック内で一致領域を変化させた状態を示す説明図である。図15に示すように、x軸とy軸で走査しながら一致領域を変更しその時の事後確率を集計した。図16は、左半分の領域が一致領域となるノイズのない画像の2つのブロックの例を示す説明図である。従って、事後確率分布は理想的には左半分が一致領域となったときに最大となる。
Next, the result of coincidence determination by the interpolated
まず、図16に示す画像において従来の手法による一致判定、すなわち単純にブロック内の相対位置が等しい画素同士の絶対値差分を取り、その絶対値差分値が閾値(例えば10)より小さければ一致領域とする一致判定を行って補間フレームを生成した。図17は、従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。図17に示すように、ノイズが全く存在しない画像の場合には従来の一致判定の手法でも補間画像が正常に生成される。 First, in the image shown in FIG. 16, matching determination by the conventional method, that is, simply taking an absolute value difference between pixels having the same relative position in the block, and a matching area if the absolute value difference value is smaller than a threshold value (for example, 10). The coincidence determination is performed to generate an interpolation frame. FIG. 17 is an explanatory diagram showing an interpolated frame image generated using a conventional matching determination method. As shown in FIG. 17, in the case of an image having no noise at all, an interpolation image is normally generated even by the conventional matching determination method.
図18は、図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。図18に示すように、事後確率分布は、左半分が一致領域のときに事後確率p(x|y)が最大となっており正確に動作していることが分かる。
FIG. 18 is an explanatory diagram showing the distribution of posterior probabilities obtained by matching determination by the interpolated
図19は、左半分の領域が一致領域となるノイズが存在する画像の2つのブロックの例を示す説明図である。図19に示す画像において従来の手法による一致判定を行って補間フレームを生成した。図20は、従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。従来の手法では、画素同士の絶対値差分値が一定の閾値より小さい場合に一致領域とする一致判定を行っているため、ノイズ成分に対応することが出来ず、このため図20に示すように補間フレームにごま塩雑音が発生していることがわかる。 FIG. 19 is an explanatory diagram illustrating an example of two blocks of an image having noise in which the left half region is a matching region. The image shown in FIG. 19 is subjected to matching determination by a conventional method to generate an interpolation frame. FIG. 20 is an explanatory diagram showing an image of an interpolation frame generated using a conventional matching determination method. In the conventional method, when the absolute value difference value between the pixels is smaller than a certain threshold value, the matching determination as the matching region is performed, so that it is not possible to deal with the noise component, and as shown in FIG. It can be seen that sesame salt noise is generated in the interpolation frame.
図21は、図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。図21に示すように、事後確率分布は、左半分が一致領域のときに事後確率p(x|y)が最大となっており、ノイズが含まれる画像に対しても正確に動作していることがわかる。
FIG. 21 is an explanatory diagram showing distribution of posterior probabilities obtained by matching determination by the interpolated
このように実施の形態1にかかる補間画像生成装置では、ベイズ決定理論を用いて一致判定問題をMAP推定問題として定式化し、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。 As described above, in the interpolated image generating apparatus according to the first embodiment, the coincidence determination problem is formulated as a MAP estimation problem using Bayesian decision theory, and it is not necessary to perform the coincidence determination for each pixel, and the matching is performed with a more probable method. Since the area and the non-matching area can be divided, noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.
(実施の形態2)
実施の形態1にかかる補間画像生成装置100では、一致判定処理において入力される小ブロックをまず階層生成処理(図11)によって階層化してから階層ブロックごとに一致判定、事後確率の算出を行っているが、この実施の形態2にかかる補間画像生成装置は、一致判定の処理を行いながら階層化を行うものである。
(Embodiment 2)
In the interpolated
本実施の形態にかかる補間画像生成装置の機能的構成は実施の形態1の補間画像装置と同様である。また、補間画像生成の全体処理、動き推定処理、動き補償処理については、実施の形態1の全体処理(図2)、動き推定処理(図3)、動き補償処理(図14)とそれぞれ同様に行われる。本実施の形態の補間画像生成装置では、図3に示す動き推定処理のステップ304における一致判定の処理が実施の形態1と異なっている。 The functional configuration of the interpolated image generating apparatus according to the present embodiment is the same as that of the interpolated image apparatus of the first embodiment. Also, the overall process of interpolation image generation, the motion estimation process, and the motion compensation process are the same as the overall process (FIG. 2), the motion estimation process (FIG. 3), and the motion compensation process (FIG. 14) of the first embodiment, respectively. Done. In the interpolated image generation apparatus according to the present embodiment, the matching determination process in step 304 of the motion estimation process shown in FIG.
図22は、実施の形態2における一致判定処理の手順を示すフローチャートである。まず、領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、ループ変数をiとして、階層を順に再帰的に下っていくループを開始し、ループ変数の初期値として1を設定する(ステップS2201)。そして、領域分割部112は、小ブロックbl1と同サイズの不一致フィルタafを用意し、不一致フィルタafにすべて1を設定する(ステップS2202)。
FIG. 22 is a flowchart showing a procedure of matching determination processing according to the second embodiment. First, the
次に、領域分割部112は、ブロック内の走査を開始し、走査インデックスを(x、y)とする(ステップS2203)。ここで、走査インデックス(x、y)の範囲は(0,0)<=(x、y)<(2(i-1),2(i-1))とする。そして、領域分割部112は、組み合わせ探索ループを開始する(ステップS2204)。ここで、探索領域の組み合わせは、実施の形態1と同様に、図10に示す探索領域パターンと同様のものである。
Next, the
次に、領域分割部112は、図10の中から一つの探索領域パターンを選択して組み合わせブロックを生成し(ステップS2205)、この組み合わせブロックを縦横2(n-i-1)倍にスケール変換する(ステップS2206)。そして、sizeを数9式により算出する(ステップS2207)。
Next, the
次に、領域分割部112は、組み合わせブロックを不一致フィルタafにおける(x*size,y*size)の位置に貼付して、不一致フィルタaf_tmpを生成する(ステップS2208)。
Next, the
次に、事前確率算出部114により、不一致フィルタaf_tmpを用いて事前確率p(x)を算出する(ステップS2209)。ここで、事前確率p(x)の算出処理については実施の形態1の事前確率算出処理(図12)と同様に行われる。
Next, the prior
そして、尤度算出部113によって、不一致フィルタaf_tmp、ブロック層bl_lay1[i+1]、ブロック層bl_lay2[i+1]を用いて尤度p(y|x)を算出する(ステップS2210)。ここで、尤度p(y|x)の算出処理については実施の形態1の尤度算出処理(図13)と同様に行われる。
The
次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から事後確率p(x|y)を算出する(ステップS2211)。
Next, the posterior
次に、判断部116によって、事後確率pの最大値を与えるaf_tmpを不一致フィルタaf_maxとする(ステップS2212)。具体的には、判断部116は、実施の形態1と同様に、前回までの組み合わせループ内において、ステップS2205で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)の最大値より、今回の組み合わせループ内で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)が大きいか否かを判断して大きい場合に、今回の事前確率p(x|y)を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする。
Next, the
そして、探索領域の全組み合わせを探索したか否かを判断し(ステップS2213)、全組み合わせを探索していない場合には(ステップS2213:No)、ステップS2204からS2212までの処理を繰り返して実行する。 Then, it is determined whether or not all combinations in the search area have been searched (step S2213). If all combinations have not been searched (step S2213: No), the processes from step S2204 to S2212 are repeatedly executed. .
一方、ステップS2213において、探索領域の全組み合わせを探索したと判断された場合には(ステップS2213:Yes)、判断部116は、不一致フィルタaf_maxを不一致フィルタafと設定する(ステップS2214)。
On the other hand, if it is determined in step S2213 that all combinations of search areas have been searched (step S2213: Yes), the
そして、ブロック内をすべて走査するまでステップS2203からS2214までの処理を繰り返し実行し(ステップS2215:No)、ブロック内をすべて走査したら(ステップS2215:Yes)、ループ変数iをi=i+1に更新する(ステップS2216)。そして、ループ変数iが階層数n以上になるまで、ステップS2201からS2216までの処理を繰り返し(ステップS2217:No)、ループ変数iが階層数n以上になったら(ステップS2217:Yes)、処理を終了する。これにより、不一致フィルタafが出力される。 Then, the processes from step S2203 to S2214 are repeatedly executed until the entire block is scanned (step S2215: No). When the entire block is scanned (step S2215: Yes), the loop variable i is updated to i = i + 1. (Step S2216). Then, the processing from step S2201 to S2216 is repeated until the loop variable i becomes greater than or equal to the number of layers n (step S2217: No), and when the loop variable i becomes greater than or equal to the number of layers n (step S2217: Yes), the processing is performed. finish. Thereby, the mismatch filter af is output.
このように実施の形態2にかかる補間画像生成装置では、一致判定処理を行いながら小ブロックの階層化を行っているので、別途、予め階層生成処理を必要がなく、一致判定の処理を迅速に行うことができる。 As described above, in the interpolated image generating apparatus according to the second embodiment, since the small blocks are hierarchized while performing the coincidence determination process, there is no need for a separate layer generation process in advance, and the coincidence determination process is quickly performed. It can be carried out.
また、実施の形態2にかかる補間画像生成装置では、ベイズ決定理論を用いて一致判定問題をMAP推定問題として定式化し、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。 Further, in the interpolated image generation apparatus according to the second embodiment, the coincidence determination problem is formulated as a MAP estimation problem using Bayesian decision theory, so that it is not necessary to perform the coincidence determination for each pixel, and a more probable method is used for the coincidence region. The non-coincidence area can be divided, so that noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.
(実施の形態3)
実施の形態1および2にかかる補間画像生成装置では、一致判定処理において階層的な不一致フィルタを用いたが、この実施の形態3にかかる補間画像生成装置は、不一致フィルタをランダムに与え、統計物理学等におけるメトロポリスアルゴリズムを利用して行って一致判定処理を行うものである。
(Embodiment 3)
In the interpolated image generation apparatus according to the first and second embodiments, the hierarchical mismatch filter is used in the match determination process. However, the interpolated image generation apparatus according to the third embodiment randomly applies the mismatch filter, and statistical physics. This is performed by using a metropolis algorithm in academia or the like to perform a match determination process.
本実施の形態にかかる補間画像生成装置の機能的構成は実施の形態1の補間画像装置と同様である。また、補間画像生成の全体処理についても実施の形態1の全体処理(図2)と同様に行われる。本実施の形態の補間画像生成装置では、図2に示す全体処理のステップ304における一致判定の処理において、事後確率p(x|y)の最大値の算出手法が実施の形態1と異なっている。 The functional configuration of the interpolated image generating apparatus according to the present embodiment is the same as that of the interpolated image apparatus of the first embodiment. Further, the entire process of generating an interpolated image is performed in the same manner as the entire process of the first embodiment (FIG. 2). In the interpolated image generation apparatus according to the present embodiment, the method for calculating the maximum value of the posterior probability p (x | y) is different from that in the first embodiment in the matching determination process in step 304 of the overall process shown in FIG. .
本実施の形態における一致判定処理で使用されるメトロポリスアルゴリズム(A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995、p31参照)では、ランダムに与えられた不一致フィルタに対して、事後確率を計算し、アニーリング温度に従って事後確率を採択するかどうかが決定される。アニーリング温度は、アニーリングスケジュールに従って設定される。アニーリング温度が高い場合には、事後確率が低い場合でも採択する可能性があり、それによりローカルマキシマムを脱出できる。アニーリング温度が低くなると、事後確率が低いものが採択される可能性は小さくなり、徐々にグローバルマキシマムへと収束する。 In the metropolis algorithm (see A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995, p31) used in the coincidence determination processing in this embodiment, the posterior probabilities are obtained for a random mismatch filter. And whether to adopt the posterior probability according to the annealing temperature is determined. The annealing temperature is set according to the annealing schedule. If the annealing temperature is high, it may be adopted even if the posterior probability is low, so that the local maximum can be escaped. When the annealing temperature is lowered, the possibility of adopting a low posterior probability is reduced and gradually converges to the global maximum.
図23は、実施の形態3における一致判定処理の手順を示すフローチャートである。領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、小ブロックbl1と小ブロックbl2から一致判定を行って不一致フィルタafを得る(ステップS2301)。そして、アニーリング温度Tを初期温度T0で初期化し、ある温度における反復回数MをM0で初期化し、事後確率の最大値を与える不一致フィルタaf_maxを入力した不一致フィルタafとする(ステップS2302)。
FIG. 23 is a flowchart illustrating a procedure of matching determination processing according to the third embodiment. The
次に、事前確率算出部114により、不一致フィルタafを用いて事前確率p(x)を算出する(ステップS2303)。ここで、事前確率p(x)の算出処理については実施の形態1の事前確率算出処理(図12)と同様に行われる。
Next, the prior
そして、尤度算出部113によって、不一致フィルタaf、小ブロックbl1、小ブロックbl2を用いて尤度p(y|x)を算出する(ステップS2304)。ここで、尤度p(y|x)の算出処理については実施の形態1の尤度算出処理(図13)と同様に行われる。
Then, the
次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から現在の事後確率p(x|y)であるCurPを算出し、最大の事後確率p(x|y)であるMaxPにCurPを設定する(ステップS2305)。
Next, the posterior
次に、領域分割部112は、不一致フィルタafに摂動を加えて摂動解としての不一致フィルタaf_newを生成する(ステップS2306)。ここで、摂動としては、例えば、ランダムに4ピクセルを選択し、選択された4ピクセルの値を反転させるなどが考えられる。
Next, the
そして、事前確率算出部114により、生成された不一致フィルタaf_newを用いて事前確率p(x)を算出する(ステップS2307)。また 尤度算出部113によって、不一致フィルタaf_new、小ブロックbl1、小ブロックbl2を用いて尤度p(y|x)を算出する(ステップS2308)。そして、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から次の状態の事後確率p(x|y)であるNewPを算出する(ステップS2309)。そして、判断部116は、次の状態の事後確率p(x|y)であるNewPと現在の事後確率p(x|y)であるCurPの差ΔCostを求め(ステップS2310)、差ΔCostが0より大きいか否かを判断する(ステップS2311)。
Then, the prior
そして、次の状態の事後確率NewPと現在の事後確率CurPの差ΔCostが0より大きい場合には(ステップS2311:Yes)、判断部116は、現在の事後確率CurPに次の状態の事後確率NewPを設定し、不一致フィルタafに不一致フィルタaf_newを設定する(ステップS2312)。そして、判断部116は、次の状態の事後確率NewPが、最大の事後確率MaxPより大きいか否かを判断する(ステップS2313)。
When the difference ΔCost between the posterior probability NewP of the next state and the current posterior probability CurP is greater than 0 (step S2311: Yes), the
そして、次の状態の事後確率NewPが、最大の事後確率MaxPより大きい場合には(ステップS2313:Yes)、判断部116は、最大の事後確率MaxPに次の状態の事後確率NewPを設定し、事後確率の最大値を与える不一致フィルタaf_maxに不一致フィルタaf_newを設定する(ステップS2314)。
When the posterior probability NewP of the next state is larger than the maximum posterior probability MaxP (step S2313: Yes), the
一方、ステップS2313において、次の状態の事後確率NewPが、最大の事後確率MaxP以下の場合には(ステップS2313:No)、最大の事後確率MaxPと事後確率の最大値を与える不一致フィルタaf_maxは変更されない。 On the other hand, in step S2313, when the posterior probability NewP of the next state is equal to or less than the maximum posterior probability MaxP (step S2313: No), the mismatch filter af_max that gives the maximum value of the maximum posterior probability MaxP and the posterior probability is changed. Not.
ステップS2311において、次の状態の事後確率NewPと現在の事後確率CurPの差ΔCostが0以下である場合には(ステップS2311:No)、判断部116は、現在の事後確率CurPと不一致フィルタafは変更せず、0から1までの一様乱数を発生させ、この一様乱数がexp(ΔCost/T)より小さいか否かを調べる(ステップS2315)。そして、一様乱数がexp(ΔCost/T)より小さい場合には(ステップS2315:Yes)、判断部116は、現在の事後確率CurPに次の状態の事後確率NewPを設定し、不一致フィルタafに不一致フィルタaf_newを設定する(ステップS2316)。
In step S2311, when the difference ΔCost between the posterior probability NewP of the next state and the current posterior probability CurP is equal to or smaller than 0 (step S2311: No), the
一方、ステップS2315において、一様乱数がexp(ΔCost/T)以上である場合には(ステップS2315:No)、現在の事後確率CurPと不一致フィルタafは変更されない。 On the other hand, if the uniform random number is not less than exp (ΔCost / T) in step S2315 (step S2315: No), the current posterior probability CurP and the mismatch filter af are not changed.
次に、反復回数Mを1だけデクリメントし、Mが0になったか否かを調べる(ステップS2317)。そして、反復回数Mが0になっていない場合には(ステップS2317:No)、ステップS2306からS2316までの処理を繰り返し実行する。一方、ステップS2317において、反復回数Mが0になった場合には(ステップS2317:Yes)、判断部116は、時間Timeに反復回数Mを加算し、温度Tに減少率αを乗じ、さらに反復回数Mに上昇率βを乗じて、それぞれ時間Time、温度T、反復回数Mを更新する(ステップS2318)。ここで、温度Tの減少率αは0.8から1.0の間の値とする。また、Mの上昇率βは1.0以上の値とする。
Next, the iteration number M is decremented by 1, and it is checked whether or not M has become 0 (step S2317). If the number of iterations M is not 0 (step S2317: No), the processes from step S2306 to S2316 are repeatedly executed. On the other hand, when the number of iterations M becomes 0 in step S2317 (step S2317: Yes), the
そして、判断部116は、時間Timeが最大時間TimeMaxを超えたか否かを判断して(ステップS2319)、最大時間TimeMaxを超えていない間は(ステップS2319:No)、ステップS2306からS2318までの処理を繰り返し実行する。一方、ステップS2319において、時間Timeが最大時間TimeMaxを超えた場合には(ステップS2319:Yes)、処理を終了する。このような処理により、事後確率p(x|y)を最大値とする不一致フィルタaf_maxが出力される。
Then, the
このように本実施の形態にかかる補間画像生成装置では、不一致フィルタをランダムに与え、統計物理学等におけるメトロポリスアルゴリズムを利用して行って判定処理を行っているので、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。 As described above, in the interpolated image generating apparatus according to the present embodiment, the mismatch filter is randomly given and the determination process is performed by using the metropolis algorithm in statistical physics or the like. Since the area and the non-matching area can be divided, noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.
実施の形態1〜3にかかる補間画像生成装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。 The interpolated image generation apparatus according to the first to third embodiments includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, a display device, and the like. The display device and an input device such as a keyboard and a mouse are provided, and a hardware configuration using a normal computer is employed.
実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD ( The program is recorded on a computer-readable recording medium such as Digital Versatile Disk).
また、実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の〜装置で実行される補間画像生成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments is stored on a computer connected to a network such as the Internet and is provided by being downloaded via the network. You may do it. Further, the interpolation image generation program executed by the apparatus of this embodiment may be provided or distributed via a network such as the Internet.
また、実施の形態1〜3にかかる補間画像生成プログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the interpolation image generation program according to the first to third embodiments may be provided by being incorporated in advance in a ROM or the like.
実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムは、上述した各部(動き探索部111、領域分割部112、尤度算出部113、事前確率算出部114、事後確率算出部114、判断部116、動き補償部120)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から補間画像生成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、動き探索部111、領域分割部112、尤度算出部113、事前確率算出部114、事後確率算出部114、判断部116、動き補償部120が主記憶装置上に生成されるようになっている。
The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments includes the above-described units (
110 動き推定部
111 動き探索部
112 領域分割部
113 尤度算出部
114 事前確率算出部
115 事後確率算出部
116 判断部
120 動き補償部
130 フレームメモリ
110
Claims (10)
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手段と、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手段と、
前記動き探索手段によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手段と、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手段と、
前記尤度算出手段によって算出された尤度と、前記事前確率算出手段によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手段と、
前記事後確率算出手段によって算出された前記事後確率が最大値を有する場合に、前記領域分割手段によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手段と、
前記判断手段によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手段と、
を備えたことを特徴とする補間画像生成装置。 An interpolation image generation device that generates an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
Motion search means for obtaining a first motion vector from the first reference image and the second reference image;
Area dividing means for dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search means are located inside the matching area in the second block on the second reference image. Likelihood calculating means for calculating likelihood based on distribution of pixel information;
A prior probability calculating means for calculating a prior probability indicating a spatial distribution probability of the matching region and the mismatch region;
Based on the likelihood calculated by the likelihood calculating means and the prior probability calculated by the prior probability calculating means, a posterior probability indicating the likelihood of division of the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculating means;
Determining means for determining that the matching area and the mismatching area divided by the area dividing means are likely area divisions when the posterior probability calculated by the posterior probability calculating means has a maximum value; ,
When the determination unit determines that the matching area and the mismatching area are likely area divisions, the matching area is calculated from the first reference image, the second reference image, and the first motion vector. Motion compensation means for performing motion compensation based only on the generated image and generating the interpolated image;
An interpolated image generating apparatus comprising:
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索ステップと、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割ステップと、
前記動き探索ステップによって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出ステップと、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出ステップと、
前記尤度算出ステップによって算出された尤度と、前記事前確率算出ステップによって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出ステップと、
前記事後確率算出ステップによって算出された前記事後確率が最大値を有する場合に、前記領域分割ステップによって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断ステップと、
前記判断ステップによって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断すると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償ステップと、
を含むことを特徴とする補間画像生成方法。 An interpolation image generation method for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
A motion search step for obtaining a first motion vector from the first reference image and the second reference image;
An area dividing step of dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search step are located inside the matching area in the second block on the second reference image. A likelihood calculating step for calculating a likelihood based on the distribution of pixel information;
A prior probability calculating step of calculating a prior probability indicating a probability of spatial distribution of the matched region and the mismatched region;
Based on the likelihood calculated by the likelihood calculating step and the prior probability calculated by the prior probability calculating step, a posterior probability indicating the likelihood of dividing the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculation step;
A determination step of determining, when the posterior probability calculated by the posterior probability calculation step has a maximum value, the matching region and the non-matching region divided by the region dividing step are likely region divisions; ,
When it is determined by the determining step that the matching region and the mismatching region are likely region divisions, the first reference image, the second reference image, and the first motion vector A motion compensation step for performing motion compensation based only on the matching region and generating the interpolated image;
A method for generating an interpolated image, comprising:
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手順と、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手順と、
前記動き探索手順によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手順と、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手順と、
前記尤度算出手順によって算出された尤度と、前記事前確率算出手順によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手順と、
前記事後確率算出手順によって算出された前記事後確率が最大値を有する場合に、前記領域分割手順によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手順と、
前記判断手順によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断すると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手順と、
をコンピュータに実行させる補間画像生成プログラム。 An interpolation image generation program for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
A motion search procedure for obtaining a first motion vector from the first reference image and the second reference image;
An area dividing procedure for dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search procedure are located inside the matching area in the second block on the second reference image. A likelihood calculation procedure for calculating a likelihood based on the distribution of pixel information;
A prior probability calculating procedure for calculating a prior probability indicating a probability of a spatial distribution of the matching region and the mismatch region;
Based on the likelihood calculated by the likelihood calculation procedure and the prior probability calculated by the prior probability calculation procedure, a posterior probability indicating the likelihood of division of the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculation procedure;
A determination procedure for determining, when the posterior probability calculated by the posterior probability calculation procedure has a maximum value, that the matching region and the mismatching region divided by the region division procedure are likely region divisions; ,
When it is determined by the determination procedure that the matching region and the mismatching region are likely region divisions, the first reference image, the second reference image, and the first motion vector A motion compensation procedure for performing motion compensation based only on the matching region and generating the interpolated image;
Interpolated image generation program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004282694A JP4220451B2 (en) | 2004-09-28 | 2004-09-28 | Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004282694A JP4220451B2 (en) | 2004-09-28 | 2004-09-28 | Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006101032A true JP2006101032A (en) | 2006-04-13 |
JP4220451B2 JP4220451B2 (en) | 2009-02-04 |
Family
ID=36240451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004282694A Expired - Fee Related JP4220451B2 (en) | 2004-09-28 | 2004-09-28 | Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4220451B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013048465A (en) * | 2006-06-27 | 2013-03-07 | Marvell World Trade Ltd | Systems and methods for motion compensated picture rate converter |
JP2015519027A (en) * | 2012-06-05 | 2015-07-06 | クヮンジュ・インスティテュート・オブ・サイエンス・アンド・テクノロジー | Finite field sparse signal restoration method, finite field sparse signal restoration device, and recording medium on which this method is recorded |
CN113067959A (en) * | 2021-03-16 | 2021-07-02 | 合肥合芯微电子科技有限公司 | Image interpolation method, device and storage medium |
-
2004
- 2004-09-28 JP JP2004282694A patent/JP4220451B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013048465A (en) * | 2006-06-27 | 2013-03-07 | Marvell World Trade Ltd | Systems and methods for motion compensated picture rate converter |
JP2015519027A (en) * | 2012-06-05 | 2015-07-06 | クヮンジュ・インスティテュート・オブ・サイエンス・アンド・テクノロジー | Finite field sparse signal restoration method, finite field sparse signal restoration device, and recording medium on which this method is recorded |
CN113067959A (en) * | 2021-03-16 | 2021-07-02 | 合肥合芯微电子科技有限公司 | Image interpolation method, device and storage medium |
CN113067959B (en) * | 2021-03-16 | 2022-05-03 | 合肥合芯微电子科技有限公司 | Image interpolation method, device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4220451B2 (en) | 2009-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6297825B1 (en) | Temporal smoothing of scene analysis data for image sequence generation | |
CN110728219A (en) | 3D face generation method based on multi-column multi-scale graph convolution neural network | |
CN102572359B (en) | Auto-regressive edge-directed interpolation with backward projection constraint | |
CN113610172B (en) | Neural network model training method and device and sensing data fusion method and device | |
CN115797571A (en) | New visual angle synthesis method of 3D stylized scene | |
Lin et al. | Zig-zag network for semantic segmentation of RGB-D images | |
CN111986105B (en) | Video time sequence consistency enhancing method based on time domain denoising mask | |
CN114842216A (en) | Indoor RGB-D image semantic segmentation method based on wavelet transformation | |
CN114648451A (en) | Intelligent noise reduction | |
Xu et al. | AutoSegNet: An automated neural network for image segmentation | |
Wang et al. | Improved surface reconstruction using high-frequency details | |
CN108986210B (en) | Method and device for reconstructing three-dimensional scene | |
JP2019023798A (en) | Super-resolution device and program | |
JP4220451B2 (en) | Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program | |
Carreau et al. | A spatially adaptive multi-resolution generative algorithm: Application to simulating flood wave propagation | |
CN115812206A (en) | Machine learning for high quality image processing | |
Luhman et al. | High fidelity image synthesis with deep vaes in latent space | |
CN103618904A (en) | Motion estimation method and device based on pixels | |
Liu et al. | Image Inpainting via Tractable Steering of Diffusion Models | |
CN114764746A (en) | Super-resolution method and device for laser radar, electronic device and storage medium | |
CN110490235B (en) | Vehicle object viewpoint prediction and three-dimensional model recovery method and device facing 2D image | |
CN112052863A (en) | Image detection method and device, computer storage medium and electronic equipment | |
Ren et al. | Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization | |
CN108600762B (en) | Progressive video frame generation method combining motion compensation and neural network algorithm | |
Wang | A Markov Model‐Based Fusion Algorithm for Distorted Electronic Technology Archives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131121 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |