JP2006101032A - Interpolation image generating apparatus, interpolation image generating method, and interpolation image generating program - Google Patents

Interpolation image generating apparatus, interpolation image generating method, and interpolation image generating program Download PDF

Info

Publication number
JP2006101032A
JP2006101032A JP2004282694A JP2004282694A JP2006101032A JP 2006101032 A JP2006101032 A JP 2006101032A JP 2004282694 A JP2004282694 A JP 2004282694A JP 2004282694 A JP2004282694 A JP 2004282694A JP 2006101032 A JP2006101032 A JP 2006101032A
Authority
JP
Japan
Prior art keywords
region
area
reference image
likelihood
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004282694A
Other languages
Japanese (ja)
Other versions
JP4220451B2 (en
Inventor
Sunao Mishima
直 三島
Takeshi Ito
伊藤  剛
Masahiro Baba
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004282694A priority Critical patent/JP4220451B2/en
Publication of JP2006101032A publication Critical patent/JP2006101032A/en
Application granted granted Critical
Publication of JP4220451B2 publication Critical patent/JP4220451B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interpolation image generating apparatus or the like capable of reducing noise such as "irregular impulse noise" caused by substantially different pixel values intruded into an interpolation frame. <P>SOLUTION: The interpolation image generating apparatus includes: a likelihood calculation section 113 for calculating a likelihood on the basis of a distribution of pixel information inside a coincident region in a first block on a first reference image determined by a first motion vector and a second block on a second reference image; a prior probability calculation section 114 for calculating a prior probability denoting the probability of a spatial distribution in the coincident region and the non-coincident region; a posterior probability calculation section 115 for calculating a posterior probability denoting the likelihood of the division of the coincident region and the non-coincident region on the basis of the likelihood and the prior probability; a discrimination section 116 for discriminating that the coincident region and the non-coincident region are divided by a most probable region division; and a motion compensation section 120 for applying motion compensation only to the coincident region on the basis of the first and second reference images and the first motion vector so as to generate an interpolation image when the discrimination section 116 discriminates the most probable region division. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成装置、補間画像生成方法および補間画像生成プログラムに関する。   The present invention relates to an interpolation image generation apparatus, an interpolation image generation method, and an interpolation image generation program for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image.

動画像を滑らかに表示するために、動画像のフレーム間に画像を内挿補間するフレーム補間方法が利用される。このフレーム補間方法としては、次のような手法がある。   In order to display a moving image smoothly, a frame interpolation method for interpolating an image between frames of the moving image is used. As the frame interpolation method, there are the following methods.

まず、補間フレームを一様格子の補間対象ブロックに分割し、この補間対象ブロックを中心として幾何対称的に2つの参照フレーム間の相関を算出して動きベクトルを求める。そして、フレーム間の相関、すなわち2つの参照フレーム間の画素値の差分絶対値が一定の閾値以下か否かを判断し、ブロック内で一定の閾値以下の画素の領域を一致領域とし、一定の閾値より大きい画素の領域を不一致領域として、二つの領域に分割する。そして、一致領域には該動きベクトルを割り当て、不一致領域は再帰的に探索をおこない、補間フレームの画像を生成する手法である(例えば、特許文献1参照)。   First, an interpolation frame is divided into interpolation target blocks having a uniform lattice, and a motion vector is obtained by calculating a correlation between two reference frames geometrically symmetrically about the interpolation target block. Then, it is determined whether the correlation between the frames, that is, the absolute value of the difference between the pixel values between the two reference frames is equal to or less than a certain threshold value, and the pixel area within the certain threshold value within the block is regarded as a matching area. A pixel region larger than the threshold is divided into two regions as a mismatch region. Then, the motion vector is assigned to the matching area, and the mismatching area is recursively searched to generate an interpolated frame image (see, for example, Patent Document 1).

この特許文献1の技術によれば、フレームを一致領域と不一致領域に分割して、各領域で異なる手法で動きベクトルを求めているので、補間フレームに重なりや隙間が生じず、ブロック内に複数の動きが存在してもブロック歪みが発生しないという利点がある。   According to the technique disclosed in Patent Document 1, a frame is divided into a matching area and a mismatching area, and motion vectors are obtained by different methods in each area. There is an advantage that block distortion does not occur even if there is a motion of.

特開2004−104666号公報(図15,図16参照)JP 2004-104666 A (see FIGS. 15 and 16)

しかしながら、特許文献1の技術では、一致領域と不一致領域に分割する際に、画素ごとに、2つの参照フレーム間の画素値の差分絶対値を算出し、差分絶対値によって、一致領域に属するか不一致領域に属するかを判定しているため、画面全体に対して非常に微細なレベルでの一致判定を行っている。   However, in the technique of Patent Document 1, when dividing into a matching area and a mismatching area, a pixel value difference absolute value between two reference frames is calculated for each pixel, and whether the pixel belongs to the matching area by the difference absolute value. Since it is determined whether it belongs to the non-matching region, the matching determination is performed at a very fine level for the entire screen.

実際に、動画を大域的なレベルで観察するとフレーム間で非常に近似しているように観察される部分でも、微細な画素レベルではフレーム間で大きく異なっている場合がある。このような場合に、画素レベルの一致判定の結果と、大域的なレベルな一致判定の結果は必ずしも一致しない。   Actually, even when a moving image is observed at a global level, even a portion that is observed to be very close between frames may be greatly different between frames at a fine pixel level. In such a case, the pixel level match determination result and the global level match determination result do not necessarily match.

このため、画素レベルでの一致判定を行って補間フレームを生成した場合には、動画を画面全体から観察したときに、実際の動作とは異なる動作に観察されてしまう場合がある。すなわち、画像にノイズが少ない理想的な場合には、領域分割によりブロック歪みを低減することができるが、ノイズが多い画像の場合には、補間フレームにノイズにより本来と異なる画素値が入ることによって、ごま塩雑音のようなノイズとして視認されてしまうという問題がある。   For this reason, when an interpolation frame is generated by performing coincidence determination at the pixel level, when the moving image is observed from the entire screen, it may be observed as an operation different from the actual operation. In other words, block distortion can be reduced by dividing the area in an ideal case where there is little noise in the image. However, in the case of an image where there is a lot of noise, the pixel value that is different from the original value is entered in the interpolation frame due to the noise. There is a problem of being visually recognized as noise such as sesame salt noise.

本発明は、上記に鑑みてなされたものであって、ごま塩雑音のようなノイズを低減するとともに、ブロック歪みを低減して動画像を滑らかに表示することができる補間画像生成装置、補間画像生成方法および補間画像生成プログラムを提供することである。   The present invention has been made in view of the above, and an interpolation image generation device and an interpolation image generation capable of reducing noise such as sesame salt noise and displaying a moving image smoothly by reducing block distortion A method and an interpolated image generation program are provided.

上述した課題を解決し、目的を達成するために、本発明は、動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成装置であって、前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手段と、前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手段と、前記動き探索手段によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手段と、前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手段と、前記尤度算出手段によって算出された尤度と、前記事前確率算出手段によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手段と、前記事後確率算出手段によって算出された前記事後確率が最大値を有する場合に、前記領域分割手段によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手段と、前記判断手段によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an interpolation image generation apparatus that generates an interpolation image to be interpolated between a first reference image and a second reference image of a moving image, A motion search means for obtaining a first motion vector from the first reference image and the second reference image, and a region for dividing a block of a predetermined size in the first reference image into a matching region and a mismatching region The coincidence in the first block on the first reference image and the second block on the second reference image determined by the dividing means and the first motion vector obtained by the motion search means A likelihood calculating means for calculating a likelihood based on a distribution of pixel information inside the area; a prior probability calculating means for calculating a prior probability indicating a probability of a spatial distribution of the matched area and the mismatched area; and the likelihood. In calculation means A posteriori probability calculating means for calculating, based on the Bayes' theorem, a posterior probability indicating the likelihood of division of the matched area and the mismatched area from the likelihood calculated by the prior probability calculating means and the prior probability calculated by the prior probability calculating means And, when the posterior probability calculated by the posterior probability calculating unit has a maximum value, the determination of determining that the matching region and the mismatching region divided by the region dividing unit are likely region divisions And the determining unit determines that the matching region and the non-matching region are likely region divisions from the first reference image, the second reference image, and the first motion vector. Motion compensation means for performing motion compensation based only on the matching region and generating the interpolated image.

また、本発明は、上記補間画像生成装置に対応した補間画像生成方法および補間画像生成プログラムである。   The present invention also provides an interpolation image generation method and an interpolation image generation program corresponding to the interpolation image generation apparatus.

本発明によれば、第1の動きベクトルによって定められる第1の参照画像上の第1のブロックと第2の参照画像上の第2のブロックにおける一致領域の内部の画素情報の分布に基づいた尤度を算出し、一致領域と不一致領域の空間分布の確率を示す事前確率を算出し、算出された尤度と算出された事前確率から、一致領域と不一致領域の領域分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出し、算出された事後確率が最大値を有する場合に、分割した前記一致領域と不一致領域を尤もらしい領域分割であると判断し、一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、第1の参照画像と第2の参照画像と第1の動きベクトルとから一致領域のみに基づいて動き補償を行い、補間画像を生成することで、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ブロック歪みを低減して動画像を滑らかに表示することができるという効果を奏する。   According to the present invention, based on the distribution of pixel information inside the matching region in the first block on the first reference image and the second block on the second reference image defined by the first motion vector. The likelihood is calculated, the prior probability indicating the probability of the spatial distribution of the coincidence region and the disagreement region is calculated, and the likelihood of the region division of the coincidence region and the disparity region is indicated from the calculated likelihood and the calculated prior probability. The posterior probability is calculated based on Bayes' theorem, and when the calculated posterior probability has the maximum value, the divided matching area and the mismatching area are determined to be likely area divisions, and the matching area and the mismatching area are When it is determined that the region is likely to be divided, motion compensation is performed based on only the matching region from the first reference image, the second reference image, and the first motion vector, and an interpolation image is generated. , Painting It is no longer necessary to perform match determination every time, and it is possible to divide the matching area and the non-matching area using a more probable method, reducing noise such as sesame salt noise and smoothing the moving image by reducing block distortion. The effect that it can be displayed is produced.

以下に添付図面を参照して、この発明にかかる補間画像生成装置、補間画像生成方法および補間画像生成プログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an interpolation image generation apparatus, an interpolation image generation method, and an interpolation image generation program according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施の形態1)
実施の形態1にかかる補間画像生成装置は、動画像の第1の参照フレームp1(第1の参照画像)と第2の参照フレームp2(第2の参照画像)との間に内挿する補間フレームの画像を生成する際に、参照フレームp1内の所定サイズのブロックを、一致領域と不一致領域とに分割し、領域分割が尤もらしい領域分割か否かを、ベイズ決定規定の概念を用いてMAP(maximum a posteriori probability)推定問題として定式化したものである。ここで、一致判定問題は、動き推定によって求められた動きベクトルによって定まるブロック対の中を一致領域と不一致領域に分割する問題である。
(Embodiment 1)
The interpolated image generating apparatus according to the first embodiment interpolates between a first reference frame p1 (first reference image) and a second reference frame p2 (second reference image) of a moving image. When generating an image of a frame, a block of a predetermined size in the reference frame p1 is divided into a matching area and a mismatching area, and whether or not the area division is a likely area division is determined using the concept of Bayes decision rule. It is formulated as a MAP (maximum a posteriori probability) estimation problem. Here, the coincidence determination problem is a problem in which a block pair determined by a motion vector obtained by motion estimation is divided into a coincidence region and a disagreement region.

まず、本実施の形態の補間画像生成装置で行われる一致判定処理で利用するベイズ決定規定について説明する。   First, the Bayes determination rule used in the coincidence determination process performed by the interpolated image generation apparatus according to the present embodiment will be described.

ベイズ決定規定は、統計的パターン認識の確率モデルに基づいている。一般的に、m個の類をc1,c2,・・・cmとし、入力パターンから抽出されたn個の特徴の値の組(特徴ベクトル)を、x=(x1,x2,・・・xn)とすると、各類に属するパターンが生起する確率(事前確率)p(ci)(i=1,・・・,m)と、各類ciのもとで、パターンxの生起確率p(x|ci)(i=1,・・・,m)が知られているものとする。このとき、xが生起したという条件のもとで事後確率を最大とする類ck、すなわち、次式
p(ck|x)=maxp(ci|x)
を満たす類ckにパターンxは属すると決定すれば、全体的な識別の誤り確率が最小になることがわかっているという規則がベイズ決定規則である。
The Bayesian decision rule is based on a stochastic model of statistical pattern recognition. Generally, c 1 of m s, c 2, and · · · c m, the value of n features extracted from the input pattern set (the feature vector), x = (x 1, x 2 ,..., X n ), the probability (prior probability) p (c i ) (i = 1,..., M) that a pattern belonging to each class occurs, and under each class c i , Assume that the occurrence probability p (x | c i ) (i = 1,..., M) of the pattern x is known. At this time, the class c k that maximizes the posterior probability under the condition that x has occurred, that is, the following expression p (c k | x) = maxp (c i | x)
If it is determined that the pattern x belongs to the class c k that satisfies the above, the rule that it is known that the overall identification error probability is minimized is the Bayes determination rule.

本実施の形態の補間画像生成装置では、このベイズ決定規則を、一致判定に利用している。すなわち、一致領域と不一致領域が、入力された画像に対してどの程度尤もらしいかを事後確率(posteriori probability)として定式化している。   In the interpolated image generating apparatus of the present embodiment, this Bayes determination rule is used for matching determination. That is, how likely the matching area and the mismatching area are to the input image is formulated as a posterior probability.

ベイズ決定規則では、事後確率は、尤度と事前確率の積で表現される。事前確率は、一致領域と不一致領域の空間分布の確率を示すものとして定式化する。尤度は、観測されるノイズがガウス分布に従うと仮定して、一致領域内のブロック差分をガウス分布としてモデル化する。このようにノイズも考慮に入れて定式化を行うことによってノイズに対してロバスト性を向上させて領域の一致判定をおこなうことができる。   In the Bayes decision rule, the posterior probability is expressed as a product of likelihood and prior probability. The prior probability is formulated as indicating the probability of the spatial distribution of the coincidence region and the disagreement region. Likelihood assumes that the observed noise follows a Gaussian distribution and models the block difference in the matching region as a Gaussian distribution. In this way, by formulating in consideration of noise, it is possible to improve the robustness against noise and perform region matching determination.

ここで、ya,ybをブロックBの画素値、xを一致領域、不一致領域を示すラベルとする。すなわち、x=1が一致領域のラベル、x=0が不一致領域のラベルである。MAP推定問題は、画像yが与えられたときの一致判定xの確率(事後確率)p(x|y)を最大化する問題である。ベイス決定規則から、事前確率p(x)と、一致判定xが与えられたときのyの尤度p(y|x)には、数1式に示す関係がある。 Here, y a and y b are pixel values of the block B, and x is a label indicating a matching area and a mismatching area. That is, x = 1 is the label of the matching area, and x = 0 is the label of the mismatching area. The MAP estimation problem is a problem that maximizes the probability (posterior probability) p (x | y) of the coincidence determination x when the image y is given. From the base decision rule, the prior probability p (x) and the likelihood p (y | x) of y when the coincidence determination x is given have the relationship shown in Formula 1.

Figure 2006101032
Figure 2006101032

事前確率p(x)は、局所的に0(不一致領域)と1(一致領域)が交互に繰り返される空間分布、すなわち0(不一致領域)と1(一致領域)が分散している場合に確率的に低くなり、さらに0(不一致領域)の空間分布よりも1(一致領域)の空間分布の方が確率的に高いと定められ、数2式のように定式化される。   The prior probability p (x) is a probability when the local distribution of 0 (mismatch region) and 1 (match region) is repeated alternately, that is, 0 (mismatch region) and 1 (match region) are dispersed. It is determined that the spatial distribution of 1 (coincidence region) is stochastically higher than the spatial distribution of 0 (noncoincidence region), and is formulated as shown in Equation 2.

Figure 2006101032
Figure 2006101032

ここで、β、cはブロック内の隣接画素の2点であるクリークであり、Zは正規化定数である。図24は、ブロック内の隣接画素の2点であるクリークの一例を示す説明図である。   Here, β and c are cliques that are two points of adjacent pixels in the block, and Z is a normalization constant. FIG. 24 is an explanatory diagram illustrating an example of a clique that is two points of adjacent pixels in a block.

尤度p(y|x)は、他の条件が同一の場合には、値が大きい程、条件xの元でより尤もらしいことを示す。本実施の形態では、尤もらしさを画素の差分によって表している。よって、一致判定xが与えられたときに、一致領域内の差分値が小さいほど、p(y|x)の値が大きくなり、より尤もらしいとする。   The likelihood p (y | x) indicates that, when the other conditions are the same, the larger the value, the more likely the condition is under the condition x. In the present embodiment, the likelihood is represented by a pixel difference. Therefore, when the match determination x is given, it is assumed that the smaller the difference value in the match region, the larger the value of p (y | x), which is more likely.

画像で観測されるノイズが、分散σ2、平均0の白色ガウスノイズであるとすると、尤度は数3式のようにモデル化することができる。 If the noise observed in the image is white Gaussian noise with variance σ 2 and average 0, the likelihood can be modeled as shown in Equation 3.

Figure 2006101032
Figure 2006101032

なお、本実施の形態では、ノイズがガウス分布に従うとして尤度のモデル化を行ったが、この他、一般化ガウス分布やポアソン分布に従うとして尤度のモデル化を行っても良い。   In the present embodiment, the likelihood modeling is performed assuming that the noise follows a Gaussian distribution. However, the likelihood modeling may be performed based on a generalized Gaussian distribution or a Poisson distribution.

数3式のように尤度をモデル化した場合に、MAP推定問題が、数4式に示すように定式化することができる。   When likelihood is modeled as shown in Equation 3, the MAP estimation problem can be formulated as shown in Equation 4.

Figure 2006101032
ここで数4式の対数を取って、数5式のように定式化してもよい。
Figure 2006101032
Figure 2006101032
Here, the logarithm of Formula 4 may be taken and formulated as Formula 5.
Figure 2006101032

上記数4式(若しくは数5式)を解法して一致判定xを算出することにより、ベイズ決定規則のもとでの一致判定を行うことができる。言い換えれば、本実施の形態の補間画像生成装置では、数2式で示される事前確率を求め、数3式で示される尤度を求め、かかる事前確率と尤度とを乗算した数4式で示される事後確率が最大値になる一致判定xを求めている。   By calculating Equation 4 (or Equation 5) and calculating coincidence determination x, it is possible to perform coincidence determination under the Bayes decision rule. In other words, in the interpolated image generation apparatus of the present embodiment, the prior probability represented by Equation 2 is obtained, the likelihood represented by Equation 3 is obtained, and Equation 4 obtained by multiplying the prior probability and the likelihood is obtained by Equation 4. A match determination x that maximizes the posterior probability shown is obtained.

次に、このようなヘイズ決定規則を利用した一致判定をおこない補間フレームを生成する本実施の形態にかかる補間画像生成装置について説明する。   Next, an interpolated image generating apparatus according to the present embodiment that generates an interpolated frame by performing matching determination using such a haze determination rule will be described.

なお、本実施の形態では、入力画像信号(動画像信号)が60Hzのノンインタレース信号(プログレッシブ信号)であり、60Hzのノンインタレース信号に対して隣接する二つの参照フレーム間の時間的中央位置(補間フレーム面)に補間フレームを生成し、その補間フレームを二つの参照フレーム間に内挿することにより120Hzのノンインタレース信号に変換する場合を例にとって説明する。また、時間的に先の参照フレームを参照フレームp1、時間的に後の参照フレームを参照フレームp2とする。ただし、本発明は、上記画像信号に限定されるものではなく、様々なフレームレートの画像信号に対して本発明を適用することができる。   In the present embodiment, the input image signal (moving image signal) is a 60 Hz non-interlaced signal (progressive signal), and the temporal center between two reference frames adjacent to the 60 Hz non-interlaced signal. An example will be described in which an interpolation frame is generated at a position (interpolation frame plane), and the interpolation frame is interpolated between two reference frames to be converted into a 120 Hz non-interlace signal. Further, a temporally preceding reference frame is referred to as a reference frame p1, and a temporally subsequent reference frame is referred to as a reference frame p2. However, the present invention is not limited to the above image signal, and the present invention can be applied to image signals of various frame rates.

図1は、実施の形態1にかかる補間画像生成装置の機能的構成を示すブロック図である。本実施の形態にかかる補間画像生成装置100は、図1に示すように、動き推定部110と動き補償部120とフレームメモリ130とを備えている。   FIG. 1 is a block diagram of a functional configuration of the interpolated image generation apparatus according to the first embodiment. As shown in FIG. 1, the interpolated image generation apparatus 100 according to the present embodiment includes a motion estimation unit 110, a motion compensation unit 120, and a frame memory 130.

動き推定部110は、入力される2つの参照フレームp1、p2を格子状のブロックに分割して分割されたブロックを一致領域と不一致領域に分割して、各領域で動きベクトルを求めるものである。   The motion estimation unit 110 divides the input two reference frames p1 and p2 into lattice blocks, divides the divided blocks into matching areas and mismatched areas, and obtains a motion vector in each area. .

動き推定部110は、図1に示すように、動き探索部111と、領域分割部112と、尤度算出部113と、事前確率算出部114と、事後確率算出部115と、判断部116とを備えている。   As shown in FIG. 1, the motion estimation unit 110 includes a motion search unit 111, a region division unit 112, a likelihood calculation unit 113, a prior probability calculation unit 114, a posterior probability calculation unit 115, and a determination unit 116. It has.

動き探索部111は、2つの参照フレームp1、p2を入力して、一様格子のブロックごとに第1の動きベクトルを求める処理を行う。また、動き探索部111は、後述する判断部116によって一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、さらに不一致領域のみに基づいて第2の動きベクトルを求める処理を行う。   The motion search unit 111 receives two reference frames p1 and p2 and performs a process of obtaining a first motion vector for each block of the uniform grid. The motion search unit 111 further performs processing for obtaining the second motion vector based only on the mismatch region when the determination unit 116 described later determines that the matching region and the mismatch region are likely region divisions. .

領域分割部112は、参照フレームp1,p2内のブロックを、一致領域と不一致領域とに分割する処理を行う。また、領域分割部112は、尤度算出部113、事前確率算出部114、事後確率算出部115、判断部116とともに、分割された一致領域と不一致領域についての一致判定処理を行う。   The area dividing unit 112 performs a process of dividing the blocks in the reference frames p1 and p2 into a matching area and a mismatching area. The area dividing unit 112 performs a matching determination process on the divided matching area and the mismatching area together with the likelihood calculating section 113, the prior probability calculating section 114, the posterior probability calculating section 115, and the determining section 116.

尤度算出部113は、動き探索部111によって求めた第1の動きベクトルによって定められる参照フレームp1のブロックと参照フレームp2上のブロックにおける一致領域の内部の画素値の差分のガウス分布に基づいた尤度p(y|x)を数3式に従って算出する処理を行う。この尤度は、画素の差分によって表され、一致判定xが与えられたときに、一致領域内の差分値が小さいほど、尤度p(y|x)の値が大きくなり、より尤もらしいことを意味する。   The likelihood calculating unit 113 is based on the Gaussian distribution of the difference between the pixel values in the matching region in the block of the reference frame p1 and the block on the reference frame p2 determined by the first motion vector obtained by the motion search unit 111. A process of calculating the likelihood p (y | x) according to Equation 3 is performed. This likelihood is represented by a pixel difference, and when the match determination x is given, the smaller the difference value in the match region, the greater the likelihood p (y | x) value, and the more likely it is Means.

事前確率算出部114は、一致領域と不一致領域の空間分布の確率を示す事前確率p(x)を数2式に従って算出する処理を行う。この事前確率p(x)は、不一致領域と一致領域が分散している空間分布の場合には低い値となり、さらに不一致領域の空間分布よりも一致領域の空間分布の方が高い値となるように数3式で設定される。   The prior probability calculation unit 114 performs a process of calculating the prior probability p (x) indicating the probability of the spatial distribution of the coincidence region and the disagreement region according to Equation 2. This prior probability p (x) is a low value in the case of a spatial distribution in which the mismatch region and the match region are dispersed, and the spatial distribution of the match region is higher than the spatial distribution of the mismatch region. Is set by the equation (3).

事後確率算出部115は、尤度算出部113によって算出された尤度と事前確率算出部114によって算出された事前確率とを乗算し、一致領域と不一致領域の分割の尤もらしさを示す事後確率p(x|y)を数4式に従って算出する処理を行う。   The posterior probability calculation unit 115 multiplies the likelihood calculated by the likelihood calculation unit 113 by the prior probability calculated by the prior probability calculation unit 114, and indicates the likelihood of dividing the matched region and the unmatched region. A process of calculating (x | y) according to Equation 4 is performed.

判断部116は、事後確率p(x|y)が最大値を有するか否かを判定し、最大値となる場合に、領域分割部112によって分割した一致領域と不一致領域を、尤もらしい領域分割であると判断する一致判定処理を行うものである。   The determination unit 116 determines whether or not the posterior probability p (x | y) has the maximum value. When the posterior probability p (x | y) has the maximum value, the matching region and the mismatching region divided by the region dividing unit 112 are likely to be divided into regions. The coincidence determination process is performed to determine that

動き補償部120は、判断部116によって一致領域と不一致領域が尤もらしい領域分割であると判断された場合に、参照フレームp1,p2と動き探索部111で求めた第1の動きベクトルとから一致領域のみに基づいて動き補償を行い、補間フレームを生成する処理を行う。フレームメモリ130は、参照フレームの画像を一時的に保存する記憶装置である。   The motion compensation unit 120 matches the reference frames p1 and p2 and the first motion vector obtained by the motion search unit 111 when the determination unit 116 determines that the matching region and the mismatching region are likely region divisions. Motion compensation is performed based on only the region, and processing for generating an interpolation frame is performed. The frame memory 130 is a storage device that temporarily stores an image of a reference frame.

次に、以上のように構成された補間画像生成装置100による補間画像生成処理について説明する。図2は、補間画像生成の全体処理の手順を示すフローチャートである。   Next, an interpolation image generation process by the interpolation image generation apparatus 100 configured as described above will be described. FIG. 2 is a flowchart showing a procedure of the entire process of generating an interpolated image.

まず、動き探索部111は、補間フレームを一様格子の小ブロックbl0に分割し(ステップS201)、ブロックの走査を開始する(ステップS202)。そして、動き推定を行い、ブロック内の一致領域となる動きベクトルグループmvgと不一致フィルタグループafgを求める(ステップ203)。ここで、かかる動き推定処理については後述する。   First, the motion search unit 111 divides the interpolation frame into small blocks bl0 having a uniform lattice (step S201), and starts scanning the block (step S202). Then, motion estimation is performed to obtain a motion vector group mvg and a disagreement filter group afg as a matching region in the block (step 203). Here, the motion estimation process will be described later.

次に、動きベクトルグループmvg、不一致フィルタグループafg、参照フレームp1,参照フレームp2から動き補償処理を行い、補間フレームを生成をする(ステップS204)。かかる動き補償処理については後述する。そして、小ブロックbl0をすべて走査するまで、ステップS203およびS204の処理を繰り返し、小ブロックbl0をすべて走査した場合には処理を完了する(ステップS205)。   Next, motion compensation processing is performed from the motion vector group mvg, the mismatch filter group afg, the reference frame p1, and the reference frame p2, and an interpolation frame is generated (step S204). Such motion compensation processing will be described later. The processes in steps S203 and S204 are repeated until all the small blocks bl0 are scanned. If all the small blocks bl0 are scanned, the process is completed (step S205).

次に、ステップS202における動き推定処理について説明する。図3は、動き推定処理の手順を示すフローチャートである。   Next, the motion estimation process in step S202 will be described. FIG. 3 is a flowchart showing the procedure of the motion estimation process.

動き推定処理では、参照フレームp1、p2の探索領域からもっとも相関度の高いブロックを探索し、第1の動きベクトルを求め(動き探索処理)、探索されたブロック対である小ブロックbl1,bl2の内部において一致・不一致を判定し不一致フィルタafを求め(一致判定処理)、不一致画素のみから再帰的に第2の動きベクトルを探索する処理を行う。   In the motion estimation process, the block having the highest correlation is searched from the search areas of the reference frames p1 and p2, the first motion vector is obtained (motion search process), and the small blocks bl1 and bl2 that are the searched block pairs are searched. A match / mismatch is determined internally to obtain a mismatch filter af (match determination process), and a process of recursively searching for the second motion vector from only the mismatched pixels is performed.

まず、動き探索部111により反復処理のための変数iteを1に初期化して、反復処理を開始し、小ブロックbl0と同サイズのデジタルフィルタを不一致フィルタとし、最初の反復処理の不一致フィルタaf[0]にすべて1(不一致画素)を代入する(ステップS301)。   First, the motion search unit 111 initializes a variable it for iteration processing to 1, starts iteration processing, sets a digital filter having the same size as the small block bl0 as a mismatch filter, and sets the mismatch filter af [ [0] are all substituted with 1 (mismatched pixels) (step S301).

図4は、最初の反復処理の不一致フィルタaf[0]の状態を示す説明図である。図4に示すように、ステップS301では、不一致フィルタaf[0]にすべて1(不一致画素)が設定される。なお、不一致フィルタaf[α]は反復回数α(ite=α)における不一致フィルタであることを示している。   FIG. 4 is an explanatory diagram showing the state of the mismatch filter af [0] in the first iterative process. As shown in FIG. 4, in step S301, all 1 (mismatched pixels) are set in the mismatch filter af [0]. Note that the mismatch filter af [α] is a mismatch filter at the number of iterations α (ite = α).

不一致フィルタは、小ブロックbl0と同サイズで、0または1を値として有するデジタルフィルタである。図5は、不一致フィルタの内容を示す説明図である。図5に示すように、不一致フィルタには、一致画素については0、不一致画素について1が設定される。   The mismatch filter is a digital filter having the same size as the small block bl0 and having 0 or 1 as a value. FIG. 5 is an explanatory diagram showing the contents of the mismatch filter. As shown in FIG. 5, the mismatch filter is set to 0 for matching pixels and 1 for mismatching pixels.

次に、動き探索部111により動き探索処理を行う。図6は、動き探索処理の概要を示す説明図である。図6に示すように、動き探索部111は、不一致フィルタ[iteー1]の値が1の画素、すなわち不一致領域のみを用いて、補間フレーム上の小ブロックbl0を中心として、幾何学的に対称的な参照フレームp1上の小ブロックbl1と参照フレームp2上の小ブロックbl2の探索をおこない、最も相関度の高い小ブロックの対を探索し、動きベクトルmv[ite]を求める(ステップS302)。   Next, a motion search process is performed by the motion search unit 111. FIG. 6 is an explanatory diagram showing an outline of the motion search process. As shown in FIG. 6, the motion search unit 111 geometrically centered on the small block bl0 on the interpolated frame using only a pixel having a mismatch filter [ite-1] value of 1, that is, a mismatch region. The small block bl1 on the symmetric reference frame p1 and the small block bl2 on the reference frame p2 are searched to search for a pair of small blocks having the highest degree of correlation to obtain a motion vector mv [ite] (step S302). .

図7は、最初の反復時(ite=1)の場合における動きベクトル推定処理の説明図である。最初の反復処理時において、相関度演算の際に、図7に示すように、不一致フィルタaf[0]の値が1の画素のみについて演算をおこなうが、最初の反復時において不一致フィルタaf[0]はブロック内の全画素が1(不一致画素)に設定されているので、ブロック内のすべての画素について相関度演算が行われることになる。   FIG. 7 is an explanatory diagram of motion vector estimation processing in the case of the first iteration (ite = 1). At the time of the first iteration, when calculating the degree of correlation, as shown in FIG. 7, the calculation is performed only for the pixels whose value of the mismatch filter af [0] is 1, but at the first iteration, the mismatch filter af [0 ], Since all the pixels in the block are set to 1 (mismatched pixels), the correlation calculation is performed for all the pixels in the block.

図8は、二回目以降の反復時(ite>1)の場合における動きベクトル推定処理の説明図である。二回目以降の反復処理時においては、相関度演算の際に、図8に示すように、不一致フィルタaf[ite−1]の値が1の画素のみについて相関度演算が行われる。   FIG. 8 is an explanatory diagram of motion vector estimation processing in the second and subsequent iterations (ite> 1). In the second and subsequent iterations, during the correlation calculation, as shown in FIG. 8, the correlation calculation is performed only for the pixel whose value of the mismatch filter af [ite−1] is 1.

次に、動き探索部111によって、動きベクトルmv[Ite]によって定まる、参照フレームp1上の小ブロックbl1と、参照フレームp2上の小ブロックbl2を求める(ステップS303)。   Next, the motion search unit 111 obtains the small block bl1 on the reference frame p1 and the small block bl2 on the reference frame p2 determined by the motion vector mv [It] (step S303).

次に、領域分割部112は、小ブロックbl1と小ブロックbl2から一致判定をおこない、不一致フィルタaf[ite]を求める(ステップS304)。なお、かかる一致判定処理については後述する。   Next, the area dividing unit 112 performs matching determination from the small block bl1 and the small block bl2, and obtains a mismatch filter af [ite] (step S304). The coincidence determination process will be described later.

次に、領域分割部112は、不一致フィルタaf[ite]と不一致フィルタaf[ite−1]の論理積を求めて、求めた論理積を不一致フィルタaf[ite]に設定する(ステップS305)。これにより、一致判定処理で得られた不一致フィルタの値が不一致フィルタaf[ite]に反映されることになる。   Next, the region dividing unit 112 obtains a logical product of the mismatch filter af [ite] and the mismatch filter af [ite-1], and sets the obtained logical product in the mismatch filter af [ite] (step S305). As a result, the value of the mismatch filter obtained in the match determination process is reflected in the mismatch filter af [ite].

そして、動き探索部111は、変数iteを1だけ増加して(ステップS306)、ステップS302からS306までの動き探索処理および一致判定処理を繰り返し実行し、変数iteが任意の整数であるnを越えた時点で(ステップS307)、ステップS302からS306までの処理の反復を終了する。これにより、動きベクトルグループmvg(動きベクトルmv[i](i=1...n))と、不一致フィルタグループafg(不一致フィルタaf[i](i=1...n))が出力される。   Then, the motion search unit 111 increments the variable it by 1 (step S306), repeatedly executes the motion search process and the match determination process from steps S302 to S306, and the variable it exceeds an arbitrary integer n. At this point (step S307), the repetition of the processing from step S302 to S306 is terminated. As a result, the motion vector group mvg (motion vector mv [i] (i = 1... N)) and the mismatch filter group afg (mismatch filter af [i] (i = 1... N)) are output. The

次に、ステップS304における一致判定処理について説明する。図9は、一致判定処理の手順を示すフローチャートである。   Next, the matching determination process in step S304 will be described. FIG. 9 is a flowchart showing the procedure of the coincidence determination process.

本実施の形態では、階層的にMAP推定問題を解法することにより一致判定をおこなっている。まず、領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、小ブロックbl1からブロック層bl_lay1を生成し、小ブロックbl2からブロック層bl_lay2を生成する(ステップS901)。かかる階層生成処理については後述する。   In the present embodiment, the matching is determined by solving the MAP estimation problem hierarchically. First, the area dividing unit 112 receives the small block bl1 and the small block bl2, generates the block layer bl_lay1 from the small block bl1, and generates the block layer bl_lay2 from the small block bl2 (step S901). Such hierarchy generation processing will be described later.

次に、領域分割部112は、ループ変数をiとして、階層を順に再帰的に下るループを開始し、ループ変数iの初期値として0を設定する(ステップS902)。   Next, the region dividing unit 112 starts a loop that recursively descends the hierarchy with the loop variable as i, and sets 0 as the initial value of the loop variable i (step S902).

次に、領域分割部112は、ブロック層bl_lay1[i+1]と同サイズの不一致フィルタafを生成し、生成した不一致フィルタafの値にすべて1(不一致画素)を設定し(ステップS903)、ブロック内の走査を開始する(ステップS904)。ここで、走査インデックスを(x、y)とする。   Next, the area dividing unit 112 generates a mismatch filter af having the same size as the block layer bl_lay1 [i + 1], sets all the values of the generated mismatch filter af to 1 (mismatched pixels) (step S903), Is started (step S904). Here, the scanning index is (x, y).

次いで、探索領域についての組み合わせ探索ループを開始する(ステップS905)。図10は、探索領域についての全組み合わせを示す探索領域パターンの例を示す説明図である。図10において斜線部分が探索領域であることを示している。   Next, a combination search loop for the search area is started (step S905). FIG. 10 is an explanatory diagram illustrating an example of a search area pattern indicating all combinations of search areas. In FIG. 10, the shaded area indicates the search area.

そして、領域分割部112は、図10に示す探索領域パターンの中からまだ選択されていない任意の探索領域パターンを一つ選択して組み合わせブロックを生成する(ステップS906)。そして、組み合わせブロックを不一致フィルタafにおける(2x、2y)の位置に貼付して不一致フィルタaf_tmpを生成する(ステップS907)。   Then, the area dividing unit 112 selects one arbitrary search area pattern that has not been selected from the search area patterns shown in FIG. 10 and generates a combination block (step S906). Then, the combination block is pasted at the position (2x, 2y) in the mismatch filter af to generate the mismatch filter af_tmp (step S907).

次に、事前確率算出部114により、不一致フィルタaf_tmpを用いて事前確率p(x)を算出する(ステップS908)。ここで、事前確率p(x)の算出処理については後述する。   Next, the prior probability calculation unit 114 calculates the prior probability p (x) using the mismatch filter af_tmp (step S908). Here, the calculation process of the prior probability p (x) will be described later.

そして、尤度算出部113によって、不一致フィルタaf_tmp、ブロック層bl_lay1[i+1]、ブロック層bl_lay2[i+1]を用いて尤度p(y|x)を算出する(ステップS909)。ここで、尤度p(y|x)の算出処理については後述する。   Then, the likelihood calculating unit 113 calculates the likelihood p (y | x) using the mismatch filter af_tmp, the block layer bl_lay1 [i + 1], and the block layer bl_lay2 [i + 1] (step S909). Here, the process of calculating the likelihood p (y | x) will be described later.

次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から事後確率p(x|y)を算出する(ステップS910)。   Next, the posterior probability calculation unit 115 calculates the posterior probability p (x | y) from the product of the prior probability p (x) and the likelihood p (y | x) (step S910).

次に、判断部116によって、事後確率pの最大値を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする(ステップS911)。具体的には、判断部116は、前回までの組み合わせループ内において、ステップS906で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)の最大値より、今回の組み合わせループ内で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)が大きいか否かを判断して大きい場合に、今回の事前確率p(x|y)を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする。   Next, the determination unit 116 sets the mismatch filter af_tmp that gives the maximum value of the posterior probability p as the mismatch filter af_max (step S911). Specifically, the determination unit 116 determines the maximum value of the posterior probability p (x | y) obtained from the mismatch filter af_tmp generated according to the search area pattern selected in step S906 in the combination loop up to the previous time. Thus, if the posterior probability p (x | y) obtained from the mismatch filter af_tmp generated according to the search area pattern selected in the current combination loop is large and is large, The mismatch filter af_tmp giving the probability p (x | y) is set as the mismatch filter af_max.

そして、探索領域の全組み合わせについて探索したか否か、すなわち図10に示す全ての探索領域パターンを選択したか否かを判断し(ステップS912)、全組み合わせを探索していない場合には(ステップS912:No)、ステップS905からS911までの処理を繰り返して実行する。   Then, it is determined whether or not all combinations of search areas have been searched, that is, whether or not all search area patterns shown in FIG. 10 have been selected (step S912). (S912: No), the processing from step S905 to S911 is repeatedly executed.

一方、ステップS912において、探索領域の全組み合わせを探索したと判断された場合には(ステップS912:Yes)、現在の不一致フィルタaf_maxを不一致フィルタafと設定する(ステップS913)。   On the other hand, if it is determined in step S912 that all combinations of search areas have been searched (step S912: Yes), the current mismatch filter af_max is set as the mismatch filter af (step S913).

そして、ブロック内をすべて走査するまでステップS904からS913までの処理を繰り返し実行し(ステップS914:No)、ブロック内をすべて走査したら(ステップS914:Yes)、ループ変数iをi=i+1に更新する(ステップS915)。そして、ループ変数iが階層数n以上になるまで、ステップS902からS915までの処理を繰り返し(ステップS916:No)、ループ変数iが階層数n以上になったら(ステップS916:Yes)、処理を終了する。これにより、事後確率p(x|y)の最大を与える不一致フィルタafが出力される。   Then, the processes from step S904 to S913 are repeatedly executed until the entire block is scanned (step S914: No). When the entire block is scanned (step S914: Yes), the loop variable i is updated to i = i + 1. (Step S915). Then, the processing from step S902 to S915 is repeated until the loop variable i becomes greater than or equal to the number n of layers (step S916: No), and when the loop variable i becomes greater than or equal to the number n of layers (step S916: Yes), the processing is performed. finish. Thereby, the mismatch filter af which gives the maximum of the posterior probability p (x | y) is output.

次に、ステップS901における階層生成処理について説明する。図11は、階層生成処理の手順を示すフローチャートである。ここでは、入力された小ブロックlblから、空間方向にサンプリングされた階層状のブロック層lbl_layを生成する処理について説明する。かかる階層生成処理は、図9の一致判定処理におけるステップS901において、小ブロックbl1、小ブロックbl2のそれぞれに対して実行され、小ブロックbl1のブロック層、小ブロックbl2のブロック層が生成されることになる。ここでは、一般的に、小ブロックlblを入力して、小ブロックlblからブロック層lbl_layを生成する処理について説明する。   Next, the hierarchy generation process in step S901 will be described. FIG. 11 is a flowchart illustrating the procedure of the hierarchy generation process. Here, a process of generating a hierarchical block layer lbl_lay sampled in the spatial direction from the input small block lbl will be described. Such a hierarchy generation process is executed for each of the small block bl1 and the small block bl2 in step S901 in the coincidence determination process of FIG. 9, and the block layer of the small block bl1 and the block layer of the small block bl2 are generated. become. Here, a process of generating a block layer lbl_lay from the small block lbl by inputting the small block lbl will be generally described.

まず、領域分割部112は、小ブロックlblの縦サイズと横サイズから空間方向へのサンプリング回数nを算出する(ステップS1101)。例えば、16×16サイズのブロックの場合には、縦横とも4回ずつ1/2スケールのサンプリングを繰り返し適用すると(n=4)、1×1の最小ブロックとなる。32×16であれば、縦横とも4回ずつ1/2スケールのサンプリングを適用すると(n=4)、2×1の最小ブロックとなる。   First, the area dividing unit 112 calculates the number of samplings n in the spatial direction from the vertical size and horizontal size of the small block lbl (step S1101). For example, in the case of a 16 × 16 size block, if 1 / 2-scale sampling is repeatedly applied four times in both the vertical and horizontal directions (n = 4), a 1 × 1 minimum block is obtained. In the case of 32 × 16, when 1 / 2-scale sampling is applied four times in both the vertical and horizontal directions (n = 4), the minimum block is 2 × 1.

次に、領域分割部112は、n階ブロック層lbl_layのn+1配列を確保する(ステップS1102)。この配列は、各層の小ブロックを格納する領域として使用される。そして、領域分割部112は、ブロック層lbl_lay[n]に小ブロックlblを格納する(ステップS1103)。   Next, the area dividing unit 112 secures an n + 1 arrangement of the n-th block block lbl_lay (step S1102). This arrangement is used as an area for storing a small block of each layer. Then, the region dividing unit 112 stores the small block lbl in the block layer lbl_lay [n] (step S1103).

次に、領域分割部112は、ループ変数iの初期値をnとして、階層ループを開始する(ステップS1104)。そして、ブロック層lbl_lay[i]を、空間方向に1回サンプリングし、lbl_lay[i−1]に格納する(ステップS1105)。ここで、空間方向のサンプリングは任意のサンプリングを用いても良いが、例えば、周囲4点の平均をサンプリング点とするサンプリングを用いることができる。このサンプリングをおこなうと、スケールは1/2となる。   Next, the region dividing unit 112 starts a hierarchical loop with the initial value of the loop variable i as n (step S1104). Then, the block layer lbl_lay [i] is sampled once in the spatial direction and stored in lbl_lay [i−1] (step S1105). Here, arbitrary sampling may be used for sampling in the spatial direction. For example, sampling with an average of four surrounding points as sampling points can be used. When this sampling is performed, the scale becomes 1/2.

次に、領域分割部112は、ループ変数iをi−1に更新する(ステップS1106)。そして、ループ変数iが0よりも小さいか否かを判断し(ステップS1107)、0以上である場合には(ステップS1107:No)、ステップS1104からS1106までの処理を繰り返し実行する。一方、ループ変数iが0よりも小さい場合には(ステップS1107:Yes)、階層生成処理を終了する。これにより、ブロック層lbl_layが生成されて出力される。ステップS901の処理により、小ブロックbl1からブロック層bl_lay1が生成され、小ブロックbl2からブロック層bl_lay2が生成されることになる。   Next, the area dividing unit 112 updates the loop variable i to i−1 (step S1106). Then, it is determined whether or not the loop variable i is smaller than 0 (step S1107). If it is equal to or larger than 0 (step S1107: No), the processing from step S1104 to S1106 is repeatedly executed. On the other hand, when the loop variable i is smaller than 0 (step S1107: Yes), the hierarchy generation process is terminated. Thereby, the block layer lbl_lay is generated and output. As a result of the processing in step S901, the block layer bl_lay1 is generated from the small block bl1, and the block layer bl_lay2 is generated from the small block bl2.

次に、図9の一致判定処理のステップS908における事前確率算出部114による事前確率p(x)の算出処理について説明する。図12は、事前確率算出部114による事前確率の算出処理の手順を示すフローチャートである。   Next, the calculation process of the prior probability p (x) by the prior probability calculation unit 114 in step S908 of the coincidence determination process of FIG. 9 will be described. FIG. 12 is a flowchart illustrating a procedure of a prior probability calculation process performed by the prior probability calculation unit 114.

事前確率算出部114は、まず、不一致フィルタaf_tmpを入力して、変数a,n,dをすべて0に初期化し(ステップS1201)、ブロック内の隣接画素の2点であるクリークを走査する(ステップS1202)。   Prior probability calculation section 114 first inputs mismatch filter af_tmp, initializes all variables a, n, and d to 0 (step S1201), and scans cliques that are two points of adjacent pixels in the block (step S1201). S1202).

次に、対象クリーク内の不一致フィルタaf_tmpの値がすべて0(一致画素)か否かを調べる(ステップS1203)。そして、対象クリーク内の不一致フィルタaf_tmpの値がすべて0(一致画素)である場合には(ステップS1203:Yes)、変数aを1だけインクリメントする(ステップS1205)。   Next, it is checked whether or not the values of the mismatch filter af_tmp in the target clique are all 0 (matching pixels) (step S1203). If the values of the mismatch filter af_tmp in the target clique are all 0 (matching pixel) (step S1203: Yes), the variable a is incremented by 1 (step S1205).

一方、ステップS1203において、対象クリーク内の不一致フィルタaf_tmpのいずれかの値が0(一致画素)でない場合には(ステップS1203:No)、対象クリーク内の不一致フィルタaf_tmpの値がすべて1(不一致画素)であるか否かを調べる(ステップS1204)。そして、対象クリーク内の不一致フィルタaf_tmpの値がすべて1(不一致画素)である場合には(ステップS1204:Yes)、変数nを1だけインクリメントする(ステップS1206)。   On the other hand, if any value of the mismatch filter af_tmp in the target clique is not 0 (match pixel) in step S1203 (step S1203: No), all the values of the mismatch filter af_tmp in the target clique are 1 (mismatch pixels). ) Is checked (step S1204). If the values of the mismatch filter af_tmp in the target clique are all 1 (mismatch pixels) (step S1204: Yes), the variable n is incremented by 1 (step S1206).

一方、ステップS1204において、対象クリーク内の不一致フィルタaf_tmpのいずれかの値が1(不一致画素)でない場合には(ステップS1204:No)、変数dを1だけ増加する(ステップS1207)。   On the other hand, if any value of the mismatch filter af_tmp in the target clique is not 1 (mismatch pixel) in step S1204 (step S1204: No), the variable d is increased by 1 (step S1207).

そして、すべてのクリークを走査したか否かを判断し(ステップS1208)、すべて走査していない場合には(ステップS1208:No)、ステップS1202からS1207までの処理を繰り返し実行する。一方、すべてのクリークを走査した場合には(ステップS1208:Yes)、数6式で示されるsumを算出する(ステップS1209)。   Then, it is determined whether or not all cliques have been scanned (step S1208). If not all have been scanned (step S1208: No), the processing from step S1202 to S1207 is repeatedly executed. On the other hand, when all the cliques have been scanned (step S1208: Yes), sum represented by Equation 6 is calculated (step S1209).

Figure 2006101032
Figure 2006101032

次に、ステップ1209で算出されたsumを用いて、数7式により事前確率p(x)を算出する(ステップS1210)。   Next, a priori probability p (x) is calculated by Equation 7 using the sum calculated in step 1209 (step S1210).

Figure 2006101032
Figure 2006101032

かかる数6式および数7式は、数2式で定式化された事前確率を具体的に求める算出式である。これにより、事前確率が算出されて出力される。   These Formula 6 and Formula 7 are calculation formulas for specifically obtaining the prior probabilities formulated by Formula 2. Thereby, the prior probability is calculated and output.

次に、図9の一致判定処理のステップS909における尤度算出部113による尤度p(y|x)の算出処理について説明する。図13は、尤度算出部113による尤度の算出処理の手順を示すフローチャートである。   Next, the likelihood p (y | x) calculation process by the likelihood calculation unit 113 in step S909 of the coincidence determination process in FIG. 9 will be described. FIG. 13 is a flowchart illustrating a procedure of likelihood calculation processing by the likelihood calculation unit 113.

まず、尤度算出部113は、ブロックbl_lay1,bl_lay2および不一致フィルタaf_tmpを入力し、ブロックbl_lay1とbl_lay2の差分ブロックdblを算出する(ステップS1301)。そして、不一致フィルタaf_tmpが0の画素(一致画素)のみに対して、(差分ブロックdblの2乗)/2の総和sumを求める(ステップS1302)。そして、数8式により尤度p(y|x)を算出し(ステップS1303)、出力する。   First, the likelihood calculating unit 113 inputs the blocks bl_lay1 and bl_lay2 and the mismatch filter af_tmp, and calculates a difference block db1 between the blocks bl_lay1 and bl_lay2 (step S1301). Then, the sum sum of (the square of the difference block dbl) / 2 is obtained only for the pixels (matching pixels) for which the mismatch filter af_tmp is 0 (step S1302). Then, the likelihood p (y | x) is calculated by Equation 8 (step S1303) and output.

Figure 2006101032
Figure 2006101032

次に、図2のステップS204における動き補償部120による動き補償処理について説明する。図14は、動き補償部120による動き補償処理の手順を示すフローチャートである。   Next, the motion compensation process by the motion compensation unit 120 in step S204 of FIG. 2 will be described. FIG. 14 is a flowchart showing a procedure of motion compensation processing by the motion compensation unit 120.

動き補償処理では、動き推定処理で出力された動きベクトルグループmvg(動きベクトルmv[i](i=1...n))、不一致フィルタグループafg(不一致フィルタaf[i](i=1...n))、参照フレームp1,参照フレームp2から動き補償をおこない、補間フレームを生成する。   In the motion compensation process, the motion vector group mvg (motion vector mv [i] (i = 1... N)) and mismatch filter group afg (mismatch filter af [i] (i = 1. N)), motion compensation is performed from the reference frame p1 and the reference frame p2, and an interpolation frame is generated.

まず、動き補償部120は、反復処理のための変数iteを初期値1に設定する(ステップS1401)。そして、補間フレーム上の小ブロックbl0を中心として、動きベクトルグループmvgの動きベクトルmv[ite]の点対称位置によって定まる参照フレームp1上の画像ブロックpb1を求め(ステップS1402)、動きベクトルmv[ite]によって定まる参照フレームp2上の画像ブロックpb2を求める(ステップS1403)。そして、動き補償部120は、補間フレーム上の小ブロックbl0の位置を求める(ステップS1404)。   First, the motion compensation unit 120 sets a variable “ite” for iterative processing to an initial value 1 (step S1401). Then, an image block pb1 on the reference frame p1 determined by the point-symmetrical position of the motion vector mv [ite] of the motion vector group mvg around the small block bl0 on the interpolation frame is obtained (step S1402), and the motion vector mv [ite] is obtained. ] Determines the image block pb2 on the reference frame p2 determined by (step S1403). Then, the motion compensation unit 120 obtains the position of the small block bl0 on the interpolation frame (step S1404).

そして、動き補償部120は、ブロック内の画素の走査を開始し(ステップS1405)、画像ブロックpb1の対象画素位置における画素と、画像ブロックpb2の画素の平均値を求める(ステップS1406)。   Then, the motion compensation unit 120 starts scanning the pixels in the block (step S1405), and obtains an average value of the pixel at the target pixel position of the image block pb1 and the pixel of the image block pb2 (step S1406).

次に、動き補償部120は、不一致フィルタ[ite]の値が0か否か、すなわち、一致画素か否かを調べる(ステップS1407)。そして、不一致フィルタ[ite]の値が0である場合、すなわち一致画素の場合には(ステップS1407:Yes)、上記平均画素を補間フレーム上の対象画素位置にコピーする(ステップS1408)。一方、ステップS1407において、不一致フィルタ[ite]の値が1の場合、すなわち不一致画素の場合には(ステップS1407:No)、上記平均画素のコピーを行わない。   Next, the motion compensation unit 120 checks whether the value of the mismatch filter [ite] is 0, that is, whether it is a matching pixel (step S1407). If the value of the mismatch filter [ite] is 0, that is, if it is a matching pixel (step S1407: Yes), the average pixel is copied to the target pixel position on the interpolation frame (step S1408). On the other hand, if the value of the mismatch filter [ite] is 1 in step S1407, that is, if it is a mismatched pixel (step S1407: No), the average pixel is not copied.

ステップS1407、S1408の処理は、ブロック内の全画素を走査するまで繰り返し実行される(ステップS1409)。これにより、一致領域のみに対して動き補償処理がなされ補間フレームが生成されることになる。一方、不一致領域の場合には、上記平均画素の補間フレームの小ブロックbl0へのコピーは行われないが、動き補償処理終了後、動き推定処理(図3)において、再帰的に動きベクトル(第2の動きベクトル)が求められることになる。   The processes in steps S1407 and S1408 are repeatedly executed until all the pixels in the block are scanned (step S1409). As a result, the motion compensation process is performed only on the matching region, and an interpolation frame is generated. On the other hand, in the case of the mismatch region, the average pixel interpolation frame is not copied to the small block bl0. However, after the motion compensation process is completed, the motion estimation process (FIG. 3) is performed recursively. 2 motion vectors).

ブロック内の全画素の走査が終了したら(ステップS1409:Yes)、動き補償部120は、反復処理のための変数iteを1だけ増加して(ステップS1410)、変数iteがn(任意の整数)を越えたか否かを判断する(ステップS1411)。そして、変数iteがnを越えるまで、ステップS1402からS1410までの処理を繰り返し実行する。   When the scanning of all the pixels in the block is completed (step S1409: Yes), the motion compensation unit 120 increments the variable it for the iterative process by 1 (step S1410), and the variable it is n (arbitrary integer). It is determined whether or not the threshold is exceeded (step S1411). Then, the processing from step S1402 to S1410 is repeatedly executed until the variable it exceeds n.

図2のステップS203の動き推定処理と上述した動き補償処理は、図2のステップS201で分割した小ブロック0のすべてを走査するまで繰り返し実行され、小ブロック0の走査を終了したら終了し、補間フレームが生成されることになる。   The motion estimation process in step S203 in FIG. 2 and the motion compensation process described above are repeatedly executed until all the small blocks 0 divided in step S201 in FIG. 2 have been scanned. A frame will be generated.

次に、本実施の形態にかかる補間画像生成装置100による一致判定の結果と従来の手法による一致判定の結果を比較して示す。図15は、ブロック内で一致領域を変化させた状態を示す説明図である。図15に示すように、x軸とy軸で走査しながら一致領域を変更しその時の事後確率を集計した。図16は、左半分の領域が一致領域となるノイズのない画像の2つのブロックの例を示す説明図である。従って、事後確率分布は理想的には左半分が一致領域となったときに最大となる。   Next, the result of coincidence determination by the interpolated image generation apparatus 100 according to the present embodiment is compared with the result of coincidence determination by a conventional method. FIG. 15 is an explanatory diagram showing a state in which the matching area is changed in the block. As shown in FIG. 15, the coincidence area was changed while scanning along the x-axis and the y-axis, and the posterior probabilities at that time were tabulated. FIG. 16 is an explanatory diagram illustrating an example of two blocks of a noise-free image in which the left half region is a matching region. Therefore, the posterior probability distribution is ideally maximized when the left half is the matching region.

まず、図16に示す画像において従来の手法による一致判定、すなわち単純にブロック内の相対位置が等しい画素同士の絶対値差分を取り、その絶対値差分値が閾値(例えば10)より小さければ一致領域とする一致判定を行って補間フレームを生成した。図17は、従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。図17に示すように、ノイズが全く存在しない画像の場合には従来の一致判定の手法でも補間画像が正常に生成される。   First, in the image shown in FIG. 16, matching determination by the conventional method, that is, simply taking an absolute value difference between pixels having the same relative position in the block, and a matching area if the absolute value difference value is smaller than a threshold value (for example, 10). The coincidence determination is performed to generate an interpolation frame. FIG. 17 is an explanatory diagram showing an interpolated frame image generated using a conventional matching determination method. As shown in FIG. 17, in the case of an image having no noise at all, an interpolation image is normally generated even by the conventional matching determination method.

図18は、図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。図18に示すように、事後確率分布は、左半分が一致領域のときに事後確率p(x|y)が最大となっており正確に動作していることが分かる。   FIG. 18 is an explanatory diagram showing the distribution of posterior probabilities obtained by matching determination by the interpolated image generation apparatus 100 according to the present embodiment for the two blocks shown in FIG. As shown in FIG. 18, the posterior probability distribution shows that the posterior probability p (x | y) is maximized when the left half is the coincidence region, and is operating accurately.

図19は、左半分の領域が一致領域となるノイズが存在する画像の2つのブロックの例を示す説明図である。図19に示す画像において従来の手法による一致判定を行って補間フレームを生成した。図20は、従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。従来の手法では、画素同士の絶対値差分値が一定の閾値より小さい場合に一致領域とする一致判定を行っているため、ノイズ成分に対応することが出来ず、このため図20に示すように補間フレームにごま塩雑音が発生していることがわかる。   FIG. 19 is an explanatory diagram illustrating an example of two blocks of an image having noise in which the left half region is a matching region. The image shown in FIG. 19 is subjected to matching determination by a conventional method to generate an interpolation frame. FIG. 20 is an explanatory diagram showing an image of an interpolation frame generated using a conventional matching determination method. In the conventional method, when the absolute value difference value between the pixels is smaller than a certain threshold value, the matching determination as the matching region is performed, so that it is not possible to deal with the noise component, and as shown in FIG. It can be seen that sesame salt noise is generated in the interpolation frame.

図21は、図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。図21に示すように、事後確率分布は、左半分が一致領域のときに事後確率p(x|y)が最大となっており、ノイズが含まれる画像に対しても正確に動作していることがわかる。   FIG. 21 is an explanatory diagram showing distribution of posterior probabilities obtained by matching determination by the interpolated image generating apparatus 100 according to the present embodiment for the two blocks shown in FIG. As shown in FIG. 21, the posterior probability distribution has the maximum posterior probability p (x | y) when the left half is the coincidence region, and operates accurately even for images containing noise. I understand that.

このように実施の形態1にかかる補間画像生成装置では、ベイズ決定理論を用いて一致判定問題をMAP推定問題として定式化し、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。   As described above, in the interpolated image generating apparatus according to the first embodiment, the coincidence determination problem is formulated as a MAP estimation problem using Bayesian decision theory, and it is not necessary to perform the coincidence determination for each pixel, and the matching is performed with a more probable method. Since the area and the non-matching area can be divided, noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.

(実施の形態2)
実施の形態1にかかる補間画像生成装置100では、一致判定処理において入力される小ブロックをまず階層生成処理(図11)によって階層化してから階層ブロックごとに一致判定、事後確率の算出を行っているが、この実施の形態2にかかる補間画像生成装置は、一致判定の処理を行いながら階層化を行うものである。
(Embodiment 2)
In the interpolated image generation apparatus 100 according to the first embodiment, first, the small blocks input in the match determination process are hierarchized by the hierarchy generation process (FIG. 11), and then the match determination and the posterior probability are calculated for each hierarchy block. However, the interpolated image generation apparatus according to the second embodiment performs hierarchization while performing matching determination processing.

本実施の形態にかかる補間画像生成装置の機能的構成は実施の形態1の補間画像装置と同様である。また、補間画像生成の全体処理、動き推定処理、動き補償処理については、実施の形態1の全体処理(図2)、動き推定処理(図3)、動き補償処理(図14)とそれぞれ同様に行われる。本実施の形態の補間画像生成装置では、図3に示す動き推定処理のステップ304における一致判定の処理が実施の形態1と異なっている。   The functional configuration of the interpolated image generating apparatus according to the present embodiment is the same as that of the interpolated image apparatus of the first embodiment. Also, the overall process of interpolation image generation, the motion estimation process, and the motion compensation process are the same as the overall process (FIG. 2), the motion estimation process (FIG. 3), and the motion compensation process (FIG. 14) of the first embodiment, respectively. Done. In the interpolated image generation apparatus according to the present embodiment, the matching determination process in step 304 of the motion estimation process shown in FIG.

図22は、実施の形態2における一致判定処理の手順を示すフローチャートである。まず、領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、ループ変数をiとして、階層を順に再帰的に下っていくループを開始し、ループ変数の初期値として1を設定する(ステップS2201)。そして、領域分割部112は、小ブロックbl1と同サイズの不一致フィルタafを用意し、不一致フィルタafにすべて1を設定する(ステップS2202)。   FIG. 22 is a flowchart showing a procedure of matching determination processing according to the second embodiment. First, the region dividing unit 112 inputs the small block bl1 and the small block bl2, starts a loop that recursively descends the hierarchy, setting the loop variable as i, and sets 1 as the initial value of the loop variable. (Step S2201). Then, the area dividing unit 112 prepares a mismatch filter af having the same size as the small block bl1, and sets all 1 to the mismatch filter af (step S2202).

次に、領域分割部112は、ブロック内の走査を開始し、走査インデックスを(x、y)とする(ステップS2203)。ここで、走査インデックス(x、y)の範囲は(0,0)<=(x、y)<(2(i-1),2(i-1))とする。そして、領域分割部112は、組み合わせ探索ループを開始する(ステップS2204)。ここで、探索領域の組み合わせは、実施の形態1と同様に、図10に示す探索領域パターンと同様のものである。 Next, the area dividing unit 112 starts scanning within the block, and sets the scanning index to (x, y) (step S2203). Here, the range of the scanning index (x, y) is (0, 0) <= (x, y) <(2 (i-1) , 2 (i-1) ). Then, the area dividing unit 112 starts a combination search loop (step S2204). Here, the combination of search areas is the same as the search area pattern shown in FIG.

次に、領域分割部112は、図10の中から一つの探索領域パターンを選択して組み合わせブロックを生成し(ステップS2205)、この組み合わせブロックを縦横2(n-i-1)倍にスケール変換する(ステップS2206)。そして、sizeを数9式により算出する(ステップS2207)。 Next, the region dividing unit 112 selects one search region pattern from FIG. 10 to generate a combination block (step S2205), and scale-converts this combination block to 2 (ni-1) times vertically and horizontally (step S2205). Step S2206). Then, the size is calculated by Equation 9 (step S2207).

Figure 2006101032
Figure 2006101032

次に、領域分割部112は、組み合わせブロックを不一致フィルタafにおける(x*size,y*size)の位置に貼付して、不一致フィルタaf_tmpを生成する(ステップS2208)。   Next, the region dividing unit 112 pastes the combination block at the position (x * size, y * size) in the mismatch filter af to generate a mismatch filter af_tmp (step S2208).

次に、事前確率算出部114により、不一致フィルタaf_tmpを用いて事前確率p(x)を算出する(ステップS2209)。ここで、事前確率p(x)の算出処理については実施の形態1の事前確率算出処理(図12)と同様に行われる。   Next, the prior probability calculation unit 114 calculates the prior probability p (x) using the mismatch filter af_tmp (step S2209). Here, the calculation process of the prior probability p (x) is performed in the same manner as the prior probability calculation process (FIG. 12) of the first embodiment.

そして、尤度算出部113によって、不一致フィルタaf_tmp、ブロック層bl_lay1[i+1]、ブロック層bl_lay2[i+1]を用いて尤度p(y|x)を算出する(ステップS2210)。ここで、尤度p(y|x)の算出処理については実施の形態1の尤度算出処理(図13)と同様に行われる。   The likelihood calculating unit 113 calculates likelihood p (y | x) using the mismatch filter af_tmp, the block layer bl_lay1 [i + 1], and the block layer bl_lay2 [i + 1] (step S2210). Here, the likelihood p (y | x) calculation process is performed in the same manner as the likelihood calculation process (FIG. 13) of the first embodiment.

次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から事後確率p(x|y)を算出する(ステップS2211)。   Next, the posterior probability calculation unit 115 calculates the posterior probability p (x | y) from the product of the prior probability p (x) and the likelihood p (y | x) (step S2211).

次に、判断部116によって、事後確率pの最大値を与えるaf_tmpを不一致フィルタaf_maxとする(ステップS2212)。具体的には、判断部116は、実施の形態1と同様に、前回までの組み合わせループ内において、ステップS2205で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)の最大値より、今回の組み合わせループ内で選択された探索領域パターンに応じて生成された不一致フィルタaf_tmpから求めた事後確率p(x|y)が大きいか否かを判断して大きい場合に、今回の事前確率p(x|y)を与える不一致フィルタaf_tmpを不一致フィルタaf_maxとする。   Next, the determination unit 116 sets af_tmp that gives the maximum value of the posterior probability p as the mismatch filter af_max (step S2212). Specifically, as in the first embodiment, the determination unit 116 determines the posterior probability p obtained from the mismatch filter af_tmp generated according to the search area pattern selected in step S2205 in the previous combination loop. It is determined whether or not the posterior probability p (x | y) obtained from the mismatch filter af_tmp generated according to the search area pattern selected in the current combination loop is larger than the maximum value of (x | y). And the mismatch filter af_tmp giving the current prior probability p (x | y) as the mismatch filter af_max.

そして、探索領域の全組み合わせを探索したか否かを判断し(ステップS2213)、全組み合わせを探索していない場合には(ステップS2213:No)、ステップS2204からS2212までの処理を繰り返して実行する。   Then, it is determined whether or not all combinations in the search area have been searched (step S2213). If all combinations have not been searched (step S2213: No), the processes from step S2204 to S2212 are repeatedly executed. .

一方、ステップS2213において、探索領域の全組み合わせを探索したと判断された場合には(ステップS2213:Yes)、判断部116は、不一致フィルタaf_maxを不一致フィルタafと設定する(ステップS2214)。   On the other hand, if it is determined in step S2213 that all combinations of search areas have been searched (step S2213: Yes), the determination unit 116 sets the mismatch filter af_max as the mismatch filter af (step S2214).

そして、ブロック内をすべて走査するまでステップS2203からS2214までの処理を繰り返し実行し(ステップS2215:No)、ブロック内をすべて走査したら(ステップS2215:Yes)、ループ変数iをi=i+1に更新する(ステップS2216)。そして、ループ変数iが階層数n以上になるまで、ステップS2201からS2216までの処理を繰り返し(ステップS2217:No)、ループ変数iが階層数n以上になったら(ステップS2217:Yes)、処理を終了する。これにより、不一致フィルタafが出力される。   Then, the processes from step S2203 to S2214 are repeatedly executed until the entire block is scanned (step S2215: No). When the entire block is scanned (step S2215: Yes), the loop variable i is updated to i = i + 1. (Step S2216). Then, the processing from step S2201 to S2216 is repeated until the loop variable i becomes greater than or equal to the number of layers n (step S2217: No), and when the loop variable i becomes greater than or equal to the number of layers n (step S2217: Yes), the processing is performed. finish. Thereby, the mismatch filter af is output.

このように実施の形態2にかかる補間画像生成装置では、一致判定処理を行いながら小ブロックの階層化を行っているので、別途、予め階層生成処理を必要がなく、一致判定の処理を迅速に行うことができる。   As described above, in the interpolated image generating apparatus according to the second embodiment, since the small blocks are hierarchized while performing the coincidence determination process, there is no need for a separate layer generation process in advance, and the coincidence determination process is quickly performed. It can be carried out.

また、実施の形態2にかかる補間画像生成装置では、ベイズ決定理論を用いて一致判定問題をMAP推定問題として定式化し、画素毎での一致判定を行う必要がなくなり、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。   Further, in the interpolated image generation apparatus according to the second embodiment, the coincidence determination problem is formulated as a MAP estimation problem using Bayesian decision theory, so that it is not necessary to perform the coincidence determination for each pixel, and a more probable method is used for the coincidence region. The non-coincidence area can be divided, so that noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.

(実施の形態3)
実施の形態1および2にかかる補間画像生成装置では、一致判定処理において階層的な不一致フィルタを用いたが、この実施の形態3にかかる補間画像生成装置は、不一致フィルタをランダムに与え、統計物理学等におけるメトロポリスアルゴリズムを利用して行って一致判定処理を行うものである。
(Embodiment 3)
In the interpolated image generation apparatus according to the first and second embodiments, the hierarchical mismatch filter is used in the match determination process. However, the interpolated image generation apparatus according to the third embodiment randomly applies the mismatch filter, and statistical physics. This is performed by using a metropolis algorithm in academia or the like to perform a match determination process.

本実施の形態にかかる補間画像生成装置の機能的構成は実施の形態1の補間画像装置と同様である。また、補間画像生成の全体処理についても実施の形態1の全体処理(図2)と同様に行われる。本実施の形態の補間画像生成装置では、図2に示す全体処理のステップ304における一致判定の処理において、事後確率p(x|y)の最大値の算出手法が実施の形態1と異なっている。   The functional configuration of the interpolated image generating apparatus according to the present embodiment is the same as that of the interpolated image apparatus of the first embodiment. Further, the entire process of generating an interpolated image is performed in the same manner as the entire process of the first embodiment (FIG. 2). In the interpolated image generation apparatus according to the present embodiment, the method for calculating the maximum value of the posterior probability p (x | y) is different from that in the first embodiment in the matching determination process in step 304 of the overall process shown in FIG. .

本実施の形態における一致判定処理で使用されるメトロポリスアルゴリズム(A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995、p31参照)では、ランダムに与えられた不一致フィルタに対して、事後確率を計算し、アニーリング温度に従って事後確率を採択するかどうかが決定される。アニーリング温度は、アニーリングスケジュールに従って設定される。アニーリング温度が高い場合には、事後確率が低い場合でも採択する可能性があり、それによりローカルマキシマムを脱出できる。アニーリング温度が低くなると、事後確率が低いものが採択される可能性は小さくなり、徐々にグローバルマキシマムへと収束する。   In the metropolis algorithm (see A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995, p31) used in the coincidence determination processing in this embodiment, the posterior probabilities are obtained for a random mismatch filter. And whether to adopt the posterior probability according to the annealing temperature is determined. The annealing temperature is set according to the annealing schedule. If the annealing temperature is high, it may be adopted even if the posterior probability is low, so that the local maximum can be escaped. When the annealing temperature is lowered, the possibility of adopting a low posterior probability is reduced and gradually converges to the global maximum.

図23は、実施の形態3における一致判定処理の手順を示すフローチャートである。領域分割部112は、小ブロックbl1と小ブロックbl2を入力して、小ブロックbl1と小ブロックbl2から一致判定を行って不一致フィルタafを得る(ステップS2301)。そして、アニーリング温度Tを初期温度T0で初期化し、ある温度における反復回数MをM0で初期化し、事後確率の最大値を与える不一致フィルタaf_maxを入力した不一致フィルタafとする(ステップS2302)。   FIG. 23 is a flowchart illustrating a procedure of matching determination processing according to the third embodiment. The area dividing unit 112 receives the small block bl1 and the small block bl2, and performs a match determination from the small block bl1 and the small block bl2 to obtain a mismatch filter af (step S2301). Then, the annealing temperature T is initialized with the initial temperature T0, the number of iterations M at a certain temperature is initialized with M0, and the mismatch filter af_max that gives the maximum value of the posterior probability is set as the mismatch filter af (step S2302).

次に、事前確率算出部114により、不一致フィルタafを用いて事前確率p(x)を算出する(ステップS2303)。ここで、事前確率p(x)の算出処理については実施の形態1の事前確率算出処理(図12)と同様に行われる。   Next, the prior probability calculation unit 114 calculates the prior probability p (x) using the mismatch filter af (step S2303). Here, the calculation process of the prior probability p (x) is performed in the same manner as the prior probability calculation process (FIG. 12) of the first embodiment.

そして、尤度算出部113によって、不一致フィルタaf、小ブロックbl1、小ブロックbl2を用いて尤度p(y|x)を算出する(ステップS2304)。ここで、尤度p(y|x)の算出処理については実施の形態1の尤度算出処理(図13)と同様に行われる。   Then, the likelihood calculating unit 113 calculates the likelihood p (y | x) using the mismatch filter af, the small block bl1, and the small block bl2 (step S2304). Here, the likelihood p (y | x) calculation process is performed in the same manner as the likelihood calculation process (FIG. 13) of the first embodiment.

次に、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から現在の事後確率p(x|y)であるCurPを算出し、最大の事後確率p(x|y)であるMaxPにCurPを設定する(ステップS2305)。   Next, the posterior probability calculation unit 115 calculates CurP which is the current posterior probability p (x | y) from the product of the prior probability p (x) and the likelihood p (y | x), and the maximum posterior probability p CurP is set to MaxP which is (x | y) (step S2305).

次に、領域分割部112は、不一致フィルタafに摂動を加えて摂動解としての不一致フィルタaf_newを生成する(ステップS2306)。ここで、摂動としては、例えば、ランダムに4ピクセルを選択し、選択された4ピクセルの値を反転させるなどが考えられる。   Next, the region dividing unit 112 generates a mismatch filter af_new as a perturbation solution by adding a perturbation to the mismatch filter af (step S2306). Here, as the perturbation, for example, 4 pixels may be selected at random, and the value of the selected 4 pixels may be inverted.

そして、事前確率算出部114により、生成された不一致フィルタaf_newを用いて事前確率p(x)を算出する(ステップS2307)。また 尤度算出部113によって、不一致フィルタaf_new、小ブロックbl1、小ブロックbl2を用いて尤度p(y|x)を算出する(ステップS2308)。そして、事後確率算出部115によって、事前確率p(x)と尤度p(y|x)の積から次の状態の事後確率p(x|y)であるNewPを算出する(ステップS2309)。そして、判断部116は、次の状態の事後確率p(x|y)であるNewPと現在の事後確率p(x|y)であるCurPの差ΔCostを求め(ステップS2310)、差ΔCostが0より大きいか否かを判断する(ステップS2311)。   Then, the prior probability calculation unit 114 calculates the prior probability p (x) using the generated mismatch filter af_new (step S2307). Further, the likelihood calculating unit 113 calculates the likelihood p (y | x) using the mismatch filter af_new, the small block bl1, and the small block bl2 (step S2308). Then, the posterior probability calculation unit 115 calculates NewP, which is the posterior probability p (x | y) of the next state, from the product of the prior probability p (x) and the likelihood p (y | x) (step S2309). Then, the determination unit 116 obtains a difference ΔCost between NewP, which is the posterior probability p (x | y) of the next state, and CurP, which is the current posterior probability p (x | y) (step S2310), and the difference ΔCost is 0. It is determined whether it is larger (step S2311).

そして、次の状態の事後確率NewPと現在の事後確率CurPの差ΔCostが0より大きい場合には(ステップS2311:Yes)、判断部116は、現在の事後確率CurPに次の状態の事後確率NewPを設定し、不一致フィルタafに不一致フィルタaf_newを設定する(ステップS2312)。そして、判断部116は、次の状態の事後確率NewPが、最大の事後確率MaxPより大きいか否かを判断する(ステップS2313)。   When the difference ΔCost between the posterior probability NewP of the next state and the current posterior probability CurP is greater than 0 (step S2311: Yes), the determination unit 116 adds the posterior probability NewP of the next state to the current posterior probability CurP. And the mismatch filter af_new is set in the mismatch filter af (step S2312). Then, the determination unit 116 determines whether or not the posterior probability NewP of the next state is larger than the maximum posterior probability MaxP (step S2313).

そして、次の状態の事後確率NewPが、最大の事後確率MaxPより大きい場合には(ステップS2313:Yes)、判断部116は、最大の事後確率MaxPに次の状態の事後確率NewPを設定し、事後確率の最大値を与える不一致フィルタaf_maxに不一致フィルタaf_newを設定する(ステップS2314)。   When the posterior probability NewP of the next state is larger than the maximum posterior probability MaxP (step S2313: Yes), the determination unit 116 sets the posterior probability NewP of the next state as the maximum posterior probability MaxP, The mismatch filter af_new is set to the mismatch filter af_max that gives the maximum value of the posterior probability (step S2314).

一方、ステップS2313において、次の状態の事後確率NewPが、最大の事後確率MaxP以下の場合には(ステップS2313:No)、最大の事後確率MaxPと事後確率の最大値を与える不一致フィルタaf_maxは変更されない。   On the other hand, in step S2313, when the posterior probability NewP of the next state is equal to or less than the maximum posterior probability MaxP (step S2313: No), the mismatch filter af_max that gives the maximum value of the maximum posterior probability MaxP and the posterior probability is changed. Not.

ステップS2311において、次の状態の事後確率NewPと現在の事後確率CurPの差ΔCostが0以下である場合には(ステップS2311:No)、判断部116は、現在の事後確率CurPと不一致フィルタafは変更せず、0から1までの一様乱数を発生させ、この一様乱数がexp(ΔCost/T)より小さいか否かを調べる(ステップS2315)。そして、一様乱数がexp(ΔCost/T)より小さい場合には(ステップS2315:Yes)、判断部116は、現在の事後確率CurPに次の状態の事後確率NewPを設定し、不一致フィルタafに不一致フィルタaf_newを設定する(ステップS2316)。   In step S2311, when the difference ΔCost between the posterior probability NewP of the next state and the current posterior probability CurP is equal to or smaller than 0 (step S2311: No), the determination unit 116 determines that the current posterior probability CurP and the mismatch filter af are Without change, a uniform random number from 0 to 1 is generated, and it is checked whether this uniform random number is smaller than exp (ΔCost / T) (step S2315). When the uniform random number is smaller than exp (ΔCost / T) (step S2315: Yes), the determination unit 116 sets the posterior probability NewP of the next state to the current posterior probability CurP, and sets the mismatch filter af. A mismatch filter af_new is set (step S2316).

一方、ステップS2315において、一様乱数がexp(ΔCost/T)以上である場合には(ステップS2315:No)、現在の事後確率CurPと不一致フィルタafは変更されない。   On the other hand, if the uniform random number is not less than exp (ΔCost / T) in step S2315 (step S2315: No), the current posterior probability CurP and the mismatch filter af are not changed.

次に、反復回数Mを1だけデクリメントし、Mが0になったか否かを調べる(ステップS2317)。そして、反復回数Mが0になっていない場合には(ステップS2317:No)、ステップS2306からS2316までの処理を繰り返し実行する。一方、ステップS2317において、反復回数Mが0になった場合には(ステップS2317:Yes)、判断部116は、時間Timeに反復回数Mを加算し、温度Tに減少率αを乗じ、さらに反復回数Mに上昇率βを乗じて、それぞれ時間Time、温度T、反復回数Mを更新する(ステップS2318)。ここで、温度Tの減少率αは0.8から1.0の間の値とする。また、Mの上昇率βは1.0以上の値とする。   Next, the iteration number M is decremented by 1, and it is checked whether or not M has become 0 (step S2317). If the number of iterations M is not 0 (step S2317: No), the processes from step S2306 to S2316 are repeatedly executed. On the other hand, when the number of iterations M becomes 0 in step S2317 (step S2317: Yes), the determination unit 116 adds the number of iterations M to the time Time, multiplies the temperature T by the decrease rate α, and further repeats. The number of times M is multiplied by the rate of increase β to update the time Time, the temperature T, and the number of iterations M (step S2318). Here, the decrease rate α of the temperature T is a value between 0.8 and 1.0. Further, the increase rate β of M is set to a value of 1.0 or more.

そして、判断部116は、時間Timeが最大時間TimeMaxを超えたか否かを判断して(ステップS2319)、最大時間TimeMaxを超えていない間は(ステップS2319:No)、ステップS2306からS2318までの処理を繰り返し実行する。一方、ステップS2319において、時間Timeが最大時間TimeMaxを超えた場合には(ステップS2319:Yes)、処理を終了する。このような処理により、事後確率p(x|y)を最大値とする不一致フィルタaf_maxが出力される。   Then, the determination unit 116 determines whether or not the time Time has exceeded the maximum time TimeMax (step S2319), and while not exceeding the maximum time TimeMax (step S2319: No), the processing from step S2306 to S2318 is performed. Repeatedly. On the other hand, if the time Time exceeds the maximum time TimeMax in step S2319 (step S2319: Yes), the process ends. By such processing, the mismatch filter af_max having the maximum value of the posterior probability p (x | y) is output.

このように本実施の形態にかかる補間画像生成装置では、不一致フィルタをランダムに与え、統計物理学等におけるメトロポリスアルゴリズムを利用して行って判定処理を行っているので、より確からしい手法で一致領域と不一致領域を分割することができるので、ごま塩雑音のようなノイズを低減するとともに、ロバスト性を向上させながら、ブロック歪みを低減して動画像を滑らかに表示することができる。   As described above, in the interpolated image generating apparatus according to the present embodiment, the mismatch filter is randomly given and the determination process is performed by using the metropolis algorithm in statistical physics or the like. Since the area and the non-matching area can be divided, noise such as sesame salt noise can be reduced and the robustness can be improved while the block distortion is reduced and the moving image can be displayed smoothly.

実施の形態1〜3にかかる補間画像生成装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   The interpolated image generation apparatus according to the first to third embodiments includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, a display device, and the like. The display device and an input device such as a keyboard and a mouse are provided, and a hardware configuration using a normal computer is employed.

実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD ( The program is recorded on a computer-readable recording medium such as Digital Versatile Disk).

また、実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の〜装置で実行される補間画像生成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments is stored on a computer connected to a network such as the Internet and is provided by being downloaded via the network. You may do it. Further, the interpolation image generation program executed by the apparatus of this embodiment may be provided or distributed via a network such as the Internet.

また、実施の形態1〜3にかかる補間画像生成プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the interpolation image generation program according to the first to third embodiments may be provided by being incorporated in advance in a ROM or the like.

実施の形態1〜3にかかる補間画像生成装置で実行される補間画像生成プログラムは、上述した各部(動き探索部111、領域分割部112、尤度算出部113、事前確率算出部114、事後確率算出部114、判断部116、動き補償部120)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から補間画像生成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、動き探索部111、領域分割部112、尤度算出部113、事前確率算出部114、事後確率算出部114、判断部116、動き補償部120が主記憶装置上に生成されるようになっている。   The interpolation image generation program executed by the interpolation image generation apparatus according to the first to third embodiments includes the above-described units (motion search unit 111, region division unit 112, likelihood calculation unit 113, prior probability calculation unit 114, posterior probability). The module configuration includes a calculation unit 114, a determination unit 116, and a motion compensation unit 120). As actual hardware, a CPU (processor) reads out and executes an interpolated image generation program from the storage medium, and executes the above-described units. Are loaded on the main storage device, and the motion search unit 111, the region division unit 112, the likelihood calculation unit 113, the prior probability calculation unit 114, the posterior probability calculation unit 114, the determination unit 116, and the motion compensation unit 120 are loaded on the main storage device. To be generated.

実施の形態1にかかる補間画像生成装置の機能的構成を示すブロック図である。1 is a block diagram illustrating a functional configuration of an interpolated image generation apparatus according to a first embodiment; 補間画像生成の全体処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the whole process of interpolation image generation. 動き推定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a motion estimation process. 最初の反復処理の不一致フィルタaf[0]の状態を示す説明図である。It is explanatory drawing which shows the state of the mismatch filter af [0] of the first iteration process. 不一致フィルタの内容を示す説明図である。It is explanatory drawing which shows the content of a mismatch filter. 動き探索処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a motion search process. 最初の反復時(ite=1)の場合における動きベクトル推定処理の説明図である。It is explanatory drawing of the motion vector estimation process in the case of the first repetition (ite = 1). 二回目以降の反復時(ite>1)の場合における動きベクトル推定処理の説明図である。It is explanatory drawing of the motion vector estimation process in the case of the repetition after the 2nd time (ite> 1). 一致判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a coincidence determination process. 探索領域パターンの例を示す説明図である。It is explanatory drawing which shows the example of a search area | region pattern. 階層生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a hierarchy production | generation process. 事前確率算出部114による事前確率の算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the prior probability calculation process by the prior probability calculation part. 尤度算出部113による尤度の算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the likelihood calculation process by the likelihood calculation part 113. 動き補償部120による動き補償処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of motion compensation processing by a motion compensation unit 120. ブロック内で一致領域を変化させた状態を示す説明図である。It is explanatory drawing which shows the state which changed the coincidence area within the block. 左半分の領域が一致領域となるノイズのない画像の2つのブロックの例を示す説明図である。It is explanatory drawing which shows the example of two blocks of the image without a noise whose left half area | region becomes a coincidence area. 従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。It is explanatory drawing which shows the image of the interpolation frame produced | generated using the conventional matching determination method. 図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。It is explanatory drawing which shows distribution of the posterior probability calculated | required by the matching determination by the interpolation image generation apparatus 100 concerning this Embodiment with respect to two blocks shown in FIG. 左半分の領域が一致領域となるノイズが存在する画像の2つのブロックの例を示す説明図である。It is explanatory drawing which shows the example of two blocks of the image in which the noise whose left half area | region becomes a coincidence area exists. 従来の一致判定手法を利用して生成した補間フレームの画像を示す説明図である。It is explanatory drawing which shows the image of the interpolation frame produced | generated using the conventional matching determination method. 図16に示す2つのブロックに対して本実施の形態にかかる補間画像生成装置100による一致判定により求めた事後確率の分布を示す説明図である。It is explanatory drawing which shows distribution of the posterior probability calculated | required by the matching determination by the interpolation image generation apparatus 100 concerning this Embodiment with respect to two blocks shown in FIG. 実施の形態2における一致判定処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of matching determination processing according to the second embodiment. 実施の形態3における一致判定処理の手順を示すフローチャートである。12 is a flowchart illustrating a procedure of matching determination processing according to the third embodiment. ブロック内のの2点であるクリークを示す説明図である。It is explanatory drawing which shows the clique which is two points in a block.

符号の説明Explanation of symbols

110 動き推定部
111 動き探索部
112 領域分割部
113 尤度算出部
114 事前確率算出部
115 事後確率算出部
116 判断部
120 動き補償部
130 フレームメモリ
110 motion estimation unit 111 motion search unit 112 region dividing unit 113 likelihood calculation unit 114 prior probability calculation unit 115 posterior probability calculation unit 116 determination unit 120 motion compensation unit 130 frame memory

Claims (10)

動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成装置であって、
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手段と、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手段と、
前記動き探索手段によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手段と、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手段と、
前記尤度算出手段によって算出された尤度と、前記事前確率算出手段によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手段と、
前記事後確率算出手段によって算出された前記事後確率が最大値を有する場合に、前記領域分割手段によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手段と、
前記判断手段によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手段と、
を備えたことを特徴とする補間画像生成装置。
An interpolation image generation device that generates an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
Motion search means for obtaining a first motion vector from the first reference image and the second reference image;
Area dividing means for dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search means are located inside the matching area in the second block on the second reference image. Likelihood calculating means for calculating likelihood based on distribution of pixel information;
A prior probability calculating means for calculating a prior probability indicating a spatial distribution probability of the matching region and the mismatch region;
Based on the likelihood calculated by the likelihood calculating means and the prior probability calculated by the prior probability calculating means, a posterior probability indicating the likelihood of division of the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculating means;
Determining means for determining that the matching area and the mismatching area divided by the area dividing means are likely area divisions when the posterior probability calculated by the posterior probability calculating means has a maximum value; ,
When the determination unit determines that the matching area and the mismatching area are likely area divisions, the matching area is calculated from the first reference image, the second reference image, and the first motion vector. Motion compensation means for performing motion compensation based only on the generated image and generating the interpolated image;
An interpolated image generating apparatus comprising:
前記動き探索手段は、前記判断手段によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断された場合に前記不一致領域のみに基づいて、第2の動きベクトルを求めることを特徴とする請求項1に記載の補間画像生成装置。   The motion search means obtains a second motion vector based only on the mismatch area when the determination means determines that the matching area and the mismatch area are likely area divisions. The interpolated image generation apparatus according to claim 1. 前記尤度算出手段は、前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の画素差分のガウス分布に従った分布に基づいた尤度を算出することを特徴とする請求項1または2に記載の補間画像生成装置。   The likelihood calculating means is based on a distribution according to a Gaussian distribution of pixel differences of the matching region in the first block on the first reference image and the second block on the second reference image. The interpolation image generation device according to claim 1, wherein likelihood is calculated. 前記尤度算出手段は、前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の画素差分の一般化ガウス分布に従った分布に基づいた尤度を算出することを特徴とする請求項3に記載の補間画像生成装置。   The likelihood calculating means has a distribution according to a generalized Gaussian distribution of pixel differences of the matching regions in the first block on the first reference image and the second block on the second reference image. 4. The interpolated image generation apparatus according to claim 3, wherein a likelihood based on the calculated likelihood is calculated. 前記事前確率算出手段は、前記一致領域と前記不一致領域の空間分布が集中している程高い確率を示す前記事前確率を算出することを特徴とする請求項1〜4のいずれか一つに記載の補間画像生成装置。   The said prior probability calculation means calculates the said prior probability which shows a high probability, so that the spatial distribution of the said coincidence area | region and the said mismatch area | region is concentrated. The interpolated image generation device described in 1. 前記事前確率算出手段は、前記一致領域の空間分布が前記不一致領域の空間分布より高い確率を示す前記事前確率を算出することを特徴とする請求項1〜5のいずれか一つに記載の補間画像生成装置。   The said prior probability calculation means calculates the said prior probability which shows the probability that the spatial distribution of the said coincidence area is higher than the spatial distribution of the said disagreement area | region. Interpolated image generation device. 前記領域分割手段は、前記第1の参照画像内の所定サイズのブロックを、階層構造で一致領域と不一致領域とに分割することを特徴とする請求項1〜6のいずれか一つに記載の補間画像生成装置。   7. The area dividing unit divides a block of a predetermined size in the first reference image into a matching area and a mismatch area in a hierarchical structure. Interpolated image generation device. 前記領域分割手段は、前記第1の参照画像内の所定サイズのブロックを、ランダムに一致領域と不一致領域とに分割することを特徴とする請求項1〜7のいずれか一つに記載の補間画像生成装置。   The interpolation according to claim 1, wherein the region dividing unit divides a block of a predetermined size in the first reference image into a matching region and a mismatching region at random. Image generation device. 動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成方法であって、
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索ステップと、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割ステップと、
前記動き探索ステップによって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出ステップと、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出ステップと、
前記尤度算出ステップによって算出された尤度と、前記事前確率算出ステップによって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出ステップと、
前記事後確率算出ステップによって算出された前記事後確率が最大値を有する場合に、前記領域分割ステップによって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断ステップと、
前記判断ステップによって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断すると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償ステップと、
を含むことを特徴とする補間画像生成方法。
An interpolation image generation method for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
A motion search step for obtaining a first motion vector from the first reference image and the second reference image;
An area dividing step of dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search step are located inside the matching area in the second block on the second reference image. A likelihood calculating step for calculating a likelihood based on the distribution of pixel information;
A prior probability calculating step of calculating a prior probability indicating a probability of spatial distribution of the matched region and the mismatched region;
Based on the likelihood calculated by the likelihood calculating step and the prior probability calculated by the prior probability calculating step, a posterior probability indicating the likelihood of dividing the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculation step;
A determination step of determining, when the posterior probability calculated by the posterior probability calculation step has a maximum value, the matching region and the non-matching region divided by the region dividing step are likely region divisions; ,
When it is determined by the determining step that the matching region and the mismatching region are likely region divisions, the first reference image, the second reference image, and the first motion vector A motion compensation step for performing motion compensation based only on the matching region and generating the interpolated image;
A method for generating an interpolated image, comprising:
動画像の第1参照画像と第2参照画像との間に内挿する補間画像を生成する補間画像生成プログラムであって、
前記第1の参照画像と前記第2の参照画像から第1の動きベクトルを求める動き探索手順と、
前記第1の参照画像内の所定サイズのブロックを、一致領域と不一致領域とに分割する領域分割手順と、
前記動き探索手順によって求められた前記第1の動きベクトルによって定められる前記第1の参照画像上の第1のブロックと前記第2の参照画像上の前記第2のブロックにおける前記一致領域の内部の画素情報の分布に基づいた尤度を算出する尤度算出手順と、
前記一致領域と前記不一致領域の空間分布の確率を示す事前確率を算出する事前確率算出手順と、
前記尤度算出手順によって算出された尤度と、前記事前確率算出手順によって算出された事前確率から、一致領域と不一致領域の分割の尤もらしさを示す事後確率をベイズの定理に基づいて算出する事後確率算出手順と、
前記事後確率算出手順によって算出された前記事後確率が最大値を有する場合に、前記領域分割手順によって分割した前記一致領域と前記不一致領域を、尤もらしい領域分割であると判断する判断手順と、
前記判断手順によって前記一致領域と前記不一致領域が尤もらしい領域分割であると判断すると判断された場合に、前記第1の参照画像と前記第2の参照画像と前記第1の動きベクトルとから前記一致領域のみに基づいて動き補償を行い、前記補間画像を生成する動き補償手順と、
をコンピュータに実行させる補間画像生成プログラム。
An interpolation image generation program for generating an interpolation image to be interpolated between a first reference image and a second reference image of a moving image,
A motion search procedure for obtaining a first motion vector from the first reference image and the second reference image;
An area dividing procedure for dividing a block of a predetermined size in the first reference image into a matching area and a mismatching area;
The first block on the first reference image and the second block on the second reference image defined by the first motion vector obtained by the motion search procedure are located inside the matching area in the second block on the second reference image. A likelihood calculation procedure for calculating a likelihood based on the distribution of pixel information;
A prior probability calculating procedure for calculating a prior probability indicating a probability of a spatial distribution of the matching region and the mismatch region;
Based on the likelihood calculated by the likelihood calculation procedure and the prior probability calculated by the prior probability calculation procedure, a posterior probability indicating the likelihood of division of the matched region and the unmatched region is calculated based on Bayes' theorem. A posteriori probability calculation procedure;
A determination procedure for determining, when the posterior probability calculated by the posterior probability calculation procedure has a maximum value, that the matching region and the mismatching region divided by the region division procedure are likely region divisions; ,
When it is determined by the determination procedure that the matching region and the mismatching region are likely region divisions, the first reference image, the second reference image, and the first motion vector A motion compensation procedure for performing motion compensation based only on the matching region and generating the interpolated image;
Interpolated image generation program for causing a computer to execute.
JP2004282694A 2004-09-28 2004-09-28 Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program Expired - Fee Related JP4220451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004282694A JP4220451B2 (en) 2004-09-28 2004-09-28 Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004282694A JP4220451B2 (en) 2004-09-28 2004-09-28 Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program

Publications (2)

Publication Number Publication Date
JP2006101032A true JP2006101032A (en) 2006-04-13
JP4220451B2 JP4220451B2 (en) 2009-02-04

Family

ID=36240451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004282694A Expired - Fee Related JP4220451B2 (en) 2004-09-28 2004-09-28 Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program

Country Status (1)

Country Link
JP (1) JP4220451B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013048465A (en) * 2006-06-27 2013-03-07 Marvell World Trade Ltd Systems and methods for motion compensated picture rate converter
JP2015519027A (en) * 2012-06-05 2015-07-06 クヮンジュ・インスティテュート・オブ・サイエンス・アンド・テクノロジー Finite field sparse signal restoration method, finite field sparse signal restoration device, and recording medium on which this method is recorded
CN113067959A (en) * 2021-03-16 2021-07-02 合肥合芯微电子科技有限公司 Image interpolation method, device and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013048465A (en) * 2006-06-27 2013-03-07 Marvell World Trade Ltd Systems and methods for motion compensated picture rate converter
JP2015519027A (en) * 2012-06-05 2015-07-06 クヮンジュ・インスティテュート・オブ・サイエンス・アンド・テクノロジー Finite field sparse signal restoration method, finite field sparse signal restoration device, and recording medium on which this method is recorded
CN113067959A (en) * 2021-03-16 2021-07-02 合肥合芯微电子科技有限公司 Image interpolation method, device and storage medium
CN113067959B (en) * 2021-03-16 2022-05-03 合肥合芯微电子科技有限公司 Image interpolation method, device and storage medium

Also Published As

Publication number Publication date
JP4220451B2 (en) 2009-02-04

Similar Documents

Publication Publication Date Title
US6297825B1 (en) Temporal smoothing of scene analysis data for image sequence generation
CN110728219A (en) 3D face generation method based on multi-column multi-scale graph convolution neural network
CN102572359B (en) Auto-regressive edge-directed interpolation with backward projection constraint
CN113610172B (en) Neural network model training method and device and sensing data fusion method and device
CN115797571A (en) New visual angle synthesis method of 3D stylized scene
Lin et al. Zig-zag network for semantic segmentation of RGB-D images
CN111986105B (en) Video time sequence consistency enhancing method based on time domain denoising mask
CN114842216A (en) Indoor RGB-D image semantic segmentation method based on wavelet transformation
CN114648451A (en) Intelligent noise reduction
Xu et al. AutoSegNet: An automated neural network for image segmentation
Wang et al. Improved surface reconstruction using high-frequency details
CN108986210B (en) Method and device for reconstructing three-dimensional scene
JP2019023798A (en) Super-resolution device and program
JP4220451B2 (en) Interpolated image generating apparatus, interpolated image generating method, and interpolated image generating program
Carreau et al. A spatially adaptive multi-resolution generative algorithm: Application to simulating flood wave propagation
CN115812206A (en) Machine learning for high quality image processing
Luhman et al. High fidelity image synthesis with deep vaes in latent space
CN103618904A (en) Motion estimation method and device based on pixels
Liu et al. Image Inpainting via Tractable Steering of Diffusion Models
CN114764746A (en) Super-resolution method and device for laser radar, electronic device and storage medium
CN110490235B (en) Vehicle object viewpoint prediction and three-dimensional model recovery method and device facing 2D image
CN112052863A (en) Image detection method and device, computer storage medium and electronic equipment
Ren et al. Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization
CN108600762B (en) Progressive video frame generation method combining motion compensation and neural network algorithm
Wang A Markov Model‐Based Fusion Algorithm for Distorted Electronic Technology Archives

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees