JP3700230B2 - Motion compensation method in video coding - Google Patents
Motion compensation method in video coding Download PDFInfo
- Publication number
- JP3700230B2 JP3700230B2 JP361696A JP361696A JP3700230B2 JP 3700230 B2 JP3700230 B2 JP 3700230B2 JP 361696 A JP361696 A JP 361696A JP 361696 A JP361696 A JP 361696A JP 3700230 B2 JP3700230 B2 JP 3700230B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion
- image
- motion compensation
- motion vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、動画像符号化における動き補償方法に関するものである。
【0002】
【従来の技術】
動画像の高能率符号化において、時間的に近接するフレーム間の類似性を活用する動き補償は情報圧縮に大きな効果を示すことが知られている。現在の画像符号化技術の主流となっている動き補償方式は、動画像符号化方式の国際標準であるMPEG1およびMPEG2にも採用されている半画素精度のブロックマッチングである。この方式では、符号化しようとする画像を多数のブロックに分割し、ブロックごとにその動きベクトルを水平・垂直方向に隣接画素間距離の半分の長さを最小単位として求める。この処理を数式を用いて表現すると以下のようになる。符号化しようとするフレーム(現フレーム)の予測画像をP(x, y)、参照画像(Pと時間的に近接しており、既に符号化が完了しているフレームの復号画像)をR(x, y)とする。また、xとyは整数であるとして、PとRでは座標値が整数である点に画素が存在すると仮定する。このとき、PとRの関係は、
【0003】
【数1】
【0004】
で表される。ただし、画像はn個のブロックに分割されるとして、Biは画像のi番目のブロックに含まれる画素、(ui, vi)はi番目のブロックの動きベクトルを表している。
【0005】
半画素精度のブロックマッチングでは、uiとviはそれぞれ画素間距離の半分、つまりこの場合は1/2を最小単位として求められることになる。したがって、座標値が整数ではなく、参照画像において実際には画素が存在しない点(以後、このような点を内挿点とよぶ)の輝度値を求めることが必要となる。この際の処理としては、周辺4画素を用いた共1次内挿が使われることが多い。この内挿方式を数式で記述すると、座標値の小数成分をαとβ(0≦α, β<1)として、参照画像の内挿点(x+α, y+β)における輝度値R(x+α, y+β)は、
【0006】
【数2】
【0007】
で表される。
【0008】
半画素精度のブロックマッチングは上で述べた通り、現在広く用いられているが、MPEG1やMPEG2より高い情報圧縮率が必要となるアプリケーションではさらに高度な動き補償方式が要求される。ブロックマッチングの欠点はブロック内のすべての画素が同一の動きベクトルを持たなければならない点にある。そこでこの問題を解決するために、隣接する画素が異なる動きベクトルを持つことを許容する動き補償方式が最近提案されている。以下にこの方式の一例である空間変換に基づく動き補償に関して簡単に説明する。
【0009】
空間変換に基づく動き補償では、予測画像Pと参照画像Rの関係は、
【0010】
【数3】
【0011】
で表される。ただし、画像はn個の小領域(パッチ)に分割されるとして、Piは画像のi番目のパッチに含まれる画素を表している。また、変換関数fi(x, y)とgi(x, y)は現フレームの画像と参照画像との間の空間的な対応を表現している。このとき、Pi内の画素(x, y)の動きベクトルは、(x−fi(x, y),y−gi(x, y))で表すことができる。ところで、ブロックマッチングは変換関数が定数である方式として、空間変換に基づく動き補償の特殊な例として解釈することもできる。しかし、本明細書で空間変換に基づく動き補償という言葉を用いるときには、ブロックマッチングはその中に含まないこととする。
【0012】
変換関数の形としては、アフィン変換
【0013】
【数4】
【0014】
を用いた例(中屋他、「3角形パッチに基づく動き補償の基礎検討」、電子情報通信学会技術報告、IE90-106、平2-03参照)、共1次変換
【0015】
【数5】
【0016】
を用いた例( G. J. Sullivan and R. L. Baker, "Motion compensation for video compression using control grid interpolation", Proc. ICASSP '91 , M9.1, pp.2713-2716, 1991-05)
などが報告されている。ここでaij、bijはパッチごとに推定される動きパラメータである。実際の画像符号化を行う場合には、aij、bijを直接伝送するのではなく、パッチの頂点の動きベクトルが伝送される。例えば変換関数としてアフィン変換を採用し、3角形のパッチを用いればパッチの3個の頂点の動きベクトルから動きパラメータaijを計算することができる。したがって、受信側では受信した頂点の動きベクトルから送信側と同じ変換関数を構成することが可能となる。一方、変換関数として共1次変換を用いた場合には、長方形のパッチを用いてそのパッチの4個の頂点の動きベクトルを伝送すれば同様の処理を実現することができる。以下では、変換関数にアフィン変換を用いた場合に関して説明するが、この説明は共1次変換を用いた場合についても、ほぼそのまま適用することができる。
【0017】
変換関数が確定しても空間変換に基づく動き補償には様々なバリエーションを考えることができるが、その一例を図1に示す。この例では、パッチの境界において動きベクトルが連続的に変化するように制約されている。以下では、参照画像101を用いて現フレームの原画像102の予測画像を合成することを考える。このために、まず現フレームは複数の多角形のパッチに分割され、パッチ分割された画像108となる。パッチの頂点は格子点とよばれ、各格子点は複数のパッチに共有される。例えば、パッチ109は、格子点110、111、112から構成され、これらの格子点は他のパッチの頂点を兼ねている。こうして画像を複数のパッチに分割した後に、動き推定が行なわれる。ここに示す例では、動き推定は各格子点を対象として参照画像との間で行なわれる。この結果、動き推定後の参照画像103で各パッチは変形されたものとなる。例えば、パッチ109は、変形されたパッチ104に対応している。これは、動き推定の結果、格子点105、106、107がそれぞれ110、111、112に移動したと推定されたためである。予測画像はパッチ内の各画素に関して変換関数を計算し、数3にしたがって参照画像の中から対応する点の輝度値を求めることにより合成される。このように一方の画像の一部に変形操作を加えて他の画像に貼り付ける処理のことをテキスチャマッピング、またはイメージワーピングとよぶ。これは、上で述べた通り3個の頂点の動きベクトルから数4の6個の動きパラメータを計算し、画素ごとに数4を計算することにより実現することができる。
【0018】
空間変換に基づく動き補償は、回転や拡大など、ブロックマッチングでは対応できない動きパターンにも対応出来ることに特徴がある。その一方で処理の演算量が多いという問題があるが、これを簡略化する方法として特願平06-193971で示されている方法などが考案されている。
【0019】
図1で示した空間変換に基づく動き補償方式のもう一つの欠点として、動きベクトルの不連続に対応できないことが挙げられる。一般的に動画像においては動物体と静止物体の境界部分等において動きベクトルの不連続が発生する。しかし、図1で示した方式では動きベクトルの連続性(パッチ内はもちろん、パッチの境界においても動きベクトルは連続的に変化すること)が仮定されているため、復号化後の再生画像内において動物体と静止物体の境界部分で不自然な歪みが発生するなどの問題が発生する。
【0020】
【発明が解決しようとする課題】
ブロックマッチングでは単純な平行移動に基づく動きモデルが用いられているため、十分に画像内の物体の動きを近似することができない。一方空間変換に基づく動き補償では動きベクトルの連続性が仮定されているため、再生画像の動物体と静止物体の境界部分等で不自然な歪みを発生する問題が生じる。
【0021】
【課題を解決するための手段】
画像をブロックに分割し、それぞれのブロックに複数の動きベクトルが関与するようにする。そして、これらの動きベクトルを使用して、複数の候補の中で最適な動き補償方式を選択できるようにする。
【0022】
【発明の実施の形態】
図2に画像を横n個、縦m個(n、mは正の整数)のブロックに分割し、1個または複数のブロックの頂点が重なる位置に(n+1)×(m+1)個の格子点と呼ばれる点を配置した様子を示す。例えば201、202はブロック、203、204、205、206は格子点である。なお、格子点は必ずしもブロックの頂点の上に存在しているとしなくても良いが、本明細書では図2に示した位置に存在しているとする。
【0023】
各格子点は動きベクトルを持つことができるとする。この動きベクトルの推定方法としては、中心に格子点を持つブロックによってブロックマッチングを行うなどの方法を考えることができる。各ブロック内の予測画像は、そのブロックの頂点に位置する4個の格子点の動きベクトルを用いて合成されるとする。例えばブロック201を考えた場合、格子点203、204、205、206の4個の格子点の動きベクトルが使用される。このように、画像内のすべてのブロックには4個の格子点が関与するようにすることができる。
【0024】
4個の格子点を用いて動き補償を行う方法は複数考えられる。その1つとして、4個の格子点の中から1個を選択し、その格子点の動きベクトルをブロック全体の動きベクトルとする方法が挙げられる。例えば図2のブロック201では、格子点203、204、205、206の中から最適な動きベクトルを持つ格子点を選択することができる。また、4個の格子点の動きベクトルの平均値をブロックの動きベクトルとしても良い。さらに、1個または2個の格子点の動きベクトルが他と大きく異なるような場合には、4個の動きベクトルの水平、垂直成分それぞれの中から最大値と最小値を除外してから平均を求める方法も考えることができる。この予測画像の合成方法はブロックマッチングと同じであり、単純な演算で良好な予測特性を得ることができる。しかし、物体の回転、拡大・縮小や同一ブロック内に異なる方向に動く複数の物体が存在する場合には、十分な特性が得られない。
【0025】
図3には画像を複数の直角3角形に分割した例を示す。ブロック301の例では格子点303、305、304によって構成される3角形と格子点304、305、306によって構成される3角形に分割される。ブロック302の例では、格子点307、310、308によって構成される3角形と格子点307、309、310によって構成される3角形に分割される。このような分割を行った場合の予測画像の合成方法として、まずそれぞれの部分に、ブロックに関与している4個の動きベクトルの中から1個ずつの動きベクトルを割り当てる方法が考えられる。例えばブロック301の例では格子点303、305、304によって構成される3角形に対しては格子点303の動きベクトルを、格子点304、305、306によって構成される3角形に対しては格子点306の動きベクトルを割り当てることができる。この方法は上で述べた、ブロック全体に1個の動きベクトルを割り当てる方式と比較して処理がやや複雑であるが、その分対応できる動きの範囲が広くなっている。例えば301のブロック分割において動物体と静止物体の境界が格子点304と305を結ぶ対角線上に位置しているような場合には、高い予測特性を示すことが予想できる。また、ブロック分割の方法としてブロック301に示した例とブロック302に示した例の両方の中から一方を選択できるようにすれば、対応できる動きのパターンの範囲をさらに広げることができる。なお、ブロックを2個の部分に分割する方法として、図3で示した方法以外にも手段があることは明らかである。図3の方式以外の分割においてもそれぞれの部分に4個の動きベクトルの中から1個を割り当てれば同様の処理を実現することができる。
【0026】
図3の分割を用いたもう1つの予測画像の合成方法として、数4で示したアフィン変換を用いた方法を考えることができる。例えばブロック301の例では、格子点303、305、304の動きベクトルを用いることによって、これらの格子点によって構成される3角形に対してアフィン変換に基づく予測画像の合成を行うことができる。また、同様の処理は格子点305、306、304によって構成される3角形に対しても行うことができる。ここでは、「従来の技術」の中で説明した空間変換に基づく動き補償と共通の技術が使用されている。この方法は上で述べた方法と比べてさらに処理が複雑となるが、物体の回転、拡大・縮小に対応できる重要な特徴を持っている。ただ、ブロック内で動きベクトルは連続となるので、ブロック内に異なる動きをする複数の物体が存在するような場合には良い特性は得られない。また、この方法においてもブロックの分割に関して2通りの方法が選択できるようにすることによって、予測特性をさらに改善することができる。
【0027】
アフィン変換を用いた例と良く似た予測画像の合成方法として数5で示した共1次変換を用いた方法がある。例えば、図2のブロック201の場合、格子点203、204、205、206の4個の動きベクトルを用いることによって数5でbijによって表される8個のパラメータを決定することができる。こうしてパッチ内の画素に対して空間変換に基づく動き補償と共通の技術を用いて予測画像の合成を行えばよい。この共1次変換を用いた方法はアフィン変換を用いた方法と良く似た特性を示すが、処理がやや複雑である。しかし、動きのパターンによってはアフィン変換を用いた場合より良い特性を示すことがあるため、予測画像の合成方法の選択肢の中に入れておくと便利である。
【0028】
図4はブロックを4個の部分に分割する予測画像の合成方法を示した例である。格子点402、403、404、405によって構成される4角形のブロック401は4個の小ブロック406、407、408、409に分割される。そして、例えば小ブロック406には格子点402の動きベクトル、小ブロック407には格子点404の動きベクトル、小ブロック408には格子点403の動きベクトル、小ブロック409には格子点405の動きベクトルを割り当てることによって4個の小ブロックによるブロックマッチングを実現できる。この方法はブロックを4個の部分に分割するため、上で述べた方法と比較してより多くの異なる動きをする物体が存在するような場合にも対応することができる。ただし、物体の回転、拡大・縮小には十分に対応することができない。なお、ブロックを4個の部分に分割する方法として、図4で示した方法以外にも手段があることは明らかである。図4の方式以外の分割においてもそれぞれの部分に4個の動きベクトルの中から1個を割り当てれば同様の処理を実現することができる。
【0029】
以上述べてきたように、ここでとりあげたブロック内の予測画像の合成方式は、それぞれに長所と欠点を持ち合わせている。動画像は、一般的に画像内の領域ごとに動きのパターンが大きく異なるという特徴を持っている。例えば静止領域、平行移動する領域、回転する領域、動領域と静止領域の境界などでは全く動きのパターンが異なっている。したがって画像をブロックに分割して領域ごとの局所的な対応ができるようにしたとしても、予測画像の合成方法が1通りしかない(=従来のブロックマッチングなど)では十分な予測特性を得ることができない。そこで、上で挙げた多数の予測画像の合成方法の中からブロックごとに最適な方法を選択することができるようにすることによって、予測特性を向上させることが可能となる。予測画像の誤差のみを考えるのであれば、異なる特徴を持った予測画像の合成方法をより多数持った方が特性を上げる上で有利となる。
【0030】
予測画像の合成方法はブロックごとに必ずしも1個のみを選ぶ必要はない。2個の合成方法を選択し(例えばアフィン変換とブロック4分割)、両者の間で輝度値の平均値をとったものをブロック内の予測画像とすることによって、さらに予測特性を向上させることも可能である。一般に異なる予測画像を平均化することによってノイズ除去とローパスフィルタの効果が得られ、予測特性が改善されることが知られている。MPEG1やMPEG2などの標準動画像符号化方式において、2つの方向(正方向と逆方法)から予測した画像を平均化する操作を行うこと(=両方向予測)ができるようになっているのはこのためである。なお、本明細書に記載した発明が、この両方向予測にも適用できることは明らかである。
【0031】
【発明の効果】
本発明により、動画像符号化の動き補償処理における予測特性を向上させることができる。
【図面の簡単な説明】
【図1】空間変換に基づく動き補償の処理の例を示した図である。
【図2】ブロックと格子点の配置の例を示した図である。
【図3】ブロックを2個の直角3角形に分割して動き補償を行う方式の例を示した図である。
【図4】ブロックを4個の小ブロックに分割して動き補償を行う方式の例を示した図である。
【符号の説明】
101…参照画像、102…現フレームの原画像、103…動き推定後の参照画像のパッチと格子点、104、109…パッチ、105〜107、110〜112、203〜206、303〜310、402〜405…格子点、201、202、301、302、401…ブロック、406〜409…小ブロック。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a motion compensation method in moving picture coding.
[0002]
[Prior art]
In high-efficiency coding of moving images, it is known that motion compensation that uses the similarity between temporally adjacent frames has a great effect on information compression. The motion compensation method that is the mainstream of the current image coding technology is block matching with half-pixel accuracy, which is also adopted in MPEG1 and MPEG2 which are international standards for moving image coding. In this method, an image to be encoded is divided into a large number of blocks, and the motion vector for each block is obtained in the horizontal / vertical direction with a length half the distance between adjacent pixels as a minimum unit. This process is expressed as follows using mathematical formulas. P (x, y) is a predicted image of a frame to be encoded (current frame), and a reference image (decoded image of a frame that is temporally close to P and already encoded) is R ( x, y). Further, assuming that x and y are integers, it is assumed that pixels exist at points where the coordinate values are integers in P and R. At this time, the relationship between P and R is
[0003]
[Expression 1]
[0004]
It is represented by However, the image is divided into n blocks, Bi is a pixel included in the i-th block of the image, and (ui, vi) represents a motion vector of the i-th block.
[0005]
In block matching with half-pixel accuracy, ui and vi are each obtained by taking half of the distance between pixels, that is, 1/2 in this case as a minimum unit. Therefore, it is necessary to obtain the luminance value of a point where the coordinate value is not an integer and no pixel actually exists in the reference image (hereinafter, such a point is referred to as an interpolation point). In this case, bilinear interpolation using four peripheral pixels is often used. When this interpolation method is described by mathematical formulas, the luminance value R (x + α, y + β) at the interpolation point (x + α, y + β) of the reference image, where α and β (0 ≦ α, β <1) are the decimal components of the coordinate value. Is
[0006]
[Expression 2]
[0007]
It is represented by
[0008]
As described above, half-pixel precision block matching is widely used at present. However, an application that requires a higher information compression rate than MPEG1 or MPEG2 requires a more advanced motion compensation method. The disadvantage of block matching is that all pixels in the block must have the same motion vector. In order to solve this problem, a motion compensation method that allows adjacent pixels to have different motion vectors has been recently proposed. The following is a brief description of motion compensation based on spatial transformation, which is an example of this method.
[0009]
In motion compensation based on spatial transformation, the relationship between the predicted image P and the reference image R is
[0010]
[Equation 3]
[0011]
It is represented by However, assuming that the image is divided into n small regions (patches), Pi represents a pixel included in the i-th patch of the image. Also, the conversion functions fi (x, y) and gi (x, y) represent the spatial correspondence between the current frame image and the reference image. At this time, the motion vector of the pixel (x, y) in Pi can be expressed by (x-fi (x, y), y-gi (x, y)). By the way, block matching can be interpreted as a special example of motion compensation based on spatial transformation as a method in which the transformation function is a constant. However, when the term motion compensation based on spatial transformation is used in this specification, block matching is not included therein.
[0012]
As the form of the transformation function, affine transformation
[Expression 4]
[0014]
(Nakaya et al., “Basic study of motion compensation based on triangular patch”, IEICE Technical Report, IE90-106, Hei 2-03), co-linear transformation
[Equation 5]
[0016]
(GJ Sullivan and RL Baker, "Motion compensation for video compression using control grid interpolation", Proc. ICASSP '91, M9.1, pp.2713-2716, 1991-05)
Etc. have been reported. Here, aij and bij are motion parameters estimated for each patch. When actual image encoding is performed, the motion vectors at the vertices of the patch are transmitted instead of directly transmitting aij and bij. For example, if affine transformation is adopted as the transformation function and a triangular patch is used, the motion parameter aij can be calculated from the motion vectors of the three vertices of the patch. Therefore, on the receiving side, the same transformation function as that on the transmitting side can be configured from the received vertex motion vectors. On the other hand, when bilinear transformation is used as the transformation function, similar processing can be realized by using a rectangular patch and transmitting the motion vectors of the four vertices of the patch. In the following, a case where an affine transformation is used as a transformation function will be described. However, this explanation can be applied almost as it is even when a bilinear transformation is used.
[0017]
Even if the transformation function is determined, various variations can be considered for motion compensation based on spatial transformation. One example is shown in FIG. In this example, the motion vector is constrained to change continuously at the patch boundary. In the following, it is considered to synthesize a predicted image of the
[0018]
Motion compensation based on spatial transformation is characterized by being able to handle motion patterns that cannot be handled by block matching, such as rotation and enlargement. On the other hand, there is a problem that the amount of processing is large, but as a method for simplifying this, the method shown in Japanese Patent Application No. 06-193971 has been devised.
[0019]
Another disadvantage of the motion compensation method based on the spatial transformation shown in FIG. 1 is that it cannot cope with discontinuity of motion vectors. In general, in a moving image, discontinuity of motion vectors occurs at a boundary portion between a moving object and a stationary object. However, since the motion vector continuity (the motion vector continuously changes not only in the patch but also at the boundary of the patch) is assumed in the method shown in FIG. 1, in the reproduced image after decoding, Problems such as unnatural distortion occur at the boundary between the moving object and the stationary object.
[0020]
[Problems to be solved by the invention]
Since a motion model based on a simple parallel movement is used in block matching, the motion of an object in an image cannot be sufficiently approximated. On the other hand, in motion compensation based on spatial transformation, since continuity of motion vectors is assumed, there arises a problem that unnatural distortion occurs at the boundary between a moving object and a stationary object in a reproduced image.
[0021]
[Means for Solving the Problems]
The image is divided into blocks, and a plurality of motion vectors are involved in each block. Then, using these motion vectors, an optimal motion compensation method can be selected from among a plurality of candidates.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 2 divides an image into n blocks in the horizontal direction and m blocks in the vertical direction (n and m are positive integers), and (n + 1) × (m + 1) lattice points at positions where the vertices of one or more blocks overlap. It shows how the points called are arranged. For example, 201 and 202 are blocks, and 203, 204, 205, and 206 are grid points. Note that the grid point does not necessarily exist on the top of the block, but in this specification, it is assumed that the grid point exists at the position shown in FIG.
[0023]
Assume that each lattice point can have a motion vector. As a motion vector estimation method, a method of performing block matching using a block having a lattice point at the center can be considered. Assume that the predicted image in each block is synthesized using the motion vectors of four lattice points located at the vertices of the block. For example, when the
[0024]
There are a plurality of methods for performing motion compensation using four lattice points. As one of them, there is a method in which one of four lattice points is selected and the motion vector of the lattice point is used as the motion vector of the entire block. For example, in the
[0025]
FIG. 3 shows an example in which an image is divided into a plurality of right triangles. In the example of the
[0026]
As another method for synthesizing a predicted image using the division of FIG. 3, a method using affine transformation expressed by Equation 4 can be considered. For example, in the example of the
[0027]
As a method for synthesizing a predicted image that is very similar to the example using affine transformation, there is a method using bilinear transformation shown in Equation 5. For example, in the case of the
[0028]
FIG. 4 shows an example of a prediction image synthesis method for dividing a block into four parts. A
[0029]
As described above, each of the prediction image synthesis methods in the block taken up here has advantages and disadvantages. A moving image generally has a feature that a motion pattern is greatly different for each region in the image. For example, the motion pattern is completely different in a stationary region, a parallel moving region, a rotating region, a boundary between a moving region and a stationary region, and the like. Therefore, even if the image is divided into blocks so that local correspondence can be made for each region, sufficient prediction characteristics can be obtained if there is only one method for synthesizing the predicted image (= conventional block matching or the like). Can not. Therefore, by making it possible to select an optimum method for each block from among a large number of prediction image synthesis methods listed above, it is possible to improve prediction characteristics. If only the error of the predicted image is considered, it is advantageous in improving the characteristics to have more methods for synthesizing the predicted image having different characteristics.
[0030]
It is not always necessary to select only one prediction image synthesis method for each block. The prediction characteristics can be further improved by selecting two synthesis methods (for example, affine transformation and dividing into four blocks) and taking the average value of luminance values between them as a predicted image in the block. Is possible. In general, it is known that by averaging different predicted images, the effects of noise removal and a low-pass filter are obtained, and the prediction characteristics are improved. In standard video coding systems such as MPEG1 and MPEG2, it is possible to perform an operation of averaging images predicted from two directions (forward and reverse methods) (= bi-directional prediction). Because. It is obvious that the invention described in this specification can be applied to this bidirectional prediction.
[0031]
【The invention's effect】
According to the present invention, it is possible to improve prediction characteristics in motion compensation processing of moving image coding.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of motion compensation processing based on spatial transformation.
FIG. 2 is a diagram showing an example of arrangement of blocks and grid points.
FIG. 3 is a diagram showing an example of a method for performing motion compensation by dividing a block into two right triangles.
FIG. 4 is a diagram illustrating an example of a method of performing motion compensation by dividing a block into four small blocks.
[Explanation of symbols]
101 ... Reference image, 102 ... Original image of current frame, 103 ... Patch and grid points of reference image after motion estimation, 104, 109 ... Patch, 105-107, 110-112, 203-206, 303-310, 402 405 to lattice points, 201, 202, 301, 302, 401 blocks, and 406 to 409 small blocks.
Claims (7)
ブロック毎に動きベクトルを有する格子点が4個存在するように、画像を横n個、縦m個(n、mは正の整数)の正方形または長方形のブロックに分割し、
前記ブロック内に存在する格子点が有する4個の動きベクトルの少なくとも1個を用いた動き補償により該ブロック内の動き補償予測画像を合成し、
動き補償予測画像の合成方法は、前記ブロック毎に2通り以上の候補の中から選択され、
前記候補は、前記ブロック毎に異なる2通りの合成方法よって生成された前記ブロック内の予測画像2枚の平均を前記ブロック内の予測画像とする方法を含むことを特徴とする動き補償方法。In video encoding or decoding ,
The image is divided into n horizontal and m vertical (n and m are positive integers) square or rectangular blocks so that there are four grid points having a motion vector for each block .
A motion compensated prediction image in the block is synthesized by motion compensation using at least one of the four motion vectors of the grid points existing in the block ;
A method of synthesizing a motion compensated prediction image is selected from two or more candidates for each block ,
The candidate includes a method of using an average of two predicted images in the block generated by two different synthesis methods for each block as a predicted image in the block .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP361696A JP3700230B2 (en) | 1996-01-12 | 1996-01-12 | Motion compensation method in video coding |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP361696A JP3700230B2 (en) | 1996-01-12 | 1996-01-12 | Motion compensation method in video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09200763A JPH09200763A (en) | 1997-07-31 |
JP3700230B2 true JP3700230B2 (en) | 2005-09-28 |
Family
ID=11562435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP361696A Expired - Fee Related JP3700230B2 (en) | 1996-01-12 | 1996-01-12 | Motion compensation method in video coding |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3700230B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7801380B2 (en) | 1997-06-09 | 2010-09-21 | Hitachi, Ltd. | Recording medium having recorded thereon coded information using plus and/or minus rounding of images |
ES2545066T3 (en) | 1997-06-09 | 2015-09-08 | Hitachi, Ltd. | Recording medium for image information |
US6574371B2 (en) | 1997-06-09 | 2003-06-03 | Hitachi, Ltd. | Image decoding method |
KR100635009B1 (en) * | 1999-10-15 | 2006-10-16 | 삼성전자주식회사 | Mothod and apparatus for motion estimation considering total moving of image |
CN101036390B (en) * | 2004-09-15 | 2010-06-16 | 法国电信公司 | Method for estimating motion using deformable meshes |
KR20180028514A (en) | 2015-08-07 | 2018-03-16 | 엘지전자 주식회사 | Method and apparatus for inter prediction in a video coding system |
-
1996
- 1996-01-12 JP JP361696A patent/JP3700230B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09200763A (en) | 1997-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5598216A (en) | Method and apparatus for encoding/decoding a video signal | |
JP4242656B2 (en) | Motion vector prediction method and motion vector prediction apparatus | |
JPH08265781A (en) | Method and apparatus for determining movement vector | |
JPH03253190A (en) | Method and apparatus for hybrid coding for moving picture | |
JPH08275178A (en) | Video signal coding method | |
JPH08307874A (en) | Video signal encoding device | |
US7139314B2 (en) | Inter-frame predicted image synthesizing method | |
JP2919211B2 (en) | Video frame interpolation method and coding / decoding method | |
JP3700230B2 (en) | Motion compensation method in video coding | |
KR100265720B1 (en) | Method for compensating the motion of pictures using 2-D triangle-patch wire-frame model | |
JP3654664B2 (en) | Image encoding apparatus and image decoding apparatus | |
KR100265721B1 (en) | Method for estimating the motion of pictures using 2-D triangle-patch wireframe model | |
Seferidis et al. | Generalized block-matching motion estimation | |
JP3513277B2 (en) | Video encoding device and video decoding device | |
JP3734488B2 (en) | Image encoding device | |
KR100213021B1 (en) | Repeated motion estimation and compensation method | |
JP3634878B2 (en) | Image encoding device | |
JP2616552B2 (en) | Video encoding / decoding device | |
JP3437605B2 (en) | Image motion detection method and apparatus | |
JP2888152B2 (en) | Video coding device using warping motion compensation | |
Servais et al. | Affine motion compensation using a content-based mesh | |
JPH07107487A (en) | Method for searching movement of moving picture encoding device | |
JPH0865679A (en) | Moving image encoding device and moving image decoding device | |
KR20010045431A (en) | Apparatus for interpolating pixel motion vectors in control grid interpolation decoder | |
JPH0946711A (en) | Method and apparatus for movement vector presumption |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050704 |
|
LAPS | Cancellation because of no payment of annual fees |