JPH0630395A - Method for predicting motion compensation - Google Patents

Method for predicting motion compensation

Info

Publication number
JPH0630395A
JPH0630395A JP18198092A JP18198092A JPH0630395A JP H0630395 A JPH0630395 A JP H0630395A JP 18198092 A JP18198092 A JP 18198092A JP 18198092 A JP18198092 A JP 18198092A JP H0630395 A JPH0630395 A JP H0630395A
Authority
JP
Japan
Prior art keywords
motion vector
reference image
image
motion compensation
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP18198092A
Other languages
Japanese (ja)
Other versions
JP2938677B2 (en
Inventor
Takeshi Nametake
剛 行武
Shuji Inoue
修二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP18198092A priority Critical patent/JP2938677B2/en
Priority to US07/970,046 priority patent/US5369449A/en
Priority to AU28162/92A priority patent/AU637289C/en
Priority to CA002082280A priority patent/CA2082280C/en
Priority to EP92310187A priority patent/EP0541389B1/en
Priority to DE69225863T priority patent/DE69225863T2/en
Priority to KR1019920020769A priority patent/KR950006774B1/en
Publication of JPH0630395A publication Critical patent/JPH0630395A/en
Priority to US08/278,010 priority patent/US5745182A/en
Priority to US08/883,315 priority patent/US5978032A/en
Application granted granted Critical
Publication of JP2938677B2 publication Critical patent/JP2938677B2/en
Priority to US09/559,627 priority patent/USRE39276E1/en
Priority to US09/833,769 priority patent/USRE39278E1/en
Priority to US09/833,680 priority patent/USRE39277E1/en
Priority to US09/833,770 priority patent/USRE39279E1/en
Priority to US09/866,811 priority patent/USRE39280E1/en
Priority to US10/895,283 priority patent/USRE39281E1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To improve the accuracy of prediction by calculating motion compensation of an input picture at an optional setting time based on an input picture motion vector and a reference picture motion vector. CONSTITUTION:Let the magnitude of vertical component of a motion vector (MV) detected be 1, then a motion compensation predicted value of a (M,1) is a picture element at a position of (M-2,2). Then a time position is corrected so that a position of a reference picture in a (M-1) th field is a position of a picture in a (M-2)th field. When the position of the (M-1)th field is corrected to be the position of the (M-2)th field, the position a (M-1,2) is corrected to be the position (M-2,2.5). Then the position (M-2,2) being a predicted value of motion compensation of the a (M,1) is obtained from a picture element in the (M-2)th field and in the (M-1)th field subjected to time position correction. In this case, a picture element at the position (M-2,2), that is, the predicted value of motion compensation of the a (M,1) is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像伝送や画像圧縮な
ど動画像の予測を必要とする装置に利用される動画像の
動き補償予測方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion-compensated prediction method for a moving image used in a device requiring the prediction of a moving image such as image transmission or image compression.

【0002】[0002]

【従来の技術】近年、半導体技術の進歩にともない、画
像伝送や画像の圧縮に利用される動き補償予測方法は多
くの分野で利用されている。従来の動き補償予測方法と
して、ある1枚の参照画像より動き補償を行う方法があ
る。
2. Description of the Related Art In recent years, with the progress of semiconductor technology, motion compensation prediction methods used for image transmission and image compression have been used in many fields. As a conventional motion compensation prediction method, there is a method of performing motion compensation from a certain reference image.

【0003】図6は従来の画像の動き補償予測方法の概
念を示す図である。図6において、動画像信号は時間軸
上、等間隔t0でサンプリングされた画像の集合であ
る。例えばNTSC信号では各フィールドは1/60秒
毎にサンプリングされ、PAL信号では各フィールドは
1/50秒毎にサンプリングされている。ここで、例え
ばある被写体が動いている場合、第(M−1)番目の画
像での被写体A′の空間的位置と、第M番目の画像での
被写体Aの空間的位置はt0の間に動いた分だけずれる
事となる。ここで、第M番目の画像を第(M−1)番目
の画像から予測する場合を考える。この場合入力画像と
参照画像の時間差t0の間の動きを補償し精度のよい予
測を行うために、第M番目画像を1つ以上の画素を含む
ブロックに分け、各ブロック毎に(M−1)番目の画像
との間で動きを検出し、この動き分だけずらした位置の
画素値を予測値とする。これを図6を用いて説明する
と、第M番目画像の画素Xの予測値として第(M−1)
番目画像における前記画素Xと空間的に同位置の画素で
あるX’からブロック単位に検出した動きMVだけずら
した画素X”を画素Xの予測値としている。但し、図6
においてはブロックのサイズを3×3としている。
FIG. 6 is a diagram showing the concept of a conventional image motion compensation prediction method. In FIG. 6, the moving image signal is a set of images sampled at equal intervals t0 on the time axis. For example, in the NTSC signal, each field is sampled every 1/60 second, and in the PAL signal, each field is sampled every 1/50 second. Here, for example, when a certain subject is moving, the spatial position of the subject A ′ in the (M−1) th image and the spatial position of the subject A in the Mth image are between t0. It will be displaced by the amount of movement. Here, consider a case where the M-th image is predicted from the (M-1) -th image. In this case, in order to compensate for the motion between the input image and the reference image during the time difference t0 and perform accurate prediction, the M-th image is divided into blocks including one or more pixels, and (M-1 ) The motion is detected between the second image and the pixel value at the position shifted by this motion is used as the predicted value. This will be described with reference to FIG. 6. As the predicted value of the pixel X of the Mth image, the (M−1) th pixel is calculated.
Pixel X ″, which is obtained by shifting the motion MV detected in block units from X ′, which is a pixel spatially at the same position as the pixel X in the th image, is used as the predicted value of pixel X. However, FIG.
In, the block size is 3 × 3.

【0004】なお、信号がインターレース信号である場
合は前記の画像としてフレームとする場合と、フィール
ドとする場合、また参照画像をフレームとし入力画像を
フィールドとする場合などいくつかの場合が考えられる
が、基本的な考え方は図6で説明したものである。この
ような例として、国際標準化委員会であるCMTT(Com
mission Mixte CCIR/CCITT pour les Transmissio
ns Televisuelleset Sonores3)で標準化を行ったReco
mmendation 723 , "Transmission ofcomponent-cod
ed digital television signals for contributio
n-quality at the third hierarchical level of
CCITT Recommendation G.702"がある。この勧告の
中ではフレーム間動き補償予測とフィールド間予測を適
応的に切り換えている。このように従来の動き補償予測
方法においても検出された動きの応じてこの動きを補償
して予測を行うため、動きを含む動画像であっても精度
よく予測を行える。
When the signal is an interlaced signal, there are some cases such as the case where the image is a frame, the case where it is a field, and the case where a reference image is a frame and an input image is a field. The basic idea is that explained in FIG. An example of this is the CMTT (Com
mission Mixte CCIR / CCITT pour les Transmissio
Reco standardized by ns Televisuelleset Sonores 3)
mmendation 723, "Transmission of component-cod
ed digital television signals for contributio
n-quality at the third hierarchical level of
CCITT Recommendation G.702 "is included. In this recommendation, interframe motion-compensated prediction and interfield prediction are adaptively switched. Since the motion is compensated for the prediction, the motion image including the motion can be accurately predicted.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の動き補償予測方法では、正しく動き補償予測を行え
なかったり、また正しく行える場合でも参照する画像の
画素密度は参照画像の画素密度となり、更に精度の良い
予測を行えないという問題点があった。
However, in the above-described conventional motion compensation prediction method, the pixel density of the image to be referred to becomes the pixel density of the reference image even when the motion compensation prediction cannot be performed correctly, or even when the motion compensation prediction can be performed correctly. There was a problem that it could not make a good prediction.

【0006】例えばインタレース信号をフレームとして
扱いフレームからブロックを生成し動き補償予測を行う
場合は、フレーム内の2つのフィールドの時間的なサン
プリング位置の違いを無視してフレームを合成し動き補
償している。このため、正しいフィールドのサンプリン
グ位置で考えた場合、第一フィールドと第二フィールド
で補償している動きが一致しない場合がある。このよう
な例を図7に示す。図7において入力信号はインタレー
ス信号であり(図7(a))、これをフレームに合成し
て動き補償予測を行う。今検出した動きの垂直成分が1
であったとすると、図7(b)に示すように第Mフレー
ムの第1フィールドは第(M−1)フレームの第2フィ
ールドから予測され、第Mフレームの第2フィールドは
第(M−1)フレームの第1フィールドから予測される
事になる。この動作を正しいフィールド位置で考えたも
のが図7(c)である。図7(c)より明らかなよう
に、第Mフレームの第1フィールドと第2フィールドで
は補償している動きが一致していない。このようにイン
タレース画像をフレームとして扱い動き補償を行うと、
第1フィールドと第2フィールドで補償する動きが異な
ってしまう場合があるために、このような現象が発生す
るベクトルでは予測の精度が劣化するという問題があ
る。
For example, when an interlaced signal is treated as a frame and a block is generated from the frame and motion compensation prediction is performed, the difference between the temporal sampling positions of two fields in the frame is ignored and the frames are combined to perform motion compensation. ing. Therefore, when the sampling positions of the correct fields are considered, the motions compensated in the first field and the second field may not match. Such an example is shown in FIG. In FIG. 7, the input signal is an interlaced signal (FIG. 7 (a)), which is combined into a frame for motion compensation prediction. The vertical component of the detected motion is 1
7B, the first field of the Mth frame is predicted from the second field of the (M−1) th frame, and the second field of the Mth frame is (M−1) th frame. ) It will be predicted from the first field of the frame. FIG. 7C shows this operation at the correct field position. As is clear from FIG. 7C, the compensated motions do not match in the first field and the second field of the Mth frame. In this way, when interlaced images are treated as frames and motion compensation is performed,
Since the motions to be compensated for in the first field and the second field may be different, there is a problem that the accuracy of prediction deteriorates in a vector in which such a phenomenon occurs.

【0007】次に、上記のようにある画像間のサンプリ
ング時間差を無視せず、正しい位置の画像として動き補
償予測を行う場合を考える。このような例としては、イ
ンタレース信号に対してフィールドからブロックを生成
し、動き補償予測を行う場合や、ノンインタレース信号
に対して動き補償予測を行う場合がある。この場合は時
間的に正しい位置の画像を用いて動き補償予測を行うた
めに、上記インタレース信号のフレームよりブロックを
生成して動き補償予測を行う時のような問題は生じな
い。しかし、この場合は1枚の参照画像から予測を行っ
ており、このために参照する画像の画素密度は参照画像
の画素密度となり、より精度の良い予測を行おうとする
と限界がある。図8にインタレース信号の入力に対して
フィールドからブロックを生成して動き補償を行う場合
を示している。この場合はフィールド画像を参照画像と
して予測を行っているために、例えば図示しているよう
に、動きベクトルが0の時は参照画像上の予測で必要な
位置にはサンプリング点がなく、フィールド内補間によ
りの画素値すなわち予測値を算出しなければならない。
これをフレーム内の画素値でブロックを生成し、動き補
償する場合と比較すると、フィールドで動き補償を行う
場合は垂直方向の画素密度がフレームで行う場合の半分
である為に、精度の良い動き補償予測を行おうとしても
限界がある。これはノンインタレース信号を入力とする
場合でも同じであり、共に参照する画像の画素密度は参
照画像の画素密度となり、より精度の良い動き補償予測
を行おうとすると限界があるという問題点がある。
Next, consider the case where the motion compensation prediction is performed as an image at the correct position without ignoring the sampling time difference between certain images as described above. As such an example, there is a case where a block is generated from a field for an interlaced signal and motion compensation prediction is performed, or a case where motion compensation prediction is performed for a non-interlaced signal. In this case, since the motion-compensated prediction is performed using the image at the temporally correct position, there is no problem as in the case where the block is generated from the frame of the interlaced signal and the motion-compensated prediction is performed. However, in this case, the prediction is performed from one reference image, and therefore the pixel density of the image to be referred to is the pixel density of the reference image, and there is a limit to performing more accurate prediction. FIG. 8 shows a case where a block is generated from a field for motion compensation by inputting an interlaced signal. In this case, since the field image is used as the reference image for prediction, when the motion vector is 0, there is no sampling point at the position required for prediction on the reference image, It is necessary to calculate a pixel value, that is, a predicted value by interpolation.
Comparing this with the case where a block is generated with pixel values in a frame and motion compensation is performed, the pixel density in the vertical direction when performing motion compensation in the field is half that when performing motion compensation in a frame. There are limits to trying to make compensation predictions. This is the same even when a non-interlaced signal is input, and the pixel density of the image to be referred to becomes the pixel density of the reference image, and there is a problem that there is a limit in attempting more accurate motion compensation prediction. .

【0008】本発明は、このような従来の問題を解決す
るものであり、複数枚の参照画像を利用する事により非
常に精度の良い予測を行う事の出来る優れた動き補償予
測方法を提供することを目的とする。
The present invention solves such a conventional problem, and provides an excellent motion-compensated prediction method capable of performing highly accurate prediction by using a plurality of reference images. The purpose is to

【0009】[0009]

【課題を解決するための手段】本発明は、上記目的を達
成するために、入力画像の動き補償を第1の設定時間で
サンプリングした参照画像と、この参照画像との間の動
きベクトルとから予測する方法において、前記入力画像
の一部であり複数の画素からなるブロック単位が第2の
設定時間で移動した入力画像動きベクトルを算出する手
段と、前記参照画像の一部であり複数の画素からなるブ
ロック単位が第1の設定時間で移動した参照画像動きベ
クトルを算出する手段とからなり、前記入力画像動きベ
クトルと前記参照画像動きベクトルとから任意の設定時
間の前記入力画像の動き補償を算出するものである。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention uses a reference image obtained by sampling motion compensation of an input image at a first set time and a motion vector between the reference image and the reference image. In the method of predicting, a unit for calculating an input image motion vector in which a block unit consisting of a plurality of pixels, which is a part of the input image, is moved in a second set time, and a plurality of pixels which are a part of the reference image. And a unit for calculating a reference image motion vector moved in a first set time, and performing motion compensation of the input image at an arbitrary set time from the input image motion vector and the reference image motion vector. It is to be calculated.

【0010】また、前記入力画像の一部であり複数の画
素からなるブロック単位が第2の設定時間で移動した入
力画像動きベクトルを算出する手段と、前記入力画像動
きベクトルを使用し第1の設定時間の参照画像動きベク
トルを算出する手段とからなり、前記入力画像動きベク
トルと前記参照画像動きベクトルとから任意の設定時間
の前記入力画像の動き補償を算出するものである。
A means for calculating an input image motion vector in which a block unit consisting of a plurality of pixels, which is a part of the input image, is moved in a second set time, and a first means using the input image motion vector A reference image motion vector for a set time is calculated, and motion compensation of the input image for an arbitrary set time is calculated from the input image motion vector and the reference image motion vector.

【0011】複数枚の入力画像の動き補償を第1の設定
時間でサンプリングした参照画像と、この参照画像との
間の動きベクトルとから予測する方法において、これら
の入力画像の一部であり複数の画素からなるブロック単
位が第2の設定時間で移動した入力画像動きベクトルを
それぞれ算出する手段と、前記参照画像の一部であり複
数の画素からなるブロック単位が第1の設定時間で移動
した参照画像動きベクトルを算出する手段とからなり、
これらの入力画像動きベクトルを同一のものとし、前記
入力画像動きベクトルと前記参照画像動きベクトルとか
ら任意の設定時間の前記入力画像の動き補償を算出する
ことを特徴とするものである。
In a method of predicting motion compensation of a plurality of input images from a reference image sampled at a first set time and a motion vector between the reference images, a plurality of input images which are a part of these input images are predicted. And a unit for calculating an input image motion vector in which the block unit made up of pixels has moved in the second set time, and a block unit made up of a plurality of pixels that is part of the reference image moved in the first set time. And a means for calculating a reference image motion vector,
These input image motion vectors are the same, and motion compensation of the input image at an arbitrary set time is calculated from the input image motion vector and the reference image motion vector.

【0012】[0012]

【作用】したがって本発明によれば、1つ以上の画素を
含むブロック単位にある時間間隔で検出された動きに応
じて、サンプリングされた時間の異なる複数枚の参照画
像が入力画像から前記時間間隔だけ離れた時間での画像
となるように必要に応じある動きベクトルを用いて参照
画像の時間位置の補正を行なうために、入力画像から前
記時間間隔だけ離れた位置の複数枚の画像を得る事がで
きる。この複数枚の画像を合わせる事で画素密度の高い
参照画像を得、この画素密度の高い参照画像を用いて前
記検出された動き分だけ補償した位置の画素値を算出し
これを予測値とするために、非常に精度のよい動き補償
予測を行うことができる。
According to the present invention, therefore, a plurality of reference images having different sampled times are input from the input image in the time interval according to the motion detected in the time interval in the block unit including one or more pixels. In order to correct the time position of the reference image by using a certain motion vector so that the images are separated by a certain time, it is necessary to obtain a plurality of images at positions separated by the time interval from the input image. You can A reference image having a high pixel density is obtained by combining the plurality of images, and a pixel value at a position compensated for the detected motion amount is calculated using the reference image having a high pixel density, and this is used as a predicted value. Therefore, very accurate motion compensation prediction can be performed.

【0013】更に、本発明によれば上記の参照画像の時
間位置の補正を行うベクトルを、ある時間間隔で検出さ
れた動きより算出するする事ができ、該時間補正用の動
きベクトルを再度検出する必要がなく、かつ精度の良い
動き補償を行う事ができる。
Further, according to the present invention, the vector for correcting the time position of the reference image can be calculated from the motion detected at a certain time interval, and the motion vector for time correction is detected again. It is possible to perform motion compensation with high accuracy without the need for

【0014】また、入力信号としてインタレース信号と
し、参照画像をあるフレームの2つのフィールドとする
事によって、フレーム画像に対して上記動き補償予測を
適応できるため、フレームをベースとして行う動き補償
予測に対して、精度よく予測を行うことができる。
Further, since an interlaced signal is used as an input signal and a reference image is two fields of a frame, the above motion compensation prediction can be applied to a frame image. On the other hand, it is possible to accurately predict.

【0015】更に、1つ以上の画素を含むブロック単位
にある時間間隔で検出された動きとして、複数枚の入力
画像のブロックの内、各ブロックの占める空間的位置の
すべて又は一部が重なる各入力画像のブロックに対して
同一の値を使う為、複数の入力画像のいくつかのブロッ
クに対して動き検出を複数回行う必要がなく、かつ精度
の良い動き補償予測を行うことができる。
Further, as a motion detected at a certain time interval in a block unit including one or more pixels, among the blocks of a plurality of input images, all or some of the spatial positions occupied by the blocks overlap each other. Since the same value is used for the blocks of the input image, it is not necessary to perform the motion detection for several blocks of the plurality of input images a plurality of times, and the motion-compensated prediction can be performed with high accuracy.

【0016】[0016]

【実施例】図1は本発明の第1の実施例を説明する図で
ある。図1は入力信号をインタレース信号とし、フィー
ルド内の画素からブロックを生成しフィールド画像をベ
ースとする動き補償予測を前提としている。ここで、入
力画像は第Mフィールドであり、参照画像は第(M−
1)フィールドおよび第(M−2)フィールドである。
今、図1において、あるブロックの動き補償予測を行う
為の動きベクトル(MV)は2フィールド間隔、つまり
第Mフィールドと第(M−2)フィールドとの間で検出
されるものとする。説明の都合上検出された動きのうち
垂直方向の動きについてのみ考える事とし、また、画素
値をa(x,y)と表す事とする。ここでxはフィール
ド番号を表し、yはライン番号を表す。ライン番号は下
からフレームのライン間隔で1,2,・・・のように番
号付けされている。各画素の垂直方向の位置は常にフレ
ームラインを単位として表される。
FIG. 1 is a diagram for explaining a first embodiment of the present invention. FIG. 1 is premised on a motion-compensated prediction based on a field image in which a block is generated from pixels in a field with an input signal as an interlaced signal. Here, the input image is the Mth field, and the reference image is the (M-
1) field and (M-2) th field.
Now, in FIG. 1, it is assumed that a motion vector (MV) for performing motion compensation prediction of a block is detected at an interval of two fields, that is, between the Mth field and the (M-2) th field. For convenience of explanation, only the vertical movement is considered among the detected movements, and the pixel value is represented as a (x, y). Here, x represents a field number and y represents a line number. The line numbers are numbered as 1, 2, ... The vertical position of each pixel is always expressed in units of frame lines.

【0017】今、a(M,1)の予測値を求める事を考
える。検出されたMVの垂直成分を1とするとa(M,
1)の動き補償予測値は(M−2,2)の位置の画素値
となる。次に、第(M−1)フィールドの参照画像の位
置を第(M−2)フィールドの位置の画像となるように
時間位置の補正を行う。この時間位置を補正するベクト
ルをMVadjとする。MVadjをMVより算出する
とき、例えば第(M−2)フィールドと第Mフィールド
間の動きが一定であると仮定すると、以下の関係が容易
に導き出せる。
Now, let us consider obtaining the predicted value of a (M, 1). If the vertical component of the detected MV is 1, then a (M,
The motion compensation prediction value of 1) is the pixel value at the position of (M-2, 2). Next, the time position is corrected so that the position of the reference image in the (M-1) th field becomes the image in the position of the (M-2) th field. The vector for correcting this time position is MVadj. When calculating MVadj from MV, assuming that the movement between the (M-2) th field and the Mth field is constant, the following relationship can be easily derived.

【0018】MVadj= −MV/2 よってMVの垂直成分が1であればMVadjの垂直成
分はー0.5となる。これを図1に示すように第(M−
1)フィールドを第(M−2)フィールドの位置に位置
補正を行うとa(M−1,2)は(M−2,2.5)の
位置に補正される。以上の動作の後にa(M,1)の動
き補償予測値である(M−2,2)の位置を第(M−
2)フィールド及び時間位置補正された第(M−1)フ
ィールドの画素値から求める。この際必要な画素値を例
えば近傍の画素値より距離に反比例した重みつき平均で
求めるとすれば、(M−2,2)の位置の画素値つまり
a(M,1)の動き補償予測値は以下の式により求めら
れる。
MVadj = -MV / 2 Therefore, if the vertical component of MV is 1, the vertical component of MVadj is -0.5. As shown in FIG.
1) When the field is corrected to the position of the (M-2) th field, a (M-1,2) is corrected to the position of (M-2,2.5). After the above operation, the position of (M-2, 2) which is the motion compensation prediction value of a (M, 1) is changed to the (M-
2) Obtained from the pixel values of the field and the (M-1) th field whose time position has been corrected. At this time, if the required pixel value is obtained by a weighted average that is inversely proportional to the distance from the neighboring pixel value, the pixel value at the position of (M−2,2), that is, the motion compensation prediction value of a (M, 1) Is calculated by the following formula.

【0019】 a(M−2,1)/3+2*a(M−1,2)/3 以上は垂直成分のみを考慮した時の説明であるが、垂
直、水平の両成分を持つ場合も同様の動作を行うものと
する。
A (M−2,1) / 3 + 2 * a (M−1,2) / 3 The above is a description when only the vertical component is considered, but the same is true when both vertical and horizontal components are included. Shall be performed.

【0020】このように、上記第1の実施例によれば、
1つ以上の画素を含むブロック単位にある時間間隔で検
出された動きに応じて、サンプリングされた時間の異な
る複数枚の参照画像が入力画像から前記時間間隔だけ離
れた時間での画像となるように必要に応じある動きベク
トルを用いて参照画像の時間位置の補正を行なうため
に、入力画像から前記時間間隔だけ離れた位置の複数枚
の画像を得る事ができる。この複数枚の画像を合わせる
事で画素密度の高い参照画像を得、この画素密度の高い
参照画像を用いて前記検出された動き分だけ補償した位
置の画素値を算出しこれを予測値とするために、非常に
精度のよい動き補償予測を行う事が出来るという効果を
有する。
As described above, according to the first embodiment,
A plurality of reference images having different sampled times are imaged at a time distant from the input image by the time interval in accordance with a motion detected at a time interval in a block unit including one or more pixels. In order to correct the time position of the reference image by using a certain motion vector as necessary, it is possible to obtain a plurality of images at positions separated from the input image by the time interval. A reference image having a high pixel density is obtained by combining the plurality of images, and a pixel value at a position compensated by the detected motion amount is calculated using the reference image having a high pixel density, and this is used as a predicted value. Therefore, there is an effect that very accurate motion compensation prediction can be performed.

【0021】上記第1の実施例では、参照画像を2つの
画像と仮定したがこの枚数は複数枚であれば何枚でも良
く、複数枚の参照画像の位置を前画像・前前画像と仮定
したがこれらの位置は任意であり、MVよりMVadj
を算出する際に動きが一定であるとの仮定をおいて算出
を行ったがこの仮定はある法則に従えばどのような仮定
でもよく、必要な位置の画素値を求めるのに近傍の画素
値から距離に反比例した重みつき平均で求めたがこの求
め方は重みつき平均に限らず例えば低域通過型フィルタ
の係数を用いて求めてもよく、また必要な画素値を内挿
により求めるようにしたがこの方法は内挿に限らず例え
ば外挿であってもよい。
In the first embodiment, the reference image is assumed to be two images, but this number may be any number as long as it is plural, and the positions of the plural reference images are assumed to be the previous image and the previous image. However, these positions are arbitrary and MVadj rather than MV
The calculation was performed on the assumption that the motion is constant when calculating, but this assumption may be any assumption according to a certain law, and the pixel values in the neighborhood may be used to obtain the pixel value at the required position. Was obtained by a weighted average inversely proportional to the distance, but this method is not limited to the weighted average and may be obtained using, for example, the coefficient of a low-pass filter, and the required pixel value can be obtained by interpolation. However, this method is not limited to interpolation but may be extrapolation, for example.

【0022】又、上記第1の実施例では、複数枚の参照
画像の位置の補正を行うベクトルMVadjとしてブロ
ック単位に検出された動きベクトルMVより算出した
が、これを第(M−1)フィールドと第(M−2)フィ
ールド間でMVとは独立に検出する事もできる。この場
合は独立に検出する事により、より正確な動きで該時間
補正を行う事が出来るために、更に精度の良い動き補償
予測を行う事が出来るという効果を有する。
Further, in the first embodiment, the vector MVadj for correcting the positions of the plurality of reference images is calculated from the motion vector MV detected in block units, but this is calculated in the (M-1) th field. And (M-2) th field can be detected independently of MV. In this case, by detecting independently, the time correction can be performed with a more accurate motion, so that there is an effect that more accurate motion compensation prediction can be performed.

【0023】更に、上記第1の実施例では入力信号をイ
ンタレース信号とし各画像としてフィールド画像を仮定
をしたが、これをノンインタレース画像としても同様の
説明により精度よく予測を行う事が出来るという効果を
有する。
Further, in the first embodiment, the input signal is used as an interlaced signal and a field image is assumed as each image. However, even if this is used as a non-interlaced image, prediction can be performed accurately by the same explanation. Has the effect.

【0024】第2の実施例として入力信号をインタレー
ス信号とし、フレームを単位として動き補償予測を行う
方法を示す。図2は本発明の第2の実施例を説明する図
である。図2においては、参照画像を前フレームの2つ
のフィールドつまり第(M−1),第(M−2)フィー
ルドとし、入力画像を現フレームの2つのフィールドつ
まり第Mフィールド、第(M+1)フィールドとする。
また、図2においてあるブロックの動き補償予測を行う
ための動きベクトルは現フレームの2つのフィールド毎
に別々に入力画像と参照フレーム内で且つ入力画像と同
一位相のフィールドとの間で求められているものとす
る。第Mフィールドの動き補償予測のための動ベクトル
をMV(M)と表し、第(M+1)フィールドのための
動ベクトルをMV(M+1)と表すものとする。又、各
画素位置の画素値の表し方については前記第1の実施例
に従うものとする。又、図2においては説明の都合上検
出された動きのうち垂直方向の動きについてのみ考える
事とする。
As a second embodiment, a method will be shown in which an input signal is an interlaced signal and motion compensation prediction is performed in frame units. FIG. 2 is a diagram for explaining the second embodiment of the present invention. In FIG. 2, the reference image is the two fields of the previous frame, that is, the (M-1) th and (M-2) th fields, and the input image is the two fields of the current frame, that is, the Mth field and the (M + 1) th field. And
In addition, the motion vector for performing motion compensation prediction of a block in FIG. 2 is obtained separately for each of the two fields of the current frame in the input image and the reference frame and between the fields having the same phase as the input image. Be present. A motion vector for motion compensation prediction of the Mth field is represented as MV (M), and a motion vector for the (M + 1) th field is represented as MV (M + 1). The method of expressing the pixel value at each pixel position is in accordance with the first embodiment. Further, in FIG. 2, for the sake of convenience of explanation, only the vertical movement will be considered.

【0025】図2において第Mフィールド内の画素の予
測は第(M−1)フィールドと第(M−2)フィールド
の画像を用いて行われる。このときの動作は前記第1の
実施例と全く同じである。よって例えばMV(M)の垂
直成分が1.5であるとすれば、第1の実施例と同様の
動作により、a(M,1)の予測値は(M−2,2.
5)の位置の画素値となり、この値は以下の式により求
められる。
In FIG. 2, prediction of pixels in the Mth field is performed using the images of the (M-1) th field and the (M-2) th field. The operation at this time is exactly the same as that of the first embodiment. Therefore, assuming that the vertical component of MV (M) is 1.5, the predicted value of a (M, 1) is (M-2,2.
It becomes the pixel value at the position of 5), and this value is obtained by the following formula.

【0026】 a(M−2,1)/7+ 6*a(M−1,2)/7 又、第(M+1)フィールド内の画素の予測値は第Mフ
ィールド内の画素の予測の場合と同様に参照フレームの
2つのフィールド、第(M−1)及び(M−2)フィー
ルドより予測される。この際の考え方は前記第Mフィー
ルド内の画素の予測と同様であるが、この場合は第(M
−2)フィールドを第(M−1)フィールドの位置に補
正を行わなければならない。この時間位置を補正するベ
クトルをMVadj(M+1)とする。MVadj(M
+1)をMV(M+1)より算出するとき、例えば第
(M−2)フィールドと第(M+1)フィールド間の動
きが一定であると仮定すると、以下の関係が容易に導き
出せる。
A (M−2,1) / 7 + 6 * a (M−1,2) / 7 Further, the prediction value of the pixel in the (M + 1) th field is the same as the prediction value of the pixel in the Mth field. Similarly, it is predicted from the two fields (M-1) and (M-2) of the reference frame. The idea at this time is similar to the prediction of the pixel in the Mth field, but in this case,
-2) The field must be corrected to the position of the (M-1) th field. The vector for correcting this time position is MVadj (M + 1). MVadj (M
When calculating +1) from MV (M + 1), assuming that the motion between the (M-2) th field and the (M + 1) th field is constant, the following relationship can be easily derived.

【0027】 MVadj(M+1)=MV(M+1)/2 よってMV(M+1)の垂直成分が1であればMVad
j(M+1)の垂直成分は0.5となる。図2に示すよ
うに第(M−2)フィールドを第(M−1)フィールド
の位置に位置補正を行うとa(M−2,3)は(M−
1,2.5)の位置に補正される。以上の動作の後にa
(M+1,2)の予測値である(M−1,3)の位置を
第(M−1)フィールド及び時間位置補正された第(M
−2)フィールドの画素値から求める。この際必要な画
素値を例えば近傍の画素値より距離に反比例した重みつ
き平均で求めるとすれば、(M−1,3)の位置の画素
値つまりa(M+1,2)の動き補償予測値は以下の式
により求められる。
MVadj (M + 1) = MV (M + 1) / 2 Therefore, if the vertical component of MV (M + 1) is 1, then MVadj
The vertical component of j (M + 1) is 0.5. As shown in FIG. 2, when the position correction is performed from the (M-2) th field to the position of the (M-1) th field, a (M-2,3) becomes (M-
1, 2.5) position is corrected. After the above operation a
The position of (M-1,3), which is the predicted value of (M + 1,2), is the (M-1) th field and the (M-1) th position is time-position corrected.
-2) Obtained from the pixel value of the field. At this time, if the required pixel value is obtained by, for example, a weighted average inversely proportional to the distance from the neighboring pixel values, the pixel value at the position of (M-1,3), that is, the motion compensation prediction value of a (M + 1,2) Is calculated by the following formula.

【0028】 a(M−1,4)/3+2*a(M−2,3)/3 以上は垂直成分のみを考慮した時の説明であるが、垂
直、水平の両成分を持つ場合も同様の動作を行うものと
する。
A (M-1,4) / 3 + 2 * a (M-2,3) / 3 The above is a description when only the vertical component is considered, but the same applies to the case where both vertical and horizontal components are included. Shall be performed.

【0029】このように、上記第2の実施例によれば、
入力信号としてインタレース信号とし、参照画像をある
フレームの2つのフィールドとする事によって、フレー
ム画像に対して上記動き補償予測を適応できるため、フ
レームをベースとして行う動き補償予測に対して、精度
よく予測を行う事が出来るという効果を有する。
As described above, according to the second embodiment,
By using an interlaced signal as an input signal and using a reference image as two fields of a frame, the above motion-compensated prediction can be applied to a frame image. It has the effect of being able to make predictions.

【0030】上記第2の実施例においても第1の実施例
の場合と同様に参照フレームの枚数、参照フレームの位
置、MV(M)またはMV(M+1)よりMVadj
(M)またはMVadj(M+1)を導き出すときの仮
定、必要な位置の画素値を求めるときの計算方法及び内
挿か外挿かに関しては任意に選ぶ事が出来る。また、本
実施例では動き補償予測のための動ベクトルは入力画像
と参照フレーム内で且つ入力画像と同相のフィールドと
の間で求められているとしたが、これは逆相のフィール
ドとの間で求められていても同様の動作で同様の効果を
得る事が出来る。また、第1の実施例の場合と同様に位
置補正ベクトルを検出動ベクトルとは独立に求める事に
より、更に精度の良い動き補償予測を行う事が出来ると
いう効果を有する。
In the second embodiment, as in the first embodiment, the number of reference frames, the position of the reference frame, MV (M) or MV (M + 1) is used as MVadj.
Assumptions for deriving (M) or MVadj (M + 1), a calculation method for obtaining a pixel value at a required position, and interpolation or extrapolation can be arbitrarily selected. Further, in the present embodiment, the motion vector for motion compensation prediction is found between the input image and the reference frame and between the input image and the in-phase field. The same effect can be obtained with the same operation even if required by. Further, similarly to the case of the first embodiment, by obtaining the position correction vector independently of the detected motion vector, there is an effect that more accurate motion compensation prediction can be performed.

【0031】第3の実施例としてインタレースの入力信
号に対して、フレームを単位に動き補償を行う他の方法
を示す。図3、4は本発明の第3の実施例を説明する図
である。図3において参照画像は第(N−1)フレーム
すなわち第(M−2),第(M−1)フィールドであ
り、入力画像は第Nフレームすなわち第M,第(M+
1)フィールドである。今、動き補償を行うブロックは
フレームから生成されているものとする。つまり、第N
フレームの画素から生成されるブロック単位に第(N+
1)フレームとの間に動きベクトルMVが求められてい
るとする。このときのブロックの様子を図3に示してい
る。これをフィールドベースの予測方法として考え直す
と以下の様に考える事が出来る。参照画像は第(Nー
1)フレームの2つのフィールドであり、入力画像は第
Nフレームの2つのフィールドである。また、MVの検
出間隔は2フィールド間隔である。但し、前記ブロック
内に含まれる画素については、第Mフィールドの画素で
あっても第(M+1)フィールドの画素であっても同じ
動ベクトルMVとなる。
As a third embodiment, another method of performing motion compensation on a frame-by-frame basis for an interlaced input signal will be described. 3 and 4 are diagrams illustrating a third embodiment of the present invention. In FIG. 3, the reference image is the (N-1) th frame, that is, the (M-2) th and (M-1) th field, and the input image is the Nth frame, that is, the Mth and (M +) th frame.
1) It is a field. Now, it is assumed that the block for motion compensation is generated from the frame. That is, the Nth
For each block (N +) generated from the pixels of the frame
1) It is assumed that the motion vector MV is obtained between the frame and the frame. The state of the block at this time is shown in FIG. If we reconsider this as a field-based prediction method, we can think as follows. The reference image is two fields of the (N-1) th frame, and the input image is two fields of the Nth frame. The MV detection interval is two field intervals. However, the pixels included in the block have the same motion vector MV regardless of whether the pixel is in the Mth field or in the (M + 1) th field.

【0032】つまり、この場合は第2の実施例において
上記のフレームより生成されたブロック内の画素で用い
る動きベクトルは、その画素が第Mフィールドに属する
か第(M+1)フィールドに属するかに関わらずで同一
の値をとる。他の動作は第2の実施例と同様となる。図
4にMVの垂直成分が1の場合の例を示している。以上
は垂直成分のみを考慮した時の説明であるが、垂直、水
平の両成分を持つ場合も同様の動作を行うものとする。
That is, in this case, the motion vector used in the pixel in the block generated from the above frame in the second embodiment is independent of whether the pixel belongs to the Mth field or the (M + 1) th field. Without taking the same value. Other operations are similar to those of the second embodiment. FIG. 4 shows an example in which the vertical component of MV is 1. The above is a description when only the vertical component is taken into consideration, but the same operation is performed when both vertical and horizontal components are included.

【0033】この様に第3の実施例によればフレームか
ら生成されるブロック内のように、予め決められた空間
的領域内に位置する2つの入力フィールドの画素に対し
て同一の動きベクトルを使用するため、各フィールド毎
に動き検出を行う必要がなく、かつ精度の良い動き補償
予測を行う事が出来るという効果を有する。
As described above, according to the third embodiment, the same motion vector is applied to the pixels of two input fields located in a predetermined spatial area such as in a block generated from a frame. Since it is used, there is an effect that it is not necessary to detect motion for each field, and it is possible to perform accurate motion compensation prediction.

【0034】上記第3の実施例においても第2の実施例
の場合と同様に参照フレームの枚数、参照フレームの位
置、MVよりMVadjを導き出すときの仮定、必要な
位置の画素値を求めるときの計算方法及び内挿か外挿か
に関しては任意に選ぶ事が出来る。本実施例においては
フレームを単位とする動き補償予測をベースに説明を行
ったが、これは第1の実施例で示したようなフィールド
をベースとしても、またノンインタレース画像をベース
としてもその効果は変わらない。また、複数枚の入力画
像のブロックの内、動ベクトルとして同一の値を使用す
るブロックの決め方として、各ブロックの占める空間的
位置のすべてまたは一部が重なる各入力画像のブロック
としてもその効果は変わらない。また、第2の実施例の
場合と同様に位置補正ベクトルを検出動ベクトルとは独
立に求める事により、更に精度の良い動き補償予測を行
う事が出来るという効果を有する。
In the third embodiment, as in the case of the second embodiment, the number of reference frames, the position of the reference frame, the assumption for deriving MVadj from MV, and the calculation of the pixel value at the required position The calculation method and interpolation or extrapolation can be arbitrarily selected. In this embodiment, the description has been given based on the motion-compensated prediction in units of frames. However, this may be performed based on the field as shown in the first embodiment or the non-interlaced image. The effect does not change. In addition, as a method of determining a block that uses the same value as a motion vector among blocks of a plurality of input images, the effect is also obtained as a block of each input image in which all or some of the spatial positions occupied by each block overlap. does not change. Further, similarly to the case of the second embodiment, by obtaining the position correction vector independently of the detected motion vector, there is an effect that more accurate motion compensation prediction can be performed.

【0035】図5は本発明の第4の実施例を説明した図
である。第4の実施例は第1の実施例と前提は同じであ
り、入力信号をインタレース信号とし、入力画像を第M
フィールド、参照画像を第(M−1)フィールド、第
(M−2)フィールドとする。今、図5において、ある
ブロックの動き補償予測を行う為の動きベクトル(M
V)は2フィールド間隔、つまり第Mフィールドと第
(M−2)フィールドとの間で検出されるものとする。
説明の都合上検出された動きのうち垂直方向の動きにつ
いてのみ考える事とし、各画素位置の画素値の表し方は
図1と同様である。
FIG. 5 is a diagram for explaining the fourth embodiment of the present invention. The premise of the fourth embodiment is the same as that of the first embodiment, the input signal is an interlaced signal, and the input image is the M-th image.
The fields and reference images are the (M-1) th field and the (M-2) th field. Now, referring to FIG. 5, a motion vector (M
V) is to be detected between two field intervals, that is, between the Mth field and the (M-2) th field.
For convenience of explanation, only the movement in the vertical direction among the detected movements will be considered, and the way of expressing the pixel value at each pixel position is the same as in FIG.

【0036】今、a(M,1)の予測値を求める事を考
える。検出されたMVの垂直成分を3とするとa(M,
1)の動き補償予測値は(M−2,4)の位置の画素値
となる。まず、この画素値を第(M−2)フィールド内
の画素値より求める。例えば近傍の画素値より距離に反
比例した重みつき平均で求めるとすれば、(M−2,
4)の位置の画素値は以下の式により求められる。
Now, let us consider obtaining the predicted value of a (M, 1). If the vertical component of the detected MV is 3, then a (M,
The motion compensation prediction value of 1) becomes the pixel value at the position of (M-2, 4). First, this pixel value is obtained from the pixel value in the (M-2) th field. For example, if the weighted average is inversely proportional to the distance from the neighboring pixel values, (M-2,
The pixel value at the position of 4) is obtained by the following formula.

【0037】 a(M−2,3)/2+a(M−2,5)/2 次に前記MVより入力画像(第Mフィールド)と第(M
−1)フィールドとの動きを算出する。第Mフィールド
と第(M−1)フィールド間の時間差は第Mフィールド
と第(M−2)フィールドの時間差の1/2である。よ
ってこの動きベクトルは MV/2 と考える事が出来る。今、MVの垂直成分は3であるの
でMV/2の垂直成分は1.5となる。よって第(M−
1)フィールドの画像からa(M,1)の動き補償予測
値を求めると(M−1,2.5)の位置の画素値とな
る。この画素値を第(M−1)フィールド内の画素値よ
り求める。例えば近傍の画素値より距離に反比例した重
みつき平均で求めるとすれば、(M−1,2.5)の位
置の画素値は以下の式により求められる。
A (M−2,3) / 2 + a (M−2,5) / 2 Next, from the MV, the input image (Mth field) and the (Mth field)
-1) Calculate the movement with the field. The time difference between the Mth field and the (M-1) th field is 1/2 of the time difference between the Mth field and the (M-2) th field. Therefore, this motion vector can be considered as MV / 2. Now, since the vertical component of MV is 3, the vertical component of MV / 2 is 1.5. Therefore, the (M-
1) When the motion compensation prediction value of a (M, 1) is obtained from the image of the field, the pixel value at the position of (M-1,2.5) is obtained. This pixel value is obtained from the pixel value in the (M-1) th field. For example, if the weighted average is inversely proportional to the distance from the neighboring pixel values, the pixel value at the position of (M-1, 2.5) is calculated by the following formula.

【0038】 3*a(M−1,2)/4+a(M−1,4)/4 以上で求めた2つの予測値より例えばその平均をとりa
(M,1)の予測値とする。以上は垂直成分のみを考慮
した時の説明であるが、垂直、水平の両成分を持つ場合
も同様の動作を行うものとする。
3 * a (M-1,2) / 4 + a (M-1,4) / 4 For example, the average of the two predicted values obtained above is calculated as a
Let it be the predicted value of (M, 1). The above is a description when only the vertical component is taken into consideration, but the same operation is performed when both vertical and horizontal components are included.

【0039】このように、上記第4の実施例によれば、
1つ以上の画素を含むブロック単位に、ある時間間隔で
検出された動きに応じて、サンプリングされた時間の異
なる複数枚の参照画像と入力画像との間の動きを前記検
出された動きより算出し、各参照画像で前記算出された
動き分だけ補償した位置の画素値を算出するために複数
枚の参照画像より複数の動き補償予測値を得る事が出来
る。この複数の予測値より入力画像の予測値を算出する
ために、予測値にノイズを含むような場合でもこのノイ
ズを除去する事ができ、精度の良い動き補償予測を行う
事が出来るという効果を有する。
As described above, according to the fourth embodiment,
For each block unit including one or more pixels, the movement between a plurality of reference images and sampled images having different sampled times is calculated according to the movement detected at a certain time interval from the detected movement. However, it is possible to obtain a plurality of motion compensation prediction values from a plurality of reference images in order to calculate a pixel value at a position that is compensated for the calculated motion amount in each reference image. Since the predicted value of the input image is calculated from the plurality of predicted values, it is possible to remove this noise even when the predicted value includes noise, and it is possible to perform accurate motion compensation prediction. Have.

【0040】上記第4の実施例においても第1の実施例
の場合と同様に参照画像の枚数、参照画像の位置、各参
照画像内で必要な位置の画素値を求めるときの計算方法
及び内挿か外挿かに関しては任意に選ぶ事が出来る。そ
れぞれの参照画像内で求めた複数の画素値より予測値を
算出する方法については、単純平均以外にもある重みを
つけて算出する方法や低域通過型フィルタの係数を用い
て算出する方法などが考えられる。本実施例においては
インタレース信号のフィールドを単位とする動き補償を
ベースに説明を行ったが、これは第2、第3の実施例で
示したようにフレームをベースとしても、またノンイン
タレース画像をベースとしてもその効果は変わらない。
In the fourth embodiment, as in the case of the first embodiment, the number of reference images, the positions of the reference images, the calculation method for obtaining the pixel values at the required positions in each reference image, and the calculation method It is possible to arbitrarily select whether to insert or extrapolate. Regarding the method of calculating the predicted value from the multiple pixel values found in each reference image, there are methods other than simple averaging, such as weighting, and methods using low pass filter coefficients. Can be considered. In the present embodiment, the description has been given based on the motion compensation in units of fields of the interlaced signal. However, this is also based on the frame as shown in the second and third embodiments, and also non-interlaced. The effect does not change even if the image is used as a base.

【0041】[0041]

【発明の効果】本発明は、上記実施例より明かなよう
に、1つ以上の画素を含むブロック単位にある時間間隔
で検出された動きに応じて、サンプリングされた時間の
異なる複数枚の参照画像が入力画像から前記時間間隔だ
け離れた時間での画像となるように必要に応じある動き
ベクトルを用いて参照画像の時間位置の補正を行なうた
めに、入力画像から前記時間間隔だけ離れた位置の複数
枚の画像を得る事ができる。この複数枚の画像を合わせ
る事で画素密度の高い参照画像を得、この画素密度の高
い参照画像を用いて前記検出された動き分だけ補償した
位置の画素値を算出しこれを予測値とするために、非常
に精度のよい動き補償予測を行う事が出来るという効果
を有する。
As is apparent from the above embodiment, the present invention refers to a plurality of reference samples having different sampling times according to the motion detected at a time interval in a block unit including one or more pixels. A position separated by the time interval from the input image in order to correct the time position of the reference image by using a certain motion vector so that the image becomes an image at the time separated by the time interval from the input image. You can get multiple images of. A reference image having a high pixel density is obtained by combining the plurality of images, and a pixel value at a position compensated for the detected motion amount is calculated using the reference image having a high pixel density, and this is used as a predicted value. Therefore, there is an effect that very accurate motion compensation prediction can be performed.

【0042】更に、本発明によれば上記の参照画像の時
間位置の補正を行うベクトルを、ある時間間隔で検出さ
れた動きより算出するする事ができ、該時間補正用の動
きベクトルを再度検出する必要がなく、かつ精度の良い
動き補償を行う事が出来るという効果を有する。 ま
た、入力信号としてインタレース信号とし、参照画像を
あるフレームの2つのフィールドとする事によって、フ
レーム画像に対して上記動き補償予測を適応できるた
め、フレームをベースとして行う動き補償予測に対し
て、精度よく予測を行う事ができという効果を有する。
Furthermore, according to the present invention, the vector for correcting the time position of the reference image can be calculated from the motion detected at a certain time interval, and the motion vector for time correction is detected again. There is an effect that motion compensation can be performed with high precision without the need for In addition, since an interlaced signal is used as an input signal and a reference image is two fields of a frame, the above motion compensation prediction can be applied to a frame image. This has the effect that it is possible to make accurate predictions.

【0043】更に、1つ以上の画素を含むブロック単位
にある時間間隔で検出された動きとして、複数枚の入力
画像のブロックの内、各ブロックの占める空間的位置の
すべて又は一部が重なる各入力画像のブロックに対して
同一の値を使う為、複数の入力画像のいくつかのブロッ
クに対して動き検出を複数回行う必要がなく、かつ精度
の良い動き補償予測を行う事が出来るという効果を有す
る。
Further, as a motion detected at a time interval in a block unit including one or more pixels, among the blocks of a plurality of input images, all or some of the spatial positions occupied by the blocks overlap each other. Since the same value is used for the blocks of the input image, it is not necessary to perform motion detection multiple times for some blocks of multiple input images, and it is possible to perform accurate motion compensation prediction. Have.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の説明図FIG. 1 is an explanatory diagram of a first embodiment of the present invention.

【図2】本発明の第2の実施例の説明図FIG. 2 is an explanatory diagram of a second embodiment of the present invention.

【図3】フレームをベースとする動き補償予測における
ブロックの説明図
FIG. 3 is an explanatory diagram of blocks in frame-based motion-compensated prediction.

【図4】本発明の第3の実施例の説明図FIG. 4 is an explanatory diagram of a third embodiment of the present invention.

【図5】本発明の第4の実施例の説明図FIG. 5 is an explanatory diagram of a fourth embodiment of the present invention.

【図6】従来の動き補償予測方法の概念図FIG. 6 is a conceptual diagram of a conventional motion compensation prediction method.

【図7】従来のフレーム間動き補償予測方法の問題点の
説明図
FIG. 7 is an explanatory diagram of problems in the conventional inter-frame motion compensation prediction method.

【図8】従来のフィールド間動き補償予測方法の説明図FIG. 8 is an explanatory diagram of a conventional inter-field motion compensation prediction method.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力画像の動き補償を第1の設定時間で
サンプリングした参照画像と、この参照画像との間の動
きベクトルとから予測する方法において、前記入力画像
の一部であり複数の画素からなるブロック単位が第2の
設定時間で移動した入力画像動きベクトルを算出する手
段と、前記参照画像の一部であり複数の画素からなるブ
ロック単位が第1の設定時間で移動した参照画像動きベ
クトルを算出する手段とからなり、前記入力画像動きベ
クトルと前記参照画像動きベクトルとから任意の設定時
間の前記入力画像の動き補償を算出することを特徴とす
る動き補償予測方法。
1. A method for predicting motion compensation of an input image from a reference image sampled at a first set time and a motion vector between the reference image and a plurality of pixels which are part of the input image. Means for calculating an input image motion vector in which a block unit made up of is moved in a second set time, and a reference image movement made in a block unit made up of a plurality of pixels that is a part of the reference image in a first set time A motion compensation prediction method comprising: calculating a vector, and calculating motion compensation of the input image at an arbitrary set time from the input image motion vector and the reference image motion vector.
【請求項2】 前記参照画像動きベクトルを算出する手
段が参照画像のサンプリング時間を少なくとも2つ以上
に設定し、これらサンプリング時間によるブロック単位
の参照画像の移動データにより算出することを特徴とす
る請求項1記載の動き補償予測方法。
2. The reference image motion vector calculating means sets the sampling time of the reference image to at least two or more, and calculates by reference block movement data of the reference image by these sampling times. Item 1. The motion compensation prediction method according to Item 1.
【請求項3】 入力画像の動き補償を第1の設定時間で
サンプリングした参照画像と、この参照画像との間の動
きベクトルとから予測する方法において、前記入力画像
の一部であり複数の画素からなるブロック単位が第2の
設定時間で移動した入力画像動きベクトルを算出する手
段と、前記入力画像動きベクトルを使用し第1の設定時
間の参照画像動きベクトルを算出する手段とからなり、
前記入力画像動きベクトルと前記参照画像動きベクトル
とから任意の設定時間の前記入力画像の動き補償を算出
することを特徴とする動き補償予測方法。
3. A method of predicting motion compensation of an input image from a reference image sampled at a first set time and a motion vector between the reference image and a plurality of pixels which are part of the input image. The block unit consisting of consists of means for calculating an input image motion vector moved in a second set time, and means for calculating a reference image motion vector in the first set time using the input image motion vector,
A motion compensation prediction method, wherein motion compensation of the input image at an arbitrary set time is calculated from the input image motion vector and the reference image motion vector.
【請求項4】 前記参照画像動きベクトルを算出する手
段が参照画像のサンプリング時間を少なくとも2以上に
設定し、これらサンプリング時間によるブロック単位の
参照画像の移動データにより算出することを特徴とする
請求項1記載の動き補償予測方法。
4. The reference image motion vector calculating means sets a sampling time of the reference image to at least 2 or more, and calculates the reference image movement data in block units according to these sampling times. 1. The motion compensation prediction method described in 1.
【請求項5】 複数枚の入力画像の動き補償を第1の設
定時間でサンプリングした参照画像と、この参照画像と
の間の動きベクトルとから予測する方法において、これ
らの入力画像の一部であり複数の画素からなるブロック
単位が第2の設定時間で移動した入力画像動きベクトル
をそれぞれ算出する手段と、前記参照画像の一部であり
複数の画素からなるブロック単位が第1の設定時間で移
動した参照画像動きベクトルを算出する手段とからな
り、これらの入力画像動きベクトルを同一のものとし、
前記入力画像動きベクトルと前記参照画像動きベクトル
とから任意の設定時間の前記入力画像の動き補償を算出
することを特徴とする動き補償予測方法。
5. A method of predicting motion compensation of a plurality of input images from a reference image sampled at a first set time and a motion vector between the reference images, wherein a part of these input images is used. Means for calculating an input image motion vector in which a block unit made up of a plurality of pixels has moved at a second set time, and a block unit made up of a plurality of pixels that is a part of the reference image at a first set time And a means for calculating the moved reference image motion vector, and these input image motion vectors are the same,
A motion compensation prediction method, wherein motion compensation of the input image at an arbitrary set time is calculated from the input image motion vector and the reference image motion vector.
【請求項6】 前記参照画像動きベクトルを算出する手
段が参照画像のサンプリング時間を少なくとも2つ以上
に設定し、これらサンプリング時間によるブロック単位
の参照画像の移動データにより算出することを特徴とす
る請求項5記載の動き補償予測方法。
6. The reference image motion vector calculating means sets the sampling time of the reference image to at least two or more, and calculates by the movement data of the reference image in block units according to these sampling times. Item 5. The motion compensation prediction method according to Item 5.
【請求項7】 複数枚の入力画像の動き補償を第1の設
定時間でサンプリングした参照画像と、この参照画像と
の間の動きベクトルとから予測する方法において、これ
らの入力画像の一部であり複数の画素からなるブロック
単位が第2の設定時間で移動した入力画像動きベクトル
を算出する手段と、前記入力画像動きベクトルを使用し
第1の設定時間の参照画像動きベクトルを算出する手段
とからなり、これらの入力画像動きベクトルを同一のも
のとし、前記入力画像動きベクトルと前記参照画像動き
ベクトルとから任意の設定時間の前記入力画像の動き補
償を算出することを特徴とする動き補償予測方法。
7. A method of predicting motion compensation of a plurality of input images from a reference image sampled at a first set time and a motion vector between the reference images, wherein a part of these input images is used. Yes, means for calculating an input image motion vector in which a block unit composed of a plurality of pixels has moved in a second set time, and means for calculating a reference image motion vector in a first set time using the input image motion vector Motion compensation prediction, characterized in that these input image motion vectors are the same, and motion compensation of the input image at an arbitrary set time is calculated from the input image motion vector and the reference image motion vector. Method.
【請求項8】 前記参照画像動きベクトルを算出する手
段が参照画像のサンプリング時間を少なくとも2以上に
設定し、これらサンプリング時間によるブロック単位の
参照画像の移動データにより算出することを特徴とする
請求項7記載の動き補償予測方法。
8. The reference image motion vector calculating means sets a sampling time of the reference image to at least 2 or more, and calculates the reference image movement data in block units according to the sampling time. 7. The motion compensation prediction method described in 7.
JP18198092A 1991-11-08 1992-07-09 Motion compensation prediction method Expired - Lifetime JP2938677B2 (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP18198092A JP2938677B2 (en) 1992-07-09 1992-07-09 Motion compensation prediction method
US07/970,046 US5369449A (en) 1991-11-08 1992-11-02 Method for predicting move compensation
AU28162/92A AU637289C (en) 1991-11-08 1992-11-04 Method for predicting move compensation
CA002082280A CA2082280C (en) 1991-11-08 1992-11-05 Method for predicting move compensation
EP92310187A EP0541389B1 (en) 1991-11-08 1992-11-06 Method for predicting move compensation
DE69225863T DE69225863T2 (en) 1991-11-08 1992-11-06 Predictive coding with motion compensation
KR1019920020769A KR950006774B1 (en) 1991-11-08 1992-11-06 Motion compensation predictive method
US08/278,010 US5745182A (en) 1991-11-08 1994-07-20 Method for determining motion compensation
US08/883,315 US5978032A (en) 1991-11-08 1997-06-26 Method for predicting motion compensation
US09/559,627 USRE39276E1 (en) 1991-11-08 2000-04-27 Method for determining motion compensation
US09/833,769 USRE39278E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,680 USRE39277E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,770 USRE39279E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/866,811 USRE39280E1 (en) 1991-11-08 2001-05-30 Method for determining motion compensation
US10/895,283 USRE39281E1 (en) 1991-11-08 2004-07-21 Method for determining motion compensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18198092A JP2938677B2 (en) 1992-07-09 1992-07-09 Motion compensation prediction method

Publications (2)

Publication Number Publication Date
JPH0630395A true JPH0630395A (en) 1994-02-04
JP2938677B2 JP2938677B2 (en) 1999-08-23

Family

ID=16110223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18198092A Expired - Lifetime JP2938677B2 (en) 1991-11-08 1992-07-09 Motion compensation prediction method

Country Status (1)

Country Link
JP (1) JP2938677B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007091459A1 (en) * 2006-02-10 2007-08-16 Ntt Electronics Corporation Moving-vector detecting device and moving-vector detecting method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541861A (en) * 1991-05-31 1993-02-19 Toshiba Corp Moving picture encoding equipment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541861A (en) * 1991-05-31 1993-02-19 Toshiba Corp Moving picture encoding equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007091459A1 (en) * 2006-02-10 2007-08-16 Ntt Electronics Corporation Moving-vector detecting device and moving-vector detecting method
US8126060B2 (en) 2006-02-10 2012-02-28 Ntt Electronics Corporation Motion vector detection device and motion vector detecting method

Also Published As

Publication number Publication date
JP2938677B2 (en) 1999-08-23

Similar Documents

Publication Publication Date Title
USRE39278E1 (en) Method for determining motion compensation
KR100905880B1 (en) Motion estimation and/or compensation
EP0549681B1 (en) Video image processing
US5784115A (en) System and method for motion compensated de-interlacing of video frames
US7720150B2 (en) Pixel data selection device for motion compensated interpolation and method thereof
JP3845456B2 (en) Motion compensated video signal processing method
JPH0746861B2 (en) Television motion compensation device
JP3189292B2 (en) Scan line interpolator
USRE39279E1 (en) Method for determining motion compensation
JPH1051787A (en) Motion vector detector
JPH0630395A (en) Method for predicting motion compensation
JP4179089B2 (en) Motion estimation method for motion image interpolation and motion estimation device for motion image interpolation
JP3576618B2 (en) Motion vector detection method and apparatus
USRE39276E1 (en) Method for determining motion compensation
KR100624304B1 (en) Apparatus and method for de-interlacing adaptively field image by using motion
JP2770300B2 (en) Image signal processing
JPS62175080A (en) Motion correcting device
JPH02312381A (en) Method of interpolating scanning line
KR100588901B1 (en) Apparatus and method for de-interlacing adaptively field image by using motion compensate technique
JPH07147670A (en) Image data interpolating device
JPH0235515B2 (en)
JP2005202921A (en) Motion vector detector
JPH06121288A (en) Motion vector detection method
JPH01231487A (en) Moving signal processing circuit

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 14