JP2929044B2 - 動き補償予測方法 - Google Patents

動き補償予測方法

Info

Publication number
JP2929044B2
JP2929044B2 JP29300491A JP29300491A JP2929044B2 JP 2929044 B2 JP2929044 B2 JP 2929044B2 JP 29300491 A JP29300491 A JP 29300491A JP 29300491 A JP29300491 A JP 29300491A JP 2929044 B2 JP2929044 B2 JP 2929044B2
Authority
JP
Japan
Prior art keywords
field
image
unit
motion vector
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29300491A
Other languages
English (en)
Other versions
JPH05130594A (ja
Inventor
修二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP29300491A priority Critical patent/JP2929044B2/ja
Priority to US07/970,046 priority patent/US5369449A/en
Priority to AU28162/92A priority patent/AU637289C/en
Priority to CA002082280A priority patent/CA2082280C/en
Priority to KR1019920020769A priority patent/KR950006774B1/ko
Priority to DE69225863T priority patent/DE69225863T2/de
Priority to EP92310187A priority patent/EP0541389B1/en
Publication of JPH05130594A publication Critical patent/JPH05130594A/ja
Priority to US08/278,010 priority patent/US5745182A/en
Priority to US08/883,315 priority patent/US5978032A/en
Application granted granted Critical
Publication of JP2929044B2 publication Critical patent/JP2929044B2/ja
Priority to US09/559,627 priority patent/USRE39276E1/en
Priority to US09/833,680 priority patent/USRE39277E1/en
Priority to US09/833,769 priority patent/USRE39278E1/en
Priority to US09/833,770 priority patent/USRE39279E1/en
Priority to US09/866,811 priority patent/USRE39280E1/en
Priority to US10/895,283 priority patent/USRE39281E1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、テレビ会議、テレビ電
話、ケーブルテレビなどの装置において使用する動き補
償予測方法に関する。
【0002】
【従来の技術】図5は従来の動き補償フレーム間符号化
装置の構成例を示すブロック図であり、図5においてデ
ジタル化された信号(画像)は入力端子501より加算
器502に入力される。
【0003】また加算器502はフレームメモリ510
より出力された予測値も入力され予測誤差信号を出力す
る。この予測誤差信号は直交変換部503に入力されて
直交変換される。変換係数は量子化部504に入力さ
れ、量子化される。量子化された変換係数は逆量子化部
507および多重化部505に入力される。多重化部5
05は量子化部504で量子化された変換係数と、動ベ
クトル検出部511で検出された動ベクトルを多重化し
て出力端子506を通して出力する。
【0004】一方逆量子化部507は量子化された変換
係数を逆量子化し、直交変換係数を得、これを逆直交変
換部508に出力する。逆直交変換部508にて逆直交
変換し、もとの予測誤差信号を出力する。逆直交変換に
よって得られた予測誤差信号は加算器509に与えられ
る。この加算器509はフレームメモリ510からの予
測値と逆直交変換部508からの予測誤差信号を加算
し、再生画素値をフレームメモリ510に出力する。こ
のフレームメモリ510は加算器509からの再生画素
値から再生画像をつくり、その再生画像を次フレームの
予測値として出力する。また動ベクトル検出部511は
入力端子501より入力された入力画像とフレームメモ
リ510からの再生画像から動ベクトルを求めフレーム
メモリ510および多重化部505へ出力する。
【0005】
【発明が解決しようとする課題】しかしながら、上記従
来の動き補償フレーム間予測符号化装置では前フレーム
のフレーム画像から予測画像をつくるため、1フレーム
の時間に垂直方向への奇数画素の運動の場合において、
正確な動ベクトルの検出が行われにくく、たとえ行われ
た場合でも異なったフィールドの画像を予測画像とする
ため精度の良い予測画像を得ることができず、圧縮効果
を悪化させるという問題があった。
【0006】本発明はこのような従来の問題を解決する
ものであり、異なったフィールド間予測のための時間差
による劣化を防ぎ、適切な予測画像を得ることができる
優れた動き補償予測方法を提供することを目的とするも
のである。
【0007】
【課題を解決するための手段】本発明に係る動き補償予
測方法は、参照フレームの第1フィールドと被符号化フ
レームの第1フィールドとの間の動きベクトルMV1を
用いて、前記参照フレームの第1フィールドおよび第2
フィールドから前記被符号化フレームの第1フィールド
の動き補償予測を行なう動き補償予測方法であって、前
記動きベクトルMV1のフィールド間の時間間隔T1と
前記参照フレームの第1フィールドおよび第2フィール
ドの時間間隔T2との比T2/T1を前記動きベクトル
MV1に乗じることによって、前記参照フレームの第1
フィールドおよび第2フィールドの間の動きベクトルM
V2を求め、前記動きベクトルMV2を用いて前記参照
フレームの第2フィールドを時間的に1フィールド分遅
らせ、前記参照フレームの第1フィールドおよび前記時
間的に遅らせた第2フィールドから前記被符号化フレー
ムの第1フィールド動き補償予測を行なうことを特徴
とする。なお、上記参照フレームおよび被符号化フレー
ムをそれぞれ構成する画像は、それぞれ、以下に述べる
実施例における「再生画像」、「予測画像」と同義であ
る。 また、上記参照フレームおよび被符号化フレームは
それぞれ2つのフィールドから構成され、それらは、そ
れぞれ、第1フィールド、第2フィールドとよばれる。
以下に述べる実施例では、上記被符号化フレームの第1
フィールド、第2フィールドは、それぞれ、第3フィー
ルド、第4フィールドなどとよばれているが、それらの
意義は異なるものではない。
【0008】
【作用】本発明によれば、予測画像のフィールドと入力
画像のフィールドが常に一致し、1フレームあたり垂直
方向への奇数画素の運動の場合にも同じフィールドから
の予測画像を作成するため、時間や位置のずれが生ぜず
スムースな動ベクトルの検出が可能となる。また、より
適切な予測画像が得られ圧縮効率が向上するという効果
を有する。
【0009】更に予測画像のフィールドと一致するフィ
ールドのみからでなく、もう一方のフィールド画像も動
ベクトルによって補正し、同フィールドの画像として利
用することにより、予測画像の解像度をあげることがで
き、より精度の高い予測画像の出力が可能となり圧縮効
果が向上し、画質を向上することができるという効果を
有する。
【0010】
【実施例】(実施例1) 図1は本発明の実施例1の構成を示すブロック図であ
り、また、図2はフィールド画像分割とオーバーサンプ
リングの原理を示すものである。
【0011】入力端子101より入力された入力画像
(インターレーステレビジョン)信号は動ベクトル検出
部113、加算器102に夫々入力される。この加算器
102はフレーム合成部114から出力された予測画像
との差を直交変換部103に出力し、直交変換部103
は、たとえばDCTのような直交変換を行い変換係数を
量子化部104に出力し、量子化部104は変換係数を
量子化し逆量子化部107、多重化部105に夫々出力
する。そして、多重化部105は動ベクトル検出部11
3で検出された動ベクトルと量子化された変換係数を多
重化し、符号化して出力端子106を通して出力する。
【0012】また、逆量子化部107は変換係数を逆量
子化し逆直交変換部108に出力し、逆直交変換部10
8はもとの予測誤差信号に変換し、加算器109に出力
する。この加算器109はフレーム合成部114から出
力された予測画像とを加算し、フィールド画像分割部1
10に再生画像を出力する。
【0013】フィールド画像分割部110は第1フィー
ルド,第2フィールドの2つのフィールドに再生画像を
分割し、夫々オーバーサンプリング部111およびオー
バーサンプリング部112に出力する。そして、オーバ
ーサンプリング部111およびオーバーサンプリング部
112はそれぞれ入力されたフィールド画像の補間を行
い、夫々画像メモリ115および画像メモリ116に出
力しメモリに蓄えられる。
【0014】画像メモリ115および画像メモリ116
は動ベクトル検出部113で検出された動ベクトルをも
とに予測画像の夫々のフィールド画像をフレーム合成部
114に出力し、ここでフレームに合成され予測画像と
して夫々加算器102および加算器109に出力され
る。
【0015】また、画像メモリ115および画像メモリ
116は動ベクトルを検出するために補間された再生画
像を動ベクトル検出部113に出力し、動ベクトル検出
部113は2つの画像メモリ115,116からの補間
された再生画像と入力端子101からの入力画像から動
ベクトルを検出する。ここで動ベクトル検出部113は
動ベクトル検出のために行うパターンマッチングの際
に、入力画像の対応するフィールドの再生フィールド画
像とのマッチングを行う。また、画像メモリ115,1
16はそれぞれ予測画像の対応するフィールドの予測画
素のみを予測画像として出力する。
【0016】図2にフィールド画像分割およびオーバー
サンプリングの動作を示す。フィールド画像分割部11
0に入力されたフレーム信号(a)は1ラインずつ交互
に第1フィールド,第2フィールドに分けられる
(b)。この分割されたフィールド画像のライン数はも
とのフレームの1/2になっているので、今、動ベクト
ルの精度を1画素単位まで求めるとすると、ライン数を
もとのフレームと同じにしなければならない。
【0017】したがって、オーバーサンプリング部11
1,112で、もう1方のフィールドの画素位置の画素
を回りの画素から補間によって求められる(c)。動ベ
クトルの検出はそれぞれ入力画像のフィールドに合わせ
たフィールド画像とのマッチングを行う。これにより常
に入力画像のフィールドと予測画像のフィールドとの対
応がとれることになり、フィールドが逆になることがな
くなり、より予測誤差の少ない予測画像を出力できると
いう効果を有する。
【0018】(実施例2) 図3は本発明の実施例2の構成を示すブロック図であ
り、入力端子301から入力された入力画像(インター
レーステレビジョン信号)は加算器302、動ベクトル
検出部313に入力される。加算器302は画素補間部
312により出力された予測画像と入力画像との差分を
直交変換部303に出力する。この差分を予測誤差信号
という。
【0019】この予測誤差信号は直交変換部303でD
CTのような直交変換を行い変換係数を量子化部304
に出力し、量子化部304では入力された変換係数を量
子化し、これを多重化部305および逆量子化部307
に夫々出力する。そして、多重化部305は動ベクトル
検出部313で検出された動ベクトルと量子化された変
換係数を多重化し、出力端子306を通して出力する。
【0020】また、逆量子化部307は量子化された変
換係数を逆量子化し、直交変換係数を得、これを逆直交
変換部308に出力する。この逆直交変換部308は入
力された直交変換係数を逆直交変換し予測誤差信号を得
る。この予測誤差信号は加算器309に入力され、画素
補間部312から出力された予測画像と加えられ再生画
像を得る。この再生画像は画像メモリ310に蓄えられ
る。
【0021】動ベクトル検出部313は動ベクトルを検
出し、そして、次フレームの予測を行うために画像メモ
リ310に蓄えられている再生画像をフィールド調整部
311に出力する。フィールド調整部311は動ベクト
ル検出部313で検出された動ベクトルをもとにフィー
ルドの時間差による位置の補償を行い、画素補間部31
2に出力する。この画素補間部312はフィールド調整
部311から出力された画像を基に実際の予測画像の画
素を計算し予測画像を加算器302及び309に夫々出
力する。
【0022】図4は図3のフィールド調整部311の動
作を示す。画像メモリ310に蓄えられている再生画像
(以下、フレーム画像という)が第1フィールドと第2
フィールドで構成され、入力されたフレーム画像が第3
フィールド,第4フィールドで構成されている場合、第
3フィールドの予測画像は第1フィールドの画像から、
第4フィールドの画像は第2フイールドの画像から予測
を行うと予測画像の時間順序と入力画像の時間順序が一
致する。
【0023】従ってフィールド調整部311は第1,第
2フィールドから元々のフィールド画像より解像度の高
いフィールド画像を作成する。すなわち解像度の高い第
1フィールドを作成するために、時間的に後の第2フィ
ールドの画像を第1フィールドに戻している。第1フィ
ールドと第3フィールドとの間の動ベクトルを(Vx,
Vy)とすると第2フィールドは第1フィールドに比べ
1フィールドの時間分後の画像である。従って第1フィ
ールドに比べ動きに変化がないとすると(Vx/2,V
y/2)動いていることになる。従ってこの分戻すこと
によって時間的に第1フィールドを一致させることがで
きる(a)。
【0024】この動き補正した第2フィールドと第1フ
ィールドから新たな第1フィールドを作成することによ
り元々のフレーム画像と同じ解像度を持った第1フィー
ルドの画像を得ることができる。また、逆に第2フィー
ルドに対し時間的に1フィールド分遅い第1フィールド
を(Vx/2,Vy/2)動きを進ませることにより、
第2フィールドの時間を一致させることができ(b)、
同様にフレームと同じ解像度を持った新たな第2フィー
ルドを作成する。
【0025】これら解像度の高いフィールド画像の画素
の位置は入力画像の画素の位置とは必ずしも一致しない
ため、画素補間部312にて入力画素の位置の近傍の画
素から補間によって予測画素値を作成する。これによっ
て第3フィールドは第1フィールドから、第4フィール
ドは第2フィールドから予測画像を常に得ることができ
る。また、予測参照画像の解像度は元のフレームの解像
度と同じになるのでより予測誤差の少ない予測画像を得
ることができる。これにより画像の圧縮効率が上がり、
再生画像の画質の向上が得られるという効果を有する。
【0026】
【発明の効果】以上説明したように本発明による動き補
償予測方法を採用すれば、フィールド分割後、補間によ
ってつくられた、それぞれのフィールド画像、または一
方のフィールド画像を動ベクトルをもとに補正して他方
のフィールドと合わせ作成したフィールド画像からその
フィールド画像に対応したフィールド画像を予測誤差に
用いるため、動き量によって予測画像のフィールドが逆
転してしまうことがなくなる。したがって、精度の良い
予測画像を得ることができる。
【0027】また、動ベクトルの検出のマッチングも同
様の予測画像をもとに行うため、より精度が良く細かな
動ベクトルを検出することができる。
【図面の簡単な説明】
【図1】本発明の実施例1の構成を示すブロック図であ
る。
【図2】図1のフィールド画像分割部と、オーバーサン
プリング部の動作を説明するための図である。
【図3】本発明の実施例2の構成を示すブロック図であ
る。
【図4】図3のフィールド調整部の動作を説明するため
の図である。
【図5】従来の動き補償フレーム間予測符号化装置の構
成例を示すブロック図である。
【符号の説明】
101,301…入力端子、 102,109,30
2,309…加算器、 103,303…直交変換部、
104,304…量子化部、 105,305…多重化
部、 106,306…出力端子、 107,307…
逆量子化部、 108,308…逆直交変換部、 11
0…フィールド画像分割部、 111,112…オーバ
ーサンプリング部、 113,313…動ベクトル検出
部、 114…フレーム合成部、 115,116,3
10…画像メモリ、 311…フィールド調整部、31
2…画素補間部。

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】参照フレームの第1フィールドと被符号化
    フレームの第1フィールドとの間の動きベクトルMV1
    を用いて、前記参照フレームの第1フィールドおよび第
    2フィールドから前記被符号化フレームの第1フィール
    ドの動き補償予測を行なう動き補償予測方法であって、 前記動きベクトルMV1のフィールド間の時間間隔T1
    と前記参照フレームの第1フィールドおよび第2フィー
    ルドの時間間隔T2との比T2/T1を前記動きベクト
    ルMV1に乗じることによって、前記参照フレームの第
    1フィールドおよび第2フィールドの間の動きベクトル
    MV2を求め、 前記動きベクトルMV2を用いて前記参照フレームの第
    2フィールドを時間的に1フィールド分遅らせ、 前記参照フレームの第1フィールドおよび前記時間的に
    連らせた第2フィールドから 前記被符号化フレームの第
    1フィールド動き補償予測を行なうことを特徴とする
    動き補償予測方法。
JP29300491A 1991-11-08 1991-11-08 動き補償予測方法 Expired - Fee Related JP2929044B2 (ja)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP29300491A JP2929044B2 (ja) 1991-11-08 1991-11-08 動き補償予測方法
US07/970,046 US5369449A (en) 1991-11-08 1992-11-02 Method for predicting move compensation
AU28162/92A AU637289C (en) 1991-11-08 1992-11-04 Method for predicting move compensation
CA002082280A CA2082280C (en) 1991-11-08 1992-11-05 Method for predicting move compensation
KR1019920020769A KR950006774B1 (ko) 1991-11-08 1992-11-06 움직임보상예측방법
DE69225863T DE69225863T2 (de) 1991-11-08 1992-11-06 Verfahren zur prädiktiven Kodierung mit Bewegungskompensation
EP92310187A EP0541389B1 (en) 1991-11-08 1992-11-06 Method for predicting move compensation
US08/278,010 US5745182A (en) 1991-11-08 1994-07-20 Method for determining motion compensation
US08/883,315 US5978032A (en) 1991-11-08 1997-06-26 Method for predicting motion compensation
US09/559,627 USRE39276E1 (en) 1991-11-08 2000-04-27 Method for determining motion compensation
US09/833,680 USRE39277E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,769 USRE39278E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/833,770 USRE39279E1 (en) 1991-11-08 2001-04-13 Method for determining motion compensation
US09/866,811 USRE39280E1 (en) 1991-11-08 2001-05-30 Method for determining motion compensation
US10/895,283 USRE39281E1 (en) 1991-11-08 2004-07-21 Method for determining motion compensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29300491A JP2929044B2 (ja) 1991-11-08 1991-11-08 動き補償予測方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP424198A Division JP3186685B2 (ja) 1998-01-12 1998-01-12 動き補償予測方法

Publications (2)

Publication Number Publication Date
JPH05130594A JPH05130594A (ja) 1993-05-25
JP2929044B2 true JP2929044B2 (ja) 1999-08-03

Family

ID=17789231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29300491A Expired - Fee Related JP2929044B2 (ja) 1991-11-08 1991-11-08 動き補償予測方法

Country Status (1)

Country Link
JP (1) JP2929044B2 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5193004A (en) * 1990-12-03 1993-03-09 The Trustees Of Columbia University In The City Of New York Systems and methods for coding even fields of interlaced video sequences

Also Published As

Publication number Publication date
JPH05130594A (ja) 1993-05-25

Similar Documents

Publication Publication Date Title
JP4514081B2 (ja) ビデオ・シーケンスを符号化変換(transcoding)するための動きベクトルの外挿(extrapolation)
JP4863333B2 (ja) 高分解能静止画像を創出するための方法及び装置
US7146056B2 (en) Efficient spatial scalable compression schemes
JP2801559B2 (ja) 動き大小に適応する動き補償符号化方法及びその装置
JP2911055B2 (ja) 動き推定方法及びその装置
EP1592248A1 (en) Motion vector estimation employing adaptive temporal prediction
US7321626B2 (en) System and method for predictive motion estimation using a global motion predictor
JP3649370B2 (ja) 動き補償符号化装置及び動き補償符号化方法
KR100955414B1 (ko) 현재 움직임 벡터 추정용 유닛 및 그 추정 방법
US6160584A (en) Motion detection and motion compensative prediction circuit
KR20040070490A (ko) 비월 주사 방식의 동영상 부호화/복호화 방법 및 그 장치
JP3201079B2 (ja) インターレース動画像信号の動き補償予測方法、符号化方法及び装置
KR100393063B1 (ko) 프레임 레이트 변환 기능을 갖는 비디오 디코더 및 그 방법
JPH0662389A (ja) 映像信号符号化装置
JPH0851599A (ja) 画像情報変換装置
JP2929044B2 (ja) 動き補償予測方法
JPH1169362A (ja) 動画像の符号化方法および復号化方法
JP3186685B2 (ja) 動き補償予測方法
JP3173508B2 (ja) 動画像復号化方法、及び、動画像復号化装置
JP2925046B2 (ja) 動画像の動き補償予測方法
JP3201343B2 (ja) インターレース動画像の動き補償予測装置
JPH0865679A (ja) 動画像符号化装置及び動画像復号装置
JPH06284415A (ja) 動き補償予測符号化および復号化装置
JPH10257497A (ja) インターレース動画像信号の動き補償予測方法及び符号化装置
JPH0591496A (ja) 動き補償装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees