JP2004186839A - Moving picture encoding method and moving picture decoding method - Google Patents

Moving picture encoding method and moving picture decoding method Download PDF

Info

Publication number
JP2004186839A
JP2004186839A JP2002349177A JP2002349177A JP2004186839A JP 2004186839 A JP2004186839 A JP 2004186839A JP 2002349177 A JP2002349177 A JP 2002349177A JP 2002349177 A JP2002349177 A JP 2002349177A JP 2004186839 A JP2004186839 A JP 2004186839A
Authority
JP
Japan
Prior art keywords
motion vector
field
color difference
luminance
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002349177A
Other languages
Japanese (ja)
Other versions
JP4144339B2 (en
Inventor
Hidemasa Miyoshi
秀誠 三好
Akira Nakagawa
章 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002349177A priority Critical patent/JP4144339B2/en
Publication of JP2004186839A publication Critical patent/JP2004186839A/en
Application granted granted Critical
Publication of JP4144339B2 publication Critical patent/JP4144339B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance an encoding efficiency by improving a prediction efficiency of particularly a color difference component in encoding between different field images. <P>SOLUTION: A production method of a motion vector of a color difference component is adaptively switched on the basis of parities of a reference source field and a reference destination field and information denoting a sampling positional relation of pixels of luminance and color difference in a Top field and a Bottom field in the case of predicting inter-fields with different parities. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、フィールド間予測モードを有する動画像符号化装置及び動画像装復号化装置に係わる。
【0002】
【従来の技術】
動画像データは、一般に、データ量が大きいので、送信装置から受信装置へ伝送される際、あるいは記憶装置に格納される際などには、高能率符号化が行われる。ここで、「高能率符号化」とは、あるデータ列を他のデータ列に変換する符号化処理であって、そのデータ量を圧縮する処理をいう。
【0003】
動画像データは、主にフレームのみから構成されるものと、フィールドから構成されるものがある。以下、主に、フィールド画像を圧縮する方式の従来技術について説明する。
【0004】
動画像データの高能率符号化方法としては、フレーム/フィールド間予測符号化方法が知られている。図1は、このフレーム/フィールド間予測符号化のブロック図を示す。この符号化方法では、動画像データが時間方向に相関性が高いことを利用する。図1の動作を簡単に説明すると、入力された原画像と予測画像との差分画像を減算機39にて生成し、その差分画像を直交変換手段31,量子化手段32及び係数エントロピー符号化手段40にて符号化する。また、量子化手段32の出力を逆量子化手段33及び逆直交変換手段34により差分画像を復元し、復号画像生成手段35にて復元した差分画像と符号化時に用いた予測画像とから符号化画像を復元する。その復元された画像は、復号画像記憶手段36に記憶され、動きベクトル計算手段37にて、次の入力画像との間の動きベクトルを計算し、その動きベクトルにより予測画像生成手段38にて予測画像を生成する。生成された動きベクトルはベクトルエントロピー符号化手段41にて符号化され、係数エントロピー符号化手段40で符号化された係数符号化データとともにMUX42を介して出力される。すなわち、動画像データは、一般に、あるタイミングのフレーム/フィールドデータと次のタイミングのフレーム/フィールドデータとの類似度が高いことが多いので、フレーム/フィールド間予測符号化方法では、その性質を使用する。例えば、フレーム/フィールド間予測符号化方法を用いたデータ伝送システムでは、送信装置において、前フレーム/フィールドの画像から対象フレーム/フィールドの画像への「動き」を表す動きベクトルデータ、及びその前フレーム/フィールドの画像からその動きベクトルデータを用いて作成した対象フレーム/フィールドの予測画像と対象フレーム/フィールドの実際の画像との差分データを生成し、それら動きベクトルデータおよび差分データを受信装置に送出する。一方、受信装置は、受信した動きベクトルデータおよび差分データから対象フレーム/フィールドの画像を再生する。
【0005】
図1のこのフレーム/フィールド間予測符号化は、フレーム/フィールド間予測符号化の概略を説明したが、以下に、更にフレーム予測符号化、及びフィールド予測符号化について説明する。
【0006】
図2、及び図3は、前述のISO/IEC MPEG−2/MPEG−4(以下MPEG−2、MPEG−4)、及び2002年8月現在において、ITU−TとISO/IECで共同で標準化中のITU−T H.264/ISO/IEC MPEG−4 Part 10(Advanced Video Coding:AVC)のFinal Committee Draft(以下AVC FCDと省略)共通に用いられている、フィールド画像を符号化する際のフォーマットの説明である。すなわち、各フレームは2枚のフィールド、すなわちTop フィールドとBottomフィールドから構成される。図2は、輝度、色差の各画素の位置と、それらが属するフィールドを説明する図である。この図2で示したとおり、輝度第1ライン(50a),輝度第3ライン(50b),輝度第5ライン(50c),輝度第7ライン(50d)・・・という、奇数番目のラインはTopフィールドに属し、輝度第2ライン(51a),輝度第4ライン(51b),輝度第6ライン(51c),輝度第8ライン(51d)・・・という偶数番目のラインはBottomフィールドに属する。色差成分も同様に、色差第1ライン(52a),色差第3ライン(52b)・・・といった奇数番目のラインはTopフィールドに属し、色差第2ライン(53a),色差第4ライン(53b)・・・といった偶数番目のラインはBottomフィールドに属する。
【0007】
このTopフィールドとBottomフィールドは、異なる時刻の画像をあらわす。次に、TopフィールドとBottomフィールドの時空間的な配置について、図3を用いて説明する。
【0008】
なお、この図3以降、本発明に関わる技術は、動きベクトルの垂直成分に関わるものであるので、本明細書においては、水平成分の画素は図示せず、かつ、動きベクトルの水平成分は、全て、便宜上、0として説明する。また、従来の問題点、及び本発明の効果を示すため、各フィールドの輝度、色差の画素の位置の位置関係は、正しく図示している。
【0009】
この図3において縦軸は、各フィールドの垂直成分の画素位置を表し、横軸は時間の経過を表す。なお、各画像の画素の水平成分においては、フィールドによる位置の変位はないため、この図では水平方向の画素の図示及び説明は省略している。
【0010】
この図3で示したとおり、色差成分のピクセル位置は、輝度のフィールド内の画素位置に対して、垂直成分が1/4画素ずれている。なお、これは、Top及びBottomの両フィールドからフレームを構成した場合、図2のような画素位置の関係を満たすためである。各Top及びBottomの隣接する両フィールド間(64a:65a、65a:64b・・)については、NTSCフォーマットをベースにした場合では、約1/60秒である。そして、TopフィールドからTopフィールド(64a:64b・・)又はBottomフィールドからBottomフィールド(65a:65b・・)の時間は約1/30秒の間隔である。
【0011】
以下、MPEG−2やAVC FCDで採用されている、フィールド画像のフレーム予測符号化モードとフィールド予測について、説明する。図4は、フレーム予測モード時に、2枚の連続するフィールド(隣接するTop及びBottomのフィールド)からフレームを構成する方法を説明したものである。この図の様に、フレームは、時間的に連続する2枚のフィールド(Top及びBottomのフィールド)から再構成されたものである。
【0012】
図5はフレーム予測モードを説明したものである。この図では、各フレーム84a、84b、84c・・は、図4で説明したとおり、2枚の連続するフィールド(Top及びBottomのフィールド)から、既に再構成されたものとする。このフレーム予測モードでは、Top及びBottomの両フィールドから構成された符号化対象フレームを対象に符号化が行なわれる。そして、参照画像としても、連続する参照用に蓄積された2枚のフィールド(Top及びBottomのフィールド)から一枚の参照フレームを構成し、前符号化対象フレームの予測に用いる。そして、この2枚のフレーム画像を、図1に図示したブロック図に従って符号化する。このフレーム予測符号化モードの場合、動きベクトルの表現方法については、ゼロベクトル、即ち (0,0)は、空間的に同位置の画素を指し示す。具体的にはFrame #2(84b)に属する輝度の画素82に対して、動きベクトル(0,0)を指し示す動きベクトルは、Frame#1(84a)の画素位置81を指し示すものである。
【0013】
次にフィールド予測符号化モードについて説明する。図6はフィールド間予測モード時の予測方法を説明する図である。フィールド予測モードでは、符号化対象は、原画として入力された一枚のTop フィールド(94a、94b・・)乃至はBottomフィールド(95a、95b・・)である。そして、参照画像としては、過去に蓄積されたTopフィールドあるいはBottomフィールドが使用可能である。ここで、原画フィールドと参照フィールドがパリティが同じ、とは、原画像のフィールドと参照フィールドが、両方ともTopフィールド、あるいは両方ともBottomフィールドであること、と一般に定義される。例えば、図中90の同パリティのフィールド予測は、原画(94b)、参照(94a)の両フィールドともTopフィールドである。同様に、原画フィールドと参照フィールドがパリティが異なる、とは、原画像のフィールドと参照フィールドの、一方がTopフィールド、もう片方がBottomフィールドであること、と一般に定義される。例えば、図中91に図示した異パリティのフィールド予測は、原画はBottom フィールド(95a)、参照はTopフィールド(94a)である。そして、この原画フィールド画像と参照フィールド画像を図1に図示したブロック図に従って符号化する。
【0014】
なお、従来の技術では、フレームモード、及びフィールドモード、とも、各フレーム/フィールド内の画素の位置を元に、動きベクトルが求められている。従来方式における、動きベクトル算出方法、および、動きベクトルが与えられたときの、画素の対応付け方法について説明する。
【0015】
図7は、MPEG−2, MPEG−1,AVC FCDなどの符号化で広く用いられている、フレーム/フィールド画像の座標を定義した図である。図中、白丸は、対象とするフレーム/フィールドで、画素の定義位置(271)である。ここで、このフレーム/フィールド画像内の座標については、画面内の左上を原点(0,0)とし、水平、垂直方向に、画素の定義位置が、順番に1,2,3・・・という値が割り振られる。すなわち、水平方向n番目、垂直方向m番目の画素の座標は(n,m)となる。これに準じて、画素と画素の間を補間した位置の座標も同様に定義される。すなわち、図中の●の位置270に関しては、左上の画素から水平方向に1,5画素、垂直方向に2画素分のところにあるので、位置270の座標は(1.5, 2.0)と表される。なお、フィールド画像に置いては、垂直方向はフレーム画像の半分の画素しかないが、この場合でも、各フィールドに存在する画素の位置を基準に、図7と同様に取り扱う。
【0016】
この図7の座標系を用いて、フィールド間の動きベクトルの定義を説明する。図8は、従来のフィールド間の対応する画素間の動きベクトルの算出方法を説明する図である。動きベクトルを定義するには、参照元の位置と参照先の位置が必要である。そして、この2点の間で動きベクトルが定義されることとなる。ここで、参照元のフィールド内の座標201が(Xs,Ys)の点 と参照先のフィールド内の座標202が(Xd,Yd)の点の間の動きベクトルを求める。従来のフィールド間に対応する画素間の動きベクトルの算出方法においては、参照元、および参照先が、Topフィールド、あるいはBottomフィールドに関わらず、以下に説明する、同一の方法で動きベクトルが求められていた。すなわち、参照元フィールド座標201(Xs,Ys)と、参照先フィールド座標202(Xd,Yd)が動きベクトル算出手段200に入力され、この二点間の動きベクトル203として、(Xd−Xs, Yd−Ys)が与えられるというものである。
【0017】
また、図9は、従来技術において、フィールド間で定義された動きベクトルが指し示す画素の算出方法を説明する図である。ここで、動きベクトルは、前述の図8の方法で導出したものとする。参照先の座標を求めるために、参照元の位置と動きベクトルが必要である。この図の場合には、参照元のフィールド内の座標212が(Xs,Ys)の点に対し、動きベクトル211の(X,Y)が与えられ、この両者を用いて求められる参照先フィールド内の座標を求めることを想定している。従来のフィールド間に対応する画素間の動きベクトルの算出方法においては、参照元、および参照先が、Topフィールド、あるいはBottomフィールドに関わらず、以下に説明する、同一の方法で参照先フィールドの位置が求められていた。すなわち、動きベクトル211(X、Y)と参照元フィールド座標212(Xs,Ys)が画素対応付け手段210に入力され、参照先フィールド座標213として、 座標(Xs+X, Ys+Y)が与えられるというものである。
【0018】
上記の図9のベクトルと画素の位置との関係の定義は、輝度成分、及び色差成分で同一のものである。ここで、一般的な動画像符号化方式であるMPEG−1/MPEG−2/AVC FCDにおいては、ベクトルは輝度成分のみが符号化され、色差成分のベクトルは、輝度成分をスケーリングすることにより導出される。特にAVC FCDでは、色差成分は、縦の画素数、横の画素数とも輝度成分の画素数の半分のため、色差成分の予測画素を求めるための動きベクトルは、輝度成分の動きベクトルを正確に二分の一にスケーリングしたもの、と定められている。図10は、このような従来の輝度成分動きベクトルから色差成分動きベクトルの求め方を説明する図である。
【0019】
すなわち、輝度成分動きベクトル221を(MV#x,MV#y)、色差成分動きベクトルを222を(MVXC#x,MVXC#y)とした場合、色差成分動きベクトル222は、色差成分動きベクトル生成手段220によって、
(MVXC#x, MVXC#y) = (MV#x/2, MV#y/2) ・・(式1)
という式に従って求められる。この導出方法は、従来方式では、動きベクトルが同一パリティのフィールド間、異なるパリティのフィールド間で予測を行なっているかどうかに関わらない。
【0020】
なお、AVC FCDでは、輝度成分の動きベクトルの精度として、1/4画素精度、あるいは1/8画素精度を取ることが可能である。このことから、式1の結果として、色差成分の動きベクトルの精度として、1/8画素精度、あるいは1/16画素精度の小数点以下の精度を持つベクトルをとりうる。図21に、AVC FCDで定義された、色差成分の補間画素の算出方法を説明する。図中、黒丸は整数画素を、点線白丸は補間画素を示している。ここで補間画素G(256)は、水平方向の座標は、点A(250)と点C(252)の各水平座標をα:1−αに内分したものであり、垂直方向の座標は、点A(250)と点B(251)の各垂直座標をβ:1−βに内分したものであるとする。ここでα及びβは0以上、1未満の値である。上記のような位置で定義される補間画素G(256)を算出する場合、その周囲の整数画素A(250)、B(251)、C(252)、D(253)とα、βを用いて、凡そ以下のように求められる。
【0021】
G=(1−α)・(1−β)・A+(1−α)・β・B+α・(1−β)・C+α・β・D (式2)
図21を用いた色差成分の画素の補間方法については、補間画素を求めるための一例であり、他の算出方法を用いても問題はない。
【0022】
【非特許文献1】
Document of Joint Video Team(JVT) of ISO/IEC and ITU−T VCEG
Documet Name: Document JVT−D157d1
Title: Joint Final Commitee Draft(JFCD) of Joint Video Specification(ITU−T Rec. H.264 | ISO/IEC 11496−10 AVC)
・6.1 Picture formats ・・page 7
・6.2 Spatial subdivision of a picture into macroblocks ・・page 9
・8.4.1.4 Chroma vectors ・・page 63
・8.4.2.3 Chroma interpolation ・・page 65
Generated: 2002/08/08
【0023】
【発明が解決しようとする課題】
このフィールド符号化モードの場合、原画フィールドと参照フィールドが異なる、すなわちパリティの異なるフィールド間の予測においては、AVC FCDの定義では、輝度成分と色差成分の両動きベクトルのゼロベクトルが平行ではない。即ち、従来の定義で、輝度成分の動きベクトルより求めた色差成分の動きベクトルを用いて予測をすると、輝度成分とは空間的にずれた位置の画素を用いることとなる。このことを図11を用いて説明する。図中、時間と共に、Topフィールド130、Bottomフィールド131、Top フィールド132が時間的に連続していると仮定する。ここで、Bottom フィールド131を、Top フィールド130を用いて符号化しようとしている。この際、フィールド間符号化では、各フィールドの同一ライン間の動きベクトルを垂直方向のゼロと定義している。このため、Bottomフィールド131に属する輝度の画素133aに対して、ゼロベクトル(0,0)が割当てられた場合、この画素は、Topフィールド130の画素135aから予測される。同様に、Bottomフィールド131に属する色差の画素134aに対して、ゼロベクトル(0,0)が割当てられた場合、この画素は、Topフィールド130の画素137aから予測される。また同様に、Topフィールド132に属する輝度画素133b及び色差画素134bはそれぞれ、Bottomフィールド131上の画素135b及び137bから予測される。なお、本来、色差と輝度は、動きベクトルが同一であるほうが好ましいので、輝度の動きベクトルを、現在のままとすれば、本来の色差134a、134bの画素は、それぞれ136a、136bの位置から予測するべきものである。
【0024】
前述のとおり、異なるパリティを持つフィールド間の予測では、
・輝度と色差のゼロベクトルが平行でない。
【0025】
という点を説明した。この点が、異なるパリティを持つフィールド間の予測において、全てのベクトルに対しても、AVC FCDにおいて、以下のような問題を引き起こす。図12、及び図13は、この問題を図示したものである。AVC FCDに従って、問題を示す。
図12は、参照先がBottomフィールドで、参照元がTopフィールドの場合の、従来技術における輝度動きベクトルから色差動きベクトルを求める際の問題点を説明する図である。AVC FCDでは、式1の通り、色差成分は、縦の画素数、横の画素数とも輝度成分の画素数の半分のため、色差成分の予測画素を求めるための動きベクトルは、輝度成分の動きベクトルを二分の一にスケーリングしたもの、と定められている。これは、動きベクトルがフレーム間、同一パリティのフィールド間、異なるパリティのフィールド間で予測を行なっているかどうかに関わらない。
【0026】
いま、この定義が、異なるパリティのフィールド間で定義された輝度の動きベクトルから、色差の動きベクトルを求める際に問題となることを示す。図12において、参照元Top フィールド輝度成分の画素140は、予測ベクトルとして(0,1)を有し、その結果、参照先Bottom フィールド輝度成分の画素位置141を予測値として指し示す。
【0027】
この場合、同一ブロックに属する色差画素の動きベクトルは、式1に従って、動きベクトル(0,1/2)と求められる。そして、参照元Top フィールド色差成分の画素142の予測値として、動きベクトル(0,1/2)を用いて予測した場合、参照先Bottom フィールド色差成分の画素位置143を予測値として用いることとなる。
【0028】
この場合、輝度の動きベクトル(0,1)と色差の動きベクトル(0,1/2)は平行でない。好ましくは、輝度の動きベクトルと平行な色差の動きベクトルを適用した、参照先Bottomフィールドの色差成分の予測画素位置145を用いることが必要となる。
【0029】
図13は、参照先がTopフィールドで、参照元がBottomフィールドの場合の、従来技術における輝度動きベクトルから色差動きベクトルを求める際の問題点を説明する図である。図12の説明と同様、図13において、参照元Bottomフィールド輝度成分の画素150は、予測ベクトルとして(0,1)を有し、その結果、参照先Topフィールド輝度成分の画素位置151を予測値として指し示す。
【0030】
この場合、同一ブロックに属する色差画素の動きベクトルは、式1に従って、動きベクトル(0,1/2)と求められる。そして、参照元Bottomフィールド色差成分の画素152の予測値として、動きベクトル(0,1/2)を用いて予測した場合、参照先Topフィールド色差成分の画素位置153を予測値として用いることとなる。
【0031】
この場合、輝度の動きベクトル(0,1)と色差の動きベクトル(0,1/2)は平行でない。好ましくは、輝度の動きベクトルと平行な色差の動きベクトルを適用した、参照先Topフィールドの色差成分の予測画素位置155を用いることが必要となる。
【0032】
以上のように、参照先と参照元のフィールドのパリティが異なる場合には、従来の予測方法では輝度と色差でずれた位置の画素を参照することとなり、ゼロベクトルばかりでなく、全てのベクトルで、予測画像で、輝度と色差でずれた予測画像となってしまう。
【0033】
【問題点を解決するための手段】
本発明は、上記の問題を解決するものである。
【0034】
まず、符号化における本発明(請求項1,請求項2,請求項3)を説明する。
【0035】
本発明では、複数のフィールドで構成される動画像信号に対し、フィールド間の動き補償予測を行う動画像符号化方式において、輝度成分の動きベクトルと、Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と、動きベクトルの参照先フィールドと参照元フィールドのパリティから輝度成分動きベクトルに並行な色差成分の動きベクトルを生成することを特徴とする動画符号化方法である(請求項1)。
【0036】
また、本発明では、複数のフィールドで構成される動画像信号に対し、フィールド間の動き補償予測を行う動画像符号化方式において、輝度成分の動きベクトル輝度成分の動きベクトルとTopフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報から色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段を備え、さらに、動きベクトルの参照先フィールドと参照元フィールドのパリティによって色差ベクトルの生成に用いる色差成分動きベクトル生成手段を選択する選択手段を備え、選択手段で選択された色差成分動きベクトル生成手段によって、輝度情報の動きベクトル情報から色差成分の予測ベクトルを生成することを特徴とする動画符号化方法である(請求項2)。ここで、選択手段では、輝度成分と平行な色差成分の動きベクトルを生成するものを選択する。
【0037】
ここで、前述の複数の色差成分動きベクトル生成手段としては、以下の3種類を備える。まず第一の色差成分動きベクトル生成手段は、参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択されるものである。第二の色差成分動きベクトル生成手段は、参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択されるものである。そして第三の色差成分動きベクトル生成手段は、参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択されるものである(請求項3)。
【0038】
輝度成分の動きベクトルと平行な色差成分の動きベクトルを求め方は、動きベクトルの参照元フィールドと参照先フィールドのパリティ及びフォーマット情報に依存する。両フィールドが同じパリティの場合、前者がTopフィールドで後者がBottomフィールドの場合、及び前者がBottomフィールドで後者がTopフィールドの場合、の3種類の場合により異なる。また、フォーマット情報によって輝度成分と色差成分が平行になるように計算方法を決定する。
【0039】
本発明においては、参照元と参照先のフィールド及びフォーマット情報によって、3種類の輝度成分動きベクトルと平行な色差成分動きベクトルを生成する手段の中から適当なものを選択して、色差成分の動きベクトルを生成する。
【0040】
また、符号化方法の請求項2は復号方法の請求項4に、同様に請求項3は請求項5に対応し、基本的に復号側においても、符号化側と同様な機能を有し,同様に作用する。
【0041】
【発明の実施の形態】
本実施形態では、主に符号化装置について、請求項1から2までを適用した例を用いて説明する。なお、本発明は、動きベクトルの垂直成分に関わるものであるので、動きベクトルの水平成分は、全て、便宜上、0とする。また、復号装置に関する請求項3、4を適用した実施例も、本実施例と同様の構成をとる。
【0042】
以下、AVC FCDに本発明を適用した場合を想定して実施例を説明する。
【0043】
図14は、本発明における、輝度動きベクトルから色差動きベクトルの算出方法を説明する図である。本実施例における、フィールド予測における輝度成分の動きベクトルから色差成分の動きベクトルの生成手段の実施例においては、三種類の色差成分の動きベクトル生成手段と一つの選択手段から構成される。
【0044】
図14における本発明の動作を以下に説明する。まず、与えられた輝度成分の動きベクトル231を(MV#x,MV#y)とする。そして、この輝度成分のベクトル231とフォーマット情報239を、第一の色差成分動きベクトル生成手段233、第ニの色差成分動きベクトル生成手段234、第三の色差成分動きベクトル生成手段235、の入力として与える。そして、それぞれの出力を選択手段230に入力する。そして、選択手段230では、入力された動きベクトルの参照元フィールドのパリティ237と動きベクトルの参照先のパリティ238の情報を元に、第一、第二、第三の色差成分動きベクトル生成手段の出力のうち一つを選択して、色差成分の動きベクトル232のベクトル成分(MVC#x, MVC#y)として出力する。
【0045】
以下に図14の第一の色差成分ベクトル生成手段233, 第二の色差成分ベクトル生成手段234, 第三の色差成分ベクトル生成手段235の動作を図15乃至図17を用いて説明する。
【0046】
図15は、第一の色差動きベクトル生成手段を説明する図である。本実施例においては、第一の色差成分動きベクトル生成手段260に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル261及びフォーマット情報263が入力され、(MVXC1#x, MVXC1#y)のベクトル値を持つ第一の色差の動きベクトル候補262を出力することを表している。そして、第一の色差の動きベクトル候補262は、色差成分動きベクトル生成手段260によって、輝度の動きベクトル261から、以下の式、
(MVXC1#x, MVXC1#y) = (MV#x/2, MV#y/2) ・・(式3)
に従って計算される。
【0047】
そして、求められた第一の色差の動きベクトル候補262は、選択手段へ出力される。
【0048】
図16は、第ニの色差動きベクトル生成手段270を説明する図である。本実施例においては、第ニの色差成分動きベクトル生成手段270に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル271及びフォーマット情報273が入力され、(MVXC2#x, MVXC2#y)のベクトル値を持つ第ニの色差の動きベクトル候補272を出力することを表している。そして、第ニの色差の動きベクトル候補272は、色差成分動きベクトル生成手段270によって、輝度の動きベクトル271から、以下の式、
(MVXC2#x, MVXC2#y) = (MV#x/2, MV#y/2 + a) ・・(式4)
に従って計算される。ここで値aはTopフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置の関係を表すフォーマット情報F 273から輝度の動きベクトル271と第一の色差の動きベクトル候補272が平行になるように決定される。フォーマット情報F 273により複数のフォーマットの中から1つのフォーマットが選択される。
【0049】
ここで、フォーマットは例えば、図22のようにTopフィールドの奇数番目の輝度画素近傍に色差画素が配置され、Bottomフィールドの偶数番目の輝度画素近傍に色差画素が配置される場合をフォーマットF=0とし、図23のように、Topフィールド及びBottomフィールド共に奇数番目の輝度画素近傍に色差画素が配置される場合をフォーマットF=1とする。
【0050】
フォーマットが図22に示したようにF=0のとき、a = 1/4となる。また、フォーマットが図23で示したF=1のとき、a = 0となる。また、フォーマット情報F 273は、フォーマットの種類を表すものだけではなく、色差成分の位相を示す情報であっても良い。
【0051】
そして、求められた第ニの色差の動きベクトル候補272は、選択手段へ出力される。
【0052】
図17は、第三の色差動きベクトル生成手段を説明する図である。本実施例においては、第三の色差成分動きベクトル生成手段280に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル281及びフォーマット情報F283が入力され、(MVXC3#x, MVXC3#y)のベクトル値を持つ第三の色差の動きベクトル候補282を出力することを表している。そして、第三の色差の動きベクトル候補282は、色差成分動きベクトル生成手段280によって、輝度の動きベクトル281から、以下の式、
(MVXC3#x, MVXC3#y) = (MV#x/2, MV#y/2 + b) ・・(式5)
に従って計算される。ここで値bはフォーマット情報283から輝度の動きベクトル281と第一の色差の動きベクトル候補282が平行になるように決定される。フォーマット情報Fにより複数のフォーマットの中から1つのフォーマットが選択される。
【0053】
ここで、上記と同様にフォーマットが図22に示したF=0のとき、b = −1/4となる。また、フォーマットが図23で示したF=1のとき、b = 0となる。また、フォーマット情報Fは、フォーマットの種類を表すものだけではなく、色差成分の位相を示す情報であっても良い。
【0054】
そして、求められた第三の色差の動きベクトル候補282は、選択手段へ出力される。
【0055】
上記で説明したフォーマット情報は、Topフィールド及びBottomフィールドの輝度画素と色差画素の位置関係を表しており、上記で説明したフォーマット以外のフォーマットを適用したとしても、各第二及び第三の色差成分動きベクトルの生成手段において、色差成分の動きベクトルが輝度成分の動きベクトルと並行になるように色差ベクトルに加えるa及びbの値を決める事で対応可能である。
【0056】
図18は、本発明における選択手段240の実施例を説明する図である。まず、本実施例では、動きベクトルの参照元フィールドのパリティ247と動きベクトルの参照先フィールドのパリティ248がそれぞれ、条件判断テーブル241によって判断され、選択すべき色差成分動きベクトル生成手段の選択情報249が出力される。本実施例では、この条件判断テーブル241を用いると、参照先フィールド及び参照元フィールドの両方が等しい場合には、第一の色差成分動きベクトル候補244を選択すべき選択情報が出力される。また、参照先フィールドがTopフィールドで参照元フィールドがBottomフィールドの場合には第二の色差成分動きベクトル候補245を選択する選択情報が出力される。そして、参照先フィールドがBottomフィールドで参照元フィールドがTopフィールドの場合には第三の色差成分動きベクトル候補246を選択する選択情報が出力される。
【0057】
ここで、第一の色差成分動きベクトル候補244は図15の262に、第ニの色差成分動きベクトル候補245は図16の272に、第三の色差成分動きベクトル候補246は図17の282に、それぞれ接続されている。そして、セレクタ243では、前述の選択情報249に従って、第一の色差成分動きベクトル候補244、第ニの色差成分動きベクトル候補245、第三の色差成分動きベクトル候補246のうち一つを選択し、色差成分の動きベクトル242として(MVC#x,MVC#y)を出力する。
【0058】
図19は、本発明による、参照先がBottomフィールドで参照元がTopフィールドの場合の、輝度成分のベクトルから色差成分のベクトルを計算する例を示すものである。この図の例では、参照元Top フィールド輝度成分の画素160を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、輝度の画素160の予測には参照先Bottom フィールド輝度成分の画素位置161が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Top フィールド色差成分の画素162の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0059】
まず、図19の場合には参照先フィールドがBottomフィールド、参照元フィールドがTopフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第三の色差成分動きベクトル候補が選択される。ここで、式5に従えば、例えばフォーマット情報F=0が用いられた場合、輝度の動きベクトルと第三の色差成分動きベクトル候補を平行になるようにb = −1/4と決定される。そこで、第三の色差成分動きベクトル候補は、
(MVXC3#x, MVXC3#y)=(MV#x/2, MV#y/2−1/4)=(0/2, 1/2 − 1/4)=(0, 1/4)(式6)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/4)を参照元Top フィールド色差成分の画素162に適用すると、参照先Bottom フィールド色差成分の画素位置163が予測値として用いられることとなる。図19においては、各画素の縦方向の位置関係は実際の場合に即している。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/4)は平行であることが分かる。このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
さらに、図24は、に、図19と異なるフォーマットの例を示す。この図の例では、参照元Top フィールド輝度成分の画素300を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、輝度の画素300の予測には参照先Bottom フィールド輝度成分の画素位置301が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Top フィールド色差成分の画素302の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0060】
まず、図24の場合には参照先フィールドがBottomフィールド、参照元フィールドがTopフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第三の色差成分動きベクトル候補が選択される。ここで、式5に従えば、例えばフォーマット情報F=1が用いられた場合、輝度の動きベクトルと第三の色差成分動きベクトル候補を平行になるようにb = 0と決定される。そこで、第三の色差成分動きベクトル候補は、
(MVXC3#x, MVXC3#y)=(MV#x/2, MV#y/2−0)=(0/2, 1/2 − 0)=(0, 1/2) (式7)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/2)を参照元Top フィールド色差成分の画素302に適用すると、参照先Bottom フィールド色差成分の画素位置303が予測値として用いられることとなる。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/2)は平行であることが分かる。このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
同様に、図20は、本発明による、参照先がTopoフィールドで参照元がBottomフィールドの場合の、輝度成分のベクトルから色差成分のベクトルを計算する例を示すものである。この図の例では、参照元Bottomフィールド輝度成分の画素170を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、参照元Bottomフィールド輝度成分の画素170の予測には参照先Topフィールド輝度成分の画素位置171が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Bottomフィールド色差成分の画素172の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0061】
まず、図20の場合には参照先フィールドがTopフィールド、参照元フィールドがBottomフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第ニの色差成分動きベクトル候補が選択される。ここで、式4に従えば、例えばフォーマット情報F=0が用いられた場合、輝度の動きベクトルと第二の色差成分動きベクトル候補を平行になるようにa = 1/4と決定される。
【0062】
そこで、第ニの色差成分動きベクトル候補は、
(MVXC2#x, MVXC2#y)=(MV#x/2, MV#y/2+1/4)=(0/2, 1/2 + 1/4)=(0, 3/4)(式8)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 3/4)を参照元Bottomフィールド色差成分の画素172に適用すると、予測に用いる位置として参照先Topフィールド色差成の画素位置173が予測値として用いられることとなる。図20においては、各画素の縦方向の位置関係は実際の場合に即している。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,3/4)は平行であることが分かる。
【0063】
さらに図25に、図20と異なるフォーマットの例を示す。この図の例では、参照元Bottomフィールド輝度成分の画素300を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、参照元Bottomフィールド輝度成分の画素310の予測には参照先Topフィールド輝度成分の画素位置311が選択される。このようなベクトルに対して、参照元Bottomフィールド色差成分の画素312の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。図18の条件判断テーブル241によって、選択情報249は第ニの色差成分動きベクトル候補が選択される。ここで、式4に従えば、例えばフォーマット情報F=1が用いられた場合、輝度の動きベクトルと第二の色差成分動きベクトル候補を平行になるようにa = 0と決定される。
【0064】
そこで、第ニの色差成分動きベクトル候補は、
(MVXC2#x, MVXC2#y)=(MV#x/2, MV#y/2+0)=(0/2, 1/2 + 0)=(0, 1/2) (式9)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/2)を参照元Bottomフィールド色差成分の画素312に適用すると、予測に用いる位置として参照先Topフィールド色差成の画素位置313が予測値として用いられることとなる。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/2)は平行であることが分かる。
このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
【0065】
ここでは、図19、図20、図24、図25の例では、特定のベクトルの場合について説明したが、他の異パリティフィールド間の予測にも、本実施例を適用することにより、輝度と色差のずれのない予測が可能となる。
【0066】
なお、参照先及び参照元の両フィールドのパリティが等しい場合には、上記のような色ずれが発生しないため、図10の従来の輝度成分動きベクトルから色差成分動きベクトル生成手段220と同じ構成をもつ、本発明の第一の色差成分動きベクトル手段233の結果が選択されて色差成分動きベクトル232として用いられる。この場合は、本発明により得られる色差成分動きベクトルは従来技術の結果と同等なので、本実施例における説明は割愛する。
【0067】
なお、本実施例は、AVC FCDを例として説明したが、ここでの説明は一実施形態であり、他の実施形態を制限するものではない。
【0068】
【発明の効果】
本発明によれば、パリティが異なるフィールド間で、且つTopフィールド及びBottomフィールドに於ける輝度画素と色差画素の位置関係が異なるフォーマットの場合でも、そのフォーマット情報により、輝度成分の動きベクトルと平行な色差成分の動きベクトルを求めることが可能となり、色差成分の予測効率が向上し、動画像符号化における符号化効率が改善できる。
【0069】
【図面の簡単な説明】
【図1】フレーム間予測符号可装置のブロック図
【図2】輝度、色差の各画素の位置と、それらが属するフィールドを説明する図
【図3】フィールド画像における輝度、色差の各画素の垂直方向の字空間位置を説明する図
【図4】フレーム符号化モード時にフィールドとフレームの関係を説明する図
【図5】フレーム間予測符号化モード時の予測方法を説明する図
【図6】フィールド間予測モード時の予測方法を説明する図
【図7】フィールド画像の座標を説明する図
【図8】従来方式のフィールド間の対応する画素間の動きベクトルの算出方法を説明する図
【図9】従来方式の動きベクトルが指し示す画素の算出方法を説明する図
【図10】従来の輝度動きベクトルから色差動きベクトルを求める方法を説明する図
【図11】従来技術におけるパリティが異なるフィールド間のゼロベクトルを説明する図Direct Modeの原理を説明する図
【図12】参照先がBottomフィールドで参照元がTopフィールドの場合の輝度動きベクトルから色差動きベクトルを求める際の従来技術の問題点を説明する図
【図13】参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルを求める際の従来技術の問題点を説明する図
【図14】本発明における輝度動きベクトルから色差動きベクトルの生成方法を説明する図
【図15】本発明における第一の色差成分動きベクトル生成手段の実施例を説明する図
【図16】本発明における第ニの色差成分動きベクトル生成手段の実施例を説明する図
【図17】本発明における第三の色差成分動きベクトル生成手段の実施例を説明する図
【図18】本発明における選択手段の実施例を説明する図
【図19】実施例におけるフォーマットF=0の場合の参照先がBottomフィールドで参照元がTopフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図20】実施例におけるフォーマットF=0の場合の参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図21】色差成分の補間画素の算出方法を説明する図
【図22】実施例におけるフォーマットF=0を説明する図
【図23】実施例におけるフォーマットF=1を説明する図
【図24】実施例におけるフォーマットF=1の場合の参照先がTopフィールドで参照元がBottomフィールドの場合輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図25】実施例におけるフォーマットF=1の場合の参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【符号の説明】
31 直交変換手段
32 量子化手段
33 逆量子化手段
34 逆直交変換手段
35 復号画像生成手段
36 復号画像記憶手段
37 動きベクトル計算手段
38 予測画像生成手段
39 予測誤差信号生成手段
40 係数エントロピー符号化手段
41 動きベクトルエントロピー符号化手段
42 多重化手段
50a−50d Top Field輝度第1,3,5,7ライン
51a−51d Bottom Field輝度第2,4,6,8ライン
52a−52b Top Field色差第1,3ライン
53a−53b Bottom Field色差第2,4ライン
64a−64c Top Field
65a−65c Bottom Field
81 Frame#1輝度成分
82 Frame#2輝度成分
84a−84c Frame#1〜#3
90 同パリティフィールド間予測
91 異パリティフィールド間予測
94a−94b Top Field
95a−95b Bottom Field
100a−100b Top Field
101a−101b Bottom Field
110a−110b Top Field
111a−111b Bottom Field
130 Top Field
131 Bottom Field
132 Top Field
133a−133b 符号化対象輝度成分
134a−134b 符号化対象色差成分
135a−135b 参照フィールドの輝度成分
136a−136b 予測として好ましい色差成分
137a−137b 参照フィールドの色差成分
140 参照元Top フィールド輝度成分の画素
141 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
142 参照元Top フィールド色差成分の画素
143 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
145 好ましい色差成分の予測画素位置
150 参照元Bottomフィールド輝度成分の画素
151 予測値として用いられる参照先Topフィールド輝度成分の画素位置
152 参照元Bottomフィールド色差成分の画素
153 予測値として用いられる参照先Topフィールド色差成の画素位置
155 好ましい色差成分の予測画素位置
160 参照元Top フィールド輝度成分の画素
161 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
162 参照元Top フィールド色差成分の画素
163 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
170 参照元Bottomフィールド輝度成分の画素
171 予測値として用いられる参照先Topフィールド輝度成分の画素位置
172 参照元Bottomフィールド色差成分の画素
173予測値として用いられる参照先Topフィールド色差成の画素位置
180 座標を求めたい位置
181 画素の定義位置
200 動きベクトル算出手段
201 参照元フィールド座標
202 参照先フィールド座標
203 動きベクトル
210 画素対応付け手段
211 動きベクトル
212 参照元フィールド座標
213 参照先フィールド座標
220 色差成分動きベクトル生成手段
221 輝度成分動きベクトル
222 色差成分動きベクトル
230 選択手段
231 輝度成分の動きベクトル
232 色差成分の動きベクトル
233 第一の色差成分動きベクトル生成手段
234 第ニの色差成分動きベクトル生成手段
235 第三の色差成分動きベクトル生成手段
237 動きベクトルの参照元フィールドのパリティ
238 動きベクトルの参照先フィールドのパリティ
239 フォーマット情報
240 選択手段
241 条件判定テーブル
242 色差成分の動きベクトル
243 セレクタ
244 第一の色差成分動きベクトルの候補
245 第ニの色差成分動きベクトルの候補
246 第三の色差成分動きベクトルの候補
247 動きベクトルの参照元フィールドのパリティ
248 動きベクトルの参照先フィールドのパリティ
249 選択情報
250〜255 整数画素
256 補間画素
260 第一の色差成分動きベクトル生成手段
261 輝度成分動きベクトル
262 第一の色差成分動きベクトル候補
263 色差位相情報
270 第ニの色差成分動きベクトル生成手段
271 輝度成分動きベクトル
272 第ニの色差成分動きベクトル候補
273 フォーマット情報
280 第三の色差成分動きベクトル生成手段
281 輝度成分動きベクトル
282 第三の色差成分動きベクトル候補
283 フォーマット情報
300 参照元Top フィールド輝度成分の画素
301 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
302 参照元Top フィールド色差成分の画素
303 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
310 参照元Bottomフィールド輝度成分の画素
311 予測値として用いられる参照先Topフィールド輝度成分の画素位置
312 参照元Bottomフィールド色差成分の画素
313 予測値として用いられる参照先Topフィールド色差成の画素位置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video encoding device and a video transcoding device having an inter-field prediction mode.
[0002]
[Prior art]
Since moving image data generally has a large data amount, high-efficiency coding is performed when it is transmitted from a transmitting device to a receiving device or when it is stored in a storage device. Here, “high-efficiency encoding” is an encoding process for converting a certain data sequence into another data sequence, and refers to a process for compressing the data amount.
[0003]
The moving image data includes data mainly including only frames and data including fields. Hereinafter, a conventional technique of a method of compressing a field image will be mainly described.
[0004]
As a high-efficiency encoding method for moving image data, an inter-frame / field prediction encoding method is known. FIG. 1 shows a block diagram of this interframe / field predictive coding. This encoding method utilizes the fact that moving image data has high correlation in the time direction. Briefly explaining the operation of FIG. 1, a difference image between an input original image and a prediction image is generated by a subtractor 39, and the difference image is subjected to an orthogonal transformation unit 31, a quantization unit 32, and a coefficient entropy encoding unit. Encode at 40. Further, the output of the quantization means 32 is restored to a difference image by the inverse quantization means 33 and the inverse orthogonal transform means 34, and the output is decoded from the difference image restored by the decoded image generation means 35 and the prediction image used at the time of encoding. Restore the image. The restored image is stored in the decoded image storage means 36, a motion vector calculation means 37 calculates a motion vector between the next input image, and a predicted image generation means 38 Generate an image. The generated motion vector is encoded by the vector entropy encoding unit 41, and is output via the MUX 42 together with the coefficient encoded data encoded by the coefficient entropy encoding unit 40. That is, moving image data generally has a high similarity between frame / field data at a certain timing and frame / field data at the next timing in many cases. I do. For example, in a data transmission system using an inter-frame / field predictive encoding method, in a transmission device, motion vector data representing “motion” from a previous frame / field image to a target frame / field image, and the previous frame / Difference data between the predicted image of the target frame / field and the actual image of the target frame / field created using the motion vector data from the image of the / frame, and sends the motion vector data and the difference data to the receiving device. I do. On the other hand, the receiving device reproduces an image of the target frame / field from the received motion vector data and difference data.
[0005]
The outline of the inter-frame / field predictive encoding in FIG. 1 has been described above, and the frame predictive encoding and the field predictive encoding will be further described below.
[0006]
FIGS. 2 and 3 show the above-mentioned ISO / IEC MPEG-2 / MPEG-4 (hereinafter referred to as MPEG-2, MPEG-4) and, as of August 2002, jointly standardized by ITU-T and ISO / IEC. ITU-TH. This is a description of a format used for encoding a field image, which is commonly used in Final Committee Draft (hereinafter abbreviated as AVC FCD) of H.264 / ISO / IEC MPEG-4 Part 10 (Advanced Video Coding: AVC). That is, each frame includes two fields, that is, a Top field and a Bottom field. FIG. 2 is a diagram illustrating the position of each pixel of luminance and color difference and the field to which they belong. As shown in FIG. 2, the odd-numbered lines of the first luminance line (50a), the third luminance line (50b), the fifth luminance line (50c), the seventh luminance line (50d),. The even-numbered lines such as the second luminance line (51a), the fourth luminance line (51b), the sixth luminance line (51c), the eighth luminance line (51d), etc., belong to the Bottom field. Similarly, the odd-numbered lines such as the first color difference line (52a), the third color difference line (52b)... Belong to the Top field, and the second color difference line (53a) and the fourth color difference line (53b). .. Belong to the Bottom field.
[0007]
The Top field and the Bottom field represent images at different times. Next, the spatial and temporal arrangement of the Top field and the Bottom field will be described with reference to FIG.
[0008]
Note that, from FIG. 3 onward, since the technology according to the present invention relates to the vertical component of the motion vector, in this specification, the pixel of the horizontal component is not shown, and the horizontal component of the motion vector is All are described as 0 for convenience. Further, in order to show the problems of the related art and the effects of the present invention, the positional relationship between the luminance and color difference pixel positions in each field is correctly illustrated.
[0009]
In FIG. 3, the vertical axis represents the pixel position of the vertical component of each field, and the horizontal axis represents the passage of time. Note that, in the horizontal components of the pixels of each image, there is no displacement of the position due to the field, and therefore, illustration and description of the pixels in the horizontal direction are omitted in this figure.
[0010]
As shown in FIG. 3, the pixel position of the chrominance component has a vertical component shifted by 4 pixel from the pixel position in the luminance field. This is because when a frame is composed of both the Top and Bottom fields, the relationship of the pixel positions as shown in FIG. 2 is satisfied. The time between both adjacent fields of each Top and Bottom (64a: 65a, 65a: 64b...) Is about 1/60 second in the case of the NTSC format. The time from the Top field to the Top field (64a: 64b...) Or the time from the Bottom field to the Bottom field (65a: 65b...) Is approximately 1/30 second.
[0011]
Hereinafter, the frame prediction coding mode and field prediction of a field image, which are adopted in MPEG-2 and AVC FCD, will be described. FIG. 4 illustrates a method of forming a frame from two consecutive fields (adjacent Top and Bottom fields) in the frame prediction mode. As shown in this figure, the frame is reconstructed from two temporally continuous fields (Top and Bottom fields).
[0012]
FIG. 5 illustrates the frame prediction mode. In this figure, it is assumed that each of the frames 84a, 84b, 84c,... Has been reconstructed from two consecutive fields (Top and Bottom fields) as described in FIG. In this frame prediction mode, encoding is performed on an encoding target frame composed of both Top and Bottom fields. As a reference image, one reference frame is formed from two fields (Top and Bottom fields) accumulated for continuous reference, and is used for prediction of a pre-encoding target frame. Then, the two frame images are encoded according to the block diagram shown in FIG. In the case of the frame prediction encoding mode, as for the method of expressing a motion vector, a zero vector, that is, (0, 0) indicates pixels at the same spatial position. Specifically, for a pixel 82 of luminance belonging to Frame # 2 (84b), a motion vector indicating a motion vector (0, 0) indicates a pixel position 81 of Frame # 1 (84a).
[0013]
Next, the field prediction encoding mode will be described. FIG. 6 is a diagram for explaining a prediction method in the inter-field prediction mode. In the field prediction mode, an encoding target is a single Top field (94a, 94b,...) Or a Bottom field (95a, 95b,...) Input as an original image. As a reference image, a Top field or a Bottom field stored in the past can be used. Here, that the original image field and the reference field have the same parity is generally defined as that both the original image field and the reference field are Top fields or both are Bottom fields. For example, in the field prediction of the same parity 90 in the figure, both the original image (94b) and the reference (94a) are Top fields. Similarly, that the original image field and the reference field have different parities is generally defined as one of the original image field and the reference field being the Top field and the other being the Bottom field. For example, in the field prediction of a different parity illustrated in FIG. 91, the original picture is a Bottom field (95a), and the reference is a Top field (94a). Then, the original image field image and the reference field image are encoded according to the block diagram shown in FIG.
[0014]
In the related art, in both the frame mode and the field mode, a motion vector is obtained based on the position of a pixel in each frame / field. A method of calculating a motion vector and a method of associating pixels when a motion vector is given in the conventional method will be described.
[0015]
FIG. 7 is a diagram that defines the coordinates of a frame / field image that is widely used in encoding such as MPEG-2, MPEG-1, and AVC FCD. In the figure, a white circle is a target frame / field and is a pixel definition position (271). Here, with respect to the coordinates in the frame / field image, the origin (0, 0) is set at the upper left in the screen, and the defined positions of the pixels in the horizontal and vertical directions are 1, 2, 3,. Value is assigned. That is, the coordinates of the nth pixel in the horizontal direction and the mth pixel in the vertical direction are (n, m). According to this, the coordinates of the position where the pixel is interpolated are similarly defined. That is, as for the position 270 of ● in the figure, the position of the position 270 is (1.5, 2.0) since it is located 1.5 pixels horizontally and 2 pixels vertically from the upper left pixel. It is expressed as Note that, in the field image, there are only half the pixels of the frame image in the vertical direction, but even in this case, the pixels are handled in the same manner as in FIG. 7 based on the positions of the pixels existing in each field.
[0016]
The definition of a motion vector between fields will be described using the coordinate system shown in FIG. FIG. 8 is a diagram illustrating a conventional method of calculating a motion vector between corresponding pixels between fields. In order to define a motion vector, a reference source position and a reference destination position are required. Then, a motion vector is defined between these two points. Here, a motion vector between a point whose coordinates 201 in the reference source field is (Xs, Ys) and a point whose coordinates 202 in the reference destination field are (Xd, Yd) is obtained. In a conventional method of calculating a motion vector between pixels corresponding to between fields, a motion vector is obtained by the same method described below, regardless of whether a reference source or a reference destination is a Top field or a Bottom field. I was In other words, the reference source field coordinates 201 (Xs, Ys) and the reference destination field coordinates 202 (Xd, Yd) are input to the motion vector calculation means 200, and (Xd-Xs, Yd) −Ys).
[0017]
FIG. 9 is a diagram illustrating a method of calculating a pixel indicated by a motion vector defined between fields in the related art. Here, it is assumed that the motion vector is derived by the method of FIG. In order to obtain the coordinates of the reference destination, the position of the reference source and the motion vector are required. In the case of this figure, (X, Y) of the motion vector 211 is given to a point whose coordinates 212 in the reference source field are (Xs, Ys), and the reference destination field obtained using both of them is obtained. It is assumed that the coordinates of are obtained. In the conventional method of calculating a motion vector between pixels corresponding to between fields, the reference source and the reference destination are determined by the same method described below, regardless of whether the Top field or the Bottom field is used. Was required. That is, the motion vector 211 (X, Y) and the reference source field coordinates 212 (Xs, Ys) are input to the pixel association unit 210, and the coordinates (Xs + X, Ys + Y) are given as the reference destination field coordinates 213. is there.
[0018]
The definition of the relationship between the vector and the pixel position in FIG. 9 is the same for the luminance component and the color difference component. Here, in the MPEG-1 / MPEG-2 / AVC FCD, which is a general moving picture coding method, only a luminance component is encoded as a vector, and a color difference component vector is derived by scaling the luminance component. Is done. In particular, in the AVC FCD, since the chrominance component is half the number of pixels of the luminance component in both the number of vertical pixels and the number of horizontal pixels, the motion vector for calculating the prediction pixel of the chrominance component is obtained by accurately calculating the motion vector of the luminance component. It is stipulated that it is scaled by half. FIG. 10 is a diagram illustrating a method of obtaining a color difference component motion vector from such a conventional luminance component motion vector.
[0019]
That is, when the luminance component motion vector 221 is (MV # x, MV # y) and the chrominance component motion vector is 222 (MVXC # x, MVXC # y), the chrominance component motion vector 222 is By means 220
(MVXC # x, MVXC # y) = (MV # x / 2, MV # y / 2) (Equation 1)
It is obtained according to the formula. In the conventional method, this derivation method is irrespective of whether the motion vector predicts between fields having the same parity or between fields having different parities.
[0020]
In the AVC FCD, the accuracy of the motion vector of the luminance component can be 1/4 pixel accuracy or 1/8 pixel accuracy. From this, as a result of Expression 1, a vector having a precision of a decimal point of 1/8 pixel precision or 1/16 pixel precision can be taken as the precision of the motion vector of the color difference component. FIG. 21 illustrates a method of calculating an interpolated pixel of a color difference component defined by the AVC FCD. In the figure, black circles indicate integer pixels, and dotted white circles indicate interpolation pixels. Here, the horizontal coordinate of the interpolation pixel G (256) is obtained by internally dividing each horizontal coordinate of the point A (250) and the point C (252) into α: 1−α, and the vertical coordinate is , And the vertical coordinates of point A (250) and point B (251) are internally divided into β: 1−β. Here, α and β are 0 or more and less than 1. When calculating the interpolated pixel G (256) defined by the position as described above, the surrounding integer pixels A (250), B (251), C (252), D (253), and α and β are used. Therefore, it is calculated as follows.
[0021]
G = (1-α) · (1-β) · A + (1-α) · β · B + α · (1-β) · C + α · β · D (Equation 2)
The method of interpolating the pixel of the color difference component using FIG. 21 is an example for obtaining an interpolated pixel, and there is no problem if another calculation method is used.
[0022]
[Non-patent document 1]
Document of Joint Video Team (JVT) of ISO / IEC and ITU-T VCEG
Document Name: Document JVT-D157d1
Title: Joint Final Committee Draft (JFCD) of Joint Video Specification (ITU-T Rec. H.264 | ISO / IEC 11496-10 AVC)
・ 6.1 Picture formats ・ ・ page 7
・ 6.2 Spatial subdivision of a picture into macroblocks ・ ・ page 9
・ 8.4.1.4 Chroma vectors ・ ・ page 63
・ 8.4.2.3 Chroma interpolation ・ ・ page 65
Generated: 2002/08/08
[0023]
[Problems to be solved by the invention]
In the case of this field coding mode, in prediction between fields having different original picture fields and reference fields, that is, fields having different parities, according to the definition of AVC FCD, zero vectors of both motion vectors of a luminance component and a chrominance component are not parallel. That is, in the conventional definition, when prediction is performed using the motion vector of the chrominance component obtained from the motion vector of the luminance component, a pixel at a position spatially shifted from the luminance component is used. This will be described with reference to FIG. In the drawing, it is assumed that the Top field 130, the Bottom field 131, and the Top field 132 are temporally continuous with time. Here, the Bottom field 131 is about to be encoded using the Top field 130. At this time, in the inter-field coding, the motion vector between the same lines in each field is defined as zero in the vertical direction. Therefore, when the zero vector (0, 0) is assigned to the pixel 133 a having the luminance belonging to the bottom field 131, this pixel is predicted from the pixel 135 a of the top field 130. Similarly, when the zero vector (0, 0) is assigned to the pixel 134 a of the color difference belonging to the bottom field 131, this pixel is predicted from the pixel 137 a of the top field 130. Similarly, the luminance pixel 133b and the chrominance pixel 134b belonging to the Top field 132 are predicted from the pixels 135b and 137b on the Bottom field 131, respectively. Since it is originally preferable that the motion vector of the color difference and the luminance be the same, if the motion vector of the luminance is left as it is, the pixels of the original color differences 134a and 134b are predicted from the positions of 136a and 136b, respectively. It is something to do.
[0024]
As mentioned above, prediction between fields with different parity
-The zero vectors of luminance and color difference are not parallel.
[0025]
That point was explained. This causes the following problem in the AVC FCD for all vectors in prediction between fields having different parities. Figures 12 and 13 illustrate this problem. Indicate the problem according to the AVC FCD.
FIG. 12 is a diagram for explaining a problem when a chrominance motion vector is obtained from a luminance motion vector in the related art when a reference destination is a Bottom field and a reference source is a Top field. In the AVC FCD, since the color difference component is half the number of pixels of the luminance component in both the number of vertical pixels and the number of horizontal pixels as in Equation 1, the motion vector for obtaining the predicted pixel of the color difference component is the motion of the luminance component. It is defined as a vector scaled by a factor of two. This is regardless of whether the motion vector predicts between frames, between fields of the same parity, or between fields of different parity.
[0026]
Now, it is shown that this definition poses a problem when obtaining a color difference motion vector from a luminance motion vector defined between fields of different parities. In FIG. 12, the pixel 140 of the reference source Top field luminance component has (0, 1) as the prediction vector, and as a result, the pixel position 141 of the reference destination Bottom field luminance component is indicated as the prediction value.
[0027]
In this case, the motion vector of the chrominance pixel belonging to the same block is obtained as the motion vector (0, 1/2) according to Equation 1. Then, when the prediction is performed using the motion vector (0,)) as the prediction value of the pixel 142 of the reference source Top field color difference component, the pixel position 143 of the reference destination Bottom field color difference component is used as the prediction value. .
[0028]
In this case, the luminance motion vector (0, 1) and the color difference motion vector (0, 1/2) are not parallel. Preferably, it is necessary to use the predicted pixel position 145 of the color difference component of the reference Bottom field to which a motion vector of a color difference parallel to the motion vector of the luminance is applied.
[0029]
FIG. 13 is a diagram for explaining a problem in obtaining a chrominance motion vector from a luminance motion vector in the related art when a reference destination is a Top field and a reference source is a Bottom field. As in the description of FIG. 12, in FIG. 13, the pixel 150 of the reference source Bottom field luminance component has (0, 1) as a prediction vector, and as a result, the pixel position 151 of the reference Top field luminance component is set to the predicted value. Pointed out.
[0030]
In this case, the motion vector of the chrominance pixel belonging to the same block is obtained as the motion vector (0, 1/2) according to Equation 1. Then, when the prediction is performed using the motion vector (0, 1/2) as the prediction value of the pixel 152 of the reference source Bottom field color difference component, the pixel position 153 of the reference destination Top field color difference component is used as the prediction value. .
[0031]
In this case, the luminance motion vector (0, 1) and the color difference motion vector (0, 1/2) are not parallel. Preferably, it is necessary to use the predicted pixel position 155 of the color difference component of the reference Top field to which a motion vector of a color difference parallel to the luminance motion vector is applied.
[0032]
As described above, when the parity of the field of the reference destination and the parity of the field of the reference source are different, the conventional prediction method refers to the pixel at the position shifted by the luminance and the chrominance. However, in the predicted image, the predicted image is shifted by the luminance and the color difference.
[0033]
[Means for solving the problem]
The present invention solves the above problem.
[0034]
First, the present invention (claim 1, claim 2, claim 3) in encoding will be described.
[0035]
According to the present invention, in a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields, a motion vector of a luminance component and luminance and color difference pixels in a Top field and a Bottom field are used. A motion vector of a chrominance component parallel to the luminance component motion vector is generated from format information indicating the sampling positional relationship of the motion vector and the parities of the reference field and the reference source field of the motion vector. Claim 1).
[0036]
Further, in the present invention, in a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields, a motion vector of a luminance component, a motion vector of a luminance component, a Top field, and a Bottom field. A plurality of chrominance component motion vector generation means for generating a chrominance component motion vector from format information indicating the sampling position relationship of the luminance and chrominance pixels in the pixel. A color difference component motion vector generation unit for selecting a color difference component motion vector generation unit used for generating a vector; and generating a color difference component prediction vector from the luminance information motion vector information by the color difference component motion vector generation unit selected by the selection unit. Characteristic video encoding method Claim 2). Here, the selection means selects one that generates a motion vector of a color difference component parallel to the luminance component.
[0037]
Here, the following three types of color difference component motion vector generating means are provided. First, the first chrominance component motion vector generation means is selected by the selection means when the reference destination field and the reference source field have the same parity. The second color difference component motion vector generation means is selected by the selection means when the reference destination field is the Top field and the reference source field is the Bottom field. The third chrominance component motion vector generation means is selected by the selection means when the reference field is a Bottom field and the reference source field is a Top field.
[0038]
The method of obtaining the motion vector of the color difference component parallel to the motion vector of the luminance component depends on the parity and format information of the reference source field and the reference destination field of the motion vector. When the two fields have the same parity, there are three types of cases: the former is a Top field and the latter is a Bottom field, and the former is a Bottom field and the latter is a Top field. Further, the calculation method is determined so that the luminance component and the color difference component become parallel according to the format information.
[0039]
In the present invention, an appropriate one is selected from the means for generating three types of color difference component motion vectors parallel to the luminance component motion vector according to the reference source and reference destination fields and format information, and the motion of the color difference component is selected. Generate a vector.
[0040]
In addition, claim 2 of the encoding method corresponds to claim 4 of the decoding method, and similarly claim 3 corresponds to claim 5, and the decoding side basically has the same function as the encoding side. Acts similarly.
[0041]
BEST MODE FOR CARRYING OUT THE INVENTION
In the present embodiment, an encoding apparatus will be mainly described using an example to which claims 1 and 2 are applied. Since the present invention relates to a vertical component of a motion vector, all horizontal components of the motion vector are set to 0 for convenience. Further, an embodiment to which the third and fourth aspects of the decoding apparatus are applied has the same configuration as that of the present embodiment.
[0042]
Hereinafter, embodiments will be described on the assumption that the present invention is applied to an AVC FCD.
[0043]
FIG. 14 is a diagram illustrating a method of calculating a color difference motion vector from a luminance motion vector according to the present invention. In this embodiment, in the embodiment of the means for generating a motion vector of a chrominance component from the motion vector of a luminance component in the field prediction, it is composed of three types of motion vector generation means for a chrominance component and one selecting means.
[0044]
The operation of the present invention in FIG. 14 will be described below. First, the motion vector 231 of the given luminance component is set to (MV # x, MV # y). Then, the luminance component vector 231 and the format information 239 are input to the first chrominance component motion vector generation unit 233, the second chrominance component motion vector generation unit 234, and the third chrominance component motion vector generation unit 235. give. Then, each output is input to the selection means 230. Then, the selection unit 230 determines the first, second, and third color difference component motion vector generation units based on the information of the parity 237 of the input source field of the motion vector and the parity 238 of the reference destination of the motion vector. One of the outputs is selected and output as a vector component (MVC # x, MVC # y) of the motion vector 232 of the color difference component.
[0045]
The operation of the first chrominance component vector generation means 233, the second chrominance component vector generation means 234, and the third chrominance component vector generation means 235 of FIG. 14 will be described below with reference to FIGS.
[0046]
FIG. 15 is a diagram illustrating a first color difference motion vector generation unit. In this embodiment, a luminance motion vector 261 having a vector value of (MV # x, MV # y) and format information 263 are input to the first chrominance component motion vector generating means 260, and (MVXC1 # x, MVXC1 # y) to output the first color difference motion vector candidate 262 having the vector value. Then, the first chrominance motion vector candidate 262 is calculated by the chrominance component motion vector generation means 260 from the luminance motion vector 261 as follows:
(MVXC1 # x, MVXC1 # y) = (MV # x / 2, MV # y / 2) (Equation 3)
Is calculated according to
[0047]
Then, the obtained first color difference motion vector candidate 262 is output to the selection means.
[0048]
FIG. 16 is a diagram for explaining the second chrominance motion vector generation means 270. In the present embodiment, a luminance motion vector 271 having a vector value of (MV # x, MV # y) and format information 273 are input to the second chrominance component motion vector generating means 270, and (MVXC2 # x, MVXC2 # y), indicating that a second color difference motion vector candidate 272 having a vector value is output. Then, the second color difference motion vector candidate 272 is obtained from the luminance motion vector 271 by the color difference component motion vector generation unit 270 using the following equation:
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + a) (Equation 4)
Is calculated according to Here, the value a is determined so that the luminance motion vector 271 and the first color difference motion vector candidate 272 are parallel from the format information F 273 representing the relationship between the luminance and the color difference pixel sampling position in the Top field and the Bottom field. Is done. One format is selected from a plurality of formats by the format information F273.
[0049]
Here, for example, as shown in FIG. 22, the format F = 0 corresponds to a case where chrominance pixels are arranged near odd-numbered luminance pixels in the Top field and chrominance pixels are arranged near even-numbered luminance pixels in the Bottom field. As shown in FIG. 23, the format F = 1 is the case where the chrominance pixels are arranged near the odd-numbered luminance pixels in both the Top field and the Bottom field.
[0050]
When the format is F = 0 as shown in FIG. 22, a = 1/4. When the format is F = 1 shown in FIG. 23, a = 0. The format information F 273 is not limited to information indicating the type of format, but may be information indicating the phase of the color difference component.
[0051]
The obtained second color difference motion vector candidate 272 is output to the selection unit.
[0052]
FIG. 17 is a diagram illustrating a third color difference motion vector generation unit. In this embodiment, a luminance motion vector 281 having a vector value of (MV # x, MV # y) and format information F283 are input to the third chrominance component motion vector generation unit 280, and (MVXC3 # x, MVXC3 # y) indicating that a third color difference motion vector candidate 282 having a vector value is output. The third color-difference motion vector candidate 282 is obtained from the luminance motion vector 281 by the color-difference component motion vector generation unit 280 using the following equation:
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2 + b) (Equation 5)
Is calculated according to Here, the value b is determined from the format information 283 so that the luminance motion vector 281 and the first color difference motion vector candidate 282 are parallel. One format is selected from a plurality of formats by the format information F.
[0053]
Here, when the format is F = 0 shown in FIG. 22 as in the above, b = −1 /. When the format is F = 1 shown in FIG. 23, b = 0. Further, the format information F is not limited to information indicating the type of format, and may be information indicating the phase of the color difference component.
[0054]
Then, the obtained third color difference motion vector candidate 282 is output to the selection means.
[0055]
The format information described above indicates the positional relationship between the luminance pixels and the chrominance pixels of the Top field and the Bottom field. Even if a format other than the format described above is applied, each of the second and third chrominance components The motion vector generating means can cope with this by determining the values of a and b added to the color difference vector so that the motion vector of the color difference component is parallel to the motion vector of the luminance component.
[0056]
FIG. 18 is a view for explaining an embodiment of the selection means 240 in the present invention. First, in the present embodiment, the parity 247 of the reference field of the motion vector and the parity 248 of the reference field of the motion vector are each determined by the condition determination table 241 and the selection information 249 of the chrominance component motion vector generation means to be selected. Is output. In this embodiment, when the condition determination table 241 is used, when both the reference destination field and the reference source field are equal, selection information for selecting the first chrominance component motion vector candidate 244 is output. When the reference field is the Top field and the reference field is the Bottom field, selection information for selecting the second color difference component motion vector candidate 245 is output. When the reference field is a Bottom field and the reference source field is a Top field, selection information for selecting the third chrominance component motion vector candidate 246 is output.
[0057]
Here, the first chrominance component motion vector candidate 244 is at 262 in FIG. 15, the second chrominance component motion vector candidate 245 is at 272 in FIG. 16, and the third chrominance component motion vector candidate 246 is at 282 in FIG. , Are connected respectively. Then, the selector 243 selects one of the first chrominance component motion vector candidate 244, the second chrominance component motion vector candidate 245, and the third chrominance component motion vector candidate 246 according to the above-described selection information 249, (MVC # x, MVC # y) is output as the motion vector 242 of the color difference component.
[0058]
FIG. 19 shows an example of calculating a color difference component vector from a luminance component vector when the reference destination is the Bottom field and the reference source is the Top field according to the present invention. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the pixel 160 of the reference source Top field luminance component is (0, 1). In this case, the pixel position 161 of the reference bottom field field luminance component is selected for prediction of the luminance pixel 160. A process of obtaining a chrominance component motion vector for use in prediction of the pixel 162 of the reference source Top field chrominance component according to the configuration of FIG. 14 of the present embodiment will be described below.
[0059]
First, in the case of FIG. 19, the reference destination field is the Bottom field, and the reference source field is the Top field. Therefore, the third chrominance component motion vector candidate is selected as the selection information 249 from the condition determination table 241 in FIG. Here, according to Equation 5, for example, when the format information F = 0 is used, b = −1 / is determined so that the luminance motion vector and the third color difference component motion vector candidate become parallel. . Therefore, the third color difference component motion vector candidate is
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2-1 /) = (0/2, −−4) = (0, 4) ( Equation 6)
It becomes. Then, this value is output as the motion vector 232 of the color difference component in FIG. When this vector (0, 1/4) is applied to the pixel 162 of the reference source Top field chrominance component, the pixel position 163 of the reference destination Bottom field chrominance component is used as a prediction value. In FIG. 19, the positional relationship between the pixels in the vertical direction corresponds to the actual case. As can be seen from the figure, it can be seen that the luminance component motion vector (0, 1) and the color difference component motion vector (0, 4) are parallel. Accordingly, the color shift between the luminance component and the color difference component, which has been a problem in the related art, is eliminated by the present invention.
FIG. 24 shows an example of a format different from that of FIG. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the pixel 300 of the reference source Top field luminance component is (0, 1). In this case, the pixel position 301 of the reference destination Bottom field luminance component is selected for prediction of the luminance pixel 300. A process of obtaining a chrominance component motion vector for use in prediction of the pixel 302 of the reference source Top field chrominance component according to the configuration of FIG. 14 of the present embodiment will be described below.
[0060]
First, in the case of FIG. 24, the reference destination field is a Bottom field, and the reference source field is a Top field. Therefore, the third chrominance component motion vector candidate is selected as the selection information 249 from the condition determination table 241 in FIG. Here, according to Equation 5, for example, when format information F = 1 is used, b = 0 is determined so that the luminance motion vector and the third color difference component motion vector candidate become parallel. Therefore, the third color difference component motion vector candidate is
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2-0) = (0/2, 1 / 2-0) = (0, 1/2) (Equation 7)
It becomes. Then, this value is output as the motion vector 232 of the color difference component in FIG. When this vector (0, 1/2) is applied to the pixel 302 of the reference source Top field chrominance component, the pixel position 303 of the reference destination Bottom field chrominance component is used as a prediction value. As can be seen from the figure, it can be seen that the luminance component motion vector (0,1) and the color difference component motion vector (0,1 / 2) are parallel. Accordingly, the color shift between the luminance component and the color difference component, which has been a problem in the related art, is eliminated by the present invention.
Similarly, FIG. 20 shows an example of calculating a color difference component vector from a luminance component vector when a reference destination is a Topo field and a reference source is a Bottom field according to the present invention. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the pixel 170 of the reference source Bottom field luminance component is (0, 1). In this case, the pixel position 171 of the reference destination Top field luminance component is selected for the prediction of the pixel 170 of the reference source Bottom field luminance component. A process of obtaining a chrominance component motion vector to be used for prediction of the pixel 172 of the reference source Bottom field chrominance component according to the configuration of FIG. 14 of the present embodiment will be described below.
[0061]
First, in the case of FIG. 20, the reference destination field is the Top field, and the reference source field is the Bottom field. From this, the second color difference component motion vector candidate is selected as the selection information 249 by the condition determination table 241 in FIG. Here, according to Equation 4, for example, when the format information F = 0 is used, a = 1/4 is determined so that the luminance motion vector and the second color difference component motion vector candidate become parallel.
[0062]
Therefore, the second color difference component motion vector candidate is
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + /) = (0/2, +) = (0, 3/4) (Equation 8) )
It becomes. Then, this value is output as the motion vector 232 of the color difference component in FIG. When this vector (0, 3/4) is applied to the pixel 172 of the reference source Bottom field chrominance component, the pixel position 173 of the reference destination Top field chrominance component is used as a prediction value as a position used for prediction. In FIG. 20, the vertical positional relationship of each pixel corresponds to the actual case. As can be seen from the figure, it can be seen that the luminance component motion vector (0, 1) and the chrominance component motion vector (0, 3/4) are parallel.
[0063]
FIG. 25 shows an example of a format different from that of FIG. In the example of this figure, the luminance motion vector (MV # x, MV # y) for predicting the pixel 300 of the reference source Bottom field luminance component is (0, 1). In this case, the pixel position 311 of the reference destination Top field luminance component is selected for prediction of the pixel 310 of the reference source Bottom field luminance component. The process of obtaining a chrominance component motion vector for such a vector for use in predicting the pixel 312 of the reference source Bottom field chrominance component will be described below. The selection information 249 selects the second color difference component motion vector candidate from the condition determination table 241 in FIG. Here, according to Equation 4, for example, when format information F = 1 is used, a = 0 is determined so that the luminance motion vector and the second color difference component motion vector candidate become parallel.
[0064]
Therefore, the second color difference component motion vector candidate is
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + 0) = (0/2, 1/2 + 0) = (0, 1/2) (Equation 9)
It becomes. Then, this value is output as the motion vector 232 of the color difference component in FIG. When this vector (0, 1/2) is applied to the pixel 312 of the reference source Bottom field color difference component, the pixel position 313 of the reference destination Top field color difference component is used as a prediction value as a position used for prediction. As can be seen from the figure, it can be seen that the luminance component motion vector (0,1) and the color difference component motion vector (0,1 / 2) are parallel.
Accordingly, the color shift between the luminance component and the color difference component, which has been a problem in the related art, is eliminated by the present invention.
[0065]
Here, in the examples of FIG. 19, FIG. 20, FIG. 24, and FIG. 25, the case of a specific vector has been described. Prediction without deviation of color difference becomes possible.
[0066]
When the parities of both the reference destination field and the reference source field are equal, the above-described color shift does not occur. Therefore, the same configuration as that of the conventional luminance component motion vector to color difference component motion vector generation unit 220 in FIG. The result of the first chrominance component motion vector means 233 of the present invention is selected and used as the chrominance component motion vector 232. In this case, the chrominance component motion vector obtained by the present invention is equivalent to the result of the prior art, and thus the description in the present embodiment is omitted.
[0067]
Although the present embodiment has been described using the AVC FCD as an example, the description here is one embodiment, and does not limit the other embodiments.
[0068]
【The invention's effect】
According to the present invention, even in a format in which the positional relationship between the luminance pixel and the chrominance pixel is different between the fields having different parities and in the Top field and the Bottom field, the format information is used in parallel with the motion vector of the luminance component. The motion vector of the color difference component can be obtained, the prediction efficiency of the color difference component is improved, and the coding efficiency in moving image coding can be improved.
[0069]
[Brief description of the drawings]
FIG. 1 is a block diagram of an apparatus for enabling inter-frame prediction coding.
FIG. 2 is a view for explaining positions of respective pixels of luminance and chrominance and fields to which the pixels belong;
FIG. 3 is a view for explaining a vertical character space position of each pixel of luminance and chrominance in a field image.
FIG. 4 is a view for explaining the relationship between fields and frames in a frame encoding mode.
FIG. 5 is a diagram for explaining a prediction method in an inter-frame prediction coding mode.
FIG. 6 is a view for explaining a prediction method in an inter-field prediction mode.
FIG. 7 is a diagram illustrating coordinates of a field image.
FIG. 8 is a diagram illustrating a method of calculating a motion vector between corresponding pixels between fields in a conventional method.
FIG. 9 is a diagram illustrating a method of calculating a pixel indicated by a motion vector according to a conventional method.
FIG. 10 is a view for explaining a conventional method for obtaining a color difference motion vector from a luminance motion vector.
FIG. 11 is a diagram illustrating a zero vector between fields having different parities in the related art. FIG. 11 is a diagram illustrating the principle of Direct Mode.
FIG. 12 is a diagram illustrating a problem of the related art when a color difference motion vector is obtained from a luminance motion vector when a reference destination is a Bottom field and a reference source is a Top field.
FIG. 13 is a diagram illustrating a problem of the related art when a color difference motion vector is obtained from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field.
FIG. 14 is a diagram illustrating a method for generating a chrominance motion vector from a luminance motion vector according to the present invention.
FIG. 15 is a diagram for explaining an embodiment of a first chrominance component motion vector generation unit according to the present invention.
FIG. 16 is a diagram for explaining an embodiment of a second chrominance component motion vector generation unit according to the present invention.
FIG. 17 is a diagram for explaining an embodiment of a third color difference component motion vector generation unit according to the present invention.
FIG. 18 is a view for explaining an embodiment of the selection means in the present invention.
FIG. 19 is a diagram illustrating an example of derivation of a chrominance motion vector from a luminance motion vector when a reference destination is a Bottom field and a reference source is a Top field when a format F = 0 according to the embodiment.
FIG. 20 is a view for explaining an example of deriving a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 0 according to the embodiment.
FIG. 21 is a diagram illustrating a method of calculating an interpolation pixel of a color difference component.
FIG. 22 is a view for explaining a format F = 0 in the embodiment.
FIG. 23 is a view for explaining a format F = 1 in the embodiment.
FIG. 24 is a diagram illustrating an example of derivation of a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 1 according to the embodiment.
FIG. 25 is a diagram illustrating an example of deriving a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 1 according to the embodiment.
[Explanation of symbols]
31 orthogonal transformation means
32 Quantization means
33 inverse quantization means
34 inverse orthogonal transformation means
35 Decoded image generation means
36 Decoded image storage means
37 Motion vector calculation means
38 Prediction image generation means
39 Prediction error signal generation means
40 Coefficient entropy coding means
41 Motion Vector Entropy Coding Means
42 Multiplexing means
50a-50d Top Field Luminance 1, 3, 5, 7th line
51a-51d Bottom Field Luminance 2, 4, 6, 8th line
52a-52b Top Field color difference first and third lines
53a-53b Bottom Field Color Difference 2nd and 4th Line
64a-64c Top Field
65a-65c Bottom Field
81 Frame # 1 luminance component
82 Frame # 2 luminance component
84a-84c Frame # 1 to # 3
90 Same parity inter-field prediction
91 Prediction between different parity fields
94a-94b Top Field
95a-95b Bottom Field
100a-100b Top Field
101a-101b Bottom Field
110a-110b Top Field
111a-111b Bottom Field
130 Top Field
131 Bottom Field
132 Top Field
133a-133b Luminance component to be encoded
134a-134b Color difference components to be encoded
135a-135b Luminance component of reference field
136a-136b Color difference component preferable as prediction
137a-137b Color difference component of reference field
140 Source Top field Pixel of luminance component
141 Pixel position of reference destination Bottom field luminance component used as predicted value
142 reference source Top field pixel of color difference component
143 Reference destination Bottom field used as predicted value Field position of color difference component
145 Predicted pixel position of preferred color difference component
150 pixels of reference source Bottom field luminance component
151 Pixel position of reference destination field luminance component used as prediction value
152 Pixel of reference source Bottom field color difference component
153 pixel position of reference destination field color difference component used as prediction value
155 Predicted pixel position of preferred color difference component
160 Pixel of reference source Top field luminance component
161 Reference destination Bottom field used as predicted value Pixel position of field luminance component
162 pixel of reference source Top field color difference component
163 Reference Bottom Field Used as Prediction Field Pixel Position of Color Difference Component
170 Pixel of reference source Bottom field luminance component
171 Pixel Position of Top Destination Field Luminance Component Used as Prediction Value
172 Pixel of reference source Bottom field color difference component
173: Pixel position of reference destination field color difference component used as predicted value
180 Position where coordinates are to be obtained
Definition position of 181 pixels
200 Motion vector calculation means
201 Reference field coordinates
202 Reference field coordinates
203 motion vector
210 pixel association means
211 motion vector
212 Source field coordinates
213 Reference field coordinates
220 Color difference component motion vector generation means
221 luminance component motion vector
222 color difference component motion vector
230 Selection means
231 Motion vector of luminance component
232 Color difference component motion vector
233 First color difference component motion vector generation means
234 Second color difference component motion vector generating means
235 Third color difference component motion vector generating means
237 Parity of reference field of motion vector
238 Parity of reference field of motion vector
239 Format information
240 selection means
241 Condition judgment table
242 Motion vector of color difference component
243 selector
244 Candidate for first chrominance component motion vector
245 Second color difference component motion vector candidate
246 Third color difference component motion vector candidate
247 Parity of reference field of motion vector
248 Parity of reference field of motion vector
249 Selection information
250 to 255 integer pixels
256 interpolation pixels
260 first color difference component motion vector generating means
261 luminance component motion vector
262 First color difference component motion vector candidate
263 Color difference phase information
270 Second color difference component motion vector generation means
271 luminance component motion vector
272 Second color difference component motion vector candidate
273 format information
280 Third color difference component motion vector generating means
281 luminance component motion vector
282 Third color difference component motion vector candidate
283 format information
300 pixels of reference source Top field luminance component
301 Pixel position of reference destination Bottom field luminance component used as predicted value
302 Reference source Top field Pixel of color difference component
303 Reference destination Bottom field used as prediction value Pixel position of field color difference component
310 pixel of reference source Bottom field luminance component
311 Pixel position of reference destination Top field luminance component used as prediction value
312 Pixel of reference source Bottom field color difference component
313 Pixel position of reference destination field color difference component used as prediction value

Claims (5)

複数のフィールドで構成される動画像信号に対しフィールド間の動き補償予測を行う動画像符号化方式において、
輝度成分の動きベクトルと、Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と、動きベクトルの参照先フィールドと参照元フィールドのパリティから輝度成分の動きベクトルに並行な色差成分の動きベクトルを生成することを特徴とする動画符号化方法。
In a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields,
The motion vector of the luminance component, the format information indicating the sampling position relationship between the luminance and chrominance pixels in the Top field and the Bottom field, and the color difference parallel to the motion vector of the luminance component from the parity of the reference field and the reference source field of the motion vector A moving picture coding method characterized by generating a motion vector of a component.
複数のフィールドで構成される動画像信号に対しフィールド間の動き補償予測を行う動画像符号化方法において、
フィールド間の輝度成分の動きベクトルを生成する輝度成分動きベクトル生成手段と、
Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と輝度成分の動きベクトルから色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段と、
動きベクトルの参照先フィールドと参照元フィールドのパリティを入力として、色差ベクトルの生成に用いる色差成分動きベクトル生成手段の一つを選択する選択手段を有し、
選択手段で選択された色差成分動きベクトル生成手段によって、色差成分の予測ベクトルを生成することを特徴とする動画符号化方法。
In a video encoding method for performing motion compensation prediction between fields for a video signal composed of a plurality of fields,
A luminance component motion vector generating means for generating a motion vector of a luminance component between fields,
A plurality of chrominance component motion vector generation means for generating a chrominance component motion vector from format information indicating a sampling position relationship between luminance and chrominance pixels in the Top field and the Bottom field and a luminance component motion vector;
Having a selection means for selecting one of the chrominance component motion vector generating means used for generating the chrominance vector, with the parity of the reference field and the reference source field of the motion vector being input,
A moving image encoding method, wherein a prediction vector of a color difference component is generated by a color difference component motion vector generation unit selected by the selection unit.
請求項2において、輝度成分の動きベクトルから色差成分の動きベクトルを生成する色差成分動きベクトル生成手段として、
参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択される第一の色差成分動きベクトル生成手段と、
参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択される第ニの色差成分動きベクトル生成手段と、
参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択される第三の色差成分動きベクトル生成手段とを有することを特徴とする動画像符号化方法。
The color difference component motion vector generation unit according to claim 2, wherein the color difference component motion vector generation unit generates a color difference component motion vector from the luminance component motion vector.
When the reference destination field and the reference source field have the same parity, first color difference component motion vector generation means selected by the selection means,
A second color difference component motion vector generation unit selected by the selection unit when the reference destination field is a Top field and the reference source field is a Bottom field;
A moving image encoding method, comprising: a third chrominance component motion vector generation unit selected by a selection unit when a reference destination field is a Bottom field and a reference source field is a Top field.
複数のフィールドで構成される動画像信号に対しフィールド間の動き補償予測を行う動画像復号方法において、
輝度成分の動きベクトルと
Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報から色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段と、
動きベクトルの参照先フィールドと参照元フィールドのパリティを入力として、色差ベクトルの生成に用いる色差成分動きベクトル生成手段の一つを選択する選択手段を有し、
選択手段で選択された色差成分動きベクトル生成手段によって、輝度情報の動きベクトル情報から色差成分の予測ベクトルを生成することを特徴とする動画像復号方法。
In a video decoding method for performing motion compensation prediction between fields for a video signal composed of a plurality of fields,
A plurality of chrominance component motion vector generating means for generating a chrominance component motion vector from a luminance component motion vector and format information indicating a sampling position relationship between luminance and chrominance pixels in a Top field and a Bottom field;
Having a selection means for selecting one of the chrominance component motion vector generating means used for generating the chrominance vector, with the parity of the reference field and the reference source field of the motion vector being input,
A moving image decoding method, characterized in that a prediction vector of a chrominance component is generated from motion vector information of luminance information by a chrominance component motion vector generation unit selected by the selection unit.
請求項4において、輝度成分の動きベクトルから色差成分の動きベクトルを生成する色差成分動きベクトル生成手段として、
参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択される第一の色差成分動きベクトル生成手段と、
参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択される第ニの色差成分動きベクトル生成手段と、
参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択される第三の色差成分動きベクトル生成手段とを有することを特徴とする動画像復号方法。
The color difference component motion vector generation unit according to claim 4, wherein the color difference component motion vector generation unit generates a color difference component motion vector from the luminance component motion vector.
When the reference destination field and the reference source field have the same parity, first color difference component motion vector generation means selected by the selection means,
A second color difference component motion vector generation unit selected by the selection unit when the reference destination field is a Top field and the reference source field is a Bottom field;
When the reference field is a Bottom field and the reference source field is a Top field, the method further comprises a third color difference component motion vector generation unit selected by the selection unit.
JP2002349177A 2002-11-29 2002-11-29 Video encoding method and video decoding method Expired - Fee Related JP4144339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002349177A JP4144339B2 (en) 2002-11-29 2002-11-29 Video encoding method and video decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002349177A JP4144339B2 (en) 2002-11-29 2002-11-29 Video encoding method and video decoding method

Publications (2)

Publication Number Publication Date
JP2004186839A true JP2004186839A (en) 2004-07-02
JP4144339B2 JP4144339B2 (en) 2008-09-03

Family

ID=32751806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002349177A Expired - Fee Related JP4144339B2 (en) 2002-11-29 2002-11-29 Video encoding method and video decoding method

Country Status (1)

Country Link
JP (1) JP4144339B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021907A (en) * 2007-07-13 2009-01-29 Fujitsu Ltd Moving image encoding apparatus and method
JP2013520876A (en) * 2010-02-18 2013-06-06 クゥアルコム・インコーポレイテッド Chrominance high-precision motion filtering for motion interpolation
JP2013543713A (en) * 2010-10-13 2013-12-05 クゥアルコム・インコーポレイテッド Adaptive motion vector resolution signaling for video coding
US9237355B2 (en) 2010-02-19 2016-01-12 Qualcomm Incorporated Adaptive motion resolution for video coding
WO2017126899A3 (en) * 2016-01-19 2018-07-19 Samsung Electronics Co., Ltd. Methods and systems for reconstructing a high frame rate high resolution video

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021907A (en) * 2007-07-13 2009-01-29 Fujitsu Ltd Moving image encoding apparatus and method
JP4678015B2 (en) * 2007-07-13 2011-04-27 富士通株式会社 Moving picture coding apparatus and moving picture coding method
JP2013520876A (en) * 2010-02-18 2013-06-06 クゥアルコム・インコーポレイテッド Chrominance high-precision motion filtering for motion interpolation
US9237355B2 (en) 2010-02-19 2016-01-12 Qualcomm Incorporated Adaptive motion resolution for video coding
JP2013543713A (en) * 2010-10-13 2013-12-05 クゥアルコム・インコーポレイテッド Adaptive motion vector resolution signaling for video coding
US10327008B2 (en) 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
WO2017126899A3 (en) * 2016-01-19 2018-07-19 Samsung Electronics Co., Ltd. Methods and systems for reconstructing a high frame rate high resolution video
US11146762B2 (en) 2016-01-19 2021-10-12 Samsung Electronics Co., Ltd. Methods and systems for reconstructing a high frame rate high resolution video

Also Published As

Publication number Publication date
JP4144339B2 (en) 2008-09-03

Similar Documents

Publication Publication Date Title
KR100788569B1 (en) Motion picture decoding device and method thereof
JP4158442B2 (en) Video encoding method and video decoding method
JP4144339B2 (en) Video encoding method and video decoding method
JP3946722B2 (en) Video encoding device
JP3946759B1 (en) Moving picture decoding method and moving picture decoding apparatus
JP3946758B1 (en) Moving picture decoding method and moving picture decoding apparatus
JP3946760B1 (en) Moving picture coding method and moving picture coding apparatus
JP3946761B1 (en) Moving picture coding method and moving picture coding apparatus
JP3946721B2 (en) Video decoding device
JP3946723B2 (en) Video encoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080609

R150 Certificate of patent or registration of utility model

Ref document number: 4144339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees