JP2004186839A - Moving picture encoding method and moving picture decoding method - Google Patents
Moving picture encoding method and moving picture decoding method Download PDFInfo
- Publication number
- JP2004186839A JP2004186839A JP2002349177A JP2002349177A JP2004186839A JP 2004186839 A JP2004186839 A JP 2004186839A JP 2002349177 A JP2002349177 A JP 2002349177A JP 2002349177 A JP2002349177 A JP 2002349177A JP 2004186839 A JP2004186839 A JP 2004186839A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- field
- color difference
- luminance
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Color Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、フィールド間予測モードを有する動画像符号化装置及び動画像装復号化装置に係わる。
【0002】
【従来の技術】
動画像データは、一般に、データ量が大きいので、送信装置から受信装置へ伝送される際、あるいは記憶装置に格納される際などには、高能率符号化が行われる。ここで、「高能率符号化」とは、あるデータ列を他のデータ列に変換する符号化処理であって、そのデータ量を圧縮する処理をいう。
【0003】
動画像データは、主にフレームのみから構成されるものと、フィールドから構成されるものがある。以下、主に、フィールド画像を圧縮する方式の従来技術について説明する。
【0004】
動画像データの高能率符号化方法としては、フレーム/フィールド間予測符号化方法が知られている。図1は、このフレーム/フィールド間予測符号化のブロック図を示す。この符号化方法では、動画像データが時間方向に相関性が高いことを利用する。図1の動作を簡単に説明すると、入力された原画像と予測画像との差分画像を減算機39にて生成し、その差分画像を直交変換手段31,量子化手段32及び係数エントロピー符号化手段40にて符号化する。また、量子化手段32の出力を逆量子化手段33及び逆直交変換手段34により差分画像を復元し、復号画像生成手段35にて復元した差分画像と符号化時に用いた予測画像とから符号化画像を復元する。その復元された画像は、復号画像記憶手段36に記憶され、動きベクトル計算手段37にて、次の入力画像との間の動きベクトルを計算し、その動きベクトルにより予測画像生成手段38にて予測画像を生成する。生成された動きベクトルはベクトルエントロピー符号化手段41にて符号化され、係数エントロピー符号化手段40で符号化された係数符号化データとともにMUX42を介して出力される。すなわち、動画像データは、一般に、あるタイミングのフレーム/フィールドデータと次のタイミングのフレーム/フィールドデータとの類似度が高いことが多いので、フレーム/フィールド間予測符号化方法では、その性質を使用する。例えば、フレーム/フィールド間予測符号化方法を用いたデータ伝送システムでは、送信装置において、前フレーム/フィールドの画像から対象フレーム/フィールドの画像への「動き」を表す動きベクトルデータ、及びその前フレーム/フィールドの画像からその動きベクトルデータを用いて作成した対象フレーム/フィールドの予測画像と対象フレーム/フィールドの実際の画像との差分データを生成し、それら動きベクトルデータおよび差分データを受信装置に送出する。一方、受信装置は、受信した動きベクトルデータおよび差分データから対象フレーム/フィールドの画像を再生する。
【0005】
図1のこのフレーム/フィールド間予測符号化は、フレーム/フィールド間予測符号化の概略を説明したが、以下に、更にフレーム予測符号化、及びフィールド予測符号化について説明する。
【0006】
図2、及び図3は、前述のISO/IEC MPEG−2/MPEG−4(以下MPEG−2、MPEG−4)、及び2002年8月現在において、ITU−TとISO/IECで共同で標準化中のITU−T H.264/ISO/IEC MPEG−4 Part 10(Advanced Video Coding:AVC)のFinal Committee Draft(以下AVC FCDと省略)共通に用いられている、フィールド画像を符号化する際のフォーマットの説明である。すなわち、各フレームは2枚のフィールド、すなわちTop フィールドとBottomフィールドから構成される。図2は、輝度、色差の各画素の位置と、それらが属するフィールドを説明する図である。この図2で示したとおり、輝度第1ライン(50a),輝度第3ライン(50b),輝度第5ライン(50c),輝度第7ライン(50d)・・・という、奇数番目のラインはTopフィールドに属し、輝度第2ライン(51a),輝度第4ライン(51b),輝度第6ライン(51c),輝度第8ライン(51d)・・・という偶数番目のラインはBottomフィールドに属する。色差成分も同様に、色差第1ライン(52a),色差第3ライン(52b)・・・といった奇数番目のラインはTopフィールドに属し、色差第2ライン(53a),色差第4ライン(53b)・・・といった偶数番目のラインはBottomフィールドに属する。
【0007】
このTopフィールドとBottomフィールドは、異なる時刻の画像をあらわす。次に、TopフィールドとBottomフィールドの時空間的な配置について、図3を用いて説明する。
【0008】
なお、この図3以降、本発明に関わる技術は、動きベクトルの垂直成分に関わるものであるので、本明細書においては、水平成分の画素は図示せず、かつ、動きベクトルの水平成分は、全て、便宜上、0として説明する。また、従来の問題点、及び本発明の効果を示すため、各フィールドの輝度、色差の画素の位置の位置関係は、正しく図示している。
【0009】
この図3において縦軸は、各フィールドの垂直成分の画素位置を表し、横軸は時間の経過を表す。なお、各画像の画素の水平成分においては、フィールドによる位置の変位はないため、この図では水平方向の画素の図示及び説明は省略している。
【0010】
この図3で示したとおり、色差成分のピクセル位置は、輝度のフィールド内の画素位置に対して、垂直成分が1/4画素ずれている。なお、これは、Top及びBottomの両フィールドからフレームを構成した場合、図2のような画素位置の関係を満たすためである。各Top及びBottomの隣接する両フィールド間(64a:65a、65a:64b・・)については、NTSCフォーマットをベースにした場合では、約1/60秒である。そして、TopフィールドからTopフィールド(64a:64b・・)又はBottomフィールドからBottomフィールド(65a:65b・・)の時間は約1/30秒の間隔である。
【0011】
以下、MPEG−2やAVC FCDで採用されている、フィールド画像のフレーム予測符号化モードとフィールド予測について、説明する。図4は、フレーム予測モード時に、2枚の連続するフィールド(隣接するTop及びBottomのフィールド)からフレームを構成する方法を説明したものである。この図の様に、フレームは、時間的に連続する2枚のフィールド(Top及びBottomのフィールド)から再構成されたものである。
【0012】
図5はフレーム予測モードを説明したものである。この図では、各フレーム84a、84b、84c・・は、図4で説明したとおり、2枚の連続するフィールド(Top及びBottomのフィールド)から、既に再構成されたものとする。このフレーム予測モードでは、Top及びBottomの両フィールドから構成された符号化対象フレームを対象に符号化が行なわれる。そして、参照画像としても、連続する参照用に蓄積された2枚のフィールド(Top及びBottomのフィールド)から一枚の参照フレームを構成し、前符号化対象フレームの予測に用いる。そして、この2枚のフレーム画像を、図1に図示したブロック図に従って符号化する。このフレーム予測符号化モードの場合、動きベクトルの表現方法については、ゼロベクトル、即ち (0,0)は、空間的に同位置の画素を指し示す。具体的にはFrame #2(84b)に属する輝度の画素82に対して、動きベクトル(0,0)を指し示す動きベクトルは、Frame#1(84a)の画素位置81を指し示すものである。
【0013】
次にフィールド予測符号化モードについて説明する。図6はフィールド間予測モード時の予測方法を説明する図である。フィールド予測モードでは、符号化対象は、原画として入力された一枚のTop フィールド(94a、94b・・)乃至はBottomフィールド(95a、95b・・)である。そして、参照画像としては、過去に蓄積されたTopフィールドあるいはBottomフィールドが使用可能である。ここで、原画フィールドと参照フィールドがパリティが同じ、とは、原画像のフィールドと参照フィールドが、両方ともTopフィールド、あるいは両方ともBottomフィールドであること、と一般に定義される。例えば、図中90の同パリティのフィールド予測は、原画(94b)、参照(94a)の両フィールドともTopフィールドである。同様に、原画フィールドと参照フィールドがパリティが異なる、とは、原画像のフィールドと参照フィールドの、一方がTopフィールド、もう片方がBottomフィールドであること、と一般に定義される。例えば、図中91に図示した異パリティのフィールド予測は、原画はBottom フィールド(95a)、参照はTopフィールド(94a)である。そして、この原画フィールド画像と参照フィールド画像を図1に図示したブロック図に従って符号化する。
【0014】
なお、従来の技術では、フレームモード、及びフィールドモード、とも、各フレーム/フィールド内の画素の位置を元に、動きベクトルが求められている。従来方式における、動きベクトル算出方法、および、動きベクトルが与えられたときの、画素の対応付け方法について説明する。
【0015】
図7は、MPEG−2, MPEG−1,AVC FCDなどの符号化で広く用いられている、フレーム/フィールド画像の座標を定義した図である。図中、白丸は、対象とするフレーム/フィールドで、画素の定義位置(271)である。ここで、このフレーム/フィールド画像内の座標については、画面内の左上を原点(0,0)とし、水平、垂直方向に、画素の定義位置が、順番に1,2,3・・・という値が割り振られる。すなわち、水平方向n番目、垂直方向m番目の画素の座標は(n,m)となる。これに準じて、画素と画素の間を補間した位置の座標も同様に定義される。すなわち、図中の●の位置270に関しては、左上の画素から水平方向に1,5画素、垂直方向に2画素分のところにあるので、位置270の座標は(1.5, 2.0)と表される。なお、フィールド画像に置いては、垂直方向はフレーム画像の半分の画素しかないが、この場合でも、各フィールドに存在する画素の位置を基準に、図7と同様に取り扱う。
【0016】
この図7の座標系を用いて、フィールド間の動きベクトルの定義を説明する。図8は、従来のフィールド間の対応する画素間の動きベクトルの算出方法を説明する図である。動きベクトルを定義するには、参照元の位置と参照先の位置が必要である。そして、この2点の間で動きベクトルが定義されることとなる。ここで、参照元のフィールド内の座標201が(Xs,Ys)の点 と参照先のフィールド内の座標202が(Xd,Yd)の点の間の動きベクトルを求める。従来のフィールド間に対応する画素間の動きベクトルの算出方法においては、参照元、および参照先が、Topフィールド、あるいはBottomフィールドに関わらず、以下に説明する、同一の方法で動きベクトルが求められていた。すなわち、参照元フィールド座標201(Xs,Ys)と、参照先フィールド座標202(Xd,Yd)が動きベクトル算出手段200に入力され、この二点間の動きベクトル203として、(Xd−Xs, Yd−Ys)が与えられるというものである。
【0017】
また、図9は、従来技術において、フィールド間で定義された動きベクトルが指し示す画素の算出方法を説明する図である。ここで、動きベクトルは、前述の図8の方法で導出したものとする。参照先の座標を求めるために、参照元の位置と動きベクトルが必要である。この図の場合には、参照元のフィールド内の座標212が(Xs,Ys)の点に対し、動きベクトル211の(X,Y)が与えられ、この両者を用いて求められる参照先フィールド内の座標を求めることを想定している。従来のフィールド間に対応する画素間の動きベクトルの算出方法においては、参照元、および参照先が、Topフィールド、あるいはBottomフィールドに関わらず、以下に説明する、同一の方法で参照先フィールドの位置が求められていた。すなわち、動きベクトル211(X、Y)と参照元フィールド座標212(Xs,Ys)が画素対応付け手段210に入力され、参照先フィールド座標213として、 座標(Xs+X, Ys+Y)が与えられるというものである。
【0018】
上記の図9のベクトルと画素の位置との関係の定義は、輝度成分、及び色差成分で同一のものである。ここで、一般的な動画像符号化方式であるMPEG−1/MPEG−2/AVC FCDにおいては、ベクトルは輝度成分のみが符号化され、色差成分のベクトルは、輝度成分をスケーリングすることにより導出される。特にAVC FCDでは、色差成分は、縦の画素数、横の画素数とも輝度成分の画素数の半分のため、色差成分の予測画素を求めるための動きベクトルは、輝度成分の動きベクトルを正確に二分の一にスケーリングしたもの、と定められている。図10は、このような従来の輝度成分動きベクトルから色差成分動きベクトルの求め方を説明する図である。
【0019】
すなわち、輝度成分動きベクトル221を(MV#x,MV#y)、色差成分動きベクトルを222を(MVXC#x,MVXC#y)とした場合、色差成分動きベクトル222は、色差成分動きベクトル生成手段220によって、
(MVXC#x, MVXC#y) = (MV#x/2, MV#y/2) ・・(式1)
という式に従って求められる。この導出方法は、従来方式では、動きベクトルが同一パリティのフィールド間、異なるパリティのフィールド間で予測を行なっているかどうかに関わらない。
【0020】
なお、AVC FCDでは、輝度成分の動きベクトルの精度として、1/4画素精度、あるいは1/8画素精度を取ることが可能である。このことから、式1の結果として、色差成分の動きベクトルの精度として、1/8画素精度、あるいは1/16画素精度の小数点以下の精度を持つベクトルをとりうる。図21に、AVC FCDで定義された、色差成分の補間画素の算出方法を説明する。図中、黒丸は整数画素を、点線白丸は補間画素を示している。ここで補間画素G(256)は、水平方向の座標は、点A(250)と点C(252)の各水平座標をα:1−αに内分したものであり、垂直方向の座標は、点A(250)と点B(251)の各垂直座標をβ:1−βに内分したものであるとする。ここでα及びβは0以上、1未満の値である。上記のような位置で定義される補間画素G(256)を算出する場合、その周囲の整数画素A(250)、B(251)、C(252)、D(253)とα、βを用いて、凡そ以下のように求められる。
【0021】
G=(1−α)・(1−β)・A+(1−α)・β・B+α・(1−β)・C+α・β・D (式2)
図21を用いた色差成分の画素の補間方法については、補間画素を求めるための一例であり、他の算出方法を用いても問題はない。
【0022】
【非特許文献1】
Document of Joint Video Team(JVT) of ISO/IEC and ITU−T VCEG
Documet Name: Document JVT−D157d1
Title: Joint Final Commitee Draft(JFCD) of Joint Video Specification(ITU−T Rec. H.264 | ISO/IEC 11496−10 AVC)
・6.1 Picture formats ・・page 7
・6.2 Spatial subdivision of a picture into macroblocks ・・page 9
・8.4.1.4 Chroma vectors ・・page 63
・8.4.2.3 Chroma interpolation ・・page 65
Generated: 2002/08/08
【0023】
【発明が解決しようとする課題】
このフィールド符号化モードの場合、原画フィールドと参照フィールドが異なる、すなわちパリティの異なるフィールド間の予測においては、AVC FCDの定義では、輝度成分と色差成分の両動きベクトルのゼロベクトルが平行ではない。即ち、従来の定義で、輝度成分の動きベクトルより求めた色差成分の動きベクトルを用いて予測をすると、輝度成分とは空間的にずれた位置の画素を用いることとなる。このことを図11を用いて説明する。図中、時間と共に、Topフィールド130、Bottomフィールド131、Top フィールド132が時間的に連続していると仮定する。ここで、Bottom フィールド131を、Top フィールド130を用いて符号化しようとしている。この際、フィールド間符号化では、各フィールドの同一ライン間の動きベクトルを垂直方向のゼロと定義している。このため、Bottomフィールド131に属する輝度の画素133aに対して、ゼロベクトル(0,0)が割当てられた場合、この画素は、Topフィールド130の画素135aから予測される。同様に、Bottomフィールド131に属する色差の画素134aに対して、ゼロベクトル(0,0)が割当てられた場合、この画素は、Topフィールド130の画素137aから予測される。また同様に、Topフィールド132に属する輝度画素133b及び色差画素134bはそれぞれ、Bottomフィールド131上の画素135b及び137bから予測される。なお、本来、色差と輝度は、動きベクトルが同一であるほうが好ましいので、輝度の動きベクトルを、現在のままとすれば、本来の色差134a、134bの画素は、それぞれ136a、136bの位置から予測するべきものである。
【0024】
前述のとおり、異なるパリティを持つフィールド間の予測では、
・輝度と色差のゼロベクトルが平行でない。
【0025】
という点を説明した。この点が、異なるパリティを持つフィールド間の予測において、全てのベクトルに対しても、AVC FCDにおいて、以下のような問題を引き起こす。図12、及び図13は、この問題を図示したものである。AVC FCDに従って、問題を示す。
図12は、参照先がBottomフィールドで、参照元がTopフィールドの場合の、従来技術における輝度動きベクトルから色差動きベクトルを求める際の問題点を説明する図である。AVC FCDでは、式1の通り、色差成分は、縦の画素数、横の画素数とも輝度成分の画素数の半分のため、色差成分の予測画素を求めるための動きベクトルは、輝度成分の動きベクトルを二分の一にスケーリングしたもの、と定められている。これは、動きベクトルがフレーム間、同一パリティのフィールド間、異なるパリティのフィールド間で予測を行なっているかどうかに関わらない。
【0026】
いま、この定義が、異なるパリティのフィールド間で定義された輝度の動きベクトルから、色差の動きベクトルを求める際に問題となることを示す。図12において、参照元Top フィールド輝度成分の画素140は、予測ベクトルとして(0,1)を有し、その結果、参照先Bottom フィールド輝度成分の画素位置141を予測値として指し示す。
【0027】
この場合、同一ブロックに属する色差画素の動きベクトルは、式1に従って、動きベクトル(0,1/2)と求められる。そして、参照元Top フィールド色差成分の画素142の予測値として、動きベクトル(0,1/2)を用いて予測した場合、参照先Bottom フィールド色差成分の画素位置143を予測値として用いることとなる。
【0028】
この場合、輝度の動きベクトル(0,1)と色差の動きベクトル(0,1/2)は平行でない。好ましくは、輝度の動きベクトルと平行な色差の動きベクトルを適用した、参照先Bottomフィールドの色差成分の予測画素位置145を用いることが必要となる。
【0029】
図13は、参照先がTopフィールドで、参照元がBottomフィールドの場合の、従来技術における輝度動きベクトルから色差動きベクトルを求める際の問題点を説明する図である。図12の説明と同様、図13において、参照元Bottomフィールド輝度成分の画素150は、予測ベクトルとして(0,1)を有し、その結果、参照先Topフィールド輝度成分の画素位置151を予測値として指し示す。
【0030】
この場合、同一ブロックに属する色差画素の動きベクトルは、式1に従って、動きベクトル(0,1/2)と求められる。そして、参照元Bottomフィールド色差成分の画素152の予測値として、動きベクトル(0,1/2)を用いて予測した場合、参照先Topフィールド色差成分の画素位置153を予測値として用いることとなる。
【0031】
この場合、輝度の動きベクトル(0,1)と色差の動きベクトル(0,1/2)は平行でない。好ましくは、輝度の動きベクトルと平行な色差の動きベクトルを適用した、参照先Topフィールドの色差成分の予測画素位置155を用いることが必要となる。
【0032】
以上のように、参照先と参照元のフィールドのパリティが異なる場合には、従来の予測方法では輝度と色差でずれた位置の画素を参照することとなり、ゼロベクトルばかりでなく、全てのベクトルで、予測画像で、輝度と色差でずれた予測画像となってしまう。
【0033】
【問題点を解決するための手段】
本発明は、上記の問題を解決するものである。
【0034】
まず、符号化における本発明(請求項1,請求項2,請求項3)を説明する。
【0035】
本発明では、複数のフィールドで構成される動画像信号に対し、フィールド間の動き補償予測を行う動画像符号化方式において、輝度成分の動きベクトルと、Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と、動きベクトルの参照先フィールドと参照元フィールドのパリティから輝度成分動きベクトルに並行な色差成分の動きベクトルを生成することを特徴とする動画符号化方法である(請求項1)。
【0036】
また、本発明では、複数のフィールドで構成される動画像信号に対し、フィールド間の動き補償予測を行う動画像符号化方式において、輝度成分の動きベクトル輝度成分の動きベクトルとTopフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報から色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段を備え、さらに、動きベクトルの参照先フィールドと参照元フィールドのパリティによって色差ベクトルの生成に用いる色差成分動きベクトル生成手段を選択する選択手段を備え、選択手段で選択された色差成分動きベクトル生成手段によって、輝度情報の動きベクトル情報から色差成分の予測ベクトルを生成することを特徴とする動画符号化方法である(請求項2)。ここで、選択手段では、輝度成分と平行な色差成分の動きベクトルを生成するものを選択する。
【0037】
ここで、前述の複数の色差成分動きベクトル生成手段としては、以下の3種類を備える。まず第一の色差成分動きベクトル生成手段は、参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択されるものである。第二の色差成分動きベクトル生成手段は、参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択されるものである。そして第三の色差成分動きベクトル生成手段は、参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択されるものである(請求項3)。
【0038】
輝度成分の動きベクトルと平行な色差成分の動きベクトルを求め方は、動きベクトルの参照元フィールドと参照先フィールドのパリティ及びフォーマット情報に依存する。両フィールドが同じパリティの場合、前者がTopフィールドで後者がBottomフィールドの場合、及び前者がBottomフィールドで後者がTopフィールドの場合、の3種類の場合により異なる。また、フォーマット情報によって輝度成分と色差成分が平行になるように計算方法を決定する。
【0039】
本発明においては、参照元と参照先のフィールド及びフォーマット情報によって、3種類の輝度成分動きベクトルと平行な色差成分動きベクトルを生成する手段の中から適当なものを選択して、色差成分の動きベクトルを生成する。
【0040】
また、符号化方法の請求項2は復号方法の請求項4に、同様に請求項3は請求項5に対応し、基本的に復号側においても、符号化側と同様な機能を有し,同様に作用する。
【0041】
【発明の実施の形態】
本実施形態では、主に符号化装置について、請求項1から2までを適用した例を用いて説明する。なお、本発明は、動きベクトルの垂直成分に関わるものであるので、動きベクトルの水平成分は、全て、便宜上、0とする。また、復号装置に関する請求項3、4を適用した実施例も、本実施例と同様の構成をとる。
【0042】
以下、AVC FCDに本発明を適用した場合を想定して実施例を説明する。
【0043】
図14は、本発明における、輝度動きベクトルから色差動きベクトルの算出方法を説明する図である。本実施例における、フィールド予測における輝度成分の動きベクトルから色差成分の動きベクトルの生成手段の実施例においては、三種類の色差成分の動きベクトル生成手段と一つの選択手段から構成される。
【0044】
図14における本発明の動作を以下に説明する。まず、与えられた輝度成分の動きベクトル231を(MV#x,MV#y)とする。そして、この輝度成分のベクトル231とフォーマット情報239を、第一の色差成分動きベクトル生成手段233、第ニの色差成分動きベクトル生成手段234、第三の色差成分動きベクトル生成手段235、の入力として与える。そして、それぞれの出力を選択手段230に入力する。そして、選択手段230では、入力された動きベクトルの参照元フィールドのパリティ237と動きベクトルの参照先のパリティ238の情報を元に、第一、第二、第三の色差成分動きベクトル生成手段の出力のうち一つを選択して、色差成分の動きベクトル232のベクトル成分(MVC#x, MVC#y)として出力する。
【0045】
以下に図14の第一の色差成分ベクトル生成手段233, 第二の色差成分ベクトル生成手段234, 第三の色差成分ベクトル生成手段235の動作を図15乃至図17を用いて説明する。
【0046】
図15は、第一の色差動きベクトル生成手段を説明する図である。本実施例においては、第一の色差成分動きベクトル生成手段260に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル261及びフォーマット情報263が入力され、(MVXC1#x, MVXC1#y)のベクトル値を持つ第一の色差の動きベクトル候補262を出力することを表している。そして、第一の色差の動きベクトル候補262は、色差成分動きベクトル生成手段260によって、輝度の動きベクトル261から、以下の式、
(MVXC1#x, MVXC1#y) = (MV#x/2, MV#y/2) ・・(式3)
に従って計算される。
【0047】
そして、求められた第一の色差の動きベクトル候補262は、選択手段へ出力される。
【0048】
図16は、第ニの色差動きベクトル生成手段270を説明する図である。本実施例においては、第ニの色差成分動きベクトル生成手段270に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル271及びフォーマット情報273が入力され、(MVXC2#x, MVXC2#y)のベクトル値を持つ第ニの色差の動きベクトル候補272を出力することを表している。そして、第ニの色差の動きベクトル候補272は、色差成分動きベクトル生成手段270によって、輝度の動きベクトル271から、以下の式、
(MVXC2#x, MVXC2#y) = (MV#x/2, MV#y/2 + a) ・・(式4)
に従って計算される。ここで値aはTopフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置の関係を表すフォーマット情報F 273から輝度の動きベクトル271と第一の色差の動きベクトル候補272が平行になるように決定される。フォーマット情報F 273により複数のフォーマットの中から1つのフォーマットが選択される。
【0049】
ここで、フォーマットは例えば、図22のようにTopフィールドの奇数番目の輝度画素近傍に色差画素が配置され、Bottomフィールドの偶数番目の輝度画素近傍に色差画素が配置される場合をフォーマットF=0とし、図23のように、Topフィールド及びBottomフィールド共に奇数番目の輝度画素近傍に色差画素が配置される場合をフォーマットF=1とする。
【0050】
フォーマットが図22に示したようにF=0のとき、a = 1/4となる。また、フォーマットが図23で示したF=1のとき、a = 0となる。また、フォーマット情報F 273は、フォーマットの種類を表すものだけではなく、色差成分の位相を示す情報であっても良い。
【0051】
そして、求められた第ニの色差の動きベクトル候補272は、選択手段へ出力される。
【0052】
図17は、第三の色差動きベクトル生成手段を説明する図である。本実施例においては、第三の色差成分動きベクトル生成手段280に対して、(MV#x, MV#y)のベクトル値をもつ輝度の動きベクトル281及びフォーマット情報F283が入力され、(MVXC3#x, MVXC3#y)のベクトル値を持つ第三の色差の動きベクトル候補282を出力することを表している。そして、第三の色差の動きベクトル候補282は、色差成分動きベクトル生成手段280によって、輝度の動きベクトル281から、以下の式、
(MVXC3#x, MVXC3#y) = (MV#x/2, MV#y/2 + b) ・・(式5)
に従って計算される。ここで値bはフォーマット情報283から輝度の動きベクトル281と第一の色差の動きベクトル候補282が平行になるように決定される。フォーマット情報Fにより複数のフォーマットの中から1つのフォーマットが選択される。
【0053】
ここで、上記と同様にフォーマットが図22に示したF=0のとき、b = −1/4となる。また、フォーマットが図23で示したF=1のとき、b = 0となる。また、フォーマット情報Fは、フォーマットの種類を表すものだけではなく、色差成分の位相を示す情報であっても良い。
【0054】
そして、求められた第三の色差の動きベクトル候補282は、選択手段へ出力される。
【0055】
上記で説明したフォーマット情報は、Topフィールド及びBottomフィールドの輝度画素と色差画素の位置関係を表しており、上記で説明したフォーマット以外のフォーマットを適用したとしても、各第二及び第三の色差成分動きベクトルの生成手段において、色差成分の動きベクトルが輝度成分の動きベクトルと並行になるように色差ベクトルに加えるa及びbの値を決める事で対応可能である。
【0056】
図18は、本発明における選択手段240の実施例を説明する図である。まず、本実施例では、動きベクトルの参照元フィールドのパリティ247と動きベクトルの参照先フィールドのパリティ248がそれぞれ、条件判断テーブル241によって判断され、選択すべき色差成分動きベクトル生成手段の選択情報249が出力される。本実施例では、この条件判断テーブル241を用いると、参照先フィールド及び参照元フィールドの両方が等しい場合には、第一の色差成分動きベクトル候補244を選択すべき選択情報が出力される。また、参照先フィールドがTopフィールドで参照元フィールドがBottomフィールドの場合には第二の色差成分動きベクトル候補245を選択する選択情報が出力される。そして、参照先フィールドがBottomフィールドで参照元フィールドがTopフィールドの場合には第三の色差成分動きベクトル候補246を選択する選択情報が出力される。
【0057】
ここで、第一の色差成分動きベクトル候補244は図15の262に、第ニの色差成分動きベクトル候補245は図16の272に、第三の色差成分動きベクトル候補246は図17の282に、それぞれ接続されている。そして、セレクタ243では、前述の選択情報249に従って、第一の色差成分動きベクトル候補244、第ニの色差成分動きベクトル候補245、第三の色差成分動きベクトル候補246のうち一つを選択し、色差成分の動きベクトル242として(MVC#x,MVC#y)を出力する。
【0058】
図19は、本発明による、参照先がBottomフィールドで参照元がTopフィールドの場合の、輝度成分のベクトルから色差成分のベクトルを計算する例を示すものである。この図の例では、参照元Top フィールド輝度成分の画素160を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、輝度の画素160の予測には参照先Bottom フィールド輝度成分の画素位置161が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Top フィールド色差成分の画素162の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0059】
まず、図19の場合には参照先フィールドがBottomフィールド、参照元フィールドがTopフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第三の色差成分動きベクトル候補が選択される。ここで、式5に従えば、例えばフォーマット情報F=0が用いられた場合、輝度の動きベクトルと第三の色差成分動きベクトル候補を平行になるようにb = −1/4と決定される。そこで、第三の色差成分動きベクトル候補は、
(MVXC3#x, MVXC3#y)=(MV#x/2, MV#y/2−1/4)=(0/2, 1/2 − 1/4)=(0, 1/4)(式6)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/4)を参照元Top フィールド色差成分の画素162に適用すると、参照先Bottom フィールド色差成分の画素位置163が予測値として用いられることとなる。図19においては、各画素の縦方向の位置関係は実際の場合に即している。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/4)は平行であることが分かる。このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
さらに、図24は、に、図19と異なるフォーマットの例を示す。この図の例では、参照元Top フィールド輝度成分の画素300を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、輝度の画素300の予測には参照先Bottom フィールド輝度成分の画素位置301が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Top フィールド色差成分の画素302の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0060】
まず、図24の場合には参照先フィールドがBottomフィールド、参照元フィールドがTopフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第三の色差成分動きベクトル候補が選択される。ここで、式5に従えば、例えばフォーマット情報F=1が用いられた場合、輝度の動きベクトルと第三の色差成分動きベクトル候補を平行になるようにb = 0と決定される。そこで、第三の色差成分動きベクトル候補は、
(MVXC3#x, MVXC3#y)=(MV#x/2, MV#y/2−0)=(0/2, 1/2 − 0)=(0, 1/2) (式7)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/2)を参照元Top フィールド色差成分の画素302に適用すると、参照先Bottom フィールド色差成分の画素位置303が予測値として用いられることとなる。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/2)は平行であることが分かる。このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
同様に、図20は、本発明による、参照先がTopoフィールドで参照元がBottomフィールドの場合の、輝度成分のベクトルから色差成分のベクトルを計算する例を示すものである。この図の例では、参照元Bottomフィールド輝度成分の画素170を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、参照元Bottomフィールド輝度成分の画素170の予測には参照先Topフィールド輝度成分の画素位置171が選択される。このようなベクトルに対して、本実施例の図14の構成に従って、参照元Bottomフィールド色差成分の画素172の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。
【0061】
まず、図20の場合には参照先フィールドがTopフィールド、参照元フィールドがBottomフィールドである。このことから、図18の条件判断テーブル241によって、選択情報249は第ニの色差成分動きベクトル候補が選択される。ここで、式4に従えば、例えばフォーマット情報F=0が用いられた場合、輝度の動きベクトルと第二の色差成分動きベクトル候補を平行になるようにa = 1/4と決定される。
【0062】
そこで、第ニの色差成分動きベクトル候補は、
(MVXC2#x, MVXC2#y)=(MV#x/2, MV#y/2+1/4)=(0/2, 1/2 + 1/4)=(0, 3/4)(式8)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 3/4)を参照元Bottomフィールド色差成分の画素172に適用すると、予測に用いる位置として参照先Topフィールド色差成の画素位置173が予測値として用いられることとなる。図20においては、各画素の縦方向の位置関係は実際の場合に即している。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,3/4)は平行であることが分かる。
【0063】
さらに図25に、図20と異なるフォーマットの例を示す。この図の例では、参照元Bottomフィールド輝度成分の画素300を予測する輝度の動きベクトル(MV#x, MV#y)を(0, 1)とする。この場合、参照元Bottomフィールド輝度成分の画素310の予測には参照先Topフィールド輝度成分の画素位置311が選択される。このようなベクトルに対して、参照元Bottomフィールド色差成分の画素312の予測に用いるための、色差成分動きベクトルを求める過程を以下に説明する。図18の条件判断テーブル241によって、選択情報249は第ニの色差成分動きベクトル候補が選択される。ここで、式4に従えば、例えばフォーマット情報F=1が用いられた場合、輝度の動きベクトルと第二の色差成分動きベクトル候補を平行になるようにa = 0と決定される。
【0064】
そこで、第ニの色差成分動きベクトル候補は、
(MVXC2#x, MVXC2#y)=(MV#x/2, MV#y/2+0)=(0/2, 1/2 + 0)=(0, 1/2) (式9)
となる。そして、この値が図18の色差成分の動きベクトル232として出力される。このベクトル(0, 1/2)を参照元Bottomフィールド色差成分の画素312に適用すると、予測に用いる位置として参照先Topフィールド色差成の画素位置313が予測値として用いられることとなる。本図で分かるとおり、輝度成分動きベクトル(0,1)と色差成分動きベクトル(0,1/2)は平行であることが分かる。
このことより、従来技術で問題となっていた、輝度成分と色差成分の色ずれが、本発明により解消されることとなる。
【0065】
ここでは、図19、図20、図24、図25の例では、特定のベクトルの場合について説明したが、他の異パリティフィールド間の予測にも、本実施例を適用することにより、輝度と色差のずれのない予測が可能となる。
【0066】
なお、参照先及び参照元の両フィールドのパリティが等しい場合には、上記のような色ずれが発生しないため、図10の従来の輝度成分動きベクトルから色差成分動きベクトル生成手段220と同じ構成をもつ、本発明の第一の色差成分動きベクトル手段233の結果が選択されて色差成分動きベクトル232として用いられる。この場合は、本発明により得られる色差成分動きベクトルは従来技術の結果と同等なので、本実施例における説明は割愛する。
【0067】
なお、本実施例は、AVC FCDを例として説明したが、ここでの説明は一実施形態であり、他の実施形態を制限するものではない。
【0068】
【発明の効果】
本発明によれば、パリティが異なるフィールド間で、且つTopフィールド及びBottomフィールドに於ける輝度画素と色差画素の位置関係が異なるフォーマットの場合でも、そのフォーマット情報により、輝度成分の動きベクトルと平行な色差成分の動きベクトルを求めることが可能となり、色差成分の予測効率が向上し、動画像符号化における符号化効率が改善できる。
【0069】
【図面の簡単な説明】
【図1】フレーム間予測符号可装置のブロック図
【図2】輝度、色差の各画素の位置と、それらが属するフィールドを説明する図
【図3】フィールド画像における輝度、色差の各画素の垂直方向の字空間位置を説明する図
【図4】フレーム符号化モード時にフィールドとフレームの関係を説明する図
【図5】フレーム間予測符号化モード時の予測方法を説明する図
【図6】フィールド間予測モード時の予測方法を説明する図
【図7】フィールド画像の座標を説明する図
【図8】従来方式のフィールド間の対応する画素間の動きベクトルの算出方法を説明する図
【図9】従来方式の動きベクトルが指し示す画素の算出方法を説明する図
【図10】従来の輝度動きベクトルから色差動きベクトルを求める方法を説明する図
【図11】従来技術におけるパリティが異なるフィールド間のゼロベクトルを説明する図Direct Modeの原理を説明する図
【図12】参照先がBottomフィールドで参照元がTopフィールドの場合の輝度動きベクトルから色差動きベクトルを求める際の従来技術の問題点を説明する図
【図13】参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルを求める際の従来技術の問題点を説明する図
【図14】本発明における輝度動きベクトルから色差動きベクトルの生成方法を説明する図
【図15】本発明における第一の色差成分動きベクトル生成手段の実施例を説明する図
【図16】本発明における第ニの色差成分動きベクトル生成手段の実施例を説明する図
【図17】本発明における第三の色差成分動きベクトル生成手段の実施例を説明する図
【図18】本発明における選択手段の実施例を説明する図
【図19】実施例におけるフォーマットF=0の場合の参照先がBottomフィールドで参照元がTopフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図20】実施例におけるフォーマットF=0の場合の参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図21】色差成分の補間画素の算出方法を説明する図
【図22】実施例におけるフォーマットF=0を説明する図
【図23】実施例におけるフォーマットF=1を説明する図
【図24】実施例におけるフォーマットF=1の場合の参照先がTopフィールドで参照元がBottomフィールドの場合輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【図25】実施例におけるフォーマットF=1の場合の参照先がTopフィールドで参照元がBottomフィールドの場合の輝度動きベクトルから色差動きベクトルの導出の一例を説明する図
【符号の説明】
31 直交変換手段
32 量子化手段
33 逆量子化手段
34 逆直交変換手段
35 復号画像生成手段
36 復号画像記憶手段
37 動きベクトル計算手段
38 予測画像生成手段
39 予測誤差信号生成手段
40 係数エントロピー符号化手段
41 動きベクトルエントロピー符号化手段
42 多重化手段
50a−50d Top Field輝度第1,3,5,7ライン
51a−51d Bottom Field輝度第2,4,6,8ライン
52a−52b Top Field色差第1,3ライン
53a−53b Bottom Field色差第2,4ライン
64a−64c Top Field
65a−65c Bottom Field
81 Frame#1輝度成分
82 Frame#2輝度成分
84a−84c Frame#1〜#3
90 同パリティフィールド間予測
91 異パリティフィールド間予測
94a−94b Top Field
95a−95b Bottom Field
100a−100b Top Field
101a−101b Bottom Field
110a−110b Top Field
111a−111b Bottom Field
130 Top Field
131 Bottom Field
132 Top Field
133a−133b 符号化対象輝度成分
134a−134b 符号化対象色差成分
135a−135b 参照フィールドの輝度成分
136a−136b 予測として好ましい色差成分
137a−137b 参照フィールドの色差成分
140 参照元Top フィールド輝度成分の画素
141 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
142 参照元Top フィールド色差成分の画素
143 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
145 好ましい色差成分の予測画素位置
150 参照元Bottomフィールド輝度成分の画素
151 予測値として用いられる参照先Topフィールド輝度成分の画素位置
152 参照元Bottomフィールド色差成分の画素
153 予測値として用いられる参照先Topフィールド色差成の画素位置
155 好ましい色差成分の予測画素位置
160 参照元Top フィールド輝度成分の画素
161 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
162 参照元Top フィールド色差成分の画素
163 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
170 参照元Bottomフィールド輝度成分の画素
171 予測値として用いられる参照先Topフィールド輝度成分の画素位置
172 参照元Bottomフィールド色差成分の画素
173予測値として用いられる参照先Topフィールド色差成の画素位置
180 座標を求めたい位置
181 画素の定義位置
200 動きベクトル算出手段
201 参照元フィールド座標
202 参照先フィールド座標
203 動きベクトル
210 画素対応付け手段
211 動きベクトル
212 参照元フィールド座標
213 参照先フィールド座標
220 色差成分動きベクトル生成手段
221 輝度成分動きベクトル
222 色差成分動きベクトル
230 選択手段
231 輝度成分の動きベクトル
232 色差成分の動きベクトル
233 第一の色差成分動きベクトル生成手段
234 第ニの色差成分動きベクトル生成手段
235 第三の色差成分動きベクトル生成手段
237 動きベクトルの参照元フィールドのパリティ
238 動きベクトルの参照先フィールドのパリティ
239 フォーマット情報
240 選択手段
241 条件判定テーブル
242 色差成分の動きベクトル
243 セレクタ
244 第一の色差成分動きベクトルの候補
245 第ニの色差成分動きベクトルの候補
246 第三の色差成分動きベクトルの候補
247 動きベクトルの参照元フィールドのパリティ
248 動きベクトルの参照先フィールドのパリティ
249 選択情報
250〜255 整数画素
256 補間画素
260 第一の色差成分動きベクトル生成手段
261 輝度成分動きベクトル
262 第一の色差成分動きベクトル候補
263 色差位相情報
270 第ニの色差成分動きベクトル生成手段
271 輝度成分動きベクトル
272 第ニの色差成分動きベクトル候補
273 フォーマット情報
280 第三の色差成分動きベクトル生成手段
281 輝度成分動きベクトル
282 第三の色差成分動きベクトル候補
283 フォーマット情報
300 参照元Top フィールド輝度成分の画素
301 予測値として用いられる参照先Bottom フィールド輝度成分の画素位置
302 参照元Top フィールド色差成分の画素
303 予測値として用いられる参照先Bottom フィールド色差成分の画素位置
310 参照元Bottomフィールド輝度成分の画素
311 予測値として用いられる参照先Topフィールド輝度成分の画素位置
312 参照元Bottomフィールド色差成分の画素
313 予測値として用いられる参照先Topフィールド色差成の画素位置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video encoding device and a video transcoding device having an inter-field prediction mode.
[0002]
[Prior art]
Since moving image data generally has a large data amount, high-efficiency coding is performed when it is transmitted from a transmitting device to a receiving device or when it is stored in a storage device. Here, “high-efficiency encoding” is an encoding process for converting a certain data sequence into another data sequence, and refers to a process for compressing the data amount.
[0003]
The moving image data includes data mainly including only frames and data including fields. Hereinafter, a conventional technique of a method of compressing a field image will be mainly described.
[0004]
As a high-efficiency encoding method for moving image data, an inter-frame / field prediction encoding method is known. FIG. 1 shows a block diagram of this interframe / field predictive coding. This encoding method utilizes the fact that moving image data has high correlation in the time direction. Briefly explaining the operation of FIG. 1, a difference image between an input original image and a prediction image is generated by a
[0005]
The outline of the inter-frame / field predictive encoding in FIG. 1 has been described above, and the frame predictive encoding and the field predictive encoding will be further described below.
[0006]
FIGS. 2 and 3 show the above-mentioned ISO / IEC MPEG-2 / MPEG-4 (hereinafter referred to as MPEG-2, MPEG-4) and, as of August 2002, jointly standardized by ITU-T and ISO / IEC. ITU-TH. This is a description of a format used for encoding a field image, which is commonly used in Final Committee Draft (hereinafter abbreviated as AVC FCD) of H.264 / ISO / IEC MPEG-4 Part 10 (Advanced Video Coding: AVC). That is, each frame includes two fields, that is, a Top field and a Bottom field. FIG. 2 is a diagram illustrating the position of each pixel of luminance and color difference and the field to which they belong. As shown in FIG. 2, the odd-numbered lines of the first luminance line (50a), the third luminance line (50b), the fifth luminance line (50c), the seventh luminance line (50d),. The even-numbered lines such as the second luminance line (51a), the fourth luminance line (51b), the sixth luminance line (51c), the eighth luminance line (51d), etc., belong to the Bottom field. Similarly, the odd-numbered lines such as the first color difference line (52a), the third color difference line (52b)... Belong to the Top field, and the second color difference line (53a) and the fourth color difference line (53b). .. Belong to the Bottom field.
[0007]
The Top field and the Bottom field represent images at different times. Next, the spatial and temporal arrangement of the Top field and the Bottom field will be described with reference to FIG.
[0008]
Note that, from FIG. 3 onward, since the technology according to the present invention relates to the vertical component of the motion vector, in this specification, the pixel of the horizontal component is not shown, and the horizontal component of the motion vector is All are described as 0 for convenience. Further, in order to show the problems of the related art and the effects of the present invention, the positional relationship between the luminance and color difference pixel positions in each field is correctly illustrated.
[0009]
In FIG. 3, the vertical axis represents the pixel position of the vertical component of each field, and the horizontal axis represents the passage of time. Note that, in the horizontal components of the pixels of each image, there is no displacement of the position due to the field, and therefore, illustration and description of the pixels in the horizontal direction are omitted in this figure.
[0010]
As shown in FIG. 3, the pixel position of the chrominance component has a vertical component shifted by 4 pixel from the pixel position in the luminance field. This is because when a frame is composed of both the Top and Bottom fields, the relationship of the pixel positions as shown in FIG. 2 is satisfied. The time between both adjacent fields of each Top and Bottom (64a: 65a, 65a: 64b...) Is about 1/60 second in the case of the NTSC format. The time from the Top field to the Top field (64a: 64b...) Or the time from the Bottom field to the Bottom field (65a: 65b...) Is approximately 1/30 second.
[0011]
Hereinafter, the frame prediction coding mode and field prediction of a field image, which are adopted in MPEG-2 and AVC FCD, will be described. FIG. 4 illustrates a method of forming a frame from two consecutive fields (adjacent Top and Bottom fields) in the frame prediction mode. As shown in this figure, the frame is reconstructed from two temporally continuous fields (Top and Bottom fields).
[0012]
FIG. 5 illustrates the frame prediction mode. In this figure, it is assumed that each of the
[0013]
Next, the field prediction encoding mode will be described. FIG. 6 is a diagram for explaining a prediction method in the inter-field prediction mode. In the field prediction mode, an encoding target is a single Top field (94a, 94b,...) Or a Bottom field (95a, 95b,...) Input as an original image. As a reference image, a Top field or a Bottom field stored in the past can be used. Here, that the original image field and the reference field have the same parity is generally defined as that both the original image field and the reference field are Top fields or both are Bottom fields. For example, in the field prediction of the
[0014]
In the related art, in both the frame mode and the field mode, a motion vector is obtained based on the position of a pixel in each frame / field. A method of calculating a motion vector and a method of associating pixels when a motion vector is given in the conventional method will be described.
[0015]
FIG. 7 is a diagram that defines the coordinates of a frame / field image that is widely used in encoding such as MPEG-2, MPEG-1, and AVC FCD. In the figure, a white circle is a target frame / field and is a pixel definition position (271). Here, with respect to the coordinates in the frame / field image, the origin (0, 0) is set at the upper left in the screen, and the defined positions of the pixels in the horizontal and vertical directions are 1, 2, 3,. Value is assigned. That is, the coordinates of the nth pixel in the horizontal direction and the mth pixel in the vertical direction are (n, m). According to this, the coordinates of the position where the pixel is interpolated are similarly defined. That is, as for the
[0016]
The definition of a motion vector between fields will be described using the coordinate system shown in FIG. FIG. 8 is a diagram illustrating a conventional method of calculating a motion vector between corresponding pixels between fields. In order to define a motion vector, a reference source position and a reference destination position are required. Then, a motion vector is defined between these two points. Here, a motion vector between a point whose coordinates 201 in the reference source field is (Xs, Ys) and a point whose
[0017]
FIG. 9 is a diagram illustrating a method of calculating a pixel indicated by a motion vector defined between fields in the related art. Here, it is assumed that the motion vector is derived by the method of FIG. In order to obtain the coordinates of the reference destination, the position of the reference source and the motion vector are required. In the case of this figure, (X, Y) of the
[0018]
The definition of the relationship between the vector and the pixel position in FIG. 9 is the same for the luminance component and the color difference component. Here, in the MPEG-1 / MPEG-2 / AVC FCD, which is a general moving picture coding method, only a luminance component is encoded as a vector, and a color difference component vector is derived by scaling the luminance component. Is done. In particular, in the AVC FCD, since the chrominance component is half the number of pixels of the luminance component in both the number of vertical pixels and the number of horizontal pixels, the motion vector for calculating the prediction pixel of the chrominance component is obtained by accurately calculating the motion vector of the luminance component. It is stipulated that it is scaled by half. FIG. 10 is a diagram illustrating a method of obtaining a color difference component motion vector from such a conventional luminance component motion vector.
[0019]
That is, when the luminance
(MVXC # x, MVXC # y) = (MV # x / 2, MV # y / 2) (Equation 1)
It is obtained according to the formula. In the conventional method, this derivation method is irrespective of whether the motion vector predicts between fields having the same parity or between fields having different parities.
[0020]
In the AVC FCD, the accuracy of the motion vector of the luminance component can be 1/4 pixel accuracy or 1/8 pixel accuracy. From this, as a result of
[0021]
G = (1-α) · (1-β) · A + (1-α) · β · B + α · (1-β) · C + α · β · D (Equation 2)
The method of interpolating the pixel of the color difference component using FIG. 21 is an example for obtaining an interpolated pixel, and there is no problem if another calculation method is used.
[0022]
[Non-patent document 1]
Document of Joint Video Team (JVT) of ISO / IEC and ITU-T VCEG
Document Name: Document JVT-D157d1
Title: Joint Final Committee Draft (JFCD) of Joint Video Specification (ITU-T Rec. H.264 | ISO / IEC 11496-10 AVC)
・ 6.1 Picture formats ・ ・
・ 6.2 Spatial subdivision of a picture into macroblocks ・ ・ page 9
・ 8.4.1.4 Chroma vectors ・ ・ page 63
・ 8.4.2.3 Chroma interpolation ・ ・ page 65
Generated: 2002/08/08
[0023]
[Problems to be solved by the invention]
In the case of this field coding mode, in prediction between fields having different original picture fields and reference fields, that is, fields having different parities, according to the definition of AVC FCD, zero vectors of both motion vectors of a luminance component and a chrominance component are not parallel. That is, in the conventional definition, when prediction is performed using the motion vector of the chrominance component obtained from the motion vector of the luminance component, a pixel at a position spatially shifted from the luminance component is used. This will be described with reference to FIG. In the drawing, it is assumed that the
[0024]
As mentioned above, prediction between fields with different parity
-The zero vectors of luminance and color difference are not parallel.
[0025]
That point was explained. This causes the following problem in the AVC FCD for all vectors in prediction between fields having different parities. Figures 12 and 13 illustrate this problem. Indicate the problem according to the AVC FCD.
FIG. 12 is a diagram for explaining a problem when a chrominance motion vector is obtained from a luminance motion vector in the related art when a reference destination is a Bottom field and a reference source is a Top field. In the AVC FCD, since the color difference component is half the number of pixels of the luminance component in both the number of vertical pixels and the number of horizontal pixels as in
[0026]
Now, it is shown that this definition poses a problem when obtaining a color difference motion vector from a luminance motion vector defined between fields of different parities. In FIG. 12, the
[0027]
In this case, the motion vector of the chrominance pixel belonging to the same block is obtained as the motion vector (0, 1/2) according to
[0028]
In this case, the luminance motion vector (0, 1) and the color difference motion vector (0, 1/2) are not parallel. Preferably, it is necessary to use the predicted pixel position 145 of the color difference component of the reference Bottom field to which a motion vector of a color difference parallel to the motion vector of the luminance is applied.
[0029]
FIG. 13 is a diagram for explaining a problem in obtaining a chrominance motion vector from a luminance motion vector in the related art when a reference destination is a Top field and a reference source is a Bottom field. As in the description of FIG. 12, in FIG. 13, the
[0030]
In this case, the motion vector of the chrominance pixel belonging to the same block is obtained as the motion vector (0, 1/2) according to
[0031]
In this case, the luminance motion vector (0, 1) and the color difference motion vector (0, 1/2) are not parallel. Preferably, it is necessary to use the predicted
[0032]
As described above, when the parity of the field of the reference destination and the parity of the field of the reference source are different, the conventional prediction method refers to the pixel at the position shifted by the luminance and the chrominance. However, in the predicted image, the predicted image is shifted by the luminance and the color difference.
[0033]
[Means for solving the problem]
The present invention solves the above problem.
[0034]
First, the present invention (
[0035]
According to the present invention, in a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields, a motion vector of a luminance component and luminance and color difference pixels in a Top field and a Bottom field are used. A motion vector of a chrominance component parallel to the luminance component motion vector is generated from format information indicating the sampling positional relationship of the motion vector and the parities of the reference field and the reference source field of the motion vector. Claim 1).
[0036]
Further, in the present invention, in a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields, a motion vector of a luminance component, a motion vector of a luminance component, a Top field, and a Bottom field. A plurality of chrominance component motion vector generation means for generating a chrominance component motion vector from format information indicating the sampling position relationship of the luminance and chrominance pixels in the pixel. A color difference component motion vector generation unit for selecting a color difference component motion vector generation unit used for generating a vector; and generating a color difference component prediction vector from the luminance information motion vector information by the color difference component motion vector generation unit selected by the selection unit. Characteristic video encoding method Claim 2). Here, the selection means selects one that generates a motion vector of a color difference component parallel to the luminance component.
[0037]
Here, the following three types of color difference component motion vector generating means are provided. First, the first chrominance component motion vector generation means is selected by the selection means when the reference destination field and the reference source field have the same parity. The second color difference component motion vector generation means is selected by the selection means when the reference destination field is the Top field and the reference source field is the Bottom field. The third chrominance component motion vector generation means is selected by the selection means when the reference field is a Bottom field and the reference source field is a Top field.
[0038]
The method of obtaining the motion vector of the color difference component parallel to the motion vector of the luminance component depends on the parity and format information of the reference source field and the reference destination field of the motion vector. When the two fields have the same parity, there are three types of cases: the former is a Top field and the latter is a Bottom field, and the former is a Bottom field and the latter is a Top field. Further, the calculation method is determined so that the luminance component and the color difference component become parallel according to the format information.
[0039]
In the present invention, an appropriate one is selected from the means for generating three types of color difference component motion vectors parallel to the luminance component motion vector according to the reference source and reference destination fields and format information, and the motion of the color difference component is selected. Generate a vector.
[0040]
In addition,
[0041]
BEST MODE FOR CARRYING OUT THE INVENTION
In the present embodiment, an encoding apparatus will be mainly described using an example to which claims 1 and 2 are applied. Since the present invention relates to a vertical component of a motion vector, all horizontal components of the motion vector are set to 0 for convenience. Further, an embodiment to which the third and fourth aspects of the decoding apparatus are applied has the same configuration as that of the present embodiment.
[0042]
Hereinafter, embodiments will be described on the assumption that the present invention is applied to an AVC FCD.
[0043]
FIG. 14 is a diagram illustrating a method of calculating a color difference motion vector from a luminance motion vector according to the present invention. In this embodiment, in the embodiment of the means for generating a motion vector of a chrominance component from the motion vector of a luminance component in the field prediction, it is composed of three types of motion vector generation means for a chrominance component and one selecting means.
[0044]
The operation of the present invention in FIG. 14 will be described below. First, the
[0045]
The operation of the first chrominance component vector generation means 233, the second chrominance component vector generation means 234, and the third chrominance component vector generation means 235 of FIG. 14 will be described below with reference to FIGS.
[0046]
FIG. 15 is a diagram illustrating a first color difference motion vector generation unit. In this embodiment, a
(MVXC1 # x, MVXC1 # y) = (MV # x / 2, MV # y / 2) (Equation 3)
Is calculated according to
[0047]
Then, the obtained first color difference motion vector candidate 262 is output to the selection means.
[0048]
FIG. 16 is a diagram for explaining the second chrominance motion vector generation means 270. In the present embodiment, a
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + a) (Equation 4)
Is calculated according to Here, the value a is determined so that the
[0049]
Here, for example, as shown in FIG. 22, the format F = 0 corresponds to a case where chrominance pixels are arranged near odd-numbered luminance pixels in the Top field and chrominance pixels are arranged near even-numbered luminance pixels in the Bottom field. As shown in FIG. 23, the format F = 1 is the case where the chrominance pixels are arranged near the odd-numbered luminance pixels in both the Top field and the Bottom field.
[0050]
When the format is F = 0 as shown in FIG. 22, a = 1/4. When the format is F = 1 shown in FIG. 23, a = 0. The
[0051]
The obtained second color difference
[0052]
FIG. 17 is a diagram illustrating a third color difference motion vector generation unit. In this embodiment, a luminance motion vector 281 having a vector value of (MV # x, MV # y) and format information F283 are input to the third chrominance component motion
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2 + b) (Equation 5)
Is calculated according to Here, the value b is determined from the
[0053]
Here, when the format is F = 0 shown in FIG. 22 as in the above, b = −1 /. When the format is F = 1 shown in FIG. 23, b = 0. Further, the format information F is not limited to information indicating the type of format, and may be information indicating the phase of the color difference component.
[0054]
Then, the obtained third color difference
[0055]
The format information described above indicates the positional relationship between the luminance pixels and the chrominance pixels of the Top field and the Bottom field. Even if a format other than the format described above is applied, each of the second and third chrominance components The motion vector generating means can cope with this by determining the values of a and b added to the color difference vector so that the motion vector of the color difference component is parallel to the motion vector of the luminance component.
[0056]
FIG. 18 is a view for explaining an embodiment of the selection means 240 in the present invention. First, in the present embodiment, the parity 247 of the reference field of the motion vector and the
[0057]
Here, the first chrominance component
[0058]
FIG. 19 shows an example of calculating a color difference component vector from a luminance component vector when the reference destination is the Bottom field and the reference source is the Top field according to the present invention. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the
[0059]
First, in the case of FIG. 19, the reference destination field is the Bottom field, and the reference source field is the Top field. Therefore, the third chrominance component motion vector candidate is selected as the
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2-1 /) = (0/2, −−4) = (0, 4) ( Equation 6)
It becomes. Then, this value is output as the
FIG. 24 shows an example of a format different from that of FIG. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the
[0060]
First, in the case of FIG. 24, the reference destination field is a Bottom field, and the reference source field is a Top field. Therefore, the third chrominance component motion vector candidate is selected as the
(MVXC3 # x, MVXC3 # y) = (MV # x / 2, MV # y / 2-0) = (0/2, 1 / 2-0) = (0, 1/2) (Equation 7)
It becomes. Then, this value is output as the
Similarly, FIG. 20 shows an example of calculating a color difference component vector from a luminance component vector when a reference destination is a Topo field and a reference source is a Bottom field according to the present invention. In the example of this figure, the motion vector (MV # x, MV # y) of the luminance for predicting the
[0061]
First, in the case of FIG. 20, the reference destination field is the Top field, and the reference source field is the Bottom field. From this, the second color difference component motion vector candidate is selected as the
[0062]
Therefore, the second color difference component motion vector candidate is
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + /) = (0/2, +) = (0, 3/4) (Equation 8) )
It becomes. Then, this value is output as the
[0063]
FIG. 25 shows an example of a format different from that of FIG. In the example of this figure, the luminance motion vector (MV # x, MV # y) for predicting the
[0064]
Therefore, the second color difference component motion vector candidate is
(MVXC2 # x, MVXC2 # y) = (MV # x / 2, MV # y / 2 + 0) = (0/2, 1/2 + 0) = (0, 1/2) (Equation 9)
It becomes. Then, this value is output as the
Accordingly, the color shift between the luminance component and the color difference component, which has been a problem in the related art, is eliminated by the present invention.
[0065]
Here, in the examples of FIG. 19, FIG. 20, FIG. 24, and FIG. 25, the case of a specific vector has been described. Prediction without deviation of color difference becomes possible.
[0066]
When the parities of both the reference destination field and the reference source field are equal, the above-described color shift does not occur. Therefore, the same configuration as that of the conventional luminance component motion vector to color difference component motion
[0067]
Although the present embodiment has been described using the AVC FCD as an example, the description here is one embodiment, and does not limit the other embodiments.
[0068]
【The invention's effect】
According to the present invention, even in a format in which the positional relationship between the luminance pixel and the chrominance pixel is different between the fields having different parities and in the Top field and the Bottom field, the format information is used in parallel with the motion vector of the luminance component. The motion vector of the color difference component can be obtained, the prediction efficiency of the color difference component is improved, and the coding efficiency in moving image coding can be improved.
[0069]
[Brief description of the drawings]
FIG. 1 is a block diagram of an apparatus for enabling inter-frame prediction coding.
FIG. 2 is a view for explaining positions of respective pixels of luminance and chrominance and fields to which the pixels belong;
FIG. 3 is a view for explaining a vertical character space position of each pixel of luminance and chrominance in a field image.
FIG. 4 is a view for explaining the relationship between fields and frames in a frame encoding mode.
FIG. 5 is a diagram for explaining a prediction method in an inter-frame prediction coding mode.
FIG. 6 is a view for explaining a prediction method in an inter-field prediction mode.
FIG. 7 is a diagram illustrating coordinates of a field image.
FIG. 8 is a diagram illustrating a method of calculating a motion vector between corresponding pixels between fields in a conventional method.
FIG. 9 is a diagram illustrating a method of calculating a pixel indicated by a motion vector according to a conventional method.
FIG. 10 is a view for explaining a conventional method for obtaining a color difference motion vector from a luminance motion vector.
FIG. 11 is a diagram illustrating a zero vector between fields having different parities in the related art. FIG. 11 is a diagram illustrating the principle of Direct Mode.
FIG. 12 is a diagram illustrating a problem of the related art when a color difference motion vector is obtained from a luminance motion vector when a reference destination is a Bottom field and a reference source is a Top field.
FIG. 13 is a diagram illustrating a problem of the related art when a color difference motion vector is obtained from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field.
FIG. 14 is a diagram illustrating a method for generating a chrominance motion vector from a luminance motion vector according to the present invention.
FIG. 15 is a diagram for explaining an embodiment of a first chrominance component motion vector generation unit according to the present invention.
FIG. 16 is a diagram for explaining an embodiment of a second chrominance component motion vector generation unit according to the present invention.
FIG. 17 is a diagram for explaining an embodiment of a third color difference component motion vector generation unit according to the present invention.
FIG. 18 is a view for explaining an embodiment of the selection means in the present invention.
FIG. 19 is a diagram illustrating an example of derivation of a chrominance motion vector from a luminance motion vector when a reference destination is a Bottom field and a reference source is a Top field when a format F = 0 according to the embodiment.
FIG. 20 is a view for explaining an example of deriving a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 0 according to the embodiment.
FIG. 21 is a diagram illustrating a method of calculating an interpolation pixel of a color difference component.
FIG. 22 is a view for explaining a format F = 0 in the embodiment.
FIG. 23 is a view for explaining a format F = 1 in the embodiment.
FIG. 24 is a diagram illustrating an example of derivation of a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 1 according to the embodiment.
FIG. 25 is a diagram illustrating an example of deriving a chrominance motion vector from a luminance motion vector when a reference destination is a Top field and a reference source is a Bottom field in a format F = 1 according to the embodiment.
[Explanation of symbols]
31 orthogonal transformation means
32 Quantization means
33 inverse quantization means
34 inverse orthogonal transformation means
35 Decoded image generation means
36 Decoded image storage means
37 Motion vector calculation means
38 Prediction image generation means
39 Prediction error signal generation means
40 Coefficient entropy coding means
41 Motion Vector Entropy Coding Means
42 Multiplexing means
50a-50d
51a-51d
52a-52b Top Field color difference first and third lines
53a-53b Bottom Field Color Difference 2nd and 4th Line
64a-64c Top Field
65a-65c Bottom Field
81
82
84a-
90 Same parity inter-field prediction
91 Prediction between different parity fields
94a-94b Top Field
95a-95b Bottom Field
100a-100b Top Field
101a-101b Bottom Field
110a-110b Top Field
111a-111b Bottom Field
130 Top Field
131 Bottom Field
132 Top Field
133a-133b Luminance component to be encoded
134a-134b Color difference components to be encoded
135a-135b Luminance component of reference field
136a-136b Color difference component preferable as prediction
137a-137b Color difference component of reference field
140 Source Top field Pixel of luminance component
141 Pixel position of reference destination Bottom field luminance component used as predicted value
142 reference source Top field pixel of color difference component
143 Reference destination Bottom field used as predicted value Field position of color difference component
145 Predicted pixel position of preferred color difference component
150 pixels of reference source Bottom field luminance component
151 Pixel position of reference destination field luminance component used as prediction value
152 Pixel of reference source Bottom field color difference component
153 pixel position of reference destination field color difference component used as prediction value
155 Predicted pixel position of preferred color difference component
160 Pixel of reference source Top field luminance component
161 Reference destination Bottom field used as predicted value Pixel position of field luminance component
162 pixel of reference source Top field color difference component
163 Reference Bottom Field Used as Prediction Field Pixel Position of Color Difference Component
170 Pixel of reference source Bottom field luminance component
171 Pixel Position of Top Destination Field Luminance Component Used as Prediction Value
172 Pixel of reference source Bottom field color difference component
173: Pixel position of reference destination field color difference component used as predicted value
180 Position where coordinates are to be obtained
Definition position of 181 pixels
200 Motion vector calculation means
201 Reference field coordinates
202 Reference field coordinates
203 motion vector
210 pixel association means
211 motion vector
212 Source field coordinates
213 Reference field coordinates
220 Color difference component motion vector generation means
221 luminance component motion vector
222 color difference component motion vector
230 Selection means
231 Motion vector of luminance component
232 Color difference component motion vector
233 First color difference component motion vector generation means
234 Second color difference component motion vector generating means
235 Third color difference component motion vector generating means
237 Parity of reference field of motion vector
238 Parity of reference field of motion vector
239 Format information
240 selection means
241 Condition judgment table
242 Motion vector of color difference component
243 selector
244 Candidate for first chrominance component motion vector
245 Second color difference component motion vector candidate
246 Third color difference component motion vector candidate
247 Parity of reference field of motion vector
248 Parity of reference field of motion vector
249 Selection information
250 to 255 integer pixels
256 interpolation pixels
260 first color difference component motion vector generating means
261 luminance component motion vector
262 First color difference component motion vector candidate
263 Color difference phase information
270 Second color difference component motion vector generation means
271 luminance component motion vector
272 Second color difference component motion vector candidate
273 format information
280 Third color difference component motion vector generating means
281 luminance component motion vector
282 Third color difference component motion vector candidate
283 format information
300 pixels of reference source Top field luminance component
301 Pixel position of reference destination Bottom field luminance component used as predicted value
302 Reference source Top field Pixel of color difference component
303 Reference destination Bottom field used as prediction value Pixel position of field color difference component
310 pixel of reference source Bottom field luminance component
311 Pixel position of reference destination Top field luminance component used as prediction value
312 Pixel of reference source Bottom field color difference component
313 Pixel position of reference destination field color difference component used as prediction value
Claims (5)
輝度成分の動きベクトルと、Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と、動きベクトルの参照先フィールドと参照元フィールドのパリティから輝度成分の動きベクトルに並行な色差成分の動きベクトルを生成することを特徴とする動画符号化方法。In a moving picture coding method for performing motion compensation prediction between fields for a moving picture signal composed of a plurality of fields,
The motion vector of the luminance component, the format information indicating the sampling position relationship between the luminance and chrominance pixels in the Top field and the Bottom field, and the color difference parallel to the motion vector of the luminance component from the parity of the reference field and the reference source field of the motion vector A moving picture coding method characterized by generating a motion vector of a component.
フィールド間の輝度成分の動きベクトルを生成する輝度成分動きベクトル生成手段と、
Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報と輝度成分の動きベクトルから色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段と、
動きベクトルの参照先フィールドと参照元フィールドのパリティを入力として、色差ベクトルの生成に用いる色差成分動きベクトル生成手段の一つを選択する選択手段を有し、
選択手段で選択された色差成分動きベクトル生成手段によって、色差成分の予測ベクトルを生成することを特徴とする動画符号化方法。In a video encoding method for performing motion compensation prediction between fields for a video signal composed of a plurality of fields,
A luminance component motion vector generating means for generating a motion vector of a luminance component between fields,
A plurality of chrominance component motion vector generation means for generating a chrominance component motion vector from format information indicating a sampling position relationship between luminance and chrominance pixels in the Top field and the Bottom field and a luminance component motion vector;
Having a selection means for selecting one of the chrominance component motion vector generating means used for generating the chrominance vector, with the parity of the reference field and the reference source field of the motion vector being input,
A moving image encoding method, wherein a prediction vector of a color difference component is generated by a color difference component motion vector generation unit selected by the selection unit.
参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択される第一の色差成分動きベクトル生成手段と、
参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択される第ニの色差成分動きベクトル生成手段と、
参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択される第三の色差成分動きベクトル生成手段とを有することを特徴とする動画像符号化方法。The color difference component motion vector generation unit according to claim 2, wherein the color difference component motion vector generation unit generates a color difference component motion vector from the luminance component motion vector.
When the reference destination field and the reference source field have the same parity, first color difference component motion vector generation means selected by the selection means,
A second color difference component motion vector generation unit selected by the selection unit when the reference destination field is a Top field and the reference source field is a Bottom field;
A moving image encoding method, comprising: a third chrominance component motion vector generation unit selected by a selection unit when a reference destination field is a Bottom field and a reference source field is a Top field.
輝度成分の動きベクトルと
Topフィールド及びBottomフィールドにおける輝度と色差の画素のサンプリング位置関係を示すフォーマット情報から色差成分の動きベクトルを生成する複数の色差成分動きベクトル生成手段と、
動きベクトルの参照先フィールドと参照元フィールドのパリティを入力として、色差ベクトルの生成に用いる色差成分動きベクトル生成手段の一つを選択する選択手段を有し、
選択手段で選択された色差成分動きベクトル生成手段によって、輝度情報の動きベクトル情報から色差成分の予測ベクトルを生成することを特徴とする動画像復号方法。In a video decoding method for performing motion compensation prediction between fields for a video signal composed of a plurality of fields,
A plurality of chrominance component motion vector generating means for generating a chrominance component motion vector from a luminance component motion vector and format information indicating a sampling position relationship between luminance and chrominance pixels in a Top field and a Bottom field;
Having a selection means for selecting one of the chrominance component motion vector generating means used for generating the chrominance vector, with the parity of the reference field and the reference source field of the motion vector being input,
A moving image decoding method, characterized in that a prediction vector of a chrominance component is generated from motion vector information of luminance information by a chrominance component motion vector generation unit selected by the selection unit.
参照先フィールドと参照元フィールドが同じパリティの際に、選択手段により選択される第一の色差成分動きベクトル生成手段と、
参照先フィールドがTopフィールドであり参照元フィールドがBottom フィールドの際に、選択手段により選択される第ニの色差成分動きベクトル生成手段と、
参照先フィールドがBottomフィールドであり参照元フィールドがTop フィールドの際に、選択手段により選択される第三の色差成分動きベクトル生成手段とを有することを特徴とする動画像復号方法。The color difference component motion vector generation unit according to claim 4, wherein the color difference component motion vector generation unit generates a color difference component motion vector from the luminance component motion vector.
When the reference destination field and the reference source field have the same parity, first color difference component motion vector generation means selected by the selection means,
A second color difference component motion vector generation unit selected by the selection unit when the reference destination field is a Top field and the reference source field is a Bottom field;
When the reference field is a Bottom field and the reference source field is a Top field, the method further comprises a third color difference component motion vector generation unit selected by the selection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002349177A JP4144339B2 (en) | 2002-11-29 | 2002-11-29 | Video encoding method and video decoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002349177A JP4144339B2 (en) | 2002-11-29 | 2002-11-29 | Video encoding method and video decoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004186839A true JP2004186839A (en) | 2004-07-02 |
JP4144339B2 JP4144339B2 (en) | 2008-09-03 |
Family
ID=32751806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002349177A Expired - Fee Related JP4144339B2 (en) | 2002-11-29 | 2002-11-29 | Video encoding method and video decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4144339B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009021907A (en) * | 2007-07-13 | 2009-01-29 | Fujitsu Ltd | Moving image encoding apparatus and method |
JP2013520876A (en) * | 2010-02-18 | 2013-06-06 | クゥアルコム・インコーポレイテッド | Chrominance high-precision motion filtering for motion interpolation |
JP2013543713A (en) * | 2010-10-13 | 2013-12-05 | クゥアルコム・インコーポレイテッド | Adaptive motion vector resolution signaling for video coding |
US9237355B2 (en) | 2010-02-19 | 2016-01-12 | Qualcomm Incorporated | Adaptive motion resolution for video coding |
WO2017126899A3 (en) * | 2016-01-19 | 2018-07-19 | Samsung Electronics Co., Ltd. | Methods and systems for reconstructing a high frame rate high resolution video |
-
2002
- 2002-11-29 JP JP2002349177A patent/JP4144339B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009021907A (en) * | 2007-07-13 | 2009-01-29 | Fujitsu Ltd | Moving image encoding apparatus and method |
JP4678015B2 (en) * | 2007-07-13 | 2011-04-27 | 富士通株式会社 | Moving picture coding apparatus and moving picture coding method |
JP2013520876A (en) * | 2010-02-18 | 2013-06-06 | クゥアルコム・インコーポレイテッド | Chrominance high-precision motion filtering for motion interpolation |
US9237355B2 (en) | 2010-02-19 | 2016-01-12 | Qualcomm Incorporated | Adaptive motion resolution for video coding |
JP2013543713A (en) * | 2010-10-13 | 2013-12-05 | クゥアルコム・インコーポレイテッド | Adaptive motion vector resolution signaling for video coding |
US10327008B2 (en) | 2010-10-13 | 2019-06-18 | Qualcomm Incorporated | Adaptive motion vector resolution signaling for video coding |
WO2017126899A3 (en) * | 2016-01-19 | 2018-07-19 | Samsung Electronics Co., Ltd. | Methods and systems for reconstructing a high frame rate high resolution video |
US11146762B2 (en) | 2016-01-19 | 2021-10-12 | Samsung Electronics Co., Ltd. | Methods and systems for reconstructing a high frame rate high resolution video |
Also Published As
Publication number | Publication date |
---|---|
JP4144339B2 (en) | 2008-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100788569B1 (en) | Motion picture decoding device and method thereof | |
JP4158442B2 (en) | Video encoding method and video decoding method | |
JP4144339B2 (en) | Video encoding method and video decoding method | |
JP3946722B2 (en) | Video encoding device | |
JP3946759B1 (en) | Moving picture decoding method and moving picture decoding apparatus | |
JP3946758B1 (en) | Moving picture decoding method and moving picture decoding apparatus | |
JP3946760B1 (en) | Moving picture coding method and moving picture coding apparatus | |
JP3946761B1 (en) | Moving picture coding method and moving picture coding apparatus | |
JP3946721B2 (en) | Video decoding device | |
JP3946723B2 (en) | Video encoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080527 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4144339 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |