JP5576048B2 - 直接モード符号化及び復号化方法 - Google Patents

直接モード符号化及び復号化方法 Download PDF

Info

Publication number
JP5576048B2
JP5576048B2 JP2009038336A JP2009038336A JP5576048B2 JP 5576048 B2 JP5576048 B2 JP 5576048B2 JP 2009038336 A JP2009038336 A JP 2009038336A JP 2009038336 A JP2009038336 A JP 2009038336A JP 5576048 B2 JP5576048 B2 JP 5576048B2
Authority
JP
Japan
Prior art keywords
motion vector
direct mode
block
reference picture
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009038336A
Other languages
English (en)
Other versions
JP2009201112A (ja
Inventor
光杓 崔
潤濟 呉
永勳 周
炳宇 全
鳳洙 鄭
光▲ヒュン▼ 元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2009201112A publication Critical patent/JP2009201112A/ja
Application granted granted Critical
Publication of JP5576048B2 publication Critical patent/JP5576048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画符号化及び復号化に関し、特に、動画の直接モード符号化及び復号化方法に関する。
国際標準化機構/国際電気標準会議第一合同技術委員会(ISO/IEC JTC1)で定義したMPEG−1、MPEG−2、及びMPEG−4、及び国際電気通信連合(ITU−T)が提唱したH.26x標準などのような映像圧縮国際標準によれば、現在のピクチャの動きを予測符号化するにあたり、過去のピクチャを参照するPピクチャ符号化方法と、過去のピクチャ及び未来のピクチャをすべて参照するBピクチャ符号化方法とがある。また、符号化効率を高めるためには、現在のブロックの動きベクトルをそのまま符号化するのではなく、時空間的に隣接ブロックの動きベクトルとの関連性を反映するように、隣接ブロックの動きベクトルを用いて予測符号化を行う。
したがって、映像の符号化効率を向上させるためには、動きベクトルの正確性及びこれに伴う動き予測エラーの最小化が重要であり、また、動きベクトルデータの圧縮効率も考慮すべきである。
動きベクトルデータの圧縮効率を考慮した従来の方法の1つの例に、直接モード符号化方法がある。これは、時間軸直接モード(temporal direct mode)と空間軸直接モード(spatial direct mode)とに大別することができる。時間軸直接モード符号化方法は、現在のピクチャより時間的に後に位置するバックワード参照ピクチャの同一の位置ブロックが有している動きベクトルが時間的に現在のピクチャに対してバックワード参照ピクチャと正反対方向に位置するフォワード参照ピクチャを示す場合には、その動きベクトルをスケーリングすることにより現在のピクチャの対応するブロックの双方向動きベクトルを導出するものである。空間軸直接モード符号化方法は、現在のピクチャ内で符号化するブロックの空間的な隣接ブロックが有している動きベクトルを取得し、この取得された動きベクトルから双方向動きベクトルを導出する方法である。この2種類の直接モード符号化方法は、動きベクトルを復号化器に送信する必要がないために、相当に高い符号化効率を示す。以下、添付の図面を参照して従来技術の直接モード符号化方法について詳細に説明する。
図1は、一般的な動画符号化での時間軸直接モード符号化方法を示す図である。図1を参照すると、従来技術の時間軸直接モード符号化方法は、下記の式(1)及び式(2)を用いて、バックワード参照ピクチャの同一の位置ブロックから取得した動きベクトルを時間的な距離に対して同等にスケーリングすることにより、双方向動きベクトルを導出する。
Figure 0005576048
この式(1)及び(2)において、TDは、フォワード参照ピクチャからバックワード参照ピクチャまでの時間軸上の距離を示す。TDは、現在の映像からフォワード参照ピクチャまでの時間軸上の距離を示す。mvFwは、バックワード参照ピクチャの同一の位置ブロックが有している動きベクトルとして現在のピクチャに対してバックワードと正反対方向にあるフォワード参照ピクチャを示す動きベクトルである。上述した式(1)からの計算結果であるmvFwは、現在のピクチャのブロックに対するフォワード動きベクトルである。
上述した式(2)において、TD、TD、及びmvFwは、式(1)で表現した意味と同一である。式(2)からの計算結果であるmvBwは、現在のピクチャのブロックがバックワード参照ピクチャを示す動きベクトルである。
上述した式(1)及び式(2)を用いる時間軸直接モード符号化方法において、映像の時間軸相関度が映像の空間軸相関度より大きい場合には、符号化効率は、低くなる。また、バックワード参照ピクチャの同一の位置ブロックがイントラブロックとして符号化される場合には、動きベクトルがないために、このような符号化は、直接モード動きベクトルの算出の際に非効率的である。
図2は、一般的な動画符号化での空間軸直接モード符号化方法を示す図である。図2を参照すると、従来技術の空間軸直接モード符号化方法は、時間軸動きベクトル相関度でない隣接ブロックの空間軸動きベクトル相関度も使用する。このような方法は、下記式(3)及び式(4)を用いて、現在のピクチャのブロックに対して空間的に隣接ブロックから動きベクトルを取得し、現在のブロックに対する双方向動きベクトルを導出する。
Figure 0005576048
上述した式(3)において、変数AFw、BFw、及びCFwは、符号化が終了したブロックのフォワード動きベクトルであり、符号化されるブロックに空間的に隣接したブロックのフォワード動きベクトルを意味する。図2をさらに参照すると、AFwフォワード動きベクトルは、空間軸に対して、現在のブロックの左側にあり、BFwフォワード動きベクトルは、現在のブロックの上側にあり、CFwフォワード動きベクトルは、現在のブロックの右上側にある。また、medianは、中央値関数を意味し、この関数は、一般的に降順又は昇順に整列された入力値の中の中央値を出力する。式(3)からの計算結果は、現在のピクチャのブロックに対するフォワード動きベクトル、すなわち、mvFwである。
上述した式(4)において、変数ABw、BBw、及びCBwは、符号化が終了したブロックのバックワード動きベクトルであり、符号化されるブロックに空間的に隣接したブロックのバックワード動きベクトルを意味する。ここで、ABwバックワード動きベクトルは、空間軸に対して、現在のブロックの左側にあり、BBwは、現在のブロックの上側にあり、CBwは、現在のブロックの右上側にある。medianは、上述した式(3)で説明したような機能をする関数である。式(4)からの計算結果は、現在のピクチャのブロックに対するバックワード動きベクトル、すなわち、mvBwである。
上述したような時間軸又は空間軸直接モード符号化方法は、時間軸又は空間軸相関度の特性を用いてその特性に従って映像の動きを予測することができる。したがって、動きベクトル自体を符号化する必要がなく、ブロックの残余値及びブロック情報だけを符号化することにより、動きベクトルのビット量を相当に減少させることができる。
上述したように、時間軸相関度及び空間軸相関度を用いる従来技術の直接モード符号化方法は、動きベクトルを送信する必要がないために、双方向予測でビット量を効率的に減少させることができる。しかしながら、時間軸に対して、現在のピクチャとバックワード参照ピクチャとの間の距離が遠くなる場合には、動きベクトルを導出することにより予測性能が低下する問題点がある。また、バックワード参照ピクチャの対応するブロックがイントラブロックとして符号化される場合にも、これをただ(0,0)動きベクトルとして見なすことにより直接モードの動きベクトルを算出する。また、フォワード参照ピクチャとバックワード参照ピクチャとの間の映像の動き特性がバックワード動きベクトルによって主に決定されない場合には、相関度が低い動きベクトルが使用されるため、残余値も増加し、これにより、符号化効率が相当に低下する問題点があった。
韓国特許出願公開第2004−0096414号公報(韓国特許出願第2003−7015504号)
したがって、本発明は、上述した従来技術の問題点を解決するために提案されたものであり、その目的は、直接モード符号化でより正確な動きベクトルを導出することにより残余値に必要とされるビット量を減少させ、これにより、効率的な直接モード符号化を行うことができる選択的な直接モード符号化方法及びその復号化方法を提供することにある。
本発明の他の目的は、映像の相関度特性を考慮して直接モードから最適のモードを選択することにより効率的な動きベクトル符号化を行うことができる直接モード符号化方法及びその復号化方法を提供することにある。
上記のような目的を達成するために、本発明の実施形態の一態様によれば、時間軸相関度を考慮して、現在の参照ピクチャに対して、バックワード参照ピクチャの同一の位置ブロックの動きベクトルを取得することにより、現在のブロックの動きベクトルを算出し、フォワード参照ピクチャの同一の位置ブロックの動きベクトルを取得することにより、現在のブロックの動きベクトルを算出し、空間軸相関度を考慮して、上記現在の参照ピクチャのブロックに対して隣接ブロックの動きベクトルを用いて前記現在のブロックの動きベクトルを算出し、最適のモードを選択することを特徴とする。
本発明によれば、直接モードの符号化及び復号化を行うにあたり、従来の時間軸直接モードでバックワード参照ピクチャの同一の位置ブロックがイントラブロックとして符号化されるか、又はフォワード参照ピクチャの同一の位置ブロックとの相関度が高い場合にも、この事実を十分に使用せず、バックワード参照ピクチャの同一の位置ブロックから動きベクトルを取得して使用することにより、不正確な動きベクトルを導出し、全体的に直接モードの符号化ビットが多く発生することによる符号化性能が低下する問題点を解決し、現在のブロックの直接モードを計算する際に、バックワードに基づく時間軸直接モード、フォワードに基づく時間軸直接モード、及び空間軸直接モードの中で符号化効率がよい直接モードを選択して符号化するので、送信する残余値の符号化効率を一層増大させることができる。また、映像の動き特性が時間軸相関度及び空間軸相関度の中で最も高い相関度を選択的に決定するので、符号化及び復号化効率がより向上する。
一般的な動画符号化での時間軸直接モード符号化方法を示す図である。 一般的な動画符号化での空間軸直接モード符号化方法を示す図である。 本発明の一実施形態による動画符号化での時間軸直接モード符号化方法を示す図である。 バックワードに基づく時間軸直接モードでの2個のフォワード双方向予測に対する予測符号化方法を示す図である。 バックワードに基づく時間軸直接モードでの2個のバックワード双方向予測に対する予測符号化方法を示す図である。 フォワードに基づく時間軸直接モードでの2個のフォワード双方向予測に対する予測符号化方法を示す図である。 フォワードに基づく時間軸直接モードでの2個のバックワード双方向予測に対する予測符号化方法を示す図である。 本発明の一実施形態による符号化装置で行われる双方向対称予測符号化動作を説明するフローチャートである。 本発明の一実施形態による復号化装置で行われる双方向対称予測復号化動作を説明するフローチャートである。 本発明による符号化装置の概略的な構成を示すブロック図である。 本発明による復号化装置の概略的な構成を示すブロック図である。
以下、本発明の好適な実施形態について添付図面を参照して詳細に説明する。本発明の詳細な構成要素のような特定の事項は、本発明の実施形態の包括的な理解を助けるために提供される。したがって、本発明の範囲及び趣旨を逸脱することなく、ここに説明された実施形態の様々な変更及び変形が可能であるということは、当該技術分野における通常の知識を有する者には明らかである。また、明瞭性と簡潔性の観点から、当業者に良く知られている機能や構成に関する具体的な説明は、省略する。
本発明の一実施形態による直接モードを符号化する方法は、下記のステップによりなされることができる。
(a)時間軸直接モードで符号化する現在のブロックに対してバックワード参照ピクチャの同一の位置ブロックから動きベクトルを取得するステップ。
(b)取得した動きベクトルをスケーリングすることにより現在のブロックの双方向動きベクトルを導出するステップ。
(c)この双方向動きベクトル及びこの双方向動きベクトルが示す2つの予測ブロックを用いてバックワードに基づく時間軸直接モードで符号化するコストを算出するステップ。
(d)時間軸直接モードで符号化する現在のブロックに対してフォワード参照ピクチャの同一の位置ブロックから動きベクトルを取得するステップ。
(e)取得した動きベクトルをスケーリングすることにより現在のブロックの双方向動きベクトルを導出するステップ。
(f)この双方向動きベクトル及びこの双方向動きベクトルが示す2つの予測ブロックを用いてフォワードに基づく時間軸直接モードで符号化するコストを算出するステップ。
(g)空間軸直接モードで符号化するる現在のブロックに対して隣接ブロックから動きベクトルを取得するステップ。
(h)取得した動きベクトルをスケーリングすることにより現在のブロックの双方向動きベクトルを導出するステップ。
(i)この双方向動きベクトル及びこの双方向動きベクトルが示す2つの予測ブロックを用いて空間軸直接モードで符号化するコストを算出するステップ。
(j)上述したステップ(c)、(f)、及び(i)から算出したコストの中で最も低いコストを有する1つの直接モードを選択するステップ。
(k)上述したステップ(j)から選択された直接モードをシグナリングするステップ。
ステップ(a)及び(b)における時間軸直接モードでバックワード参照ピクチャの同一の位置ブロックから得られた動きベクトルをスケーリングすることにより導出される双方向動きベクトルは、図1に示したような一般的な時間軸直接モード方式と同様に、下記式(5)及び式(6)を用いて算出される。ここで、現在のピクチャのブロックに対するフォワード動きベクトルは、mvFwであり、現在のピクチャのブロックに対するバックワード動きベクトルは、mvBwである。
Figure 0005576048
式(5)及び式(6)での変数は、従来技術の時間軸直接モードで使用された変数と同一である。
一方、本発明のステップ(d)及び(e)でのフォワード参照ピクチャの同一の位置ブロックから得られた動きベクトルをスケーリングすることにより導出される双方向動きベクトルは、図3に示すように、下記式(7)及び式(8)を用いて算出される。
Figure 0005576048
式(7)において、mvFwは、フォワード参照ピクチャの同一の位置ブロックに対応する動きベクトルであり、この動きベクトルは、他のフォワード参照ピクチャを示す。TDは、時間軸に対して、バックワード参照ピクチャからmvFw動きベクトルが示すフォワード参照ピクチャまでの距離である。式(8)の変数の意味は、式(7)の変数の意味と同一である。
一方、本発明に従うステップ(g)及び(h)において、空間軸直接モードでの現在のブロックが予測する双方向動きベクトルは、図2に示したように、下記式(9)及び式(10)を用いて算出される。
Figure 0005576048
上述した式(9)及び式(10)の変数は、空間軸直接モードで従来技術の式(3)及び式(4)で使用された変数の意味と同一である。この際、AFw、BFw、CFw、ABw、BBw、及びCBwは、上述した位置にある必要がないが、これら変数は、現在のブロックに対して符号化が終了した隣接ブロックである場合に、上述した特性から外れない範囲で変形された形態で実現されることができる。
また、この隣接ブロックが有している動きベクトルの中でフォワード方向性を有する動きベクトルが使用不可能な状態の1つの動きベクトルを含む場合には、この使用不可能な状態の動きベクトルを任意の常数値として設定し、その性質を使用可能な状態の動きベクトルに切り替えた後に、動きベクトルを入力し、この式(9)の入力値として計算する。最後に、現在のブロックが予測する双方向動きベクトルの中でフォワード動きベクトルを得ることができる。この設定された任意の常数値は、動きがないことを示す常数値又は動きベクトルが有することができる常数値の範囲内で平均値及びその周辺値の全体を含む。また、使用不可能な状態の動きベクトルが2つある場合には、この使用不可能な状態の動きベクトルを使用可能な状態の動きベクトルと同一の値として設定し、この性質を使用可能な状態の動きベクトルに置き換える。その後に、この動きベクトルを入力し、この式(9)の入力値として計算し、これにより、現在のブロックが予測する双方向動きベクトルの中でフォワード動きベクトルを得ることができるか、又は式(9)を省略し、現在のブロックが予測する双方向動きベクトルの中のフォワード動きベクトルを使用可能な動きベクトルに置き換えることができる。この方法は、フォワード方向だけでなくバックワード方向でも上述した特性から外れない範囲で変形された形態で実現されることができる。
この際、この直接モードは、N×Nの固定されたブロックサイズに適用されることができるだけではなく、従来のH.264符号化標準におけるように、様々なブロックサイズ、すなわち、N1×N2にも適用されることができる。
次いで、本発明の一実施形態による直接モードを復号化する方法は、下記のステップでなされることができる。
(a)入力ビットストリームから現在のブロックを復号化した後に、Bピクチャの現在のブロックが直接モードにあるか否かを判定するステップ。
(b)直接モードにある場合には、この現在のブロックがシグナリング情報を読み出した後に、時間軸直接モード又は空間軸直接モードにあるか否かを判定するステップ。
(c)現在のブロックが時間軸直接モードにある場合には、この現在のブロックが時間軸直接モードであることを示す情報を読み出した後に、この現在のブロックがバックワードに基づく時間軸直接モードにあるか、又はフォワードに基づく時間軸直接モードにあるかを判定するステップ。
(d)ステップ(c)での判定の結果、この現在のブロックがバックワードに基づく時間軸直接モードにあるか、又はフォワードに基づく時間軸直接モードにある場合には、バックワード参照ピクチャ又はフォワード参照ピクチャの同一の位置ブロックの動きベクトルを読み出した後に、この現在のブロックの双方向動きベクトルを算出するステップ。
(e)ステップ(b)での判定の結果、現在のブロックが空間軸直接モードにある場合には、この現在のブロックに密接に隣接した隣接ブロックの動きベクトルを読み出した後に、この現在のブロックの双方向動きベクトルを算出するステップ。
(f)ステップ(d)又はステップ(e)で算出された直接モード双方向動きベクトルを用いて双方向予測方法を適用することにより双方向予測参照ブロックを求めるステップ。
(g)この求められた予測参照ブロックと入力ビットストリームから得られた残余ブロックとを合わせることにより現在のブロックを復元するステップ。
ステップ(d)で復元された時間軸直接モードがバックワードに基づいている場合に、双方向動きベクトルは、下記式(11)及び式(12)を用いて算出される。
Figure 0005576048
上述した式(11)及び式(12)の変数は、式(1)などで使用された変数の意味と同一である。
一方、上述したステップ(d)で復元された時間軸直接モードがフォワードに基づいている場合に、双方向動きベクトルは、下記式(13)及び式(14)を用いて算出される。
Figure 0005576048
上述した式(13)及び式(14)の変数は、式(7)及び式(8)などで使用された変数の意味と同一である。
一方、上述したステップ(e)で復元されたモードが空間軸直接モードである場合に、双方向動きベクトルは、下記式(15)及び式(16)を用いて算出される。
Figure 0005576048
上述した(15)及び式(16)の変数は、上述した式(3)及び式(4)などで使用された変数の意味と同一である。
一方、本発明による動きベクトルを符号化する方法は、B(Bi-predictive)ピクチャの特徴と同一であるので、下記では、Bピクチャについて詳細に説明する。
Bピクチャは、過去ピクチャ及び未来ピクチャを使用することにより動き補償を必ず行わなければならないという制約を受けない。したがって、Bピクチャに従う現在のブロックの動きベクトルは、時間及び方向に独立している。すなわち、Bピクチャは、複数のピクチャを参照して得られるので、この現在のブロックの動きベクトルは、2個のフォワード動きベクトル及び2個のバックワード動きベクトルを用いて符号化及び復号化が可能である。
Bピクチャは、4種類の動き補償モードを有し、これにより、4種類の動きベクトルが存在し、これは、フォワード動きベクトル、バックワード動きベクトル、双方向動きベクトル(Bi-predictive)、及び直接動きベクトルを含む。
上述したように、Bピクチャに従う現在のブロックの動きベクトルは、時間及び方向に独立しているので、“フォワード”及び“バックワード”が必ず特定の時間及び方向で識別されない。また、双方向は、特定の時間又は特定の方向を識別することにより、特定の時点又は特定の位置に対して過去及び未来を必ず含む必要はない。
図4は、バックワードに基づく時間軸直接モードでの2個のフォワード双方向予測に対する予測符号化の一例を示す。本発明に従うと、双方向動きベクトルは、下記式(17)及び式(18)を用いて算出される。
Figure 0005576048
図5は、バックワードに基づく時間軸直接モードでの2個のバックワード双方向予測に対する予測符号化の一例を示す。本発明に従うと、双方向動きベクトルは、下記式(19)及び式(20)を用いて算出される。
Figure 0005576048
図6は、フォワードに基づく時間軸直接モードでの2個のフォワード双方向予測に対する予測符号化の一例を示す。本発明に従うと、双方向動きベクトルは、下記式(21)及び式(22)を用いて算出される。
Figure 0005576048
図7は、フォワードに基づく時間軸直接モードでの2個のバックワード双方向予測に対する予測符号化の一例を示す。本発明に従うと、双方向動きベクトルは、下記式(23)及び式(24)を用いて算出される。
Figure 0005576048
上記のように、直接モード符号化は、Bピクチャに対しても同一の方法で適用可能であり、本発明の範囲を外れることなく様々な形態の変形が可能であることを理解すべきである。
以下、本発明の好ましい実施形態について詳細に説明する。
図8は、本発明の一実施形態による符号化装置で行われる双方向対称予測符号化動作を説明するフローチャートである。
図8を参照すると、ステップS801で、符号化する1つのN×Mブロックが入力されると、ステップS802で、バックワードに基づく時間軸直接モードを予測し、この予測に対するコストを求める。ここで、N×Mのブロックサイズは、NがMと同一であるか、又はNがMとは異なるすべての場合を含む。この後に、ステップS803で、フォワードに基づく時間軸直接モードを予測し、この予測に対するコストを求める。この後に、ステップS804で、空間軸直接モードを予測し、この予測に対するコストを求める。時間軸直接モードの予測の際に又は空間軸直接モードの予測の際に、この手続きは、独立して行われることができ、これにより、並列して行われることができる。空間軸直接モードにおいて、現在のピクチャに隣接した任意のブロックは、動きベクトルを取得して使用することができる候補ブロックとなることができる。ステップS802、ステップS803、及びステップS804が図8の順序で行われる必要はなく、本発明の範囲を外れることなく変形された形態のステップで行われてもよいことを理解すべきである。
ステップS805で、このステップを介して得られたコストを比較して最も低いコストを有する場合を最適の符号化モードとして決定し、このように決定された符号化モードを復号化器にシグナリングする。この際、シグナリングモードの一例は、この決定された符号化モードに関する情報の幾つかのビットをブロックのヘッダーに適切に挿入する方式を使用することができる。したがって、復号化器は、現在のブロックがこのシグナリング情報を通じてバックワードに基づく時間軸直接モードで符号化されるか、フォワードに基づく時間軸直接モードで符号化されるか、又は空間軸直接モードで符号化されるかを判定することができる。また、コストの計算は、最も小さい値を有する歪曲を選択するか又はビット率−歪曲を計算することにより、このコストの計算からの最適の直接モードを決定することができる。
図9は、本発明の一実施形態による復号化装置で行われる双方向対称予測復号化動作を説明するフローチャートである。
図9を参照すると、復号化装置は、本発明による直接モードを復号化し、この復号化装置は、ステップS901乃至ステップS903で、入力ビットストリームから復号化されるブロックの直接モードを求める。この際、バックワードに基づく直接モードである場合には、ステップS904で、バックワード参照ピクチャの同一の位置ブロックから動きベクトルを取得してスケーリングした後に、双方向動きベクトルを導出することにより、双方向予測ブロックを求める。また、フォワードに基づく直接モードである場合には、ステップS905で、フォワード参照ピクチャの同一の位置ブロックから動きベクトルを取得してスケーリングした後に、双方向動きベクトルを導出することにより、双方向予測ブロックを求める。一方、空間軸直接モードである場合には、ステップS906で、現在のブロックで空間軸相関度を有する隣接ブロックから動きベクトルを取得して双方向動きベクトルを導出することにより、双方向予測ブロックを求める。ステップS901、ステップS902、及びステップS903が図9の順序で行われる必要はなく、本発明の範囲を外れることなく変形された形態のステップで行われてもよいことを理解すべきである。
この後に、ステップS907で、この取得された予測ブロックとこの入力ビットストリームから取得された動き予測エラー信号ブロックとを合わせることにより、現在のブロックの映像を復元する。
図10は、本発明による符号化装置の概略的な構成を示すブロック図である。図10を参照して、本発明による符号化装置の動作を行う方式について説明する。符号化される動画は、ピクチャ単位で入力ピクチャメモリ101に入力された後に、符号化が行われる順序に配列される。各ピクチャは、ブロックと呼ばれる、例えば、16(水平)×16(垂直)画素のグループに分割された後に、ブロック単位で処理される。
入力ピクチャメモリ101から読み出されたブロックは、動きベクトル検出部106に入力される。ここで、参照ピクチャメモリ105に記憶されている符号化されたピクチャから復号化された映像を参照ピクチャとして使用し、符号化されるブロックの動きベクトルを検出する。この際、モード選択部107は、動きベクトル検出部106から得られた動きベクトル又は動きベクトル記憶部108に記憶されている符号化されたピクチャからの動きベクトルを参照して適切な予測モードを決定することができる。モード選択部107から得られた予測モード及びこの予測モードで使用された動きベクトルにより決定される予測映像が差分演算部109に入力された後に、予測残差映像は、符号化されるブロックからの差分を求めることにより生成される。この予測残差映像は、予測残差符号化部102で符号化される。また、モード選択部107から得られた予測モードで使用される動きベクトルは、後続のブロック又はピクチャの符号化に使用するために、動きベクトル記憶部108に記憶される。上述した処理の流れは、ピクチャの予測符号化が選択される場合に行われ、スイッチ111は、ピクチャの予測符号化との置換えを行う。最後に、符号列生成部103は、動きベクトルなどのような制御情報及び予測残差符号化部102から出力される映像情報の可変長符号化を行うことにより、符号化装置から出力される符号列を生成する。また、予測残差復号化部104は、予測残差符号化部102からの符号化結果を復号化する。加算部110は、復号化された参照ピクチャを参照ピクチャメモリ105に提供するために、予測残差復号化部104からの復号化結果である予測残差をスイッチ112を介してモード選択部107から提供された参照映像に加算する。
好ましくは、動きベクトル検出部106及びモード選択部107は、フォワード及びバックワード時間軸直接モード予測のほかに空間軸直接モード予測も行うことができ、これに従って、最適の直接モード予測を判定する。
図11は、本発明による復号化装置の概略的な構成を示すブロック図である。図11を参照して、本発明による復号化装置の動作の手続きについて説明する。
図11に示す復号化装置は、本発明による映像符号化方法で生成された符号列を受信する。まず、符号列解析部201は、予測モード情報、動きベクトル情報、及び予測残差符号化データなどを入力された符号列から抽出する。
予測モード又は動きベクトル情報は、予測モード/動きベクトル復号化部208に出力され、予測残差符号化データは、予測残差復号化部202に出力される。予測モード/動きベクトル復号化部208は、予測モードの復号化及びこの予測モードで使用される動きベクトルの復号化を行う。動きベクトルの復号化のためには、動きベクトル記憶部205に記憶されている復号化された動きベクトルを使用する。この復号化された予測モード及び動きベクトルは、動き補償復号化部204に出力される。また、この復号化された動きベクトルは、後続のブロックの動きベクトルの復号化に使用するために、動きベクトル記憶部205に記憶される。動き補償復号部204は、フレームメモリ203に記憶されている復号化が完了したピクチャ復号化映像を参照ピクチャとして使用して入力された予測モード又は動きベクトル情報に従って予測映像を生成する。したがって、この生成された予測映像は、加算部206に入力された後に、復号化された映像を生成するために、予測残差復号化部202から生成された予測残差映像に加算される。上述した動作の手続きは、ピクチャの予測符号化による符号列の場合に行われ、スイッチ207は、ピクチャの予測符号化による符号列の復号化への置換えを行う。
上述したように、本発明の一実施形態による直接モード符号化及び復号化動作がなされることができる。一方、本発明を具体的な実施形態を参照して詳細に説明してきたが、本発明の範囲及び趣旨を逸脱することなく様々な変更が可能であるということは、当業者には明らかである。例えば、上述した説明は、本発明がフォワード及びバックワード時間軸直接モード予測及び空間軸直接モード予測を行い、これらモード予測から1つのモードを判定することができることを示す。しかしながら、本発明の他の実施形態は、空間軸直接モードを使用することなく、フォワード及びバックワード時間軸直接モード予測を行い、このモード予測から最適のモードを判定することもできる。このように、本発明の様々な変形及び変更が可能である。したがって、本発明の範囲は、上述の実施形態に限定されるべきではなく、特許請求の範囲の記載及びこれと均等なものの範囲内で定められる。
101 入力ピクチャメモリ
102 予測残差符号化部
103 符号列生成部
104 予測残差復号化部
105 参照ピクチャメモリ
106 動きベクトル検出部
107 モード選択部
108 動きベクトル記憶部
109 差分演算部
110 加算部
111,112 スイッチ
201 符号列解析部
202 予測残差復号化部
203 フレームメモリ
204 動き補償復号化部
205 動きベクトル記憶部
206 加算部
207 スイッチ
208 予測モード/動きベクトル復号化部

Claims (9)

  1. 動画を符号化する際における符号化器が直接モードにより符号化を遂行する方法であって、
    符号化する入力イメージを受信するステップと、
    前記受信したイメージをメモリに格納するステップと、
    前記メモリから符号化する現在のブロックを出力するステップと、
    前記出力される現在のブロックに対して、バックワード参照ピクチャに位置する同一の位置ブロックを使用する第1の時間軸直接モードとフォワード参照ピクチャに位置する同一の位置ブロックを使用する第2の時間軸直接モードとを含む複数の直接モードに対する各予測及びコストを求めるステップと、
    前記求められたコストを比較して最も低いコストを有する1つの直接モードを最適の符号化モードとして決定し、前記決定されたモードにより符号化を行うステップと、
    前記最適の符号化モードに対する情報を前記符号化を通じて出力されるビットストリームに挿入するステップと、
    を有することを特徴とする符号化方法。
  2. 前記複数の直接モードは、空間軸直接モードをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記空間軸直接モードに対する予測及びコストを求めるステップは、
    前記現在のブロックに対する隣接ブロックから動きベクトルを取得するステップと、
    前記取得した動きベクトルをスケーリングすることにより、前記現在のブロックの双方向動きベクトルを導出するステップと、
    前記双方向動きベクトル及び前記双方向動きベクトルが示す2つの予測ブロックを用いて空間軸直接モードによる符号化コストを算出するステップと、
    を有することを特徴とする請求項2に記載の方法。
  4. 前記第1の時間軸直接モードに対する予測及びコストを求めるステップは、
    前記現在のブロックに対するバックワード参照ピクチャの同一の位置ブロックから動きベクトルを取得するステップと、
    前記取得した動きベクトルをスケーリングすることにより前記現在のブロックの双方向動きベクトルを導出するステップと、
    前記双方向動きベクトル及び前記双方向動きベクトルが示す2つの予測ブロックを用いて第1の時間軸直接モードによる符号化コストを算出するステップと、
    を有することを特徴とする請求項1に記載の符号化方法。
  5. 前記第2の時間軸直接モードに対する予測及びコストを求めるステップは、
    前記現在のブロックに対するフォワード参照ピクチャの同一の位置ブロックから動きベクトルを取得するステップと、
    前記取得した動きベクトルをスケーリングすることにより前記現在のブロックの双方向動きベクトルを導出するステップと、
    前記双方向動きベクトル及び前記双方向動きベクトルが示す2つの予測ブロックを用いて第2の時間軸直接モードによる符号化コストを算出するステップと、
    を有することを特徴とする請求項4に記載の方法。
  6. 前記双方向動きベクトルは、下記の式(1)及び式(2)により定義されることを特徴とする請求項5に記載の方法。
    Figure 0005576048
    ここで、前記mvFw及び前記mvBwは、前記現在のブロックに対するフォワード動きベクトル及びバックワード動きベクトルをそれぞれ示し、前記mvFwは、前記フォワード参照ピクチャの同一の位置ブロックに対応する動きベクトルを示し、前記TDは、前記フォワード参照ピクチャから前記バックワード参照ピクチャまでの時間軸上の距離を示し、前記TDは、現在のピクチャから前記フォワード参照ピクチャまでの時間軸上の距離を示し、前記TDは、前記バックワード参照ピクチャから前記mvFw動きベクトルが示すフォワード参照ピクチャまでの時間軸上の距離を示す。
  7. 動画を復号化する際における復号化器が直接モードにより復号化を遂行する方法であって、
    復号化する入力ビットストリームを受信するステップと、
    前記入力ビットストリームに含まれた最適の符号化モードに対する情報に基づいて現在のブロックの復号化する直接モードを求めるステップと、
    前記求められた現在のブロックの直接モードがバックワード参照ピクチャにおける同一の位置ブロックを使用する第1の時間軸直接モードである場合には、バックワード参照ピクチャで前記現在のブロックと同一の位置に存在する同一の位置ブロックから動きベクトルを取得し、スケーリングした後に、予測ブロックを求めるステップと、
    前記求められた現在のブロックの直接モードがフォワード参照ピクチャにおける同一の位置ブロックを使用する第2の時間軸直接モードである場合には、フォワード参照ピクチャで前記現在のブロックと同一の位置に存在する同一の位置ブロックから動きベクトルを取得し、スケーリングした後に、予測ブロックを求めるステップと、
    記求められた予測ブロックと入力ビットストリームから求められた残余ブロックとを合わせることにより、前記現在のブロックを復元するステップと、
    を有することを特徴とする方法。
  8. 前記現在のブロックの直接モードが空間軸直接モードである場合には、前記現在のブロックと空間軸相関度を有する隣接ブロックから動きベクトルを取得し、動きベクトルを導出することにより、予測ブロックを求めるステップと、
    前記空間軸直接モードに従って求められた前記予測ブロックと前記入力ビットストリームから求められた残余ブロックとを合わせることにより、前記現在のブロックを復元するステップと、
    をさらに含むことを特徴とする請求項7に記載の方法。
  9. 前記現在のブロックの直接モードがフォワードに基づく直接モードである場合に、前記動きベクトルは、下記の式(3)及び式(4)により決定されることを特徴とする請求項7に記載の方法。
    Figure 0005576048
    ここで、前記mvFw及び前記mvBwは、前記現在のブロックに対するフォワード動きベクトル及びバックワード動きベクトルをそれぞれ示し、前記mvFwは、前記フォワード参照ピクチャの同一の位置ブロックに対応する動きベクトルを示し、前記TDは、前記フォワード参照ピクチャから前記バックワード参照ピクチャまでの時間軸上の距離を示し、前記TDは、現在のピクチャから前記フォワード参照ピクチャまでの時間軸上の距離を示し、前記TDは、前記バックワード参照ピクチャから前記mvFw動きベクトルが示すフォワード参照ピクチャまでの時間軸上の距離を示す。
JP2009038336A 2008-02-20 2009-02-20 直接モード符号化及び復号化方法 Active JP5576048B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080015566A KR101505195B1 (ko) 2008-02-20 2008-02-20 직접 모드 부호화 및 복호화 방법
KR10-2008-0015566 2008-02-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013124159A Division JP5580453B2 (ja) 2008-02-20 2013-06-12 直接モード符号化及び復号化装置

Publications (2)

Publication Number Publication Date
JP2009201112A JP2009201112A (ja) 2009-09-03
JP5576048B2 true JP5576048B2 (ja) 2014-08-20

Family

ID=40637791

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009038336A Active JP5576048B2 (ja) 2008-02-20 2009-02-20 直接モード符号化及び復号化方法
JP2013124159A Active JP5580453B2 (ja) 2008-02-20 2013-06-12 直接モード符号化及び復号化装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013124159A Active JP5580453B2 (ja) 2008-02-20 2013-06-12 直接モード符号化及び復号化装置

Country Status (4)

Country Link
US (1) US8804828B2 (ja)
EP (1) EP2094017B1 (ja)
JP (2) JP5576048B2 (ja)
KR (1) KR101505195B1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8526499B2 (en) * 2007-06-15 2013-09-03 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording medium
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
CN101827269B (zh) * 2010-01-15 2012-10-17 香港应用科技研究院有限公司 视频编码方法和装置
CN105025301B (zh) * 2010-01-19 2019-08-23 三星电子株式会社 图像解码设备
CN102835111B (zh) 2010-01-19 2015-08-12 三星电子株式会社 使用先前块的运动矢量作为当前块的运动矢量来对图像进行编码/解码的方法和设备
CN105025298B (zh) * 2010-01-19 2019-04-16 三星电子株式会社 对图像进行编码/解码的方法和设备
KR101420957B1 (ko) * 2010-03-31 2014-07-30 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법
EP3285490B1 (en) * 2010-04-22 2021-03-10 HFI Innovation Inc. Motion prediction method
KR20120009861A (ko) * 2010-07-22 2012-02-02 에스케이 텔레콤주식회사 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
CN106454379B (zh) * 2010-09-30 2019-06-28 三菱电机株式会社 运动图像编码装置及其方法、运动图像解码装置及其方法
KR101950419B1 (ko) 2010-11-24 2019-02-21 벨로스 미디어 인터내셔널 리미티드 움직임 벡터 산출 방법, 화상 부호화 방법, 화상 복호 방법, 움직임 벡터 산출 장치 및 화상 부호화 복호 장치
WO2012073481A1 (ja) * 2010-11-29 2012-06-07 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9635382B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for determining a motion vector
CN106851306B (zh) 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
JP6108309B2 (ja) 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
MX2013009864A (es) 2011-03-03 2013-10-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
JP5768510B2 (ja) * 2011-06-06 2015-08-26 富士通株式会社 動画像符号化方法および動画像符号化装置
EP3849192B1 (en) 2011-06-28 2023-01-11 LG Electronics, Inc. Method for deriving a motion vector for video decoding and video encoding
CN107948656B (zh) * 2011-10-28 2021-06-01 太阳专利托管公司 图像解码方法及图像解码装置
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
CN103634606B (zh) * 2012-08-21 2015-04-08 腾讯科技(深圳)有限公司 视频编码方法和装置
CN104918047B (zh) * 2015-05-29 2018-08-03 北京奇艺世纪科技有限公司 一种双向运动估计的排除方法和装置
US10271062B2 (en) * 2016-03-18 2019-04-23 Google Llc Motion vector prediction through scaling
US10136155B2 (en) 2016-07-27 2018-11-20 Cisco Technology, Inc. Motion compensation using a patchwork motion field
CN109714598B (zh) * 2019-01-31 2021-05-14 上海国茂数字技术有限公司 视频的编码方法、解码方法、处理方法以及视频处理系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5929916A (en) * 1995-12-26 1999-07-27 Legall; Didier J. Variable bit rate encoding
US7643559B2 (en) 2001-09-14 2010-01-05 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US8179963B2 (en) * 2003-07-24 2012-05-15 Panasonic Corporation Coding mode determining apparatus, image coding apparatus, coding mode determining method and coding mode determining program
US7362809B2 (en) * 2003-12-10 2008-04-22 Lsi Logic Corporation Computational reduction in motion estimation based on lower bound of cost function
JP2005348093A (ja) * 2004-06-03 2005-12-15 Sony Corp 画像処理装置、そのプログラムおよびその方法
US7792188B2 (en) * 2004-06-27 2010-09-07 Apple Inc. Selecting encoding types and predictive modes for encoding video data
US7706442B2 (en) * 2005-02-15 2010-04-27 Industrial Technology Research Institute Method for coding mode selection of intra prediction in video compression
WO2006096612A2 (en) * 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
WO2007074543A1 (ja) 2005-12-27 2007-07-05 Sharp Kabushiki Kaisha 動画像復号装置および動画像符号化装置
JP4527677B2 (ja) * 2006-03-15 2010-08-18 富士通株式会社 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
WO2008007792A1 (en) 2006-07-10 2008-01-17 Sharp Kabushiki Kaisha Methods and systems for combining layers in a multi-layer bitstream
WO2008084378A2 (en) * 2007-01-09 2008-07-17 Nokia Corporation Adaptive interpolation filters for video coding
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법

Also Published As

Publication number Publication date
EP2094017B1 (en) 2015-11-04
JP5580453B2 (ja) 2014-08-27
JP2009201112A (ja) 2009-09-03
US8804828B2 (en) 2014-08-12
EP2094017A2 (en) 2009-08-26
EP2094017A3 (en) 2010-06-09
JP2013225892A (ja) 2013-10-31
KR101505195B1 (ko) 2015-03-24
US20090207914A1 (en) 2009-08-20
KR20090090232A (ko) 2009-08-25

Similar Documents

Publication Publication Date Title
JP5576048B2 (ja) 直接モード符号化及び復号化方法
US11516498B2 (en) Image encoding/decoding apparatus and method
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
US9369731B2 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method
CN101595735B (zh) 对视频进行编码和解码的方法和设备
CN103314593B (zh) 错误恢复改进的视频编码和解码
JP5197591B2 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
US20080107180A1 (en) Method and apparatus for video predictive encoding and method and apparatus for video predictive decoding
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
KR100978465B1 (ko) 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및 장치 및 기록매체

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140703

R150 Certificate of patent or registration of utility model

Ref document number: 5576048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250