JP2011199362A - 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 - Google Patents
動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 Download PDFInfo
- Publication number
- JP2011199362A JP2011199362A JP2010060855A JP2010060855A JP2011199362A JP 2011199362 A JP2011199362 A JP 2011199362A JP 2010060855 A JP2010060855 A JP 2010060855A JP 2010060855 A JP2010060855 A JP 2010060855A JP 2011199362 A JP2011199362 A JP 2011199362A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- vector
- block
- time interval
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 54
- 239000013598 vector Substances 0.000 claims abstract description 688
- 238000004364 calculation method Methods 0.000 claims description 52
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000001172 regenerating effect Effects 0.000 claims description 4
- 238000013139 quantization Methods 0.000 description 58
- 230000002123 temporal effect Effects 0.000 description 34
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 8
- 230000002457 bidirectional effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- FGXWKSZFVQUSTL-UHFFFAOYSA-N domperidone Chemical compound C12=CC=CC=C2NC(=O)N1CCCN(CC1)CCC1N1C2=CC=C(Cl)C=C2NC1=O FGXWKSZFVQUSTL-UHFFFAOYSA-N 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【解決手段】動画像符号化装置1は、符号化済みピクチャのうちの第1の参照ピクチャ上で、動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと符号化対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする時間ダイレクトモード用の基準ベクトルを算出する。
【選択図】図1
Description
このような符号化方式では、符号化対象のピクチャと、その前後のピクチャの情報を用いて、符号化対象のピクチャを符号化するインター符号化方法が採用されている。インター符号化方法では、符号化対象のピクチャが複数のブロックに分割される。そして、各ブロックに対して、ピクチャ間での動きを補償するために、前後の既に符号化されたピクチャを復号した参照ピクチャから、最も類似している領域がブロックマッチングにより求められる。そして、その最も類似する領域と、符号化対象ブロックとの空間的な移動量が動きベクトルとして算出される。この動きベクトルを用いて、参照ピクチャ上の符号化対象ブロックと最も類似するブロックを、符号化対象ブロックとピクチャ上の同じ位置に移動することにより、予測画像が生成される。そして予測画像と符号化対象ブロックとの差分情報と動きベクトルとが符号化される。そのため、インター符号化方法は、冗長な情報を取り除くことができるので、一般に、符号化対象の1枚のピクチャ内に含まれる情報のみを用いてそのピクチャを符号化するイントラ符号化方法の圧縮効率よりも高い圧縮効率を達成することができる。
また、動き補償の精度を向上するために、符号化対象ピクチャと複数の参照ピクチャとの間で算出された複数の動きベクトルを用いて動き補償する方法が開発されている(例えば、特許文献1を参照)。さらに、ブロックマッチングを行う参照ピクチャ上の探索範囲を、対象ブロック周囲の動きベクトルのばらつき度合いに応じて決定する技術が提案されている(例えば、特許文献2を参照)。
このような場合、(t1/t2)が1よりも大きいので、符号化対象ブロックの動きベクトルの時間方向の長さが、基準ベクトルの時間方向の長さよりも長くなる。その結果として、符号化対象ブロックの動きベクトルの動き補償精度が粗くなるので、符号化対象ブロックに対する予測画像の予測精度が低下してしまい、予測画像と符号化対象ブロックとの相違が大きくなって符号化効率が低下するおそれがあった。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
この動画像符号化装置は、双方向予測ピクチャである符号化対象ピクチャの着目ブロックの動きベクトルを時間ダイレクトモードにて決定する際、参照ピクチャ上で着目ブロックと同じ位置にある参照ブロックの動きベクトルを基準候補ベクトルとする。そしてこの動画像符号化装置は、基準候補ベクトルの参照先のブロックが含まれるピクチャである過去参照ピクチャを検出する。動画像符号化装置は、参照ピクチャと過去参照ピクチャ間の時間間隔が、符号化対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔よりも短い場合、参照ブロックが参照する過去参照ピクチャ上の第2の参照ブロックの動きベクトルを求める。そしてこの動画像符号化装置は、第1の参照ブロックの動きベクトルと、第2の参照ブロックの動きベクトルとを加算して、着目ブロックに対する基準ベクトルを決定する。これにより、この動画像符号化装置は、基準ベクトルの参照元と参照先のピクチャ間の時間間隔を符号化対象ピクチャと基準ベクトルの参照先のピクチャ間の時間間隔よりも長くすることで、時間ダイレクトモードにおける動きベクトルの動き補償精度を向上する。
また、イントラ符号化のみの対象となり、インター符号化されないピクチャをIピクチャと表記する。
動画像符号化装置1が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像符号化装置1が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像符号化装置1に実装されてもよい。さらに、動画像符号化装置1が有するこれらの各部は、動画像符号化装置1が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
例えば、各マクロブロックは、横16×縦16画素を含む。あるいは、各マクロブロックは、横8×縦8画素を含んでもよい。
予測誤差信号生成部11は、入力されたマクロブロックと、予測画像生成部19により生成された予測画像との差分演算を実行する。そして直交変換・量子化部12は、その差分演算により得られたマクロブロック内の各画素に対応する差分値を、予測誤差信号とする。
予測誤差信号生成部11は、予測誤差信号を直交変換・量子化部12へ渡す。
あるいは、水平方向及び垂直方向の周波数成分のそれぞれに対応する量子化幅を規定する量子化マトリクスが、予め複数準備され、直交変換・量子化部12が有するメモリに記憶される。そして直交変換・量子化部12は、量子化パラメータにしたがって、それら量子化マトリクスのうちの特定の量子化マトリクスを選択する。そして直交変換・量子化部12は、選択された量子化マトリクスを参照して、周波数信号の各周波数成分に対する量子化幅を決定してもよい。
直交変換・量子化部12は、量子化処理を実行することにより、周波数信号の各周波数成分を表すために使用されるビットの数を削減できるので、入力されたマクロブロックに含まれる情報量を低減できる。直交変換・量子化部12は、量子化信号を可変長符号化部13及び復号部14に供給する。
復号部14は、得られた参照画像を参照画像記憶部15に記憶させる。
動きベクトル計算部16は、入力されたマクロブロックと、参照画像とのブロックマッチングを実行することにより、入力されたマクロブロックと最も一致する参照画像及びその参照画像が含まれるピクチャ上での位置を決定する。
動きベクトル計算部16は、求めた動きベクトルを、動きベクトル記憶部17、予測モード判定部21、予測画像生成部22及び符号化部10へ渡す。
図2において、ピクチャP1〜P8は、左から順に時間順に並べられており、それぞれフィールドである。このうち、ピクチャP1、B3、B5及びP7は、元のフレームの奇数行のデータを含むトップフィールドであり、一方、ピクチャP2、B4、B6及びP8は、元のフレームの偶数行のデータを含むボトムフィールドである。またピクチャP1とピクチャP2は、同一のフレームに含まれ、パリティの異なるフィールドである。同様に、ピクチャB3とピクチャB4、ピクチャB5とピクチャB6、及びピクチャP7とピクチャP8は、それぞれ同一のフレームに含まれ、パリティの異なるフィールドである。
また、ピクチャP1、P2、P7及びP8はPピクチャであり、一方、ピクチャB3〜B6はBピクチャである。このように、ピクチャP1〜P8のGOPは、いわゆるIBBPとなっている。そのため、符号化順序は、P1→P2→P7→P8→B3→B4→B5→B6の順序である。ここでは、BピクチャであるピクチャB3が符号化対象ピクチャであり、ブロック201が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
図2に示された例では、時間間隔tdの方が時間間隔tbよりも長い。そのため、基準ベクトルmvColに含まれる動き予測の誤差がtb/tdに応じて小さくなる。したがって、ブロック201に写っている像とブロック202に写っている像が同じ方向及び同じ移動量で動いていると、基準ベクトルmvColから算出される動きベクトルは、高い動き予測精度を持つことができる。
図3の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック301が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
図3に示された例では、時間間隔tdの方が時間間隔tbよりも短い。そのため、基準ベクトルmvColに含まれる動き予測の誤差がtb/tdに応じて大きくなる。この例では、tbがtdの3倍となっているので、mvL0、mvL1に含まれる動き予測の誤差は、それぞれ、基準ベクトルに含まれる動き予測の誤差の3倍、4倍となる。したがって、ブロック301に写っている像とブロック302に写っている像が同じ方向及び同じ移動量で動いていたとしても、基準ベクトルmvColから算出される動きベクトルが持つ動き予測精度は低くなる可能性がある。
また、例えば、H.264 MPEG-4 AVCに準拠した動画像符号化装置は、1/4画素単位で動き補償を行うことができる。しかし、上記のように、tb/tdが1よりも大きいと、時間ダイレクトモードにおいて算出される動きベクトルの水平方向及び垂直方向の移動量は、(1)式に従って、基準ベクトルの水平方向及び垂直方向の移動量に1よりも大きい係数を乗じた値となる。このように、従来技術による動画像符号化装置は、動画像補償における移動量の最小単位よりも大きい単位でしか動き補償を行うことができない。
図4の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック401が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
そこで、本実施形態による動画像符号化装置1は、ブロック402について求められた動きベクトルMV1(Vx1,Vy1)に、ブロック403について求められた動きベクトルMV2(Vx2,Vy2)を加算することにより基準ベクトルmvCol(Vx,Vy)を算出する。
このように基準ベクトルを算出することにより、基準ベクトルの参照元となる参照ピクチャP8と、その基準ベクトルの参照先となるピクチャP1間の時間間隔td'は、ピクチャB4とピクチャP1間の時間間隔tb'よりも長くなる。このため、ブロック401に写っている像とブロック402、404に写っている像が同じ方向及び同じ移動量で動いていると、基準ベクトルmvColから算出される動きベクトルは、高い動き予測精度を持つことができる。
なお、参照ブロックは、参照ピクチャ上で入力されたマクロブロックと同じ位置にあるブロックとすることができる。あるいは、参照ブロックは、その参照ブロックを参照元とする動きベクトルの延長線上に入力されたマクロブロックが存在するブロックであってもよい。
ピクチャ間隔比較部18は、参照ブロックが含まれる参照ピクチャと、基準候補ベクトルが参照する参照先のピクチャである過去参照ピクチャ間の時間間隔tdと、符号化対象ピクチャと過去参照ピクチャ間の時間間隔tbとを比較する。そしてピクチャ間隔比較部18は、tbがtdよりも長いか否かの判定結果を基準ベクトル決定部19に通知する。
あるいは、ピクチャ間隔比較部18は、符号化対象ピクチャと参照ピクチャとの時間間隔tb2が、時間間隔tdよりも長いか否かの判定結果を基準ベクトル決定部19に通知してもよい。さらに、ピクチャ間隔比較部18は、tbがtdよりも長いか否かの判定結果と、tb2がtdよりも長いか否かの判定結果の両方を基準ベクトル決定部19に通知してもよい。
具体的には、時間間隔tb及びtb2よりも時間間隔tdの方が長い場合、基準ベクトル決定部19は、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。すなわち、基準ベクトル決定部19は、入力されたマクロブロックが含まれる符号化対象ピクチャの直前において符号化された参照ピクチャ上で、入力されたマクロブロックと同じ位置にあるマクロブロックについての動きベクトルを基準ベクトルとする。
なお、ピクチャ間隔比較部18がtbとtdとの比較結果のみを基準ベクトル決定部19に通知する場合、基準ベクトル決定部19は、tbよりも時間間隔tdの方が長い場合、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。また、ピクチャ間隔比較部18がtb2とtdとの比較結果のみを基準ベクトル決定部19に通知する場合、基準ベクトル決定部19は、tb2よりも時間間隔tdの方が長い場合、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。
ダイレクト動きベクトル計算部20は、算出した二つの動きベクトルmvL0、mvL1を予測モード判定部21へ渡す。
さらに、符号化対象のピクチャのタイプがBピクチャであれば、予測モード判定部21は、適用される予測モードを、イントラ符号化モード、前方向予測モード、後方向予測モード、双方向予測モード及び時間ダイレクトモードの中から選択する。
各モードに対するコストは、例えば、次のように計算される。
なお、予測モード判定部21は、特定の予測モード、例えば、時間ダイレクトモードが選択され易くなるように、または選択され難くなるように、(3)式によって算出されるその特定の予測モードのコスト値にオフセット値を加えるか、補正係数を乗じてもよい。
予測モード判定部21は、選択した予測モードを予測画像生成部22に通知する。
また、入力されたマクロブロックが双方向予測モードまたは時間ダイレクトモードによってインター符号化される場合、予測画像生成部22は、二つの動きベクトルのそれぞれによって特定された参照画像を、その対応する動きベクトルで動き補償する。そして予測画像生成部22は、動き補償により得られた二つの補償画像の対応する画素間で画素値を平均することにより予測画像を生成する。あるいは、予測画像生成部22は、その二つの補償画像の対応する画素の値に、対応する動きベクトルの時間方向の長さが短いほど大きい重み係数を乗じて加重平均することにより、予測画像を生成してもよい。ただし、時間ダイレクトモードによってインター符号化される場合、予測画像生成部22は、ダイレクト動きベクトル計算部20によって算出された二つの動きベクトルを利用する。
予測画像生成部22は、生成された予測画像を予測誤差信号生成部11へ渡す。
動きベクトル計算部16は、入力されたマクロブロックで参照される可能性の有る参照画像を参照画像記憶部15から読み込む。そして動きベクトル計算部16は、参照画像及び入力されたマクロブロックに基づいて動きベクトルを算出する(ステップS101)。動きベクトル計算部16は、求めた動きベクトルを、その動きベクトルの参照元である入力マクロブロックが含まれる符号化対象ピクチャのピクチャ番号及び参照先のピクチャのピクチャ番号とともに動きベクトル記憶部17に記憶させる。また動きベクトル計算部16は、求めた動きベクトルを予測モード判定部21へ渡す。
一方、時間間隔tbあるいはtb2が時間間隔tdよりも長い場合(ステップS104−Yes)、基準ベクトル決定部19は、基準候補ベクトルMV1(Vx1,Vy1)の参照先のマクロブロックを参照元とする動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部17から読み込む。そして基準ベクトル決定部19は、基準候補ベクトルMV1(Vx1,Vy1)と動きベクトルMV2(Vx2,Vy2)の和を、基準ベクトルmvCol(Vx,Vy)とする(ステップS106)。
ダイレクト動きベクトル計算部20は、基準ベクトルの参照先及び参照元のピクチャ間の時間間隔tdと、符号化対象ピクチャと基準ベクトルの参照先のピクチャ間の時間間隔tbを算出する。そしてダイレクト動きベクトル計算部20は、基準ベクトルと、時間間隔tbとtdとの比(tb/td)を(1)式に入力することにより、二つの動きベクトルmvL0、mvL1を算出する(ステップS107)。ダイレクト動きベクトル計算部20は、求めた二つの動きベクトルを予測モード判定部21へ渡す。
予測モード判定部21は、選択した予測モードを予測画像生成部22へ通知する。
また、符号化部10の可変長符号化部13は、量子化信号及び動きベクトルなどの関連情報を可変長符号化する(ステップS113)。そして可変長符号化部13は、可変長符号化された符号化データを出力する。
そして動画像符号化装置1は、一つのマクロブロックに対する動画像符号化処理を終了する。
なお、上記のように、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部19は、参照ブロックに含まれるサブブロックごとに、過去参照ピクチャ上の対応するブロックを決定する。すなわち、基準ベクトル決定部19は、各サブブロックの中心位置に、そのサブブロックの動きベクトルを加えた位置が含まれる、過去参照ピクチャ上のサブブロックを対応サブブロックとして決定する。そして基準ベクトル決定部19は、対応サブブロックについて求められた動きベクトルを、基準ベクトルを決定するための動きベクトルMV2(Vx2,Vy2)とする。
同様に、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部19は、参照ブロックに含まれる着目サブブロックを、そのサブブロックについての動きベクトルで移動させた移動サブブロックを求めてもよい。そして基準ベクトル決定部19は、過去参照ピクチャ上の各サブブロックのうち、移動サブブロックと少なくとも一部が重なるサブブロックについての動きベクトルを、その重なった領域の面積で加重平均する。基準ベクトル決定部19は、その加重平均された動きベクトルを、着目するサブブロックの動きベクトルMV2(Vx2,Vy2)としてもよい。
図6に示されるように、この例では、移動サブブロック601は、過去参照ピクチャのサブブロック611〜614と重なっている。移動サブブロック601の左上端点の座標は(msbl, msbt)であり、移動サブブロック601の右下端点の座標は(msbr, msbb)である。なお、移動サブブロック601の移動元となる、参照ピクチャ上の着目サブブロックの左上端点及び右下端点の座標が、それぞれ(sbl, sbt)、(sbr, sbb)であり、着目サブブロックの動きベクトルがMV1(Vx1,Vy1)であれば、それらの座標に以下の関係がある。
(msbl, msbt) = (sbl+Vx1, sbt+Vy1)
(msbr, msbb) = (sbr+Vx1, sbb+Vy1)
この場合、移動サブブロック601とサブブロック611〜614のそれぞれとが重なる領域621〜624の面積s1〜s4は、以下のようになる。
S1 = (Rsbx2 - msbl) * (Rsby2 - msbt)
S2 = (msbr - Rsbx2) * (Rsby2 - msbt)
S3 = (Rsbx2 - msbl) * (msbb - Rsby2)
S4 = (msbr - Rsbx2) * (msbb - Rsby2)
そこで、サブブロック611〜614のそれぞれの動きベクトルがMVs1(Vxs1,Vys1)〜MVs4(Vxs4,Vys4)であれば、着目サブブロックの基準ベクトルを決定するための動きベクトルMV2(Vx2,Vy2)の水平方向移動量Vx2及び垂直方向移動量Vy2は、次のように求められる。
Vx2 = (S1 * Vxs1 + S2 * Vxs2 + S3 * Vxs3 + S4 * Vxs4)/(S1+S2+S3+S4)
Vy2 = (S1 * Vys1 + S2 * Vys2 + S3 * Vys3 + S4 * Vys4)/(S1+S2+S3+S4)
他の実施形態によれば、基準ベクトル決定部19は、基準ベクトルを、参照ピクチャ上の参照ブロックの基準候補ベクトルMV1(Vx1,Vy1)の参照先である過去参照ピクチャ上のマクロブロックについての動きベクトルMV2(Vx2,Vy2)に基づいて算出する。例えば、基準ベクトル決定部19は、次式に従って基準ベクトルmvCol(Vx,Vy)を算出する。
図7に示されたピクチャP1〜P8も、フィールドである。また図7に示されたピクチャP1〜P8のピクチャタイプ及び符号化順序は、それぞれ、図2に示されたピクチャP1〜P8とのピクチャタイプ及び符号化順序と同一である。
図7の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック701が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
そこで、基準ベクトル決定部19は、ブロック703についての動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部17から読み込む。そして基準ベクトル決定部19は、(3)式に従って基準ベクトルmvCol(Vx,Vy)を算出する。ここで時間間隔taは、MV2(Vx2,Vy2)の参照先のブロック704が含まれるピクチャP1と過去参照ピクチャP7との時間間隔であり、時間間隔td'は、ピクチャP1と参照ピクチャP8間の時間間隔である。すなわち、基準ベクトルの参照先のピクチャがピクチャP1となり、基準ベクトルの参照元のピクチャがP8となる。なお、Vx2、Vy2は、それぞれ、ブロック704と、ブロック703との水平方向の位置の差及び垂直方向の位置の差である。
なお、この実施形態においても、ブロック701の二つの動きベクトルmvL0、mvL1は、それぞれ(1)式により決定される。ただし、動きベクトルmvL0は、ピクチャP1を参照先とする動きベクトルである。また、動きベクトルmvL1は、ピクチャP8を参照先とする動きベクトルである。
図8において、ピクチャP1及びP7はPピクチャであり、一方、ピクチャB2〜B6はBピクチャである。このうち、ピクチャB3及びB5は、他のBピクチャが参照可能なピクチャである。符号化順序は、P0→P7→B3→B5→B2→B4→B6の順序であるとする。この例では、BピクチャであるピクチャB2が符号化対象ピクチャであり、ブロック801が着目するブロックである。このとき、ピクチャP1、B3、B5及びP7については符号化が完了している。
なお、ピクチャB5はBピクチャであるため、ブロック802に対して二つの動きベクトルが規定されている可能性がある。この場合、基準ベクトルを決定するための動きベクトルMV1(Vx1,Vy1)として、例えば、H.264 MPEG-4 AVCに規定される、List0に示される動きベクトルが優先的に利用される。そして、例えば、予測モード判定の結果などにより、List0に示される動きベクトルが存在しない場合に、List1に示される動きベクトルが動きベクトルMV1(Vx1,Vy1)として利用される。
そこで、ピクチャ間隔比較部18は、参照ピクチャと過去参照ピクチャの両方が、符号化対象ピクチャよりも時間的に後側にある場合、tb2がtdよりも長いとの判定結果を基準ベクトル決定部19へ通知してもよい。
また、ピクチャ間隔比較部18は、参照ピクチャと過去参照ピクチャの両方が、符号化対象ピクチャよりも時間的に前側にある場合、tbがtdよりも長いとの判定結果を基準ベクトル決定部19へ通知してもよい。
この場合も、基準ベクトル決定部19は、(2)式または(4)式に従って基準ベクトルmvCol(Vx,Vy)を求めることができる。
動画像復号装置3が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像復号装置3が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像復号装置3に実装されてもよい。さらに、動画像復号装置3が有するこれらの各部は、動画像復号装置3が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
また予測モード判定部32は、着目するマクロブロックに対して適用された予測モードを予測画像生成部37へ通知する。
ピクチャ間隔比較部34は、復号対象のピクチャにおいて着目するマクロブロックと、直前に復号されている参照ピクチャ上で対応する位置にある参照ブロックを参照元とする動きベクトルを動きベクトル記憶部33から読み出し、基準候補ベクトルとする。そしてピクチャ間隔比較部34は、基準候補ベクトルの参照先のマクロブロックが含まれるピクチャを過去参照ピクチャとする。そしてピクチャ間隔比較部34は、復号対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長いか否か判定する。なお、その判定方法の詳細は、動画像符号化装置1のピクチャ間隔比較部18についての説明を参照されたい。そしてピクチャ間隔比較部34は、その判定結果を基準ベクトル決定部35に通知する。
なお、参照ブロックは、参照ピクチャ上で着目するマクロブロックと同じ位置にあるマクロブロックとすることができる。あるいは、参照ブロックは、基準候補ベクトルの延長線上に着目するマクロブロックが存在する参照ピクチャ上のマクロブロックとしてもよい。
一方、復号対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合、基準ベクトル決定部35は、基準候補ベクトルの参照先のマクロブロックを参照元とする動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部33から読み出す。そして基準ベクトル決定部35は、動きベクトルMV2(Vx2,Vy2)に基づいて、上記の(2)式または(4)式に従って基準ベクトルを決定する。基準ベクトル決定部35は、基準ベクトルをダイレクト動きベクトル計算部36へ渡す。
予測画像生成部37は、記憶部39から、着目するマクロブロックを符号化する際に用いられた参照画像を読み込む。そして適用された予測モードが前方向予測モードまたは後方向予測モードなど、インター符号化モードの何れかであれば、予測画像生成部37は動きベクトルを用いてその参照画像を動き補償することにより予測画像を生成する。その際、予測モードが時間ダイレクトモードであれば、予測画像生成部37はダイレクト動きベクトル計算部36により算出された二つの動きベクトルを用いて動き補償を行う。
また、適用された予測モードがイントラ符号化モードであれば、予測画像生成部37は、そのイントラ符号化モードのうちの適用された予測画像生成モードに従って参照画像から予測画像を生成する。
予測画像生成部37は、生成した予測画像を復号部38へ渡す。
可変長復号部31は、マクロブロック単位で符号化されているデータを可変長復号することにより、量子化された予測誤差信号及び動きベクトルを再生する(ステップS201)。可変長復号部31は、再生した動きベクトルを予測画像生成部37及び動きベクトル記憶部33へ渡す。また可変長復号部31は、量子化された予測誤差信号を復号部38へ渡す。
また、予測モード判定部32は、符号化された動画像データに含まれるヘッダ情報から、復号対象ピクチャの着目するマクロブロックに対して適用された予測モードを特定する(ステップS202)。そして予測モード判定部32は、着目するマクロブロックに対して適用された予測モードを予測画像生成部37へ通知する。
また予測モード判定部32は、適用された予測モードが時間ダイレクトモードか否か判定する(ステップS203)。適用された予測モードが時間ダイレクトモードである場合(ステップS203−Yes)、予測モード判定部32は、ピクチャ間隔比較部34、基準ベクトル決定部35及びダイレクト動きベクトル計算部36に、時間ダイレクトモード用の動きベクトルを求めさせる。
一方、時間間隔tbあるいはtb2が時間間隔tdよりも長い場合(ステップS206−Yes)、基準ベクトル決定部35は、基準候補ベクトルMV1(Vx1,Vy1)の参照先のマクロブロックについての動きベクトルMV2(Vx2,Vy2)に基づいて基準ベクトルmvCol(Vx,Vy)を算出する(ステップS208)。具体的には、基準ベクトル決定部35は、(2)式または(4)式に従って基準ベクトルmvCol(Vx,Vy)を算出する。また、参照ブロックを基準候補ベクトルMV1(Vx1,Vy1)を用いて動き補償することにより得られる移動ブロックが、過去参照ピクチャ上の何れのマクロブロックとも完全に一致しないことがある。この場合、基準ベクトル決定部35は、過去参照ピクチャ上の複数のマクロブロックのうち、移動ブロックの中心位置が含まれるマクロブロックの動きベクトルを動きベクトルMV2(Vx2,Vy2)とする。基準ベクトル決定部35は、過去参照ピクチャ上の複数のマクロブロックのうち、移動ブロックと少なくとも一部が重なる領域を持つマクロブロックの動きベクトルを、その領域の面積に応じて加重平均することにより、動きベクトルMV2(Vx2,Vy2)を求めてもよい。
また、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部35は、サブブロックごとに基準ベクトルを求める。
ステップS207またはS208の後、基準ベクトル決定部35は、求めた基準ベクトル及び基準ベクトルの参照先及び参照元のピクチャの番号をダイレクト動きベクトル計算部36へ渡す。
結合部40は、再生されたピクチャを時間順に並べ替えて出力する。
そして動画像復号装置3は、動画像復号処理を終了する。
(付記1)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化装置であって、
前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する符号化部と、
を有する動画像符号化装置。
(付記2)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記基準候補ベクトルに前記第2の動きベクトルを加算することにより、前記基準ベクトルを算出する、付記1に記載の動画像符号化装置。
(付記3)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第2の動きベクトルに、前記第1の時間間隔に対する前記第3の参照ピクチャと前記第1の参照ピクチャ間の時間間隔の比を乗じることにより、前記基準ベクトルを算出する、付記1に記載の動画像符号化装置。
(付記4)
前記時間間隔比較部は、前記第1の参照ピクチャ及び前記第2の参照ピクチャが同一フレームに含まれるフィールドである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、付記1〜3の何れか一項に記載の動画像符号化装置。
(付記5)
前記時間間隔比較部は、前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に後のピクチャである場合、または前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に前のピクチャである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、付記1〜3の何れか一項に記載の動画像符号化装置。
(付記6)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第1の参照ブロックを前記基準候補ベクトルで空間的に移動させた移動ブロックの中心位置が含まれる、前記第2の参照ピクチャ上のブロックを、前記第2の参照ブロックとする、付記1〜5の何れか一項に記載の動画像符号化装置。
(付記7)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第1の参照ブロックを前記基準候補ベクトルで空間的に移動させた移動ブロックと重なる領域を持つ、前記第2の参照ピクチャ上の複数のブロックのそれぞれについての動きベクトルを前記記憶部から読み出し、読み出したそれぞれの動きベクトルを、当該動きベクトルに対応するブロックと前記移動ブロックとが重なる領域の面積に応じて加重平均することにより、前記第2の動きベクトルを算出する、付記1〜5の何れか一項に記載の動画像符号化装置。
(付記8)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化方法であって、
前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
ことを含む動画像符号化方法。
(付記9)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化用コンピュータプログラムであって、
前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
ことをコンピュータに実行させるコンピュータプログラム。
(付記10)
符号化された動画像データを復号する動画像復号装置であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生する可変長復号部と、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する復号部と、
を有する動画像復号装置。
(付記11)
符号化された動画像データを復号する動画像復号方法であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
ことを含む動画像復号方法。
(付記12)
符号化された動画像データを復号する動画像復号用コンピュータプログラムであって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
ことをコンピュータに実行させるコンピュータプログラム。
10 符号化部
11 予測誤差信号生成部
12 直交変換・量子化部
13 可変長符号化部
14 復号部
15 参照画像記憶部
16 動きベクトル計算部
17 動きベクトル記憶部
18 ピクチャ間隔比較部
19 基準ベクトル決定部
20 ダイレクト動きベクトル計算部
21 予測モード判定部
22 予測画像生成部
3 動画像復号装置
31 可変長符号化部
32 予測モード判定部
33 動きベクトル記憶部
34 ピクチャ間隔比較部
35 基準ベクトル決定部
36 ダイレクト動きベクトル計算部
37 予測画像生成部
38 復号部
39 記憶部
40 結合部
Claims (8)
- 動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化装置であって、
前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する符号化部と、
を有する動画像符号化装置。 - 前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記基準候補ベクトルに前記第2の動きベクトルを加算することにより、前記基準ベクトルを算出する、請求項1に記載の動画像符号化装置。
- 前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第2の動きベクトルに、前記第1の時間間隔に対する前記第3の参照ピクチャと前記第1の参照ピクチャ間の時間間隔の比を乗じることにより、前記基準ベクトルを算出する、請求項1に記載の動画像符号化装置。
- 前記時間間隔比較部は、前記第1の参照ピクチャ及び前記第2の参照ピクチャが同一フレームに含まれるフィールドである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、請求項1〜3の何れか一項に記載の動画像符号化装置。
- 前記時間間隔比較部は、前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に後のピクチャである場合、または前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に前のピクチャである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、請求項1〜3の何れか一項に記載の動画像符号化装置。
- 動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化方法であって、
前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
ことを含む動画像符号化方法。 - 符号化された動画像データを復号する動画像復号装置であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生する可変長復号部と、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する復号部と、
を有する動画像復号装置。 - 符号化された動画像データを復号する動画像復号方法であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
ことを含む動画像復号方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010060855A JP5310614B2 (ja) | 2010-03-17 | 2010-03-17 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
US13/038,491 US8553764B2 (en) | 2010-03-17 | 2011-03-02 | Method and device for encoding moving picture and method and device for decoding moving picture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010060855A JP5310614B2 (ja) | 2010-03-17 | 2010-03-17 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011199362A true JP2011199362A (ja) | 2011-10-06 |
JP5310614B2 JP5310614B2 (ja) | 2013-10-09 |
Family
ID=44647233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010060855A Expired - Fee Related JP5310614B2 (ja) | 2010-03-17 | 2010-03-17 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8553764B2 (ja) |
JP (1) | JP5310614B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107483945A (zh) * | 2011-11-08 | 2017-12-15 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6034010B2 (ja) * | 2011-10-24 | 2016-11-30 | ソニー株式会社 | 符号化装置、符号化方法、およびプログラム |
JP2013102297A (ja) * | 2011-11-07 | 2013-05-23 | Canon Inc | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
JP5979848B2 (ja) * | 2011-11-08 | 2016-08-31 | キヤノン株式会社 | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
US9531990B1 (en) * | 2012-01-21 | 2016-12-27 | Google Inc. | Compound prediction using multiple sources or prediction modes |
US8737824B1 (en) | 2012-03-09 | 2014-05-27 | Google Inc. | Adaptively encoding a media stream with compound prediction |
US9185414B1 (en) | 2012-06-29 | 2015-11-10 | Google Inc. | Video encoding using variance |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
FR3002062B1 (fr) * | 2013-02-14 | 2017-06-23 | Envivio France | Systeme et procede de reduction dynamique de l'entropie d'un signal en amont d'un dispositif de compression de donnees. |
US9374578B1 (en) | 2013-05-23 | 2016-06-21 | Google Inc. | Video coding using combined inter and intra predictors |
US9609343B1 (en) | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
US10349071B2 (en) * | 2014-01-15 | 2019-07-09 | Nec Corporation | Motion vector searching apparatus, motion vector searching method, and storage medium storing motion vector searching program |
EP3343923B1 (en) * | 2015-08-24 | 2021-10-06 | Huawei Technologies Co., Ltd. | Motion vector field coding method and decoding method, and coding and decoding apparatuses |
JP7298266B2 (ja) * | 2019-04-19 | 2023-06-27 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004165703A (ja) * | 2002-09-20 | 2004-06-10 | Toshiba Corp | 動画像符号化方法及び復号化方法 |
JP2004208259A (ja) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
JP2005510984A (ja) * | 2001-11-21 | 2005-04-21 | ジェネラル・インストルメント・コーポレーション | デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化 |
JP2007251497A (ja) * | 2006-03-15 | 2007-09-27 | Fujitsu Ltd | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2883585B2 (ja) | 1991-05-31 | 1999-04-19 | 株式会社東芝 | 動画像符号化装置及び動画像符号化方法 |
JP3226020B2 (ja) * | 1997-05-28 | 2001-11-05 | 日本電気株式会社 | 動きベクトル検出装置 |
JP2007067731A (ja) | 2005-08-30 | 2007-03-15 | Sanyo Electric Co Ltd | 符号化方法 |
JP2009021864A (ja) | 2007-07-12 | 2009-01-29 | Canon Inc | 動きベクトル探索装置 |
JP4523024B2 (ja) * | 2007-08-08 | 2010-08-11 | パナソニック株式会社 | 画像符号化装置および画像符号化方法 |
-
2010
- 2010-03-17 JP JP2010060855A patent/JP5310614B2/ja not_active Expired - Fee Related
-
2011
- 2011-03-02 US US13/038,491 patent/US8553764B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005510984A (ja) * | 2001-11-21 | 2005-04-21 | ジェネラル・インストルメント・コーポレーション | デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化 |
JP2004208259A (ja) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
JP2004165703A (ja) * | 2002-09-20 | 2004-06-10 | Toshiba Corp | 動画像符号化方法及び復号化方法 |
JP2007251497A (ja) * | 2006-03-15 | 2007-09-27 | Fujitsu Ltd | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107483945A (zh) * | 2011-11-08 | 2017-12-15 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
CN107483945B (zh) * | 2011-11-08 | 2021-05-14 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5310614B2 (ja) | 2013-10-09 |
US8553764B2 (en) | 2013-10-08 |
US20110228840A1 (en) | 2011-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5310614B2 (ja) | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 | |
JP5373626B2 (ja) | 複数の動きベクトル・プレディクタを使用して動きベクトルを推定する方法、装置、エンコーダ、デコーダ及びデコーディング方法 | |
JP5052134B2 (ja) | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム | |
JP2019115060A (ja) | 符号化装置、符号化方法、復号装置、復号方法、及びプログラム | |
JP4373702B2 (ja) | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム | |
JP4898467B2 (ja) | 可変ブロックサイズ動き予測のための符号化モードの決定方法及び装置 | |
JP3863510B2 (ja) | 動きベクトル符号化/復号化方法及びその装置 | |
JP5277257B2 (ja) | 動画像復号化方法および動画像符号化方法 | |
JP4752631B2 (ja) | 画像符号化装置、及び画像符号化方法 | |
CN110809887A (zh) | 用于多参考预测的运动矢量修正 | |
JP5821542B2 (ja) | 動画像符号化装置、および動画像復号装置 | |
JP4527677B2 (ja) | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム | |
TWI621351B (zh) | 影像預測解碼裝置、影像預測解碼方法及影像預測解碼程式 | |
JP5895469B2 (ja) | 動画像符号化装置、および動画像復号装置 | |
JP5216710B2 (ja) | 復号化処理方法 | |
JP5983430B2 (ja) | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 | |
JP5281597B2 (ja) | 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム | |
KR20110134404A (ko) | 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치 | |
JP5281596B2 (ja) | 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム | |
JP2015035660A (ja) | 画像符号化装置、画像符号化方法、及び画像符号化プログラム | |
JP5533885B2 (ja) | 動画像符号化装置および動画像復号装置 | |
US20130215966A1 (en) | Image encoding method, image decoding method, image encoding device, image decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130617 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5310614 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |