JP2011199362A - 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 - Google Patents

動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 Download PDF

Info

Publication number
JP2011199362A
JP2011199362A JP2010060855A JP2010060855A JP2011199362A JP 2011199362 A JP2011199362 A JP 2011199362A JP 2010060855 A JP2010060855 A JP 2010060855A JP 2010060855 A JP2010060855 A JP 2010060855A JP 2011199362 A JP2011199362 A JP 2011199362A
Authority
JP
Japan
Prior art keywords
picture
vector
block
time interval
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010060855A
Other languages
English (en)
Other versions
JP5310614B2 (ja
Inventor
Akihiro Yamori
章弘 屋森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010060855A priority Critical patent/JP5310614B2/ja
Priority to US13/038,491 priority patent/US8553764B2/en
Publication of JP2011199362A publication Critical patent/JP2011199362A/ja
Application granted granted Critical
Publication of JP5310614B2 publication Critical patent/JP5310614B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】時間ダイレクトモードにおいて符号化対象ブロックに写っている像の動きに対する動き補償の精度を向上できる動画像符号化装置を提供する。
【解決手段】動画像符号化装置1は、符号化済みピクチャのうちの第1の参照ピクチャ上で、動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと符号化対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする時間ダイレクトモード用の基準ベクトルを算出する。
【選択図】図1

Description

本発明は、例えば、符号化対象ピクチャを他のピクチャの情報を用いて符号化する動画像符号化装置、動画像符号化方法、及び符号化された動画像を復号する動画像復号装置ならびに動画像復号方法に関する。
動画像データは、一般に非常に大きなデータ量を有する。そのため、動画像データを扱う装置は、動画像データを他の装置へ送信しようとする場合、あるいは、動画像データを記憶装置に記憶しようとする場合、動画像データを符号化することにより圧縮する。代表的な動画像の符号化方式として、International Standardization Organization/International Electrotechnical Commission(ISO/IEC)で策定されたMoving Picture Experts Group phase 2(MPEG-2)、MPEG-4、あるいはH.264 MPEG-4 Advanced Video Coding(H.264 MPEG-4 AVC)が広く利用されている。
このような符号化方式では、符号化対象のピクチャと、その前後のピクチャの情報を用いて、符号化対象のピクチャを符号化するインター符号化方法が採用されている。インター符号化方法では、符号化対象のピクチャが複数のブロックに分割される。そして、各ブロックに対して、ピクチャ間での動きを補償するために、前後の既に符号化されたピクチャを復号した参照ピクチャから、最も類似している領域がブロックマッチングにより求められる。そして、その最も類似する領域と、符号化対象ブロックとの空間的な移動量が動きベクトルとして算出される。この動きベクトルを用いて、参照ピクチャ上の符号化対象ブロックと最も類似するブロックを、符号化対象ブロックとピクチャ上の同じ位置に移動することにより、予測画像が生成される。そして予測画像と符号化対象ブロックとの差分情報と動きベクトルとが符号化される。そのため、インター符号化方法は、冗長な情報を取り除くことができるので、一般に、符号化対象の1枚のピクチャ内に含まれる情報のみを用いてそのピクチャを符号化するイントラ符号化方法の圧縮効率よりも高い圧縮効率を達成することができる。
また、動き補償の精度を向上するために、符号化対象ピクチャと複数の参照ピクチャとの間で算出された複数の動きベクトルを用いて動き補償する方法が開発されている(例えば、特許文献1を参照)。さらに、ブロックマッチングを行う参照ピクチャ上の探索範囲を、対象ブロック周囲の動きベクトルのばらつき度合いに応じて決定する技術が提案されている(例えば、特許文献2を参照)。
動きベクトルは、各ブロックに対して作成される。特に、2枚以上の参照ピクチャを用いて予測画像が生成される双方向予測ピクチャに対しては、各ブロックについて複数の動きベクトルが算出される。そこで、圧縮効率をさらに高めるために、動きベクトルの符号化に要する情報量を削減することが望ましい。そこで、H.264 MPEG-4 AVCでは、インター符号化方式の一つとして、双方向予測ピクチャについての動きベクトルに関する符号量を削減するための時間ダイレクトモードが採用されている。時間ダイレクトモードでは、既に符号化されている参照ピクチャP1上で双方向予測ピクチャの符号化対象ブロックと同じ位置にあるブロックの動きベクトルが、符号化対象ブロックの動きベクトルを決定するための基準ベクトルとして求められる。そして、符号化対象ブロックの動きベクトルは、基準ベクトルを、符号化対象ブロックが含まれるピクチャと参照ピクチャP1との時間間隔t1と、基準ベクトルの参照元と参照先のピクチャ間の時間間隔t2との比(t1/t2)で調節することにより算出される。この場合、動画像符号化装置は、基準ベクトルは既に符号化されているので、双方向予測ピクチャについての動きベクトルを符号化された動画像データに含めなくてもよい。そのため、動画像符号化装置は、時間ダイレクトモードを利用することにより、圧縮効率をさらに高めることができる。
また、符号化対象ピクチャの符号化対象ブロックと同じ位置にある参照ピクチャ上のブロックには、符号化対象ブロックに写っている像と実際には異なる動きをする像が写っている可能性がある。このような場合、符号化対象ブロックと同じ位置にある参照ピクチャ上のブロックについての動きベクトルが基準ベクトルであるとき、符号化対象ブロックと予測画像との対応画素間の差分値のばらつきが大きくなり、符号化効率が低下するおそれがある。そこで、参照ピクチャの各ブロックについて求められた動きベクトルのうち、符号化対象ブロックを透過する動きベクトルを基準ベクトルの算出に利用する技術が提案されている(例えば、特許文献3を参照)。
特開平9−139948号公報 特開2009−21864号公報 特開2007−67731号公報
H.264 MPEG-4 AVCでは、インター符号化されるピクチャに対する参照ピクチャとして、既に符号化されている複数のピクチャが用いられる。そのため、時間ダイレクトモードが適用される符号化対象ピクチャの着目ブロックと同じ位置にある参照ピクチャP1上のブロックが動き補償のために参照する過去参照ピクチャP2と参照ピクチャP1の両方が、符号化対象ピクチャよりも時間的に後となることがある。このような場合、参照ピクチャP1と過去参照ピクチャP2間の時間間隔t2は、符号化対象ピクチャと参照ピクチャP1との時間間隔t1よりも短いことがある。
このような場合、(t1/t2)が1よりも大きいので、符号化対象ブロックの動きベクトルの時間方向の長さが、基準ベクトルの時間方向の長さよりも長くなる。その結果として、符号化対象ブロックの動きベクトルの動き補償精度が粗くなるので、符号化対象ブロックに対する予測画像の予測精度が低下してしまい、予測画像と符号化対象ブロックとの相違が大きくなって符号化効率が低下するおそれがあった。
そこで、本明細書は、時間ダイレクトモードにおいて符号化対象ブロックに写っている像の動きに対する動き補償の精度を向上できる動画像符号化装置を提供することを目的とする。また、そのような動画像符号化装置にて符号化された動画像データを復号する動画像復号装置を提供することを他の目的とする。
一つの実施形態によれば、動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化装置が提供される。この動画像符号化装置は、動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、符号化済みピクチャのうちの第1の参照ピクチャ上で、動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして記憶部から読み出し、基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと符号化対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、第1の時間間隔が第2の時間間隔よりも短い場合に、基準候補ベクトルを第1のブロックに対する基準ベクトルとし、かつ第1の参照ピクチャを基準ベクトルの参照元ピクチャ、第2の参照ピクチャを基準ベクトルの参照先ピクチャとし、一方、第1の時間間隔が第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルを記憶部から読み出し、第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする基準ベクトルを算出する基準ベクトル決定部と、基準ベクトルを、参照先ピクチャと参照元ピクチャ間の時間間隔に対する参照先ピクチャと符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、第1のダイレクト動きベクトルに従って参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、第2のダイレクト動きベクトルに従って参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、第1の動き補償画像と第2の動き補償画像に基づいて第1のブロックに対する予測画像を生成する予測画像生成部と、予測画像と第1のブロックの対応する画素の差を表す誤差信号を符号化する符号化部とを有する。
また他の実施形態によれば、動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化方法が提供される。この動画像符号化方法は、動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと符号化対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、第1の時間間隔が第2の時間間隔よりも短い場合に、基準候補ベクトルを第1のブロックに対する基準ベクトルとし、かつ第1の参照ピクチャを基準ベクトルの参照元ピクチャ、第2の参照ピクチャを基準ベクトルの参照先ピクチャとし、一方、第1の時間間隔が第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルを記憶部から読み出し、第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする基準ベクトルを算出し、基準ベクトルを、参照先ピクチャと参照元ピクチャ間の時間間隔に対する参照先ピクチャと符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、第1のダイレクト動きベクトルに従って参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、第2のダイレクト動きベクトルに従って参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、第1の動き補償画像と第2の動き補償画像に基づいて第1のブロックに対する予測画像を生成し、予測画像と第1のブロックの対応する画素の差を表す誤差信号を符号化することを含む。
さらに他の実施形態によれば、符号化された動画像データを復号する動画像復号装置が提供される。この動画像復号装置は、動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、第1のブロックに対応する量子化信号を再生する可変長復号部と、復号済みピクチャのうちの第1の参照ピクチャ上で、第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして記憶部から読み出し、基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと復号対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、第1の時間間隔が第2の時間間隔よりも短い場合に、基準候補ベクトルを第1のブロックに対する基準ベクトルとし、かつ第1の参照ピクチャを基準ベクトルの参照元ピクチャ、第2の参照ピクチャを基準ベクトルの参照先ピクチャとし、一方、第1の時間間隔が第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルを記憶部から読み出し、第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする基準ベクトルを算出する基準ベクトル決定部と、基準ベクトルを、参照先ピクチャと参照元ピクチャ間の時間間隔に対する参照先ピクチャと復号対象ピクチャ間の時間間隔の比に応じて分割することにより、第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、第1のダイレクト動きベクトルに従って参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、第2のダイレクト動きベクトルに従って参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、第1の動き補償画像と第2の動き補償画像に基づいて第1のブロックに対する予測画像を生成する予測画像生成部と、第1のブロックについての量子化信号を逆量子化及び逆直交変換することにより第1のブロックに含まれる各画素の予測誤差信号を再生し、各画素の予測誤差信号を予測画像の対応する画素の値に加算することにより、第1のブロックを再生する復号部とを有する。
さらに他の実施形態によれば、符号化された動画像データを復号する動画像復号方法が提供される。この動画像復号方法は、動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、第1のブロックに対応する量子化信号を再生し、復号済みピクチャのうちの第1の参照ピクチャ上で、第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして記憶部から読み出し、基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは第1の参照ピクチャと復号対象ピクチャ間の第1の時間間隔が、第1の参照ピクチャと第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、第1の時間間隔が第2の時間間隔よりも短い場合に、基準候補ベクトルを第1のブロックに対する基準ベクトルとし、かつ第1の参照ピクチャを基準ベクトルの参照元ピクチャ、第2の参照ピクチャを基準ベクトルの参照先ピクチャとし、第1の時間間隔が第2の時間間隔よりも長い場合に、第2の参照ブロックを参照元とする第2の動きベクトルを記憶部から読み出し、第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを参照先ピクチャとし、第1の参照ピクチャを参照元ピクチャとする基準ベクトルを算出し、基準ベクトルを、参照先ピクチャと参照元ピクチャ間の時間間隔に対する参照先ピクチャと復号対象ピクチャ間の時間間隔の比に応じて分割することにより、第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、第1のダイレクト動きベクトルに従って参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、第2のダイレクト動きベクトルに従って参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、第1の動き補償画像と第2の動き補償画像に基づいて第1のブロックに対する予測画像を生成し、第1のブロックについての量子化信号を逆量子化及び逆直交変換することにより第1のブロックに含まれる各画素の予測誤差信号を再生し、各画素の予測誤差信号を予測画像の対応する画素の値に加算することにより、第1のブロックを再生することを含む。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された動画像符号化装置は、時間ダイレクトモードにおいて符号化対象ブロックに写っている像の動きに対する動き補償の精度を向上できる。また、本明細書に開示された動画像復号装置は、そのような動画像符号化装置にて符号化された動画像データを復号することができる。
一つの実施形態に係る動画像符号化装置の概略構成図である。 時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも短い場合の基準ベクトルと動きベクトルの関係を示す図である。 時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、従来技術による基準ベクトル及び動きベクトルを示す図である。 時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、一つの実施形態による基準ベクトル及び動きベクトルを示す図である。 双方向予測ピクチャに対する動画像符号化処理の動作フローチャートである。 参照ブロック内のサブブロックを基準候補ベクトルによって移動させた移動サブブロックと、過去参照ピクチャの複数のサブブロックとの対応関係の一例を示す図である。 時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、他の実施形態による基準ベクトル及び動きベクトルを示す図である。 他の例による、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における基準ベクトル及び動きベクトルを示す図である。 何れかの実施形態に係る動画像符号化装置により符号化された動画像データを復号する動画像復号装置の概略構成図である。 動画像復号処理の動作フローチャートである。
以下、図を参照しつつ、一つの実施形態による、動画像符号化装置について説明する。
この動画像符号化装置は、双方向予測ピクチャである符号化対象ピクチャの着目ブロックの動きベクトルを時間ダイレクトモードにて決定する際、参照ピクチャ上で着目ブロックと同じ位置にある参照ブロックの動きベクトルを基準候補ベクトルとする。そしてこの動画像符号化装置は、基準候補ベクトルの参照先のブロックが含まれるピクチャである過去参照ピクチャを検出する。動画像符号化装置は、参照ピクチャと過去参照ピクチャ間の時間間隔が、符号化対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔よりも短い場合、参照ブロックが参照する過去参照ピクチャ上の第2の参照ブロックの動きベクトルを求める。そしてこの動画像符号化装置は、第1の参照ブロックの動きベクトルと、第2の参照ブロックの動きベクトルとを加算して、着目ブロックに対する基準ベクトルを決定する。これにより、この動画像符号化装置は、基準ベクトルの参照元と参照先のピクチャ間の時間間隔を符号化対象ピクチャと基準ベクトルの参照先のピクチャ間の時間間隔よりも長くすることで、時間ダイレクトモードにおける動きベクトルの動き補償精度を向上する。
なお、ピクチャは、フレームまたはフィールドの何れであってもよい。フレームは、動画像データ中の一つの静止画像であり、一方、フィールドは、フレームから奇数行のデータあるいは偶数行のデータのみを取り出すことにより得られる静止画像である。
また動画像データは、Group Of Pictures(GOP)単位で符号化される。GOPは、連続する複数のピクチャを含み、各ピクチャに対する符号化方法が規定された構造を表す。また、以下では、GOPに含まれるピクチャのうち、既に符号化されている1枚のピクチャの情報を用いてインター符号化されるピクチャをPピクチャと表記する。さらに、既に符号化されている2枚のピクチャの情報を用いてインター符号化されるピクチャをBピクチャと表記する。なお、Bピクチャが参照する2枚の参照ピクチャの一方がそのBピクチャよりも時間的に前のピクチャであり、他方がそのBピクチャよりも時間的に後のピクチャであってもよい。あるいは、2枚の参照ピクチャの何れも、Bピクチャよりも時間的に前のピクチャであってもよい。さらに、2枚の参照ピクチャの何れも、Bピクチャよりも時間的に後のピクチャであってもよい。
また、イントラ符号化のみの対象となり、インター符号化されないピクチャをIピクチャと表記する。
図1は、一つの実施形態による動画像符号化装置の概略構成図である。動画像符号化装置1は、符号化部10、復号部14、参照画像記憶部15、動きベクトル計算部16、動きベクトル計算部17、ピクチャ間隔比較部18、基準ベクトル決定部19、ダイレクト動きベクトル計算部20、予測モード判定部21及び予測画像生成部22を有する。
動画像符号化装置1が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像符号化装置1が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像符号化装置1に実装されてもよい。さらに、動画像符号化装置1が有するこれらの各部は、動画像符号化装置1が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
符号化対象となるピクチャは、例えば、動画像符号化装置1全体を制御する制御部(図示せず)により所定数の画素を持つ複数のブロックに分割される。この符号化処理の単位となるブロックを、以下ではマクロブロックと呼ぶ。そして動画像符号化装置1には、各マクロブロックが、例えばH.264 MPEG-4 AVCに規定された順序で入力される。
例えば、各マクロブロックは、横16×縦16画素を含む。あるいは、各マクロブロックは、横8×縦8画素を含んでもよい。
符号化部10は、動画像データのうち、符号化対象となる現在のピクチャを符号化する。そのために、符号化部10は、予測誤差信号生成部11と、直交変換・量子化部12と、可変長符号化部13とを有する。
予測誤差信号生成部11は、入力されたマクロブロックと、予測画像生成部19により生成された予測画像との差分演算を実行する。そして直交変換・量子化部12は、その差分演算により得られたマクロブロック内の各画素に対応する差分値を、予測誤差信号とする。
予測誤差信号生成部11は、予測誤差信号を直交変換・量子化部12へ渡す。
直交変換・量子化部12は、入力されたマクロブロックの予測誤差信号を直交変換することにより、予測誤差信号の水平方向の周波数成分及び垂直方向の周波数成分を表す周波数信号を求める。例えば、直交変換・量子化部12は、直交変換処理として、離散コサイン変換(Discrete Cosine Transform、DCT)を予測誤差信号に対して実行することにより、周波数信号として、マクロブロックごとのDCT係数の組を得る。
次に、直交変換・量子化部12は、周波数信号を量子化する。この量子化処理は、一定区間に含まれる信号値を一つの信号値で表す処理である。そしてその一定区間は、量子化幅と呼ばれる。例えば、直交変換・量子化部12は、周波数信号から、量子化幅に相当する所定数の下位ビットを切り捨てることにより、その周波数信号を量子化する。量子化幅は、量子化パラメータによって決定される。例えば、直交変換・量子化部12は、量子化パラメータの値に対する量子化幅の値を表す関数にしたがって、使用される量子化幅を決定する。またその関数は、量子化パラメータの値に対する単調増加関数とすることができ、予め設定される。
あるいは、水平方向及び垂直方向の周波数成分のそれぞれに対応する量子化幅を規定する量子化マトリクスが、予め複数準備され、直交変換・量子化部12が有するメモリに記憶される。そして直交変換・量子化部12は、量子化パラメータにしたがって、それら量子化マトリクスのうちの特定の量子化マトリクスを選択する。そして直交変換・量子化部12は、選択された量子化マトリクスを参照して、周波数信号の各周波数成分に対する量子化幅を決定してもよい。
また直交変換・量子化部12は、MPEG-2、MPEG-4、H.264 MPEG-4 AVCなどの動画像符号化規格に対応した様々な量子化パラメータ決定方法の何れかに従って量子化パラメータを決定すればよい。直交変換・量子化部12は、例えば、MPEG-2の標準テストモデル5に関する量子化パラメータの算出方法を用いることができる。なお、MPEG-2の標準テストモデル5に関する量子化パラメータの算出方法に関しては、例えば、http://www.mpeg.org/MPEG/MSSG/tm5/Ch10/Ch10.htmlで特定されるURLを参照されたい。
直交変換・量子化部12は、量子化処理を実行することにより、周波数信号の各周波数成分を表すために使用されるビットの数を削減できるので、入力されたマクロブロックに含まれる情報量を低減できる。直交変換・量子化部12は、量子化信号を可変長符号化部13及び復号部14に供給する。
可変長符号化部13は、直交変換・量子化部12から受け取った量子化された信号及び動きベクトル計算部16から受け取った動きベクトルを符号化することにより、データ量が圧縮された符号化信号を生成する。そのために、可変長符号化部13は、例えば、その量子化信号に対して、生起確率が高い信号値ほど短くなる、可変長の符号語を割り当てる可変長符号化処理を実行する。例えば、可変長符号化部13は、可変長符号化処理として、ハフマン符号化処理あるいは算術符号化処理を用いることができる。
可変長符号化部13により生成された符号化信号に対して、動画像符号化装置1は、マクロブロックごとの予測モードなどを含む所定の情報をヘッダ情報として付加することにより、符号化された動画像データを含むデータストリームを生成する。動画像符号化装置1は、そのデータストリームを磁気記録媒体、光記録媒体あるいは半導体メモリなどを有する記憶部(図示せず)に記憶するか、あるいはそのデータストリームを他の機器へ出力する。
復号部14は、直交変換・量子化部12から受け取った量子化信号に、量子化パラメータにより決定された量子化幅に相当する所定数を乗算することにより逆量子化する。この逆量子化により、入力されたマクロブロックの周波数信号、例えば、DCT係数の組が復元される。その後、復号部14は、周波数信号を逆直交変換処理する。例えば、直交変換・量子化部12においてDCT処理が行われる場合、復号部14は、逆量子化信号に対して逆DCT処理を実行する。逆量子化処理及び逆直交変換処理を量子化信号に対して実行することにより、符号化前の予測誤差信号と同程度の情報を有する予測誤差信号が再生される。
復号部14は、インター符号化されるピクチャについて、参照画像を動き補償することにより作成された予測画像の各画素値に、その画素に対応する再生された予測誤差信号を加算する。一方、復号部14は、イントラ符号化されるピクチャについての既に符号化されたマクロブロックに基づいて生成された予測画像の各画素値に、その画素に対応する、再生された予測誤差信号を加算する。これらの処理を各マクロブロックについて実行することにより、復号部14は、その後に符号化されるマクロブロックに対する予測画像を生成するために利用される参照画像を生成する。
復号部14は、得られた参照画像を参照画像記憶部15に記憶させる。
参照画像記憶部15は、例えば、フレームメモリを有する。そして参照画像記憶部15は、復号部14から受け取った参照画像を一時的に記憶する。そして参照画像記憶部15は、動きベクトル計算部16、予測モード判定部21及び予測画像生成部22にその参照画像を供給する。なお、参照画像記憶部15は、予め定められた所定枚数分の参照画像を記憶し、参照画像の枚数がその所定枚数を超えると、符号化順序が古い参照画像から順に破棄する。
動きベクトル計算部16は、インター符号化用の予測画像を生成するために、入力されたマクロブロックと参照画像とを用いて、動きベクトルを求める。動きベクトルは、入力されたマクロブロックと、そのマクロブロックに最も類似する参照画像との空間的な移動量を表す。
動きベクトル計算部16は、入力されたマクロブロックと、参照画像とのブロックマッチングを実行することにより、入力されたマクロブロックと最も一致する参照画像及びその参照画像が含まれるピクチャ上での位置を決定する。
動きベクトル計算部16は、入力されたマクロブロックのピクチャ上の位置と、そのマクロブロックに最も一致する参照画像との水平方向及び垂直方向の移動量と、その参照画像が属するピクチャを表す識別情報を、それぞれ要素とするベクトルを動きベクトルとする。
動きベクトル計算部16は、求めた動きベクトルを、動きベクトル記憶部17、予測モード判定部21、予測画像生成部22及び符号化部10へ渡す。
動きベクトル記憶部17は、動きベクトル計算部16により求められた動きベクトルを、時間ダイレクトモードにおける基準ベクトルを決定するために一時的に記憶する。そこで、動きベクトル記憶部17は、各マクロブロックについて求められた動きベクトルが基準ベクトルの算出のために利用される可能性のある間、例えば、符号化順序に従って数枚程度のピクチャの各マクロブロックに対する動きベクトルを記憶する。そして動きベクトル記憶部17は、記憶している動きベクトルを、ピクチャ間隔比較部18及び基準ベクトル決定部19へ渡す。
ピクチャ間隔比較部18、基準ベクトル決定部19及びダイレクト動きベクトル計算部20は、予測モードとして時間ダイレクトモードが用いられる場合における基準ベクトル及び動きベクトルを決定する。ここで、動画像符号化装置1における基準ベクトル及び動きベクトルの決定方法について説明する。
図2は、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも短い場合の基準ベクトル及び動きベクトルを示す図である。
図2において、ピクチャP1〜P8は、左から順に時間順に並べられており、それぞれフィールドである。このうち、ピクチャP1、B3、B5及びP7は、元のフレームの奇数行のデータを含むトップフィールドであり、一方、ピクチャP2、B4、B6及びP8は、元のフレームの偶数行のデータを含むボトムフィールドである。またピクチャP1とピクチャP2は、同一のフレームに含まれ、パリティの異なるフィールドである。同様に、ピクチャB3とピクチャB4、ピクチャB5とピクチャB6、及びピクチャP7とピクチャP8は、それぞれ同一のフレームに含まれ、パリティの異なるフィールドである。
また、ピクチャP1、P2、P7及びP8はPピクチャであり、一方、ピクチャB3〜B6はBピクチャである。このように、ピクチャP1〜P8のGOPは、いわゆるIBBPとなっている。そのため、符号化順序は、P1→P2→P7→P8→B3→B4→B5→B6の順序である。ここでは、BピクチャであるピクチャB3が符号化対象ピクチャであり、ブロック201が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
この場合、参照ピクチャは、ピクチャB3の直前に符号化された同パリティのピクチャP7となり、そして参照ピクチャ上で着目するブロック201と同じ位置にあるブロック202が参照ブロックとなる。したがって、ブロック202について求められた動きベクトルがブロック201についての基準ベクトルmvCol(Vx,Vy)となる。そして、基準ベクトルmvCol(Vx,Vy)の参照先であるブロック203が含まれるピクチャP1が過去参照ピクチャである。なお、Vx、Vyは、それぞれ、ブロック203とブロック202との水平方向の位置の差及び垂直方向の位置の差である。この場合、ブロック201の二つの動きベクトルmvL0、mvL1は、それぞれ次式により決定される。
Figure 2011199362
なお、mvL0は、過去参照ピクチャP1を参照ピクチャとする動きベクトルであり、mvL1は、参照ピクチャP7を参照ピクチャとする動きベクトルである。また、tbは、符号化対象ピクチャB3と過去参照ピクチャP1間の時間間隔であり、tdは、参照ピクチャP7と過去参照ピクチャピクチャP1間の時間間隔である。
図2に示された例では、時間間隔tdの方が時間間隔tbよりも長い。そのため、基準ベクトルmvColに含まれる動き予測の誤差がtb/tdに応じて小さくなる。したがって、ブロック201に写っている像とブロック202に写っている像が同じ方向及び同じ移動量で動いていると、基準ベクトルmvColから算出される動きベクトルは、高い動き予測精度を持つことができる。
図3は、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、従来技術による基準ベクトル及び動きベクトルを示す図である。図3に示されたピクチャP1〜P8も、フィールドである。また図3に示されたピクチャP1〜P8のピクチャタイプ及び符号化順序は、それぞれ、図2に示されたピクチャP1〜P8とのピクチャタイプ及び符号化順序と同一である。
図3の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック301が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
図3に示された例では、ピクチャB4の直前に符号化されたフレームにおいて、ピクチャB4と同じパリティのピクチャP8が参照ピクチャとなり、そして参照ピクチャ上で着目するブロック301と同じ位置にあるブロック302が参照ブロックとなる。したがって、ブロック302について求められた動きベクトルがブロック301についての基準ベクトルmvCol(Vx,Vy)となる。そして、基準ベクトルmvCol(Vx,Vy)の参照先であるブロック303が含まれるピクチャP7が過去参照ピクチャである。この場合も、ブロック301の二つの動きベクトルmvL0、mvL1は、それぞれ(1)式により決定される。
図3に示された例では、時間間隔tdの方が時間間隔tbよりも短い。そのため、基準ベクトルmvColに含まれる動き予測の誤差がtb/tdに応じて大きくなる。この例では、tbがtdの3倍となっているので、mvL0、mvL1に含まれる動き予測の誤差は、それぞれ、基準ベクトルに含まれる動き予測の誤差の3倍、4倍となる。したがって、ブロック301に写っている像とブロック302に写っている像が同じ方向及び同じ移動量で動いていたとしても、基準ベクトルmvColから算出される動きベクトルが持つ動き予測精度は低くなる可能性がある。
また、例えば、H.264 MPEG-4 AVCに準拠した動画像符号化装置は、1/4画素単位で動き補償を行うことができる。しかし、上記のように、tb/tdが1よりも大きいと、時間ダイレクトモードにおいて算出される動きベクトルの水平方向及び垂直方向の移動量は、(1)式に従って、基準ベクトルの水平方向及び垂直方向の移動量に1よりも大きい係数を乗じた値となる。このように、従来技術による動画像符号化装置は、動画像補償における移動量の最小単位よりも大きい単位でしか動き補償を行うことができない。
図4は、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、一つの実施形態による基準ベクトル及び動きベクトルを示す図である。図4に示されたピクチャP1〜P8も、フィールドである。また図4に示されたピクチャP1〜P8のピクチャタイプ及び符号化順序は、それぞれ、図2に示されたピクチャP1〜P8とのピクチャタイプ及び符号化順序と同一である。
図4の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック401が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
図4に示された例でも、ピクチャB4の直前に符号化されたフレームにおいて、ピクチャB4と同じパリティのピクチャP8が参照ピクチャとなり、そして参照ピクチャ上で着目するブロック401と同じ位置にあるブロック402が参照ブロックとなる。そしてブロック401に対する基準ベクトルを決定するために、動画像符号化装置1は、参照ブロック402の動きベクトルMV1(Vx1,Vy1)を参照する。この動きベクトルMV1(Vx1,Vy1)は、ピクチャP8と同じフレームに含まれるピクチャP7上のブロック403を参照している。そのため、ピクチャP7が過去参照ピクチャとなる。なお、Vx1、Vy1は、それぞれ、ブロック403と、ブロック402との水平方向の位置の差及び垂直方向の位置の差である。
符号化対象ピクチャB4と過去参照ピクチャP7間の時間間隔tbは、参照ピクチャP8と過去参照ピクチャP7間の時間間隔tdよりも長い。一方、基準ベクトルは、時間間隔tbよりも長い時間間隔を持つ二つのピクチャ間での動きを表すベクトルであることが好ましい。このように基準ベクトルを決定することにより、基準ベクトルに含まれる動きの予測誤差が、tbとtdの比に応じて拡大されることが防止される。
ここで、ブロック402はブロック403を参照しているので、ブロック402とブロック403には同一の像が写っている可能性が高い。また、図4に示されるように、ブロック403について求められた動きベクトルMV2(Vx2,Vy2)の参照先が、ピクチャP1に含まれるブロック404であると、ブロック403とブロック404にも同一の像が写っている可能性が高い。そのため、ブロック402とブロック404にも同一の像が写っている可能性が高い。なお、Vx2、Vy2は、それぞれ、ブロック404と、ブロック403との水平方向の位置の差及び垂直方向の位置の差である。
そこで、本実施形態による動画像符号化装置1は、ブロック402について求められた動きベクトルMV1(Vx1,Vy1)に、ブロック403について求められた動きベクトルMV2(Vx2,Vy2)を加算することにより基準ベクトルmvCol(Vx,Vy)を算出する。
このように基準ベクトルを算出することにより、基準ベクトルの参照元となる参照ピクチャP8と、その基準ベクトルの参照先となるピクチャP1間の時間間隔td'は、ピクチャB4とピクチャP1間の時間間隔tb'よりも長くなる。このため、ブロック401に写っている像とブロック402、404に写っている像が同じ方向及び同じ移動量で動いていると、基準ベクトルmvColから算出される動きベクトルは、高い動き予測精度を持つことができる。
なお、この実施形態においても、ブロック401の二つの動きベクトルmvL0、mvL1は、それぞれ(1)式により決定される。ただし、時間間隔tbは、基準ベクトルの参照先のブロック404が含まれるピクチャP1と符号化対象ピクチャB4間の時間間隔となる。また時間間隔tdは、基準ベクトルの参照先のブロック404が含まれるピクチャP1と基準ベクトルの参照元のブロック402が含まれるピクチャP8との時間間隔となる。そして動きベクトルmvL0は、ピクチャP1を参照する動きベクトルである。また、動きベクトルmvL1は、ピクチャP8を参照する動きベクトルである。
ピクチャ間隔比較部18は、入力されたマクロブロックが含まれる符号化対象ピクチャの直前において符号化された参照ピクチャ上で、入力されたマクロブロックと対応する位置にあるマクロブロックを参照ブロックとして特定する。そしてピクチャ間隔比較部18は、参照ブロックについて求められた動きベクトルを基準候補ベクトルとして、動きベクトル記憶部17から読み込む。
なお、参照ブロックは、参照ピクチャ上で入力されたマクロブロックと同じ位置にあるブロックとすることができる。あるいは、参照ブロックは、その参照ブロックを参照元とする動きベクトルの延長線上に入力されたマクロブロックが存在するブロックであってもよい。
ピクチャ間隔比較部18は、参照ブロックが含まれる参照ピクチャと、基準候補ベクトルが参照する参照先のピクチャである過去参照ピクチャ間の時間間隔tdと、符号化対象ピクチャと過去参照ピクチャ間の時間間隔tbとを比較する。そしてピクチャ間隔比較部18は、tbがtdよりも長いか否かの判定結果を基準ベクトル決定部19に通知する。
あるいは、ピクチャ間隔比較部18は、符号化対象ピクチャと参照ピクチャとの時間間隔tb2が、時間間隔tdよりも長いか否かの判定結果を基準ベクトル決定部19に通知してもよい。さらに、ピクチャ間隔比較部18は、tbがtdよりも長いか否かの判定結果と、tb2がtdよりも長いか否かの判定結果の両方を基準ベクトル決定部19に通知してもよい。
動画像データに含まれるピクチャがフィールドである場合、参照ピクチャと過去参照ピクチャが、同一のフレームに含まれる、異なるパリティのフィールドとなることがある。この場合、参照ピクチャと過去参照ピクチャとは時間的に連続しており、符号化対象ピクチャと参照ピクチャの時間間隔よりも参照ピクチャと過去参照ピクチャの時間間隔の方が短い。そこで、参照ピクチャと過去参照ピクチャが、同一のフレームに含まれるフィールドであれば、ピクチャ間隔比較部18は、符号化対象ピクチャと参照ピクチャとの時間間隔tb2が時間間隔tdよりも長いと判定してもよい。
基準ベクトル決定部19は、入力されたマクロブロックに対する基準ベクトルを決定する。その際、基準ベクトル決定部19は、ピクチャ間隔比較部18から通知された時間間隔tbまたはtb2とtdとの比較結果に応じて、基準ベクトルの作成方法を選択する。
具体的には、時間間隔tb及びtb2よりも時間間隔tdの方が長い場合、基準ベクトル決定部19は、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。すなわち、基準ベクトル決定部19は、入力されたマクロブロックが含まれる符号化対象ピクチャの直前において符号化された参照ピクチャ上で、入力されたマクロブロックと同じ位置にあるマクロブロックについての動きベクトルを基準ベクトルとする。
なお、ピクチャ間隔比較部18がtbとtdとの比較結果のみを基準ベクトル決定部19に通知する場合、基準ベクトル決定部19は、tbよりも時間間隔tdの方が長い場合、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。また、ピクチャ間隔比較部18がtb2とtdとの比較結果のみを基準ベクトル決定部19に通知する場合、基準ベクトル決定部19は、tb2よりも時間間隔tdの方が長い場合、従来の時間ダイレクトモードと同様に基準ベクトルを決定する。
一方、時間間隔tbまたはtb2よりも時間間隔tdの方が短い場合、基準ベクトル決定部19は、図4に関して説明したように基準ベクトルを決定する。そのために、基準ベクトル決定部19は、参照ピクチャ上で入力されたマクロブロックと対応する位置にある参照ブロックを参照元とする動きベクトルMV(Vx1,Vy1)を動きベクトル記憶部17から読み込む。さらに基準ベクトル決定部19は、動きベクトルMV1(Vx1,Vy1)の参照先となる過去参照ピクチャ上のマクロブロックを参照元とする動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部17から読み込む。そして基準ベクトル決定部19は、次式に従って基準ベクトルmvCol(Vx,Vy)を求める。
Figure 2011199362
なお、参照ブロックは、上記のように、参照ピクチャ上で入力されたマクロブロックと同じ位置にあるブロックとすることができる。あるいは、参照ブロックは、その参照ブロックを参照元とする動きベクトルMV1の延長線上に入力されたマクロブロックが存在するブロックであってもよい。
基準ベクトル決定部19は、基準ベクトルmvCol(Vx,Vy)と、その基準ベクトルの参照元のピクチャを示す基準元ピクチャ番号及び参照先のピクチャを示す基準先ピクチャ番号をダイレクト動きベクトル計算部20へ渡す。基準元ピクチャ番号は、上記の参照ピクチャを表す番号となる。一方、基準先ピクチャ番号は、tb/td及びtb2/tdが1未満である場合、過去参照ピクチャを表す番号となり、tb/tdまたはtb2/tdが1より大きくなる場合、動きベクトルMV2(Vx2,Vy2)の参照先のピクチャを表す番号となる。
ダイレクト動きベクトル計算部20は、基準先ピクチャ番号に基づいて、基準先ピクチャ番号に示されたピクチャと入力されたマクロブロックが含まれる符号化対象ピクチャ間の時間間隔tbを算出する。またダイレクト動きベクトル計算部20は、基準先ピクチャ番号及び基準元ピクチャ番号に基づいて、基準ベクトルの参照先のピクチャと参照元のピクチャ間の時間間隔tdを算出する。そしてダイレクト動きベクトル計算部20は、基準ベクトル及び時間間隔tb、tdを上記の(1)式に入力することにより、入力されたマクロブロックを参照元とする二つの動きベクトルmvL0、mvL1を算出する。すなわち、ダイレクト動きベクトル計算部20は、基準ベクトルを、基準ベクトルの参照先と参照元のピクチャ間の時間間隔tdに対する符号化対象ピクチャと参照先ピクチャとの時間間隔tbの比に応じて分割することで、二つの動きベクトルmvL0、mvL1を算出する。そしてダイレクト動きベクトル計算部20は、二つの動きベクトルmvL0、mvL1に、それら動きベクトルの参照先のピクチャを示す番号として、それぞれ基準先ピクチャ番号及び基準元ピクチャ番号を関連付ける。
ダイレクト動きベクトル計算部20は、算出した二つの動きベクトルmvL0、mvL1を予測モード判定部21へ渡す。
予測モード判定部21は、入力されたマクロブロックに対する予測画像の生成方法を規定する予測モードを決定する。予測モード判定部21は、例えば、図示しない制御部から取得した、入力されたマクロブロックが含まれる符号化対象のピクチャのタイプを示す情報に基づいて、そのマクロブロックの予測モードを決定する。符号化対象のピクチャのタイプがIピクチャであれば、予測モード判定部21は適用される予測モードとしてイントラ符号化モードを選択する。
また、符号化対象のピクチャのタイプがPピクチャであれば、予測モード判定部21は、例えば、適用される予測モードとして、インター符号化モード及びイントラ符号化モードの何れかを選択する。なお、インター符号化モードとして、時間的に前のピクチャを参照する前方向予測モードか、時間的に後のピクチャを参照する後方向予測モードかは、符号化対象のピクチャのGOP内の位置を示す情報に基づいて決定される。
さらに、符号化対象のピクチャのタイプがBピクチャであれば、予測モード判定部21は、適用される予測モードを、イントラ符号化モード、前方向予測モード、後方向予測モード、双方向予測モード及び時間ダイレクトモードの中から選択する。
予測モード判定部21は、複数の予測モードの中から一つの予測モードを選択する場合、各予測モードについてのマクロブロックの符号化されたデータ量の評価値であるコストをそれぞれ算出する。そして予測モード判定部21は、コストが最小となる予測モードを、入力されたマクロブロックに対して適用される予測モードとする。
各モードに対するコストは、例えば、次のように計算される。
Figure 2011199362
ここで、costd、costf、costb、costbi、costiは、それぞれ、時間ダイレクトモード、前方向予測モード、後方向予測モード、双方向予測モード及びイントラ符号化モードに対応するコストである。orgi,jは、入力されたマクロブロックに含まれる水平方向座標i、垂直方向座標jの画素の値を表す。またrefi,jは、予測画像に含まれる水平方向座標i、垂直方向座標jの画素の値を表す。なお、予測モード判定部21は、予測画像生成部22と同様の方法によって参照画像から予測画像を生成する。またmv1、mv2は、入力されたマクロブロックに対する動きベクトルを表し、premv1、premv2は、直前に符号化されたマクロブロックの動きベクトルを表す。さらに、Table[a,b]は、ベクトルaとベクトルbの差分ベクトルに対応する推定符号量を出力する。例えば、Table[a,b]は、様々な差分ベクトルに対する推定符号量を示した参照テーブルであってもよい。またλは重み定数であり、例えば、1に設定される。AveMBは、入力されたマクロブロックに含まれる画素値の平均値である。
予測モード判定部21は、(3)式に従って、選択対象となる予測モードのそれぞれについてコストを算出する。そして予測モード判定部21は、コストが最小となる予測モードを、入力されたマクロブロックに対して適用される予測モードとして選択する。
なお、予測モード判定部21は、特定の予測モード、例えば、時間ダイレクトモードが選択され易くなるように、または選択され難くなるように、(3)式によって算出されるその特定の予測モードのコスト値にオフセット値を加えるか、補正係数を乗じてもよい。
予測モード判定部21は、選択した予測モードを予測画像生成部22に通知する。
予測画像生成部22は、予測モード判定部21によって選択された予測モードに従って予測画像を生成する。予測画像生成部22は、入力されたマクロブロックが前方向予測モード、後方向予測モードによってインター符号化される場合、参照画像記憶部15から得た参照画像を、動きベクトル計算部16から提供される動きベクトルに基づいて動き補償する。そして予測画像生成部22は、動き補償されたマクロブロック単位のインター符号化用の予測画像を生成する。なお、動き補償は、動きベクトルで表された、マクロブロックとそれに対して最も類似する参照画像上のブロックの位置ずれ量を相殺するように、その最も類似する参照画像上のブロックの位置を移動する処理である。
また、入力されたマクロブロックが双方向予測モードまたは時間ダイレクトモードによってインター符号化される場合、予測画像生成部22は、二つの動きベクトルのそれぞれによって特定された参照画像を、その対応する動きベクトルで動き補償する。そして予測画像生成部22は、動き補償により得られた二つの補償画像の対応する画素間で画素値を平均することにより予測画像を生成する。あるいは、予測画像生成部22は、その二つの補償画像の対応する画素の値に、対応する動きベクトルの時間方向の長さが短いほど大きい重み係数を乗じて加重平均することにより、予測画像を生成してもよい。ただし、時間ダイレクトモードによってインター符号化される場合、予測画像生成部22は、ダイレクト動きベクトル計算部20によって算出された二つの動きベクトルを利用する。
また予測画像生成部22は、入力されたマクロブロックがイントラ符号化される場合、入力されたマクロブロックに隣接するマクロブロックから予測画像を生成する。その際、予測画像生成部22は、例えば、H.264 MPEG-4 AVCに規定されている水平モード、DCモード、プレーンモードなどに従って予測画像を生成する。
予測画像生成部22は、生成された予測画像を予測誤差信号生成部11へ渡す。
図5は、動画像符号化装置1により実行される、双方向予測ピクチャに対する動画像符号化処理の動作フローチャートである。動画像符号化装置1は、双方向予測ピクチャに含まれるマクロブロックごとに図5に示される動画像符号化処理を実行する。
動きベクトル計算部16は、入力されたマクロブロックで参照される可能性の有る参照画像を参照画像記憶部15から読み込む。そして動きベクトル計算部16は、参照画像及び入力されたマクロブロックに基づいて動きベクトルを算出する(ステップS101)。動きベクトル計算部16は、求めた動きベクトルを、その動きベクトルの参照元である入力マクロブロックが含まれる符号化対象ピクチャのピクチャ番号及び参照先のピクチャのピクチャ番号とともに動きベクトル記憶部17に記憶させる。また動きベクトル計算部16は、求めた動きベクトルを予測モード判定部21へ渡す。
ピクチャ間隔比較部18は、動きベクトル記憶部17から、入力されたマクロブロックが含まれる符号化対象ピクチャの直前に符号化された参照ピクチャ上で入力されたマクロブロックと対応する位置にあるマクロブロックを参照元とする動きベクトルを読み出す。そしてピクチャ間隔比較部18は、その動きベクトルを基準候補ベクトルMV1(Vx1,Vy1)とする。ピクチャ間隔比較部18は、基準候補ベクトルMV1(Vx1,Vy1)の参照元の参照ピクチャ及び参照先の過去参照ピクチャ間の時間間隔tdを算出する(ステップS102)。また、ピクチャ間隔比較部18は、符号化対象ピクチャと過去参照ピクチャ間の時間間隔tbと符号化対象ピクチャと参照ピクチャ間の時間間隔tb2のいずれか一方または両方を算出する(ステップS103)。そしてピクチャ間隔比較部18は、時間間隔tbあるいはtb2が時間間隔tdよりも長いか否か判定する(ステップS104)。ピクチャ間隔比較部18は、時間間隔tbあるいはtb2が時間間隔tdよりも長いか否かの判定結果を基準ベクトル決定部19に通知する。
時間間隔tb及びtb2が時間間隔tdよりも短い場合(ステップS104−No)、基準ベクトル決定部19は、基準候補ベクトルMV1(Vx1,Vy1)を基準ベクトルmvCol(Vx,Vy)とする(ステップS105)。なお、時間間隔tbまたはtb2の何れか一方しか求められていない場合、その求められている方の時間間隔が時間間隔tdよりも短い場合も、基準ベクトル決定部19は、基準候補ベクトルを基準ベクトルとする。
一方、時間間隔tbあるいはtb2が時間間隔tdよりも長い場合(ステップS104−Yes)、基準ベクトル決定部19は、基準候補ベクトルMV1(Vx1,Vy1)の参照先のマクロブロックを参照元とする動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部17から読み込む。そして基準ベクトル決定部19は、基準候補ベクトルMV1(Vx1,Vy1)と動きベクトルMV2(Vx2,Vy2)の和を、基準ベクトルmvCol(Vx,Vy)とする(ステップS106)。
ステップS105またはS106の後、基準ベクトル決定部19は、求めた基準ベクトル及び基準ベクトルの参照先及び参照元のピクチャの番号をダイレクト動きベクトル計算部20へ渡す。
ダイレクト動きベクトル計算部20は、基準ベクトルの参照先及び参照元のピクチャ間の時間間隔tdと、符号化対象ピクチャと基準ベクトルの参照先のピクチャ間の時間間隔tbを算出する。そしてダイレクト動きベクトル計算部20は、基準ベクトルと、時間間隔tbとtdとの比(tb/td)を(1)式に入力することにより、二つの動きベクトルmvL0、mvL1を算出する(ステップS107)。ダイレクト動きベクトル計算部20は、求めた二つの動きベクトルを予測モード判定部21へ渡す。
予測モード判定部21は、イントラ符号化モード、前方向予測モード、後方向予測モード、双方向予測モード、時間ダイレクトモードのそれぞれについて入力されたマクロブロックの符号量の評価値を表すコストを算出する。そして予測モード判定部21は、コストが最小となる予測モードを入力されたマクロブロックに適用する予測モードとして選択する(ステップS108)。
予測モード判定部21は、選択した予測モードを予測画像生成部22へ通知する。
予測画像生成部22は、参照画像記憶部15から読み込んだ参照画像に基づいて、選択した予測モードに応じた予測画像を生成する(ステップS109)。予測画像生成部22は、生成した予測画像を符号化部10の予測誤差信号生成部11へ渡す。そして予測誤差信号生成部11は、入力されたマクロブロックと予測画像生成部19により生成された予測画像間の予測誤差信号を算出する(ステップS110)。符号化部10の直交変換・量子化部12は、予測誤差信号生成部11により算出された予測誤差信号を直交変換及び量子化して量子化信号を生成する(ステップS111)。直交変換・量子化部12は、量子化信号を復号部14及び符号化部10の可変長符号化部13へ渡す。
復号部14は、量子化信号を逆量子化及び逆直交変換して得られたマクロブロックの各画素の予測誤差信号を、予測画像の各画素に加えることによりマクロブロックを再生する(ステップS112)。そして復号部14は、得られたマクロブロックを所定の順序に従って結合することにより再現されるピクチャを参照画像として参照画像記憶部15に記憶する。
また、符号化部10の可変長符号化部13は、量子化信号及び動きベクトルなどの関連情報を可変長符号化する(ステップS113)。そして可変長符号化部13は、可変長符号化された符号化データを出力する。
そして動画像符号化装置1は、一つのマクロブロックに対する動画像符号化処理を終了する。
なお、ステップS101とステップS102〜S107の処理の順序は入れ替わっても良い。また、Iピクチャに含まれるマクロブロックについては、ステップS101〜S108の処理は省略される。そしてステップS109において、予測画像生成部22は、イントラ符号化用の予測画像を生成する。また、Pピクチャに含まれるマクロブロックについては、ステップS102〜S107の処理は省略される。そしてステップS108において、予測モード判定部21は、イントラ符号化モードと、前方向予測モード及び後方向予測モードの何れか一方とについてのコストを算出する。そして予測モード判定部21は、コストが最小となる予測モードを入力されたマクロブロックに適用する予測モードとして選択する。さらに、インター符号化及びイントラ符号化の何れも行われないマクロブロックに対しては、ステップS101〜S110の処理は省略される。そしてステップS111において、直交変換・量子化部12は、入力されたマクロブロックを直交変換する。
以上に説明してきたように、この動画像符号化装置は、時間ダイレクトモードが適用されるマクロブロックに対して、基準ベクトルの参照元のピクチャと参照先のピクチャ間の時間間隔が長くなるように基準ベクトルを設定する。具体的には、動画像符号化装置は、基準ベクトルの参照元と参照先のピクチャ間の時間間隔が、そのマクロブロックが含まれる符号化対象ピクチャと基準ベクトルの参照先または参照元のピクチャ間の時間間隔よりも長くなるように、基準ベクトルを設定する。そのため、この動画像符号化装置は、基準ベクトルに含まれる動き予測の誤差が、基準ベクトルから算出される動きベクトルにおいて拡大されることを防止できる。したがって、この動画像符号化装置は、時間ダイレクトモードにおける基準ベクトルのマクロブロックに写っている像の動きに対する予測精度を向上できる。その結果として、この動画像符号化装置は、時間ダイレクトモードが適用されるマクロブロックを増やせるとともに、動画像データの符号化効率を向上できる。
なお、一つのマクロブロック内に複数のサブブロックが規定されることもある。例えば、縦16画素×横16画素のマクロブロック内に、縦8画素×横8画素のサブブロックが4個含まれたり、縦4画素×横4画素のサブブロックが16個含まれることがある。あるいは、縦16画素×横16画素のマクロブロック内に、縦8画素×横16画素のサブブロックあるいは縦16画素×横8画素のサブブロックが2個含まれることがある。さらに、一つのマクロブロック内に大きさの異なるサブブロックが複数含まれることもある。そこで、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部19は、一つのマクロブロックに対して、サブブロックごとに基準ベクトルを決定してもよい。例えば、一つの参照ブロックに4個のサブブロックが含まれる場合、基準ベクトル決定部19は、符号化対象ピクチャの着目する一つのマクロブロックに対して4個の基準ベクトルを求める。そしてダイレクト動きベクトル計算部20は、サブブロックごとに求められた基準ベクトルごとに、(1)式に従って動きベクトルを作成する。
また、動きベクトルは、マクロブロックのサイズよりも小さい単位で空間方向の移動量を指定できる。そのため、参照ピクチャ上の参照ブロックを、その参照ブロックについての動きベクトルMV1(Vx1,Vy1)によって空間的に移動させた移動ブロックが、過去参照ピクチャの何れのマクロブロックとも完全に一致しないこともある。そこで基準ベクトル決定部19は、参照ブロックの中心位置(RefCx1,RefCy1)に、その参照ブロックの動きベクトルMV1を加えた移動中心位置(RefCx1+Vx1,RefCy1+Vy1)が含まれる、過去参照ピクチャ上のマクロブロックを対応ブロックとして決定する。そして基準ベクトル決定部19は、対応ブロックについて求められた動きベクトルを、基準ベクトルを決定するための動きベクトルMV2(Vx2,Vy2)とする。
なお、上記のように、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部19は、参照ブロックに含まれるサブブロックごとに、過去参照ピクチャ上の対応するブロックを決定する。すなわち、基準ベクトル決定部19は、各サブブロックの中心位置に、そのサブブロックの動きベクトルを加えた位置が含まれる、過去参照ピクチャ上のサブブロックを対応サブブロックとして決定する。そして基準ベクトル決定部19は、対応サブブロックについて求められた動きベクトルを、基準ベクトルを決定するための動きベクトルMV2(Vx2,Vy2)とする。
また基準ベクトル決定部19は、過去参照ピクチャ上の各マクロブロックのうち、移動ブロックと少なくとも一部が重なるマクロブロックについての動きベクトルを、その重なった領域の面積で加重平均することにより、動きベクトルMV2(Vx2,Vy2)を求めてもよい。
同様に、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部19は、参照ブロックに含まれる着目サブブロックを、そのサブブロックについての動きベクトルで移動させた移動サブブロックを求めてもよい。そして基準ベクトル決定部19は、過去参照ピクチャ上の各サブブロックのうち、移動サブブロックと少なくとも一部が重なるサブブロックについての動きベクトルを、その重なった領域の面積で加重平均する。基準ベクトル決定部19は、その加重平均された動きベクトルを、着目するサブブロックの動きベクトルMV2(Vx2,Vy2)としてもよい。
図6は、参照ブロック内のサブブロックを基準候補ベクトルによって移動させた移動サブブロックと、過去参照ピクチャの複数のサブブロックとの対応関係の一例を示す図である。
図6に示されるように、この例では、移動サブブロック601は、過去参照ピクチャのサブブロック611〜614と重なっている。移動サブブロック601の左上端点の座標は(msbl, msbt)であり、移動サブブロック601の右下端点の座標は(msbr, msbb)である。なお、移動サブブロック601の移動元となる、参照ピクチャ上の着目サブブロックの左上端点及び右下端点の座標が、それぞれ(sbl, sbt)、(sbr, sbb)であり、着目サブブロックの動きベクトルがMV1(Vx1,Vy1)であれば、それらの座標に以下の関係がある。
(msbl, msbt) = (sbl+Vx1, sbt+Vy1)
(msbr, msbb) = (sbr+Vx1, sbb+Vy1)
また、過去参照ピクチャ上のサブブロック611の左上端点及び右下端点の座標は、それぞれ(Rsbx1, Rsby1)、(Rsbx2, Rsby2)である。同様に、サブブロック612の左上端点及び右下端点の座標は、それぞれ(Rsbx2, Rsby1)、(Rsbx3, Rsby2)である。また、サブブロック613の左上端点及び右下端点の座標は、それぞれ(Rsbx1, Rsby2)、(Rsbx2, Rsby3)である。そしてサブブロック614の左上端点及び右下端点の座標は、それぞれ(Rsbx2, Rsby2)、(Rsbx3, Rsby3)である。
この場合、移動サブブロック601とサブブロック611〜614のそれぞれとが重なる領域621〜624の面積s1〜s4は、以下のようになる。
S1 = (Rsbx2 - msbl) * (Rsby2 - msbt)
S2 = (msb - Rsbx2) * (Rsby2 - msbt)
S3 = (Rsbx2 - msbl) * (msbb - Rsby2)
S4 = (msb - Rsbx2) * (msbb - Rsby2)
そこで、サブブロック611〜614のそれぞれの動きベクトルがMVs1(Vxs1,Vys1)〜MVs4(Vxs4,Vys4)であれば、着目サブブロックの基準ベクトルを決定するための動きベクトルMV2(Vx2,Vy2)の水平方向移動量Vx2及び垂直方向移動量Vy2は、次のように求められる。
Vx2 = (S1 * Vxs1 + S2 * Vxs2 + S3 * Vxs3 + S4 * Vxs4)/(S1+S2+S3+S4)
Vy2 = (S1 * Vys1 + S2 * Vys2 + S3 * Vys3 + S4 * Vys4)/(S1+S2+S3+S4)
また、基準ベクトル決定部19は、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合、入力されたマクロブロックに対する基準ベクトルを、別の方法で求めてよい。
他の実施形態によれば、基準ベクトル決定部19は、基準ベクトルを、参照ピクチャ上の参照ブロックの基準候補ベクトルMV1(Vx1,Vy1)の参照先である過去参照ピクチャ上のマクロブロックについての動きベクトルMV2(Vx2,Vy2)に基づいて算出する。例えば、基準ベクトル決定部19は、次式に従って基準ベクトルmvCol(Vx,Vy)を算出する。
Figure 2011199362
なお、taは、動きベクトルMV2(Vx2,Vy2)の参照先のピクチャと、過去参照ピクチャとの時間間隔であり、td'は、参照ピクチャと動きベクトルMV2(Vx2,Vy2)の参照先のピクチャとの時間間隔である。
図7は、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における、他の実施形態による基準ベクトル及び動きベクトルを示す図である。
図7に示されたピクチャP1〜P8も、フィールドである。また図7に示されたピクチャP1〜P8のピクチャタイプ及び符号化順序は、それぞれ、図2に示されたピクチャP1〜P8とのピクチャタイプ及び符号化順序と同一である。
図7の例では、BピクチャであるピクチャB4が符号化対象ピクチャであり、ピクチャB4上のブロック701が着目するブロックである。このとき、ピクチャP1、P2、P7及びP8については符号化が完了している。
図7に示された例では、参照ピクチャは、ピクチャB4の直前に符号化され、ピクチャB4と同じパリティのピクチャP8となり、そして参照ピクチャ上で着目するブロック701と同じ位置にあるブロック702が参照ブロックとなる。そしてブロック701に対する基準ベクトルを決定するために、基準ベクトル決定部19は、参照ブロック702の動きベクトルMV1(Vx1,Vy1)を参照する。この動きベクトルMV1(Vx1,Vy1)は、ピクチャP8と同じフレームに含まれるピクチャP7上のブロック703を参照している。そのため、ピクチャP7が過去参照ピクチャとなる。なお、Vx1、Vy1は、それぞれ、ブロック703と、ブロック702との水平方向の位置の差及び垂直方向の位置の差である。
符号化対象ピクチャB4と過去参照ピクチャP7間の時間間隔tbは、参照ピクチャP8と過去参照ピクチャP7間の時間間隔tdよりも長い。
そこで、基準ベクトル決定部19は、ブロック703についての動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部17から読み込む。そして基準ベクトル決定部19は、(3)式に従って基準ベクトルmvCol(Vx,Vy)を算出する。ここで時間間隔taは、MV2(Vx2,Vy2)の参照先のブロック704が含まれるピクチャP1と過去参照ピクチャP7との時間間隔であり、時間間隔td'は、ピクチャP1と参照ピクチャP8間の時間間隔である。すなわち、基準ベクトルの参照先のピクチャがピクチャP1となり、基準ベクトルの参照元のピクチャがP8となる。なお、Vx2、Vy2は、それぞれ、ブロック704と、ブロック703との水平方向の位置の差及び垂直方向の位置の差である。
このように基準ベクトルを算出することによっても、基準ベクトルの参照元のピクチャP8と参照先のピクチャP1間の時間間隔tdは、符号化対象ピクチャB4と基準ベクトルの参照先のピクチャP1間の時間間隔tbよりも長くなる。このため、ブロック701に写っている像とブロック702、704に写っている像が同じ方向及び同じ移動量で動いていると、基準ベクトルmvColから算出される動きベクトルは、高い動き予測精度を持つことができる。
なお、この実施形態においても、ブロック701の二つの動きベクトルmvL0、mvL1は、それぞれ(1)式により決定される。ただし、動きベクトルmvL0は、ピクチャP1を参照先とする動きベクトルである。また、動きベクトルmvL1は、ピクチャP8を参照先とする動きベクトルである。
さらに、符号化対象の動画像データに含まれるピクチャがフィールドである場合、同一フレームに含まれる異なるパリティの2枚のピクチャにおいて、そのフレームの同じ領域に対応するマクロブロックに写っている像は類似する可能性が高い。そこで、図7に示されたように、過去参照ピクチャと参照ピクチャが同一フレームに含まれる場合、基準ベクトル決定部19は、過去参照ピクチャ上で参照ブロックと同一の位置にあるマクロブロックを特定する。そして基準ベクトル決定部19は、特定されたマクロブロックについての動きベクトルを、基準ベクトルの決定に用いる動きベクトルMV2(Vx2,Vy2)としてもよい。
また、符号化対象となる動画像データに含まれる何れかのBピクチャが、他のPピクチャまたはBピクチャをインター符号化するために参照されるピクチャであってもよい。このような場合、符号化対象となる動画像データに含まれるピクチャがフレームであっても、符号化対象ピクチャと過去参照ピクチャ間の時間間隔tbが、過去参照ピクチャと参照ピクチャ間の時間間隔tdよりも長くなることがある。
図8は、他の例による、時間ダイレクトモードにおいて、符号化対象ピクチャと参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合における基準ベクトル及び動きベクトルを示す図である。
図8において、ピクチャP1及びP7はPピクチャであり、一方、ピクチャB2〜B6はBピクチャである。このうち、ピクチャB3及びB5は、他のBピクチャが参照可能なピクチャである。符号化順序は、P0→P7→B3→B5→B2→B4→B6の順序であるとする。この例では、BピクチャであるピクチャB2が符号化対象ピクチャであり、ブロック801が着目するブロックである。このとき、ピクチャP1、B3、B5及びP7については符号化が完了している。
図8に示された例では、参照ピクチャは、ピクチャB2の直前に符号化されたピクチャB5となり、そして参照ピクチャ上で着目するブロック801と同じ位置にあるブロック802が参照ブロックとなる。そしてブロック801に対する基準ベクトルを決定するために、参照ブロック802の動きベクトルMV1(Vx1,Vy1)が参照される。この動きベクトルMV1(Vx1,Vy1)は、ピクチャB2よりも時間的に後のピクチャB3上のブロック803を参照している。そのため、ピクチャB3が過去参照ピクチャとなる。なお、Vx1、Vy1は、それぞれ、ブロック803と、ブロック802との水平方向の位置の差及び垂直方向の位置の差である。
なお、ピクチャB5はBピクチャであるため、ブロック802に対して二つの動きベクトルが規定されている可能性がある。この場合、基準ベクトルを決定するための動きベクトルMV1(Vx1,Vy1)として、例えば、H.264 MPEG-4 AVCに規定される、List0に示される動きベクトルが優先的に利用される。そして、例えば、予測モード判定の結果などにより、List0に示される動きベクトルが存在しない場合に、List1に示される動きベクトルが動きベクトルMV1(Vx1,Vy1)として利用される。
このように、符号化対象ピクチャB2よりも参照ピクチャB5と過去参照ピクチャB3の両方が時間的に後にある場合、符号化対象ピクチャB2と参照ピクチャB5間の時間間隔tb2は、過去参照ピクチャB3と参照ピクチャB5間の時間間隔tdよりも長い。
そこで、ピクチャ間隔比較部18は、参照ピクチャと過去参照ピクチャの両方が、符号化対象ピクチャよりも時間的に後側にある場合、tb2がtdよりも長いとの判定結果を基準ベクトル決定部19へ通知してもよい。
また、ピクチャ間隔比較部18は、参照ピクチャと過去参照ピクチャの両方が、符号化対象ピクチャよりも時間的に前側にある場合、tbがtdよりも長いとの判定結果を基準ベクトル決定部19へ通知してもよい。
この場合も、基準ベクトル決定部19は、(2)式または(4)式に従って基準ベクトルmvCol(Vx,Vy)を求めることができる。
図9は、上記の各実施形態による動画像符号化装置により符号化された動画像データを復号する動画像復号装置の概略構成図である。動画像復号装置3は、可変長復号部31、予測モード判定部32、動きベクトル記憶部33、ピクチャ間隔比較部34、基準ベクトル決定部35、ダイレクト動きベクトル計算部36、予測画像生成部37、復号部38、記憶部39及び結合部40を有する。
動画像復号装置3が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像復号装置3が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像復号装置3に実装されてもよい。さらに、動画像復号装置3が有するこれらの各部は、動画像復号装置3が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
動画像復号装置3は、符号化された動画像データを含むデータストリームを、例えば、通信ネットワーク及び動画像復号装置3を通信ネットワークに接続するためのインターフェース回路を介して取得する。そして動画像復号装置3は、そのデータストリームを、図示しないバッファメモリに記憶させる。動画像復号装置3は、符号化された動画像データを、符号化されたマクロブロック単位でバッファメモリから読み出し、そのマクロブロック単位のデータを可変長復号部31へ入力する。
可変長復号部31は、マクロブロック単位で符号化されているデータを可変長復号する。そして可変長復号部31は、量子化された予測誤差信号である量子化信号を再生する。また可変長復号部31は、着目するマクロブロックが、時間ダイレクトモード以外のインター符号化モードによってインター符号化されたマクロブロックであれば、そのマクロブロックについての動きベクトルを可変長復号する。そして可変長復号部31は、再生した動きベクトルを予測画像生成部37及び動きベクトル記憶部33へ渡す。また可変長復号部31は、量子化信号を復号部38へ渡す。
予測モード判定部32は、符号化された動画像データに含まれるヘッダ情報から、復号対象ピクチャの着目するマクロブロックに対して適用された予測モードを特定する。そして予測モード判定部32は、適用された予測モードが時間ダイレクトモードである場合、ピクチャ間隔比較部34、基準ベクトル決定部35及びダイレクト動きベクトル計算部36に、時間ダイレクトモード用の動きベクトルを求めさせる。
また予測モード判定部32は、着目するマクロブロックに対して適用された予測モードを予測画像生成部37へ通知する。
動きベクトル記憶部33は、動画像符号化装置1の動きベクトル記憶部17と同様の機能を有する。また、ピクチャ間隔比較部34、基準ベクトル決定部35及びダイレクト動きベクトル計算部36は、それぞれ、動画像符号化装置1のピクチャ間隔比較部18、基準ベクトル決定部19及びダイレクト動きベクトル計算部20の機能と同様の機能を有する。
すなわち、動きベクトル記憶部33は、時間ダイレクトモードにおける基準ベクトルの決定に利用される可能性のある、複数枚のピクチャ分の再生された動きベクトルを記憶する。
ピクチャ間隔比較部34は、復号対象のピクチャにおいて着目するマクロブロックと、直前に復号されている参照ピクチャ上で対応する位置にある参照ブロックを参照元とする動きベクトルを動きベクトル記憶部33から読み出し、基準候補ベクトルとする。そしてピクチャ間隔比較部34は、基準候補ベクトルの参照先のマクロブロックが含まれるピクチャを過去参照ピクチャとする。そしてピクチャ間隔比較部34は、復号対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長いか否か判定する。なお、その判定方法の詳細は、動画像符号化装置1のピクチャ間隔比較部18についての説明を参照されたい。そしてピクチャ間隔比較部34は、その判定結果を基準ベクトル決定部35に通知する。
なお、参照ブロックは、参照ピクチャ上で着目するマクロブロックと同じ位置にあるマクロブロックとすることができる。あるいは、参照ブロックは、基準候補ベクトルの延長線上に着目するマクロブロックが存在する参照ピクチャ上のマクロブロックとしてもよい。
基準ベクトル決定部35は、復号対象ピクチャと参照ピクチャ及び過去参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも短い場合、基準候補ベクトルを基準ベクトルとする。
一方、復号対象ピクチャと参照ピクチャまたは過去参照ピクチャ間の時間間隔が、参照ピクチャと過去参照ピクチャ間の時間間隔よりも長い場合、基準ベクトル決定部35は、基準候補ベクトルの参照先のマクロブロックを参照元とする動きベクトルMV2(Vx2,Vy2)を動きベクトル記憶部33から読み出す。そして基準ベクトル決定部35は、動きベクトルMV2(Vx2,Vy2)に基づいて、上記の(2)式または(4)式に従って基準ベクトルを決定する。基準ベクトル決定部35は、基準ベクトルをダイレクト動きベクトル計算部36へ渡す。
ダイレクト動きベクトル計算部36は、基準ベクトルと上記の(1)式に従って、二つの動きベクトルを算出する。そしてダイレクト動きベクトル計算部36は、算出した二つの動きベクトルを予測画像生成部37へ渡す。
予測画像生成部37は、動画像符号化装置1の予測画像生成部22の機能と同様の機能を有する。そして予測画像生成部37は、復号対象ピクチャ上の着目するマクロブロックについて適用された予測モードに応じて、予測画像を生成する。
予測画像生成部37は、記憶部39から、着目するマクロブロックを符号化する際に用いられた参照画像を読み込む。そして適用された予測モードが前方向予測モードまたは後方向予測モードなど、インター符号化モードの何れかであれば、予測画像生成部37は動きベクトルを用いてその参照画像を動き補償することにより予測画像を生成する。その際、予測モードが時間ダイレクトモードであれば、予測画像生成部37はダイレクト動きベクトル計算部36により算出された二つの動きベクトルを用いて動き補償を行う。
また、適用された予測モードがイントラ符号化モードであれば、予測画像生成部37は、そのイントラ符号化モードのうちの適用された予測画像生成モードに従って参照画像から予測画像を生成する。
予測画像生成部37は、生成した予測画像を復号部38へ渡す。
復号部38は、可変長復号部31から受け取った量子化信号に、符号化された動画像データに含まれるヘッダ情報から取得した量子化パラメータにより決定された量子化幅に相当する所定数を乗算することにより逆量子化する。この逆量子化により、着目するマクロブロックの周波数信号、例えば、DCT係数の組が復元される。その後、復号部38は、周波数信号を逆直交変換処理する。逆量子化処理及び逆直交変換処理を量子化信号に対して実行することにより予測誤差信号が再生される。
復号部38は、インター符号化されるピクチャについて、動き補償された予測画像の各画素値に、その画素に対応する再生された予測誤差信号を加算する。一方、復号部38は、イントラ符号化されるピクチャについて、既に符号化されたマクロブロックに基づいて生成された予測画像の各画素値に、その画素に対応する、再生された予測誤差信号を加算する。これらの処理を着目するマクロブロックについて実行することにより、復号部38は、着目するマクロブロックを再生できる。そして復号部38は、再生されたマクロブロックの符号化順序に従って結合することにより、ピクチャを再生する。復号部38は、再生されたピクチャを記憶部39に記憶させる。
記憶部39は、例えば、フレームメモリを有する。そして記憶部39は、復号部38から受け取ったピクチャを一時的に記憶する。そして記憶部39は、予測画像生成部37にそのピクチャを参照画像として供給する。また記憶部39は、そのピクチャを結合部40へ出力する。なお、記憶部39は、予め定められた所定枚数分のピクチャを記憶し、記憶されているデータ量がその所定枚数に相当する量を超えると、符号化順序が古いピクチャから順に破棄する。
結合部40は、再生されたピクチャを時間順に再配置して、動画像データを再生する。結合部40は、再生した動画像データを出力する。出力された動画像データは、例えば、図示しない記憶装置に記憶される。あるいは、出力された動画像データは、動画像復号装置3と接続された、図示しない表示装置に表示される。
図10は、動画像復号装置3により実行される、動画像復号処理の動作フローチャートである。動画像復号装置3は、マクロブロックごとに図10に示される動画像復号処理を実行する。
可変長復号部31は、マクロブロック単位で符号化されているデータを可変長復号することにより、量子化された予測誤差信号及び動きベクトルを再生する(ステップS201)。可変長復号部31は、再生した動きベクトルを予測画像生成部37及び動きベクトル記憶部33へ渡す。また可変長復号部31は、量子化された予測誤差信号を復号部38へ渡す。
また、予測モード判定部32は、符号化された動画像データに含まれるヘッダ情報から、復号対象ピクチャの着目するマクロブロックに対して適用された予測モードを特定する(ステップS202)。そして予測モード判定部32は、着目するマクロブロックに対して適用された予測モードを予測画像生成部37へ通知する。
また予測モード判定部32は、適用された予測モードが時間ダイレクトモードか否か判定する(ステップS203)。適用された予測モードが時間ダイレクトモードである場合(ステップS203−Yes)、予測モード判定部32は、ピクチャ間隔比較部34、基準ベクトル決定部35及びダイレクト動きベクトル計算部36に、時間ダイレクトモード用の動きベクトルを求めさせる。
そこでピクチャ間隔比較部34は、動きベクトル記憶部39から、着目するマクロブロックと参照ピクチャ上の対応する位置にある参照ブロックを参照元とする動きベクトルを読み出し、その動きベクトルを基準候補ベクトルMV1(Vx1,Vy1)とする。そしてピクチャ間隔比較部34は、基準候補ベクトルMV1(Vx1,Vy1)の参照元の参照ピクチャ及び参照先の過去参照ピクチャ間の時間間隔tdを算出する(ステップS204)。また、ピクチャ間隔比較部34は、着目するマクロブロックが含まれる復号対象ピクチャと過去参照ピクチャ間の時間間隔tbあるいは復号対象ピクチャと参照ピクチャ間の時間間隔tb2を算出する(ステップS205)。そしてピクチャ間隔比較部34は、時間間隔tbあるいはtb2が時間間隔tdよりも長いか否か判定する(ステップS206)。そしてピクチャ間隔比較部34は、時間間隔tbあるいはtb2が時間間隔tdよりも長いか否かの判定結果を基準ベクトル決定部35に通知する。
時間間隔tb及びtb2が時間間隔tdよりも短い場合(ステップS206−No)、基準ベクトル決定部35は、基準候補ベクトルMV1(Vx1,Vy1)を基準ベクトルmvCol(Vx,Vy)とする(ステップS207)。
一方、時間間隔tbあるいはtb2が時間間隔tdよりも長い場合(ステップS206−Yes)、基準ベクトル決定部35は、基準候補ベクトルMV1(Vx1,Vy1)の参照先のマクロブロックについての動きベクトルMV2(Vx2,Vy2)に基づいて基準ベクトルmvCol(Vx,Vy)を算出する(ステップS208)。具体的には、基準ベクトル決定部35は、(2)式または(4)式に従って基準ベクトルmvCol(Vx,Vy)を算出する。また、参照ブロックを基準候補ベクトルMV1(Vx1,Vy1)を用いて動き補償することにより得られる移動ブロックが、過去参照ピクチャ上の何れのマクロブロックとも完全に一致しないことがある。この場合、基準ベクトル決定部35は、過去参照ピクチャ上の複数のマクロブロックのうち、移動ブロックの中心位置が含まれるマクロブロックの動きベクトルを動きベクトルMV2(Vx2,Vy2)とする。基準ベクトル決定部35は、過去参照ピクチャ上の複数のマクロブロックのうち、移動ブロックと少なくとも一部が重なる領域を持つマクロブロックの動きベクトルを、その領域の面積に応じて加重平均することにより、動きベクトルMV2(Vx2,Vy2)を求めてもよい。
また、参照ブロックが複数のサブブロックに分割されている場合、基準ベクトル決定部35は、サブブロックごとに基準ベクトルを求める。
ステップS207またはS208の後、基準ベクトル決定部35は、求めた基準ベクトル及び基準ベクトルの参照先及び参照元のピクチャの番号をダイレクト動きベクトル計算部36へ渡す。
ダイレクト動きベクトル計算部36は、基準ベクトルの参照先及び参照元のピクチャ間の時間間隔tdと、復号対象ピクチャと基準ベクトルの参照先のピクチャ間の時間間隔tbを算出する。そしてダイレクト動きベクトル計算部36は、基準ベクトルと、時間間隔tbとtdとの比(tb/td)を(1)式に入力することにより、二つの動きベクトルを算出する(ステップS209)。ダイレクト動きベクトル計算部36は、求めた二つの動きベクトルを予測画像生成部37へ渡す。
ステップS209の後、あるいは適用された予測モードが時間ダイレクトモードでない場合(ステップS203−No)、予測画像生成部37は、記憶部39から、既に復号されたピクチャを参照画像として読み出す。そして予測画像生成部37は、参照画像に基づいて、着目マクロブロックについて適用された予測モードに応じた予測画像を生成する(ステップS210)。予測画像生成部37は、生成した予測画像を復号部38へ渡す。
復号部38は、量子化信号を逆量子化及び逆直交変換して得られた各画素の予測誤差信号を、予測画像の各画素に加えることにより着目マクロブロックを再生する(ステップS211)。そして復号部38は、再生された着目マクロブロックをマクロブロックの符号化順序に従って順次結合することにより、ピクチャを再生する(ステップS212)。復号部38は、再生したピクチャを記憶部39に記憶する。
結合部40は、再生されたピクチャを時間順に並べ替えて出力する。
そして動画像復号装置3は、動画像復号処理を終了する。
なお、動画像符号化装置1の各部の機能をプロセッサ上で実行可能なコンピュータプログラムは、コンピュータによって読み取り可能な媒体に記録された形で提供されてもよい。同様に、動画像復号装置3の各部の機能をプロセッサ上で実行可能なコンピュータプログラムは、コンピュータによって読み取り可能な媒体に記録された形で提供されてもよい。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化装置であって、
前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する符号化部と、
を有する動画像符号化装置。
(付記2)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記基準候補ベクトルに前記第2の動きベクトルを加算することにより、前記基準ベクトルを算出する、付記1に記載の動画像符号化装置。
(付記3)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第2の動きベクトルに、前記第1の時間間隔に対する前記第3の参照ピクチャと前記第1の参照ピクチャ間の時間間隔の比を乗じることにより、前記基準ベクトルを算出する、付記1に記載の動画像符号化装置。
(付記4)
前記時間間隔比較部は、前記第1の参照ピクチャ及び前記第2の参照ピクチャが同一フレームに含まれるフィールドである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、付記1〜3の何れか一項に記載の動画像符号化装置。
(付記5)
前記時間間隔比較部は、前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に後のピクチャである場合、または前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に前のピクチャである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、付記1〜3の何れか一項に記載の動画像符号化装置。
(付記6)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第1の参照ブロックを前記基準候補ベクトルで空間的に移動させた移動ブロックの中心位置が含まれる、前記第2の参照ピクチャ上のブロックを、前記第2の参照ブロックとする、付記1〜5の何れか一項に記載の動画像符号化装置。
(付記7)
前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第1の参照ブロックを前記基準候補ベクトルで空間的に移動させた移動ブロックと重なる領域を持つ、前記第2の参照ピクチャ上の複数のブロックのそれぞれについての動きベクトルを前記記憶部から読み出し、読み出したそれぞれの動きベクトルを、当該動きベクトルに対応するブロックと前記移動ブロックとが重なる領域の面積に応じて加重平均することにより、前記第2の動きベクトルを算出する、付記1〜5の何れか一項に記載の動画像符号化装置。
(付記8)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化方法であって、
前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
ことを含む動画像符号化方法。
(付記9)
動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化用コンピュータプログラムであって、
前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
ことをコンピュータに実行させるコンピュータプログラム。
(付記10)
符号化された動画像データを復号する動画像復号装置であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生する可変長復号部と、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する復号部と、
を有する動画像復号装置。
(付記11)
符号化された動画像データを復号する動画像復号方法であって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
ことを含む動画像復号方法。
(付記12)
符号化された動画像データを復号する動画像復号用コンピュータプログラムであって、
前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
ことをコンピュータに実行させるコンピュータプログラム。
1 動画像符号化装置
10 符号化部
11 予測誤差信号生成部
12 直交変換・量子化部
13 可変長符号化部
14 復号部
15 参照画像記憶部
16 動きベクトル計算部
17 動きベクトル記憶部
18 ピクチャ間隔比較部
19 基準ベクトル決定部
20 ダイレクト動きベクトル計算部
21 予測モード判定部
22 予測画像生成部
3 動画像復号装置
31 可変長符号化部
32 予測モード判定部
33 動きベクトル記憶部
34 ピクチャ間隔比較部
35 基準ベクトル決定部
36 ダイレクト動きベクトル計算部
37 予測画像生成部
38 復号部
39 記憶部
40 結合部

Claims (8)

  1. 動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化装置であって、
    前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
    前記符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
    前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
    前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
    前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
    前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する符号化部と、
    を有する動画像符号化装置。
  2. 前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記基準候補ベクトルに前記第2の動きベクトルを加算することにより、前記基準ベクトルを算出する、請求項1に記載の動画像符号化装置。
  3. 前記基準ベクトル決定部は、前記第1の時間間隔が前記第2の時間間隔よりも長い場合、前記第2の動きベクトルに、前記第1の時間間隔に対する前記第3の参照ピクチャと前記第1の参照ピクチャ間の時間間隔の比を乗じることにより、前記基準ベクトルを算出する、請求項1に記載の動画像符号化装置。
  4. 前記時間間隔比較部は、前記第1の参照ピクチャ及び前記第2の参照ピクチャが同一フレームに含まれるフィールドである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、請求項1〜3の何れか一項に記載の動画像符号化装置。
  5. 前記時間間隔比較部は、前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に後のピクチャである場合、または前記第1の参照ピクチャと前記第2の参照ピクチャの両方が、前記符号化対象ピクチャよりも時間的に前のピクチャである場合、前記第1の時間間隔が前記第2の時間間隔よりも長いと判定する、請求項1〜3の何れか一項に記載の動画像符号化装置。
  6. 動画像データに含まれるピクチャを動き補償を用いて符号化する動画像符号化方法であって、
    前記動画像データに含まれる符号化済みピクチャのうちの第1の参照ピクチャ上で、前記動画像データに含まれる符号化対象ピクチャを分割した複数のブロックのうちの第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして、前記動画像データに含まれる複数の符号化済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記符号化対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
    前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
    前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
    前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記符号化対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
    前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
    前記予測画像と前記第1のブロックの対応する画素の差を表す誤差信号を符号化する、
    ことを含む動画像符号化方法。
  7. 符号化された動画像データを復号する動画像復号装置であって、
    前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶する記憶部と、
    前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生する可変長復号部と、
    前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定するピクチャ間隔比較部と、
    前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、一方、前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出する基準ベクトル決定部と、
    前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出するダイレクト動きベクトル計算部と、
    前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成する予測画像生成部と、
    前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する復号部と、
    を有する動画像復号装置。
  8. 符号化された動画像データを復号する動画像復号方法であって、
    前記動画像データに含まれる、複数の復号済みピクチャのそれぞれについて求められた動き補償用の動きベクトルを記憶部に記憶させ、
    前記動画像データに含まれる復号対象ピクチャを分割した複数のブロックのうちの第1のブロックに対応する符号化データを可変長復号することにより、前記第1のブロックに対応する量子化信号を再生し、
    前記復号済みピクチャのうちの第1の参照ピクチャ上で、前記第1のブロックと対応する位置にある第1の参照ブロックを参照元とする第1の動きベクトルを基準候補ベクトルとして前記記憶部から読み出し、当該基準候補ベクトルの参照先である第2の参照ブロックが含まれる第2の参照ピクチャまたは前記第1の参照ピクチャと前記復号対象ピクチャ間の第1の時間間隔が、前記第1の参照ピクチャと前記第2の参照ピクチャ間の第2の時間間隔よりも長いか否か判定し、
    前記第1の時間間隔が前記第2の時間間隔よりも短い場合に、前記基準候補ベクトルを前記第1のブロックに対する基準ベクトルとし、かつ前記第1の参照ピクチャを当該基準ベクトルの参照元ピクチャ、前記第2の参照ピクチャを当該基準ベクトルの参照先ピクチャとし、
    前記第1の時間間隔が前記第2の時間間隔よりも長い場合に、前記第2の参照ブロックを参照元とする第2の動きベクトルを前記記憶部から読み出し、当該第2の動きベクトルの参照先のブロックが含まれる第3の参照ピクチャを前記参照先ピクチャとし、前記第1の参照ピクチャを前記参照元ピクチャとする前記基準ベクトルを算出し、
    前記基準ベクトルを、前記参照先ピクチャと前記参照元ピクチャ間の時間間隔に対する前記参照先ピクチャと前記復号対象ピクチャ間の時間間隔の比に応じて分割することにより、前記第1のブロックに対する第1及び第2のダイレクト動きベクトルを算出し、
    前記第1のダイレクト動きベクトルに従って前記参照先ピクチャを動き補償することにより第1の動き補償画像を作成するとともに、前記第2のダイレクト動きベクトルに従って前記参照元ピクチャを動き補償することにより第2の動き補償画像を作成し、前記第1の動き補償画像と前記第2の動き補償画像に基づいて前記第1のブロックに対する予測画像を生成し、
    前記第1のブロックについての前記量子化信号を逆量子化及び逆直交変換することにより前記第1のブロックに含まれる各画素の予測誤差信号を再生し、当該各画素の予測誤差信号を前記予測画像の対応する画素の値に加算することにより、前記第1のブロックを再生する、
    ことを含む動画像復号方法。
JP2010060855A 2010-03-17 2010-03-17 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 Expired - Fee Related JP5310614B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010060855A JP5310614B2 (ja) 2010-03-17 2010-03-17 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US13/038,491 US8553764B2 (en) 2010-03-17 2011-03-02 Method and device for encoding moving picture and method and device for decoding moving picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010060855A JP5310614B2 (ja) 2010-03-17 2010-03-17 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法

Publications (2)

Publication Number Publication Date
JP2011199362A true JP2011199362A (ja) 2011-10-06
JP5310614B2 JP5310614B2 (ja) 2013-10-09

Family

ID=44647233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010060855A Expired - Fee Related JP5310614B2 (ja) 2010-03-17 2010-03-17 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法

Country Status (2)

Country Link
US (1) US8553764B2 (ja)
JP (1) JP5310614B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483945A (zh) * 2011-11-08 2017-12-15 株式会社Kt 利用解码装置对视频信号进行解码的方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034010B2 (ja) * 2011-10-24 2016-11-30 ソニー株式会社 符号化装置、符号化方法、およびプログラム
JP2013102297A (ja) * 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
JP5979848B2 (ja) * 2011-11-08 2016-08-31 キヤノン株式会社 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
US9531990B1 (en) * 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
FR3002062B1 (fr) * 2013-02-14 2017-06-23 Envivio France Systeme et procede de reduction dynamique de l'entropie d'un signal en amont d'un dispositif de compression de donnees.
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US10349071B2 (en) * 2014-01-15 2019-07-09 Nec Corporation Motion vector searching apparatus, motion vector searching method, and storage medium storing motion vector searching program
EP3343923B1 (en) * 2015-08-24 2021-10-06 Huawei Technologies Co., Ltd. Motion vector field coding method and decoding method, and coding and decoding apparatuses
JP7298266B2 (ja) * 2019-04-19 2023-06-27 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165703A (ja) * 2002-09-20 2004-06-10 Toshiba Corp 動画像符号化方法及び復号化方法
JP2004208259A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP2005510984A (ja) * 2001-11-21 2005-04-21 ジェネラル・インストルメント・コーポレーション デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化
JP2007251497A (ja) * 2006-03-15 2007-09-27 Fujitsu Ltd 動画像符号化方法、動画像符号化装置、動画像符号化プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2883585B2 (ja) 1991-05-31 1999-04-19 株式会社東芝 動画像符号化装置及び動画像符号化方法
JP3226020B2 (ja) * 1997-05-28 2001-11-05 日本電気株式会社 動きベクトル検出装置
JP2007067731A (ja) 2005-08-30 2007-03-15 Sanyo Electric Co Ltd 符号化方法
JP2009021864A (ja) 2007-07-12 2009-01-29 Canon Inc 動きベクトル探索装置
JP4523024B2 (ja) * 2007-08-08 2010-08-11 パナソニック株式会社 画像符号化装置および画像符号化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005510984A (ja) * 2001-11-21 2005-04-21 ジェネラル・インストルメント・コーポレーション デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化
JP2004208259A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP2004165703A (ja) * 2002-09-20 2004-06-10 Toshiba Corp 動画像符号化方法及び復号化方法
JP2007251497A (ja) * 2006-03-15 2007-09-27 Fujitsu Ltd 動画像符号化方法、動画像符号化装置、動画像符号化プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483945A (zh) * 2011-11-08 2017-12-15 株式会社Kt 利用解码装置对视频信号进行解码的方法
CN107483945B (zh) * 2011-11-08 2021-05-14 株式会社Kt 利用解码装置对视频信号进行解码的方法

Also Published As

Publication number Publication date
JP5310614B2 (ja) 2013-10-09
US8553764B2 (en) 2013-10-08
US20110228840A1 (en) 2011-09-22

Similar Documents

Publication Publication Date Title
JP5310614B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5373626B2 (ja) 複数の動きベクトル・プレディクタを使用して動きベクトルを推定する方法、装置、エンコーダ、デコーダ及びデコーディング方法
JP5052134B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
JP2019115060A (ja) 符号化装置、符号化方法、復号装置、復号方法、及びプログラム
JP4373702B2 (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP4898467B2 (ja) 可変ブロックサイズ動き予測のための符号化モードの決定方法及び装置
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
JP5277257B2 (ja) 動画像復号化方法および動画像符号化方法
JP4752631B2 (ja) 画像符号化装置、及び画像符号化方法
CN110809887A (zh) 用于多参考预测的运动矢量修正
JP5821542B2 (ja) 動画像符号化装置、および動画像復号装置
JP4527677B2 (ja) 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
TWI621351B (zh) 影像預測解碼裝置、影像預測解碼方法及影像預測解碼程式
JP5895469B2 (ja) 動画像符号化装置、および動画像復号装置
JP5216710B2 (ja) 復号化処理方法
JP5983430B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
KR20110134404A (ko) 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치
JP5281596B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP2015035660A (ja) 画像符号化装置、画像符号化方法、及び画像符号化プログラム
JP5533885B2 (ja) 動画像符号化装置および動画像復号装置
US20130215966A1 (en) Image encoding method, image decoding method, image encoding device, image decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5310614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees