WO2011125299A1 - 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム - Google Patents

動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム Download PDF

Info

Publication number
WO2011125299A1
WO2011125299A1 PCT/JP2011/001690 JP2011001690W WO2011125299A1 WO 2011125299 A1 WO2011125299 A1 WO 2011125299A1 JP 2011001690 W JP2011001690 W JP 2011001690W WO 2011125299 A1 WO2011125299 A1 WO 2011125299A1
Authority
WO
WIPO (PCT)
Prior art keywords
boundary
prediction
temporary
block
motion
Prior art date
Application number
PCT/JP2011/001690
Other languages
English (en)
French (fr)
Inventor
福島 茂
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010217755A external-priority patent/JP2011234338A/ja
Priority claimed from JP2010217754A external-priority patent/JP2011234337A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to KR1020127029274A priority Critical patent/KR101419634B1/ko
Priority to EP11765201.6A priority patent/EP2557791A4/en
Priority to CN201180026733.7A priority patent/CN102918842B/zh
Priority to KR1020147000905A priority patent/KR20140017018A/ko
Publication of WO2011125299A1 publication Critical patent/WO2011125299A1/ja
Priority to US13/631,114 priority patent/US20130064299A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 仮領域分割部101は、符号化対象ブロックを所定の仮境界で複数の仮領域に分割する。動きベクトル検出部102は、各仮領域に対して動きベクトルを検出する。本領域分割・動き補償部103は、各仮領域の動きベクトルを用いて、参照画像から符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、各予測ブロックを本境界で分割して得た領域を各予測ブロック間で結合させることにより、合成予測ブロックを生成する。可変長符号化部105は、合成予測ブロックを符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化する。

Description

動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
 本発明は、動画像の符号化および復号技術に関し、特に動き補償予測を利用した動画像の符号化および復号技術に関する。
 MPEG(Moving Picture Experts Group)に代表される動画像の圧縮符号化では、画面間の相関を利用して符号量を圧縮する動き補償予測が多く用いられる。MPEG等で用いられる動き補償予測では、所定サイズのブロック毎に、既に復号済の参照画像から、符号化対象画像と参照画像の相対位置関係を示す動きベクトルを用いて予測画像を生成する。その後、符号化側では、符号化対象原画像と動き補償予測により生成された予測画像との差分である予測誤差を算出し、予測誤差のみを復号側に伝送する。これにより、動き補償予測を用いない場合と比較して伝送する符号量を大幅に削減できる。
 一般に、符号化・復号処理はマクロブロック(所定ブロックサイズの画素群、例えば16×16)単位で行われる。動き補償予測もマクロブロック単位で行われることが多いが、この場合、マクロブロックよりも小さな物体等の動きを捉えることが難しく、結果として符号化効率が低下する。そこで、動き補償予測をさらに効率良く機能させる方法として、マルチブロックパターン動き補償予測が用いられる。
 マルチブロックパターン動き補償予測では、マクロブロック内をさらにサブブロックに分割し、サブブロック毎に異なる動きベクトルを用いて動き補償予測を行うことが可能である。使用する動き補償予測ブロックの分割パターンは、符号化側と復号側の同一規則として予め定義しておく。符号化側では定義されたブロックパターンの中から動き補償予測のブロックパターンを選択し、ブロックパターンの選択情報を復号側に伝送する。復号側では、受信したブロックパターンの選択情報に基づき動き補償予測を行う。マルチブロックパターン動き補償予測では、符号化側で動き補償予測に最適なブロックパターンを選択すると、動き補償予測後の予測誤差が減少し、符号化効率が向上する。
 具体的なブロックパターンの例として、ISO/IECとITU-Tの合同ビデオチーム(JVT)が国際標準化したMPEG-4 AVC(Advanced Video Coding)では、マクロブロック(16×16ブロック)内をさらに16×8/8×16/8×8/8×4/4×8/4×4のブロックパターンに分割して動き補償予測を行うことが可能である。符号化側では、ブロックパターンを選択し、ブロックパターンの選択情報をビットストリーム内に符号化する。復号側では、ビットストリーム内に符号化されているブロックパターンに応じてマクロブロックを領域分割し、分割された領域毎に動き補償予測を行う。
 更に、特許文献1や特許文献2には、さまざまな動き補償予測形状パターンを定義し、より柔軟な形状で動き補償予測を行う技術が開示されている。
特許第4025570号公報 再公表特許第WO2003-026315号公報
 しかしながら、特許文献1や特許文献2に開示された方法では、定義する動き補償予測形状パターンを増やした場合、形状パターン数が増加するにつれ、伝送する形状パターンの選択情報に費やす符号量が多くなってしまう。つまり、形状パターンが増加したことによる予測誤差の減少と、形状パターン選択に関する符号量増加はトレードオフ関係にあるため、単に形状パターン数を増やすだけでは全体的な符号化効率を向上させることは難しい。
 このように従来の動画像符号化/復号では、予め定義した形状パターンの動き補償予測しか行えないため、最適な形状で動き補償予測を行うことができず、符号化効率を向上させることができない。また、定義する動き補償予測形状パターンを増やした場合、動き補償予測形状パターンの選択に関する付加情報の符号量が増加するため、全体的な符号化効率が向上するとは限らない。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、動き補償予測のブロックパターンに関する付加情報の符号量を増加させることなく、さまざまなブロックパターンでの動き補償予測を可能にすることで、予測誤差を減少させて符号化効率を向上させる技術を提供することにある。
 上記課題を解決するために、本発明のある態様の動画像符号化装置は、符号化対象ブロックを所定の仮境界で複数の仮領域に分割する仮領域分割部(101)と、各仮領域に対して動きベクトルを検出する動きベクトル検出部(102)と、各仮領域の動きベクトルを用いて、参照画像から前記符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、前記各予測ブロックを前記本境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する動き補償部(103)と、前記合成予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化する符号化部(105)とを備える。
 本発明の別の態様は、動画像符号化方法である。この方法は、符号化対象ブロックを所定の仮境界で複数の仮領域に分割するステップと、各仮領域に対して動きベクトルを検出するステップと、各仮領域の動きベクトルを用いて、参照画像から前記符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、前記各予測ブロックを前記本境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成するステップと、前記合成予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化するステップとを備える。
 本発明のある態様の動画像復号装置は、符号化ストリームより、復号対象ブロックに対する複数の動きベクトルを復号する復号部(201)と、複数の動きベクトルを用いて、参照画像から前記復号対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて境界を決定し、前記各予測ブロックを前記境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する動き補償部(203)と、前記合成予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する加算部(209)とを備える。
 本発明の別の態様は、動画像復号方法である。この方法は、符号化ストリームより、復号対象ブロックに対する複数の動きベクトルを復号するステップと、複数の動きベクトルを用いて、参照画像から前記復号対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて境界を決定し、前記各予測ブロックを前記境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成するステップと、前記合成予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成するステップとを備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、動き補償予測のブロックパターンに関する付加情報の符号量を増加させることなく、さまざまなブロックパターンでの動き補償予測を可能にすることで、予測誤差を減少させて符号化効率を向上させることができる。
実施の形態1の動画像符号化装置の構成を示すブロック図である。 実施の形態1の動画像復号装置の構成を示すブロック図である。 マクロブロックを水平方向に2分割するパターンを説明する図である。 マクロブロックを垂直方向に2分割するパターンを説明する図である。 マクロブロックの仮領域毎に検出される動きベクトルを示す図である。 仮領域毎に検出された動きベクトルから生成される動き補償予測画像を示す図である。 各仮領域の動きベクトルから生成される動き補償予測画像を合成して得られる合成動き補償予測画像を示す図である。 各仮領域の動きベクトルから生成される動き補償予測画像を合成して合成動き補償予測画像を生成する方法を説明する図である。 図1の本領域分割・動き補償部による本境界の決定手順を説明するフローチャートである。 動き補償予測画像についての本境界決定に関するアクティビティを説明する図である。 本境界候補を2画素間隔に定義する場合の第1アクティビティ及び第2アクティビティの算出の例を説明する図である。 実施の形態2の動画像符号化装置による動きベクトルの調整手順を説明するフローチャートである。 実施の形態3の動画像符号化装置による仮境界の調整手順を説明するフローチャートである。 実施の形態1~3の動画像符号化装置により符号化される動画像のビットストリームの第一のシンタックスパターンを示す図である。 スライス単位で動き補償予測の形状を復号側で自動的に決定するかどうかを示す第1フラグがON/OFFそれぞれの場合のマクロブロックタイプmb_typeのセマンティックスを示す図である。 マクロブロック単位で動き補償予測の形状を復号側で自動的に決定するかどうかを示す第2フラグを伝送する第二のシンタックスパターンを示す図である。 スライスレベルで動き補償予測の形状を復号側で自動的に決定するアルゴリズムを切り替える第三のシンタックスパターンを示す図である。 マクロブロックの分割方向をシンタックス上で区別しない第四のシンタックスパターンを示す図である。 第四のシンタックスパターンのマクロブロックタイプのセマンティックスを示す図である。 領域分割をマクロブロックタイプと連動させずに決定する第五のシンタックスパターンを示す図である。 本発明の実施の形態を双方向予測に対して適用する場合について説明する図である。 マクロブロックを2次元に領域分割する方法を示す図である。 マクロブロックを2次元に分割して動き補償を行う手順を説明するフローチャートである。 マクロブロックを3つの領域に分割する方法を示す図である。 マクロブロックを3分割して動き補償を行う手順を説明するフローチャートである。
 以下、本発明の実施の形態について図面を参照して説明する。
 (実施の形態1)
 図1は、実施の形態1の動画像符号化装置の構成を示すブロック図である。実施の形態1の動画像符号化装置は、仮領域分割部101、動きベクトル検出部102、本領域分割・動き補償部103、直交変換・量子化部104、可変長符号化部105、逆量子化・逆直交変換部106、参照画像メモリ107、減算部108、および加算部109を備える。
 仮領域分割部101は、例えば16×16マクロブロックなどの符号化対象となっている画素群について、任意の境界で領域を分割する。この領域分割は動きベクトル検出のための符号化側の独自手法であり、どのような境界で領域分割しても構わないが、動き補償予測の効率が向上する境界で領域分割するのが望ましい。ここでは、最も単純な仮領域分割として、水平方向又は垂直方向にのみマクロブロックを2分割する場合を例として挙げて説明する。
 図3(a)~(c)は、マクロブロックを水平方向に2分割するパターンを説明する図である。図3(a)は、上から4画素目の水平境界でマクロブロックを16×4の上側領域と16×12の下側領域に2分割したパターンであり、図3(b)は、上から8画素目の水平境界でマクロブロックを16×8の上側領域と16×8の下側領域に2分割したパターンであり、図3(c)は、上から12画素目の水平境界でマクロブロックを16×12の上側領域と16×4の下側領域に2分割したパターンである。
 図4(a)~(c)は、マクロブロックを垂直方向に2分割するパターンを説明する図である。図4(a)は、左から4画素目の垂直境界でマクロブロックを4×16の左側領域と12×16の右側領域に2分割したパターンであり、図4(b)は、左から8画素目の垂直境界でマクロブロックを8×16の左側領域と8×16の右側領域に2分割したパターンであり、図4(c)は、左から12画素目の垂直境界でマクロブロックを12×16の左側領域と4×16の右側領域に2分割したパターンである。
 仮領域分割部101により決められるマクロブロックの境界を「仮境界」(provisional boundary)と呼び、仮境界により分割されたマクロブロック内の各領域を「仮領域」(provisional region)と呼ぶ。
 ここでは、水平方向または垂直方向に2分割するパターンを3つ示したが、水平境界または垂直境界の候補位置を増やして4以上の分割パターンを設けてもよい。また、斜め方向の境界で分割したり、折れ曲がった境界で分割してもよい。
 仮領域分割部101は、符号化対象となる原画像信号について、各水平境界に関する水平アクティビティ、または各垂直境界に関する垂直アクティビティを計算する。後述のように、折れ曲がった境界でマクロブロックを分割した場合は、折れ曲がった境界に沿ってアクティビティを計算する。
 画像信号のアクティビティとは、画素に対して何らかの演算を施した値のことである。マクロブロックを領域分割する境界に関するアクティビティとして、たとえば、境界をまたぐ2画素間の絶対差分和(SAD)を用いることができる。例えば、マクロブロック内のX座標をi、Y座標をjとして、点(i,j)における画素値をAi,jとすると、上からj画素目の水平境界jの水平アクティビティは以下のように定義される。
 水平アクティビティ=Σi=0 15|Ai,j-Ai,jー1
ここで、Σi=0 15は、添え字iを0から15まで動かした場合の総和である。
 ただし、アクティビティは絶対差分和(SAD)でなくてもよい。以下に示すような絶対二乗和(SSD)であってもよい。
 水平アクティビティ=Σi=0 15(Ai,j-Ai,jー1
 同様に、マクロブロックの左からi画素目の垂直境界iの垂直アクティビティは以下のように定義される。
 垂直アクティビティ=Σj=0 15|Ai,j-Aiー1,j
 アクティビティは物体のエッジなどで大きい値になる。仮領域分割部101は、アクティビティ値が最も大きい境界でマクロブロックの領域を仮分割する。
 動きベクトル検出部102は、仮領域分割部101により分割された各仮領域について動きベクトルを検出する。
 図5は、マクロブロックの仮領域毎に検出される動きベクトルを示す図である。仮領域分割部101が、マクロブロックを図3(a)のように上から4画素目の水平境界で仮分割した場合を例に取ると、動きベクトル検出部102は、図5に示すように、16×4の上側領域と16×12の下側領域のそれぞれについて動きベクトルを検出する。
 ここで、動きベクトルはブロックマッチング法を用いて検出する。動きベクトル検出のアルゴリズムは指定した探索領域内の候補ベクトルをすべて評価するフルサーチの他、さまざまな動き特性から探索する候補ベクトルを絞り込んで探索する高速サーチなどいろいろな方法が存在する。仮領域分割部101で分割したブロック毎に動きベクトルを検出することができるものであれば、どのような動きベクトル検出アルゴリズムを用いることも可能である。
 本領域分割・動き補償部103は、動きベクトル検出部102で検出された各仮領域の動きベクトルを用いて、参照画像メモリ107に蓄積されている参照画像から動き補償予測を行う。本領域分割・動き補償部103は、後述の手順で、各仮領域の動きベクトルから生成される複数の動き補償予測画像を合成して合成動き補償予測画像を生成する。
 図6(a)、(b)は、仮領域毎に検出された動きベクトルから生成される動き補償予測画像を示す。図7(a)~(c)は、各仮領域の動きベクトルから生成される動き補償予測画像を合成して得られる合成動き補償予測画像を示す。
 仮領域分割部101が、マクロブロックを図3(a)に示すように上から4画素目の水平境界で仮分割した場合を例に説明する。動きベクトル検出部102は、図5に示すように、16×4の上側領域と16×12の下側領域のそれぞれについて動きベクトルを検出した結果、符号化対象マクロブロックには2つの動きベクトル(第1、第2動きベクトル)が存在する。本領域分割・動き補償部103は、図6(a)、(b)に示すように、動きベクトル検出部102により検出された動きベクトル毎に、参照画像を用いて、仮に当該マクロブロックの大きさ(ここでは16×16)で動き補償予測した場合の画像を生成する。図6(a)は、16×4の上側領域の第1動きベクトルを用いて生成された第1動き補償予測画像であり、図6(b)は、16×12の下側領域の第2動きベクトルを用いて生成された第2動き補償予測画像である。
 本領域分割・動き補償部103は、図6(a)、(b)に示す第1、第2動き補償予測画像を、図7に示す(a)~(c)のいずれかのパターンに合成して合成動き補償予測画像を生成する。第1、第2動き補償予測画像は符号化対象マクロブロックと同一の大きさであり、合成動き補償予測画像を生成するために、ある境界で分割される。本領域分割・動き補償部103により決められるマクロブロックの境界を「本境界」(actual boundary)と呼び、本境界により分割されたマクロブロックの領域を「本領域」(actual region)と呼び、仮領域分割部101により決められる「仮境界」、「仮領域」と区別する。
 図7(a)~(c)は、本領域分割・動き補償部103が決定する本境界の候補を示したものである。図7(a)は上から4画素目の水平境界を本境界とし、図7(b)は上から8画素目の水平境界を本境界とし、図7(c)は上から12画素目の水平境界を本境界として、それぞれ、本境界より上側の本領域は第1動き補償予測画像の対応する領域、本境界より下側の本領域は第2動き補償予測画像の対応する領域で表したものである。
 本領域分割・動き補償部103は、エッジ強度などを表す評価値にもとづいて、本境界を決定し、決定された本境界で第1、第2動き補償予測画像を分割して合成する。
 図8(a)~(c)は、各仮領域の動きベクトルから生成される動き補償予測画像を合成して合成動き補償予測画像を生成する方法を説明する図である。本領域分割・動き補償部103は、本境界決定後、図8(a)の第1動きベクトルに対応する第1動き補償予測画像と図8(b)の第2動きベクトルに対応する第2動き補償予測画像を用いて、本境界より上の領域を第1動き補償予測画像として動き補償予測し、本境界より下の領域を第2動き補償予測画像として動き補償予測する。この例では、本境界より上の16×4の領域には、第1動き補償予測画像の対応する領域が複製され、本境界より下の16×12の領域には、第2動き補償予測画像の対応する領域が複製される。
 ここでは水平方向の領域分割を例に説明したが垂直方向の領域分割の場合も同様の方法で実施可能である。また、今回は本境界候補を図7(a)~(c)の3通りとする場合を説明したが、本境界の候補をさらに増やしてもよい。ただし、後述するように、直交変換・量子化部104の直交変換サイズとの関係を十分に考慮しておく必要がある。
 図1に戻り、減算部108は、符号化対象原画像と本領域分割・動き補償部103で算出した動き補償予測画像との差分により、予測残差成分を算出し、直交変換・量子化部104に与える。直交変換・量子化部104は、予測残差成分の直交変換・量子化を行う。
 ここで、直交変換・量子化部104は、動き補償予測のサイズに対応した直交変換サイズを使用して直交変換を行う。つまり、動き補償予測のサイズとして16×4/16×8/16×12(垂直方向に4の倍数)が許容されている場合、少なくとも16×4又は8×4又は4×4(垂直方向に4の倍数)の直交変換サイズを使用できるようにする。他の例として、動き補償予測のサイズとして16×2/16×4/16×6/16×8/16×10/16×12(垂直方向に2の倍数)が許容されている場合、少なくとも16×2又は8×2又は4×2(垂直方向に2の倍数)の直交変換サイズを使用できるようにする。これにより、動き補償予測の予測誤差を直交変換する際に、直交変換する予測誤差集合の中に動き補償予測の境界が含まれることがなくなる。これにより、動き補償予測の境界をまたいだ画素を予測誤差として一緒に直交変換することによる直交変換効率の低下を防止することができ、符号化効率を一層向上させる効果を奏する。
 可変長符号化部105は、直交変換・量子化部104で直交変換・量子化された予測残差成分を可変長符号化するとともに、動きベクトル検出部102で検出した動きベクトルを可変長符号化する。従来のようにマクロブロックを固定境界で分割する場合は、動きベクトルはラスタ順(すなわち、左上のブロックから右下のブロックへの順)で伝送する。本実施の形態のように動き補償予測の形状を復号側で自動的に決定する場合は、動き補償予測の各領域内の一番左上画素の位置がラスタ順で先のものから順に動きベクトルを伝送する。これにより、従来技術と同様、複数の動きベクトルを伝送する順序によって、動き補償予測の対象領域を一意的に表現することが可能である。
 逆量子化・逆直交変換部106は、直交変換・量子化部104によって直交変換・量子化された予測残差成分に対して、逆直交変換及び逆量子化を行う。直交変換・量子化部104と同様に、動き補償予測のサイズに対応したサイズで逆直交変換できるようにしておく。
 加算部109は、逆量子化・逆直交変換部106により復号された予測残差成分と、本領域分割・動き補償部103により算出された動き補償予測画像とを加算することで参照画像を生成し、参照画像メモリ107に格納する。
 図2は、実施の形態1の動画像復号装置の構成を示すブロック図である。実施の形態1の動画像復号装置は、可変長復号部201、本領域分割・動き補償部203、逆量子化・逆直交変換部206、加算部209、および参照画像メモリ207を備える。
 可変長復号部201は、直交変換・量子化されている予測残差成分信号及び動きベクトルを可変長復号する。図1の動画像符号化装置により符号化されたビットストリームでは、マクロブロックを分割した領域毎に動きベクトルが符号化されているため、可変長復号部201により、分割領域毎に動きベクトルが復号される。ここで、マクロブロック内の動きベクトルが復号された順序によって、動き補償予測の対象領域を一意に決定することができる。
 本領域分割・動き補償部203は、図1の動画像符号化装置の本領域分割・動き補償部103と同一の機能を持ち、可変長復号部201で復号された動きベクトルを用いて参照画像メモリ207に蓄積されている参照画像から動き補償予測を行う。ここで、動きベクトルはマクロブロックの分割領域毎に取得されている。本領域分割・動き補償部203は、図1の動画像符号化装置の本領域分割・動き補償部103と同様の手順で、各分割領域の動きベクトルから生成される複数の動き補償予測画像を合成して合成動き補償予測画像を生成する。
 逆量子化・逆直交変換部206は、図1の動画像符号化装置の逆量子化・逆直交変換部106と同一の機能を持ち、可変長復号部201で復号された予測残差成分に対して逆直交変換及び逆量子化を行う。
 加算部209は、逆量子化・逆直交変換部206により復号された予測残差成分と、本領域分割・動き補償部203により算出された動き補償予測画像とを加算することにより、画像信号を復号する。参照画像メモリ207は、図1の動画像符号化装置の参照画像メモリ107と同一であり、復号された参照画像を蓄積する。
 以上の構成による動画像符号化装置の動作、特に、本領域分割・動き補償部103の動作を説明する。
 図9は、本領域分割・動き補償部103による本領域の決定手順を説明するフローチャートである。
 まず、仮領域分割部101により分割されたN個(N≧2)の仮領域毎に動きベクトル検出部102は動きベクトルを検出する。ここではN=2とする。動きベクトル検出部102で検出した第1動きベクトルを用いて、マクロブロックと同一の大きさで動き補償予測し、第1動き補償予測画像を生成する(S01)。同様に、動きベクトル検出部102で検出した第2動きベクトルを用いて、マクロブロックと同一の大きさで動き補償予測し、第2動き補償予測画像を生成する(S02)。
 次に、本境界の各候補について、図10(a)~(d)に示す第1~第4アクティビティを算出する(S03~S06)。ただし、ステップS03~S06は順不同で行うことが可能である。また、ステップS03~S06のすべてを行わずに、境界評価に使用したいアクティビティだけを算出することももちろん可能である。
 まず、図10(a)のように、第1動き補償予測画像について、本境界候補に関する境界アクティビティ(第1アクティビティ)を算出する(S03)。ここで、アクティビティには本境界候補をまたぐ2画素間の絶対差分和(SAD)を用いる。第1アクティビティは物体のエッジなどで値が大きくなるため、値が大きいほど該当境界で領域を分割した方が動き補償予測の予測効率が向上する。同様に、図10(b)のように、第2動き補償予測画像について、本境界候補に関する境界アクティビティ(第2アクティビティ)を算出する(S04)。第2アクティビティは第1アクティビティと同様に、値が大きいほど該当境界で領域を分割した方が動き補償予測の予測効率が向上する。
 ここで、本境界候補を1画素間隔境界に定義しない場合の第1アクティビティ及び第2アクティビティの算出方法を説明する。本境界候補がn画素(n≧2)間隔に定義されている場合、ある本境界候補に関する境界アクティビティを算出する際、当該本境界候補Yの周辺で本境界候補が定義されていない領域の境界アクティビティをフィルタリングして使用する。
 図11は、本境界候補を2画素間隔に定義する場合の第1アクティビティ及び第2アクティビティの算出の例を説明する図である。図11は、16×16画素のマクロブロックについて本境界候補が2画素間隔(2,4,6,8,10,12,14)に設定されている場合である。本境界候補の位置は実線で、本境界候補が設定されていない位置は点線で図示している。本境界位置Yにおける第1および第2アクティビティは、本境界候補が設定されていない周辺位置Y-1、Y+1におけるアクティビティを考慮して、次式で求める。
 新たなアクティビティ(Y)=(ACT(Y-1)+2*ACT(Y)+ACT(Y+1)+2)/4
ここで、ACT(Y)、ACT(Y-1)、ACT(Y+1)はそれぞれ位置Y、Y-1、Y+1における図10(a)、(b)で説明した境界アクティビティである。
 このように、本境界が2画素間隔で設定された場合、本境界候補として使用しない位置(Y-1)及び(Y+1)におけるアクティビティを、本境界候補として使用する位置Yのアクティビティに影響を与えるようにする。これにより、たとえば、急峻なエッジが境界候補でない位置に発生している場合であっても、急峻なエッジのある位置のアクティビティを境界候補位置のアクティビティに反映させることができる。1画素毎にすべての境界を境界候補に設定しなくても、候補に外れた位置のアクティビティを参酌することができるため、演算量を抑制しつつ適切な本境界判定に寄与することができる。
 本例ではアクティビティ算出のフィルタリング係数を1:2:1としたが、他の係数でフィルタリングを施してももちろん構わない。また、本境界候補は、2画素間隔ではなく、3画素間隔以上にしてもよい。例えば、本境界候補を4画素間隔にした場合、本境界位置Yにおける第1および第2アクティビティは、本境界候補が設定されていない周辺位置Y-2、Y-1、Y+1、Y+2におけるアクティビティを考慮して、フィルタリング係数1:2:4:2:1のもと、次式で求める。
 新たなアクティビティ(Y)=(ACT(Y-2)+2*ACT(Y-1)+4*ACT(Y)+2*ACT(Y+1)+ACT(Y+2)+5)/10
 続いて、図10(c)のように、マクロブロック内の本境界候補より上の領域を第1動き補償予測画像として動き補償予測し、本境界候補より下の領域を第2動き補償予測画像として合成した合成動き補償予測画像について、本境界候補に関する境界アクティビティ(第3アクティビティ)を算出する(S05)。第3アクティビティは本境界候補をまたぐ2画素間の絶対差分和であるから、本境界候補の上下に位置する第1動き補償予測画像の画素と第2動き補償予測画像の画素の値の絶対差分の和になる。したがって、第3アクティビティは値が小さいほど、合成動き補償予測画像の境界が滑らかになり、予測誤差信号に高周波成分が発生しにくいため、動き補償予測の予測効率が向上する。
 ここで、第3アクティビティに対して、ある本境界候補に関する境界アクティビティを算出する際、当該本境界候補Yの周辺で本境界候補が定義されていない領域の境界アクティビティをフィルタリングして使用することももちろん可能である。
 最後に、図10(d)のように、第1動き補償予測画像と第2動き補償予測画像の差分画像について、本境界候補に関する境界アクティビティ(第4アクティビティ)を算出する(S06)。第4アクティビティは、物体の境界などで値が大きくなるため、値が大きいほど該当境界で領域を分割した方が動き補償予測の予測効率が向上する。
 ここで、第4アクティビティに対して、ある本境界候補に関する境界アクティビティを算出する際、当該本境界候補Yの周辺で本境界候補が定義されていない領域の境界アクティビティをフィルタリングして使用することももちろん可能である。
 境界評価に使用するアクティビティをすべて算出した後に、予め定義した評価値を用いて本境界候補を評価する(S07)。例えば、評価値は以下のように定義する。
 評価値=-A*ACT1-B*ACT2+C*ACT3-D*ACT4
ここで、ACT1は第1アクティビティ値を表し、ACT2は第2アクティビティ値を表し、ACT3は第3アクティビティ値を表し、ACT4は第4アクティビティ値を表す。また、A,B,C,Dはそれぞれ0以上の定数である。
 上記評価値をすべての本境界候補について算出し、最小値を持つ本境界候補を最終的な本境界に決定する(S08)。
 ここで、本境界と仮境界は同一になることが望ましいが、決定された本境界は必ずしも仮境界とは同一にならない。動きベクトル検出用の仮境界は、符号化側で最適な動きベクトルを求めるための境界であり、符号化側のみ利用可能な符号化対象原画像も使用して算出することができる。一方、本境界は符号化側・復号側共に一意的に算出可能でなければならず、算出した(復号側では伝送されてきた)複数の動きベクトルと、その動き補償予測画像(すなわち予測残差成分が加算される前の画像)で判断している。そのため、本境界と仮境界は同一でなくても符号化側と復号側のミスマッチなどは発生しない。
 しかしながら、本境界と仮境界が異なることは、本境界決定後の合成動き補償予測画像に対して最適な動きベクトルを検出できていないことを意味し、予測効率が必ずしも向上しないことがある。そのため、仮領域分割部101により設定される仮領域を調整するか、動きベクトル検出部102により検出される動きベクトルを調整することで、最適な仮境界あるいは最適な動きベクトルと、最適な本境界との双方を同時に実現すれば、符号化効率を更に向上させることができる。
 以下、動きベクトル検出部102により検出される動きベクトルを調整することで、本領域分割・動き補償部103により生成される合成動き補償予測画像の予測効率を最適化する構成を実施の形態2として説明する。また、仮領域分割部101により設定される仮境界を調整することで、本領域分割・動き補償部103により生成される合成動き補償予測画像の予測効率を最適化する構成を実施の形態3として説明する。
 (実施の形態2)
 実施の形態2の動画像符号化装置は、図1の動画像符号化装置と同一の構成であるが、実施の形態2では、本領域分割・動き補償部103から動きベクトル検出部102に動きベクトルの調整を指示するための信号を送る経路がさらに加わる。これにより、動きベクトル検出部102および本領域分割・動き補償部103の処理は、ループを形成し、本領域分割・動き補償部103が決定する本境界が、仮領域分割部101による仮境界と一致するか、十分に近いものとなるまで、動きベクトル検出部102が動きベクトルを調整する。
 図12は、実施の形態2の動画像符号化装置による動きベクトルの調整手順を説明するフローチャートである。動きベクトル検出部102は、仮境界に基づいて動きベクトルを検出し(S11)、次に、本領域分割・動き補償部103が、動きベクトル検出部102により検出された動きベクトルのもとで本境界決定処理を行う(S12)。本境界決定処理は、図9で述べたように、本境界候補の中から境界アクティビティの評価値が最良であるものを選択することで行われる。
 本領域分割・動き補償部103により決定された本境界が仮境界と等しい場合、動きベクトル検出部102による動きベクトル検出を終了するが、決定された本境界が仮境界と異なる場合は、動きベクトル検出部102による動きベクトル検出を続行する(S13)。本境界と仮境界が異なる場合には、動きベクトル検出部102は、例えば、2つの領域に仮分割されたどちらかの領域で動きベクトル検出をやり直す。やり直しの方法はどのような方法でも良いが、例えば動きベクトル探索時の誤差評価値の内、2番目に小さい値(第2最小値)を残しておき、第2最小値の位置から動きベクトル検出を続行するなどの手法が可能である。
 動きベクトル検出部102によって再検出された動きベクトルを用いて、本領域分割・動き補償部103は、本境界決定処理を再度行う。本境界が仮境界に一致するか、十分に近いものとなるまで、動きベクトル検出部102による動きベクトル検出処理と本領域分割・動き補償部103による本境界決定処理を繰り返す。
 (実施の形態3)
 実施の形態3の動画像符号化装置は、図1の動画像符号化装置と同一の構成であるが、実施の形態3では、仮領域分割部101は複数の仮境界候補を設定し、動きベクトル検出部102は仮境界候補毎に動きベクトルを検出し、本領域分割・動き補償部103は仮境界毎に本境界決定処理を行う。そして、本領域分割・動き補償部103は、複数の仮境界の中で合成動き補償予測画像の予測効率が最も良いものを選ぶ。
 図13は、実施の形態3の動画像符号化装置による仮境界の調整手順を説明するフローチャートである。仮領域分割部101は、仮境界候補を複数設定し、動きベクトル検出部102は、それぞれの仮境界候補で分割される仮領域毎に動きベクトルを検出する(S21)。本領域分割・動き補償部103は、各仮境界候補で分割される仮領域毎に検出された動きベクトルにもとづいて本境界決定処理を行い(S22)、合成動き補償予測画像の予測効率を評価する(S23)。予測効率の評価は、原画像と合成動き補償予測画像の差分に対するSAD等で評価する。この評価を複数の仮境界候補について行い(S24)、仮境界候補の中で最も動き補償予測画像の予測効率が最も良い仮境界を選ぶ。本領域分割・動き補償部103は、選択された仮境界に対する動きベクトルに対して決定される本境界のもとで生成された合成動き補償予測画像を最終結果として出力する。
 別の方法として、実施の形態2のように、本領域分割・動き補償部103から仮領域分割部101に仮境界の調整を指示するための信号を送る経路を加え、仮領域分割部101、動きベクトル検出部102および本領域分割・動き補償部103の処理が、ループを形成するように構成してもよい。本領域分割・動き補償部103が決定する本境界が、仮領域分割部101による仮境界と一致するか、十分に近いものとなるまで、仮領域分割部101は仮境界を調整する。本領域分割・動き補償部103により決定された本境界が仮境界と等しい場合、仮領域分割部101による仮境界の設定は終了するが、決定された本境界が仮境界と異なる場合は、仮領域分割部101は別の仮境界の候補を設定し、動きベクトル検出部102は、再設定された仮境界で分割される仮領域毎に動きベクトルを再検出し、本領域分割・動き補償部103は、本境界決定処理を再度行う。本境界が仮境界に一致するか、十分に近いものとなるまで、仮領域分割部101による仮境界設定処理と本領域分割・動き補償部103による本境界決定処理を繰り返す。
 いずれの方法を取っても、結果的に、本領域分割・動き補償部103が最終決定する本境界は、仮領域分割部101が設定する仮境界と一致するか、十分に近いものとなり、予測効率が向上する。
 次に、実施の形態1~3の動画像符号化装置により符号化される動画像のビットストリームのシンタックスについて説明する。
 図14は、MPEG-4 AVCのシンタックスをベースとした第一のシンタックスパターンを示す。図14(a)のように、まず、スライス単位で予測画像の特徴量を用いて動き補償予測の形状を復号側で自動的に決定するかどうかを示す第1フラグ(use_auto_mc_size)を伝送する。第1フラグuse_auto_mc_sizeがOFFの場合は、従来通り図14(b)に示すマクロブロックタイプmb_typeに基づきマクロブロックを固定的に分割して動き補償予測を行う。第1フラグuse_auto_mc_sizeがONの場合、予測画像の特徴量を用いて動き補償予測の形状を復号側で自動的に決定して動き補償予測を行う。マクロブロック単位では、MPEG-4 AVCと同様に、mb_typeを伝送して動き補償予測の形状を判断する。
 図15は、第1フラグuse_auto_mc_sizeがON/OFFそれぞれの場合のマクロブロックタイプmb_typeのセマンティックスを示す。マクロブロックタイプmb_type=0の場合は16×16のマクロブロックを領域分割せずに動き補償予測を行う。マクロブロックタイプmb_type=1の場合、第1フラグuse_auto_mc_sizeがOFFの場合は16×8で動き補償予測を行うが、第1フラグuse_auto_mc_sizeがONの場合、マクロブロックを16×Aと16×(16-A)の2つの領域に自動分割して動き補償予測を行う。同様に、マクロブロックタイプmb_type=2の場合、第1フラグuse_auto_mc_sizeがOFFの場合は8×16ブロックで動き補償予測を行うが、第1フラグuse_auto_mc_sizeがONの場合、マクロブロックをA×16と(16-A)×16の2つの領域に自動分割して動き補償予測を行う。マクロブロックタイプmb_type=3の場合は8×8ブロックで動き補償予測を行う。
 図16は、スライスレベルだけでなく、マクロブロック単位でも動き補償予測の形状を復号側で自動的に決定するかどうかを示す第2フラグ(auto_mc_size_enable)を伝送する第二のシンタックスパターンを示す。第2フラグauto_mc_size_enableがOFFの場合、スライスレベルで第1フラグuse_auto_mc_sizeがOFFになった場合と同様に、従来通りマクロブロックタイプmb_typeに基づきマクロブロックを固定的に分割して動き補償予測を行う。第2フラグauto_mc_size_enableがONの場合、予測画像の特徴量を用いて動き補償予測の形状を復号側で自動的に決定して動き補償予測を行う。第二のシンタックスを用いると、本境界を自動的に決定してしまうことで予測効率が低下する場合を排除できる。
 図17は、スライスレベルで動き補償予測の形状を復号側で自動的に決定するアルゴリズムを切り替える第三のシンタックスパターンを示す。スライス単位で第1フラグuse_auto_mc_sizeがONの場合、動き補償予測の形状を復号側で自動的に決定するアルゴリズムタイプを示すアルゴリズムタイプauto_mc_algorithmを伝送する。例えば、アルゴリズムタイプauto_mc_algorithm=0の場合、第1~第4アクティビティACT1~ACT4のすべてを用いた評価値に基づき動き補償予測の形状を決定する。アルゴリズムタイプauto_mc_algorithm=1の場合、第4アクティビティACT4を除いた第1~第3アクティビティACT1~ACT3だけを用いて評価値に基づき動き補償予測の形状を決定するなどである。このように、アルゴリズムタイプauto_mc_algorithmの値に使用するアクティビティの種類を対応づけることで、動き補償予測の形状を決定するアルゴリズムを切り替えることができる。第三のシンタックスを用いると、符号化側で最適なアルゴリズムタイプを判断して復号側で領域の自動分割を行わせることが可能になるため、符号化効率が更に向上する。
 図18は、マクロブロックを水平方向と垂直方向のどちらに領域を分割するか(分割方向)をシンタックス上で区別しない第四のシンタックスパターンを示す。マクロブロック単位でマクロブロックタイプmb_typeを伝送して動き補償予測の形状を判断することは第一のシンタックスパターンと同様だが、マクロブロックタイプmb_typeのセマンティックスが異なる。
 図19は、第四のシンタックスパターンのマクロブロックタイプmb_typeのセマンティックスを示す。第1フラグuse_auto_mc_sizeがOFFの場合は、従来通りマクロブロックタイプmb_typeに基づきマクロブロックを固定的に分割して動き補償予測を行い、第1フラグuse_auto_mc_sizeがONの場合、予測画像の特徴量を用いて動き補償予測の形状を復号側で自動的に決定して動き補償予測を行うことは第一のシンタックスパターンと同様である。ただし、16×Aと16×(16-A)の2つの領域に水平方向に分割することと、A×16と(16-A)×16の2つの領域に垂直方向に分割することとが、マクロブロックタイプmb_type=1として区別されずに扱われることが第一のシンタックスパターンとは異なる。マクロブロックタイプmb_type=1の場合、水平方向本境界候補と垂直方向本境界候補のすべての境界評価値を算出し、最小の評価値を持つ境界候補を本境界に決定する。つまり、分割方向(水平方向・垂直方向)を含めて動き補償予測の形状を復号側で自動決定する。第四のシンタックスパターンを用いると、水平方向と垂直方向を区別する分割方向情報を伝送する必要がないため、マクロブロックタイプmb_typeの符号量が減少し、符号化効率が更に向上する。
 図20は、領域分割をマクロブロックタイプmb_typeと連動させずに決定する第五のシンタックスパターンを示す。マクロブロック単位でマクロブロックタイプmb_typeに代わって動きベクトル数motion_vector_num_minus1を伝送する。動きベクトル数motion_vector_num_minus1は(マクロブロック内の動きベクトルの本数-1)の値を表す。本発明の実施の形態では、伝送する動きベクトルの数だけ動き補償予測の領域が分割されるため、少なくとも動きベクトルの本数を伝送すれば、動き補償予測の形状を復号側で自動的に決定できる可能性がある。実施の形態1~3では動きベクトルが2本の場合の例を説明したが、動きベクトルが2本より多い、たとえば3本の場合の例は実施の形態5で述べる。
 ここまでは、MPEGのPピクチャなどで用いられる片方向予測について本発明の実施の形態を説明してきた。図21を参照して、本発明の実施の形態をBピクチャなどで用いられる双方向予測(通常は前方向予測と後方向予測)に対して適用した場合について説明する。ここで、マクロブロックを水平方向に2分割する場合を例に挙げて説明する。双方向予測とは、2つの参照画像から動き補償予測を行うことで得た2つの画像を平均化又は重みづけ平均化することにより、予測画像を得る技術である。
 まず、仮領域毎に各予測方向(前方向、後方向)の動きベクトルが検出される。図21(a)、(b)は、第1仮領域に対する各予測方向(前方向、後方向)の第1動きベクトルを示す。図21(a)、(b)は、第2仮領域に対する各予測方向(前方向、後方向)の第2動きベクトルを示す。
 図21(e)は、前方向および後方向の第1動きベクトルを用いて双方向予測した第1動き補償予測画像を示し、図21(f)は、前方向および後方向の第2動きベクトルを用いて双方向予測した第2動き補償予測画像を示す。
 図21(g)は、本境界決定後、マクロブロックの本境界より上側の本領域を第1動き補償予測画像の対応する領域から複製し、本境界より下側の本領域を第2動き補償予測画像の対応する領域から複製して生成される合成動き補償予測画像を示す。
 このように、双方向予測に対して本発明の実施の形態を適用することは容易であり、双方向予測により予測誤差を削減しつつ、適切な領域分割により更に予測誤差を削減可能である。
 また、本発明の実施の形態は、動きベクトルを直接伝送するのではなく、周辺ブロックの動きベクトルや参照画像の動きベクトルを基に自動算出した動きベクトルを用いて動き補償予測の形状を自動的に決定することももちろん可能である。
 また、ここまでは単一の画像コンポーネント(輝度)について説明したが、YUV4:4:4/YUV4:2:2/YUV4:2:0などの複数コンポーネント(輝度及び色差)にも適用することが可能である。ただし、動き補償予測では輝度と色差を同時に行うため、YUV4:2:2やYUV4:2:0などの輝度と色差のサンプル数が異なるフォーマットでは、サンプル数の多い輝度を基準に領域を分割した場合、色差の領域分割位置があいまいになる可能性がある。例えば、YUV4:2:0フォーマットの時に、輝度を16×5と16×11に分割する場合に色差の領域分割が8×2なのか8×3なのか不明になどである。このあいまいさを防止する対策としては、あらかじめサンプル数の少ない色差を基準にして領域を分割することや、あいまいな位置での色差の分割規則を予め決めておく(ブロックの中心を基準に切り捨てる)方法や、境界上の画素は両動き補償予測画像の平均値(フィルタリング)を用いる方法などがある。
 (実施の形態4)
 実施の形態4の動画像符号化装置および動画像復号装置は、実施の形態1~3と同一の構成を取るが、実施の形態4の動画像符号化装置は、マクロブロックを2次元に分割して動き補償を行い、2つの動きベクトルを伝送し、動画像復号装置は、動き補償予測の形状を復号側で2次元に分割し、伝送された2つの動きベクトルを用いた動き補償を行う。
 図22(a)~(f)は、マクロブロックを2次元に領域分割する方法を示す。図22(a)のように、実施の形態1~3で説明した手順を実行することで、マクロブロックに対して水平方向境界と垂直方向境界をそれぞれ定める。水平方向境界より上または下、および、垂直方向境界より左または右の組み合わせにより、図22(b)~(e)の4通りの2次元分割パターンを定義することができる。
 図22(b)の2次元分割パターンでは、水平方向境界より上、かつ、垂直方向境界より左の領域を第1領域とし、残りの領域(水平方向境界より下、または、垂直方向境界より左の領域)を第2領域とする。
 図22(c)の2次元分割パターンでは、水平方向境界より下、または、垂直方向境界より左の領域を第1領域とし、残りの領域(水平方向境界より上、かつ、垂直方向境界より右の領域)を第2領域とする。
 図22(d)の2次元分割パターンでは、水平方向境界より上、または、垂直方向境界より右の領域を第1領域とし、残りの領域(水平方向境界より下、かつ、垂直方向境界より左の領域)を第2領域とする。
 図22(e)の2次元分割パターンでは、水平方向境界より上、または、垂直方向境界より左の領域を第1領域とし、残りの領域(水平方向境界より下、かつ、垂直方向境界より右の領域)を第2領域とする。
 図22(f)は、これら4つの2次元分割パターンから一つを選んで、第1領域には第1動きベクトルによる動き補償予測画像の対応領域を、第2領域には第2動きベクトルによる動き補償予測画像の対応領域をそれぞれ複製することで得られる合成動き補償予測画像を示す。
 図23は、マクロブロックを2次元に分割して動き補償を行う手順を説明するフローチャートである。まず、実施の形態1と同様の方法で、水平方向境界と垂直方向境界の両境界を決定する(S31)。次に、水平方向境界と垂直方向境界の組み合わせによって2つに分割されたマクロブロックの2次元分割領域について、境界アクティビティの評価値を算出する(S32)。例えば、マクロブロック内のX座標をi、Y座標をjにおける画素値をAi,jとすると、2次元分割領域に境界に沿って、水平方向境界jの水平アクティビティをi=aからi=bまで適用し、垂直方向境界iの垂直アクティビティをj=cからj=dまで適用した場合の2次元平均アクティビティを以下のように定義することができる。
 2次元平均アクティビティ=Σi=a |Ai,j-Ai,jー1|/(b-a)+Σj=c |Ai,j-Aiー1,j|/(d-c)
 上記の2次元平均アクティビティを評価値に用いることで、アクティビティ算出に使用したサンプル数に依存せずに、2次元領域分割を評価することが可能である。ステップS32をすべての2次元分割パターン(ここでは4パターン)で繰り返し(S33)、最小評価値を持つ2次元分割候補を選択して、合成動き補償予測画像を生成する。
 このように、実施の形態4では、実施の形態1より柔軟な形状で動き補償予測を行えるため、更に符号化効率が向上する。
 (実施の形態5)
 実施の形態5の動画像符号化装置および動画像復号装置は、実施の形態1~3と同一の構成を取るが、実施の形態5の動画像符号化装置は、3つの動きベクトルを用いてマクロブロックを3分割して動き補償を行い、3つの動きベクトルを伝送し、動画像復号装置は、伝送された3つの動きベクトルを用いて、動き補償予測の形状を復号側で3分割して動き補償を行う。
 図24(a)、(b)は、マクロブロックを3つの領域に分割する方法を示す。図24(a)のように、まず、実施の形態1~3で説明した手順を実行することで、水平方向境界または垂直方向境界により、マクロブロックを2分割する。次に、図24(b)のように、2分割された領域の内、大きい方の領域について、さらに水平方向境界または垂直方向境界を設定することにより、大きい方の領域を2分割する。これにより、マクロブロックは3分割され、各領域で動きベクトルが検出される。
 図25は、マクロブロックを3分割して動き補償を行う手順を説明するフローチャートである。マクロブロックを3領域に分割して動き補償を行うために、3本の動きベクトルを検出して伝送することが必要となる。まず、実施の形態1と同様の方法で、1本目の動きベクトルと2本目の動きベクトルを用いて、水平方向又は垂直方向に領域分割し、動き補償を行う(S41)。次に、1本目の動きベクトルと2本目の動きベクトルによって分割された領域の大小を比較し、大きい方の領域を判断する(S42)。これは、大きい領域の方が領域分割の影響が大きく、予測効率の向上がより大きく見込めるためである。また、領域の大きさが同一の場合は、予めどちらの領域が優先するかを決めておく。最後に、大きい方の領域について、その領域の動きベクトル(1本目の動きベクトル又は2本目の動きベクトル)と3本目の動きベクトルを用いて、水平方向又は垂直方向に領域分割し、動き補償を行う(S43)。
 このように、実施の形態5では、3本の動きベクトルを用いて動き補償予測の領域を3分割できる。これにより、複数の小さな動き等にも対応できるため、更に符号化効率が向上する。同様にして領域の分割をさらに進めることにより、動き補償予測の領域を4分割以上にして、動きベクトルの数を4以上にすることもできる。
 以上述べたように、本発明の実施の形態によれば、複数の動きベクトルから得られる複数の予測画像の特徴量を用いて、動き補償予測の形状を復号側で自動的に決定することによって、動き補償予測形状パターンの情報を伝送せずに、動き補償予測の形状を可変にすることができる。したがって、さまざまな形状での柔軟な動き補償予測が可能となり、その結果、付加情報の符号量を増加させることなく、動き補償予測の予測誤差を減少させることができ、符号化効率が向上する。
 また、符号化側の動きベクトル検出過程において、復号側で決定される本境界を算出しながら動きベクトルを評価することで、最適な動きベクトルと最適な本境界の双方を同時に実現した。これにより、動き補償予測の予測効率が向上する。また、復号側では伝送されてきた動きベクトルから算出される本境界を用いて動き補償予測を行うだけで、動画像を復号することができる。
 以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 101 仮領域分割部、 102 動きベクトル検出部、 103 本領域分割・動き補償部、 104 直交変換・量子化部、 105 可変長符号化部、 106 逆量子化・逆直交変換部、 107 参照画像メモリ、 108 減算部、 109 加算部、 201 可変長復号部、 203 本領域分割・動き補償部、 206 逆量子化・逆直交変換部、 207 参照画像メモリ、 209 加算部。
 本発明は、動画像の符号化技術、特に動き補償予測を利用した動画像の符号化技術に利用できる。

Claims (15)

  1.  符号化対象ブロックを所定の仮境界で複数の仮領域に分割する仮領域分割部と、
     各仮領域に対して動きベクトルを検出する動きベクトル検出部と、
     各仮領域の動きベクトルを用いて、参照画像から前記符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、前記各予測ブロックを前記本境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する動き補償部と、
     前記合成予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化する符号化部とを備えることを特徴とする動画像符号化装置。
  2.  前記動き補償部は、複数の予測ブロックの各隣接画素間のアクティビティに基づいて本境界候補に対応する評価値を算出し、前記評価値を用いて本境界候補の中から本境界を決定することを特徴とする請求項1に記載の動画像符号化装置。
  3.  前記本境界候補は、2画素間隔以上の所定画素間隔毎に設けられており、前記動き補償部は、本境界候補のアクティビティと、本境界候補に隣接する本境界候補に設定されていない境界のアクティビティとにもとづいて本境界候補に対応する前記評価値を算出することを特徴とする請求項2に記載の動画像符号化装置。
  4.  前記動き補償部により決定された前記本境界が前記仮境界と異なる場合、前記動きベクトル検出部が少なくとも1つの仮領域の動きベクトルを前回とは異なる値に再設定し、前記動き補償部は、再設定対象の仮領域においてはその再設定された動きベクトルを採用した各仮領域の動きベクトルを用いて生成される複数の予測ブロックのアクティビティに基づいて、前記本境界を再決定することを特徴とする請求項1から3のいずれかに記載の動画像符号化装置。
  5.  前記仮領域分割部は複数の仮境界候補を設定し、前記符号化対象ブロックを前記仮境界候補毎に複数の仮領域に分割し、
     前記動きベクトル検出部は、仮境界候補毎に各仮領域に対する動きベクトルを検出し、
     前記動き補償部は、仮境界候補毎に各仮領域の動きベクトルを用いて、前記合成予測ブロックの候補を生成し、最も予測効率の良い合成予測ブロックの候補を最終的な合成予測ブロックとして選択することを特徴とする請求項1から3のいずれかに記載の動画像符号化装置。
  6.  前記動き補償部により決定された前記本境界が前記仮境界と異なる場合、前記仮領域分割部は別の仮境界を再設定し、前記動きベクトル検出部は、再設定された仮境界で分割される仮領域毎に動きベクトルを再検出し、前記動き補償部は、再検出された各仮領域の動きベクトルを用いて生成される複数の予測ブロックのアクティビティに基づいて前記本境界を再決定することを特徴とする請求項1から3のいずれかに記載の動画像符号化装置。
  7.  前記予測ブロックのアクティビティは、前記予測ブロックが分割される本境界をまたぐ画素値を評価した境界アクティビティであることを特徴とする請求項1から6のいずれかに記載の動画像符号化装置。
  8.  符号化対象ブロックを所定の仮境界で複数の仮領域に分割するステップと、
     各仮領域に対して動きベクトルを検出するステップと、
     各仮領域の動きベクトルを用いて、参照画像から前記符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、前記各予測ブロックを前記本境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成するステップと、
     前記合成予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化するステップとを備えることを特徴とする動画像符号化方法。
  9.  符号化対象ブロックを所定の仮境界で複数の仮領域に分割する機能と、
     各仮領域に対して動きベクトルを検出する機能と、
     各仮領域の動きベクトルを用いて、参照画像から前記符号化対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて本境界を決定し、前記各予測ブロックを前記本境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する機能と、
     前記合成予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックと、各仮領域の動きベクトルとを符号化する機能とをコンピュータに実現させることを特徴とする動画像符号化プログラム。
  10.  符号化ストリームより、復号対象ブロックに対する複数の動きベクトルを復号する復号部と、
     複数の動きベクトルを用いて、参照画像から前記復号対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて境界を決定し、前記各予測ブロックを前記境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する動き補償部と、
     前記合成予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する加算部とを備えることを特徴とする動画像復号装置。
  11.  前記動き補償部は、複数の予測ブロックの各隣接画素間のアクティビティに基づいて境界候補に対応する評価値を算出し、前記評価値を用いて境界候補の中から境界を決定することを特徴とする請求項10に記載の動画像復号装置。
  12.  前記境界候補は、2画素間隔以上の所定画素間隔毎に設けられており、前記動き補償部は、境界候補のアクティビティと、境界候補に隣接する境界候補に設定されていない境界のアクティビティとにもとづいて境界候補に対応する前記評価値を算出することを特徴とする請求項11に記載の動画像復号装置。
  13.  前記予測ブロックのアクティビティは、前記予測ブロックが分割される境界をまたぐ画素値を評価した境界アクティビティであることを特徴とする請求項10から12のいずれかに記載の動画像復号装置。
  14.  符号化ストリームより、復号対象ブロックに対する複数の動きベクトルを復号するステップと、
     複数の動きベクトルを用いて、参照画像から前記復号対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて境界を決定し、前記各予測ブロックを前記境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成するステップと、
     前記合成予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成するステップとを備えることを特徴とする動画像復号方法。
  15.  符号化ストリームより、復号対象ブロックに対する複数の動きベクトルを復号する機能と、
     複数の動きベクトルを用いて、参照画像から前記復号対象ブロックに対応した複数の予測ブロックを生成し、複数の予測ブロックのアクティビティに基づいて境界を決定し、前記各予測ブロックを前記境界で分割して得た領域を前記各予測ブロック間で結合させることにより、合成予測ブロックを生成する機能と、
     前記合成予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックとを加算することにより、復号画像を生成する機能とをコンピュータに実現させることを特徴とする動画像復号プログラム。
PCT/JP2011/001690 2010-04-07 2011-03-23 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム WO2011125299A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020127029274A KR101419634B1 (ko) 2010-04-07 2011-03-23 동화상 부호화 장치, 동화상 부호화 방법 및 동화상 부호화 프로그램, 및 동화상 복호 장치, 동화상 복호 방법 및 동화상 복호 프로그램
EP11765201.6A EP2557791A4 (en) 2010-04-07 2011-03-23 ANIMATED IMAGE ENCODING DEVICE, ANIMATED IMAGE ENCODING METHOD, ANIMATED IMAGE ENCODING PROGRAM, ANIMATED IMAGE DECODING DEVICE, ANIMATED IMAGE DECODING METHOD, AND ANIMATED IMAGE DECODING PROGRAM
CN201180026733.7A CN102918842B (zh) 2010-04-07 2011-03-23 动图像编码装置和方法、以及动图像解码装置和方法
KR1020147000905A KR20140017018A (ko) 2010-04-07 2011-03-23 동화상 부호화 장치, 동화상 부호화 방법 및 동화상 부호화 프로그램, 및 동화상 복호 장치, 동화상 복호 방법 및 동화상 복호 프로그램
US13/631,114 US20130064299A1 (en) 2010-04-07 2012-09-28 Moving picture encoding apparatus, moving picture encoding method, and moving picture encoding program, and moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2010-088529 2010-04-07
JP2010088528 2010-04-07
JP2010-088528 2010-04-07
JP2010088529 2010-04-07
JP2010217755A JP2011234338A (ja) 2010-04-07 2010-09-28 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2010-217755 2010-09-28
JP2010217754A JP2011234337A (ja) 2010-04-07 2010-09-28 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP2010-217754 2010-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/631,114 Continuation US20130064299A1 (en) 2010-04-07 2012-09-28 Moving picture encoding apparatus, moving picture encoding method, and moving picture encoding program, and moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Publications (1)

Publication Number Publication Date
WO2011125299A1 true WO2011125299A1 (ja) 2011-10-13

Family

ID=47439506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/001690 WO2011125299A1 (ja) 2010-04-07 2011-03-23 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム

Country Status (5)

Country Link
US (1) US20130064299A1 (ja)
EP (1) EP2557791A4 (ja)
KR (2) KR20140017018A (ja)
CN (1) CN102918842B (ja)
WO (1) WO2011125299A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012114590A (ja) * 2010-11-22 2012-06-14 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013113170A1 (en) * 2012-02-03 2013-08-08 Thomson Licensing System and method for error controllable repetitive structure discovery based compression
KR102327617B1 (ko) * 2013-04-08 2021-11-17 지이 비디오 컴프레션, 엘엘씨 효율적인 다-시점/계층 코딩을 허용하는 코딩 개념
KR20180040517A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 비디오 부호화, 복호화 방법 및 장치
CN116866613A (zh) * 2016-06-22 2023-10-10 Lx 半导体科技有限公司 图像编码/解码方法以及图像数据的传输方法
WO2019050300A1 (ko) * 2017-09-06 2019-03-14 가온미디어 주식회사 효과적인 차분양자화 파라미터 전송 기반 영상 부/복호화 방법 및 장치
WO2020059616A1 (ja) * 2018-09-21 2020-03-26 日本放送協会 画像符号化装置、画像復号装置、及びプログラム
EP3668096A1 (en) 2018-12-11 2020-06-17 Axis AB Method and device for encoding a sequence of image frames using a first and a second encoder

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0425570B2 (ja) 1982-08-26 1992-05-01 Tokyo Shibaura Electric Co
JP2000511366A (ja) * 1995-10-25 2000-08-29 サーノフ コーポレイション 4分割ツリーベースの可変ブロックサイズ動き推定装置および方法
WO2003026315A1 (en) 2001-09-14 2003-03-27 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
JP2005012439A (ja) * 2003-06-18 2005-01-13 Nippon Hoso Kyokai <Nhk> 符号化装置、符号化方法および符号化プログラム
JP2010081635A (ja) * 2009-11-20 2010-04-08 Casio Computer Co Ltd 動き補償予測符号化装置、動き補償予測符号化方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69133350D1 (de) * 1990-03-05 2004-01-29 Canon Kk Bildverarbeitungsgerät
US6798834B1 (en) * 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
EP1571850A3 (en) * 2004-03-05 2006-12-13 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding image containing grayscale alpha channel image
US20050249278A1 (en) * 2004-04-28 2005-11-10 Matsushita Electric Industrial Co., Ltd. Moving image coding method, moving image decoding method, moving image coding device, moving image decoding device, moving image coding program and program product of the same
JP4047879B2 (ja) * 2005-08-23 2008-02-13 松下電器産業株式会社 動きベクトル検出装置および動きベクトル検出方法
EP2720466A1 (en) * 2005-09-26 2014-04-16 Mitsubishi Electric Corporation Moving image coding method
JPWO2008120577A1 (ja) 2007-03-29 2010-07-15 株式会社東芝 画像符号化及び復号化の方法及び装置
BRPI0818344A2 (pt) * 2007-10-12 2015-04-22 Thomson Licensing Métodos e aparelhos para codificação e decodificação de vídeo de partições de modo bi-preditivo geometricamente particionadas
US8401311B2 (en) * 2008-03-11 2013-03-19 Sony Corporation Image processing device, method, and program
CN101605262B (zh) * 2009-07-09 2011-11-09 杭州士兰微电子股份有限公司 可变块尺寸运动预测方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0425570B2 (ja) 1982-08-26 1992-05-01 Tokyo Shibaura Electric Co
JP2000511366A (ja) * 1995-10-25 2000-08-29 サーノフ コーポレイション 4分割ツリーベースの可変ブロックサイズ動き推定装置および方法
WO2003026315A1 (en) 2001-09-14 2003-03-27 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
JP2005012439A (ja) * 2003-06-18 2005-01-13 Nippon Hoso Kyokai <Nhk> 符号化装置、符号化方法および符号化プログラム
JP2010081635A (ja) * 2009-11-20 2010-04-08 Casio Computer Co Ltd 動き補償予測符号化装置、動き補償予測符号化方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2557791A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012114590A (ja) * 2010-11-22 2012-06-14 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム

Also Published As

Publication number Publication date
US20130064299A1 (en) 2013-03-14
EP2557791A4 (en) 2016-09-07
KR20130009833A (ko) 2013-01-23
CN102918842A (zh) 2013-02-06
KR101419634B1 (ko) 2014-07-16
CN102918842B (zh) 2016-05-18
KR20140017018A (ko) 2014-02-10
EP2557791A1 (en) 2013-02-13

Similar Documents

Publication Publication Date Title
US11265543B2 (en) Method, device, and recording medium storing bit stream, for encoding/decoding image
WO2011125299A1 (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
RU2699675C1 (ru) Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
JP7445799B2 (ja) 画像復号装置及び画像復号方法
US9055302B2 (en) Video encoder and video decoder
US9237354B2 (en) Video coding apparatus, video coding method and video coding program, and video decoding apparatus, video decoding method and video decoding program
EP1601208A2 (en) Method, apparatus and computer readable medium for prediction encoding/decoding
US7840096B2 (en) Directional interpolation method and video encoding/decoding apparatus and method using the directional interpolation method
US8606026B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method based on reduced-image displacement vector
KR20140016375A (ko) 비디오 코딩을 위해 블록킹 현상 아티팩트들을 필터링하기
WO2010082463A1 (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法
JP2012070277A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP2012070278A (ja) 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2007531444A (ja) ビデオデータのための動き予測及びセグメンテーション
JP5206772B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US10742979B2 (en) Nonlinear local activity for adaptive quantization
JP2011135460A (ja) 動画像符号化装置および動画像復号装置
JP2011234338A (ja) 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011234337A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP5206773B2 (ja) 動画像復号装置、動画像復号方法及び動画像復号プログラム
KR20230169986A (ko) 복수의 dimd 모드 기반 인트라 예측 방법 및 장치
WO2016193949A1 (en) Advanced video coding method, system, apparatus and storage medium
JP2011254395A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
KR20230175203A (ko) 세컨더리 mpm 리스트를 이용하는 인트라 예측 방법및 장치
KR20230149297A (ko) 인트라 예측 모드 도출 기반 인트라 예측 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180026733.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11765201

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011765201

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20127029274

Country of ref document: KR

Kind code of ref document: A