JP6405432B2 - 画像予測復号装置および画像予測復号方法 - Google Patents

画像予測復号装置および画像予測復号方法 Download PDF

Info

Publication number
JP6405432B2
JP6405432B2 JP2017187567A JP2017187567A JP6405432B2 JP 6405432 B2 JP6405432 B2 JP 6405432B2 JP 2017187567 A JP2017187567 A JP 2017187567A JP 2017187567 A JP2017187567 A JP 2017187567A JP 6405432 B2 JP6405432 B2 JP 6405432B2
Authority
JP
Japan
Prior art keywords
prediction
signal
region
target
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017187567A
Other languages
English (en)
Other versions
JP2018019418A (ja
Inventor
鈴木 芳典
芳典 鈴木
ブン チュンセン
チュンセン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2018019418A publication Critical patent/JP2018019418A/ja
Application granted granted Critical
Publication of JP6405432B2 publication Critical patent/JP6405432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes

Description

本発明は、画像予測復号装置および画像予測復号方法に関するものである。
静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられている。動画像の圧縮符号化方式としては、MPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。
これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理が行われる。画面内の予測符号化では、対象ブロックと同じ画面内の隣接する既再生の画像信号を用いて、対象ブロックの予測信号が生成される。ここで、既再生の画像信号とは、圧縮された画像データが復元されたものである。次いで、画面内の予測符号化では、予測信号を対象ブロックの信号から減算することによって差分信号が生成されるが、当該差分信号が符号化される。画面間の予測符号化では、対象ブロックと異なる画面内の既再生の画像信号を参照し、動き補正を行うことにより、予測信号が生成される。次いで、画面間の予測符号化では、予測信号を対象ブロックの信号から引き算し引くことによって差分信号が生成され、当該差分信号が符号化される。
例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する画素の既再生の画素値(再生信号)を所定の方向に外挿することによって予測信号を生成する方法が採用されている。図20は、ITU H.264で用いられている画面内予測方法を説明するための模式図である。図20の(a)は、垂直方向に外挿を行う画面内予測方法を示している。図20の(a)において、4×4画素の対象ブロック802は符号化の対象となる対象ブロックである。この対象ブロック802の境界に隣接する画素A〜Mからなる画素群801は隣接領域であり、過去の処理において既に再生された画像信号である。図20の(a)に示す予測では、対象ブロック802の真上にある隣接画素A〜Dの画素値が下方に外挿されることによって、予測信号が生成される。
また、図20の(b)は、水平方向に外挿を行う画面内予測方法を示している。図20の(b)に示す予測では、対象ブロック802の左にある既再生画素I〜Lの画素値が右方向に外挿されることによって、予測信号が生成される。
画面内予測方法では、図20の(a)〜(i)に示す方法で生成された九つの予測信号のうち、対象ブロックの画素信号からの差分が最少となる予測信号が、対象ブロック用の最適の予測信号として採用される。このように予測信号を生成する具体的な方法は、例えば、特許文献1に記載されている。
通常の画面間予測符号化では、符号化の対象となる対象ブロックの画素信号に類似する信号を既に再生済みの画面から探索することにより、予測信号が生成される。この画面間予測符号化では、動きベクトルと、対象ブロックの画素信号と予測信号との間の残差信号とが符号化される。なお、動きベクトルは、対象ブロックと探索された信号が存在する領域との間の空間的な変位量を規定するベクトルである。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。
図21は、ブロックマッチングを説明するための模式図である。図21においては、(a)に既再生の画面903が示されており、(b)に対象ブロック902を含む画面901が示されている。ここで、画面903内の領域904は、対象ブロック902と空間的に同一の位置に存在する領域である。ブロックマッチングでは、領域904を囲む探索範囲905が設定され、この探索範囲の画素信号から対象ブロック402の画素信号との絶対値誤差和が最小となる領域906が検出される。この領域906の信号が予測信号となり、領域904から領域906への変位量を規定するベクトルが動きベクトル907として検出される。
なお、ブロックマッチングとしては、参照画面903を複数用意し、対象ブロック毎にブロックマッチングを実施する参照画面を選択し、参照画面選択情報を検出する方法も用いられることがある。また、H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば、特許文献2に記載されている。
動画像データの圧縮符号化では、各画面(フレーム、フィールド)の符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測であり、第2の手法は、再生順で未来の再生済み画面を参照して予測信号を生成する後方向予測であり、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば、特許文献3に記載されている。
米国特許公報第6765964号 米国特許公報第7003035号 米国特許公報第6259739号
上述したように予測信号の生成は、ブロック単位で実施される。しかしながら、映像内の移動物体の位置と動きは任意であるため、画面を等間隔でブロックへと分割した場合には、ブロック内に動きや模様の異なる二つ以上の領域が含まれることがある。このような場合には、映像の予測符号化では、物体のエッジ付近に大きな予測誤差が発生する。
上に説明したように、H.264では、このような画像の局所的な特徴の変化に対応し、予測誤差の増加を抑制するために、ブロックサイズの異なる複数の予測タイプを用意している。しかしながら、ブロックサイズが小さくなると、小ブロック毎に予測信号の生成に要する付加情報(動きベクトル等)が必要となるため、付加情報の符号量が増加する。また、多くのブロックサイズを用意すると、ブロックサイズを選択するためのモード情報も必要となるため、モード情報の符号量も増加してしまう。
かかる問題点に鑑み、本発明の一側面は、付加情報(動きベクトルなど)やモード情報といった予測情報の増加を抑えつつ、対象ブロックの予測誤差を低減し、画像を効率よく符号化することが可能な画像予測符号化方法により符号化された画像を復号することができる画像予測復号装置および画像予測復号方法を提供することを目的としている。
上述の課題を解決するために、本発明の画像予測復号装置は、画像予測復号装置により実行可能なプログラムを記憶する記憶手段を備え、画像を複数の領域に分割して符号化された圧縮データの中から対象領域の予測信号の生成に用いる領域を特定する識別情報の符号化データと、残差信号の符号化データと、を抽出し、記識別情報に基づいて、前記対象領域に隣接する複数の隣接ブロックのうち一つの隣接ブロックを特定し、既再生信号から、前記対象領域の予測信号を生成し、画面内予測により前記隣接ブロックが予測され、かつ画面間予測により前記対象領域が予測される場合、又は、画面間予測により前記隣接ブロックが予測され、かつ画面内予測により前記対象領域が予測される場合、前記隣接ブロックに付随する予測情報を用いず、前記残差信号の前記符号化データから前記対象領域の再生残差信号を復元し、前記対象領域の前記予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成し、前記対象領域の前記再生信号を前記既再生信号として前記記憶手段に記憶する。
また、本発明は、画像予測復号方法において、画像を複数の領域に分割して符号化された圧縮データの中から対象領域の予測信号の生成に用いる領域を特定する識別情報の符号化データと、予測情報の符号化データと、残差信号の符号化データと、を抽出するデータ抽出ステップと、前記識別情報の符号化データから復号された識別情報に基づいて、前記対象領域に隣接する複数の隣接ブロックのうち一つの隣接ブロックを特定し、既再生信号から、前記対象領域の予測信号を生成し、画面内予測により前記隣接ブロックが予測され、かつ画面間予測により前記対象領域が予測される場合、又は画面間予測により前記隣接ブロックが予測され、かつ画面内予測により前記対象領域が予測される場合、前記隣接ブロックに付随する予測情報を用いない、予測信号生成ステップと、前記残差信号の前記符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記対象領域の前記予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成する信号生成ステップと、前記対象領域の前記再生信号を前記既再生信号として記憶手段へ記憶する記憶ステップを含む。
以上説明したように、本発明によれば、予測情報の増加を抑えつつ、対象ブロックの予測誤差を低減し、画像を効率よく符号化することが可能な画像予測符号化方法により符号化された画像を復号することができる画像予測復号方法が提供される。
一実施形態に係る画像予測符号化装置を示す図である。 隣接ブロックの予測情報を用いて予測信号を生成する対象ブロック内の部分領域を説明するための図である。 一実施形態に係る画像予測符号化方法の手順を示すフローチャートである。 図3のステップS108の詳細フローチャートである。 図4のステップS202の詳細フローチャートである。 図3のステップS110の詳細フローチャートである。 一実施形態に係る画像予測復号装置を示す図である。 一実施形態に係る画像予測復号方法のフローチャートである。 図8のステップS508の詳細フローチャートである。 隣接ブロックの別の例を説明するための図である。 図3のステップS108の別の例の詳細手順を示すフローチャートである。 図8のステップS508の別の例の詳細手順を示すフローチャートである。 隣接ブロックの予測情報を用いて予測信号を生成する対象ブロック内の部分領域の別の例を説明するための図である。 部分領域の別の例を示す図である。 対象ブロック及び隣接ブロックの別の例を示す図である。 一実施形態に係る画像予測符号化プログラムを示す図である。 一実施形態に係る画像予測復号プログラムを示す図である。 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。 ITU H.264に用いられる画面内予測方法を説明するための模式図である。 ブロックマッチングを説明するための模式図である。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
図1は、一実施形態に係る画像予測符号化装置を示す図である。図1に示す画像予測符号化装置100は、入力端子102、ブロック分割器104、予測信号生成器106、フレームメモリ108、減算器110、変換器112、量子化器114、逆量子化器116、逆変換器118、加算器120、量子化変換係数符号化器122、出力端子124、予測情報推定器126、予測情報メモリ128、判定器130、予測情報符号化器132、領域幅決定器134、及び、領域幅符号化器136を備えている。なお、変換器112、量子化器114及び量子化変換係数符号化器122は、残差信号符号化手段として機能し、逆量子化器116及び逆変換器118は残差信号復元手段として機能するものである。
以下、画像予測符号化装置100の各構成要素について説明する。入力端子102は、動画像の信号を入力するための端子である。この動画像の信号は、複数枚の画像を含む信号である。入力端子102は、ラインL102を介してブロック分割器104に接続されている。
ブロック分割器104は、動画像の信号に含まれる画像を複数の領域に分割する。具体的には、ブロック分割器104は、動画像の信号に含まれる複数の画像を、順次、符号化対象の画像として選択する。ブロック分割器104は、選択した画像を複数の領域に分割する。本実施形態では、これら領域は8×8画素のブロックである。しかしながら、領域として、それ以外の大きさ及び/又は形状のブロックが用いられてもよい。このブロック分割器104は、ラインL104を介して、予測情報推定器126に接続されている。
予測情報推定器126は、符号化処理の対象となる対象領域(対象ブロック)の予測信号を生成するために必要となる予測情報を検出する。予測情報の生成方法、即ち予測方法としては、背景技術で説明したような画面内予測や画面間予測が適用可能である。しかしながら、本発明は、これら予測方法に限定されるものではない。以下、図21に示したブロックマッチングにて予測処理を実施するものとして、説明を行う。ブロックマッチングを用いる場合、予測情報には、動きベクトルや参照画面選択情報等が含まれる。以下では、対象ブロックの予測信号を生成するために検出した予測情報を「対象ブロックに付随する予測情報」と呼ぶ。この予測情報推定器126は、ラインL126a、ラインL126bを介して、予測情報メモリ128、予測情報符号化器132に接続されている。
予測情報メモリ128は、ラインL126a経由で予測情報推定器126から予測情報を受け取り、当該予測情報を記憶する。予測情報メモリ128は、ラインL128を介して、判定器130に接続されている。
予測情報符号化器132は、ラインL126b経由で予測情報推定器126から予測情報を受け取る。予測情報符号化器132は、受け取った予測情報をエントロピー符号化して符号化データを生成し、当該符号化データをラインL132を介して出力端子124に出力する。なお、エントロピー符号化としては算術符号化や可変長符号化等を用いることができるが、本発明はこれらのエントロピー符号化方式に限定されるものではない。
判定器130は、ラインL128経由で予測情報メモリ128から、対象ブロックに付随する予測情報と隣接ブロックに付随する予測情報とを受け取る。ここで、隣接ブロックは、対象ブロックに隣接する隣接領域であり、既に符号化済みの領域である。判定器130は、対象ブロックに付随する予測情報と隣接ブロックに付随する予測情報とを比較し、対象ブロックの予測信号生成に隣接ブロックに付随する予測情報が利用可能であるか否かを判定する。
具体的には、判定器130は、対象ブロックに付随する予測情報と隣接ブロックに付随する予測情報とを比較し、これら二つの予測情報が一致する場合には、対象ブロックの予測信号の生成に隣接ブロックに付随する予測情報が利用できないものと判定する。これは、二つの予測情報が一致する場合に隣接ブロックに付随する予測情報を用いて対象ブロックの部分領域の予測信号を生成しても、対象ブロックに付随する予測情報を用いて予測信号を生成した場合と同じ結果が得られるからである。即ち、予測誤差の低減が期待できないからである。
一方、判定器130は、二つの予測情報が異なる場合には、対象ブロックの予測信号の生成に隣接ブロックに付随する予測情報が利用可能であると判定する。この判定器130は、ラインL130を介して領域幅決定器134及び領域幅符号化器136に接続されており、判定器130による比較(判定)の結果は、ラインL130経由で、領域幅決定器134及び領域幅符号化器136に出力される。以下では、対象ブロックの予測信号の生成に隣接ブロックに付随する予測情報が利用できない場合の判定結果を、「利用不可」を示す判定結果と呼び、対象ブロックの予測信号の生成に隣接ブロックに付随する予測情報が利用可能である場合の判定結果を、「利用可能」を示す判定結果と呼ぶ。なお、判定器130の動作の詳細については後述する。
領域幅決定器134は、ラインL130経由で判定器130からの判定結果を受け取る。領域幅決定器134は、判定結果が「利用可能」を示している場合に、隣接ブロックに付随する予測情報を用いて予測信号を生成する対象ブロック内の部分領域の領域幅を決定する。そのために、領域幅決定器134は、予測情報メモリ128からラインL128a経由で、対象ブロックに付随する予測情報及び隣接ブロックに付随する予測情報を、受け取る。さらに、領域幅決定器134は、フレームメモリ108から既再生信号を受け取り、ブロック分割器104から対象ブロックの画像信号を受け取る。
図2は、隣接ブロックの予測情報を用いて予測信号を生成する対象ブロック内の部分領域を説明するための図である。図2は、対象ブロックBtの左隣の隣接ブロックB1を隣接ブロックとする場合を示しているが、本発明における隣接ブロックは対象ブロックの上隣のブロックであってもよく、又は、左隣及び上隣の双方のブロックであってもよい。また、右隣と下隣のブロックが隣接ブロックとして利用可能な場合もある。
図2に示す対象ブロックBt及び隣接ブロックB1は8×8画素のブロックである。ここでは、左上の画素位置(水平位置,垂直位置)を(0,0)、右下の画素位置(水平位置,垂直位置)を(7,7)で表すものとする。図2に示す部分領域R2は、隣接ブロックB1の予測情報を用いて予測信号を生成する領域であり、その水平方向の領域幅はwである。即ち、部分領域R2は、(0,0)、(w−1,0)、(0,7)、及び(w−1,7)の四つの画素位置に囲まれている。部分領域R1は対象ブロックに付随する予測情報を用いて予測信号が生成される領域である。
本実施形態では、設定可能な領域幅は、1画素刻みで0〜7画素までとしている。本実施形態の領域幅決定器134は、設定可能な8個の領域幅のそれぞれについて、対象ブロックの予測信号を生成し、予測誤差の絶対値和または2乗和が最小となる領域幅を選択する。この処理は、ブロック分割器104と予測情報メモリ128から対象ブロックの画素信号と対象ブロック及び隣接ブロックに付随する予測情報をそれぞれ取得し、これら予測情報と領域幅に基づいてフレームメモリ108に記憶されている既再生信号から対象ブロックの予測信号を生成することにより実施される。領域幅の決定方法ならびに設定可能な領域幅の候補については、特に限定されるものではない。例えば、設定可能な領域幅は、2の倍数で特定される画素幅であってもよく、1つ以上の任意の幅を採用することができる。また設定可能な領域幅を複数用意し、シーケンス単位やフレーム単位あるいはブロック単位でその選択情報を符号化するようにしてもよい。
領域幅決定器134は、ラインL134a、ラインL134bを介して領域幅符号化器136、予測信号生成器106にそれぞれ接続されている。領域幅決定器134は、ラインL134a、ラインL134b経由して、領域幅符号化器136、予測信号生成器106に、決定した領域幅(領域幅を特定する情報)を出力する。
領域幅符号化器136は、判定器130から受け取った判定結果が「利用可能」を示している場合に、ラインL134a経由で受け取った領域幅をエントロピー符号化して符号化データを生成する。なお、領域幅符号化器136は、算術符号化や可変長符号化等のエントロピー符号化方式を用いることができるが、本発明はこれら符号化方式に限定されるものではない。
領域幅符号化器136は、ラインL136を介して出力端子124に接続されており、領域幅符号化器136によって生成された符号化データは、ラインL136経由で出力端子124に出力される。
予測信号生成器106は、ラインL128b経由で予測情報メモリ128から対象ブロック及び隣接ブロックに付随する二つの予測情報を受け取る。また、予測信号生成器106は、領域幅決定器134からラインL134b経由で領域幅を受け取り、フレームメモリ108からラインL108経由で既再生信号を受け取る。予測信号生成器106は、受け取った二つの予測情報及び領域幅を用いて、既再生信号から対象ブロックの予測信号を生成する。予測信号の生成方法の例については後述する。予測信号生成器106は、ラインL106を介して、減算器110に接続されている。予測信号生成器106によって生成された予測信号は、ラインL106経由で減算器110に出力される。
減算器110は、ラインL104bを介してブロック分割器104に接続されている。減算器110は、ラインL104b経由でブロック分割器104から受け取った対象ブロックの画像信号から予測信号生成器106によって生成された対象ブロックの予測信号を減算する。この減算により残差信号が生成される。この減算器110はラインL110を介して変換器112に接続されており、残差信号はラインL110経由で変換器112に出力される。
変換器112は、入力された残差信号に離散コサイン変換を適用して変換係数を生成する部分である。量子化器114は、変換係数をラインL112経由で変換器112から受け取る。量子化器114は、変換係数を量子化して量子化変換係数を生成する。量子化変換係数符号化器122は、ラインL114経由で量子化変換係数を量子化器114から受け取り、当該量子化変換係数をエントロピー符号化して符号化データを生成する。量子化変換係数符号化器122は、生成した符号化データをラインL122経由で出力端子124に出力する。なお、量子化変換係数符号化器122のエントロピー符号化としては、算術符号化や可変長符号化を用いることができるが、本発明のこれら符号化方式に限定されるものではない。
出力端子124は、予測情報符号化器132、領域幅符号化器136、及び量子化変換係数符号化器122から受け取った符号化データをまとめて外部に出力する。
逆量子化器116は、ラインL114b経由で量子化器114から量子化変換係数を受け取る。逆量子化器116は、受け取った量子化変換係数を逆量子化して変換係数を復元する。逆変換器118は、ラインL116経由で逆量子化器116から変換係数を受け取り、当該変換係数に逆離散コサイン変換を適用して残差信号(再生残差信号)を復元する。加算器120は、ラインL118経由で逆変換器118から再生残差信号を受け取り、ラインL106b経由で予測信号生成器106から予測信号を受け取る。加算器120は、受け取った再生残差信号と予測信号とを加算して、対象ブロックの信号(再生信号)を再生する。加算器120によって生成された再生信号は、ラインL120経由でフレームメモリ108に出力され、既再生信号としてフレームメモリ108に記憶される。
なお、本実施形態では、変換器112と逆変換器118とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器112及び逆変換器118は必須ではない。このように、後続の対象ブロックの予測信号生成に用いるため、符号化された対象ブロックの再生信号は、逆処理によって復元されフレームメモリ108に記憶される。
また、符号化器の構成は図1に示すものには限定されない。例えば、判定器130と予測情報メモリ128は、予測信号生成器106に含まれていてもよい。また、領域幅決定器134も予測情報推定器126に含まれていてもよい。
以下、画像予測符号化装置100の動作と共に、一実施形態の画像予測符号化方法を説明する。また、判定器130、領域幅決定器134、及び、予測信号生成器106の動作の詳細についても説明する。
図3は、一実施形態に係る画像予測符号化方法の手順を示すフローチャートである。図3に示すように、本画像予測符号化方法においては、まず、ステップS100において、ブロック分割器104が、符号化対象の画像を複数のブロックに分割する。次いで、ステップS102において、複数のブロックのうちから一つのブロックが符号化の対象ブロックとして選択される。
次いで、ステップS104において、予測情報推定器126が、対象ブロックの予測情報を決定する。この予測情報は、続くステップS106において、予測情報符号化器132により、符号化される。
次に、本画像予測符号化方法は、ステップS108に移行する。図4は、図3のステップS108の詳細フローチャートである。ステップS108の処理では、まず、ステップS200において、判定器130に、対象ブロックと隣接ブロックに付随する二つの予測情報が入力される。次いで、ステップS202において、判定器130が、対象ブロックの予測信号の生成に隣接ブロックの予測情報が利用可能であるか否かを判定する。
図5は、図4のステップS202の詳細フローチャートである。図5に示すように、ステップS202の処理では、まず、ステップS300において、判定器130が、対象ブロック及び隣接ブロックに付随する二つの予測情報が一致するか否かを判定する。ステップS300の判定が真(Yes)の場合、即ち、対象ブロック及び隣接ブロックに付随する二つの予測情報が一致する場合には、ステップS302において、判定器130は、「利用不可」を示す判定結果を出力する。
一方、ステップS300の判定が偽(No)の場合には、処理はステップS304に移行する。ステップS304において、判定器130は、隣接ブロックに付随する予測情報が対象ブロックの予測信号生成に利用可能な状態であるか否かを判定する。ステップS304における判定が真(Yes)である場合には、続くステップS306において、判定器130は、「利用可能」を示す判定結果を出力する。一方、ステップS304における判定が偽(No)の場合には、判定器130は、上述のステップS302の処理を行う。
なお、ステップS304において隣接ブロックの予測情報が利用可能な状態にないと判定される場合とは、(1)隣接ブロックが画面外にある、(2)対象ブロックの予測情報と隣接ブロックの予測情報の組み合わせを認めていないといったケース等がある。
このように判定器130は、隣接ブロックに付随する予測情報を用いて対象領域の部分領域の予測信号を生成してよいか否かという判定を予め定めたルールに従って行う。このルールは、符号化装置と復号装置が予め情報を共有しておけば、伝送する必要がないが、符号化して伝送してもよい。例えば、このようなルールを複数用意して、どのルールを適用するかをフレーム単位やシーケンス単位やブロック単位で送る方法等がある。
再び、図4を参照する。図4に示すように、次いで、本画像予測符号化方法は、ステップS204に移行する。ステップS204では、領域幅決定器134が、判定器130の判定結果を参照し、当該判定結果が「利用可能」を示す判定結果であるか否かを判定する。判定器130の判定結果が「利用不可」を示している場合には、ステップS108の処理は終了する。
一方、判定器130の判定結果が「利用可能」を示している場合には、領域幅決定器134は、続くステップS206において、隣接ブロックに付随する予測情報を用いて予測する対象領域内の部分領域の領域幅を予め用意した候補から選択する。次いで、ステップS208において、領域幅符号化器136が、決定された領域幅を符号化する。
以下、再び図3を参照する。図3に示すように、ステップS108の後、処理はステップS110に移行する。ステップS110においては、予測信号生成器106が、対象ブロックと隣接ブロックに付随する二つの予測情報、及び、領域幅決定器134にて決定した領域幅を用いて、フレームメモリ108に記憶されている既再生信号から、対象ブロックの予測信号を生成する。
以下、ステップS110における予測信号生成器106の詳細な動作の一例を説明する。図6は、図3のステップS110の詳細フローチャートである。図6は、図2に示すように、8x8画素の対象ブロック内の部分領域R2の予測信号を、左隣の隣接ブロックに付随する予測情報を用いて生成する場合の予測信号生成器106の動作を示している。
図6に示すように、ステップS400において、まず、予測信号生成器106は、対象ブロックに付随する予測情報Ptと隣接ブロックに付随する予測情報Pnを取得する。次いで、ステップS402において、予測信号生成器106は、領域幅決定器134から領域幅wを取得する。
次に、予測信号生成器106は、ステップS404において、図2に示す対象ブロック内の部分領域R1の予測信号を、予測情報Pt及び領域幅wを用いて、既再生信号から生成する。次に、予測信号生成器106は、ステップS406において、対象ブロックの部分領域R2の予測信号を、予測情報Pn及び領域幅wを用いて、既再生信号から生成する。なお、図2の例では、領域幅wが0の場合、ステップS406は省略可能である。また、領域幅wが7の場合、ステップS404は省略可能である。
以下、再び図3を参照する。図3に示すように、本画像予測符号化方法は、次いで、ステップS112に移行する。ステップS112において、減算器110は、対象ブロックの画素信号と予測信号とを用いて、残差信号を生成する。続くステップS114において、変換器112、量子化器114、及び、量子化変換係数符号化器122が、残差信号を変換符号化して、符号化データを生成する。
次いで、ステップS116において、逆量子化器116及び逆変換器118が、量子化変換係数から再生残差信号を復元する。続くステップS118において、加算器120が、再生残差信号と予測信号とを加算することにより、再生信号を生成する。そして、ステップS120において、再生信号が、既再生信号として、フレームメモリ108に記憶される。
次に、ステップS122において、全てのブロックが対象ブロックとして処理されたか否かのチェックが行われ、全てのブロックの処理が完了していない場合には、未処理のブロックの一つが対象ブロックとして選択され、ステップS102以降の処理が行われる。一方、全てのブロックの処理が完了している場合には、本画像予測符号化方法の処理は終了する。
以下、一実施形態に係る画像予測復号装置について説明する。図7は、一実施形態に係る画像予測復号装置を示す図である。図7に示す画像予測復号装置200は、入力端子202、データ解析器204、逆量子化器206、逆変換器208、加算器210、出力端子212、量子化変換係数復号器214、予測情報復号器216、領域幅復号器218、フレームメモリ108、予測信号生成器106、予測情報メモリ128、及び、判定器130を備えている。ここで、逆量子化器206、逆変換器208、及び量子化変換係数復号器214は、残差信号復号手段として機能する。なお、逆量子化器206及び逆変換器208による復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器208はなくてもよい。
以下、画像予測復号装置200の各部の詳細について説明する。入力端子202は、上述した画像予測符号化装置100(又は画像予測符号化方法)により圧縮符号化された圧縮データを入力する。この圧縮データには、画像内の複数のブロックそれぞれについて、残差信号を変換量子化してエントロピー符号化することによって生成された量子化変換係数の符号化データ、予測信号を生成するための予測情報の符号化データ、及び、対象ブロックに隣接する隣接ブロックに付随する予測情報を用いて予測信号を生成するブロック内の部分領域の領域幅の符号化データが含まれている。本実施形態では、予測情報には、動きベクトルや参照画面番号等が含まれる。入力端子202はラインL202を介してデータ解析器204に接続されている。
データ解析器204は、ラインL202経由で入力端子202から圧縮データを受け取る。データ解析器204は、受け取った圧縮データを解析し、復号対象の対象ブロックに関して、圧縮データを、量子化変換係数の符号化データ、予測情報の符号化データ、領域幅の符号化データに分離する。データ解析器204は、ラインL204a経由で領域幅復号器218に領域幅の符号化データを出力し、ラインL204b経由で予測情報の符号化データを予測情報復号器216に出力し、ラインL204c経由で量子化変換係数の符号化データを量子化変換係数復号器214に出力する。
予測情報復号器216は、対象ブロックに付随する予測情報の符号化データをエントロピー復号して、予測情報を得る。予測情報復号器216は、ラインL216を介して、予測情報メモリ128に接続されている。予測情報復号器216によって生成された予測情報は、ラインL216経由で、予測情報メモリ128に記憶される。予測情報メモリ128は、ラインL128a、ラインL128bを介して、判定器130、予測信号生成器106にそれぞれ接続されている。
判定器130は、図1の符号化装置の判定器130と同じ機能を有している。即ち、判定器130は、対象ブロックに付随する予測情報と対象ブロックに隣接する隣接ブロックに付随する予測情報を比較し、対象ブロックの予測信号生成の際に隣接ブロックに付随する予測情報が利用可能か否かを判定する。
具体的には、判定器130は、対象ブロック及び隣接する隣接ブロックに付随する二つの予測情報を比較し、二つの予測情報が一致する場合には、対象ブロックの予測信号の生成に隣接ブロックに付随する予測情報は利用できないと判定する。即ち、この場合には、判定器130は、「利用不可」を示す判定結果を出力する。一方、二つの予測情報が異なる場合には、判定器130は、「利用可能」を示す判定結果を出力する。判定器130は、ラインL130を介して領域幅復号器218に接続されている。判定器130による判定結果は、ラインL130経由で領域幅復号器218に出力される。なお、判定器130の処理の詳細処理フローについては、図5にて説明済みのため割愛する。
領域幅復号器218は、L130経由で受け取った判定器130の判定結果に基づいて、入力された領域幅の符号化データをエントロピー復号して領域幅を復元する。即ち、領域幅復号器218は、判定結果が「利用可能」を示している場合に、領域幅の符号化データを復号して、当該領域幅を復元する。一方、判定結果が「利用不可」の場合には、領域幅の復元は行われなくてもよい。この領域幅復号器218は、ラインL218経由で予測信号生成器106に接続されており、領域幅復号器218によって生成された領域幅は、予測信号生成器106にラインL218経由で出力される。
予測信号生成器106は、図1の符号化装置の予測信号生成器と同様の機能を有するものである。即ち、予測信号生成器106は、対象ブロックに付随する予測情報と隣接ブロックに付随する予測情報(必要の場合)とL218経由で受け取った領域幅とを用いて、フレームメモリ108に記憶されている既再生信号から、復号対象ブロックの予測信号を生成する。予測信号生成器106の動作の詳細については、図6にて説明したので割愛する。この予測信号生成器106は、ラインL106経由で加算器210に接続されている。予測信号生成器106は、生成した予測信号を、L106経由で加算器210に出力する。
量子化変換係数復号器214は、ラインL204c経由でデータ解析器204から量子化変換係数の符号化データを受け取る。量子化変換係数復号器214は、受け取った符号化データをエントロピー復号して、対象ブロックの残差信号の量子化変換係数を復元する。量子化変換係数復号器214は、復元した量子化変換係数をラインL214経由で逆量子化器206に出力する。
逆量子化器206は、ラインL214経由で受け取った量子化変換係数を逆量子化して変換係数を復元する。逆変換器208は、復元された変換係数を逆量子化器206からラインL206経由で受け取り、当該変換係数に逆離散コサイン変換を適用して、対象ブロックの残差信号(復元残差信号)を復元する。
加算器210は、ラインL208経由で逆変換器208から復元残差信号を受け取り、予測信号生成器106で生成された予測信号をラインL106経由で受け取る。加算器210は、受け取った復元残差信号と予測信号とを加算することにより、対象ブロックの再生信号を生成する。この再生信号は、ラインL210経由でフレームメモリ108に出力され、当該フレームメモリ108に記憶される。また、この再生信号は、出力端子212にも出力される。出力端子212は、外部(例えば、ディスプレイ)に、再生信号を出力する。
以下、画像予測復号装置200の動作と共に、一実施形態に係る画像予測復号方法について説明する。図8は、一実施形態に係る画像予測復号方法のフローチャートである。図8に示すように、本画像予測復号方法では、まず、ステップS500において、入力端子202を介して、圧縮データが入力される。次いで、ステップS502において処理の対象となる対象ブロックが選択される。
次いで、ステップS504において、データ解析器204が、圧縮データのデータ解析を行い、復号対象の対象ブロックに付随する予測情報と、領域幅と、量子化変換係数の符号化データを抽出する。予測情報は、ステップS506において、予測情報復号器216によって復号される。
次に、処理は、ステップS508に移行する。図9は、図8のステップS508の詳細フローチャートである。図9に示すように、ステップS508の処理では、まず、ステップS600において、判定器130に対象ブロック及び隣接ブロックに付随する二つの予測情報が入力される。
次に、ステップS202において、判定器130が、隣接ブロックに付随する予測情報の利用可能性を判定して判定結果を出力する。このステップS202における判定器130の動作は、図5にて説明した動作と同一であるので、詳細な説明は割愛する。
次いで、ステップS602において、判定器130の判定結果が「利用可能」を示すか否かが判定される。ステップS602における判定結果が真(Yes)の場合、即ち、隣接ブロックの予測情報が利用可能な場合には、ステップS604において、領域幅復号器218が、領域幅の符号化データを復号して対象ブロックの部分領域(R2)の領域幅を復元する。一方、ステップS602の判定が偽(No)の場合には、ステップS606において、領域幅復号器218が、対象ブロックの部分領域(R2)の領域幅を0に設定する。
以下、再び図8を参照する。図8に示すように、ステップS508の終了の後、処理はステップS510に移行する。ステップS510においては、予測信号生成器106が、対象ブロック及び隣接ブロックに付随する二つの予測情報(隣接ブロックの予測情報は必要の場合のみ利用)と領域幅を用いて、既再生信号から、復号対象ブロックの予測信号を生成する。ここでステップS510は図6に説明したステップS110と同一である。
続くステップS512においては、量子化変換係数復号器214が、符号化データから量子化変換係数を復元し、逆量子化器206が量子化変換係数から変換係数を復元し、逆変換器208が変換係数から再生残差信号を生成する。
次いで、ステップS514において、加算器210が、対象ブロックの予測信号と再生残差信号を加算して、対象ブロックの再生信号を生成する。この再生信号は、ステップS516において、次の対象ブロックを再生するための既再生信号としてフレームメモリ108に記憶される。
そして、ステップS518において全ブロックの処理が完了していないと判定される場合、即ち、次の圧縮データがある場合には、ステップS502において未処理のブロックが対象ブロックとして選択され、以降のステップが繰り返される。一方、ステップS518において、全てのブロックの処理が完了している場合には処理が終了する。
以上、一実施形態に係る画像予測符号化装置及び方法、並びに、画像予測復号装置及び方法を説明したが、本発明は、上記の実施形態に限定されるものではない。例えば、上記実施形態では、隣接ブロックを対象ブロックの左隣のブロックであったが、隣接ブロックは対象ブロックの上隣のブロックであってもよい。
図10は、隣接ブロックの別の例を説明するための図である。図10に示す例では、対象ブロックBt及び隣接ブロックB2は、8×8画素のブロックであり、同じく左上の画素位置(水平位置,垂直位置)を(0,0)、右下の画素位置を(7,7)としている。部分領域R2は、(0,0)、(7,0)、(0,w−1)、(7、w−1)の画素位置で囲まれる領域であり、隣接ブロックB2の予測情報を用いて予測信号を生成する可能性のある領域である。部分領域R2の領域幅はwである。
図10に示す隣接ブロックB2に付随する予測情報を用いて、部分領域R2の予測信号を生成する場合には、図6のステップS404のxの範囲が0〜7、yの範囲がw〜7となる。また、図6のステップS406のxの範囲が0〜7、yの範囲が0〜w−1となる。
また、隣接ブロックは、対象ブロックの左隣と上隣の二つのブロックであってもよく、対象ブロック毎に二つの隣接ブロックのいずれかを選択することが可能である。この場合、予測信号生成器106は、図4と図10に関連して説明した予測処理を行う機能を有し、領域幅決定器134は、対象ブロックの部分領域の予測に利用する予測情報を有する隣接ブロック、即ち、左隣又は上隣の隣接ブロックを選択する機能を含む。また、領域幅符号化器136は、二つの隣接ブロックに付随する二つの予測情報から対象領域の予測信号の生成に利用する予測情報を有する隣接ブロックを特定する識別情報を符号化する機能を含み、領域幅復号器218はその識別情報を復号する機能を含む。
以下、左隣と上隣の二つのブロックを利用する場合のステップS108について、詳細に説明する。図11は、図3のステップS108の別の例の詳細手順を示すフローチャートである。図11に示すように、本例でのステップS108の処理では、ステップS700において、対象ブロックの上の隣接ブロック及び左の隣接ブロックに付随する二つの予測情報が判定器130に入力される。
次に、判定器130は、図5のステップS202に示す手順に従って、対象ブロックの左の隣接ブロックに付随する予測情報が、対象ブロックの部分領域の予測信号の生成に利用可能であるかを判定し、判定結果を出力する。次いで、ステップS704において、判定器130による判定結果が「利用不可」を示していると判定される場合(Noの場合)、即ち、判定結果が、左の隣接ブロックに付随する予測情報が、対象ブロックの部分領域の予測信号の生成に利用可能でないことを示している場合に、続くステップS202に進む。判定器130は、図5のステップS202に示す手順に従って、対象ブロックの上の隣接ブロックに付随する予測情報が、対象ブロックの部分領域の予測信号の生成に利用可能であるかを判定し、判定結果を出力する。
次いで、ステップS706において、判定器130による判定結果が「利用不可」を示していると判定される場合(Noの場合)、即ち、判定結果が、上の隣接ブロックに付随する予測情報が、対象ブロックの部分領域の予測信号の生成に利用可能でないことを示している場合には、ステップS108の処理が終了する。
一方、ステップS706において、判定器130による判定結果が「利用可能」を示していると判定される場合(Yesの場合)に、ステップS708において、領域幅決定器134が、上の隣接ブロックの予測情報を利用して予測信号を生成する対象ブロックの部分領域R2(図10を参照)の領域幅wを決定する。次いで、この領域幅wが、続くステップS208において、領域幅符号化器136によって符号化される。
ステップS704に戻り、一方、判定器130による判定結果が「利用可能」を示していると判定される場合(Yesの場合)、続くステップS202において、判定器130は、図5のステップS202に示す手順に従って、対象ブロックの上の隣接ブロックに付随する予測情報が、対象ブロックの部分領域の予測信号の生成に利用可能であるかを判定し、判定結果を出力する。
次いで、ステップS710において、判定器130による判定結果が「利用不可」を示していると判定される場合(Noの場合)に、続くステップS712において、領域幅決定器134が、左の隣接ブロックの予測情報を利用して予測信号を生成する対象ブロックの部分領域R2(図2を参照)の領域幅wを決定する。次いで、この領域幅wが、続くステップS208において、領域幅符号化器136によって符号化される。
一方、ステップS710において、判定器130による判定結果が「利用可能」を示していると判定される場合(Yesの場合)に、続くステップS714において、左の隣接ブロック及び上の隣接ブロックから予測信号の生成に用いるべき予測情報を有する隣接ブロックが選択される。
具体的には、ステップS714において、領域幅決定器134が対象ブロックの部分領域の予測信号生成に、上の隣接ブロックの予測情報と左の隣接ブロックの予測情報のうち、いずれを用いるかを選択する。この選択方法は限定されるものではないが、例えば、領域幅決定器134は、図2及び図10に示したように隣接ブロック及び部分領域R2の幅を設定し、隣接ブロックの予測情報及び対象ブロックの予測情報を用いて対象ブロックの予測信号を生成し、対象ブロックの予測誤差が最小となる隣接ブロックと領域幅の組を選択する。そして、続くステップS716において、領域幅符号化器136が、選択した予測情報を有する隣接ブロックを特定する識別情報を、符号化する。次いで、ステップS718において、左の隣接ブロックが選択されていると判定される場合には、処理はステップS712に移行する。一方、ステップS718において、左の隣接ブロックが選択されていないと判定される場合、即ち、上の隣接ブロックが選択されていると判定される場合には、処理は、ステップS708に移行する。
図12は、図8のステップS508の別の例の詳細手順を示すフローチャートであり、図11の処理を用いる符号化に対応する復号において用いられる手順を示している。図12に示すように、この例では、まず、ステップS800において、判定器130に対象ブロックの左の隣接ブロックに付随する予測情報、及び、上の隣接ブロックに付随する予測情報が入力される。
続く二つのステップにおいて、判定器130が、図5のステップS202に示す手順に従って、左の隣接ブロックに付随する予測情報の利用可能性、及び、上の隣接ブロックに付随する予測情報の利用可能性を判定し、判定結果を出力する。
次いで、ステップS802において、領域幅復号器218が、判定器130の判定結果から、二つの隣接ブロックのうちいずれか一方の隣接ブロックに付随する予測情報が利用可能であるか否かを判定する。そして、いずれの隣接ブロックに付随する予測情報も利用可能でない場合には、ステップS804において、領域幅復号器218は、復号対象ブロックの部分領域R2の領域幅を0に設定して、処理を終了する。
一方、ステップS802において、二つの隣接ブロックのうちいずれか一方の隣接ブロックに付随する予測情報が利用可能であると判定される場合には、続くステップS806において、領域幅復号器218が、判定器130の判定結果から、二つの隣接ブロックに付随する予測情報が共に利用可能であるか否かを判定する。二つの隣接ブロックの予測情報が共に利用可能の場合には、続くステップS808において、領域幅復号器218は、符号化データから隣接ブロックの識別情報を復号して、ステップS812に進む。
一方、ステップS806において、二つの隣接ブロックのうちいずれか一方の隣接ブロックに付随する予測情報が利用可能であると判定される場合には、続くステップS810において、領域幅復号器218は、判定器130の判定結果に基づいて、二つの隣接ブロックに付随する予測情報のうち一方を選択して、ステップS812に進む。そして、ステップS812において、領域幅復号器218は、領域幅の値を復号する。
なお、対象ブロックの左の隣接ブロックに付随する予測情報と上の隣接ブロックに付随する予測情報を共に利用し、対象ブロックの予測信号が生成されてもよい。この場合には、領域幅符号化器136は、二つの隣接ブロックに付随する二つの予測情報と二つの領域幅の組を共に符号化する機能を有し、領域幅復号器218は二つの予測情報と二つの領域幅の組を復号する機能を有する。また、この場合には、図13に示すように、対象ブロックBt内の四つの部分領域R1〜R4の予測信号が個別に生成される。
そのため、予測信号生成器106は、左の隣接ブロックB1に付随する予測情報を用いて部分領域R2の予測信号を生成し、上の隣接ブロックB2に付随する予測情報を用いて部分領域R3の予測信号を生成する。また、予測信号生成器106は、部分領域R4の予測信号を生成する機能を有する必要がある。部分領域R4の予測方法は、予めルールを決めておけばよいので本発明では限定されない。例えば、左の隣接ブロックに付随する予測情報に基づいて生成される部分領域R4の予測信号と、上の隣接ブロックに付随する予測情報に基づいて生成される部分領域R4の予測信号とを画素単位で平均化する方法や、左上の隣接ブロックに付随する予測情報に基づいて部分領域R4の予測信号を生成する方法などが挙げられる。また、左及び上の隣接ブロックに付随する予測情報などの周囲の復号済みデータを利用して上と左の隣接ブロックに属する予測情報から自動的に選択する方法や、選択情報を送る方法なども採用し得る。
本発明で、更に下記の変形が可能である。
(ブロックの形状)上の説明では、対象ブロック内の部分領域は常に矩形であったが、図14の(a)に示す対象ブロックBt内の部分領域R1及びR2や、図14の(b)に示す対象ブロックBt内の部分領域R1及びR2のように、任意の形状の部分領域が用いられてもよい。このような場合には、領域幅に加えて形状情報が送付されることがある。
(ブロックサイズ)上の説明では、ブロックサイズは固定サイズであったが、図15の(a)〜(c)に示すように、対象ブロックBtと隣接ブロックB1のサイズが異なっていてもよい。このような場合には、図15の(a)〜(c)に示すように、対象ブロックBtにおける部分領域R1〜R3の形状としては、種々の形状を用いることが可能である。状況に応じて構成される部分領域が決定されてもよく、隣接ブロックを指示する情報を複数の候補から選択して明示的に符号化してもよい。また、予め規則(例えば、領域幅を選択する単位をブロックサイズの小さい方に合わせる)を決めておいてもよい。
(領域幅符号化器及び復号器)領域幅符号化器においては、領域幅の値自体ではなく、領域幅を特定するための情報が符号化されてもよい。また、領域幅復号器においては、領域幅の値自体ではなく、符号化データから領域幅を特定するための情報を復号して、当該領域幅を特定するための情報に基づいて領域幅の値を復元してもよい。例えば、領域幅符号化器は、対象ブロック内の部分領域の領域幅の値の候補を複数用意し、その識別情報を符号化してもよい。領域幅復号器は,復号した識別情報に基づいて領域幅の値を復元してもよい。候補となる領域幅は符号化器と復号器で予め決めておいてもよいし、シーケンス単位やフレーム単位で送ってよい。また、領域幅符号化器は、対象ブロック内の部分領域の領域幅の値と隣接ブロックの領域幅との差分値を符号化してもよい。この場合には、領域幅復号器は、既に復号されている隣接ブロックの領域幅の値と符号化データから復号された上記差分値とを加算することにより、対象ブロック内の部分領域の領域幅の値を復元することができる。あるいは、領域幅符号化器は、対象ブロックの部分領域の領域幅が隣接ブロックの領域幅と同じであることを指示する情報を符号化してもよい。対象ブロックの部分領域の領域幅が隣接ブロックの領域幅と同じであることを指示する情報が復号された場合には、領域幅復号器は、当該隣接ブロックの領域幅を対象ブロックの部分領域の領域幅として用いることができる。この際、対象ブロックの部分領域の領域幅が隣接ブロックの領域幅と異なることを指示し、加えて領域幅の値あるいは領域幅を特定するための情報を送ってもよい。対象ブロックの部分領域の領域幅が隣接ブロックの領域幅と異なることを指示する情報が復号された場合には,領域幅復号器は,更に符号化データから領域幅の値あるいは領域幅を特定するための情報を復号して、当該領域幅を特定するための情報に基づいて領域幅の値を復元してもよい。また、領域幅符号化器は、領域幅を特定するための一以上の情報アイテムを符号化してもよい。即ち、領域幅を一意に特定し得る一以上の情報アイテム(例えば、一以上のビット)が符号化されてもよい。この場合には、領域幅復号器は、符号化データから一以上の情報アイテムを復号して、当該一以上の情報アイテムに従って、領域幅を復元することができる。
(変換器、逆変換器)残差信号の変換処理は、固定のブロックサイズで行ってもよい。また、部分領域にあわせたサイズに対象領域を再分割して、再分割により生成された各領域に対して変換処理を行ってもよい。
(判定器について)隣接ブロックに付随する予測情報の利用が可能な隣接ブロックは、対象ブロックの上の隣接ブロックと左の隣接ブロックには限定可能されない。例えば、予測情報を1ブロック列分先に符号化しておけば、対象ブロックに隣接する4ブロックのすべてを隣接ブロックとし、それらに付随する予測情報を対象ブロックの予測信号の生成に用いることが可能となる。
また、画面内の全ブロックの予測情報を先に符号化しておけば、各対象ブロックの予測信号は周囲の4ブロックと対象ブロックに付随する計5つ(左上、左下、右上、右下を含めれば9つ)の予測情報を用いて自由に構成することも可能である。
さらに、対象ブロックと隣接ブロックが同じ予測情報を有する場合に部分領域を設けても符号化・復号処理は破綻しないので、予測情報比較器が含まれない構成でも本発明の予測信号生成処理は実現可能である。
(判定器の判定について)上の説明では、判定器130が隣接ブロックに付随する予測情報の利用可能性を判定するための予め定めたルールとして、隣接ブロックに付随する予測情報が対象ブロックに付随する予測情報と一致する場合や隣接ブロックの予測情報が利用可能な状態にないと判定される場合には、隣接ブロックに付随する予測情報が利用できないものと判定している。後者については、隣接ブロックが画面内予測により予測され、対象ブロックが画面間予測される場合、及び、この逆の場合には、隣接ブロックに付随する予測情報が利用できないものと判定してもよい。また、隣接ブロックの動きベクトルと対象ブロックの動きベクトルとの間の差が閾値より大きい場合に、隣接ブロックに付随する予測情報が利用できないものと判定してもよい。さらに、隣接ブロックと対象ブロックのブロックサイズが互いに異なる場合には、隣接ブロックに付随する予測情報が利用できないものと判定してもよい。また、上の説明では、隣接ブロックと対象ブロックに付随する予測情報を比較しているが、2つの予測情報に基づいて生成される予測信号が同じであるか否かという条件で隣接ブロックに付随する予測情報の利用可能性を判定してもよい。
(予測情報)上の説明では、予測信号の生成方法として画面間予測(動きベクトルと参照画面情報)を説明したが、本発明はこの予測方法に限定されるものではない。画面内予測や、輝度補償、双方向予測、後方予測などの予測方法を、本発明の予測信号生成処理に適用することが可能である。この場合、モード情報や輝度補償パラメータなどが予測情報に含まれる。
(色信号)上の説明では、色フォーマットについては特に述べていないが、色信号あるいは色差信号についても、輝度信号と個別に予測信号の生成処理を行ってもよい。また、色信号あるいは色差信号の予測信号の生成処理を、輝度信号の処理と連動して行ってもよい。後者の場合に、色信号の解像度が輝度信号よりも低い場合(例えば、解像度が縦方向と横方向に半分)には、輝度信号における領域幅を制限(例えば、偶数値)するか、あるいは輝度信号の領域幅から色信号の領域幅への変換式を決めておけばよい。
(ブロックノイズ除去処理)上記では述べていないが、再生画像に対してブロックノイズ除去処理を行う場合には、部分領域の境界部分に対してノイズ除去処理を行うとよい。
以下、コンピュータを画像予測符号化装置100として動作させるための画像予測符号化プログラム、及び、コンピュータを画像予測復号装置200として動作させるための画像予測復号プログラムについて説明する。
図16は、一実施形態に係る画像予測符号化プログラムを、記録媒体と共に示す図である。図17は、一実施形態に係る画像予測復号プログラムを、記録媒体と共に示す図である。図18は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。図19は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。
図16に示すように、画像予測符号化プログラムP100は、記録媒体10に格納されて提供される。また、図17に示すように、画像予測復号プログラムP200も、記録媒体10に格納されて提供される。なお、記録媒体10としては、フロッピーディスク、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
図18に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された画像予測符号化プログラムP100にアクセス可能になり、当該プログラムP100によって、画像予測符号化装置100として動作することが可能になる。また、コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された画像予測復号プログラムP200にアクセス可能になり、当該プログラムP200によって、画像予測復号装置200として動作することが可能になる。
図19に示すように、画像予測符号化プログラムP100及び画像予測復号プログラムP200は、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムP100又は画像予測復号プログラムP200をメモリ16に格納し、プログラムP100又はP200を実行することができる。
図16に示すように、画像予測符号化プログラムP100は、ブロック分割モジュールP104、予測信号生成モジュールP106、記憶モジュールP108、減算モジュールP110、変換モジュールP112、量子化モジュールP114、逆量子化モジュールP116、逆変換モジュールP118、加算モジュールP120、量子化変換係数符号化モジュールP122、予測情報推定モジュールP126、予測情報記憶モジュールP128、判定モジュールP130、領域幅決定モジュールP134、予測情報符号化モジュールP132、領域幅決定モジュールP134、及び、領域幅符号化モジュールP136を備えている。
上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の機能と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器104、予測信号生成器106、フレームメモリ108、減算器110、変換器112、量子化器114、逆量子化器116、逆変換器118、加算器120、量子化変換係数符号化器122、予測情報推定器126、予測情報メモリ128、判定器130、予測情報符号化器132、領域幅決定器134、及び、領域幅符号化器136の機能と同様である。
画像予測復号プログラムP200は、データ解析モジュールP204、量子化変換係数復号モジュールP214、予測情報復号モジュールP216、領域幅復号モジュールP218、予測情報記憶モジュールP128、判定モジュールP130、逆量子化モジュールP206、逆変換モジュールP208、加算モジュールP210、予測信号生成モジュールP106、及び、記憶モジュールP108を備えている。
上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置200の各構成要素と同じである。すなわち、画像予測復号プログラムP200の各モジュールの機能は、データ解析器204、量子化変換係数復号器214、予測情報復号器216、領域幅復号器218、予測情報メモリ128、判定器130、逆量子化器206、逆変換器208、加算器210、予測信号生成器106、及び、フレームメモリ108の機能と同様である。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
以下に、本実施形態に係る一側面の発明を明記する。
本発明の一側面は、画像の符号化に関するものである。一実施形態に係る画像予測符号化装置は、(a)入力画像を複数の領域に分割する領域分割手段と、(b)上記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を上記対象領域に付随する予測情報として得る予測情報推定手段と、(c)上記対象領域に付随する予測情報を符号化する予測情報符号化手段と、(d)上記対象領域に付随する予測情報と該対象領域に隣接する隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定手段と、(e)上記判定手段によって上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記対象領域内の部分領域であって上記隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域の領域幅を決定する領域幅決定手段と、(f)上記対象領域に付随する上記領域幅を特定するための情報を符号化する領域幅符号化手段と、(g)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、上記既再生信号から、上記対象領域の予測信号を生成する予測信号生成手段と、(h)上記対象領域の予測信号と上記対象領域の画素信号との間の残差信号を生成する残差信号生成手段と、(i)上記残差信号を符号化する残差信号符号化手段と、(j)上記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元手段と、(k)上記予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する加算手段と、(l)上記対象領域の再生信号を上記既再生信号として記憶する記憶手段と、を備えている。
また、一実施形態に係る画像予測符号化方法は、(a)入力画像を複数の領域に分割する領域分割ステップと、(b)上記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を上記対象領域に付随する予測情報として得る予測情報推定ステップと、(c)上記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、(d)上記対象領域に付随する予測情報と該対象領域に隣接する隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定ステップと、(e)上記判定ステップにおいて上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記対象領域内の部分領域であって上記隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域の領域幅を決定する領域幅決定ステップと、(f)上記領域幅を特定するための情報を符号化する領域幅符号化ステップと、(g)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、上記既再生信号から、上記対象領域の予測信号を生成する予測信号生成ステップと、(h)上記対象領域の予測信号と上記対象領域の画素信号との間の残差信号を生成する残差信号生成ステップと、(i)上記残差信号を符号化する残差信号符号化ステップと、(j)上記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元ステップと、(k)上記予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する再生信号生成ステップと、(l)上記対象領域の再生信号を上記既再生信号として記憶する記憶ステップと、を含んでいる。
また、一実施形態に係る画像予測符号化プログラムは、コンピュータを、(a)入力画像を複数の領域に分割する領域分割手段と、(b)上記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を上記対象領域に付随する予測情報として得る予測情報推定手段と、(c)上記対象領域に付随する予測情報を符号化する予測情報符号化手段と、(d)上記対象領域に付随する予測情報と該対象領域に隣接する隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定手段と、(e)上記判定手段によって上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記対象領域内の部分領域であって上記隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域の領域幅を決定する領域幅決定手段と、(f)上記領域幅を特定するための情報を符号化する領域幅符号化手段と、(g)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、上記既再生信号から、上記対象領域の予測信号を生成する予測信号生成手段と、(h)上記対象領域の予測信号と上記対象領域の画素信号との間の残差信号を生成する残差信号生成手段と、(i)上記残差信号を符号化する残差信号符号化手段と、(j)上記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元手段と、(k)上記予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する加算手段と、(l)上記対象領域の再生信号を上記既再生信号として記憶する記憶手段と、として機能させる。
これら本発明の符号化に係る側面によれば、隣接領域の予測情報が利用可能である場合に、対象領域中の部分領域の予測信号が隣接領域の予測情報を用いて生成される。したがって、本発明の符号化に係る側面によれば、エッジが存在する対象領域の予測誤差が低減され得る。また、隣接領域の予測情報が対象領域中の部分領域の予測信号の生成に用いられるので、予測情報の量の増加を抑えることが可能である。
一実施形態においては、対象領域に付随する予測情報と隣接領域に付随する予測情報とが同じであると判定されたときに、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定されてもよい。これは、対象領域に付随する予測情報と隣接領域に付随する予測情報とが同じである場合には、対象領域の予測誤差の低減が図れないからである。
また、一実施形態においては、対象領域に付随する予測情報と隣接領域に付随する予測情報の組み合わせが予め設定した条件を満たさないと判定されたときに、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定されてもよい。
また、本発明の符号化に係る側面では、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定されているときに、対象領域に付随する領域幅の符号化データが出力されなくてもよい。これにより、符号量が低減される。
また、一実施形態においては、隣接領域が対象領域の左隣及び上隣の二つの隣接領域であってもよい。この場合には、二つの隣接領域に付随する予測情報が共に対象領域の予測信号の生成に利用可能と判定されたときに、二つの隣接領域のうち対象領域の予測信号の生成に利用する予測情報を有する隣接領域を特定する識別情報を符号化することが可能である。かかる特徴によれば、二つの隣接領域のうち最適な隣接領域から部分領域の予測信号を生成することができるので、より予測誤差を低減することが可能である。
本発明の別の一側面は画像の復号に関するものである。一実施形態に係る画像予測復号装置は、(a)画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、上記対象領域に隣接する隣接領域に付随する予測情報を用いて予測信号を生成する上記対象領域内の部分領域の領域幅を特定するための情報の符号化データと、残差信号の符号化データと、を抽出するデータ解析手段と、(b)上記予測情報の符号化データを復号して上記対象領域に付随する予測情報を復元する予測情報復号手段と、(c)上記対象領域に付随する予測情報と上記隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定手段と、(d)上記判定手段によって上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記領域幅を特定するための情報の符号化データを復号して該領域幅を復元する領域幅復号手段と、(e)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、既再生信号から、上記対象領域の予測信号を生成する予測信号生成手段と、(f)上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元手段と、(g)上記対象領域の予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する加算手段と、(h)上記対象領域の再生信号を上記既再生信号として記憶する記憶手段と、を備えている。
また、一実施形態に係る画像予測復号方法は、(a)画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、上記対象領域に隣接する隣接領域に付随する予測情報を用いて予測信号を生成する上記対象領域内の部分領域の領域幅を特定するための情報の符号化データと、残差信号の符号化データと、を抽出するデータ解析ステップと、(b)上記予測情報の符号化データを復号して上記対象領域に付随する予測情報を復元する予測情報復号ステップと、(c)上記対象領域に付随する予測情報と上記隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定ステップと、(d)上記判定ステップにおいて上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記領域幅を特定するための情報の符号化データを復号して該領域幅を復元する領域幅復号ステップと、(e)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、既再生信号から、上記対象領域の予測信号を生成する予測信号生成ステップと、(f)上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元ステップと、(g)上記対象領域の予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する再生信号生成ステップと、(h)上記対象領域の再生信号を上記既再生信号として記憶する記憶ステップと、を含んでいる。
また、一実施形態に係る画像予測復号プログラムは、コンピュータを、(a)画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、上記対象領域に隣接する隣接領域に付随する予測情報を用いて予測信号を生成する上記対象領域内の部分領域の領域幅を特定するための情報の符号化データと、残差信号の符号化データと、を抽出するデータ解析手段と、(b)上記予測情報の符号化データを復号して上記対象領域に付随する予測情報を復元する予測情報復号手段と、(c)上記対象領域に付随する予測情報と上記隣接領域に付随する予測情報との比較を行い、該比較の結果に基づいて、上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能か否かを判定する判定手段と、(d)上記判定手段によって上記対象領域の予測信号の生成に上記隣接領域に付随する予測情報が利用可能であると判定された場合に、上記領域幅を特定するための情報の符号化データを復号して該領域幅を復元する領域幅復号手段と、(e)上記対象領域に付随する予測情報、上記隣接領域に付随する予測情報、及び上記領域幅を用いて、既再生信号から、上記対象領域の予測信号を生成する予測信号生成手段と、(f)上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元手段と、(g)上記対象領域の予測信号と上記再生残差信号とを加算することによって上記対象領域の再生信号を生成する加算手段と、(h)上記対象領域の再生信号を上記既再生信号として記憶する記憶手段と、として機能させる。
これら復号に係る本発明は、上述した本発明の符号化によって生成された圧縮データから画像を好適に再生することが可能である。
一実施形態においては、対象領域に付随する予測情報と隣接領域に付随する予測情報とが同じであると判定したされたときに、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定してもよい。また、対象領域に付随する予測情報と隣接領域に付随する予測情報の組み合わせが予め設定した条件を満たさないと判定されたときに、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定してもよい。
また、一実施形態においては、対象領域の予測信号の生成に隣接領域に付随する予測情報が利用できないと判定されているときに、対象領域に付随する領域幅を0に設定することができる。
また、一実施形態においは、隣接領域が対象領域の左隣及び上隣の二つの隣接領域であってもよい。この場合には、二つの隣接領域に付随する予測情報が共に対象領域の予測信号の生成に利用可能と判定されたときに、領域幅復号手段は、二つの隣接領域のうち対象領域の予測信号の生成に利用する予測情報を有する隣接領域を特定する識別情報を復号することが可能である。
さらに、本実施形態に係る一側面として以下の発明として捉えることもできる。
すなわち、本実施形態における画像予測復号方法は、一側面に係る発明として、この画像予測復号方法は、画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、部分領域情報の符号化データと、残差信号の符号化データと、を抽出するステップと、前記部分領域情報の符号化データを復号して、該部分領域情報を復元するステップと、復元した前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成するステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元するステップと、前記対象領域の予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成するステップと、前記対象領域の再生信号を既再生信号として記憶するステップと、を含む。
また、本実施形態における画像予測復号方法は、識別情報の符号化データを復号して識別情報を復元するステップを更に含み、前記第1の部分領域の前記予測信号の生成において、前記対象領域に隣接する複数の隣接領域のうち前記識別情報に基づいて前記一つの隣接領域が選択される。
また、本実施形態における画像予測復号方法は、前記第1の部分領域の前記予測信号の生成において用いる前記隣接領域に付随する予測情報として、前記対象領域に隣接する複数の隣接領域のうち、画面内予測によって予測された隣接領域を除く隣接領域の予測情報が選択される。
また、本実施形態における画像予測復号装置は、画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、部分領域情報の符号化データと、残差信号の符号化データと、を抽出するデータ解析手段と、前記部分領域情報の符号化データを復号して、該部分領域情報を復元する予測情報復号手段と、復元した前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記対象領域の予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成する手段と、前記対象領域の再生信号を既再生信号として記憶する記憶手段と、を含む。
また、本実施形態における画像予測復号プログラムは、コンピュータを、画像を複数の領域に分割して符号化された圧縮データの中から、対象領域の予測信号の生成に用いる予測情報の符号化データと、部分領域情報の符号化データと、残差信号の符号化データと、を抽出するデータ解析手段と、前記部分領域情報の符号化データを復号して、該部分領域情報を復元する予測情報復号手段と、復元した前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記対象領域の予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成する手段と、前記対象領域の再生信号を既再生信号として記憶する記憶手段と、として機能させる。
また、本実施形態における画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を前記対象領域に付随する予測情報として得る予測情報推定ステップと、前記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、前記対象領域内の部分領域であって、隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域を決定する部分領域決定ステップと、前記部分領域を示す部分領域情報を特定するための情報を符号化する部分領域符号化ステップと、前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成する予測信号生成ステップと、前記対象領域の予測信号と前記対象領域の画素信号との間の残差信号を生成する残差信号生成ステップと、前記残差信号を符号化する残差信号符号化ステップと、前記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元ステップと、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の再生信号を生成する加算ステップと、前記対象領域の再生信号を前記既再生信号として記憶する記憶ステップと、を含む。
また、本実施形態における画像予測符号化方法は、前記第1の部分領域の前記予測信号の生成において、前記対象領域に隣接する複数の隣接領域のうち識別情報に基づいて前記一つの隣接領域が選択される。
また、本実施形態における画像予測符号化方法は、前記第1の部分領域の前記予測信号の生成において用いる前記隣接領域に付随する予測情報として、前記対象領域に隣接する複数の隣接領域のうち、画面内予測によって予測された隣接領域を除く隣接領域の予測情報が選択される。
また、本実施形態における画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を前記対象領域に付随する予測情報として得る予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記対象領域内の部分領域であって、隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域を決定する部分領域決定手段と、前記部分領域を示す部分領域情報を特定するための情報を符号化する部分領域符号化手段と、前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成する予測信号生成手段と、前記対象領域の予測信号と前記対象領域の画素信号との間の残差信号を生成する残差信号生成手段と、前記残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の再生信号を生成する加算手段と、前記対象領域の再生信号を前記既再生信号として記憶する記憶手段と、を含む。
また、本実施形態における画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記複数の領域のうち対象領域の画素信号の予測信号を既再生信号から生成し、該予測信号の生成に用いた予測情報を前記対象領域に付随する予測情報として得る予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記対象領域内の部分領域であって、前記隣接領域に付随する予測情報を用いて予測信号を生成する該部分領域を決定する部分領域決定手段と、前記部分領域を示す部分領域情報を特定するための情報を符号化する部分領域符号化手段と、前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、前記第1の部分領域に隣接する一つの隣接領域に付随する予測情報に含まれる画面間予測方法を特定するモード情報、参照画面番号、及び動きベクトルを用いて、既再生信号から、該第1の部分領域の予測信号を生成し、前記予測情報の符号化データから復元される予測情報を用いて、既再生信号から、前記第2の部分領域の予測信号を生成する予測信号生成手段と、前記対象領域の予測信号と前記対象領域の画素信号との間の残差信号を生成する残差信号生成手段と、前記残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することによって再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の再生信号を生成する加算手段と、前記対象領域の再生信号を前記既再生信号として記憶する記憶手段と、として機能させる。
100…画像予測符号化装置、102…入力端子、104…ブロック分割器、106…予測信号生成器、108…フレームメモリ、110…減算器、112…変換器、114…量子化器、116…逆量子化器、118…逆変換器、120…加算器、122…量子化変換係数符号化器、124…出力端子、126…予測情報推定器、128…予測情報メモリ、130…判定器、132…予測情報符号化器、134…領域幅決定器、136…領域幅符号化器、200…画像予測復号装置、202…入力端子、204…データ解析器、206…逆量子化器、208…逆変換器、210…加算器、212…出力端子、214…量子化変換係数復号器、216…予測情報復号器、218…領域幅復号器。

Claims (6)

  1. 画像予測復号装置により実行可能なプログラムを記憶する記憶手段を備え、
    画像を複数の領域に分割して符号化された圧縮データの中から対象領域の予測信号の生成に用いる領域を特定する識別情報の符号化データと、残差信号の符号化データと、を抽出し、
    前記識別情報に基づいて、前記対象領域に隣接する複数の隣接ブロックのうち一つの隣接ブロックを特定し、
    既再生信号から、前記対象領域の予測信号を生成し、画面内予測により前記隣接ブロックが予測され、かつ画面間予測により前記対象領域が予測される場合、又は、画面間予測により前記隣接ブロックが予測され、かつ画面内予測により前記対象領域が予測される場合、前記隣接ブロックに付随する予測情報を用いず、
    前記残差信号の前記符号化データから前記対象領域の再生残差信号を復元し、
    前記対象領域の前記予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成し、
    前記対象領域の前記再生信号を前記既再生信号として前記記憶手段に記憶する画像予測復号装置。
  2. 画像予測復号方法において、画像を複数の領域に分割して符号化された圧縮データの中から対象領域の予測信号の生成に用いる領域を特定する識別情報の符号化データと、予測情報の符号化データと、残差信号の符号化データと、を抽出するデータ抽出ステップと、
    前記識別情報の符号化データから復号された識別情報に基づいて、前記対象領域に隣接する複数の隣接ブロックのうち一つの隣接ブロックを特定し、既再生信号から、前記対象領域の予測信号を生成し、画面内予測により前記隣接ブロックが予測され、かつ画面間予測により前記対象領域が予測される場合、又は画面間予測により前記隣接ブロックが予測され、かつ画面内予測により前記対象領域が予測される場合、前記隣接ブロックに付随する予測情報を用いない、予測信号生成ステップと、
    前記残差信号の前記符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、
    前記対象領域の前記予測信号と前記再生残差信号とに基づいて、前記対象領域の再生信号を生成する信号生成ステップと、
    前記対象領域の前記再生信号を前記既再生信号として記憶手段へ記憶する記憶ステップを含む画像予測復号方法。
  3. 部分領域情報の符号化データを抽出し、前記部分領域情報の前記符号化データを復号して前記部分領域情報を復元し、前記識別情報の前記符号化データを復号して前記識別情報を復元し、
    前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、
    前記対象領域に隣接する複数の隣接ブロックのうち前記識別情報と前記予測情報に基づいて前記一つの隣接ブロックが選択され、前記第1の部分領域の前記予測信号を生成することをさらに含む、請求項1に記載の画像予測復号装置。
  4. 前記第1の部分領域の前記予測信号の生成において用いる前記隣接ブロックとして、前記対象領域に隣接する複数の隣接ブロックのうち、画面内予測によって予測された隣接ブロックを除く前記予測情報が選択されることをさらに含む、請求項3に記載の画像予測復号装置。
  5. 部分領域情報の符号化データを抽出するステップと、前記部分領域情報の前記符号化データを復号して前記部分領域情報を復元するステップと、前記識別情報の前記符号化データを復号して前記識別情報を復元するステップを含み、
    前記部分領域情報から、前記対象領域を第1の部分領域及び第2の部分領域に分割することが特定される場合に、
    前記対象領域に隣接する複数の隣接ブロックのうち前記識別情報に基づいて前記一つの隣接ブロックが選択され、前記第1の部分領域の前記予測信号を生成するステップをさらに含む、請求項2に記載の画像予測復号方法。
  6. 前記第1の部分領域の前記予測信号の生成において用いる前記隣接ブロックとして、前記対象領域に隣接する複数の隣接ブロックのうち、画面内予測によって予測された隣接ブロックを除く前記予測情報が選択されることをさらに含む、請求項5に記載の画像予測復号方法。

JP2017187567A 2009-03-23 2017-09-28 画像予測復号装置および画像予測復号方法 Active JP6405432B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009069975 2009-03-23
JP2009069975 2009-03-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016168204A Division JP6220023B2 (ja) 2009-03-23 2016-08-30 画像予測復号方法

Publications (2)

Publication Number Publication Date
JP2018019418A JP2018019418A (ja) 2018-02-01
JP6405432B2 true JP6405432B2 (ja) 2018-10-17

Family

ID=42780818

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2011505988A Active JP5586101B2 (ja) 2009-03-23 2010-03-16 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2014147639A Active JP5779270B2 (ja) 2009-03-23 2014-07-18 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2015085249A Active JP6000398B2 (ja) 2009-03-23 2015-04-17 画像予測復号方法及び画像予測復号装置
JP2016168204A Active JP6220023B2 (ja) 2009-03-23 2016-08-30 画像予測復号方法
JP2017187567A Active JP6405432B2 (ja) 2009-03-23 2017-09-28 画像予測復号装置および画像予測復号方法

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2011505988A Active JP5586101B2 (ja) 2009-03-23 2010-03-16 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2014147639A Active JP5779270B2 (ja) 2009-03-23 2014-07-18 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2015085249A Active JP6000398B2 (ja) 2009-03-23 2015-04-17 画像予測復号方法及び画像予測復号装置
JP2016168204A Active JP6220023B2 (ja) 2009-03-23 2016-08-30 画像予測復号方法

Country Status (19)

Country Link
US (6) US9031125B2 (ja)
EP (8) EP3567855B1 (ja)
JP (5) JP5586101B2 (ja)
KR (7) KR101952726B1 (ja)
CN (2) CN104065961B (ja)
AU (7) AU2010228415B2 (ja)
BR (1) BRPI1011698B1 (ja)
CA (7) CA3050573C (ja)
DK (4) DK3567852T3 (ja)
ES (7) ES2936295T3 (ja)
FI (5) FI3567855T3 (ja)
HU (5) HUE061250T2 (ja)
MX (4) MX2011009960A (ja)
PL (7) PL3567854T3 (ja)
PT (7) PT3567855T (ja)
RU (7) RU2595754C2 (ja)
SG (2) SG174323A1 (ja)
TW (7) TWI699113B (ja)
WO (1) WO2010110126A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
SG187094A1 (en) * 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
JP2012095099A (ja) * 2010-10-27 2012-05-17 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
US8428375B2 (en) * 2010-11-17 2013-04-23 Via Technologies, Inc. System and method for data compression and decompression in a graphics processing system
JP5206772B2 (ja) * 2010-11-22 2013-06-12 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP5206773B2 (ja) * 2010-11-22 2013-06-12 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法及び動画像復号プログラム
US10244239B2 (en) 2010-12-28 2019-03-26 Dolby Laboratories Licensing Corporation Parameter set for picture segmentation
JP5594841B2 (ja) * 2011-01-06 2014-09-24 Kddi株式会社 画像符号化装置及び画像復号装置
JP5781313B2 (ja) * 2011-01-12 2015-09-16 株式会社Nttドコモ 画像予測符号化方法、画像予測符号化装置、画像予測符号化プログラム、画像予測復号方法、画像予測復号装置及び画像予測復号プログラム
JP2012205287A (ja) * 2011-03-28 2012-10-22 Jvc Kenwood Corp 画像符号化装置、画像符号化方法および画像符号化プログラム
JP2012205288A (ja) * 2011-03-28 2012-10-22 Jvc Kenwood Corp 画像復号装置、画像復号方法および画像復号プログラム
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
CN107277511A (zh) 2011-11-08 2017-10-20 株式会社东芝 图像解码方法和图像解码装置
TW201334565A (zh) * 2011-12-28 2013-08-16 Jvc Kenwood Corp 動態影像編碼裝置、動態影像編碼方法及動態影像編碼程式、以及動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式
JP6045222B2 (ja) * 2012-06-28 2016-12-14 株式会社Nttドコモ 動画像予測復号装置、方法及びプログラム
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
WO2018062699A1 (ko) * 2016-09-30 2018-04-05 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
CN116866553A (zh) 2017-01-16 2023-10-10 世宗大学校产学协力团 影像解码/编码方法以及传送比特流的方法
EP3780604A4 (en) * 2018-03-29 2021-12-22 Industry Academy Cooperation Foundation Of Sejong University IMAGE CODING / DECODING PROCESS AND APPARATUS

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5260783A (en) * 1991-02-21 1993-11-09 Gte Laboratories Incorporated Layered DCT video coder for packet switched ATM networks
KR0166716B1 (ko) * 1992-06-18 1999-03-20 강진구 블럭 dpcm을 이용한 부호화/복호화방법 및 장치
US6285710B1 (en) * 1993-10-13 2001-09-04 Thomson Licensing S.A. Noise estimation and reduction apparatus for video signal processing
JPH07264598A (ja) * 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動き補償方法、動きベクトル検出回路および動き補償回路
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
JPH09182081A (ja) * 1995-12-25 1997-07-11 Nippon Telegr & Teleph Corp <Ntt> 動き補償予測符号化装置
US5682204A (en) * 1995-12-26 1997-10-28 C Cube Microsystems, Inc. Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level
EP1229740A3 (en) * 1996-01-22 2005-02-09 Matsushita Electric Industrial Co., Ltd. Method and device for digital image encoding and decoding
KR100371130B1 (ko) * 1996-05-28 2003-02-07 마쯔시다덴기산교 가부시키가이샤 화상예측 복호화 장치 및 그 방법과 화상예측 부호화 장치및 그 방법
EP0817499A3 (en) * 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
US6687405B1 (en) 1996-11-13 2004-02-03 Koninklijke Philips Electronics N.V. Image segmentation
CN1155259C (zh) * 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US6359929B1 (en) * 1997-07-04 2002-03-19 Matsushita Electric Industrial Co., Ltd. Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
US6483521B1 (en) * 1998-02-02 2002-11-19 Matsushita Electric Industrial Co., Ltd. Image composition method, image composition apparatus, and data recording media
US7263127B1 (en) * 1998-04-02 2007-08-28 Intel Corporation Method and apparatus for simplifying frame-based motion estimation
JP2000041255A (ja) * 1998-07-24 2000-02-08 Canon Inc 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体
US6400763B1 (en) * 1999-02-18 2002-06-04 Hewlett-Packard Company Compression system which re-uses prior motion vectors
US6614442B1 (en) * 2000-06-26 2003-09-02 S3 Graphics Co., Ltd. Macroblock tiling format for motion compensation
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7643559B2 (en) 2001-09-14 2010-01-05 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
US7336711B2 (en) * 2001-11-16 2008-02-26 Ntt Docomo, Inc. Image encoding method, image decoding method, image encoder, image decode, program, computer data signal, and image transmission system
JP3861698B2 (ja) 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
HUE045566T2 (hu) * 2002-04-19 2020-01-28 Panasonic Ip Corp America Mozgásvektor-számítási eljárás
RU2314656C2 (ru) * 2002-06-11 2008-01-10 Нокиа Корпорейшн Внутреннее кодирование, основанное на пространственном прогнозировании
CN1312927C (zh) * 2002-07-15 2007-04-25 株式会社日立制作所 动态图像编码方法及解码方法
US6728315B2 (en) * 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
JP3504256B1 (ja) * 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
KR100560843B1 (ko) * 2003-04-10 2006-03-13 에스케이 텔레콤주식회사 비디오 부호기에서 적응 움직임 벡터의 탐색 영역을결정하는 방법 및 장치
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2005005844A (ja) * 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
US9210441B2 (en) * 2003-06-25 2015-12-08 Thomson Licensing Fast mode-decision encoding for interframes
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
JP4213646B2 (ja) * 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP3879741B2 (ja) * 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
JP4313710B2 (ja) 2004-03-25 2009-08-12 パナソニック株式会社 画像符号化方法および画像復号化方法
JP4414904B2 (ja) * 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US8085846B2 (en) * 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
KR101108681B1 (ko) 2005-01-19 2012-01-25 삼성전자주식회사 동영상 코덱에서의 주파수 변환 계수 예측 방법 및 장치,이를 구비한 부호화 및 복호화 장치와 방법
RU2336661C2 (ru) * 2005-04-19 2008-10-20 Самсунг Электроникс Ко., Лтд. Способ и устройство адаптивного выбора контекстной модели для кодирования по энтропии
TWI249907B (en) * 2005-04-20 2006-02-21 Ind Tech Res Inst Method for fast mode decision of variable block size coding
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
US20070025444A1 (en) * 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
US8446954B2 (en) * 2005-09-27 2013-05-21 Qualcomm Incorporated Mode selection techniques for multimedia coding
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
RU2369038C1 (ru) * 2005-11-30 2009-09-27 Кабусики Кайся Тосиба Способ кодирования изображения/декодирования изображения, устройство кодирования изображения/декодирования изображения
CN102611892B (zh) * 2006-03-16 2014-10-08 华为技术有限公司 在编码过程中实现自适应量化的方法及装置
JP5002286B2 (ja) 2006-04-27 2012-08-15 キヤノン株式会社 画像符号化装置、画像符号化方法、プログラム及び記憶媒体
US20080023247A1 (en) * 2006-07-27 2008-01-31 Hall Mark L Reverse drive safety system for vehicle
US20080026729A1 (en) 2006-07-31 2008-01-31 Research In Motion Limited Method and apparatus for configuring unique profile settings for multiple services
EP2047687B1 (en) * 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
JP4999859B2 (ja) 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
US20080240242A1 (en) * 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
BRPI0809512A2 (pt) * 2007-04-12 2016-03-15 Thomson Licensing método e aparelho para mesclagem dependente de contexto para modos salto-direto para codificação e decodificação de vídeo
JP4788649B2 (ja) * 2007-04-27 2011-10-05 株式会社日立製作所 動画像記録方法及びその装置
JP2008311781A (ja) * 2007-06-12 2008-12-25 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP4947364B2 (ja) * 2007-06-22 2012-06-06 ソニー株式会社 情報処理システムおよび方法、情報処理装置および方法、並びにプログラム
KR100901874B1 (ko) * 2007-07-11 2009-06-09 한국전자통신연구원 비디오 인코딩을 위한 인터 모드 결정 방법
US9271008B2 (en) * 2007-07-17 2016-02-23 Nippon Telegraph And Telephone Corporation Video encoding apparatus and method, video encoding program, and storage medium which stores the program
KR101408698B1 (ko) * 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
JP4990927B2 (ja) 2008-03-28 2012-08-01 三星電子株式会社 動きベクトル情報の符号化/復号化方法及び装置
JP5406465B2 (ja) 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
CN103647972B (zh) 2008-12-03 2017-04-12 日立麦克赛尔株式会社 运动图像解码方法和运动图像编码方法
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
US9626769B2 (en) 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
SI2924995T1 (sl) 2010-07-09 2018-10-30 Samsung Electronics Co., Ltd. Postopek za dekodiranje videa z uporabo združevanja blokov
KR101484281B1 (ko) 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
SG187094A1 (en) 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
ES2773774T3 (es) 2010-10-06 2020-07-14 Ntt Docomo Inc Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
CA2824755C (en) 2011-09-23 2018-01-16 Kt Corporation Method for deriving a merge candidate block and device using same
CA3148063C (en) * 2011-11-02 2023-08-29 Tagivan Ii Llc Moving picture encoding method and moving picture encoding apparatus

Also Published As

Publication number Publication date
US9549186B2 (en) 2017-01-17
SG174323A1 (en) 2011-10-28
HUE061153T2 (hu) 2023-05-28
EP3567854B1 (en) 2022-12-14
KR101572462B1 (ko) 2015-11-27
US20120044994A1 (en) 2012-02-23
ES2964540T3 (es) 2024-04-08
TWI699113B (zh) 2020-07-11
TWI735257B (zh) 2021-08-01
AU2019204853A1 (en) 2019-07-25
EP2988500B1 (en) 2017-08-23
PL2988500T3 (pl) 2017-11-30
RU2707713C1 (ru) 2019-11-28
US10063855B2 (en) 2018-08-28
RU2694239C1 (ru) 2019-07-10
US10284846B2 (en) 2019-05-07
SG10201400802XA (en) 2014-07-30
RU2672185C1 (ru) 2018-11-12
PT3567853T (pt) 2023-12-19
CA3050573A1 (en) 2010-09-30
TWI715906B (zh) 2021-01-11
KR20190019226A (ko) 2019-02-26
US9031125B2 (en) 2015-05-12
US20180324422A1 (en) 2018-11-08
HUE064690T2 (hu) 2024-04-28
TW201041406A (en) 2010-11-16
US20170099486A1 (en) 2017-04-06
TW202041027A (zh) 2020-11-01
EP3249924A1 (en) 2017-11-29
BRPI1011698B1 (pt) 2019-04-02
PL3567854T3 (pl) 2023-02-06
KR20170143007A (ko) 2017-12-28
US20180324421A1 (en) 2018-11-08
MX2020011758A (es) 2020-11-24
HUE061103T2 (hu) 2023-05-28
EP2413605A1 (en) 2012-02-01
AU2017265185A1 (en) 2017-12-14
HUE061250T2 (hu) 2023-06-28
EP3567852B1 (en) 2022-12-21
US20150110183A1 (en) 2015-04-23
AU2019204854B2 (en) 2020-11-05
EP3567854A1 (en) 2019-11-13
KR20190020192A (ko) 2019-02-27
JP6220023B2 (ja) 2017-10-25
AU2019204854A1 (en) 2019-07-25
KR101812122B1 (ko) 2017-12-26
CA2921802C (en) 2018-06-26
EP3567855B1 (en) 2023-01-11
US10284848B2 (en) 2019-05-07
TWI606717B (zh) 2017-11-21
CA2756419A1 (en) 2010-09-30
EP3567853A1 (en) 2019-11-13
EP2988500A1 (en) 2016-02-24
CA3050582A1 (en) 2010-09-30
EP2413605B1 (en) 2016-02-17
KR102032772B1 (ko) 2019-10-16
AU2010228415B2 (en) 2016-01-07
CA2921802A1 (en) 2010-09-30
KR20160119287A (ko) 2016-10-12
EP3567853B8 (en) 2024-01-03
CN104065961B (zh) 2016-05-11
DK3567856T3 (da) 2023-01-23
CA3050583C (en) 2021-08-03
RU2011142796A (ru) 2013-04-27
MX341365B (es) 2016-08-17
EP3567856A1 (en) 2019-11-13
TWI517676B (zh) 2016-01-11
PT3567855T (pt) 2023-01-25
PL3249924T3 (pl) 2019-12-31
CA3000726C (en) 2019-09-10
AU2017265185B2 (en) 2019-04-11
TWI654876B (zh) 2019-03-21
PL3567852T3 (pl) 2023-03-27
DK3567853T3 (da) 2024-01-02
FI3567853T3 (fi) 2023-12-15
CA3050573C (en) 2021-08-03
ES2750224T3 (es) 2020-03-25
AU2019204856B2 (en) 2020-11-05
TW201603561A (zh) 2016-01-16
ES2936295T3 (es) 2023-03-15
CN102362500A (zh) 2012-02-22
ES2935961T3 (es) 2023-03-13
TWI563828B (ja) 2016-12-21
EP3249924B1 (en) 2019-09-11
CN102362500B (zh) 2014-08-13
TW201707452A (zh) 2017-02-16
EP2413605A4 (en) 2013-07-17
FI3567852T3 (fi) 2023-01-31
BRPI1011698A2 (pt) 2016-03-22
AU2019204853B2 (en) 2020-11-05
RU2709165C1 (ru) 2019-12-16
KR101952726B1 (ko) 2019-02-27
JP2017011739A (ja) 2017-01-12
JP5779270B2 (ja) 2015-09-16
PL3567856T3 (pl) 2023-03-06
KR20170102052A (ko) 2017-09-06
JP2018019418A (ja) 2018-02-01
AU2010228415A1 (en) 2011-10-13
US20180324423A1 (en) 2018-11-08
EP3567855A1 (en) 2019-11-13
PL3567855T3 (pl) 2023-03-13
HUE061249T2 (hu) 2023-06-28
CA3050583A1 (en) 2010-09-30
RU2015108786A (ru) 2015-08-10
FI3567855T3 (fi) 2023-04-12
WO2010110126A1 (ja) 2010-09-30
US10284847B2 (en) 2019-05-07
AU2019204852A1 (en) 2019-07-25
PT3567856T (pt) 2023-01-12
KR102032771B1 (ko) 2019-10-16
FI3567856T3 (fi) 2023-01-31
EP3567852A1 (en) 2019-11-13
EP3567856B8 (en) 2023-02-15
RU2549170C2 (ru) 2015-04-20
CA3050582C (en) 2021-07-06
ES2641203T3 (es) 2017-11-08
JP5586101B2 (ja) 2014-09-10
PT3567854T (pt) 2023-01-06
AU2016201339B2 (en) 2017-08-31
CA2756419C (en) 2016-05-17
EP3567853B1 (en) 2023-11-29
AU2019204856A1 (en) 2019-07-25
TW201811052A (zh) 2018-03-16
PT2988500T (pt) 2017-09-26
JP2014200110A (ja) 2014-10-23
RU2595754C2 (ru) 2016-08-27
PT3249924T (pt) 2019-10-09
CA3000726A1 (en) 2010-09-30
PT3567852T (pt) 2023-01-11
MX2011009960A (es) 2011-10-06
PL3567853T3 (pl) 2024-03-25
FI3567854T3 (fi) 2023-01-13
DK3567852T3 (da) 2023-01-16
JPWO2010110126A1 (ja) 2012-09-27
KR101700236B1 (ko) 2017-01-26
JP6000398B2 (ja) 2016-09-28
AU2016201339A1 (en) 2016-03-17
KR20150135546A (ko) 2015-12-02
ES2936129T3 (es) 2023-03-14
AU2019204852B2 (en) 2020-11-05
RU2639662C1 (ru) 2017-12-21
CA3000728A1 (en) 2010-09-30
CA3000728C (en) 2019-09-10
TW201921946A (zh) 2019-06-01
CN104065961A (zh) 2014-09-24
KR101773990B1 (ko) 2017-09-01
EP3567856B1 (en) 2022-12-28
ES2937695T3 (es) 2023-03-30
JP2015156705A (ja) 2015-08-27
KR20120000054A (ko) 2012-01-03
TW201921947A (zh) 2019-06-01
MX354869B (es) 2018-03-23
DK3567855T3 (da) 2023-01-30

Similar Documents

Publication Publication Date Title
JP6405432B2 (ja) 画像予測復号装置および画像予測復号方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180914

R150 Certificate of patent or registration of utility model

Ref document number: 6405432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250