JP5406465B2 - 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム - Google Patents

画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム Download PDF

Info

Publication number
JP5406465B2
JP5406465B2 JP2008114166A JP2008114166A JP5406465B2 JP 5406465 B2 JP5406465 B2 JP 5406465B2 JP 2008114166 A JP2008114166 A JP 2008114166A JP 2008114166 A JP2008114166 A JP 2008114166A JP 5406465 B2 JP5406465 B2 JP 5406465B2
Authority
JP
Japan
Prior art keywords
signal
screen
candidate prediction
target
prediction signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008114166A
Other languages
English (en)
Other versions
JP2009267710A (ja
Inventor
芳典 鈴木
チュンセン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2008114166A priority Critical patent/JP5406465B2/ja
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to KR1020127016893A priority patent/KR20120092684A/ko
Priority to PCT/JP2009/057788 priority patent/WO2009131075A1/ja
Priority to CA2722027A priority patent/CA2722027A1/en
Priority to BRPI0911485-8A priority patent/BRPI0911485A2/ja
Priority to KR20107019654A priority patent/KR20100119562A/ko
Priority to US12/989,046 priority patent/US8705611B2/en
Priority to EP09735916.0A priority patent/EP2280549B1/en
Priority to CN2009801144708A priority patent/CN102017637B/zh
Priority to AU2009239127A priority patent/AU2009239127B2/en
Priority to MX2010011609A priority patent/MX2010011609A/es
Priority to TW98113491A priority patent/TW200950530A/zh
Publication of JP2009267710A publication Critical patent/JP2009267710A/ja
Priority to RU2012102341/08A priority patent/RU2012102341A/ru
Application granted granted Critical
Publication of JP5406465B2 publication Critical patent/JP5406465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Description

本発明は、画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するもので、とりわけ、動き検索方法と信号合成方法を用いて予測符号化および復号する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。
静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。
これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。
例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図22は、ITU H.264に用いられる画面内予測方法を説明するための模式図である。図22(A)において、対象ブロック1802は符号化の対象となるブロックであり、その対象ブロック1802の境界に隣接する画素A〜Mからなる画素群1801は隣接領域であり、過去の処理において既に再生された画像信号である。
この場合、対象ブロック1802の真上にある隣接画素である画素群1801を下方に引き伸ばして予測信号を生成する。また図22(B)では、対象ブロック1804の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。予測信号を生成する具体的な方法はたとえば特許文献1に記載されている。このように図22(A)〜(I)に示す方法で生成された9つの予測信号のそれぞれを対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。
通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号とを符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。
図5は、ブロックマッチング処理を説明するための模式図である。ここでは、符号化対象の画面401上の対象ブロック402を例に予測信号の生成手順を説明する。画面403は既に再生済みであり、領域404は対象ブロック402と空間的に同一位置の領域である。ブロックマッチングでは、領域404を囲む探索範囲405を設定し、この探索範囲の画素信号から対象ブロック402の画素信号との絶対値誤差和が最小となる領域406を検出する。この領域406の信号が予測信号となり、領域404から領域406への変位量が動きベクトル407として検出される。H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば特許文献2に記載されている。
動画像データの圧縮符号化では、各画面(フレーム、フィールド)の符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測であり、第2の手法は、再生順で未来の再生済み画面を参照して後方向予測であり、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。
先に示したとおり、H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる予測タイプが用意されている。しかしながら、ブロックサイズが小さくなると符号化する動きベクトルの数が増加する。そこで、1本の動きベクトルを参考として、符号化の対象となるブロックを4分割したブロックの動きベクトルを各ブロックに隣接する既再生の画素値を利用して生成する方法がある。この方法については特許文献4に記載されている。
さらに、動きベクトルを用いることなく、符号化対象となるブロックに隣接する既再生の画素値を利用して予測信号を生成する方法がある。この際、複数の候補予測信号を生成してそれらを平均することにより、双方向予測と同様に予測信号に含まれる雑音成分を除去することも可能である。この方法については特許文献5に記載されている。
米国特許公報第6765964号 米国特許公報第7003035号 米国特許公報第6259739号 特開平2−62180号公報 特開2007−300380号公報
再生画素値をコピーすることにより各画素の予測信号を生成する信号予測手法では、再生画素値が符号化による歪(例えば量子化雑音)を含むため、予測信号もその歪を含むことになる。この符号化による歪を含む予測信号は、残差信号の符号量増加や再生画質劣化など符号化効率を低下させる要因となる。
符号化による歪の影響は、予測信号の平滑化にて抑制可能である。従って、2つの予測信号を平均化する双方向予測にも抑制効果がある。しかし、双方向予測は、2つの予測信号を再生側にて生成するため、2本の動きベクトルを符号化する必要がある。
一方、従来技術で示したように、符号化対象となるブロックに隣接する既再生の画素値を利用すれば、動きベクトルの符号化を行なわずに、予測信号を生成することは可能である。しかしながら、大きな動きを有する入力画像を高い予測性能で符号化するためには、探索範囲を広くする必要があり、動きベクトルを符号化する手法と比べて、復号時における予測信号の生成に多くの時間を要する。
そこで、上述の課題を解決するために、本発明は、少ない付加情報と少ない演算量で予測信号を効率よく生成することができる画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。
上述の課題を解決するために、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号および前記動き推定手段により抽出された動き情報を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償手段と、前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定手段と、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチング手段と、前記動き補償手段により生成された第1種の候補予測信号と前記テンプレートマッチング手段により生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成手段と、を有する。
この構成により、動き情報に基づいて探索領域を決定し、この探索領域から第2種の候補予測信号を生成することができる。よって、探索時間を少なくすることができ、効率的に予測信号を生成することができる。
また、本発明の画像予測符号化装置は、前記動き推定手段にて抽出される前記動き情報は、少なくとも前記第1種の候補予測信号の生成に用いられる第1の再生画面を示す情報と前記第1種の候補予測信号を指示する動きベクトルの情報とを含み、前記探索領域決定手段は、前記第1の再生画面の情報に基づいて前記探索領域を含む第2の再生画面を選択し、前記対象領域を含む画面と前記第1の再生画面との間の時間方向の画面間隔と、前記対象領域を含む画面と前記第2の再生画面との間の時間方向の画面間隔と、前記動きベクトルとを用いて、前記探索領域の第2の再生画面内の空間位置を定めることが好ましい。
この発明によれば、第2種の候補予測信号を探索するための探索領域を決定することができ、第2種の候補予測信号の探索処理を迅速に行うことができる。
また、本発明の画像予測符号化装置において、前記候補予測信号合成手段は、前記対象隣接領域の隣接画素信号と前記複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて前記重み付け平均するための重み係数を生成し、当該重み係数を用いて前記複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成することが好ましい。
この発明によれば、予測信号を平均化することができ、より適切な予測信号を生成することができる。
また、本発明の画像予測符号化装置において、前記テンプレートマッチング手段は、前記動きベクトルを構成する各成分が0値であり、前記探索領域が前記第1の再生画面とは異なる画面に属する場合、前記第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択することが好ましい。この発明によれば、平均化処理の効果をより効果的に得ることができる。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2の再生画面を、前記対象領域を含む画面に対して、第1の再生画面と時間的に逆方向の画面に決定することが好ましい。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2の再生画面を、第1の再生画面とは異なる画面であり、かつ前記対象領域を含む画面と時間的に最も近い画面に決定することが好ましい。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2の再生画面として、複数の画面を選択することで、複数の探索領域を選択することが好ましい。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2の再生画面として第1の再生画面を選択することが好ましい。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2の再生画面として、前記入力画像の再生済み領域を選択することが好ましい。
また、本発明の画像予測符号化装置において、前記探索領域決定手段は、前記第2種の候補予測信号として、前記第1種の候補予測信号とは異なる画素信号を選択することが好ましい。
これらの発明において、第2の再生画面または第2の種の候補予測信号を決定・選択することにより、候補予測信号をより適切に平均化することができ、適切な予測信号を生成することができる。
また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号手段と、 前記データ復号手段により復号されて得られた残差信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、を備え、前記予測信号生成手段は、前記データ復号手段により復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償手段と、前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定手段と、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチング手段と、前記動き補償手段により生成された第1種の候補予測信号と前記テンプレートマッチング手段により生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成手段と、を有する。
また、本発明の画像予測復号装置は、前記動き推定手段にて抽出される前記動き情報は、少なくとも前記第1種の候補予測信号の生成に用いられる第1の再生画面を示す情報と前記第1種の候補予測信号を指示する動きベクトルの情報とを含み、前記探索領域決定手段は、前記第1の再生画面の情報に基づいて前記探索領域を含む第2の再生画面を選択し、前記対象領域を含む画面と前記第1の再生画面との間の時間方向の画面間隔と、前記対象領域を含む画面と前記第2の再生画面との間の時間方向の画面間隔と、前記動きベクトルとを用いて、前記探索領域の第2の再生画面内の空間位置を定めることが好ましい。
この発明によれば、第2種の候補予測信号を探索するための探索領域を決定することができ、第2種の候補予測信号の探索処理を迅速に行うことができる。
また、本発明の画像予測復号装置において、前記候補予測信号合成手段は、前記対象隣接領域の隣接画素信号と前記複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて前記重み付け平均するための重み係数を生成し、当該重み係数に基づいて前記複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成する。
この発明によれば、予測信号を平均化することができ、より適切な予測信号を生成することができる。
また、本発明の画像予測復号装置において、前記テンプレートマッチング手段は、前記動きベクトルを構成する各成分が0値であり、前記探索領域が前記第1の画面とは異なる画面に属する場合、前記第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択することが好ましい。この発明によれば、平均化処理の効果をより効果的に得ることができる。
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2の再生画面を、前記対象領域を含む画面に対して、第1の再生画面と時間的に逆方向の画面に決定することが好ましい。
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2の再生画面を、第1の再生画面とは異なる画面であり、かつ前記対象領域を含む画面と時間的に最も近い画面に決定することが好ましい。
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2の再生画面として、複数の画面を選択することで、複数の探索領域を選択することが好ましい。
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2の再生画面として第1の再生画面を選択することが好ましい
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2の再生画面として、前記対象領域を含む画面を選択することが好ましい。
また、本発明の画像予測復号装置において、前記探索領域決定手段は、前記第2種の候補予測信号として、前記第1種の候補予測信号とは異なる画素信号を選択することが好ましい。
これらの発明において、第2の再生画面または第2の種の候補予測信号を決定・選択することにより、候補予測信号をより適切に平均化することができ、適切な予測信号を生成することができる。
また、以下に記載するとおり、本発明の画像予測符号化装置、画像予測復号装置のほかに、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、および画像予測復号プログラムとして捉えることができる。これら発明は、カテゴリーが異なるものであり、装置と同様の作用効果を奏するものである。
すなわち、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号および前記動き推定ステップにより抽出された動き情報を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償ステップと、前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定ステップと、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングステップと、前記動き補償ステップにより生成された第1種の候補予測信号と前記テンプレートマッチングステップにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成ステップと、を有する。
また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号ステップと、前記データ復号ステップにより復号されて得られた残差信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元ステップと、を備え、前記予測信号生成ステップは、 前記データ復号ステップにより復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償ステップと、前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定ステップと、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングステップと、
前記動き補償ステップにより生成された第1種の候補予測信号と前記テンプレートマッチングステップにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成ステップと、を有する。
また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された残差信号および前記動き推定モジュールにより抽出された動き情報を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償モジュールと、前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定モジュールと、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングモジュールと、前記動き補償モジュールにより生成された第1種の候補予測信号と前記テンプレートマッチングモジュールにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成モジュールと、を有する。
また、本発明の画像予測復号プログラムは、圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号モジュールと、前記データ復号モジュールにより復号されて得られた残差信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元モジュールと、を備え、前記予測信号生成モジュールは、前記データ復号モジュールにより復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償モジュールと、 前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定モジュールと、前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングモジュールと、前記動き補償モジュールにより生成された第1種の候補予測信号と前記テンプレートマッチングモジュールにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成モジュールと、を有する。
本発明の画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムによれば少ない動き情報に基づいて複数の候補予測信号を少ない探索時間で生成することができるので、平均化効果を伴う予測信号を効率良く生成することができる。また、動き情報を利用しない予測手法と本手法を適用的に利用する場合、前者の予測手法の探索範囲を制限できる効果がある。
以下、添付図面を参照しながら本実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
<画像予測符号化方法>
図1は、本実施形態に係る画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102(領域分割手段)、予測信号生成器103(予測信号生成手段)、フレームメモリ104、減算器105(残差信号生成手段)、変換器106、量子化器107、逆量子化器108、逆変換器109(符号化手段)、加算器110(符号化手段)、エントロピー符号化器111(符号化手段)、出力端子112及び動き推定器113(動き推定手段)を備えている。変換器106及び量子化器107は、符号化手段として機能する。
入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。
ブロック分割器102は、入力端子101から入力された信号で表される、符号化の対象なる画像を複数の領域に分割する。本実施形態では、8x8の画素からなるブロックに分割するが、それ以外のブロックの大きさ又は形に分割してもよい。
動き推定器113は、符号化処理の対象となる対象領域(対象ブロック)の予測信号を生成するために必要となる動き情報を検出する。この動き推定器113の具体的な処理は後述する。
予測信号生成器103は、ラインL113を経由して入力された動き情報を用いて、対象ブロックの予測信号を生成し、その予測信号を減算器105に出力し、予測方法に関する情報をエントロピー符号化器111に出力する部分である。この予測信号生成器103の具体的な処理については後述する。
フレームメモリ104は、参照画像を記憶するものであって、後述するように対象ブロックの信号を再生することにより生成された参照画像を記憶する。
減算器105は、ラインL102を経由して入力されたブロック分割器102で分割されて得られた対象領域から、ラインL103を経由して入力された予測信号生成器103にて生成された予測信号を減算して、残差信号を生成する部分である。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。
変換器106は、減算して得られた残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。エントロピー符号化器111は、量子化器107により量子化された変換係数を符号化するとともに予測方法に関する情報を符号化し、符号化された情報をラインL111を経由して出力する。出力端子112は、エントロピー符号化器111から入力した情報を外部に出力する。
逆量子化器108は、量子化された変換係数を逆量子化する。逆変換器109は、逆離散コサイン変換により残差信号を復元する。加算器110は、復元された残差信号とラインL103から送られた予測信号とを加算し、対象ブロックの信号を再生し、フレームメモリ104に格納する。本実施形態では、変換器106と逆変換器109とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器106及び逆変換器109は必須ではない。このように、後続の対象領域に対する画面内予測もしくは画面間予測を行うために、圧縮された対象領域の画素信号は、逆処理にて復元されフレームメモリ104に記憶される。
次に、動き推定器113と予測信号生成器103について説明する。動き推定器113は、フレームメモリ104に記憶されている既再生信号から符号化処理の対象となる対象領域(以下、対象ブロックと称する)に類似する候補予測領域を探索し、探索した候補予測領域を既再生信号から取得するために必要となる動き情報を抽出する。予測信号生成器103は、抽出された動き情報と既再生信号を用いて対象ブロックの予測信号を生成する。本実施形態では、2種類の予測方法が用いられる。すなわち、予測信号生成器103は、画面間予測方法と画面内予測方法とのうち少なくとも一方を用いて予測信号を生成する。画面間予測方法及び画面内予測方法を選択するための選択情報は、量子化された変換係数及び動き情報とともにエントロピー符号化器111にて符号化され、出力端子112より送出される。
まず、動き推定器113における動き情報の生成処理を説明する。動き推定器113は、画面内予測方法を用いる場合、対象ブロックと同じ画面(フレームまたはフィールド)の既再生の画像信号を参照画面(第1の再生画面に相当)としてブロックマッチング処理により動きベクトルを検出する。ここで、参照画面とは動きベクトルの探索を実施する対象の再生画面を示す。画面間予測方法を用いる場合、対象ブロックと異なる画面(フレームまたはフィールド)の再生画像信号を参照画面(第1の再生画面に相当)として、ブロックマッチング処理により動きベクトルを検出する。検出した動きベクトルは、動き情報として動き推定器113から、L113を経由して予測信号生成器103とエントロピー符号化器(ラインL113経由)とにそれぞれ出力される。
図5を用いて、動き推定器113における画面間予測における動きベクトル探索方法をさらに詳しく述べる。図5では、この例としてブロックマッチング処理を説明する。動き推定器113は動き情報を探索できればよく、ブロックマッチング処理には限定されない。図5は、動きベクトルの検出方法を説明するための模式図であり、図5(a)は参照画面(第1の再生画面に相当)を示し、図5(b)は符号化対象の画面を示す。ここでは、符号化対象の画面401において、対象ブロック402に対する動きベクトルを検出する場合について説明する。
まず、過去の処理で既に再生された画面403が参照画面とされ、参照画面上に探索領域405が設定される。図5では、対象ブロック402と空間的に同一位置の領域404の周囲に探索領域405が設定されているが、空間的にずれた位置に設定されても構わない。次に、探索領域405において、対象ブロック402と同じ形状を有する画素群との間で、対応する画素間の絶対値誤差和(SAD)が求められ、最も小さいSADを与える領域406が検索される。この領域406は、第1種の候補予測信号となる。この際、領域406を検索するための評価値はSAD以外でもよい。そして、領域404から領域406への変位量が対象ブロックの動きベクトル407として検出される。図5では、参照画面は1枚であるが、複数の既再生画面上に探索領域を設定して、動きベクトルの探索を行なう方法もある。この場合には、検出した動きベクトルが属する既再生画面を識別する参照画面番号が動き情報に含まれる。なお、画面内予測方法では、図20(a)に示すように探索領域439は、符号化対象の画面401内に設定されるため、参照画面番号の符号化は不要である。図20(a)では、領域431が、対象ブロック402との間で最も小さいSADを与える領域を示しており、動きベクトル432が対象領域402から領域431への変位量を示している。
次に、予測信号生成器103における対象ブロックの予測信号の生成処理を画面間予測方法の場合を例として説明する。図2は、予測信号生成器103のブロック図である。予測信号生成器103は、探索領域設定器201(探索領域決定手段)と、テンプレートマッチング器202(テンプレートマッチング手段)と、候補予測信号合成器203(候補予測信号合成手段)と、動き補償器204(動き補償手段)と、候補予測領域取得器205(テンプレートマッチング手段に含まれる)と、重み係数算出器206(候補予測信号合成手段に含まれる)とを備えている。予測信号生成器103では、探索領域設定器201が上述の動き情報に基づいてテンプレートマッチングの対象となる探索領域を既再生の画面上に設定し、テンプレートマッチング器202が探索領域から対象ブロックに対する複数の候補予測信号(第2種の候補予測信号)を探索する。そして、動き補償器204と候補予測領域取得器205とが、既再生信号から取得した候補予測信号(それぞれ、第1種の候補予測信号と第2種の候補予測信号)を取得し、候補予測信号合成器203がこれらの候補予測信号を重み係数算出器206にて決定する重み係数を用いて重み付け平均により合成して、対象ブロックに対する予測信号を生成する。
この際、予測信号生成器103が、動き推定器113において生成され、L113を経由して入力される動き情報(探索領域設定器201と動き補償器204と重み係数算出器206に入力)に基づいて予測信号を生成することにより、つまり対象ブロック402の画像信号との誤差が小さい予測領域406の画像信号を、候補予測信号の1つ(第1種の候補予測信号、領域406は第1種の候補予測領域)とすることにより、予測性能の向上を図る。つまり、予測信号生成器103は、動き補償器204(動き補償手段)を含み、この動き補償器204は、L113を経由して入力される動き情報に基づいてフレームメモリ104の参照画面(第1の再生画面)から第1種の候補予測信号を取得し、候補予測信号合成器203に出力する。また、探索領域設定器201は、L113を経由して入力される動き情報に基づいて参照画面(第2の再生画面)と探索領域とを決定し、L201を経由でテンプレートマッチング器202に出力する。
テンプレートマッチング器202は、上記の探索領域(フレームメモリ104内の参照画面の一部)から1つ以上の候補予測信号(第2種の候補予測信号)を探索し、探索した信号を第2の再生画面から取得するためのアクセス情報をL202経由で候補予測領域取得器205に出力する。候補予測領域取得器205は、フレームメモリ104の参照画面(第2の再生画面)から第2種の候補予測信号を取得し、候補予測信号合成器203に出力する。このように上述の動き情報に基づいてその他の候補予測信号(第2種の候補予測信号)に対する探索領域をこの参照画面と動きベクトルとから決定するので、狭い探索領域で効率良く候補予測信号を探索することが可能となる。なお、第2種の候補予測信号は1つ以上であれば良く、その数は限定されてない。
(探索領域設定器201の説明)
探索領域設定器201では、L113を経由して入力される動き情報に基づいて第2種の候補予測信号を探索する参照画面と探索領域とを決定する。図6は、符号化対象の画面401内の対象ブロック402に対する第2種の候補予測信号を探索する参照画面409を複数の再生画面から選択する方法、ならびに、探索領域の中心位置(探索中心)を決定する方法を説明する図面である。この例では、既再生信号により構成される参照画面の候補から、動き情報が示す参照画面403(第1種の候補予測信号を探索した画面:第1の再生画面)とは異なり、かつ符号化対象の画面401に時間的に最も近い再生画面を第2種の候補予測信号を探索する参照画面(第2の再生画面)として選択する。
図6(1)と図6(2)とは、すべての参照画面の候補が符号化対象の画面に対して時間的に過去の画面であるときの参照画面409を示している。図6(1)のように、参照画面の候補のうち、動き情報が示す参照画面403(時間t−a)が符号化対象の画面401(時間t)に時間的に最も近い場合には、画面403よりも時間的に過去の参照画面(時間t−b、a<b)を、第2種の候補予測信号を探索する参照画面409として選択する。図6(2)のように、動き情報が示す参照画面403(時間t−a)と符号化対象の画面401(時間t)との間に、参照画面の別の候補が存在するに場合には、2画面の間の画面のうち、符号化対象の画面401(時間t)に時間的に最も近い参照画面(時間t−b、a>b)を、第2種の候補予測信号を探索する参照画面409として選択する。
図6(3)と図6(4)とは、参照画面の候補に符号化対象の画面に対して時間的に未来の画面が含まれるときの参照画面409を示している。図6(3)のように、参照画面の候補のうち、動き情報が示す参照画面403(時間t+a、a<0)が符号化対象の画面401(時間t)に対して時間的に過去の画面の場合には、符号化対象の画面401に対して時間的に未来で、かつ符号化対象の画面401に最も近い画面(時間t+b、b>0)を、第2種の候補予測信号を探索する参照画面409として選択する。図6(4)のように、参照画面の候補のうち、動き情報が示す参照画面403(時間t+a、a>0)が符号化対象の画面401(時間t)に対して時間的に未来の画面の場合には、符号化対象の画面401に対して時間的に過去で、かつ符号化対象の画面401に最も近い画面(時間t+b、b<0)を、第2種の候補予測信号を探索する参照画面409として選択する。
図6(3)や図6(4)のように、符号化対象の画面に対して時間的に未来の画面を予測信号の生成に用いることができる場合には、参照画面409(第2の再生画面)を画面401に対して、参照画面403(第1の再生画面)と時間的に逆方向に選択することにより、双方向予測による予測効率改善効果が得られる。
図6(5)と図6(6)とは、参照画面の候補が1枚のときの参照画面409を示している。これらの場合には、第2種の候補予測信号を探索する参照画面409は動き情報が示す参照画面403と同じである。なお、参照画面の候補が1枚でない場合においても、第2種の候補予測信号を探索する参照画面409として動き情報に含まれる参照画面番号が指示する参照画面403を選択しても良い。
探索領域の中心位置である探索中心は、符号化対象の画面401と、動き情報が示す参照画面403ならびに第2種の候補予測信号を探索する参照画面409との間の画面間時間差(それぞれt1とt2)と動き情報に含まれる動きベクトル407とを参照画面409上にスケーリングすることで決定される。式(1)は動き情報に含まれる動きベクトル407、式(2)は動きベクトル407を参照画面409にスケーリングしたスケーリング動きベクトル408を示す
Figure 0005406465


Figure 0005406465

探索領域は、スケーリング動きベクトル408が示す画素位置を中心として、参照画面409に設定される。この際、スケーリング動きベクトル408の水平・垂直成分の値が1/2画素、1/4画素等の小数値の場合は、整数値に丸めてもよい。探索領域の大きさは任意であり、予め決めておく。また、探索領域の大きさはシーケンス単位や画面単位で符号化してもよい。
図6では、第2種の候補予測信号を探索する参照画面409を1枚としているが、複数枚を選択して、それぞれの画面に探索領域を設定してもよい。後述するように、第2種の候補予測信号は対象領域に隣接する既再生の画素群を用いて候補予測信号を探索される。そのため探索する参照画面の数を増やしても、第2種の候補予測信号の探索について、参照画面の情報を符号化する必要はない。
なお、動きベクトル407とスケーリング動きベクトル408とが共にゼロベクトルの場合には、探索中心位置のブロック信号、つまりスケーリング動きベクトルにて指示されるブロック信号は、テンプレートマッチング器202においてテンプレートマッチングの探索対象から除外される。このケースでは、探索中心位置のブロック信号が、第1種の候補予測信号と同じになる可能性が高く、平均化の効果が得られにくいと考えられるためである。特に動き情報に含まれる参照画面番号が、図6(1)のように符号化対象の画面に時間的に隣接する画面を示している場合には、この傾向が強い。そこで、参照画面番号が特定の値の場合に限って、動きベクトル407とスケーリング動きベクトル408とが共にゼロベクトルの場合に、探索中心位置のブロック信号を、テンプレートマッチングの探索対象から除外するようにしてもよい。すなわち、テンプレートマッチング器202は、動きベクトルを構成する成分がゼロであり、探索領域が参照画面403(第1の再生画面)とは異なる画面に属する場合、第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択することが好ましい。
画面内予測を適用する場合には、探索領域設定器201は不要である。画面内予測では、第2種の候補予測信号を探索する探索中心は符号化対象の画面401上で動き情報に含まれる動きベクトルが指示する画素位置に設定される。この場合、探索中心の画素位置は、第1種の候補予測信号を示すため、探索対象から除外する。
また、図6(5)と図6(6)のように、第2種の候補予測信号を探索する参照画面409が動き情報が示す参照画面403と同じ場合、スケーリング動きベクトル408は動きベクトル407と一致する。この場合、探索中心の画素位置は、第1種の候補予測信号を示すため、第2種の候補予測信号の探索対象から除外する。なお、参照画面の候補が1枚の場合に関わらず、第2種の候補予測信号を探索する参照画面409として動き情報に含まれる参照画面番号が指示する参照画面403を選択している場合には、同じく探索中心の画素位置を、第2種の候補予測信号の探索対象から除外する。
ここで示した3つのケースをまとめて、スケーリング動きベクトル408が指示するブロック信号を、第2種の候補予測信号を探索するためのテンプレートマッチングの探索対象から除外するようにしてもよい。また、第2種の候補予測信号は第1種の候補予測信号と異なる信号となるように制限してもよいし、第2種の候補予測信号に第1種の候補予測信号が含まれないように制限してもよい。

(テンプレートマッチング器202の説明)
テンプレートマッチング器202では、L201を経由して入力される参照画面と探索領域の情報に基づいて、参照画面内の探索領域から第2種の候補予測信号を複数個探索する。テンプレートマッチングでは、対象ブロックに隣接する再生画素群からなる対象隣接領域と類似する領域を再生信号から探索する。図3と図7を用いて説明する。
図3は、テンプレートマッチング器202の構成を示すブロック図である。テンプレートマッチング器202は、対象隣接領域取得器211と予測隣接領域取得器212と候補予測領域選択器213と候補予測領域決定器214で構成される。
(画面間予測におけるテンプレートマッチング器202の説明)
図7は、画面間予測の場合について、テンプレートマッチング器202にて第2種の候補予測信号を複数個探索する方法を説明する図面である。参照画面409内の探索領域414から第2種の候補予測信号を複数個探索する。座標410は探索中心を示す。
まず、対象隣接領域取得器211では、L104を経由して、対象ブロックに対し、予め決められた方法で対象隣接領域(テンプレートともいう)をフレームメモリ104から取得する。取得したテンプレート信号はL211を経由して、予測隣接領域取得器212と候補予測領域選択器213に出力される。本実施形態では、対象ブロック402に隣接する既再生の画素群(逆L文字の領域)415を対象隣接領域とする。この対象隣接領域415は、対象ブロック402の周囲の再生済み画素で構成されていれば良く、形と画素数は予め定めておくので任意でよい。また、シーケンス単位や画面単位やブロック単位でテンプレートの形状とサイズ(画素数)を符号化してもよい。
次に、予測隣接領域取得器212では、L201を経由して入力される参照画面409上の探索領域414について、対象隣接領域415と同じ形状を有する探索領域内の画素群を、L104を経由してフレームメモリから順次取得する。取得した画素群はL212を経由して候補予測領域選択器213に出力される。
候補予測領域選択器213では、L211を経由して入力された対象隣接領域415と、L212を経由して入力される対象隣接領域415と同じ形状の画素群との間で、対応する画素間の絶対誤差値の和(SAD)を順次求める。そして、SADが小さいM個の領域を検出し、それらを第2種の候補予測隣接領域として選択する。探索領域414内の画素精度は整数画素単位でもよいし、1/2画素、1/4画素等の小数精度の画素を用意し、小数画素精度で探索を行なってもよい。Mの値は予め設定しておけば任意の値でよい。図7では、M=3であり、候補予測隣接領域412a、412b、412cが検出されている。
候補予測領域選択器213は、候補予測隣接領域412a、412bおよび412cに接している領域413a、413bおよび413cを対象ブロック402に対する第2種の候補予測領域として決定し、各候補予測領域内の画素信号を第2種の候補予測信号とする。なお、ここでは、候補予測隣接領域と候補予測領域との位置関係は、対象領域と対象隣接領域と同じ関係にあるが、そうでなくてもよい。最後に候補予測領域選択器213は、各候補予測隣接領域ならびに候補予測領域をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と各候補予測隣接領域(および候補予測領域)との間の差分座標411a、411bおよび411cと各候補予測領域が属する参照画面の参照画面番号をL213経由で候補予測領域決定器214に出力する。
候補予測領域決定器214は、第2種の3つの候補予測領域(図7の場合、3つには限定されない)から1つの候補予測領域を選択する。候補予測領域の選択方法としては、テンプレートマッチング器202の候補予測領域選択器213にて、対象隣接領域とのSADが小さい候補予測隣接領域に隣接する候補予測信号を選択する方法がある(別例は後述)。候補予測領域決定器214は、選択された第2種の候補予測領域へのアクセス情報(差分座標と参照画面番号)は、L202経由で、候補予測領域取得器205と重み係数算出器206とに出力する。
(画面内予測におけるテンプレートマッチング器202の説明)
画面内予測の場合には、図20(b)に示すようにテンプレートマッチング器202にて第2種の候補予測信号が複数個探索される。参照画面401内の探索領域437から第2種の候補予測信号を複数個探索する。座標438は探索中心を示す。
まず、対象隣接領域取得器211では、L104を経由して、対象ブロックに対し、予め決められた方法で対象隣接領域(テンプレートともいう)をフレームメモリ104から取得する。取得したテンプレート信号はL211を経由して、予測隣接領域取得器212と候補予測領域選択器213に出力される。本実施形態では、対象ブロック402に隣接する既再生の画素群(逆L文字の領域)415を対象隣接領域とする。この対象隣接領域415は、対象ブロック402の周囲の再生済み画素で構成されていれば良く、形と画素数は予め定めておくので任意でよい。また、シーケンス単位や画面単位やブロック単位でテンプレートの形状とサイズ(画素数)を符号化してもよい。
次に、予測隣接領域取得器212では、L201を経由して入力される参照画面401上の探索領域437について、対象隣接領域415と同じ形状を有する探索領域内の画素群を、L104を経由してフレームメモリから順次取得する。取得した画素群はL212を経由して候補予測領域選択器213に出力される。
候補予測領域選択器213では、L211を経由して入力された対象隣接領域415と、L212を経由して入力される対象隣接領域415と同じ形状の画素群との間で、対応する画素間の絶対誤差値の和(SAD)を順次求める。そして、SADが小さいM個の領域を検出し、それらを第2種の候補予測隣接領域として選択する。探索領域437内の画素精度は整数画素単位でもよいし、1/2画素、1/4画素等の小数精度の画素を用意し、小数画素精度で探索を行なってもよい。Mの値は予め設定しておけば任意の値でよい。図20(b)では、M=3であり、候補予測隣接領域436a、436b、436cが検出されている。
候補予測領域選択器213は、候補予測隣接領域436a、436bおよび436cに接している領域435a、435bおよび435cを対象ブロック402に対する第2種の候補予測領域として決定し、各候補予測領域内の画素信号を第2種の候補予測信号とする。なお、ここでは、候補予測隣接領域と候補予測領域との位置関係は、対象領域と対象隣接領域と同じ位置関係にあるが、そうでなくてもよい。最後に候補予測領域選択器213は、各候補予測隣接領域ならびに候補予測領域をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と各候補予測隣接領域(および候補予測領域)との間の差分座標434a、434bおよび434cと各候補予測領域を属する参照画面の参照画面番号を、L213経由で候補予測領域決定器214に出力する。候補予測領域決定器214は、第2種の3つの候補予測領域(図20の場合、3つには限定されない)から1つの候補予測領域を選択する。候補予測領域の選択方法としては、テンプレートマッチング器202の候補予測領域選択器213にて、対象隣接領域とのSADが小さい候補予測隣接領域に隣接する候補予測信号を選択する方法がある(別例は後述)。候補予測領域決定器214は、選択された第2種の候補予測領域へのアクセス情報(差分座標と参照画面番号)は、L202経由で、候補予測領域取得器205と重み係数算出器206とに出力する。
(対象ブロックを分割する場合のテンプレートマッチング器の説明)
図7では、第1種の候補予測領域406と第2種の候補予測領域413a、413bおよび413cとは、対象ブロック402と同じブロックサイズであったが、候補予測領域を対象ブロック402より小さいブロックに分割し、分割した対象小ブロック毎に予測信号を生成すれば更に予測性能が向上することが期待できる。そこで、本実施形態では、対象ブロック402を4つのブロックに分割して、分割ブロック単位で予測信号の生成処理を行なう場合について説明する。
第1種の候補予測信号については、動き情報の増加を抑えるため、第1種の候補予測領域406を4分割することにより、4つの対象小ブロックに対する第1種の候補予測信号を生成する。言い換えれば、4つの対象小ブロックに対する第1種の候補予測信号は、同じ動き情報に基づいて生成される。
図8は、テンプレートマッチング器202にて、画面間予測について、対象小ブロックに対する第2種の候補信号を複数個探索する方法を説明する図面である。図では、4つの分割ブロックのうち対象小ブロック420の例を示している。参照画面409内の探索領域426から第2種の候補予測信号を複数個探索する。座標422は探索中心を示す。ここで、探索領域426と座標422とは、探索領域414と座標410とを、対象ブロック402の左上端の座標と対象小ブロックの左上端の座標との差に応じて、移動したものである。
テンプレートマッチング器の処理手順は図7の場合とほぼ同じである。本実施形態では、対象小ブロック420に隣接する既再生の画素群(逆L文字の領域)421を対象隣接領域とする。
次に、L201を経由して入力される参照画面409上の探索領域426について、対象隣接領域421の画素とそれと同じ形状を有する探索領域内の画素群との間で、対応する画素間の絶対誤差値の和(SAD)を順次求め、SADが小さいM個の領域を検出する。それらを予測隣接領域とする。Mの値は予め設定しておけば任意の値でよい。図8では、M=3であり、候補予測隣接領域424a、424b、424cが検出されている。
候補予測隣接領域424a、424bおよび424cに接している領域425a、425bおよび425cが対象小ブロック421に対する第2種の候補予測領域に決定され、各候補予測領域内の画素信号が第2種の候補予測信号に決定される。各候補予測隣接領域ならびに候補予測領域をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と各候補予測隣接領域(および候補予測領域)との間の差分座標423a、423bおよび423cと、各候補予測領域が属する参照画面の参照画面番号とをL213経由で候補予測領域決定器214に出力する。候補予測領域決定器214は、第2種の3つの候補予測領域(図8の場合、3つには限定されない)から1つの候補予測領域を選択する。候補予測領域の選択方法としては、テンプレートマッチング器202の候補予測領域選択器213にて、対象隣接領域とのSADが小さい候補予測隣接領域に隣接する候補予測信号を選択する方法がある(別例は後述)。候補予測領域決定器214は、選択された第2種の候補予測領域へのアクセス情報(差分座標と参照画面番号)は、L202経由で、候補予測領域取得器205と重み係数算出器206とに出力する。
図21は、テンプレートマッチング器202にて、画面内予測について、対象小ブロックに対する第2種の候補信号を複数個探索する方法を説明する図面である。図では、4つの分割ブロックのうち対象小ブロック420の例を示している。参照画面401内の探索領域447から第2種の候補予測信号を複数個探索する。座標448は探索中心を示す。ここで、探索領域447と座標448とは、探索領域437と座標438とを、対象ブロック402の左上端の座標と対象小ブロックの左上端の座標の差に応じて、移動したものである。
テンプレートマッチング器の処理手順は図20(b)の場合とほぼ同じである。本実施形態では、対象小ブロック420に隣接する既再生の画素群(逆L文字の領域)421を対象隣接領域とする。
次に、L201を経由して入力される参照画面401上の探索領域447について、対象隣接領域421の画素とそれと同じ形状を有する探索領域内の画素群との間で、対応する画素間の絶対誤差値の和(SAD)を順次求め、SADが小さいM個の領域を検出する。それらを予測隣接領域とする。Mの値は予め設定しておけば任意の値でよい。図21では、M=3であり、候補予測隣接領域446a、446b、446cが検出されている。
候補予測隣接領域446a、446bおよび446cに接している領域445a、445bおよび445cが対象小ブロック421に対する第2種の候補予測領域に決定され、各候補予測領域内の画素信号が第2種の候補予測信号に決定される。各候補予測隣接領域ならびに候補予測領域をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と各候補予測隣接領域(および候補予測領域)との間の差分座標444a、444bおよび444cと、各候補予測領域が属する参照画面の参照画面番号とをL213経由で候補予測領域決定器214に出力する。候補予測領域決定器214は、第2種の3つの候補予測領域(図21の場合、3つには限定されない)から1つの候補予測領域を選択する。候補予測領域の選択方法としては、テンプレートマッチング器202の候補予測領域選択器213にて、対象隣接領域とのSADが小さい候補予測隣接領域に隣接する候補予測信号を選択する方法がある(別例は後述)。候補予測領域決定器214は、選択された第2種の候補予測領域へのアクセス情報(差分座標と参照画面番号)は、L202経由で、候補予測領域取得器205と重み係数算出器206に出力する。
残りの3つの対象小ブロックについても、図1における変換・量子化を行なうブロックサイズが対象小ブロックと同じであれば、対象小ブロック421の場合と同様の方法で予測信号が生成できる。しかしながら、図1における変換・量子化を行なうブロックサイズが対象小ブロックより大きい場合には、対象小ブロックに隣接する逆L文字の領域の信号の一部あるいは全部がまだ再生されていない。この場合には、再生済み画素の替わりに予測済み画素を用いればよい。また、対象ブロック内の対象小ブロックの位置に応じて、テンプレートの形状を再生済み画素で構成できるように変更してもよい。
上記で説明した対象ブロックに対して予測信号の生成を行なう方法と対象ブロックを分割した小ブロック毎に予測信号の生成を行なう方法は、ブロック単位で選択することも可能である。この場合、選択情報は、動き情報なとど共にエントロピー符号化器111に出力される。
(重み係数算出器206と候補予測信号合成器203の説明)
重み係数算出器206では、L113を経由して入力される動き情報と、L202を経由して入力されるアクセス情報に基づいて、第1種の候補予測信号と第2種の候補予測信号とを重み付け平均する際の重み係数を算出し、L206経由で候補予測信号合成器203に出力する。候補予測信号合成器203では、動き補償器204と候補予測領域取得器205がフレームメモリ104から取得する第1種の候補予測信号と第2種の候補予測信号とを、それぞれL204とL205経由で入力する。候補予測信号合成器203は、これらの候補予測信号をL206経由で入力される重み係数に基づいて重み付け平均することにより対象ブロックに対する予測信号を生成し、L103経由で出力する。
図4は、重み係数算出器206と候補予測信号合成器203の構成を示すブロック図である。重み係数算出器206は、候補予測隣接領域取得器223と、対象隣接領域取得器221と、重み係数決定器224とを備えている。候補予測信号合成器203は、重み係数乗算器225と、加算・除算器226とを備えている。
式(3)にて、重み係数算出器206と候補予測信号合成器203とにて生成される予測信号Pb(i,j)の重み付け平均化処理による生成手順を整理する。ここで、(i, j)は対象領域における各画素の座標を示している。
Figure 0005406465

式(3)において、Nは第1種と第2種の候補予測信号の数を示しており、ここではN=2である(別例は後述)。候補予測信号合成器203には、動き補償器204と候補予測領域取得器205とからN個の候補予測領域の候補予測信号pn(i, j) (n=0〜N-1)が入力される。
一方、重み係数算出器206では、まず、候補予測隣接領域取得器223が、L113とL202経由で入力されるアクセス情報に従って、N個の候補予測隣接領域の候補予測隣接信号sn(r) (n=0〜N-1)をL104経由でフレームメモリ104から取得し、L223経由で重み係数決定器224に出力する。対象隣接領域取得器221は、L104経由でフレームメモリ104から対象隣接領域の対象隣接信号t(r)(rは対象隣接領域内のR個の画素の位置)を取得し、L221経由で重み係数決定器224に出力する。重み係数決定器224は、L223経由で入力されるN個の候補予測隣接信号sn(r)とL221経由で入力される対象隣接信号t(r)とに基づいて、N個の候補予測信号に対する重み係数wnを決定する(詳細は後述)。そして、重み係数決定器224は重み係数wnをラインL206経由で候補予測信号合成器203の重み係数乗算器225に出力する。
候補予測信号合成器203の重み係数乗算器225では、式(3)に示すように、n番目の重み係数wnをn番目の候補予測信号pn(i, j)内の各画素と掛け合わせ、L225経由で加算・除算器226に出力する。加算・除算器226は、重み付けされたN個の候補予測信号の各画素を累積加算したのち、式(3)のように、重み係数の加算値で除算し、各画素の予測信号Pb(i,j)を算出する。
(候補予測信号決定器214の別例の説明)
候補予測領域決定器214におけるNの決定方法について、さらに説明を加える。上記では、NのちはN=2と予め定めた値としたが、これには依存せず、たとえば、任意のN個の候補予測隣接信号の重み付け平均により対象隣接領域の予測信号を生成し、生成した予測信号と対象隣接領域との差が最も小さくなるようなNを選択する方法でもよい。この場合、重み係数算出器206内の機構が利用できる。
また、例えば、3個の候補予測隣接領域の候補予測隣接信号について、それぞれ第1の候補予測領域に隣接する候補予測隣接領域の候補予測信号との間で実際に重み付け平均処理を行い、3個の対象隣接信号の予測信号を生成する方法もある。この方法では、これらの予測信号と対象隣接信号とを比較して、差(たとえば絶対値誤差和)が最も小さくなる候補予測隣接領域に隣接する候補予測領域の候補予測信号を選択する。
なお、第1種の候補予測信号を候補予測信号に含めず、第2種の候補予測信号からN個の候補予測信号を選択しても良い(この場合、動き補償器204は不要)。また、M個の第2種の候補予測信号に第1種の候補予測信号を加えたM+1個の候補予測信号からN個の候補予測信号を選択できる。選択方法としては、上記と同様に、M+1個の候補予測領域に隣接する候補予測隣接領域の候補予測隣接信号から任意のN個を選択して重み付け平均することにより対象隣接領域の予測信号を生成する方法が適用できる。この場合、この予測信号と対象隣接信号の絶対値誤差和が最も小さくなるN個の候補予測隣接領域を選び、このN個の候補予測隣接領域に隣接するN個の候補予測領域の候補予測信号が最終的に選択される。
(重み係数算出器206の説明)
重み係数決定器224における重み係数の決定方法について、さらに説明を加える。重み係数は式(4)に示すように単純平均としてもよいが、対象隣接信号t(r)とN個の候補予測隣接信号sn(r)との間のSADに基づいて、N個の重み係数を決定してもよい。前者の場合、重み係数は予め決まっているため重み係数算出器206は不要である。
Figure 0005406465

後者の方法によれば、N個の候補予測領域と対象ブロックの相関に基づいて重み係数を決定できる。この方法では、式(5)に示すように、対象隣接信号t(r) (rは対象隣接領域内のR個の画素の位置)とN個の候補予測隣接信号sn(r) (n=0〜N-1)との間のSAD(LSADn、式(6)にて算出)に基づいてN個の重み係数を算出する。
Figure 0005406465


Figure 0005406465

このように、本発明の符号化器における予測方法では、対象ブロックの原信号を用いて符号化器にて検出した動きベクトルなどの動き情報に基づいて複数の候補予測信号を生成する。本発明では、動き情報を用いて、対象ブロックの原信号に近い画素位置を推測するため、狭い探索範囲で効率良く複数の候補予測信号を生成することができる。これらの候補予測信号は画面の異なる領域から取得されるため、含まれる雑音成分(主に高周波成分)が互いに低くなっている。そのため、雑音成分の異なる複数の候補予測信号を平均化することにより、平滑化効果により、統計的に雑音の少ない予測信号が生成できる。
さらに、本発明の符号化器における予測方法は、動き情報を用いて生成される予測信号生成方法や、特許文献5に示すように動き情報を用いずに複数の候補予測信号を生成する方法とブロック単位で適応選択することが可能である。本発明の符号化器における予測方法は、動き情報の符号化に伴う符号量の増加と予測誤差信号の削減効果のトレードオフ性能の観点で、互いの効果を高める関係にある。そのため、これらの方法を適応選択することで、符号化効率の更なる改善効果が期待できる。
図9は、本実施形態に係る画像予測符号化装置100における画像予測符号化方法の手順を示すフローチャートである。まず、動き推定器113は、対象ブロックとの相関が高い信号を既再生信号から検索し、この信号の生成に要する動き情報を生成する。つまり、動き推定器113では、図5あるいは図20(a)に説明したブロックマッチング処理により、対象ブロックの第1種の候補予測領域を指示する動き情報(動きベクトル407と参照画面403の番号)を検出する。この動き情報は、エントロピー符号化器111にて符号化される(ステップS102)。次に、予測信号生成器103は、この動き情報に基づいて複数の候補予測信号を生成し、これらの合成処理により対象ブロックの予測信号を生成する(ステップS103)。ステップS103の詳細は図10にて後述する。
このように決定された予測信号と対象ブロックの信号との差分を示す残差信号が、変換器106、量子化器107及びエントロピー符号化器111により符号化される(ステップS104)。そして、符号化された残差信号、動き情報及び予測信号生成方法の選択情報(必要の場合、画面内予測と画面間予測の選択など)が出力端子112を介して出力される(ステップS105)。ここで、動き情報には、画面間/画面内予測方法における動きベクトルや参照画面番号に加えて、第2種の候補予測信号の探索範囲の大きさ、Nの値(候補予測信号の数)などの各種設定情報が含まれる場合がある。
これら処理の後に又はこれらの処理と並行して、後続の対象ブロックを予測符号化するために符号化された残差信号が逆量子化器108及び逆変換器109により復号される。そして、加算器110により、復号された残差信号に予測信号が加算され、対象ブロックの信号が再生され、フレームメモリ104に参照画面として記憶される(ステップS106)。そして、すべての対象ブロックの処理が完了していない場合にはステップS102に戻り、次の対象ブロックに対する処理が行わる。すべての対象ブロックの処理が完了している場合には、処理を終了する(ステップS107とステップS108)。
図10は、予測信号生成器103にて実施されるステップS103における対象ブロックの予測信号生成方法の詳細手順を示すフローチャートである。
まず、動き補償器204は、ステップS102にて検出した動き情報に基づいて第1種の候補予測信号を生成する(ステップS202)。探索領域設定器201では、図6に示した手順により、上記の動き情報に含まれる参照画面番号から第2種の候補予測信号を探索する参照画面409を選択する(ステップS203)。さらに、探索領域設定器201は、式(2)に従って動きベクトル407を参照画面409上に対してスケーリングし、図7または図8または図20(b)または図21に示した手順により探索中心と探索領域を決定する(ステップS204)。テンプレートマッチング器202では、探索領域からN-1個の第2種の候補予測信号を探索する(ステップS205、詳細は後述)。そして、候補予測領域合成器203と重み係数算出器206は、N個の候補予測信号を合成(重み付け平均)し、対象ブロックの予測信号を生成し(ステップS206、詳細は後述)、処理を終了する(ステップS207)。
図11は、テンプレートマッチング器202における第2種のN−1個の候補予測信号の探索方法を示すフローチャートである(ステップS205の詳細)。対象隣接領域取得器211では、フレームメモリ104から対象ブロックに対する逆L字の対象隣接領域(テンプレート信号)を取得する(ステップS212)。次に候補予測領域選択器213は、N−1個の候補予測領域を探索する際に用いる閾値を最大値に設定する(ステップS213)。次に予測隣接領域取得器212は、ステップS204にて決定した探索領域から対象隣接領域と同じ形状の画素群を順次取得する。候補予測領域選択器213は、テンプレート信号と探索領域から取得した画素信号群との差分値SADを算出する(ステップS214)。さらに候補予測領域選択器213は、算出したSADと上記の閾値を比較する(ステップS215)。算出したSADが閾値より大きければ、後述するステップS218に進む。算出したSADが閾値より小さければ、第2種の候補予測領域を更新する(ステップS216)。この際、探索領域から取得した画素信号群のうちSADの小さい最大N−1個を候補予測領域とする。そして候補予測領域選択器213は、閾値をN−1番目に小さいSADの値に更新する(ステップS217)。候補予測領域選択器213は、探索領域内のすべての画素信号群の探索が完了していなければステップS214に戻り、完了していれば処理を終了する(ステップS218とステップS219)。
図12は、候補予測信号合成器203と重み係数算出器206におけるN個の候補予測信号の合成方法を説明するフローチャートである(ステップS206の詳細)。対象隣接領域取得器221では、対象ブロックに対する対象隣接領域を取得する(ステップS222)。候補予測隣接領域取得器223では、動き補償器204と候補予測領域取得器205にて取得されるN個の候補予測領域に隣接するN個の候補予測隣接領域をフレームメモリ104から取得する(ステップS223)。次に、重み係数決定器224では、式(6)を用いて、対象隣接領域の隣接画素信号とN個の候補予測隣接領域の候補予測隣接信号との間のSAD(LSAD)を計算する(ステップS224)。さらに重み係数決定器224は、N個のLSADに基づいて、式(5)にて各候補予測領域に対する重み係数を計算する(ステップS225)。重み係数乗算器225と加算・除算器226は、式(3)にて、N個の候補予測信号の重み付け平均処理にて対象ブロックの予測信号を生成し(ステップS226)、処理を終了する(ステップS227)。なお、図4の説明も示したように、N個の候補予測信号の合成方法は、ここで示した実施形態には限定されない。
このように構成された画像予測符号化装置100の作用効果について説明する。この画像予測符号化装置100は、ブロック分割器102が入力画像を複数の領域に分割し、動き推定器113は、分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を既再生信号から探索し、該探索した信号を指示する動き情報を抽出する。予測信号生成器103は、対象領域の対象画素信号に対する予測信号を生成し、減算器105は、生成された予測信号と対象画素信号との残差信号を生成する。変換器106、量子化器107、およびエントロピー符号化器111は、生成された残差信号および動き推定手段により抽出された動き情報を符号化する。
ここで、予測信号生成器103の動き補償器204は、動き情報に基づいて、既再生信号から第1種の候補予測信号を生成する。また、予測信号生成器103における探索領域設定器201は、この動き情報に基づいて、既再生信号の部分領域である探索領域(参照画面409における探索領域414)を決定する。
テンプレートマッチング器202は、対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域415との相関が高い候補予測隣接領域412a〜412cを、探索領域414から1つ以上探索し、複数の予測隣接領域に基づいて、既再生信号から対象画素信号の第2種の候補予測信号を1つ以上生成する。
候補予測信号合成器203は、動き推定器113により生成された第1種の候補予測信号およびテンプレートマッチング器202により生成された第2種の候補予測信号の少なくともいずれかを用いて、予測信号を生成する。
この構成により、探索領域を限定することができ、第2種の候補予測信号のための探索時間を少なくすることができ、少ない情報、演算量で、予測信号を効率的に生成することができる。
また、本実施形態の画像予測符号化装置100においては、動き推定器113にて抽出される動き情報は、すくなくとも第1種の候補予測信号の生成に用いられる第1の再生画面である画面403を示す情報(参照画面番号)と第1種候補予測信号を指示する動きベクトルの情報とを含む。
そして、探索領域設定器201は、対象領域を含む画面401と第1の再生画面である参照画面403との時間方向の画面間隔、および動きベクトルに基づいて、第2種の候補予測信号の探索領域414を含んだ第2の再生画面である参照画面409を定める。
これにより、第2種の候補予測信号を探索するための探索領域を決定することができ、第2種の候補予測信号の探索処理を迅速に行うことができる。
また、本実施形態の画像予測符号化装置100においては、候補予測信号合成器203と重み係数算出器206は、対象隣接領域の隣接画素信号と複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて重み付け平均するための重み係数を生成し、当該重み係数を用いて複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成する。これにより、予測信号を平均化することができ、より適切な予測信号を生成することができる。
また、本実施形態の画像予測符号化装置100において、テンプレートマッチング器202は、動きベクトルを構成する各成分が0値であり、探索領域414が第1の再生画面とは異なる画面に属する場合、第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択する。これにより、平均化の効果をより効果的に得ることができる。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2の再生画面である参照画面409を、対象領域402を含む画面401に対して、第1の再生画面である参照画面403と時間的に逆方向の画面に決定する。すなわち、第1の再生画面である参照画面403が過去に位置するものである場合には、第2の再生画面409を未来に位置するものとする。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2の再生画面である参照画面409を、第1の再生画面である参照画面403とは異なる画面であり、かつ対象領域を含む画面401と時間的に最も近い画面に決定する。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2の再生画面である参照画面409として、複数の画面を選択することで、複数の探索領域414を選択する。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2の再生画面である参照画面409として第1の再生画面である参照画面403を選択する。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2の再生画面である参照画面409として、入力画像の再生済み領域を選択する。
また、本実施形態の画像予測符号化装置100において、探索領域設定器201は、第2種の候補予測信号として、第1種の候補予測信号とは異なる画素信号を選択する。
上述のとおり、第2の再生画面または第2の種の候補予測信号を決定・選択することにより、候補予測信号をより適切に平均化することができ、適切な予測信号を生成することができる。
<画像予測復号方法>
次に、本実施形態に係る画像予測復号方法について説明する。図13は、本実施形態に係る画像予測復号装置300を示すブロック図である。この画像予測復号装置300は、入力端子301、エントロピー復号器302(データ復号手段)、逆量子化器303(データ復号手段)、逆変換器304(残差信号復元手段)、加算器305(画像復元手段)、出力端子306、フレームメモリ104及び予測信号生成器103(予測信号生成手段)を備えている。逆量子化器303及び逆変換器304によるデータ復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器304はなくてもよい。
入力端子301は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、画像を複数のブロックに分割された対象ブロックを予測し符号化された残差信号情報及び動き予測情報が含まれている。ここで動き予測情報には、動き情報には、画面間/画面内予測方法における動きベクトルや参照画面番号に加えて、第2種の候補予測信号の探索範囲の大きさ、Nの値(候補予測信号の数)などの各種設定情報が含まれる場合がある。
エントロピー復号器302は、入力端子301に入力された圧縮データをエントロピー復号することにより、対象ブロックの残差信号情報、動き予測情報を抽出する。
逆量子化器303は、対象ブロックの残差信号情報をラインL302a経由で入力し、逆量子化する。逆変換器304は、逆量子化したデータを逆離散コサイン変換する。
予測信号生成器103は、エントロピー復号器302からラインL302b経由で動き情報を入力する。この予測信号生成器103は、入力された動き情報に基づいて、フレームメモリ104から参照画面を取得し、予測信号を生成する。
予測信号生成器103は、生成した予測信号をラインL103経由で加算器305に出力する。
加算器305は、予測信号生成器103で生成された予測信号を、逆量子化器303および逆変換器304により復元された残差信号に加算して、対象ブロックの再生画像信号をラインL305経由で出力端子306およびフレームメモリ104に出力する。出力端子306は、外部に(例えばディスプレイ)出力する。
フレームメモリ104は、つぎの復号処理のための参照用の再生画像として、加算器305から出力された再生画像を参照画面として記憶する。
フレームメモリ104と予測信号生成器103とは、図1の画像予測符号化装置100における動作と同じであるため、説明を割愛する。予測信号生成器103は、復号された動き情報に基づいて複数の候補予測信号を生成し、これらを合成することにより復号対象ブロックに対する予測信号を生成する。L302bを経由して予測信号生成器103に入力される動き情報は、L113を経由して予測信号生成器103に入力される動き情報と同じである。
次に、図14を用いて、図13に示す画像予測復号装置300における画像予測復号方法を説明する。まず、入力端子301を介して、圧縮された圧縮データが入力される(ステップS302)。そして、エントロピー復号器302において、圧縮データに対しエントロピー復号が行われ、量子化された変換係数、動き情報が抽出される(ステップS303)。ここで抽出された動き情報に基づいて、予測信号生成器103にて複数の候補予測信号が生成され、生成された複数の候補予測信号を合成することによって予測信号が生成される(ステップS103)。
一方、量子化された変換係数は、逆量子化器303において量子化パラメータを用いて逆量子化され、逆変換器304において逆変換が行われ、再生差分信号が生成される(ステップS305)。そして、生成された予測信号と再生差分信号とが加算されることで再生信号が生成され、この再生信号が次の対象ブロックを再生するためにフレームメモリ104に格納される(ステップS306)。次の圧縮データがある場合には、再度このプロセスを繰り返し(ステップS307)、全てデータが最後まで処理される(ステップS308)。なお、必要に応じてステップS302に戻り、圧縮データを取り込むようにしてもよい。
なお、ステップS103の処理フローは、図10〜図12における処理フローと同じであるため、説明は割愛する。
つぎに本実施形態の画像予測復号方法の作用効果について説明する。本発明における画像予測復号装置300において、エントロピー復号器302、逆量子化器303は、圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号する。逆変換器304は、復号されて得られた残差信号から再生残差信号を復元する。
予測信号生成器103は、対象領域の対象画素信号に対する予測信号を生成する。加算器305は、生成された予測信号と復元された再生残差信号とを加算することによって、対象領域の画素信号を復元するとともに、これをフレームメモリ104に出力し、記憶させる。
ここで、予測信号生成器103は、復号された動き情報に基づいて、フレームメモリ104に記憶されている既再生信号から第1種の候補予測信号を生成する。また、この動き情報に基づいて、既再生信号の部分領域である探索領域414を決定する。
テンプレートマッチング器202は、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域415との相関が高い予測隣接領域412a〜412cを、探索領域414から1つ以上探索し、複数の予測隣接領域に基づいて、既再生信号から対象画素信号の第2種の候補予測信号を1つ以上生成する。
候補予測信号合成器203は、生成された第1種の候補予測信号および生成された第2種の候補予測信号の少なくともいずれかに基づいて、予測信号を生成する。
また、本実施形態の画像予測復号装置300においては、復号されて得られた動き情報は、すくなくとも第1種の候補予測信号の生成に用いられる第1の再生画面である参照画面403を示す情報(参照画面番号)と第1種候補予測信号を指示する動きベクトルの情報とを含む。
そして、探索領域設定器201は、対象領域を含む画面401と第1の再生画面である参照画面403との時間方向の画面間隔、および動きベクトルに基づいて、第2種の候補予測信号の探索領域414を含んだ第2の再生画面である参照画面409を定める。
これにより、第2種の候補予測信号を探索するための探索領域を決定することができ、第2種の候補予測信号の探索処理を迅速に行うことができる。
また、本実施形態の画像予測復号装置300においては、候補予測信号合成器203は、対象隣接領域の隣接画素信号と複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて重み付け平均するための重み係数を生成し、当該重み係数を用いて複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成する。これにより、予測信号を平均化することができ、より適切な予測信号を生成することができる。
また、本実施形態の画像予測復号装置300において、テンプレートマッチング器202は、動きベクトルを構成する各成分が0値であり、探索領域414が第1の再生画面とは異なる画面に属する場合、第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択する。これにより、平均化の効果をより効果的に得ることができる。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2の再生画面である参照画面409を、対象領域402を含む画面401に対して、第1の再生画面である参照画面403と時間的に逆方向の画面に決定する。すなわち、第1の再生画面である参照画面403が過去に位置するものである場合には、第2の再生画面である参照画面409を未来に位置するものがある場合には、探索領域設定器201は、その画面を第2の再生画面である参照画面409として優先して選択する。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2の再生画面である参照画面409を、第1の再生画面である参照画面403とは異なる画面であり、かつ対象領域を含む画面401と時間的に最も近い画面に決定する。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2の再生画面である参照画面409として、複数の画面を選択することで、複数の探索領域414を選択する。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2の再生画面である参照画面409として第1の再生画面である参照画面403を選択する。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2の再生画面である参照画面409として、入力画像の再生済み領域を選択する。
また、本実施形態の画像予測復号装置300において、探索領域設定器201は、第2種の候補予測信号として、第1種の候補予測信号とは異なる画素信号を選択する。
上述のとおり、第2の再生画面または第2の種の候補予測信号を決定・選択することにより、候補予測信号をより適切に平均化することができ、適切な予測信号を生成することができる。
<画像予測符号化方法および画像予測復号方法におけるプログラム>
本実施形態に係る画像予測符号化方法及び画像予測復号方法を、プログラムとして記録媒体に格納されて提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
図15は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP101、動き推定モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110及びエントロピー符号化モジュールP111を備えている。予測信号生成モジュールP103は、図16に示すように、対策領域設定モジュールP201、テンプレートマッチングモジュールP202及び候補予測信号合成モジュールP203を備えている。
上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の機能と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、動き推定器113、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、探索領域設定器201、テンプレートマッチング器202及び候補予測信号合成器203の機能と同様である。
また、図17は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP300は、エントロピー復号モジュールP302、逆量子化モジュールP303、逆変換モジュールP304、加算モジュールP305、記憶モジュールP104及び予測信号生成モジュールP103を備えている。
上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置300の各構成要素と同じである。すなわち、画像予測復号プログラムP300の各モジュールの機能は、エントロピー復号器302、逆量子化器303、逆変換器304、加算器305、フレームメモリ104及び予測信号生成器103の機能と同様である。
このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、後述するコンピュータで実行される。
図18は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図19は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。なお、記録媒体に記憶されたプログラムを実行するものはコンピュータに限定されず、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などでもよい。
図18に示すように、コンピュータ30は、フロッピーディスクドライブ装置(フロッピーディスクは登録商標)、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化・復号プログラムによって、本実施形態に係る画像符号化装置または画像復号装置として動作することが可能になる。
図19に示すように、画像予測符号化プログラム及び画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムもしくは画像復号プログラをメモリ16に格納し、当該画像予測符号化プログラムもしくは画像予測復号プログラムを実行することができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
本実施形態に係る画像予測符号化装置を示すブロック図である。 図1に示す予測信号生成器を示すブロック図である。 図2に示すテンプレートマッチング器を示すブロック図である。 図2に示す候補予測信号合成器と重み係数算出器を示すブロック図である。 動き推定処理(ブロックマッチング処理)を説明するための模式図であり、(a)は参照画面を示し、(b)は符号化対象の画面を示す。 探索領域設定処理に関する模式図である。 画面間予測におけるテンプレートマッチング処理に関する模式図であり、(a)は参照画面を示し、(b)は符号化対象の画面を示す。 画面間予測テンプレートマッチング処理の変形例に関する第1の模式図であり、(a)は参照画面を示し、(b)は符号化対象の画面を示す。 図1に示す画像予測符号化装置の画像予測符号化方法の手順を示すフローチャートである。 予測信号の生成方法の手順を説明するためのフローチャートである。 テンプレートマッチング処理の手順を説明するためのフローチャートである。 複数候補予測信号の合成方法の手順を説明するためのフローチャートである。 本実施形態に係る画像予測復号装置を示すブロック図である。 図13に示す画像予測復号装置の画像予測復号方法の手順を示すフローチャートである。 本実施形態に係る画像予測符号化方法を実行することができるプログラムを示すブロック図である。 図15に示す予測信号生成モジュールを示すブロック図である。 本実施形態に係る画像予測復号方法を実行することができるプログラムを示すブロック図である。 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。 画面内予測における動き推定処理(a)とテンプレートマッチング処理(b)に関する模式図である。 画面内予測におけるテンプレートマッチング処理の変形例に関する模式図である。 従来の画面内予測方法を説明するための模式図である。
符号の説明
100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、113…動き推定器、201…探索領域設定器、202…テンプレートマッチング器、203…候補予測信号合成器、204…動き補償器、205…候補予測領域取得器、206…重み係数算出器、211…対象隣接領域取得器、212…予測隣接領域取得器、213…候補予測領域選択器、214…候補予測領域決定器、221…対象隣接領域取得器、223…候補予測隣接領域取得器、224…重み係数決定器、225…重み係数乗算器、226…加算・除算器、300…画像予測復号装置、301…入力端子、302…エントロピー復号器、303…逆量子化器、304…逆変換器、305…加算器、306…出力端子。

Claims (24)

  1. 入力画像を複数の領域に分割する領域分割手段と、
    前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定手段と、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
    前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
    前記残差信号生成手段により生成された残差信号および前記動き推定手段により抽出された動き情報を符号化する符号化手段と、を備え、
    前記予測信号生成手段は、
    前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償手段と、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定手段と、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチング手段と、
    前記動き補償手段により生成された第1種の候補予測信号と前記テンプレートマッチング手段により生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成手段と、を有することを特徴とする画像予測符号化装置。
  2. 前記動き推定手段にて抽出される前記動き情報は、少なくとも前記第1種の候補予測信号の生成に用いられる第1の再生画面を示す情報と前記第1種の候補予測信号を指示する動きベクトルの情報とを含み、
    前記探索領域決定手段は、前記第1の再生画面の情報に基づいて前記探索領域を含む第2の再生画面を選択し、
    前記対象領域を含む画面と前記第1の再生画面との間の時間方向の画面間隔と、前記対象領域を含む画面と前記第2の再生画面との間の時間方向の画面間隔と、前記動きベクトルとを用いて、前記探索領域の第2の再生画面内の空間位置を定めることを特徴とする請求項1に記載の画像予測符号化装置。
  3. 前記候補予測信号合成手段は、前記対象隣接領域の隣接画素信号と前記複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて重み付け平均するための重み係数を生成し、当該重み係数を用いて前記複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成する
    ことを特徴とする請求項2に記載の画像予測符号化装置。
  4. 前記テンプレートマッチング手段は、前記動きベクトルを構成する各成分が0値であり、前記探索領域が前記第1の再生画面とは異なる画面に属する場合、前記第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択することを特徴とする請求項2または3に記載の画像予測符号化装置。
  5. 前記探索領域決定手段は、前記第2の再生画面を、前記対象領域を含む画面に対して、第1の再生画面と時間的に逆方向の画面に決定することを特徴とする請求項2から4のいずれか1項に記載の画像予測符号化装置。
  6. 前記探索領域決定手段は、前記第2の再生画面を、第1の再生画面とは異なる画面であり、かつ前記対象領域を含む画面と時間的に最も近い画面に決定することを特徴とする請求項2から4のいずれか1項に記載の画像予測符号化装置。
  7. 前記探索領域決定手段は、前記第2の再生画面として、複数の画面を選択することで、複数の探索領域を選択することを特徴とする請求項2から4のいずれか1項に記載の画像予測符号化装置。
  8. 前記探索領域決定手段は、前記第2の再生画面として第1の再生画面を選択することを特徴とする請求項2から4、7のいずれか1項に記載の画像予測符号化装置。
  9. 前記探索領域決定手段は、前記第2の再生画面として、前記入力画像の再生済み領域を選択することを特徴とする請求項2から4、7のいずれか1項に記載の画像予測符号化装置。
  10. 前記探索領域決定手段は、前記第2種の候補予測信号として、前記第1種の候補予測信号とは異なる画素信号を選択することを特徴とする請求項1から9のいずれか1項に記載の画像予測符号化装置。
  11. 圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号手段と、
    前記データ復号手段により復号されて得られた残差信号から再生残差信号を復元する残差信号復元手段と、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
    前記予測信号生成手段により生成された予測信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、を備え、
    前記予測信号生成手段は、
    前記データ復号手段により復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償手段と、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定手段と、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチング手段と、
    前記動き補償手段により生成された第1種の候補予測信号と前記テンプレートマッチング手段により生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成手段と、を有することを特徴とする画像予測復号装置。
  12. 前記動き情報は、少なくとも前記第1種の候補予測信号の生成に用いられる第1の再生画面を示す情報と前記第1種の候補予測信号を指示する動きベクトルの情報とを含み、
    前記探索領域決定手段は、前記第1の再生画面に基づいて前記探索領域を含む第2の再生画面を選択し、
    前記対象領域を含む画面と前記第1の再生画面との間の時間方向の画面間隔と、前記対象領域を含む画面と前記第2の再生画面との間の時間方向の画面間隔と、前記動きベクトルとを用いて、前記探索領域の第2の再生画面内の空間位置を定めることを特徴とする請求項11に記載の画像予測復号装置。
  13. 前記候補予測信号合成手段は、前記対象隣接領域の隣接画素信号と前記複数の候補予測信号に隣接する候補予測隣接領域の画素信号との間の差分値に基づいて重み付け平均するための重み係数を生成し、当該重み係数に基づいて前記複数の候補予測信号を重み付け平均することにより対象領域の予測信号を生成する
    ことを特徴とする請求項12に記載の画像予測復号装置。
  14. 前記テンプレートマッチング手段は、前記動きベクトルを構成する各成分が0値であり、前記探索領域が前記第1の画面とは異なる画面に属する場合、前記第2種の候補予測信号を指示する動きベクトルを構成する成分のうち少なくともいずれかの成分が0以外となるように選択することを特徴とする請求項12または13に記載の画像予測復号装置。
  15. 前記探索領域決定手段は、前記第2の再生画面を、前記対象領域を含む画面に対して、第1の再生画面と時間的に逆方向の画面に決定することを特徴とする請求項12から14のいずれか1項に記載の画像予測復号装置。
  16. 前記探索領域決定手段は、前記第2の再生画面を、第1の再生画面とは異なる画面であり、かつ前記対象領域を含む画面と時間的に最も近い画面に決定することを特徴とする請求項12から14のいずれか1項に記載の画像予測復号装置。
  17. 前記探索領域決定手段は、前記第2の再生画面として、複数の画面を選択することで、複数の探索領域を選択することを特徴とする請求項12から14のいずれか1項に記載の画像予測復号装置。
  18. 前記探索領域決定手段は、前記第2の再生画面として第1の再生画面を選択することを特徴とする請求項12または請求項17に記載の画像予測復号装置。
  19. 前記探索領域決定手段は、前記第2の再生画面として、前記対象領域を含む画面を選択することを特徴とする請求項12から14、17のいずれか1項に記載の画像予測復号装置。
  20. 前記探索領域決定手段は、前記第2種の候補予測信号として、前記第1種の候補予測信号とは異なる画素信号を選択することを特徴とする請求項11または請求項12から19のいずれか1項に記載の画像予測復号装置。
  21. 入力画像を複数の領域に分割する領域分割ステップと、
    前記領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定ステップと、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
    前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
    前記残差信号生成ステップにより生成された残差信号および前記動き推定ステップにより抽出された動き情報を符号化する符号化ステップと、を備え、
    前記予測信号生成ステップは、
    前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償ステップと、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定ステップと、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングステップと、
    前記動き補償ステップにより生成された第1種の候補予測信号と前記テンプレートマッチングステップにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成ステップと、を有することを特徴とする画像予測符号化方法。
  22. 圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号ステップと、
    前記データ復号ステップにより復号されて得られた残差信号から再生残差信号を復元する残差信号復元ステップと、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
    前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元ステップと、を備え、
    前記予測信号生成ステップは、
    前記データ復号ステップにより復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償ステップと、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定ステップと、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングステップと、
    前記動き補償ステップにより生成された第1種の候補予測信号と前記テンプレートマッチングステップにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成ステップと、を有することを特徴とする画像予測復号方法。
  23. 入力画像を複数の領域に分割する領域分割モジュールと、
    前記領域分割モジュールにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号との相関が高い信号を第1の再生画面の既再生信号から探索し、該探索した信号を指示する動き情報を抽出する動き推定モジュールと、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
    前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
    前記残差信号生成モジュールにより生成された残差信号および前記動き推定モジュールにより抽出された動き情報を符号化する符号化モジュールと、を備え、
    前記予測信号生成モジュールは、
    前記動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償モジュールと、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定モジュールと、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングモジュールと、
    前記動き補償モジュールにより生成された第1種の候補予測信号と前記テンプレートマッチングモジュールにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成モジュールと、を有することを特徴とする画像予測符号化プログラム。
  24. 圧縮データの中から処理対象である対象領域に関する動き情報の符号化データと残差信号の符号化データとを復号するデータ復号モジュールと、
    前記データ復号モジュールにより復号されて得られた残差信号から再生残差信号を復元する残差信号復元モジュールと、
    前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
    前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元モジュールと、を備え、
    前記予測信号生成モジュールは、
    前記データ復号モジュールにより復号された動き情報に基づいて、第1の再生画面の既再生信号から第1種の候補予測信号を生成する動き補償モジュールと、
    前記動き情報に基づいて、前記第1の再生画面とは異なる第2の再生画面の既再生信号の部分領域である探索領域を決定する探索領域決定モジュールと、
    前記対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い予測隣接領域を、前記探索領域から1つ以上探索し、前記1つ以上の予測隣接領域に基づいて、前記第2の再生画面の既再生信号から前記対象画素信号の第2種の候補予測信号を1つ以上生成するテンプレートマッチングモジュールと、
    前記動き補償モジュールにより生成された第1種の候補予測信号と前記テンプレートマッチングモジュールにより生成された1つ以上の第2種の候補予測信号とに基づいて、予測信号を生成する候補予測信号合成モジュールと、を有することを特徴とする画像予測復号プログラム。
JP2008114166A 2008-04-24 2008-04-24 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム Active JP5406465B2 (ja)

Priority Applications (13)

Application Number Priority Date Filing Date Title
JP2008114166A JP5406465B2 (ja) 2008-04-24 2008-04-24 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
MX2010011609A MX2010011609A (es) 2008-04-24 2009-04-17 Dispositivo codificador de prediccion de imagenes, metodo para codificacion de prediccion de imagenes, programa informatico para codificacion de prediccion de imagenes, dispositivo decodificador de prediccion de imagenes, metodo para decodificacion d
CA2722027A CA2722027A1 (en) 2008-04-24 2009-04-17 Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
BRPI0911485-8A BRPI0911485A2 (ja) 2008-04-24 2009-04-17 An image prediction-coding device, an image predictive coding method, an image prediction-coding program, an image prediction decoding device, an image prediction decoding method, and an image prediction decoding program
KR20107019654A KR20100119562A (ko) 2008-04-24 2009-04-17 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
US12/989,046 US8705611B2 (en) 2008-04-24 2009-04-17 Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
KR1020127016893A KR20120092684A (ko) 2008-04-24 2009-04-17 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
CN2009801144708A CN102017637B (zh) 2008-04-24 2009-04-17 图像预测编码装置、图像预测编码方法、图像预测编码程序、图像预测解码装置、图像预测解码方法以及图像预测解码程序
AU2009239127A AU2009239127B2 (en) 2008-04-24 2009-04-17 Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
PCT/JP2009/057788 WO2009131075A1 (ja) 2008-04-24 2009-04-17 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
EP09735916.0A EP2280549B1 (en) 2008-04-24 2009-04-17 Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
TW98113491A TW200950530A (en) 2008-04-24 2009-04-23 Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
RU2012102341/08A RU2012102341A (ru) 2008-04-24 2012-01-24 Устройство кодирования предсказания изображения, способ кодирования предсказания изображения, программа кодирования предсказания изображения, устройство декодирования предсказания изображения, способ декодирования предсказания изображения и программа декодирования предсказания изображения

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008114166A JP5406465B2 (ja) 2008-04-24 2008-04-24 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム

Publications (2)

Publication Number Publication Date
JP2009267710A JP2009267710A (ja) 2009-11-12
JP5406465B2 true JP5406465B2 (ja) 2014-02-05

Family

ID=41216811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008114166A Active JP5406465B2 (ja) 2008-04-24 2008-04-24 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム

Country Status (12)

Country Link
US (1) US8705611B2 (ja)
EP (1) EP2280549B1 (ja)
JP (1) JP5406465B2 (ja)
KR (2) KR20120092684A (ja)
CN (1) CN102017637B (ja)
AU (1) AU2009239127B2 (ja)
BR (1) BRPI0911485A2 (ja)
CA (1) CA2722027A1 (ja)
MX (1) MX2010011609A (ja)
RU (1) RU2012102341A (ja)
TW (1) TW200950530A (ja)
WO (1) WO2009131075A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567854B1 (en) 2009-03-23 2022-12-14 Ntt Docomo, Inc. Image predictive decoding method
WO2011064673A1 (en) * 2009-11-30 2011-06-03 France Telecom Method of and apparatus for encoding video frames, method of and apparatus for decoding video frames
US9516341B2 (en) 2010-01-19 2016-12-06 Thomson Licensing Methods and apparatus for reduced complexity template matching prediction for video encoding and decoding
WO2011090790A1 (en) 2010-01-22 2011-07-28 Thomson Licensing Methods and apparatus for sampling -based super resolution vido encoding and decoding
KR101791919B1 (ko) 2010-01-22 2017-11-02 톰슨 라이센싱 예시-기반의 초 해상도를 이용하여 비디오 압축을 위한 데이터 프루닝
JP5913283B2 (ja) * 2010-04-22 2016-04-27 聯發科技股▲ふん▼有限公司Mediatek Inc. 動き予測方法
JP5455229B2 (ja) * 2010-04-26 2014-03-26 株式会社Kddi研究所 画像符号化装置及び画像復号装置
WO2012011432A1 (ja) * 2010-07-20 2012-01-26 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
US9544598B2 (en) 2010-09-10 2017-01-10 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
WO2012033971A1 (en) 2010-09-10 2012-03-15 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example - based data pruning using intra- frame patch similarity
WO2012033969A1 (en) * 2010-09-10 2012-03-15 Thomson Licensing Decoding of the link to a reference block in video compression by image content based search and ranking
US9066104B2 (en) 2011-01-14 2015-06-23 Google Inc. Spatial block merge mode
CN102685504B (zh) 2011-03-10 2015-08-19 华为技术有限公司 视频图像的编解码方法、编码装置、解码装置及其系统
JP2012209705A (ja) * 2011-03-29 2012-10-25 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2012209706A (ja) * 2011-03-29 2012-10-25 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
WO2013006386A1 (en) 2011-07-01 2013-01-10 General Instrument Corporation Motion vector prediction design simplification
KR20130030181A (ko) * 2011-09-16 2013-03-26 한국전자통신연구원 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치
GB2562132B (en) * 2011-09-23 2019-01-23 Kt Corp Method for inducing a merge candidate block and device using the same
BR112014010539A2 (pt) 2011-11-04 2017-04-18 Motorola Mobility Llc escalonamento de vetor de movimento para rede de vetor de movimento não uniforme
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
ES2734113T3 (es) * 2011-12-13 2019-12-04 Jvc Kenwood Corp Dispositivo de decodificación de vídeo, procedimiento de decodificación de vídeo, y programa de decodificación de vídeo
SI3703371T1 (sl) * 2011-12-16 2021-11-30 Jvckenwood Corporation Naprava za kodiranje dinamičnih slik, postopek za kodiranje dinamičnih slik, program za kodiranje dinamičnih slik, naprava za dekodiranje dinamičnih slik, postopek za dekodiranje dinamičnih slik in program za dekodiranje dinamičnih slik
US9020294B2 (en) * 2012-01-18 2015-04-28 Dolby Laboratories Licensing Corporation Spatiotemporal metrics for rate distortion optimization
US9531990B1 (en) 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8908767B1 (en) 2012-02-09 2014-12-09 Google Inc. Temporal motion vector prediction
US8947449B1 (en) 2012-02-21 2015-02-03 Google Inc. Color space conversion between semi-planar YUV and planar YUV formats
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US20150334417A1 (en) * 2012-12-18 2015-11-19 Friedrich-Alexander-Universität Erlangen-Nürnberg Coding a Sequence of Digital Images
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
JP5890794B2 (ja) * 2013-02-28 2016-03-22 株式会社東芝 画像処理装置
US9547915B2 (en) * 2013-03-19 2017-01-17 Thomson Licensing Inter-image prediction method and device and corresponding coding method and apparatus
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US9438910B1 (en) 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
CN103997645B (zh) * 2014-04-29 2017-02-15 长沙理工大学 一种快速的hevc帧内编码单元和模式决策方法
CN105338281B (zh) * 2014-06-27 2018-07-31 阿里巴巴集团控股有限公司 一种视频显示方法和装置
KR102248172B1 (ko) * 2015-03-16 2021-05-04 한양대학교 산학협력단 영상 분석을 이용한 비디오 부호화/복호화 방법 및 장치
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
WO2017035831A1 (en) * 2015-09-06 2017-03-09 Mediatek Inc. Adaptive inter prediction
EP3139613A1 (en) * 2015-09-07 2017-03-08 Universite De Nantes Method for encoding video frames based on local texture synthesis and corresponding device
EP3469792A1 (en) * 2016-06-24 2019-04-17 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
US10880570B2 (en) 2016-10-05 2020-12-29 Qualcomm Incorporated Systems and methods of adaptively determining template size for illumination compensation
CN110720216B (zh) * 2017-07-05 2022-05-10 华为技术有限公司 用于视频编码的设备和方法
US10735763B2 (en) * 2018-07-27 2020-08-04 Tencent America LLC Method and apparatus for motion vector prediction using spatial and temporal combination
JP7324065B2 (ja) * 2019-06-26 2023-08-09 キヤノン株式会社 動きベクトル検出装置、撮像装置、動きベクトル検出方法、及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (ja) 1988-08-26 1990-03-02 Fujitsu Ltd 動画像の動き補償予測符号化方式
CN1155259C (zh) 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
WO2005022920A1 (en) * 2003-08-26 2005-03-10 Thomson Licensing S.A. Method and apparatus for encoding hybrid intra-inter coded blocks
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
KR20070038396A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
JP4879558B2 (ja) * 2005-11-02 2012-02-22 パナソニック株式会社 動きベクトル検出装置
JP2009526436A (ja) * 2006-02-06 2009-07-16 トムソン ライセンシング ビデオ符号化向けの動き予測の予測子として利用可能な動き情報を再使用する方法及び装置
JP2007300380A (ja) * 2006-04-28 2007-11-15 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
AU2007244443A1 (en) * 2006-04-28 2007-11-08 Ntt Docomo, Inc. Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program
JP4994767B2 (ja) * 2006-10-03 2012-08-08 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2009085232A1 (en) * 2007-12-20 2009-07-09 Integrated Device Technology, Inc. Estimation of true motion vectors using an adaptive search range
US8358700B2 (en) * 2008-06-03 2013-01-22 Omnivision Technologies, Inc. Video coding apparatus and method for supporting arbitrary-sized regions-of-interest
CN101826159B (zh) * 2009-03-07 2013-01-09 鸿富锦精密工业(深圳)有限公司 实现灰度图像分区二值化的方法和数据处理设备

Also Published As

Publication number Publication date
WO2009131075A1 (ja) 2009-10-29
EP2280549A1 (en) 2011-02-02
EP2280549A4 (en) 2015-07-29
CA2722027A1 (en) 2009-10-29
CN102017637A (zh) 2011-04-13
KR20100119562A (ko) 2010-11-09
KR20120092684A (ko) 2012-08-21
BRPI0911485A2 (ja) 2018-03-27
RU2012102341A (ru) 2013-07-27
AU2009239127A1 (en) 2009-10-29
US8705611B2 (en) 2014-04-22
CN102017637B (zh) 2013-06-05
US20110261886A1 (en) 2011-10-27
MX2010011609A (es) 2010-12-02
TW200950530A (en) 2009-12-01
EP2280549B1 (en) 2018-08-29
AU2009239127B2 (en) 2013-06-27
JP2009267710A (ja) 2009-11-12

Similar Documents

Publication Publication Date Title
JP5406465B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP5485969B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5401071B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
US6275532B1 (en) Video coding device and video decoding device with a motion compensated interframe prediction
JP6559309B2 (ja) 画像予測復号方法
JP4994767B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP2007300380A (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2007125856A1 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP5372341B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム
JP5922281B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP5372352B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム
JP6134418B2 (ja) 動画像予測復号装置及び動画像予測復号方法
JP5736083B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5415495B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP5698541B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131101

R150 Certificate of patent or registration of utility model

Ref document number: 5406465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250