JP4994767B2 - Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program - Google Patents
Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program Download PDFInfo
- Publication number
- JP4994767B2 JP4994767B2 JP2006271984A JP2006271984A JP4994767B2 JP 4994767 B2 JP4994767 B2 JP 4994767B2 JP 2006271984 A JP2006271984 A JP 2006271984A JP 2006271984 A JP2006271984 A JP 2006271984A JP 4994767 B2 JP4994767 B2 JP 4994767B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- prediction
- texture
- related information
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するもので、とりわけ、テキスチャー合成方法を用いて予測符号化および復号する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。 The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program, and in particular, a predictive code using a texture synthesis method. The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program.
静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。 In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG-1 to 4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.
これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。 In these encoding methods, encoding / decoding processing is performed after an image to be encoded is divided into a plurality of blocks. In predictive coding within a screen, a predicted signal is generated using an adjacent previously reproduced image signal (reconstructed compressed image data) in the same screen as the target block, and then the predicted signal is The differential signal subtracted from the signal of the target block is encoded. In predictive coding between screens, the adjacent reproduced image signal in the screen different from the target block is referred to, the motion is corrected, the predicted signal is generated, and the predicted signal is subtracted from the signal of the target block. Encode the difference signal.
例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図18は、ITU H.264に用いられる画面内予測方法を説明するための模式図である。図18(A)において、対象ブロック1802は符号化の対象となるブロックであり、その対象ブロック1802の境界に隣接する画素A〜Mからなる画素群1801は隣接領域であり、過去の処理において既に再生された画像信号である。
For example, H.M. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 18A, a
この場合、対象ブロック1802の真上にある隣接画素である画素群1801を下方に引き伸ばして予測信号を生成する。また図18(B)では、対象ブロック1804の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。予測信号を生成する具体的な方法はたとえば特許文献1に記載されている。このように図18(A)〜(I)に示す方法で生成された9つの予測信号のそれぞれを対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。
In this case, a prediction signal is generated by extending downward the
通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号とを符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。 In normal inter-screen predictive coding, a prediction signal is generated by searching for a signal similar to the pixel signal from a screen that has already been reproduced for a block to be coded. Then, a motion vector that is a spatial displacement amount between the target block and a region formed by the searched signal, and a residual signal between the pixel signal and the prediction signal of the target block are encoded. Such a method for searching for a motion vector for each block is called block matching.
図4は、ブロックマッチング処理を説明するための模式図である。ここでは、符号化対象の画面401上の対象ブロック402を例に予測信号の生成手順を説明する。画面403は既に再生済みであり、領域404は対象ブロック402と空間的に同一位置の領域である。ブロックマッチングでは、領域404を囲む探索範囲405を設定し、この探索範囲の画素信号から対象ブロック402の画素信号との絶対値誤差和が最小となる領域406を検出する。この領域406の信号が予測信号となり、領域404から領域406への変位量が動きベクトル407として検出される。H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば特許文献2に記載されている。
FIG. 4 is a schematic diagram for explaining the block matching process. Here, a procedure for generating a prediction signal will be described using the
動画像データの圧縮符号化では、各フレームの符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測であり、第2の手法は、再生順で未来の再生済み画面を参照して後方向予測であり、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。
しかしながら、従来技術では、符号化による歪(例えば量子化雑音)を含む再生画素値をコピーすることにより各画素の予測信号を生成するため、予測信号もその歪を含むことになる。符号化による歪を含む予測信号は、残差信号の符号量増加や再生画質劣化など符号化効率を低下させる要因となる。 However, in the prior art, a prediction signal of each pixel is generated by copying a reproduction pixel value including distortion due to encoding (for example, quantization noise). Therefore, the prediction signal also includes the distortion. A prediction signal including distortion due to encoding becomes a factor that decreases encoding efficiency, such as an increase in the code amount of a residual signal and deterioration in reproduction image quality.
符号化による歪の影響は、予測信号の平滑化にて抑制可能であり、2つの予測信号を平均化する双方向予測によっても抑制可能である。しかし、双方向予測は、2つの予測信号を再生側にて生成するために、2本の動きベクトルを符号化する必要があるため、予測信号の平滑化効果を高めるために平均化する信号の数を増やすと、符号化すべき動きベクトルの本数も増加してしまう。 The influence of distortion due to encoding can be suppressed by smoothing the prediction signal, and can also be suppressed by bidirectional prediction in which two prediction signals are averaged. However, since bi-directional prediction requires encoding two motion vectors in order to generate two prediction signals on the playback side, the signal to be averaged to enhance the smoothing effect of the prediction signal Increasing the number also increases the number of motion vectors to be encoded.
そこで、上述の課題を解決するために、本発明は、予測信号を効率よく生成することができる画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。 Therefore, in order to solve the above-described problem, the present invention provides an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, and an image predictor that can efficiently generate a prediction signal. It is an object to provide a decoding method and an image predictive decoding program.
本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号と対象画素信号との残差信号を生成する残差信号生成手段と、残差信号生成手段により生成された残差信号を符号化する符号化手段と、を備え、予測信号生成手段は、対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成手段と、予測関連情報生成手段により生成された予測関連情報に基づいて対象領域の予測信号を生成するテキスチャー合成手段とを有し、テキスチャー合成手段は、予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、符号化手段は、予測関連情報生成手段により生成された予測関連情報を符号化することを特徴とする。 An image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit. A prediction signal generation unit that generates a residual signal between the prediction signal generated by the prediction signal generation unit and the target pixel signal, and a residual signal generated by the residual signal generation unit A prediction related information generation unit that generates, as prediction related information, a method for generating a signal having a high correlation with the target pixel signal in the target region from the already reproduced signal. And a texture synthesis unit that generates a prediction signal of the target area based on the prediction related information generated by the prediction related information generation unit, and the texture synthesis unit includes the prediction related information A template signal of a designated area determined based on the already reproduced signal is generated from the already reproduced signal, a plurality of similar areas having a high correlation with the designated area are searched from previously reproduced images, and a plurality of target areas are determined based on the plurality of similar areas. And generating a prediction signal by processing the plurality of texture signals using a predetermined texture synthesis method, and the encoding means generates the prediction related information generated by the prediction related information generation means. It is characterized by encoding.
また、本発明の画像予測符号化方法は、画像予測符号化装置が、入力画像を複数の領域に分割する領域分割ステップと、画像予測符号化装置が、領域分割ステップにおいて分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、画像予測符号化装置が、予測信号生成ステップにおいて生成された予測信号と対象画素信号との残差信号を生成する残差信号生成ステップと、
画像予測符号化装置が、残差信号生成ステップにおいて生成された残差信号を符号化する符号化ステップと、を備え、予測信号生成ステップは、対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成ステップと、予測関連情報生成ステップにおいて生成された予測関連情報に基づいて対象領域の予測信号を生成するテキスチャー合成ステップとを有し、テキスチャー合成ステップは、予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、符号化ステップは、予測関連情報生成ステップにおいて生成された予測関連情報を符号化することを特徴とする。
The image predictive coding method according to the present invention includes a region dividing step in which the image predictive coding device divides an input image into a plurality of regions, and a plurality of regions in which the image predictive coding device is divided in the region dividing step. A prediction signal generation step for generating a prediction signal for the target pixel signal in the target region to be processed, and a residual between the prediction signal generated in the prediction signal generation step and the target pixel signal by the image prediction encoding device A residual signal generating step for generating a signal;
The image predictive coding apparatus includes a coding step for coding the residual signal generated in the residual signal generating step, and the predictive signal generating step outputs a signal having a high correlation with the target pixel signal in the target region. A prediction related information generation step for generating a method of generating from a previously reproduced signal as prediction related information; and a texture synthesis step for generating a prediction signal of the target region based on the prediction related information generated in the prediction related information generation step. The texture synthesis step generates a template signal of the designated area determined based on the prediction related information from the already reproduced signal, searches a plurality of similar areas highly correlated with the designated area from the previously reproduced image, Generating a plurality of texture signals for a target region based on a plurality of similar regions, and predetermining the plurality of texture signals Generates a prediction signal by processing using a texture synthesis method, the encoding step is characterized by coding the prediction related information generated in the prediction related information generating step.
また、本発明の画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号と対象画素信号との残差信号を生成する残差信号生成手段と、残差信号生成手段により生成された残差信号を符号化する符号化手段と、して機能させ、予測信号生成手段は、対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成手段と、予測関連情報生成手段により生成された予測関連情報に基づいて対象領域の予測信号を生成するテキスチャー合成手段とを有し、テキスチャー合成手段は、予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、符号化手段は、予測関連情報生成手段により生成された予測関連情報を符号化することを特徴とする。 The image predictive coding program according to the present invention includes a computer that divides an input image into a plurality of regions and a target region that is a processing target of the plurality of regions divided by the region dividing unit. Generated by a prediction signal generation unit that generates a prediction signal for a pixel signal, a residual signal generation unit that generates a residual signal between the prediction signal generated by the prediction signal generation unit and the target pixel signal, and a residual signal generation unit The prediction signal generating means functions as a prediction related information by generating a signal having a high correlation with the target pixel signal in the target region from the already reproduced signal. A prediction related information generating means for generating, and a texture synthesizing means for generating a prediction signal of the target region based on the prediction related information generated by the prediction related information generating means. The stitcher synthesizing unit generates a template signal of the designated area determined based on the prediction related information from the already reproduced signal, searches a plurality of similar areas having a high correlation with the designated area from the already reproduced image, Generating a plurality of texture signals for the target region based on the similar region, processing the plurality of texture signals using a predetermined texture synthesis method, generating a prediction signal, and encoding means generating prediction related information The prediction related information generated by the means is encoded.
このような画像予測符号化装置、画像予測符号化方法及び画像予測符号化プログラムによれば、入力画像が複数の領域に分割され、分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号が生成され、その予測信号と対象画素信号との残差信号が生成され、その残差信号が符号化される。ここで、予測信号は、予測関連情報に基づいて生成される複数のテキスチャー信号を特定のテキスチャー合成方法により加工することで生成される。なお、生成された予測関連情報も残差信号と同様に符号化される。このように、複数のテキスチャー信号に基づいて予測信号が生成されるので、予測信号に含まれる雑音を低減することができる。また、これら複数のテキスチャー信号は少ない予測関連情報で効率よく生成することが可能である。したがって、雑音の少ない予測信号を効率よく生成することができる。 According to such an image predictive encoding device, an image predictive encoding method, and an image predictive encoding program, an input image is divided into a plurality of regions, and a target region that is a processing target of the plurality of divided regions is determined. A prediction signal for the target pixel signal is generated, a residual signal between the prediction signal and the target pixel signal is generated, and the residual signal is encoded. Here, the prediction signal is generated by processing a plurality of texture signals generated based on the prediction related information by a specific texture synthesis method. The generated prediction related information is also encoded in the same manner as the residual signal. Thus, since the prediction signal is generated based on a plurality of texture signals, noise contained in the prediction signal can be reduced. In addition, the plurality of texture signals can be efficiently generated with a small amount of prediction related information. Therefore, it is possible to efficiently generate a prediction signal with less noise.
本発明の画像予測符号化装置では、指定領域と対象領域とが同じ形状であることが好ましい。これらの領域の形状を同じにすることで、より簡易に予測信号を生成することができる。 In the image predictive coding apparatus of the present invention, it is preferable that the designated region and the target region have the same shape. By making the shapes of these regions the same, a prediction signal can be generated more easily.
本発明の画像予測符号化装置では、テキスチャー合成手段は、対象領域を複数の小領域に分割し、分割された各小領域ついて、予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて小領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって小領域の予測信号を生成し、生成された各小領域の予測信号を合成することによって対象領域の予測信号を生成することが好ましい。 In the image predictive coding apparatus of the present invention, the texture synthesis means divides the target area into a plurality of small areas, and for each of the divided small areas, the template signal of the designated area determined based on the prediction related information has already been reproduced. A plurality of similar regions that are generated from the signal and have a high correlation with the designated region are searched from predetermined reproduced images, and a plurality of texture signals for a small region are generated based on the plurality of similar regions, and the plurality of texture signals Is preferably processed by using a predetermined texture synthesis method, and a prediction signal for the target region is generated by synthesizing the generated prediction signals for each small region.
この場合、対象領域が分割され、分割された各小領域について予測信号が生成され、小領域毎の予測信号を合成することにより対象領域の予測信号が生成される。そのため、最終的に生成される対象領域の予測信号の性能をより高めることが可能となる。すなわち、より雑音の少ない予測信号を生成することができる。 In this case, the target region is divided, a prediction signal is generated for each divided small region, and a prediction signal for the target region is generated by synthesizing the prediction signal for each small region. Therefore, it is possible to further improve the performance of the prediction signal of the target region that is finally generated. That is, a prediction signal with less noise can be generated.
本発明の画像予測符号化装置では、テンプレート信号が複数のテキスチャー信号に含まれることが好ましい。 In the image predictive coding apparatus of the present invention, it is preferable that the template signal is included in a plurality of texture signals.
テンプレート信号は、対象領域の対象画素信号との相関が高い信号を生成する方法が含まれる予測関連情報に基づいて生成される。すなわち、テンプレート信号は、対象領域の画素信号との差分が最も小さい信号である。そのため、そのテンプレート信号を含むテキスチャー信号を利用することで、より雑音の少ない予測信号を生成することができる。 The template signal is generated based on prediction related information including a method for generating a signal having a high correlation with the target pixel signal in the target region. That is, the template signal is a signal having the smallest difference from the pixel signal in the target area. Therefore, a prediction signal with less noise can be generated by using a texture signal including the template signal.
本発明の画像予測符号化装置では、テキスチャー合成手段は、テキスチャー信号に対して、予め定めた重み付け係数による重み付け平均処理を施すことによって予測信号を生成することが好ましい。この場合、予測信号を生成する際にテキスチャー信号が平均化されるので、統計的に誤差が少ない予測信号を生成することができる。 In the image predictive coding apparatus of the present invention, it is preferable that the texture synthesizing unit generates a prediction signal by performing a weighted average process using a predetermined weighting coefficient on the texture signal. In this case, since the texture signal is averaged when generating the prediction signal, it is possible to generate a prediction signal with a small statistical error.
本発明の画像予測符号化装置では、予測関連情報が対象領域の空間的な変位量を示す動きベクトルを含むことが好ましい。この動きベクトルを用いることにより、対象領域の対象画素信号との相関が高い信号をより容易に導出することができるので、予測信号をより簡易に生成することが可能になる。 In the image predictive coding apparatus of the present invention, it is preferable that the prediction related information includes a motion vector indicating a spatial displacement amount of the target region. By using this motion vector, a signal having a high correlation with the target pixel signal in the target region can be derived more easily, so that a prediction signal can be generated more easily.
本発明の画像予測符号化装置では、テキスチャー合成手段は、指定領域と相関の高い複数の類似領域を予め定めた複数の既再生画像から探索することが好ましい。 In the image predictive coding apparatus of the present invention, it is preferable that the texture synthesis means searches for a plurality of similar regions having a high correlation with the designated region from a plurality of previously reproduced images.
この場合、複数の既再生画像の中から類似領域を探索することができるので、指定領域との相関がより高い類似領域を抽出することが可能となる。その結果、より雑音の少ない予測信号を生成することができる。 In this case, a similar area can be searched from a plurality of already-reproduced images, so that a similar area having a higher correlation with the designated area can be extracted. As a result, a prediction signal with less noise can be generated.
本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する予測関連情報の符号化データと残差信号の符号化データとを抽出するデータ解析手段と、データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号と残差信号復元手段により復元された再生残差信号とを加算することによって、対象領域の画素信号を復元する画像復元手段と、を備え、予測信号生成手段は、データ解析手段により抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。 The image predictive decoding apparatus according to the present invention extracts, from compressed data, data analysis means for extracting encoded data of prediction related information and encoded data of a residual signal related to a target region to be processed, and extracted by the data analyzing means. Generated by the residual signal restoration means for restoring the reproduction residual signal from the encoded data of the residual signal, the prediction signal generation means for generating the prediction signal for the target pixel signal in the target region, and the prediction signal generation means An image restoration means for restoring the pixel signal of the target region by adding the prediction signal and the reproduction residual signal restored by the residual signal restoration means, and the prediction signal generation means is extracted by the data analysis means The prediction related information is restored from the encoded data of the predicted prediction related information, and the template signal in the designated area determined based on the restored prediction related information is reproduced. A plurality of similar regions that are highly correlated with the designated region are searched from previously reproduced images, a plurality of texture signals for the target region are generated based on the plurality of similar regions, and the plurality of texture signals are A prediction signal is generated by processing using a predetermined texture synthesis method.
また、本発明の画像予測復号方法は、画像予測復号装置が、圧縮データの中から処理対象である対象領域に関する予測関連情報の符号化データと残差信号の符号化データとを抽出するデータ解析ステップと、画像予測復号装置が、データ解析ステップにおいて抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、画像予測復号装置が、対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、画像予測復号装置が、予測信号生成ステップにおいて生成された予測信号と残差信号復元ステップにおいて復元された再生残差信号とを加算することによって、対象領域の画素信号を復元する画像復元ステップと、を備え、予測信号生成ステップは、データ解析ステップにおいて抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。 Also, the image predictive decoding method of the present invention is a data analysis in which the image predictive decoding device extracts encoded data of prediction related information and encoded data of a residual signal related to a target region to be processed from compressed data. A residual signal restoration step in which the image predictive decoding apparatus restores a reproduction residual signal from the encoded data of the residual signal extracted in the data analysis step, and the image predictive decoding apparatus includes the target pixel signal in the target region A prediction signal generation step for generating a prediction signal for the image, and the image prediction decoding apparatus adds the prediction signal generated in the prediction signal generation step and the reproduced residual signal restored in the residual signal restoration step An image restoration step for restoring the pixel signal of the region, and the prediction signal generation step is extracted in the data analysis step The prediction related information is restored from the encoded data of the measurement related information, the template signal of the designated area determined based on the restored prediction related information is generated from the already reproduced signal, and a plurality of similar areas highly correlated with the designated area are generated. Search from a predetermined already-reproduced image, generate a plurality of texture signals for the target region based on the plurality of similar regions, and process the plurality of texture signals using a predetermined texture synthesis method Is generated.
また、本発明の画像予測復号プログラムは、コンピュータを、圧縮データの中から処理対象である対象領域に関する予測関連情報の符号化データと残差信号の符号化データとを抽出するデータ解析手段と、データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号と残差信号復元手段により復元された再生残差信号とを加算することによって、対象領域の画素信号を復元する画像復元手段と、して機能させ、予測信号生成手段は、データ解析手段により抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。 Further, the image predictive decoding program of the present invention is a data analysis means for extracting encoded data of prediction related information and encoded data of a residual signal related to a target region to be processed from compressed data, Residual signal restoration means for restoring a reproduction residual signal from encoded data of the residual signal extracted by the data analysis means, prediction signal generation means for generating a prediction signal for the target pixel signal in the target region, and prediction signal generation The prediction signal generated by the means and the reproduction residual signal restored by the residual signal restoration means are added to function as an image restoration means for restoring the pixel signal of the target region, and the prediction signal generation means The prediction related information is restored from the encoded data of the prediction related information extracted by the data analysis means, and is specified based on the restored prediction related information. Generates a template signal for a region from a previously reproduced signal, searches a plurality of similar regions having a high correlation with a designated region from predetermined reproduced images, and generates a plurality of texture signals for the target region based on the plurality of similar regions The prediction signal is generated by processing the plurality of texture signals using a predetermined texture synthesis method.
このような画像予測復号装置、画像予測復号方法及び画像予測復号プログラムによれば、圧縮データから抽出された予測関連情報の符号化データから予測信号が生成されるとともに、その圧縮データから抽出された残差信号の符号化データから再生残差信号が復元され、予測信号と再生残差信号とを加算することにより対象領域の画素信号が復元される。ここで、予測信号は、復元された予測関連情報に基づいて生成される複数のテキスチャー信号を特定のテキスチャー合成方法により加工することで生成される。このように、複数のテキスチャー信号に基づいて予測信号が生成されるので、予測信号に含まれる雑音を低減することができる。また、これら複数のテキスチャー信号は、少ない予測関連情報で効率よく生成することが可能である。したがって、雑音の少ない予測信号を効率よく生成することができる。 According to such an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program, a prediction signal is generated from encoded data of prediction related information extracted from compressed data and extracted from the compressed data. The reproduction residual signal is restored from the encoded data of the residual signal, and the pixel signal of the target region is restored by adding the prediction signal and the reproduction residual signal. Here, the prediction signal is generated by processing a plurality of texture signals generated based on the restored prediction related information by a specific texture synthesis method. Thus, since the prediction signal is generated based on a plurality of texture signals, noise contained in the prediction signal can be reduced. In addition, the plurality of texture signals can be efficiently generated with a small amount of prediction related information. Therefore, it is possible to efficiently generate a prediction signal with less noise.
本発明の画像予測復号装置では、指定領域と対象領域が同じ形状であることが好ましい。この場合、指定領域と対象領域とを同様に設定することが可能であるため、より簡易に予測信号を生成することができる。 In the image predictive decoding device of the present invention, it is preferable that the designated region and the target region have the same shape. In this case, since the designated area and the target area can be set in the same manner, the prediction signal can be generated more easily.
本発明の画像予測復号装置では、予測信号生成手段は、予測関連情報の符号化データから予測関連情報を復元し、対象領域を複数の小領域に分割し、分割された各小領域ついて、予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて小領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって小領域の予測信号を生成し、生成された各小領域の予測信号を合成することによって対象領域の予測信号を生成することが好ましい。 In the image predictive decoding device of the present invention, the prediction signal generation means restores the prediction related information from the encoded data of the prediction related information, divides the target region into a plurality of small regions, and predicts each divided small region. A template signal of a designated area determined based on the related information is generated from the already reproduced signal, a plurality of similar areas having a high correlation with the designated area are searched from previously reproduced images, and a small signal is generated based on the plurality of similar areas. Generate a plurality of texture signals for the region, process the plurality of texture signals using a predetermined texture synthesis method to generate a small region prediction signal, and synthesize the generated prediction signals for each small region Thus, it is preferable to generate a prediction signal of the target region.
この場合、対象領域が分割され、分割された各小領域について予測信号が生成され、小領域毎の予測信号を合成することにより対象領域の予測信号が生成される。そのため、最終的に生成される対象領域の予測信号の性能をより高めることが可能となる。すなわち、より雑音の少ない予測信号を生成することができる。 In this case, the target region is divided, a prediction signal is generated for each divided small region, and a prediction signal for the target region is generated by synthesizing the prediction signal for each small region. Therefore, it is possible to further improve the performance of the prediction signal of the target region that is finally generated. That is, a prediction signal with less noise can be generated.
本発明の画像予測復号装置では、テンプレート信号が複数のテキスチャー信号に含まれることが好ましい。 In the image predictive decoding device of the present invention, it is preferable that the template signal is included in a plurality of texture signals.
テンプレート信号は、対象領域の対象画素信号との相関が高い信号を生成する方法が含まれる予測関連情報に基づいて生成される。すなわち、テンプレート信号は、対象領域の画素信号との差分が最も小さい信号である。そのため、そのテンプレート信号を含むテキスチャー信号を利用することで、より雑音の少ない予測信号を生成することができる。 The template signal is generated based on prediction related information including a method for generating a signal having a high correlation with the target pixel signal in the target region. That is, the template signal is a signal having the smallest difference from the pixel signal in the target area. Therefore, a prediction signal with less noise can be generated by using a texture signal including the template signal.
本発明の画像予測復号装置では、予測信号生成手段は、テキスチャー信号に対して、予め定めた重み付け係数による重み付け平均処理を施すことによって予測信号を生成することが好ましい。この場合、予測信号を生成する際にテキスチャー信号が平均化されるので、統計的に誤差が少ない予測信号を生成することができる。 In the image predictive decoding device of the present invention, it is preferable that the prediction signal generation unit generates a prediction signal by performing a weighted average process with a predetermined weighting coefficient on the texture signal. In this case, since the texture signal is averaged when generating the prediction signal, it is possible to generate a prediction signal with a small statistical error.
本発明の画像予測復号装置では、予測関連情報が対象領域の空間的な変位量を示す動きベクトルを含むことが好ましい。この動きベクトルを用いることにより、対象領域の対象画素信号との相関が高い信号をより容易に導出することができるので、予測信号をより簡易に生成することが可能になる。 In the image predictive decoding device of the present invention, it is preferable that the prediction related information includes a motion vector indicating a spatial displacement amount of the target region. By using this motion vector, a signal having a high correlation with the target pixel signal in the target region can be derived more easily, so that a prediction signal can be generated more easily.
本発明の画像予測復号装置では、予測信号生成手段は、指定領域と相関の高い複数の類似領域を予め定めた複数の既再生画像から探索することが好ましい。 In the image predictive decoding device of the present invention, it is preferable that the prediction signal generating means searches a plurality of similar reproduced regions having a high correlation with the designated region from a plurality of previously reproduced images.
この場合、複数の既再生画像の中から類似領域を探索することができるので、指定領域との相関がより高い類似領域を抽出することが可能となる。その結果、より雑音の少ない予測信号を生成することができる。 In this case, a similar area can be searched from a plurality of already-reproduced images, so that a similar area having a higher correlation with the designated area can be extracted. As a result, a prediction signal with less noise can be generated.
本発明の画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムによれば、1本の動きベクトル等、少ない予測関連情報に基づいて多数のテキスチャー信号を生成することができるので、テキスチャー信号の平滑化処理を伴う予測信号を効率良く生成することができる。 According to the image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program of the present invention, a small amount of prediction related information such as one motion vector Since a large number of texture signals can be generated on the basis of the above, a prediction signal accompanied with a smoothing process of the texture signal can be efficiently generated.
以下、添付図面を参照しながら本実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
図1は、本実施形態に係る画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111及び出力端子112を備えている。変換器106及び量子化器107は、符号化手段として機能する。
FIG. 1 is a block diagram showing an image
入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。
The
ブロック分割器102は、入力端子101から入力された信号で表される、符号化の対象なる画像を複数の領域に分割する。本実施形態では、8x8の画素からなるブロックに分割するが、それ以外のブロックの大きさ又は形に分割してもよい。
The
予測信号生成器103は、符号化処理の対象となる対象領域(対象ブロック)に対して予測信号を生成し、その予測信号を減算器105に出力し、予測方法に関する情報をエントロピー符号化器111に出力する部分である。この予測信号生成器103の具体的な処理については後述する。
The
減算器105は、ラインL102を経由して入力されたブロック分割器102で分割されて得られた対象領域から、ラインL103を経由して入力された予測信号生成器103にて生成された予測信号を減算して、残差信号を生成する部分である。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。
The
変換器106は、減算して得られた残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。エントロピー符号化器111は、量子化器107により量子化された変換係数を符号化するとともに予測方法に関する情報を符号化し、符号化された情報をラインL111を経由して出力する。出力端子112は、エントロピー符号化器111から入力した情報を外部に出力する。
The
逆量子化器108は、量子化された変換係数を逆量子化する。逆変換器109は、逆離散コサイン変換により残差信号を復元する。加算器110は、復元された残差信号とラインL103から送られた予測信号とを加算し、対象ブロックの信号を再生し、フレームメモリ104に格納する。本実施形態では、変換器106と逆変換器109とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器106及び逆変換器109は必須ではない。このように、後続の対象領域に対する画面内予測もしくは画面間予測を行うために、圧縮された対象領域の画素信号は、逆処理にて復元されフレームメモリ104に記憶される。
The
次に、予測信号生成器103について説明する。予測信号生成器103は、符号化処理の対象となる対象領域(以下、対象ブロックと称する)に対する予測信号を生成する。本実施形態では、2種類の予測方法が用いられる。すなわち、予測信号生成器103は、後述する画面間予測方法と画面内予測方法とのうち少なくとも一方を用いて予測信号を生成する。画面間予測方法及び画面内予測方法を選択するための選択情報は、量子化された変換係数及び予測信号の生成に関する予測関連情報とともにエントロピー符号化器111にて符号化され、出力端子112より送出される。
Next, the
図2は、図1に示す予測信号生成器103のブロック図である。予測信号生成器103は、予測関連情報生成器201とテキスチャー合成器202とを備えている。
FIG. 2 is a block diagram of the
予測関連情報生成器201は、ラインL102経由で入力される対象ブロックの信号を受け付けるとともに、フレームメモリ104からラインL104経由で入力される、過去の処理で既に再生された画像信号(再生画像信号)を受け付ける。予測関連情報生成器201は、対象ブロックに対して誤差の最も小さい予測信号を再生画像信号から生成し、その生成に必要となる予測関連情報を求める。すなわち、予測関連情報生成器201は、対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する。予測関連情報は、ラインL201を経由してテキスチャー合成器202に送られると共に、ラインL113を経由してエントロピー符号化器111にも送られる。
The prediction related
ここで、予測関連情報の生成処理について説明する。画面間予測方法を用いる場合、予測関連情報生成器201は、対象ブロックと異なる画面(フレームまたはフィールド)の再生画像信号を参照画像として、ブロックマッチング処理により動きベクトルを検出する。検出した動きベクトルは、予測関連情報として予測関連情報生成器201から、エントロピー符号化器(ラインL113経由)とテキスチャー合成器202(ラインL201経由)とにそれぞれ出力される。
Here, the process of generating prediction related information will be described. When the inter-screen prediction method is used, the prediction related
図4を用いて、画面間予測方法を用いた予測関連情報の生成方法をさらに詳しく述べる。図4は、画面間予測方法を用いた予測関連情報の生成方法、つまり動きベクトルの検出方法を説明するための模式図であり、図4(A)は参照画像を示し、図4(B)は符号化対象の画面を示す。ここでは、符号化対象の画面401において、対象ブロック402に対する動きベクトルを検出する場合について説明する。
The generation method of prediction related information using the inter-screen prediction method will be described in more detail with reference to FIG. FIG. 4 is a schematic diagram for explaining a prediction related information generation method using the inter-screen prediction method, that is, a motion vector detection method. FIG. 4 (A) shows a reference image, and FIG. Indicates a screen to be encoded. Here, a case where a motion vector for the
まず、過去の処理で既に再生された画面403が参照画像とされ、参照画面上に探索領域405が設定される。図4では、対象ブロック402と空間的に同一位置の領域404の周囲に探索領域405が設定されているが、空間的にずれた位置に設定されても構わない。次に、探索領域405において、対象ブロック402と同じ形状を有する画素群との間で、対応する画素間の絶対値誤差和(SAD)が求められ、最も小さいSADを与える領域406が検索される。この際、領域406を検索するための評価値はSAD以外でもよい。そして、領域404から領域406への変位量が対象ブロックの動きベクトル407として検出される。
First, the
なお、動きベクトルは、対象ブロックを再分割し、再分割された小領域単位で検出されるようにしてもよい。この場合、選択した分割方法と各小領域の動きベクトルとが予測関連情報に含まれる。また、複数の既再生の画面を参照画像として用いてもよい。複数の参照画像について最適な動きベクトルが検出され、SADが最小となる1つが選択される。この場合には、選択された参照画像のフレーム番号(小領域毎でも対象ブロックに1つでもよい)も予測関連情報に含まれる。 Note that the motion vector may be detected in units of sub-regions obtained by sub-dividing the target block. In this case, the selected division method and the motion vector of each small region are included in the prediction related information. In addition, a plurality of previously reproduced screens may be used as reference images. Optimal motion vectors are detected for a plurality of reference images, and one that minimizes SAD is selected. In this case, the frame number of the selected reference image (may be one for each small area or one for the target block) is also included in the prediction related information.
一方、画面内予測方法を用いる場合、予測関連情報生成器201に対象ブロックと同じ画面内にある再生画像信号が入力され、図18に示す予測方法により対象ブロックに対して最も小さい予測信号を与える方法が選択される。選択された予測方法は、予測関連情報として予測関連情報生成器201から、エントロピー符号化器(ラインL113経由)とテキスチャー合成器202(ラインL201経由)にそれぞれ出力される。
On the other hand, when the intra prediction method is used, a reproduced image signal in the same screen as the target block is input to the prediction related
次に、図3を用いて、本実施形態に係るテキスチャー信号の生成・合成処理について説明する。図3は、図2に示すテキスチャー合成器202の構成を示すブロック図である。テキスチャー合成器202は、テンプレート信号生成器301とテキスチャー生成器302と合成器303とを備えている。テンプレート信号生成器301は、ラインL201経由で入力される予測関連情報を受け付けるとともに、またラインL104経由でフレームメモリ104から入力される再生画像信号を受け付ける。そして、テンプレート信号生成器301は、予測関連情報に基づいて再生画像信号からテンプレート信号を生成し、ラインL301経由でテキスチャー生成器302に出力する。
Next, texture signal generation / synthesis processing according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of the
テキスチャー合成器202では、テキスチャー生成器302が、ラインL104経由でフレームメモリ104から入力される、過去の処理で既に再生された画像信号(再生画像信号)を受け付けるとともに、テンプレート信号生成器301がラインL201経由で入力される予測関連情報を受け付ける。テキスチャー生成器302は、下記に説明するような方法で、入力された予測関連情報に基づいて予め指定された領域(指定領域)の信号をテンプレート信号として生成し、テンプレートマッチング処理により再生画像信号から複数のテキスチャー信号を生成する。さらに合成器303が、生成した複数のテキスチャー信号を合成して対象ブロックに対する予測信号を生成する。そして、合成器303は、生成した予測信号をL103を介して減算器105に出力する。
In the
本実施形態では、このテンプレート信号を含む領域の形状は任意である。この形状は上記に示したように方式により指定されることから、本実施形態では、テンプレート信号を含む領域を「指定領域」と呼ぶことにする。また、テンプレートマッチング処理により検索される領域を「類似領域」と呼ぶことにする。さらに、合成器303に入力される複数のテキスチャー信号が属する領域、つまり予測対象の領域と同じ形状の領域を「テキスチャー領域」と呼ぶことにする。
In the present embodiment, the shape of the region including the template signal is arbitrary. Since this shape is designated by the method as described above, in this embodiment, an area including the template signal is referred to as a “designated area”. An area searched by the template matching process is referred to as a “similar area”. Furthermore, a region to which a plurality of texture signals input to the
指定領域の形状と類似領域の形状とは常に一致している。テキスチャー領域の形状は、予測対象の領域と同じである。類似領域とテキスチャー領域との位置関係は、同一の画面上において、「2領域の相対的な座標位置を示す変位量」により予め規定されている。図11を用いて簡単に説明する。画面403にて、領域761が指定領域、領域751がテキスチャー領域であるとする。このとき、領域761の左上隅の座標と領域751の左上隅の座標との間の変位量を予め既定しておく。図11のように類似領域の形状とテキスチャー領域の形状とが異なる例については、後述する。ここでは、図6に示すように、類似領域の形状とテキスチャー領域の形状とが一致する場合について説明する。類似領域の形状とテキスチャー領域の形状とが一致する場合では、類似領域とテキスチャー領域との相対的な座標位置を示す変位量は0となる。なお、テンプレート信号を含む領域の形状は、ブロックに限定されない。
The shape of the designated area always matches the shape of the similar area. The shape of the texture region is the same as the region to be predicted. The positional relationship between the similar area and the texture area is defined in advance by “a displacement amount indicating the relative coordinate position of the two areas” on the same screen. This will be briefly described with reference to FIG. In the
テキスチャー生成器302は、再生画像信号を探索し、テンプレートと同じ形状の領域を有する領域について、テンプレートに対応する画素間の絶対値誤差和(SAD)を求める。本実施形態では、対象ブロックの画素信号との相関が高い信号がテンプレート信号として選択されているので、テキスチャー生成器302は、対象ブロックの画素信号に近い信号を探索できる。
The
テンプレート信号生成器301におけるテンプレート信号の生成処理を、図4で示した画面間予測方法の場合について説明する。画面内予測方法の場合については、後述する(図17)。図4では、符号化対象の画面401の対象ブロック402の予測信号を生成することが示されている。対象ブロック402おける予測関連情報は動きベクトル407であり、ラインL201経由でテンプレート信号生成器301に入力される。テンプレート信号生成器301は、ラインL104経由で図1のフレームメモリ104に保存されている参照画像403にアクセスし、動きベクトル407に基づいて対象ブロック402に対応する領域406を取得する。取得した領域406(指定領域)の信号は、テンプレート信号として、テンプレート信号生成器301から出力される。
The template signal generation processing in the
動きベクトル407により示される指定領域406は、対象ブロック402の画素信号との差分が最も小さい信号である。従って、この指定領域406をテンプレート信号とすれば、テキスチャー生成器302は、対象ブロック402の画素信号に類似する複数のテキスチャー信号を検索することができる。なお、指定領域406のテンプレート信号は、復号した動きベクトルに基づいて取得できるため、同じテキスチャー信号を復号装置にて検索できる。
The designated
テキスチャー生成器302では、ラインL301経由でテンプレート信号生成器301からテンプレート信号が入力され、またラインL104経由でフレームメモリ104から再生画像信号が入力される。テキスチャー生成器302は、入力されたテンプレート信号及び再生画像信号に基づいて、以下に説明する設定でテンプレートマッチングを行い、N個のテキスチャー信号を生成する。生成したN個のテキスチャー信号は、ラインL302を経由して合成器303に出力される。合成器303は、これらN個のテキスチャー信号を後述する予め定めた方法で合成して予測信号を生成し、ラインL103を経由して出力する。以降、本実施形態では、Nの値を5として説明するが、Nの値は1以上の任意の値に設定できる。
In the
ここで図5及び図6を用いて、テキスチャー生成器302におけるテキスチャー信号の生成方法を詳しく説明する。図5は、図3に示すテキスチャー生成器302のブロック図である。図6は、本実施形態に係るマッチング処理及びテキスチャー生成処理に関する模式図であり、図6(A)は参照画像を示し、図6(B)は符号化対象の画面を示す。
Here, a method of generating a texture signal in the
テキスチャー生成器302は、マッチング器501と、候補テキスチャー選択器502と、テキスチャー取得器503とを備えている。まず、マッチング器501がラインL301経由で入力されるテンプレート信号を受け付ける。次に、マッチング器501は、ラインL104経由でフレームメモリ104にある再生画像信号にアクセスし、予め定めた手順でマッチング処理を実施し、指定領域と同じ形状を有する画素群を順次取得する。そして、マッチング器501は、取得したそれぞれの画素群について、テンプレート信号との間で対応する画素間の絶対値誤差和(SAD)をそれぞれ算出する。算出した各SAD値は、取得した画素群にアクセスするための座標情報と共に、ラインL501経由で候補テキスチャー選択器502に出力される。
The
なお、本実施形態では、テンプレート信号との類似性を計る評価値をSADとしているが、それに限定されるものではなく、誤差二乗和や、座標情報とSADから算出される値などでもよい。 In the present embodiment, the evaluation value for measuring the similarity to the template signal is SAD, but the evaluation value is not limited thereto, and may be a sum of squared errors, a value calculated from coordinate information and SAD, or the like.
候補テキスチャー選択器502は、入力された複数のSAD値を予め定めた閾値と比較し、SAD値が閾値より小さい画素群とその座標情報を抽出する。そして、候補テキスチャー選択器502は、抽出した画素群からSAD値が小さい領域を順に最大N個を選択し、対応する座標情報をラインL502経由でテキスチャー取得器503に出力する。ここで、抽出されたN個の領域が類似領域である。閾値より小さいSAD値がN個に満たない場合、候補テキスチャー選択器502は、その対象ブロックにおけるNの値を更新する。テキスチャー生成器302への入力信号はすべて復号装置にて復元されるデータであるため、復号装置においても同様の方法でNの値を更新できる。従って、更新したNの値を符号化する必要はない。なお、座標情報の選択方法は、SAD値の小さい順でなくてもかまわない。N個の座標情報の選択方法については後述する(図16)。
The
テキスチャー取得器503は、ラインL502から入力されるN個の座標情報を受け付ける。テキスチャー取得器503は、ラインL104経由でフレームメモリ104にある再生画像信号にアクセスし、N個の座標情報に基づいて、対象ブロックと同じ形状の領域、つまりテキスチャー領域の信号(テキスチャー信号)をN個取得し、ラインL302経由で合成器303に順次出力する。なお、本実施形態では、テキスチャー領域と類似領域とが一致するため、類似領域とテキスチャー領域との相対的な座標位置を示す変位量は0である。従って、テキスチャー取得器503は、テキスチャー信号を指定領域の座標情報から直接取得できる。
The
図6に示す例では、符号化対象の画面401の対象ブロック402について、複数のテキスチャー信号が生成されている。図6において、マッチング処理に用いるテンプレート信号は、対象ブロックと同じ形状の領域406(指定領域)の信号であり、動きベクトル407に従ってテンプレート信号生成器301により決定されている。
In the example illustrated in FIG. 6, a plurality of texture signals are generated for the
マッチング器501のマッチング処理では、まず、予め決められた方法で対象ブロック402に対する探索領域が設定される。本実施形態では、既に再生済みの画面403全体が探索領域とされる。なお、画面全体を探索領域とせず、画面の一部を探索領域としてもよい。
In the matching process of the
マッチング器501は、探索領域403全体を探索し、指定領域406と同じ形状を有する複数の画素群(領域601、602…)との間で、対応する画素間の絶対値誤差値の和(SAD)を求める。なお、探索方法は、間引き探索等でもよい。
The
次に、候補テキスチャー選択器502は、閾値よりもSAD値が小さい5個の領域(領域601、602、603、604及び406)を類似領域の候補として検出する。ここで用いる閾値は、予め定めた値でもよいし、テキスチャー合成器202にて最適なテキスチャー信号が得られる値を決定し、エントロピー符号化器111にて符号化したものでもよい(図示しない)。本実施形態における画面間予測方法では、テンプレートマッチングの探索領域が指定領域406を含んでいるため、必然的にテンプレート信号がテキスチャー信号の候補に含まれる。このテンプレート信号は、対象ブロックの画素信号との差分が最も小さい信号であり、雑音が少なく且つ対象ブロックとの差分が小さい予測信号を生成するために必要となる。
Next, the
候補テキスチャー選択器502は、検出された類似領域の601〜604及び406のそれぞれについて左上隅の座標を検出し、これらの座標をラインL501経由でテキスチャー取得器503に出力する。ここで出力される座標情報は、フレームメモリにアクセスするための情報であり、各類似領域の左上隅である必要はなく、右下隅などでもよい。すなわち、出力される座標情報は、位置を特定する情報であればよい。
The
このようにして、決定された座標情報がテキスチャー取得器503に入力されると、テキスチャー取得器503は、類似領域とテキスチャー領域との相対的な座標位置を示す変位量に従って、N個の類似領域の座標情報をそれぞれテキスチャー領域の座標情報に変換する。この変換処理は、候補テキスチャー選択器502にて行なってもよい。続いて、テキスチャー取得器503は、変換した座標情報に従って、ラインL104経由でフレームメモリ104の参照画像403にアクセスし、N個のテキスチャー信号の候補を取得する。取得したN個のテキスチャー信号は、ラインL302経由で合成器303に出力される。なお、図6に示す例では類似領域とテキスチャー領域とが一致するため、テキスチャー生成器302は、その例を実行する際に座標情報の変換処理を省略することができる。
When the determined coordinate information is input to the
図6に示す場合の探索領域については、例えば、図4の探索領域405に示すような部分領域が領域406を囲むように設定されてもよい。探索領域が領域406を含まない場合には、テンプレート信号がテキスチャー信号に含まれるように探索対象が設定されてもよい。また、探索領域は1つの画面の領域に限定されることはなく、複数の画面の部分領域が探索領域として設定されてもよい。この際、探索対象とする画面を選択するためのルールが予め定められていれば、その画面の情報を符号化する必要はない。但し、テキスチャー生成器302にて探索領域を複数の候補から選ぶような場合には、探索対象の画面や探索領域に関する情報を符号化する必要がある。符号化を行なう場合には、テキスチャー合成器202からラインL113を経由してエントロピー符号化器111に選択した画面情報や探索領域の情報を出力する(図示しない)。これら関連情報の符号化は、予測関連情報と同じく対象ブロック毎に行なってもよいが、ブロック毎の変更効果が小さい場合には、フレーム単位やシーケンス単位で行なってもよい。
For the search area shown in FIG. 6, for example, a partial area as shown in the
合成器303は、テキスチャー生成器302からのN個のテキスチャー信号の入力を受け、重み付け平均化処理により対象ブロックの予測信号を生成する。合成器303は、重み付け器304及び加算器305を備えている。重み付け器304における重み値は、1/Nなどと定められる。重み付け器304は、入力されたテキスチャー信号にそれぞれ1/Nの重みをかけ、ラインL304を経由して加算器305に出力する。加算器305は、重み付け処理されたN個のテキスチャー信号を加算し、加算したテキスチャー信号を予測信号としてラインL103を経由して出力する。
The
なお、合成器303における重み値は予め定めておいてもよいが、合成器303にて最適な予測信号となるように各テキスチャー信号への重み値を求めてもよい。予め定めておく場合には、重み値は任意の値でよい。例えば、合成器303がテンプレート信号に対して1/2、その他のテキスチャー信号に対して1/(2×(N−1))のように定めてもよい。また、合成器303が領域内の位置に応じて重み値を変化させてもよい。合成器303にて重み値を決める場合には、ラインL102経由で対象ブロックの信号を合成器303に入力し、予測信号が最小となる重み値を求めて、その値をラインL113経由で図1のエントロピー符号化器111に出力する(図示しない)。エントロピー符号化器111は、重み値を符号化した上で出力端子112から送出する。この際、重み値の変更は、ブロック単位で行ってもよいし、フレーム単位やシーケンス単位で行ってもよい。
Note that the weight value in the
なお、合成器303は図3の構成に限定されない。テキスチャー信号に対する重み値を整数とし、重み付け処理されたN個のテキスチャー信号を加算した後、加算した信号をN個の重み値の和で除算するように構成しても良い。この際、除算の丸め込み方法を予め定めておけば、演算器に関わらず同じ結果が得られる。例えば、テンプレート信号に対する重み値をN+1、その他のN個のテキスチャー信号に対する重み値を1のように定めた場合、加算した信号にさらにNを2×Nで除算する。
The
このように、本実施形態の予測処理では、動きベクトルなどの予測関連情報に基づいて複数のテキスチャー信号が生成される。これらのテキスチャー信号は、画面の異なる領域から取得されるため、含まれる雑音成分(主に高周波成分)の相関が互いに低くなっている。本実施形態によれば、雑音成分の異なる複数のテキスチャー信号を平均化するので、平滑化効果により、統計的に雑音の少ない予測信号が生成できる。 Thus, in the prediction process of the present embodiment, a plurality of texture signals are generated based on prediction related information such as motion vectors. Since these texture signals are acquired from different areas of the screen, the correlation of the included noise components (mainly high frequency components) is low. According to the present embodiment, since a plurality of texture signals having different noise components are averaged, a prediction signal with statistically less noise can be generated due to the smoothing effect.
ここまでの説明では、テキスチャー領域の形状を対象領域(対象ブロック)と同じ形状としていた。しかしながら、符号化対象ブロックとテキスチャー領域(指定領域)との位置関係を明確にしておけば、対象領域とテキスチャー領域とが異なる形状であっても本発明を実施可能である。以下に、いくつかの別例を示す。図6を用いた説明と同様に、画面401の対象ブロック402についてテキスチャー信号の生成手順について説明する。
In the above description, the texture area has the same shape as the target area (target block). However, if the positional relationship between the encoding target block and the texture area (designated area) is clarified, the present invention can be implemented even if the target area and the texture area have different shapes. Some other examples are shown below. Similar to the description using FIG. 6, the texture signal generation procedure for the
図7〜図10は、テキスチャー領域の形状が対象領域の形状と異なる場合のマッチング処理及びテキスチャー生成処理に関する模式図である。なお、この実施例では、指定領域及び類似領域がテキスチャー領域と同じ形状であるものとして説明する。 7 to 10 are schematic diagrams regarding matching processing and texture generation processing when the shape of the texture region is different from the shape of the target region. In this embodiment, it is assumed that the designated area and the similar area have the same shape as the texture area.
図7では、小領域411が対象ブロック402の左上1/4の部分を示し、左上領域412が指定領域を示している。テンプレート信号生成器301は、予測関連情報に基づき領域406から面積で左上1/4の部分の領域412を切り出し、領域412の信号をテンプレート信号として出力する。このとき、領域406の左上隅から指定領域412(テキスチャー領域)の左上隅への変位量は、指定領域及びテキスチャー領域の形状に関する情報と共にテキスチャー合成器202に記録されている。テキスチャー生成器302は、ラインL104経由で参照画像403にアクセスし、指定領域412と同じ形状の画素群をテンプレートマッチングにより複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、テキスチャー生成器302は、SAD値が小さいN個の領域711、712、713、714及び412を類似領域(テキスチャー領域)の候補として検出する(本実施形態ではNの値は5)。
In FIG. 7, the
これらN個のテキスチャー領域におけるテキスチャー信号を、合成器303にて重み付け平均化することにより、小領域411の予測信号が生成される。この際、対象ブロックにおける予測領域の位置及び形状は、記録している変位量と類似領域の形状とから分かる。なお、ここでは、探索領域、N値及び閾値などの設定方法については説明を省略するが、図6の場合と同じく、符号化してもよい。
The texture signals in these N texture regions are weighted and averaged by the
対象ブロックの他の領域の予測信号の生成処理を、図8〜図10を用いて説明する。図8〜図10の場合においても、図7と同様に、図3のテンプレート信号生成器301が予測関連情報に基づいて図7の領域406から面積で1/4の部分の領域を切り出すが、その切り出し位置が異なる。
A process for generating a prediction signal in another area of the target block will be described with reference to FIGS. Also in the case of FIGS. 8 to 10, as in FIG. 7, the
図8では、小領域421が対象ブロック402の右上1/4の部分を示し、領域422が指定領域を示している。図3のテンプレート信号生成器301は、予測関連情報に基づき図6の領域406から面積で右上1/4の部分の領域422を切り出し、領域422をテンプレート信号として出力する。この際、領域406の左上隅から指定領域422(テキスチャー領域)の左上隅への変位量は、指定領域及びテキスチャー領域の形状に関する情報と共にテキスチャー合成器202に記録されている。テキスチャー生成器302は、ラインL104経由で参照画像403にアクセスし、指定領域422と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、テキスチャー生成器302は、SAD値が小さいN個の領域721、722、723、724及び422をテキスチャー信号の候補として検出する(本実施形態ではNの値は5)。
In FIG. 8, the
これらN個のテキスチャー領域におけるテキスチャー信号を、合成器303にて重み付け平均化することにより、小領域421の予測信号が生成される。この際、対象ブロックにおける予測領域の位置と形状は記録されている変位量と類似領域の形状から分かる。
The texture signals in these N texture regions are weighted and averaged by the
図9では、小領域431が対象ブロック402の左下1/4の部分を示し、領域432が指定領域を示している。テンプレート信号生成器301は、予測関連情報に基づき図6の領域406から面積で左下1/4の部分の領域432を切り出し、領域432をテンプレート信号として出力する。この際、領域406の左上隅から指定領域432(テキスチャー領域)の左上隅への変位量は指定領域及びテキスチャー領域の形状に関する情報と共にテキスチャー合成器202に記録されている。テキスチャー生成器302は、ラインL104経由で参照画像403にアクセスし、指定領域432と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、テキスチャー生成器302は、SAD値が小さいN個の領域731、732、733、734及び432を類似領域(テキスチャー領域)の候補として検出する(本実施形態ではNの値は5)。
In FIG. 9, the
これらN個のテキスチャー領域におけるテキスチャー信号を、図3の合成器303にて重み付け平均化することにより、小領域431の予測信号が生成される。この際、対象ブロックにおける予測領域の位置と形状は、記録されている変位量と類似領域の形状から分かる。
The texture signals in these N texture regions are weighted and averaged by the
図10では、小領域441が対象ブロック402の右下1/4の部分を示し、領域442が指定領域を示している。テンプレート信号生成器301は、予測関連情報に基づき図6の領域406から面積で右下1/4の部分の領域442を切り出し、領域442をテンプレート信号として出力する。この際、領域406の左上隅から指定領域442(テキスチャー領域)の左上隅への変位量は、指定領域及びテキスチャー領域の形状に関する情報と共にテキスチャー合成器202に記録されている。テキスチャー生成器302は、ラインL104経由で参照画像403にアクセスし、指定領域442と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、テキスチャー生成器302は、SAD値が小さいN個の領域741、742、743、744及び442を類似領域(テキスチャー領域)の候補として検出する(本実施形態ではNの値は5)。
In FIG. 10, the
これらN個のテキスチャー領域におけるテキスチャー信号を、合成器303にて重み付け平均化することにより、小領域441の予測信号が生成される。この際、対象ブロックにおける予測領域の位置と形状は記録されている変位量と類似領域の形状から分かる。
The texture signals in these N texture regions are weighted and averaged by the
このように、テキスチャー領域の形状と対象ブロックの形状が異なっていても、テキスチャー取得器503に入力される座標情報と対象ブロックとの位置関係を予め定めておけば、座標情報に基づいて、対象ブロックと同じ形状の領域の信号が取得できる。
As described above, even if the shape of the texture area and the shape of the target block are different, if the positional relationship between the coordinate information input to the
図7〜図10に示す処理は、図6における対象ブロックを4分割し、4分割したテンプレート信号に基づいて、分割領域毎に予測信号を生成するものである。このように、本発明では、予測関連情報に基づいて生成される信号を分割して、テンプレート信号を生成することができる。そのため、予測関連情報を増やすことなく、対象ブロックより小さい領域単位で高い性能の予測信号を生成することができる。なお、対象ブロックの分割数や分割後の形状は上記変形例に限定されず、任意に設定することができる。 The process shown in FIGS. 7 to 10 is to divide the target block in FIG. 6 into four and generate a prediction signal for each divided region based on the template signal divided into four. Thus, in the present invention, a template signal can be generated by dividing a signal generated based on prediction-related information. Therefore, a high-performance prediction signal can be generated in a region unit smaller than the target block without increasing prediction-related information. Note that the number of divisions of the target block and the shape after the division are not limited to the above modification, and can be set arbitrarily.
図6〜図10に示す処理では、テキスチャー領域の形状と類似領域の形状とが一致していた。しかし、類似領域とテキスチャー領域との相対的な座標位置を示す変位量を明確にしておけば、予測対象の領域であるテキスチャー領域と類似領域は、異なる形状であってもよい。テキスチャー領域と類似領域の形状が異なる例を図11及び図12に示す。 In the processes shown in FIGS. 6 to 10, the shape of the texture region and the shape of the similar region match. However, if the amount of displacement indicating the relative coordinate position between the similar area and the texture area is clarified, the texture area and the similar area, which are prediction target areas, may have different shapes. Examples in which the shape of the texture region and the similar region are different are shown in FIGS.
図11は、テキスチャー領域の形状が類似領域の形状と異なる例について、マッチング処理とテキスチャー生成処理を説明するための模式図であり、図11(A)は参照画像を示し、図11(B)は符号化対象の画面を示す。図11では、領域462が指定領域を示し、領域461が指定領域に対応するテキスチャー領域を示している。
FIG. 11 is a schematic diagram for explaining matching processing and texture generation processing for an example in which the shape of the texture region is different from the shape of the similar region. FIG. 11A shows a reference image, and FIG. Indicates a screen to be encoded. In FIG. 11, an
図11に示す変形例では、テキスチャー領域461の形状と対象領域402の形状とが同じである。テンプレート信号生成器301は、予測関連情報に基づき図6に示す領域406から予め指定された領域462を切り出し、指定領域462に属するテンプレート信号をラインL301経由でテキスチャー生成器302に出力する。この際、テキスチャー領域461の左上隅から指定領域462の左上隅への変位量、指定領域(類似領域)の形状及びテキスチャー領域の形状に関する情報は、テキスチャー合成器202に記録されている。
In the modification shown in FIG. 11, the shape of the
マッチング器501は、ラインL104経由で参照画像403にアクセスし、指定領域462と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、候補テキスチャー選択器502は、SAD値が小さいN個の領域761、762、763、764及び462を類似領域として検出し、その座標情報をテキスチャー取得器503に出力する(本実施形態ではNの値は5)。テキスチャー取得器503は、入力された座標情報と記録している上記の変位量に基づいて、参照画像403からN個のテキスチャー領域751、752、753、754及び461の信号を取得する。これらN個のテキスチャー信号を、合成器303にて重み付け平均化することにより、対象ブロック402の予測信号が生成される。なお、ここでは、探索領域、N値及び閾値などの設定方法については説明を省略するが、図6の場合と同じく、符号化するようにしてもよい。
The
このように、テキスチャー領域と類似領域の形状が異なっていても、類似領域とテキスチャー領域との相対的な座標位置を示す変位量を明確にしておけば、テキスチャー取得器503に入力される座標情報に基づいてテキスチャー領域(対象領域)の領域の信号が取得できる。つまり、予測関連情報に基づいて生成される領域(領域406)の信号から、部分信号(領域462の信号)を切り出してテンプレート信号に設定できる。この方法によれば、予測関連情報により得られる領域(領域406)の信号にマッチング処理に適さない強い特徴を持った信号が含まれている場合に、その信号の領域をテンプレート信号から除外できるという利点がある。
As described above, even if the texture region and the similar region are different in shape, if the displacement amount indicating the relative coordinate position between the similar region and the texture region is clarified, the coordinate information input to the
図11を用いた説明と関連して、さらに、本発明では、テキスチャー領域において、類似領域に属さない画素と属する画素で重み付け処理の重み係数を切り替えることが可能である。例えば、テキスチャー領域(領域461)に対応する指定領域(領域462)の信号を分析し、平滑化処理を必要としない領域が認められる領域については、指定領域のテンプレート信号への重み値を1に、他のテキスチャー信号への重み値を0に設定することも可能である。 In connection with the description using FIG. 11, in the present invention, it is possible to switch the weighting factor of the weighting process between the pixels that do not belong to the similar region and the pixels that belong to the texture region. For example, the signal of the designated area (area 462) corresponding to the texture area (area 461) is analyzed, and the weight value to the template signal of the designated area is set to 1 for an area where a smoothing process is not required. It is also possible to set the weight value for other texture signals to zero.
図12は、テキスチャー領域の形状が類似領域の形状と異なる別の例について、マッチング処理とテキスチャー生成処理を説明するための模式図であり、図12(A)は参照画像を示し、図12(B)は符号化対象の画面を示す。図12では、領域472が指定領域、領域471が指定領域に対応するテキスチャー領域を示している。このように、本発明では、指定領域を予測関連情報により生成される領域471の外部に設定することも可能である。また、指定領域は、必ずしも領域471に触れていることを要しない。この変形例では、テキスチャー領域471の形状と対象領域402の形状とは同じである。
FIG. 12 is a schematic diagram for explaining the matching process and the texture generation process for another example in which the shape of the texture region is different from the shape of the similar region. FIG. 12A shows a reference image, and FIG. B) shows a screen to be encoded. In FIG. 12, an
テンプレート信号生成器301は、予測関連情報に基づき画面403から領域472を切り出し、指定領域472をテンプレート信号としてラインL301経由でテキスチャー生成器302に出力する。この際、テキスチャー領域471の左上隅から指定領域472の左上隅への変位量、指定領域(類似領域)の形状及びテキスチャー領域の形状に関する情報は、テキスチャー合成器202に記録されている。
The
マッチング器501は、ラインL104経由で参照画像403にアクセスし、指定領域472と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、候補テキスチャー選択器502は、SAD値が小さいN個の領域781、782、783、784及び472を類似領域として検出し、その座標情報をテキスチャー取得器503に出力する(本実施形態ではNの値は5)。テキスチャー取得器503は、入力された座標情報と記録している変位量に基づいて、参照画像403からN個のテキスチャー領域771、772、773、774及び471の信号を取得する。これらN個のテキスチャー信号を、合成器303にて重み付け平均化することにより、対象ブロック402の予測信号が生成される。なお、ここでは、探索領域、N値及び閾値などの設定方法については説明を省略するが、図6の場合と同じく、符号化するようにしてもよい。
The
このように、本発明では、予測関連情報に基づいて生成される領域に対して、その隣接領域の信号をテンプレート信号に設定することも可能である。例えば、図12に示す方法は、隣接ブロックと対象ブロックとの信号の連続性を保ちたい場合に有効である。この場合には、図13に示すように予測関連情報となる動きベクトル408を、対象ブロック402の隣接領域1301の画素信号を用いたマッチング処理により検出してもよい。この場合、再生済みの画面403に設定した探索領域1304において、領域1301と同じ形状の画素群から、対応する画素間のSADが最小となる領域1305が検出される。そして、対象ブロック402と同じ空間位置のブロック1303から領域1305への変位量が動きベクトル408として検出される。なお、領域1305とこの領域に対応するテキスチャー領域との位置関係は限定されない。
As described above, in the present invention, it is possible to set the signal of the adjacent region to the template signal for the region generated based on the prediction related information. For example, the method shown in FIG. 12 is effective when it is desired to maintain continuity of signals between adjacent blocks and the target block. In this case, as shown in FIG. 13, the
本発明では、図7〜図10に示す処理と、図11または図12に示す処理とを組み合わせることも可能である。また、本実施形態では、類似領域とテキスチャー領域との間の変位量及びテキスチャー領域と対象領域との間の変位量を、それぞれの領域の左上隅を基準として求めているが、左上隅とは異なる予め定めた基準であってもよい。さらに、指定領域と類似領域及びテキスチャー領域の形状は、上記の例に限定されず、任意に設定することができる。例えば、指定領域の形状がテキスチャー領域の形状よりも大きくてもよい。 In the present invention, it is possible to combine the processing shown in FIGS. 7 to 10 with the processing shown in FIG. 11 or FIG. In the present embodiment, the displacement amount between the similar region and the texture region and the displacement amount between the texture region and the target region are obtained with reference to the upper left corner of each region. Different predetermined criteria may be used. Furthermore, the shapes of the designated area, the similar area, and the texture area are not limited to the above example, and can be arbitrarily set. For example, the shape of the designated area may be larger than the shape of the texture area.
図7〜図12の探索領域についても、図6と同じように複数の画面(複数の参照画像)の部分領域を探索領域として設定できる。この場合でも、探索対象とする画面を選択するためのルールが予め定められていれば、その画面の情報を符号化する必要はない。 7 to 12, partial areas of a plurality of screens (a plurality of reference images) can be set as search areas as in FIG. 6. Even in this case, if a rule for selecting a screen to be searched is determined in advance, it is not necessary to encode the information on the screen.
探索領域については、M個(MはNと同じか小さい値)の探索領域を設定し、それぞれ探索する候補テキスチャーの数を予め決めておいてもよい。例えば、M=Nとし、M個の探索領域を異なる画面に設定すれば、複数の参照画像からそれぞれ候補テキスチャー信号を探索できる。この際、SADの閾値などの条件を満たす候補テキスチャー信号が所定の参照画像から探索できない場合には、Nの数を削減しても良いし、代わりの候補テキスチャー信号を探索する参照画像について、優先順位を定めておいてもよい。また、複数の参照画像に含まれる探索領域の集まりを1つの探索領域として設定しても良い。例えば、P枚の参照画像にそれぞれ探索領域を設け、P個の探索領域から、指定領域の画素群と対応する画素群との間の絶対値誤差値の和(SAD)が小さいQ個(Nより小さい正の整数)の類似領域を探索するという設定がM個の探索領域に含まれても良い。なお、複数の参照画像に探索領域を設定する場合には、候補テキスチャー選択部502からテキスチャー取得部503に出力される座標情報に、参照画像が属するフレームを識別する情報(参照画像フレーム番号)が含まれる。
For the search area, M search areas (M is a value equal to or smaller than N) may be set, and the number of candidate textures to be searched for may be determined in advance. For example, if M = N and M search areas are set on different screens, candidate texture signals can be searched from a plurality of reference images, respectively. At this time, if a candidate texture signal that satisfies a condition such as the SAD threshold cannot be searched from a predetermined reference image, the number of N may be reduced, or priority is given to a reference image for searching for an alternative candidate texture signal. You may decide the order. A collection of search areas included in a plurality of reference images may be set as one search area. For example, a search area is provided in each of P reference images, and Q (N) sums of absolute value error values (SAD) between a pixel group of a designated area and a corresponding pixel group are small from P search areas. A setting of searching for a similar area of a smaller positive integer) may be included in the M search areas. In the case where search areas are set for a plurality of reference images, information (reference image frame number) for identifying a frame to which the reference image belongs is included in the coordinate information output from the candidate
次に、画面内予測方法の場合について述べる。図6を用いた説明と同様に、画面401の対象ブロック402についてテキスチャー信号の生成手順を説明する。なお、本実施形態では、図14に示すように4x4ブロック単位で画面内予測処理を行なうため、ここでは、対象ブロック内の4x4画素の領域1402に注目する。
Next, the case of the intra prediction method will be described. Similar to the description using FIG. 6, a texture signal generation procedure for the
図14は、画面内予測方法の場合について、マッチング処理と候補テキスチャー生成処理を説明するための模式図である。領域1402が指定領域を示している。テンプレート信号生成器301は、予測関連情報に与えられる予測方法に従い、対象ブロック402の隣接領域1401の再生済み信号から領域1402の信号を生成する。領域1402の信号は、テンプレート信号として出力される。この際、領域402の左上隅から指定領域1402(テキスチャー領域)の左上隅への変位量と、指定領域(類似領域)及びテキスチャー領域の形状がテキスチャー合成器202に記録されている。
FIG. 14 is a schematic diagram for explaining the matching process and the candidate texture generation process in the case of the intra prediction method. An
テキスチャー生成器302は、対象ブロック402と同じ画面401の再生済み信号を探索領域とする。なお、本実施形態では、探索領域を画面401内の全ての再生済み領域としているが、その一部を探索領域として設定してもよい。テキスチャー生成器302は、ラインL104経由でアクセスし、指定領域1402と同じ形状の画素群をテンプレートマッチングにて複数個取得し、テンプレート信号との間で対応する画素間のSAD値を算出する。そして、テキスチャー生成器302は、SAD値が小さいN−1個の領域1403、1404、1405及び1406をテキスチャー信号の候補として検出する(本実施形態ではNの値は5)。これらN―1個のテキスチャー信号にテンプレート信号1402を加えたN個の信号を合成器303にて重み付け平均化することにより、対象ブロック402の左上1/4の領域1402の予測信号が生成される。この際、対象領域におけるテキスチャー領域の形状は、記録しているテキスチャー領域の形状から分かる。
The
なお、画面内予測方法により生成したテンプレート信号を画面間予測方法に適用することも可能である。この場合、図14に示す例において、既再生の他の画面を探索領域に含める。探索領域、N値及び閾値などの設定方法については説明を省略するが、図6の場合と同じく、符号化するようにしてもよい。 Note that the template signal generated by the intra-screen prediction method can also be applied to the inter-screen prediction method. In this case, in the example shown in FIG. 14, another screen that has already been reproduced is included in the search area. The description of the setting method of the search area, N value, threshold value, etc. is omitted, but may be encoded as in the case of FIG.
本実施形態では、テキスチャー合成器202のテンプレート信号生成器301及びテキスチャー生成器302の設定を変更することにより、図6〜図12及び図14に示したような複数のテキスチャー合成方法に対応しているが、画像予測符号化装置100を他の方法に対応させてもよい。例えば、テンプレート信号生成器301及びテキスチャー生成器302の設定が異なるテキスチャー合成器202を複数用意し、適応的に切り替えて使う方法でもよい。複数のテキスチャー合成方法から1つの方法を選択する手段(例えば、対象ブロックとの誤差が最も小さい方法を選択する手段)を用意し(図示せず)、選択したテキスチャー合成方法をエントロピー符号化器111にて符号化するように画像予測符号化装置100を構成することにより、テキスチャー合成方法の適応化が可能となる。
In the present embodiment, the setting of the
図15は、図2に示すテキスチャー合成器202における対象ブロックのテキスチャー生成方法の手順を示すフローチャートである。まず、テンプレート信号生成器301では、予測関連情報に基づいて指定領域のテンプレート信号が取得される(ステップS302)。
FIG. 15 is a flowchart showing the procedure of the texture generation method for the target block in the
次に、テキスチャー生成器302のマッチング器501により、指定領域及び探索領域にある同じ形状の画素群との絶対値和(SAD値)が求められる(ステップS303)。そして、テキスチャー生成器302の候補テキスチャー選択器502により、SAD値と所定の閾値が比較され(ステップS304)、SAD値が閾値より小さいと判断された場合、ステップS305に進み、そうでないと判断された場合、ステップS306に進む。
Next, the absolute value sum (SAD value) with the pixel group having the same shape in the designated area and the search area is obtained by the
テキスチャー生成器302の候補テキスチャー選択器502では、求めたSAD値と、以前のSAD値とが比較される。そして、求めたSAD値が小さい順でN番までに含まれる場合に、探索した類似領域が類似領域の候補に追加され、類似領域の候補が更新される(ステップS305)。
The
その後、テキスチャー生成器302のマッチング器501により、探索領域が全て探索済みであるか否か確認される(ステップS306)。全て探索済みではないと判断された場合は、ステップS303に戻り、テキスチャー生成器302のマッチング器501により指定領域と探索領域にある同じ形状の別の画素群との絶対値和SADが求められる。
Thereafter, the
全部探索済みとなった時点で、テキスチャー生成器302のテキスチャー取得器503にて複数のテキスチャー信号の候補が取得され、合成器303にて重み付け平均化されることによりテキスチャー信号が生成される(ステップS308)。これで、ひとつの対象ブロックに対する処理が終了する(ステップS309)。
When all the search has been completed, a plurality of texture signal candidates are acquired by the
ステップS305では、SAD値の小さいN個をテキスチャー信号の候補として選択しているが、別の方法でもよい。候補テキスチャー信号の平均化により、統計的に雑音の少ないテキスチャー信号を得るためには、複数のテキスチャー信号の候補は互いに相関が低いほうがよい。つまり、候補信号が多様性を持った方が好ましい場合がある。候補のテキスチャー信号に多様性を持たせる簡単な方法の一つとして、所定の閾値よりSAD値が小さい類似領域の中から、指定領域との空間的位置が遠い順にN個のテキスチャー信号を選択するという方法がある。また、図16のように、候補となる類似領域間の空間的な距離が互いに大きくなるようにN個の領域を選択する方法もある。 In step S305, N small SAD values are selected as texture signal candidates, but another method may be used. In order to obtain a texture signal that is statistically less noisy by averaging the candidate texture signals, the plurality of texture signal candidates should have low correlation with each other. That is, it may be preferable that the candidate signals have diversity. As one simple method for providing diversity to candidate texture signals, N texture signals are selected in order of increasing spatial position with respect to the designated region from among similar regions having SAD values smaller than a predetermined threshold. There is a method. In addition, as shown in FIG. 16, there is a method of selecting N regions so that the spatial distances between candidate similar regions are increased.
図16は、図15に示すステップS305にて、N個の類似領域を選択する一方法の手順を示すフローチャートである。図16で、A[p][i]は、所定の閾値よりSAD値が小さい画素領域のうち、p番目に検索された画素領域について、参照画像上の座標情報を示している。値iには、水平座標を示す0または垂直座標を示す1が設定される。C[k][i]は、ステップS305にてk番目に選択される類似領域の座標を示している。以下、水平座標と垂直座標の区別を必要としない場合には、A[p]及びC[p]と記載する。 FIG. 16 is a flowchart showing the procedure of one method for selecting N similar regions in step S305 shown in FIG. In FIG. 16, A [p] [i] indicates the coordinate information on the reference image for the pixel area searched for the p-th among the pixel areas having the SAD value smaller than the predetermined threshold. The value i is set to 0 indicating horizontal coordinates or 1 indicating vertical coordinates. C [k] [i] indicates the coordinates of the kth similar region selected in step S305. Hereinafter, when it is not necessary to distinguish between the horizontal coordinate and the vertical coordinate, they are denoted as A [p] and C [p].
まず、C[1]にテンプレート生成器にて得られる指定領域の座標が保存され(ステップS502)、これまでに選択した類似領域の数Kが1に設定される。 First, the coordinates of the designated area obtained by the template generator are stored in C [1] (step S502), and the number K of similar areas selected so far is set to 1.
次に、SAD値が所定の閾値より小さい画素領域について、参照画像上での座標A[p]とC[1]とが比較され、その距離差(ベクトルの大きさ)が最も大きいA[m]が選択される(ステップS503)。そして、Kの値がK+1(=2)に更新され、C[K]=A[m]と設定される(ステップS504)。このときA[m]は類似領域に確定したので、m番目に検索されたテキスチャーは、選択対象から削除される。 Next, for a pixel region whose SAD value is smaller than a predetermined threshold, coordinates A [p] and C [1] on the reference image are compared, and A [m having the largest distance difference (vector magnitude). ] Is selected (step S503). Then, the value of K is updated to K + 1 (= 2), and C [K] = A [m] is set (step S504). At this time, since A [m] is determined as the similar region, the mth searched texture is deleted from the selection target.
その後、KとNとが比較され(ステップS505)、KがNより小さいと判断されればステップS503に戻り、K=Nと判断されれば処理を終了する。 Thereafter, K and N are compared (step S505). If it is determined that K is smaller than N, the process returns to step S503, and if it is determined that K = N, the process is terminated.
続いて、ステップS503では、C[1]〜C[K]のそれぞれと残されたA[p]とが比較され、距離差の和が最も大きいA[m]が選択される。この方法によれば、選択された候補類似領域間の距離が保つことが可能となる。 Subsequently, in step S503, each of C [1] to C [K] is compared with the remaining A [p], and A [m] having the largest sum of the distance differences is selected. According to this method, the distance between the selected candidate similar regions can be maintained.
図17は、本実施形態に係る画像予測符号化装置100における画像予測符号化方法の手順を示すフローチャートである。まず、予測関連情報生成器201にて、対象ブロックの画素信号を用いて予測処理が実施され、予測関連情報が生成される(ステップS102)。次に、テキスチャー合成器202が予測関連情報に基づいて複数のテキスチャー信号の候補を生成し、テキスチャー合成処理により対象ブロックの予測信号を生成する(ステップS103)。この際、テキスチャー合成器202は、複数のテキスチャー生成方法にて予測信号を生成し、対象ブロックの信号と対応する画素間の誤差二乗和が最も小さい予測信号を選択してもよい。
FIG. 17 is a flowchart illustrating a procedure of an image predictive encoding method in the image
このように決定された予測信号と対象ブロックの信号との差分を示す残差信号が、変換器106、量子化器107及びエントロピー符号化器111により符号化される(ステップS104)。そして、符号化された残差信号、予測関連情報及びテキスチャー生成方法の選択情報(必要の場合)が出力端子112を介して出力される(ステップS105)。ここで、予測関連情報には、画面間予測方法における動きベクトル及び参照画像フレーム番号、画面内予測方法における予測方法及び画面内予測方法及び画面間予測方法の選択に関する選択情報に加えて、テキスチャー信号の候補の生成及び選択に用いる探索領域(候補テキスチャー信号の探索)、Nの値(候補テキスチャー信号の数)、閾値(候補テキスチャー信号とテンプレート信号との類似性を計る評価値)ならびに重み値(テキスチャー合成時の重み係数)などの各種設定情報が含まれる場合がある。
The residual signal indicating the difference between the prediction signal determined in this way and the signal of the target block is encoded by the
これら処理の後に又はこれらの処理と並行して、後続の対象ブロックを予測符号化するために符号化された残差信号が逆量子化器108及び逆変換器109により復号される。そして、加算器110により、復号された残差信号に予測信号が加算され、対象ブロックの信号が再生され、フレームメモリ104に参照画像として記憶される(ステップS106)。そして、すべての対象ブロックの処理が完了していない場合にはステップS102に戻り、次の対象ブロックに対する処理が行わる。すべての対象ブロックの処理が完了している場合には、処理を終了する(ステップS108)。
After these processes or in parallel with these processes, the residual signal encoded to predictively encode the subsequent target block is decoded by the
次に、本実施形態に係る画像予測復号方法について説明する。図19は、本実施形態に係る画像予測復号装置1900を示すブロック図である。この画像予測復号装置1900は、入力端子1901、データ解析器1902、逆量子化器1903、逆変換器1904、加算器1905、出力端子1906、フレームメモリ1907及びテキスチャー合成器1908を備えている。逆量子化器1903及び逆変換器1904による復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器1904はなくてもよい。
Next, the image predictive decoding method according to this embodiment will be described. FIG. 19 is a block diagram showing an image
入力端子1901は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、画像を複数のブロックに分割された対象ブロックを予測し符号化された残差信号及び予測関連情報が含まれている。ここで予測関連情報には、画面内予測方法における予測方法、画面内予測方法及び画面間予測方法の選択に関する選択情報、画面間予測方法における動きベクトル及び参照画像フレーム番号に加えて、テキスチャー信号の候補の生成及び選択に用いる探索領域(候補テキスチャー信号の探索)、Nの値(候補テキスチャー信号の数)、閾値(候補テキスチャー信号とテンプレート信号との類似性を計る評価値)ならびに重み値(テキスチャー合成時の重み係数)などの各種設定情報が含まれる場合がある。なお、各種設定情報は、方式として予め定められている場合には必要ない。
The
データ解析器1902は、入力端子1901に入力された圧縮データを解析することにより、対象ブロックの残差信号、予測関連情報、各種設定情報(必要の場合)を抽出する。
The
逆量子化器1903は、対象ブロックの残差信号をラインL1902a経由で入力し、逆量子化する。逆変換器1904は、逆量子化したデータを逆離散コサイン変換する。
The
テキスチャー合成器1908は、データ解析器1902からラインL1902b経由で予測補助信号情報を入力する。このテキスチャー合成器1908は、(後述するような方法で)予測関連情報に基づいて、フレームメモリ907から参照画像を取得し、予測信号を生成する。テキスチャー合成器1908は、生成した予測信号をラインL1908経由で加算器1905に出力する。
The
加算器1905は、テキスチャー合成器1908で生成された予測信号を、逆量子化器1903および逆変換器1904により復元された残差信号に加算して、対象ブロックの再生画像信号をラインL1905経由で出力端子1906およびフレームメモリ1907に出力する。出力端子1906は、外部に(例えばディスプレイ)出力する。
The
フレームメモリ1907は、つぎの復号処理のための参照用の再生画像として、加算器1905から出力された再生画像を参照画像として記憶する。
The
次に、テキスチャー合成器1908について説明する。テキスチャー合成器1908の詳細は図20に示されており、基本的に図3に示した構成と同じ構成またはそれに相当する機能をもつ。
Next, the
図20を用いて、本実施形態に係るテキスチャー信号の生成・合成処理について、詳しく説明する。図20は、図19に示すテキスチャー合成器1908のブロック図である。テキスチャー合成器1908は、テンプレート信号生成器2001とテキスチャー生成器2002と合成器2003とを備えている。テンプレート信号生成器2001は、ラインL2001経由で入力される予測関連情報を受け付けるとともに、ラインL1907経由で入力されるフレームメモリ1907からの再生画像信号を受け付ける。テンプレート信号生成器2001は、予測関連情報に基づいて再生画像信号からテンプレート信号を生成し、ラインL2001経由でテキスチャー生成器2002に出力する。テンプレート信号は、画面内予測方法と画面間予測方法についての選択情報及び予測関連情報に従って画面内予測方法あるいは画面間予測方法により生成される。
The texture signal generation / synthesis process according to the present embodiment will be described in detail with reference to FIG. FIG. 20 is a block diagram of the
テキスチャー生成器2002は、ラインL2001経由でテンプレート信号生成器2001から入力されるテンプレート信号を受け付けるとともに、ラインL1907経由でフレームメモリ1907から入力される再生画像信号を受け付ける。テキスチャー生成器2002は、テンプレート信号及び再生画像信号から、符号化装置のテキスチャー生成器302と同様の方法でN個のテキスチャー信号を生成する。生成したN個のテキスチャー信号は、ラインL2002を経由して合成器2003に出力される。合成器2003は、ラインL2002から入力されるN個のテキスチャー信号を受け付ける。合成器2003は、これらN個のテキスチャー信号を符号化装置の合成器303と同じ方法で合成して予測信号を生成し、その予測信号をラインL1908を経由して出力する。
The
合成器2003は、N個の候補テキスチャー信号の入力を受け、重み付け平均化処理により対象ブロックの予測信号を生成する。合成器2003は、重み付け器2004と加算器2005とを備えている。重み付け器2004における重み値は、予め定められている場合もあれば、圧縮データに含まれている場合もある。重み付け器2004は、入力されたN個のテキスチャー信号に対して、決められた重み値をかけ、ラインL2004を経由して加算器2005に出力する。加算器2005は、重み付け処理されたN個のテキスチャー信号を加算し、加算されたテキスチャー信号を予測信号としてラインL1908を経由して出力する。
The
テキスチャー合成器1908は、探索領域(候補テキスチャー信号の探索)、Nの値(候補テキスチャー信号の数)、閾値(候補テキスチャー信号とテンプレート信号との類似性を計る評価値)及び重み値(テキスチャー合成時の重み係数)などの各種設定情報に従ってテキスチャー合成処理を実行する。生成される複数の候補のテキスチャー信号は、画像予測符号化装置で生成される信号と一致させる必要があり、テキスチャー合成により生成れる予測信号も画像予測符号化装置で生成される信号と一致させなければならない。そのために、テキスチャー合成器1908で用いられる各種設定情報は、画像予測符号化装置のテキスチャー合成器202にて用いる情報と完全に一致させておく必要がある。ゆえに、予め定めていない情報については、画像予測符号化装置100から伝送され、画像予測復号装置1900にて復元される。
The
なお、画像予測符号化装置100内の合成器303と同じく画像予測復号装置1900内の合成器2003も図20の構成に限定されない。例えば、重み付けキスチャー信号に対する重み値を整数とし、重み付け処理されたN個のテキスチャー信号を加算した後、加算した信号をN個の重み値の和で除算するように構成しても良い。
Note that the
次に、図21を用いて、図19に示す画像予測復号装置1900における画像予測復号方法を説明する。まず、入力端子1901を介して、圧縮された圧縮データが入力される(ステップS1902)。そして、データ解析器1902において、圧縮データに対しエントロピー復号が行われ、量子化された変換係数、予測関連情報が抽出される(ステップS1903)。ここで抽出された予測関連情報に基づいて、テキスチャー合成器1908にて複数のテキスチャー信号が生成され、生成された複数のテキスチャー信号を合成することによって予測信号が生成される(ステップS1904)。
Next, the image predictive decoding method in the image
一方、量子化された変換係数は、逆量子化器1903において量子化パラメータを用いて逆量子化され、逆変換器1904において逆変換が行われ、再生差分信号が生成される(ステップS1905)。そして、生成された予測信号と再生差分信号とが加算されることで再生信号が生成され、この再生信号が次の対象ブロックを再生するためにフレームメモリ1907に格納される(ステップS1906)。次の圧縮データがある場合には、再度このプロセスを繰り返し(ステップS1907)、全てデータが最後まで処理される(ステップS1908)。なお、必要に応じてステップS1902に戻り、圧縮データを取り込むようにしてもよい。
On the other hand, the quantized transform coefficient is inversely quantized using the quantization parameter in the
本実施形態に係る画像予測符号化方法及び画像予測復号方法を、プログラムとして記録媒体に格納されて提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。 The image predictive encoding method and the image predictive decoding method according to the present embodiment can also be provided as stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory.
図22は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110及びエントロピー符号化モジュールP111を備えている。なお、予測信号生成モジュールP103は、図23に示すように、予測関連情報生成モジュールP201及びテキスチャー合成モジュールP202を備えている。さらに、テキスチャー信号モジュールP202は、図24に示すように、テンプレート信号生成モジュールP301、テキスチャー生成モジュールP302及び合成モジュールP303を備えている。 FIG. 22 is a block diagram illustrating modules of a program that can execute the image predictive coding method. The image predictive coding program P100 includes a block division module P102, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a transformation module P106, a quantization module P107, an inverse quantization module P108, an inverse transformation module P109, and an addition module P110. And an entropy encoding module P111. Note that the prediction signal generation module P103 includes a prediction related information generation module P201 and a texture synthesis module P202 as shown in FIG. Furthermore, as shown in FIG. 24, the texture signal module P202 includes a template signal generation module P301, a texture generation module P302, and a synthesis module P303.
上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の機能と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、予測関連情報生成器201、テキスチャー合成器202、テンプレート信号生成器301、テキスチャー生成器302及び合成器303の機能と同様である。
The functions realized by executing the above modules are the same as the functions of the image
また、図25は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP1900は、データ解析モジュールP1902、逆量子化モジュールP1903、逆変換モジュールP1904、加算モジュールP1905、記憶モジュールP1907及びテキスチャー合成モジュールP1908を備えている。 FIG. 25 is a block diagram illustrating modules of a program that can execute the image predictive decoding method. The image predictive decoding program P1900 includes a data analysis module P1902, an inverse quantization module P1903, an inverse transform module P1904, an addition module P1905, a storage module P1907, and a texture synthesis module P1908.
上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置1900の各構成要素と同じである。すなわち、画像予測復号プログラムP1900の各モジュールの機能は、データ解析器1902、逆量子化器1903、逆変換器1904、加算器1905、フレームメモリ1907及びテキスチャー合成器1908の機能と同様である。
The functions realized by executing the above modules are the same as those of the components of the image
このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP1900は、記録媒体10に記憶され、後述するコンピュータで実行される。
The image predictive encoding program P100 or the image predictive decoding program P1900 configured as described above is stored in the
図26は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図27は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。なお、記録媒体に記憶されたプログラムを実行するものはコンピュータに限定されず、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などでもよい。 FIG. 26 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 27 is a perspective view of the computer for executing a program stored in the recording medium. Note that a program that executes a program stored in a recording medium is not limited to a computer, and may be a DVD player, a set-top box, a mobile phone, or the like that includes a CPU and performs processing and control by software.
図26に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化・復号プログラムによって、本実施形態に係る画像符号化装置または画像復号装置として動作することが可能になる。
As shown in FIG. 26, the
図27に示すように、画像予測符号化プログラム及び画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムもしくは画像復号プログラをメモリ16に格納し、当該画像予測符号化プログラムもしくは画像予測復号プログラムを実行することができる。
As shown in FIG. 27, the image predictive coding program and the image decoding program may be provided via a network as a computer data signal 40 superimposed on a carrier wave. In this case, the
以上説明したように、本実施形態に係る画像予測符号化装置によれば、まず、入力端子101に入力された動画像がブロック分割器102により複数の領域に分割され、分割された複数の領域のうちの処理対象である対象ブロックの対象画素信号に対する予測信号が予測信号生成器103により生成される。そして、その予測信号と対象画素信号との残差信号が減算器105により生成され、その残差信号がエントロピー符号化器111により符号化される。ここで、予測信号は、予測関連情報に基づいて生成される複数のテキスチャー信号を合成器303で加算することで生成される。なお、生成された予測関連情報も残差信号と同様にエントロピー符号化器111により符号化される。このように、複数のテキスチャー信号に基づいて予測信号が生成されるので、予測信号に含まれる雑音を低減することができる。また、これら複数のテキスチャー信号は少ない予測関連情報で効率よく生成することが可能である。したがって、雑音の少ない予測信号を効率よく生成することができる。
As described above, according to the image predictive coding apparatus according to the present embodiment, first, the moving image input to the
また、本実施形態に係る画像予測符号化装置100は、指定領域の形状と対象領域の形状とを(例えば領域406の形状と領域402の形状とを)同じに設定することが可能であるため、より簡易に予測信号を生成することができる。
In addition, the image
また、本実施形態に係る画像予測符号化装置100は、対象領域402を分割し、分割された各小領域(小領域411、421、431及び441)について予測信号を生成し、小領域毎の予測信号を合成することにより対象領域402の予測信号を生成することが可能である。そのため、最終的に生成される対象領域402の予測信号の性能をより高めること、すなわち、より雑音の少ない予測信号を生成することができる。
Further, the image
また、本実施形態に係る画像予測符号化装置100では、候補テキスチャー選択器502が、対象領域の画素信号との差分が最も小さいテンプレート信号をテキスチャー信号の一つとして選択する。すなわち、テンプレート信号がテキスチャー信号に含まれる。したがって、より雑音の少ない予測信号を生成することができる。
In the image
また、本実施形態に係る画像予測符号化装置100では、合成器303がテキスチャー信号に対して重み付け平均化処理を施すので、複数のテキスチャー信号が平均化される。そのため、統計的に誤差が少ない予測信号を生成することができる。
Further, in the image
また、本実施形態に係る画像予測符号化装置100では、予測関連情報が対象領域の空間的な変位量を示す動きベクトルを含む。そのため、対象領域の対象画素信号との相関が高い信号をより容易に導出することができ、予測信号をより簡易に生成することが可能になる。
Further, in the image
本実施形態に係る画像予測復号装置1900では、データ解析器1902が圧縮データから予測関連情報と残差信号とを抽出する。その後、テキスチャー合成器1908が予測関連情報に基づいて予測信号を生成し、逆量子化器1903及び逆変換器1904が残差信号を復元する。そして、加算器1905が予測信号と残差信号とを加算して対象領域の再生画素信号を復元する。ここで、予測信号は、テキスチャー生成器2002が復元された予測関連情報に基づいて生成する複数のテキスチャー信号を合成器2003が重み付け平均化処理を用いて加工することで生成される。このように、複数のテキスチャー信号に基づいて予測信号が生成されるので、予測信号に含まれる雑音を低減することができる。また、これら複数のテキスチャー信号は、少ない予測関連情報で効率よく生成することが可能である。したがって、雑音の少ない予測信号を効率よく生成することができる。
In the image
また、本実施形態に係る画像予測復号装置1900は、指定領域の形状と対象領域の形状とを同じに設定することが可能であるため、より簡易に予測信号を生成することができる。
Further, the image
また、本実施形態に係る画像予測復号装置1900では、対象領域を分割し、分割された各小領域について予測信号を生成し、小領域毎の予測信号を合成することにより対象領域の予測信号を生成することが可能である。そのため、最終的に生成される対象領域の予測信号の性能をより高めること、すなわち、より雑音の少ない予測信号を生成することができる。
Also, the image
また、本実施形態に係る画像予測復号装置1900では、テキスチャー生成器2002が、対象領域の画素信号との差分が最も小さいテンプレート信号を含むテキスチャー信号を生成することが可能であるので、より雑音の少ない予測信号を生成することができる。
Further, in the image
また、本実施形態に係る画像予測復号装置1900では、合成器2003が、テキスチャー信号に対して重み付け平均化処理を施し、その処理をされたテキスチャー信号を加算することで予測信号を生成する。このように、予測信号を生成する際にテキスチャー信号が平均化されるので、統計的に誤差が少ない予測信号を生成することができる。
Further, in the image
また、本実施形態に係る画像予測復号装置1900では、データ解析器1902が、対象領域の空間的な変位量を示す動きベクトルを含む予測関連情報を抽出することが可能である。そのため、対象領域の対象画素信号との相関が高い信号をより容易に導出することができ、予測信号をより簡易に生成することが可能になる。
In the image
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.
100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、201…予測関連情報生成器、202…テキスチャー合成器、301…テンプレート信号生成器、302…テキスチャー生成器、303…合成器、1900…画像予測復号装置、1901…入力端子、1902…データ解析器、1903…逆量子化器、1904…逆変換器、1905…加算器、1906…出力端子、1907…フレームメモリ、1908…テキスチャー合成器、2001…テンプレート信号生成器、2002…テキスチャー生成器、2003…合成器。
DESCRIPTION OF
Claims (18)
前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成手段と、
前記予測関連情報生成手段により生成された予測関連情報に基づいて前記対象領域の予測信号を生成するテキスチャー合成手段とを有し、
前記テキスチャー合成手段は、前記予測関連情報に基づいて定められる指定領域のテンプレート信号を前記既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、
前記符号化手段は、前記予測関連情報生成手段により生成された予測関連情報を符号化することを特徴とする画像予測符号化装置。 Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generating unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Prediction related information generating means for generating, as prediction related information, a method of generating a signal having a high correlation with the target pixel signal of the target region from the already reproduced signal;
Texture synthesis means for generating a prediction signal of the target region based on the prediction related information generated by the prediction related information generation means,
The texture synthesizing unit generates a template signal of a designated area determined based on the prediction related information from the already reproduced signal, and searches a plurality of similar areas having a high correlation with the designated area from previously reproduced images. , Generating a plurality of texture signals for the target region based on the plurality of similar regions, and generating a prediction signal by processing the plurality of texture signals using a predetermined texture synthesis method,
The image encoding / encoding device, wherein the encoding unit encodes the prediction related information generated by the prediction related information generation unit.
前記データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、を備え、
前記予測信号生成手段は、前記データ解析手段により抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。 A data analysis means for extracting encoded data of prediction related information and encoded data of residual signal related to a target area to be processed from compressed data;
Residual signal restoration means for restoring a reproduction residual signal from encoded data of the residual signal extracted by the data analysis means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Image restoration means for restoring the pixel signal of the target area by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means,
The prediction signal generation means restores prediction related information from the encoded data of the prediction related information extracted by the data analysis means, and generates a template signal in a designated area determined based on the restored prediction related information A plurality of similar regions having a high correlation with the designated region are searched from previously reproduced images, a plurality of texture signals for the target region are generated based on the plurality of similar regions, and the plurality of textures An image predictive decoding apparatus that generates a prediction signal by processing a signal using a predetermined texture synthesis method.
前記画像予測符号化装置が、前記領域分割ステップにおいて分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記画像予測符号化装置が、前記予測信号生成ステップにおいて生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記画像予測符号化装置が、前記残差信号生成ステップにおいて生成された残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、
前記対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成ステップと、
前記予測関連情報生成ステップにおいて生成された予測関連情報に基づいて前記対象領域の予測信号を生成するテキスチャー合成ステップとを有し、
前記テキスチャー合成ステップは、前記予測関連情報に基づいて定められる指定領域のテンプレート信号を前記既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、
前記符号化ステップは、前記予測関連情報生成ステップにおいて生成された予測関連情報を符号化することを特徴とする画像予測符号化方法。 A region dividing step in which the image predictive encoding device divides the input image into a plurality of regions;
A prediction signal generating step in which the image predictive coding device generates a prediction signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided in the region dividing step;
The image predictive coding apparatus generates a residual signal between the prediction signal generated in the prediction signal generation step and the target pixel signal; and
The image predictive coding apparatus comprises: an encoding step for encoding the residual signal generated in the residual signal generating step;
The predicted signal generation step includes:
A prediction related information generating step for generating, as prediction related information, a method of generating a signal having a high correlation with the target pixel signal of the target region from the already reproduced signal;
A texture synthesis step of generating a prediction signal of the target region based on the prediction related information generated in the prediction related information generation step,
The texture synthesis step generates a template signal of a designated area determined based on the prediction-related information from the already reproduced signal, and searches a plurality of similar areas having a high correlation with the designated area from a previously reproduced image. , Generating a plurality of texture signals for the target region based on the plurality of similar regions, and generating a prediction signal by processing the plurality of texture signals using a predetermined texture synthesis method,
The encoding step encodes the prediction related information generated in the prediction related information generation step.
前記画像予測復号装置が、前記データ解析ステップにおいて抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、
前記画像予測復号装置が、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記画像予測復号装置が、前記予測信号生成ステップにおいて生成された予測信号と前記残差信号復元ステップにおいて復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元ステップと、を備え、
前記予測信号生成ステップは、前記データ解析ステップにおいて抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号方法。 A data analysis step in which the image predictive decoding apparatus extracts encoded data of prediction related information and encoded data of a residual signal regarding the target region to be processed from the compressed data;
The image predictive decoding apparatus, a residual signal restoration step for restoring a reproduction residual signal from encoded data of the residual signal extracted in the data analysis step;
A prediction signal generation step in which the image predictive decoding device generates a prediction signal for a target pixel signal in the target region;
Image in which the image predictive decoding apparatus restores the pixel signal of the target area by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step A restoration step, and
The prediction signal generation step restores prediction related information from the encoded data of the prediction related information extracted in the data analysis step, and generates a template signal of a designated area determined based on the restored prediction related information A plurality of similar regions having a high correlation with the designated region are searched from previously reproduced images, a plurality of texture signals for the target region are generated based on the plurality of similar regions, and the plurality of textures An image predictive decoding method, wherein a prediction signal is generated by processing a signal using a predetermined texture synthesis method.
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された残差信号を符号化する符号化手段と、して機能させ、
前記予測信号生成手段は、
前記対象領域の対象画素信号との相関が高い信号を既再生信号から生成する方法を予測関連情報として生成する予測関連情報生成手段と、
前記予測関連情報生成手段により生成された予測関連情報に基づいて前記対象領域の予測信号を生成するテキスチャー合成手段とを有し、
前記テキスチャー合成手段は、前記予測関連情報に基づいて定められる指定領域のテンプレート信号を前記既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成し、
前記符号化手段は、前記予測関連情報生成手段により生成された予測関連情報を符号化することを特徴とする画像予測符号化プログラム。 Computer
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generating unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Function as encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Prediction related information generating means for generating, as prediction related information, a method of generating a signal having a high correlation with the target pixel signal of the target region from the already reproduced signal;
Texture synthesis means for generating a prediction signal of the target region based on the prediction related information generated by the prediction related information generation means,
The texture synthesizing unit generates a template signal of a designated area determined based on the prediction related information from the already reproduced signal, and searches a plurality of similar areas having a high correlation with the designated area from previously reproduced images. , Generating a plurality of texture signals for the target region based on the plurality of similar regions, and generating a prediction signal by processing the plurality of texture signals using a predetermined texture synthesis method,
The image predictive encoding program, wherein the encoding means encodes the prediction related information generated by the prediction related information generation means.
圧縮データの中から処理対象である対象領域に関する予測関連情報の符号化データと残差信号の符号化データとを抽出するデータ解析手段と、
前記データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、して機能させ、
前記予測信号生成手段は、前記データ解析手段により抽出された予測関連情報の符号化データから予測関連情報を復元し、復元された予測関連情報に基づいて定められる指定領域のテンプレート信号を既再生信号から生成し、前記指定領域と相関の高い複数の類似領域を予め定めた既再生画像から探索し、該複数の類似領域に基づいて前記対象領域に対する複数のテキスチャー信号を生成し、該複数のテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号プログラム。 Computer
A data analysis means for extracting encoded data of prediction related information and encoded data of residual signal related to a target area to be processed from compressed data;
Residual signal restoration means for restoring a reproduction residual signal from encoded data of the residual signal extracted by the data analysis means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Function as image restoration means for restoring the pixel signal of the target area by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means Let
The prediction signal generation means restores prediction related information from the encoded data of the prediction related information extracted by the data analysis means, and generates a template signal in a designated area determined based on the restored prediction related information A plurality of similar regions having a high correlation with the designated region are searched from previously reproduced images, a plurality of texture signals for the target region are generated based on the plurality of similar regions, and the plurality of textures An image predictive decoding program that generates a prediction signal by processing a signal using a predetermined texture synthesis method.
Priority Applications (18)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006271984A JP4994767B2 (en) | 2006-10-03 | 2006-10-03 | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program |
US12/298,854 US8326063B2 (en) | 2006-04-28 | 2007-04-23 | Method, apparatus and program for efficient generation of prediction signals |
EP11188239A EP2453657A1 (en) | 2006-04-28 | 2007-04-23 | Image predictive decoding device |
BRPI0711053-7A BRPI0711053A2 (en) | 2006-04-28 | 2007-04-23 | predictive image coding apparatus, predictive image coding method, predictive image coding program, predictive image decoding apparatus, predictive image decoding method and predictive image decoding program |
KR1020087028969A KR20090008418A (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
EP07742158A EP2023639A4 (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
EP12189415.8A EP2595381B1 (en) | 2006-04-28 | 2007-04-23 | Image predictive decoding device |
AU2007244443A AU2007244443A1 (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
CN201410049846.4A CN103747263B (en) | 2006-04-28 | 2007-04-23 | Image prediction encoding device and method and image prediction/decoding device and method |
KR1020107015343A KR20100085199A (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
RU2008146977/09A RU2008146977A (en) | 2006-04-28 | 2007-04-23 | DEVICE picture prediction encoding, process for predictive coding images, software picture prediction encoding, the device is projected image decoding, image decoding predicts METHOD AND PROGRAM predicts image decoding |
CN200780015355.6A CN101433094B (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
PCT/JP2007/058723 WO2007125856A1 (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
CA002656123A CA2656123A1 (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
KR1020127031974A KR20130006537A (en) | 2006-04-28 | 2007-04-23 | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
EP11155017A EP2323405A1 (en) | 2006-04-28 | 2007-04-23 | Image predictive coding and decoding device, method and program |
RU2011101870/07A RU2011101870A (en) | 2006-04-28 | 2011-01-19 | DEVICE picture prediction encoding, process for predictive coding images, software picture prediction encoding, the device picture prediction encoding, decoding an image is projected METHOD AND PROGRAM predicts image decoding |
US13/611,928 US8634670B2 (en) | 2006-04-28 | 2012-09-12 | Method, apparatus and program for efficient generation of prediction signals |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006271984A JP4994767B2 (en) | 2006-10-03 | 2006-10-03 | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008092352A JP2008092352A (en) | 2008-04-17 |
JP4994767B2 true JP4994767B2 (en) | 2012-08-08 |
Family
ID=39376000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006271984A Active JP4994767B2 (en) | 2006-04-28 | 2006-10-03 | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4994767B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5406465B2 (en) * | 2008-04-24 | 2014-02-05 | 株式会社Nttドコモ | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program |
JP5401071B2 (en) * | 2008-10-09 | 2014-01-29 | 株式会社Nttドコモ | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, moving picture decoding program, moving picture processing system, and moving picture processing method |
WO2011071514A2 (en) * | 2009-12-08 | 2011-06-16 | Thomson Licensing | Methods and apparatus for adaptive residual updating of template matching prediction for video encoding and decoding |
JP5304708B2 (en) * | 2010-03-31 | 2013-10-02 | 株式会社Jvcケンウッド | Moving picture coding apparatus, moving picture coding method, and moving picture coding program |
JP5304709B2 (en) * | 2010-03-31 | 2013-10-02 | 株式会社Jvcケンウッド | Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program |
CN102823251B (en) * | 2010-03-31 | 2015-08-12 | Jvc建伍株式会社 | Moving image encoding device, moving picture encoding method and motion video coded program and moving image decoding device, moving picture decoding method and moving image decoding program |
WO2011155171A1 (en) * | 2010-06-09 | 2011-12-15 | 株式会社Jvcケンウッド | Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program |
JP2011259230A (en) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | Moving image decoder, moving image decoding method and moving image decoding program |
JP2011259229A (en) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | Moving image encoder, moving image encoding method and moving image encoding program |
WO2012090425A1 (en) * | 2010-12-27 | 2012-07-05 | 株式会社Jvcケンウッド | Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program |
US9800641B2 (en) * | 2015-05-04 | 2017-10-24 | Google Inc. | Pre-fetched encoding for application streaming |
EP4179728A4 (en) * | 2021-06-23 | 2023-12-27 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for image prediction |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1175193A (en) * | 1997-07-04 | 1999-03-16 | Matsushita Electric Ind Co Ltd | Image prediction decoding method, image prediction decoder, image prediction coder and data storage medium |
US6289052B1 (en) * | 1999-06-07 | 2001-09-11 | Lucent Technologies Inc. | Methods and apparatus for motion estimation using causal templates |
BRPI0413988A (en) * | 2003-08-26 | 2006-11-07 | Thomson Licensing | method and apparatus for decoding hybrid intra-inter encoder blocks |
JP2007043651A (en) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
-
2006
- 2006-10-03 JP JP2006271984A patent/JP4994767B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008092352A (en) | 2008-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4994767B2 (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
EP2595381B1 (en) | Image predictive decoding device | |
JP5406465B2 (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
JP6559309B2 (en) | Image predictive decoding method | |
JP5686499B2 (en) | Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method | |
JP5485969B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program | |
US20100195722A1 (en) | Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program | |
JP2007300380A (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
KR20100019537A (en) | Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program | |
JP5415495B2 (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
JP5922281B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method | |
JP6134418B2 (en) | Moving picture predictive decoding apparatus and moving picture predictive decoding method | |
JP5668169B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program | |
JP5736083B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program | |
JP5642305B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program | |
AU2011250781A1 (en) | Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120509 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4994767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |