JP2011229189A - Image prediction encoder, image prediction encoding method, image prediction encoding program, image prediction decoder, image prediction decoding method and image prediction decoding program - Google Patents

Image prediction encoder, image prediction encoding method, image prediction encoding program, image prediction decoder, image prediction decoding method and image prediction decoding program Download PDF

Info

Publication number
JP2011229189A
JP2011229189A JP2011177615A JP2011177615A JP2011229189A JP 2011229189 A JP2011229189 A JP 2011229189A JP 2011177615 A JP2011177615 A JP 2011177615A JP 2011177615 A JP2011177615 A JP 2011177615A JP 2011229189 A JP2011229189 A JP 2011229189A
Authority
JP
Japan
Prior art keywords
signal
texture
prediction
target
prediction signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011177615A
Other languages
Japanese (ja)
Other versions
JP5415495B2 (en
Inventor
Chunsen Bun
チュンセン ブン
Yoshinori Suzuki
芳典 鈴木
Tio Ken Tang
ティオ ケン タン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011177615A priority Critical patent/JP5415495B2/en
Publication of JP2011229189A publication Critical patent/JP2011229189A/en
Application granted granted Critical
Publication of JP5415495B2 publication Critical patent/JP5415495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem that prediction accuracy to pixels far from the boundary of object blocks is deteriorated and an image signal having a complicated picture can not be efficiently predicted when an in-screen prediction signal is generated by an extrapolation method which is used for the conventional technology.SOLUTION: A block divider 102 divides an input image into a plurality of areas. A prediction signal generator 103 generates a prediction signal using a texture synthesis method for generating the prediction signal to a pixel signal included in an object area to be a processing object among the areas to form a texture signal of the object area. A subtractor 105 calculates a residual signal between the pixel signal and the prediction signal of the object area, a converter 106 and a quantizer 107 encode the residual signal to generate a compression signal.

Description

本発明は、画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するもので、とりわけ、テキスチャー合成方法を用いて予測符号化および復号する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。   The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program, and in particular, a predictive code using a texture synthesis method. The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program.

静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG1〜4やITU(InternationalTelecommunication Union)H.261〜H.264の方式が広く用いられている。   In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG1-4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.

これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。MPEG4やH.264においては、符号化効率をさらに高めるため、画面内の予測符号化については、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、それを対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化については、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、それを対象ブロックの信号から引き算した差分信号を符号化する。   In these encoding methods, encoding / decoding processing is performed after an image to be encoded is divided into a plurality of blocks. MPEG4 and H.264 In H.264, in order to further increase the coding efficiency, adjacent pre-reproduced image signals (reconstructed compressed image data) in the same screen as the target block are used for predictive coding in the screen. After generating the prediction signal, the difference signal obtained by subtracting the prediction signal from the signal of the target block is encoded. For predictive coding between screens, refer to adjacent previously reproduced image signals in a screen different from the target block, perform motion correction, generate a prediction signal, and subtract it from the signal of the target block Encode the signal.

具体的には、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図8は、ITUH.264に用いられる画面内予測方法を説明するための模式図である。図8(A)において、対象ブロック702は符号化の対象となるブロックであり、その対象ブロック702の境界に隣接する画素A〜Mからなる画素群701は隣接領域であり、過去の処理において既に再生された画像信号である。   Specifically, H.C. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 8 shows ITUH. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 8A, a target block 702 is a block to be encoded, and a pixel group 701 composed of pixels A to M adjacent to the boundary of the target block 702 is an adjacent region, and has already been obtained in past processing. It is the reproduced image signal.

この場合、対象ブロック702の真上にある隣接画素である画素群701を下方に引き伸ばして予測信号を生成する。また図8(B)では、対象ブロック704の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。予測信号を生成する具体的な方法はたとえば特許文献1に記載されている。このように図8(A)から(I)に示す方法で生成された9つの予測信号のそれぞれを対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。   In this case, a prediction signal is generated by extending the pixel group 701 that is an adjacent pixel directly above the target block 702 downward. In FIG. 8B, the already reproduced pixels (I to L) on the left of the target block 704 are extended to the right to generate a prediction signal. A specific method for generating a prediction signal is described in Patent Document 1, for example. Thus, the difference between each of the nine prediction signals generated by the method shown in FIGS. 8A to 8I and the pixel signal of the target block is taken, and the one with the smallest difference value is set as the optimum prediction signal. . As described above, a prediction signal can be generated by extrapolating pixels. The above contents are described in Patent Document 1 below.

米国特許公報第6765964号US Pat. No. 6,765,964

しかし、従来技術に用いられる外挿による予測信号の生成方法で画面内予測信号を生成した場合、対象ブロックの境界から遠く離れる画素に対する予測精度が低下してしまう問題がある。また、図8に示す幾何学的な方向で画素値を引き伸ばす方法は、複雑なテキスチャー信号(絵柄)をもつ画像信号を効率よく予測することができない問題がある。さらに、図8に示すように隣接する画素群(例えば701、703,705…)は復号された画素値であり、符号化による歪(例えば量子化雑音)が含まれているため、それらに基づいて予測信号を生成すると、予測信号の中にも符号化歪を含むことなる。   However, when the intra prediction signal is generated by the extrapolation prediction signal generation method used in the prior art, there is a problem that the prediction accuracy for pixels far away from the boundary of the target block is lowered. Further, the method of extending the pixel value in the geometric direction shown in FIG. 8 has a problem that an image signal having a complicated texture signal (picture) cannot be predicted efficiently. Further, as shown in FIG. 8, adjacent pixel groups (for example, 701, 703, 705...) Are decoded pixel values, and include distortion due to encoding (for example, quantization noise). When the prediction signal is generated in this manner, the prediction signal also includes coding distortion.

そこで、上述の課題を解決するために、本発明は対象ブロックの境界から遠く離れる画素に対する予測精度を高めると同時に、複雑なテキスチャー信号(絵柄)をもつ画像に対する予測信号を効率よく生成することができる画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。   Therefore, in order to solve the above-described problem, the present invention improves the prediction accuracy for pixels far from the boundary of the target block, and at the same time efficiently generates a prediction signal for an image having a complex texture signal (picture). An object is to provide a predictive image encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program.

上述の課題を解決するために、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、上記領域分割手段により分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、上記予測信号生成手段により生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成手段と、上記残差信号生成手段により生成された上記残差信号を符号化して圧縮データを生成する符号化手段と、を備え、上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。   In order to solve the above-described problem, an image predictive coding apparatus according to the present invention includes an area dividing unit that divides an input image into a plurality of areas, and a processing target of the plurality of areas divided by the area dividing unit. Prediction signal generation means for generating a prediction signal for the target pixel signal in the target area, and residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal; Encoding means for encoding the residual signal generated by the residual signal generating means to generate compressed data, wherein the prediction signal generating means is a previously reproduced pixel adjacent to the target pixel signal. A texture signal is generated based on an adjacent region composed of signals, and a prediction signal is generated by processing the generated texture signal using a predetermined texture synthesis method. And wherein the door.

この発明によれば、入力画像を複数の領域に分割し、分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と上記対象画素信号との残差信号を生成し、生成された上記残差信号を符号化して圧縮データを生成することができる。ここで、この発明では、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the input image is divided into a plurality of regions, a prediction signal for the target pixel signal of the target region that is the processing target among the plurality of divided regions is generated, and the generated prediction signal and the above-described A residual signal with the target pixel signal can be generated, and the generated residual signal can be encoded to generate compressed data. Here, in the present invention, a texture signal is generated based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and the generated texture signal is predicted by processing using a predetermined texture synthesis method. A signal can be generated. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target region, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention generates a plurality of texture signals having a high correlation with the adjacent region based on the adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal. It is preferable to generate the prediction signal by generating and processing the plurality of generated texture signals using a predetermined synthesis method.

この発明によれば、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域と当該対象領域に接する隣接領域との相関が高い性質を利用することができ、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal, a plurality of texture signals having a high correlation with the adjacent area are generated, and the generated plurality of texture signals are determined in advance. The prediction signal can be generated by processing using the synthesis method. As a result, it is possible to use the property that the correlation between the target area and the adjacent area in contact with the target area is high, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target area, and even when the texture signal is complex A prediction signal can be generated efficiently.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention is based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal, and correlates with each of the plurality of adjacent regions. It is preferable to generate a prediction signal by generating a plurality of high texture signals and processing the generated plurality of texture signals using a predetermined synthesis method.

この発明によれば、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域と当該対象領域に接する隣接領域との相関が高い性質を利用することができ、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal, a plurality of texture signals that are highly correlated with each of the plurality of adjacent regions are generated, The prediction signal can be generated by processing the texture signal using a predetermined synthesis method. As a result, it is possible to use the property that the correlation between the target area and the adjacent area in contact with the target area is high, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target area, A prediction signal can be generated efficiently.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、さらに、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記テキスチャー信号および上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention further generates an extrapolated texture signal by forming pixels by repeating already reproduced pixel values adjacent to the target pixel signal, It is preferable to generate the prediction signal by combining the texture signal and the extrapolation texture signal using a predetermined combining method.

この発明によれば、対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、テキスチャー信号および外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the extrapolated texture signal is generated by repeating the already reproduced pixel value adjacent to the target pixel signal to form a pixel, and the texture signal and the extrapolated texture signal are used in a predetermined synthesis method. A prediction signal can be generated by combining. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target region, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention is a pre-reproduced image in which a predictive adjacent region having a high correlation with an adjacent region composed of pre-reproduced pixel signals adjacent to the target pixel signal is determined in advance. It is preferable to search from the search area, and to use the image area determined based on the searched predicted adjacent area as the texture signal.

この発明によれば、対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることができる。これにより、対象領域と当該対象領域に隣接する隣接領域との相関が高い性質を利用して、既再生の画像領域から隣接領域に対し誤差の最も少ない領域を予測隣接領域として検出し、その予測隣接領域に隣接すると同時に対象領域に対応する画素群を対象領域のテキスチャー信号とすることで、テキスチャーが複雑な場合でも隣接領域と同じ絵柄の予測信号を生成することができ、また対象領域の境界から離れていても同じ絵柄のテキスチャー信号を生成することができる。   According to the present invention, a predicted adjacent area having a high correlation with respect to an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal is searched from a search area that is a previously reproduced image, and the searched predicted adjacent area is searched for. An image area determined based on the area can be used as a texture signal. As a result, by utilizing the property that the correlation between the target area and the adjacent area adjacent to the target area is high, the area having the least error from the already reproduced image area to the adjacent area is detected as the predicted adjacent area. By making the pixel group that is adjacent to the adjacent area and corresponding to the target area as the texture signal of the target area, even if the texture is complicated, a prediction signal having the same pattern as the adjacent area can be generated, and the boundary of the target area A texture signal having the same pattern can be generated even if the user is away from the station.

また、本発明の画像予測符号化装置における上記符号化手段は、上記テキスチャー合成方法を示す関連情報を符号化し、上記符号化手段により符号化された符号化信号とともに、符号化された上記関連情報を送出する送出手段を備えることが好ましい。   The encoding means in the image predictive encoding apparatus of the present invention encodes related information indicating the texture synthesis method, and the encoded related information together with the encoded signal encoded by the encoding means. It is preferable to include a sending means for sending the.

この発明によれば、テキスチャー合成方法を示す関連情報を符号化し、符号化された符号化信号とともに、符号化された関連情報を送出することができる。これにより、画像のテキスチャー合成方法を受信側に知らせることができ、受信側ではこの知らされたテキスチャー合成方法を用いて予測信号を生成することができるため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, related information indicating the texture synthesis method can be encoded, and the encoded related information can be transmitted together with the encoded signal. As a result, the image texture synthesis method can be notified to the reception side, and the reception side can generate a prediction signal using the informed texture synthesis method, so that prediction for pixels far away from the boundary of the target region can be performed. A decrease in accuracy can be prevented, and a prediction signal can be efficiently generated even when the texture signal is complicated.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、上記対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention synthesizes the plurality of texture signals for the target pixel signal by performing weighted average processing using a predetermined weighting coefficient, It is preferable to generate a prediction signal.

この発明によれば、対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することができる。これにより生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。   According to the present invention, a prediction signal can be generated by combining a plurality of texture signals for a target pixel signal by performing a weighted average process using a predetermined weighting coefficient. By synthesizing (averaging) the texture signals thus generated, there is an effect that a prediction signal with a small statistical error can be generated.

さらに、隣接領域に基づいて既再生の画像領域との間における差分値が大きな差がない場合における不確定性の課題は、例えば、テンプレートマッチングによって相関の高くなるよう生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。また、本発明によれば、複数のテキスチャー信号に対して重み付け平均処理を行うことによって、それぞれのテキスチャーに含まれる符号化歪を抑える効果があり、誤差の少ない予測信号を生成することができる。   Furthermore, the problem of uncertainty when there is no large difference between the image areas already reproduced based on adjacent areas is, for example, synthesis of texture signals generated so as to have high correlation by template matching ( By averaging), there is an effect that a prediction signal with a small statistical error can be generated. Further, according to the present invention, by performing weighted average processing on a plurality of texture signals, there is an effect of suppressing coding distortion included in each texture, and a prediction signal with few errors can be generated.

また、本発明の画像予測符号化装置における上記予測信号生成手段は、対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、それぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive coding apparatus of the present invention is configured to make an adjacency composed of already reproduced pixel signals adjacent to the target pixel signal from the first search area within the same screen as the target pixel signal. Based on the region, at least one texture signal having a high correlation with the adjacent region is generated, and the already-reproduced pixel adjacent to the target pixel signal from the second search region that is a different screen from the first search region Generate at least one texture signal highly correlated with the adjacent region based on the adjacent region consisting of the signals, and generate a prediction signal by synthesizing each generated texture signal using a predetermined texture synthesis method It is preferable to do.

この発明によれば、対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、それぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the first search area within the same screen as the target pixel signal has a high correlation with the adjacent area based on the adjacent area including the already reproduced pixel signal adjacent to the target pixel signal. Generate at least one texture signal, and based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a second search area that is a different screen from the first search area, the adjacent area Can generate a prediction signal by generating at least one texture signal having a high correlation with each other and synthesizing the generated texture signals using a predetermined texture synthesis method. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target region, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、上記領域分割手段により分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、上記予測信号生成手段により生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成手段と、上記残差信号生成手段により生成された上記残差信号を符号化して圧縮信号を生成する符号化手段と、を備え、上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする。   The image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing unit. A prediction signal generation unit that generates a prediction signal for the signal, a residual signal generation unit that generates a residual signal between the prediction signal generated by the prediction signal generation unit and the target pixel signal, and the residual signal generation unit Encoding means for encoding the residual signal generated in step (b) to generate a compressed signal, wherein the prediction signal generation means forms a pixel by repeating the already reproduced pixel values adjacent to the target pixel signal. Generating an extrapolated texture signal and synthesizing the extrapolated texture signal using a predetermined synthesis method to generate a prediction signal.

この発明によれば、入力画像を複数の領域に分割し、分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と上記対象画素信号との残差信号を生成し、生成された上記残差信号を符号化して圧縮信号を生成することができる。さらに、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the input image is divided into a plurality of regions, a prediction signal for the target pixel signal of the target region that is the processing target among the plurality of divided regions is generated, and the generated prediction signal and the above-described A residual signal with the target pixel signal is generated, and the generated residual signal can be encoded to generate a compressed signal. Further, an extrapolated texture signal is generated by repeating the previously reproduced pixel values adjacent to the target pixel signal to form a pixel, and the extrapolated texture signal is synthesized by using a predetermined synthesis method. A signal can be generated. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target region, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元手段と、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、上記予測信号生成手段により生成された予測信号と上記残差信号復元手段により復元された再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元手段と、を備え、上記予測信号生成手段は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする。   The image predictive decoding apparatus according to the present invention also includes a residual signal restoring unit that extracts a residual signal related to a target region to be processed from compressed data and restores the residual signal to a reproduced residual signal, and a target pixel of the target region. A prediction signal generation means for generating a prediction signal for the signal, and a prediction signal generated by the prediction signal generation means and a reproduction residual signal restored by the residual signal restoration means, An image restoration means for restoring a pixel signal, wherein the prediction signal generation means generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and the generated texture signal is stored in advance. A prediction signal is generated by processing using a predetermined synthesis method.

この発明によれば、圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元し、上記対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と上記残差信号復元手段により復元された再生残差信号とを加算することによって、上記対象領域の画素信号を復元し、復元された画素信号を参照画像として記憶することができる。そして、記憶されている、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。   According to the present invention, a residual signal related to a target region to be processed is extracted from the compressed data, restored to a reproduction residual signal, and a prediction signal for the target pixel signal of the target region is generated and generated. By adding the prediction signal and the reproduction residual signal restored by the residual signal restoration means, the pixel signal of the target area can be restored, and the restored pixel signal can be stored as a reference image. Then, a prediction signal is generated by generating a texture signal based on a stored adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processing the generated texture signal using a predetermined synthesis method Can be generated.

また、本発明の画像予測復号装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive decoding apparatus of the present invention generates a plurality of texture signals having high correlation with the adjacent region based on the adjacent region composed of the already reproduced pixel signals adjacent to the target pixel signal. Then, it is preferable to generate the prediction signal by processing the generated plurality of texture signals using a predetermined synthesis method.

この発明によれば、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域と当該対象領域に接する隣接領域との相関が高い性質を利用することができ、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal, a plurality of texture signals having a high correlation with the adjacent area are generated, and the generated plurality of texture signals are determined in advance. The prediction signal can be generated by processing using the synthesis method. As a result, it is possible to use the property that the correlation between the target area and the adjacent area in contact with the target area is high, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target area, A prediction signal can be generated efficiently.

また、本発明の画像予測復号装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive decoding device of the present invention has a high correlation with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. It is preferable to generate a prediction signal by generating a plurality of texture signals and processing the generated plurality of texture signals using a predetermined synthesis method.

この発明によれば、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。   According to the present invention, based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal, a plurality of texture signals that are highly correlated with each of the plurality of adjacent regions are generated, The prediction signal can be generated by processing the texture signal using a predetermined synthesis method.

これにより、対象領域と当該対象領域に接する隣接領域との相関が高い性質を利用することができ、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   As a result, it is possible to use the property that the correlation between the target area and the adjacent area in contact with the target area is high, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target area, A prediction signal can be generated efficiently.

また、本発明の画像予測復号装置における上記予測信号生成手段は、さらに、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記テキスチャー信号および上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive decoding apparatus of the present invention further generates an extrapolated texture signal by repeating the already reproduced pixel values adjacent to the target pixel signal to form a pixel, and the texture It is preferable to generate the prediction signal by combining the signal and the extrapolation texture signal using a predetermined combining method.

この発明によれば、対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、テキスチャー信号および外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the extrapolated texture signal is generated by repeating the already reproduced pixel value adjacent to the target pixel signal to form a pixel, and the texture signal and the extrapolated texture signal are used in a predetermined synthesis method. A prediction signal can be generated by combining. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target region, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

また、本発明の画像予測復号装置における上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることが好ましい。   Further, the prediction signal generation means in the image predictive decoding apparatus of the present invention is a pre-reproduced image in which a prediction adjacent region having a high correlation with respect to an adjacent region composed of pre-reproduced pixel signals adjacent to the target pixel signal is determined in advance. It is preferable to search from a certain search area and use an image area defined based on the searched predicted adjacent area as a texture signal.

この発明によれば、対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることができる。これにより、対象領域とそれに接する隣接領域との相関が高い性質を利用して、既再生の画像領域から対象隣接領域に対し誤差の最も少ない領域を予測隣接領域として検出し、その予測隣接領域に隣接すると同時に対象領域に対応する画素群を対象領域のテキスチャー信号とすることで、テキスチャーが複雑な場合でも対象隣接領域と同じ絵柄の予測信号を生成することができ、また対象領域の境界から離れていても同じ絵柄のテキスチャー信号を生成することができる。   According to the present invention, a predicted adjacent area having a high correlation with respect to an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal is searched from a search area that is a previously reproduced image, and the searched predicted adjacent area is searched for. An image area determined based on the area can be used as a texture signal. As a result, by utilizing the property that the correlation between the target region and the adjacent region adjacent to the target region is high, the region having the least error relative to the target adjacent region is detected as a predicted adjacent region from the already reproduced image region, and the predicted adjacent region is By making the pixel group corresponding to the target area at the same time adjacent to the target area as a texture signal, a prediction signal having the same pattern as that of the target adjacent area can be generated even when the texture is complex, and it is separated from the boundary of the target area. The texture signal of the same pattern can be generated.

また、本発明の画像予測復号装置における上記圧縮データは、テキスチャー合成方法を示す関連情報を含み、上記予測信号生成手段は、上記関連情報を利用して上記対象領域のテキスチャー信号を形成することが好ましい。   The compressed data in the image predictive decoding device of the present invention may include related information indicating a texture synthesis method, and the predicted signal generation unit may form a texture signal of the target region using the related information. preferable.

この発明によれば、圧縮データには、テキスチャー合成方法を示す関連情報が含まれており、この関連情報を利用して対象領域のテキスチャー信号を形成することができる。これにより、受信側ではテキスチャー合成方法を知ることができ、この知らされたテキスチャー合成方法を用いて予測信号を生成することができるため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the compressed data includes related information indicating the texture synthesis method, and a texture signal of the target region can be formed using the related information. As a result, the receiving side can know the texture synthesis method, and can generate a prediction signal using this known texture synthesis method, thus preventing a decrease in prediction accuracy for pixels far away from the boundary of the target region. Thus, even when the texture signal is complicated, the prediction signal can be generated efficiently.

また、本発明の画像予測復号装置における上記予測信号生成手段は、上記対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することが好ましい。   Further, the prediction signal generation means in the image predictive decoding apparatus of the present invention combines the plurality of texture signals with respect to the target pixel signal by performing weighted average processing using a predetermined weighting coefficient, thereby predicting Preferably, a signal is generated.

この発明によれば、対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することができる。これにより、相関が高くなるように、例えばテンプレートマッチングによって生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。   According to the present invention, a prediction signal can be generated by combining a plurality of texture signals for a target pixel signal by performing a weighted average process using a predetermined weighting coefficient. As a result, there is an effect that a prediction signal with a small error can be generated statistically by synthesizing (averaging) the texture signals generated by template matching so that the correlation becomes high.

さらに、隣接領域に基づいて既再生の画像領域との間における差分値が大きな差がない場合における不確定性の課題は、例えばテンプレートマッチングによって相関の高くなるように生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。また、本発明によれば、複数のテキスチャー信号を重み付け平均処理を行うことによって、それぞれのテキスチャーに含まれる符号化歪を抑える効果があり、誤差の少ない予測信号を生成することができる。   Furthermore, the problem of uncertainty when there is no large difference between the image area already reproduced based on the adjacent area is, for example, synthesis of texture signals generated so as to have a high correlation by template matching ( By averaging), there is an effect that a prediction signal with a small statistical error can be generated. In addition, according to the present invention, by performing weighted averaging processing on a plurality of texture signals, there is an effect of suppressing coding distortion included in each texture, and a prediction signal with few errors can be generated.

また、本発明の画像予測復号装置における上記予測信号生成手段は、対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、それぞれ生成されたテキスチャー信号を合成することにより予測信号を生成することが好ましい。   In addition, the prediction signal generation means in the image predictive decoding device of the present invention is configured such that the adjacent region including the already reproduced pixel signal adjacent to the target pixel signal from the first search region within the same screen as the target pixel signal. And at least one texture signal having a high correlation with the adjacent region, and a pixel signal that has already been reproduced and is adjacent to the target pixel signal from a second search region that is a different screen from the first search region. It is preferable that a prediction signal is generated by generating at least one texture signal having a high correlation with the adjacent region based on the adjacent region and synthesizing the generated texture signals.

この発明によれば、対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、それぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, the first search area within the same screen as the target pixel signal has a high correlation with the adjacent area based on the adjacent area including the already reproduced pixel signal adjacent to the target pixel signal. Generate at least one texture signal, and based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a second search area that is a different screen from the first search area, the adjacent area Can generate a prediction signal by generating at least one texture signal having a high correlation with each other and synthesizing the generated texture signals using a predetermined texture synthesis method. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target region, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、本発明の画像予測復号装置は、圧縮データの中から上記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元手段と、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、上記予測信号と上記再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元手段と、を備え、上記予測信号生成手段は、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成する。   In addition, the image predictive decoding apparatus of the present invention includes a residual signal restoration unit that extracts a residual signal related to the target region from compressed data and restores the residual signal to a reproduced residual signal, and predicts the target pixel signal of the target region. A prediction signal generation unit that generates a signal; and an image restoration unit that restores the pixel signal of the target region by adding the prediction signal and the reproduction residual signal, and the prediction signal generation unit includes: An extrapolated texture signal is generated by forming a pixel by repeating previously reproduced pixel values adjacent to the target pixel signal, and a predicted signal is synthesized by synthesizing the extrapolated texture signal using a predetermined synthesis method. Generate.

この発明によれば、圧縮データの中から上記対象領域に関する残差信号を抽出して再生残差信号に復元し、上記対象領域の対象画素信号に対する予測信号を生成し、予測信号と再生残差信号とを加算することによって、対象領域の画素信号を復元することができる。そして、対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, a residual signal related to the target region is extracted from the compressed data and restored to a reproduction residual signal, a prediction signal for the target pixel signal of the target region is generated, and the prediction signal and the reproduction residual are generated. By adding the signal, the pixel signal of the target region can be restored. Then, an extrapolated texture signal is generated by repeating the already reproduced pixel values adjacent to the target pixel signal to form a pixel, and the extrapolated texture signal is synthesized by using a predetermined synthesis method. Can be generated. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target region, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

なお、本発明は、上記のように画像予測符号化装置および画像予測復号装置の発明として記述できる他に、以下のように動画像符号化方法、動画像符号化プログラム、動画像復号方法及び動画像復号プログラムの発明としても記述することができる。これはカテゴリ等が異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。   Note that the present invention can be described as the invention of the image predictive encoding device and the image predictive decoding device as described above, as well as the moving image encoding method, the moving image encoding program, the moving image decoding method, and the moving image as follows. It can also be described as an invention of an image decoding program. This is substantially the same invention only in different categories and the like, and has the same operations and effects.

本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、上記領域分割ステップにより分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、上記予測信号生成ステップにより生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成ステップと、上記残差信号生成ステップにより生成された上記残差信号を符号化して圧縮データを生成する符号化ステップと、を備え、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。   The image predictive coding method according to the present invention includes a region dividing step of dividing an input image into a plurality of regions, and a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step. Generated by a prediction signal generation step for generating a prediction signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step Encoding the residual signal thus generated to generate compressed data, and the prediction signal generation step includes a texture based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal. Generate a prediction signal by generating a signal and processing the generated texture signal using a predetermined texture synthesis method And wherein the Rukoto.

また、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、上記領域分割ステップにより分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、上記予測信号生成ステップにより生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成ステップと、上記残差信号生成ステップにより生成された上記残差信号を符号化して圧縮信号を生成する符号化ステップと、を備え、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする。   The image predictive coding method according to the present invention includes a region dividing step for dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step of encoding the residual signal generated by the step of generating a compressed signal, and the prediction signal generation step forms pixels by repeating already reproduced pixel values adjacent to the target pixel signal To generate an extrapolation texture signal, and generate the prediction signal by synthesizing the extrapolation texture signal using a predetermined synthesis method. Characterized in that it.

また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元ステップと、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、上記予測信号生成ステップにより生成された予測信号と上記残差信号復元ステップにより復元された再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元ステップと、を備え、上記予測信号生成ステップは、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする。   The image predictive decoding method according to the present invention also includes a residual signal restoration step for extracting a residual signal relating to a target region to be processed from compressed data and restoring the residual signal to a reproduced residual signal, and a target pixel of the target region. A prediction signal generation step for generating a prediction signal for the signal, and a prediction signal generated by the prediction signal generation step and a reproduction residual signal restored by the residual signal restoration step, An image restoration step for restoring a pixel signal, wherein the prediction signal generation step generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and the generated texture signal is stored in advance. A prediction signal is generated by processing using a predetermined synthesis method.

また、本発明の画像予測復号方法は、圧縮データの中から上記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元ステップと、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、上記予測信号と上記再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元ステップと、を備え、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする。   The image predictive decoding method of the present invention also includes a residual signal restoration step for extracting a residual signal related to the target region from compressed data and restoring it to a reproduced residual signal, and a prediction for the target pixel signal of the target region. A prediction signal generation step of generating a signal, and an image restoration step of restoring the pixel signal of the target region by adding the prediction signal and the reproduction residual signal, and the prediction signal generation step includes: An extrapolated texture signal is generated by forming a pixel by repeating previously reproduced pixel values adjacent to the target pixel signal, and a predicted signal is synthesized by synthesizing the extrapolated texture signal using a predetermined synthesis method. It is characterized by generating.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、上記領域分割モジュールにより分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、上記予測信号生成モジュールにより生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成モジュールと、上記残差信号生成モジュールにより生成された上記残差信号を符号化して圧縮データを生成する符号化モジュールと、を備え、上記予測信号生成モジュールは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする。   The image predictive coding program according to the present invention includes a region dividing module that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that generates compressed data by encoding the residual signal generated by step (a), and the prediction signal generation module is based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal. To generate a texture signal and process the generated texture signal using a predetermined texture synthesis method. And generates a prediction signal by.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、上記領域分割モジュールにより分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、上記予測信号生成モジュールにより生成された予測信号と上記対象画素信号との残差信号を生成する残差信号生成モジュールと、上記残差信号生成モジュールにより生成された上記残差信号を符号化して圧縮信号を生成する符号化モジュールと、を備え、上記予測信号生成モジュールは、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする。   The image predictive coding program according to the present invention includes a region dividing module that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by step (b) to generate a compressed signal, and the prediction signal generation module forms a pixel by repeating the already reproduced pixel values adjacent to the target pixel signal To generate an extrapolation texture signal and synthesize the extrapolation texture signal using a predetermined synthesis method. And generates a prediction signal by the.

また、本発明の画像予測復号プログラムは、圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元モジュールと、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、上記予測信号生成モジュールにより生成された予測信号と上記残差信号復元モジュールにより復元された再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元モジュールと、を備え、上記予測信号生成モジュールは、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする。   The image predictive decoding program according to the present invention includes a residual signal restoration module that extracts a residual signal related to a target region to be processed from compressed data and restores the residual signal to a reproduced residual signal, and a target pixel of the target region. A prediction signal generation module that generates a prediction signal for the signal; and by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module, An image restoration module that restores a pixel signal, and the prediction signal generation module generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and the generated texture signal is stored in advance. A prediction signal is generated by processing using a predetermined synthesis method.

また、本発明の画像予測復号方法は、圧縮データの中から上記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元モジュールと、上記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、上記予測信号と上記再生残差信号とを加算することによって、上記対象領域の画素信号を復元する画像復元モジュールと、を備え、上記予測信号生成モジュールは、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする。   In addition, the image predictive decoding method of the present invention includes a residual signal restoration module that extracts a residual signal related to the target region from compressed data and restores the residual signal to a reproduced residual signal, and predicts the target pixel signal of the target region. A prediction signal generation module that generates a signal, and an image restoration module that restores the pixel signal of the target region by adding the prediction signal and the reproduction residual signal, and the prediction signal generation module includes: An extrapolated texture signal is generated by forming a pixel by repeating previously reproduced pixel values adjacent to the target pixel signal, and a predicted signal is synthesized by synthesizing the extrapolated texture signal using a predetermined synthesis method. It is characterized by generating.

本発明によれば、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象領域の境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   According to the present invention, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target region, and to efficiently generate the prediction signal even when the texture signal is complicated. Can be generated.

本発明の実施形態による画像予測符号化装置を示すブロック図である。It is a block diagram which shows the image predictive coding apparatus by embodiment of this invention. 画像予測符号化装置に用いられる予測信号生成器103を示すブロック図である。It is a block diagram which shows the prediction signal generator 103 used for an image predictive coding apparatus. テキスチャー合成器201を示すブロック図である。2 is a block diagram showing a texture synthesizer 201. FIG. テキスチャー生成方法におけるマッチング処理を説明するための模式図である。It is a schematic diagram for demonstrating the matching process in a texture production | generation method. テキスチャー生成器307におけるテキスチャー生成方法を示すフローチャートである。It is a flowchart which shows the texture generation method in the texture generator 307. 対象隣接領域の形状の一例を示す図である。It is a figure which shows an example of the shape of object adjacent area | region. 他の対象隣接領域の形状の一例を示す図である。It is a figure which shows an example of the shape of another object adjacent area | region. 隣接する既再生の画素の値をそのまま繰り返して形成された画素からテキスチャー信号の生成を示す模式図である。It is a schematic diagram which shows the production | generation of a texture signal from the pixel formed by repeating the value of the adjacent already reproduced pixel as it is. 画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。3 is a flowchart illustrating an image predictive encoding method in the image predictive encoding device 100. 変形例における合成テキスチャー信号の生成方法を示すフローチャートである。It is a flowchart which shows the production | generation method of the synthetic | combination texture signal in a modification. 画像予測復号装置900を示すブロック図である。It is a block diagram which shows the image prediction decoding apparatus 900. テキスチャー合成器908を示すブロック図である。It is a block diagram which shows the texture synthesizer 908. 画像予測復号装置900の画像予測復号方法を示すフローチャートである。記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。5 is a flowchart illustrating an image predictive decoding method of the image predictive decoding device 900. It is a perspective view of a computer for executing a program stored in a recording medium. 画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image predictive coding method. 予測信号生成モジュールP103のモジュールを示すブロック図である。It is a block diagram which shows the module of the prediction signal generation module P103. 画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image prediction decoding method. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium.

本発明は、一実施形態のために示された添付図面を参照して以下の詳細な記述を考慮することによって容易に理解することができる。引き続いて、添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   The present invention can be readily understood by considering the following detailed description with reference to the accompanying drawings shown for the embodiments. Subsequently, embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の実施形態による画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、出力端子112を含んで構成されている。変換器106と量子化器107とは符号化手段として機能する。   FIG. 1 is a block diagram showing an image predictive encoding device 100 according to an embodiment of the present invention. The image predictive coding apparatus 100 includes an input terminal 101, a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a transformer 106, a quantizer 107, an inverse quantizer 108, and an inverse transformer. 109, an adder 110, an entropy encoder 111, and an output terminal 112. The converter 106 and the quantizer 107 function as encoding means.

以上のように構成された画像予測符号化装置100について、以下その構成について説明する。   The configuration of the image predictive encoding device 100 configured as described above will be described below.

入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。   The input terminal 101 is a terminal for inputting a moving image signal composed of a plurality of images.

ブロック分割器102は、入力端子101から入力された動画像の信号であって、符号化の対象なる画像を複数の領域に分割する。本発明による実施形態では、8x8の画素からなるブロックに分割するが、それ以外のブロックの大きさまたは形に分割してもよい。   The block divider 102 is a moving image signal input from the input terminal 101 and divides an image to be encoded into a plurality of regions. In the embodiment according to the present invention, the block is divided into 8 × 8 pixels, but may be divided into other block sizes or shapes.

予測信号生成器103は、符号化処理の対象となる対象領域(対象ブロック)に対して予測信号を生成する部分である。この予測信号生成器103の具体的な処理については後述する。   The prediction signal generator 103 is a part that generates a prediction signal for a target region (target block) to be encoded. Specific processing of the prediction signal generator 103 will be described later.

減算器105は、ラインL102を経由して入力されたブロック分割器102で分割されて得られた対象領域から、ラインL103を経由して入力された予測信号生成器103にて生成された予測信号を減算して、残差信号を生成する部分である。減算器105は、減算して得た残差信号を、L105を経由して変換器106に出力する。   The subtractor 105 generates the prediction signal generated by the prediction signal generator 103 input via the line L103 from the target region obtained by the division by the block divider 102 input via the line L102. Is a part for generating a residual signal. The subtractor 105 outputs the residual signal obtained by subtraction to the converter 106 via L105.

変換器106は、減算されて得られた残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。エントロピー符号化器111は、量子化器107により量子化された変換係数を符号化してL111を経由して、予測方法に関する情報とともに出力する。出力端子112は、エントロピー符号化器111から入力した情報を外部に出力する。   The converter 106 is a part that performs discrete cosine transform on the residual signal obtained by subtraction. The quantizer 107 is a part that quantizes the transform coefficient that has been discrete cosine transformed by the transformer 106. The entropy encoder 111 encodes the transform coefficient quantized by the quantizer 107 and outputs it along with information on the prediction method via the L111. The output terminal 112 outputs information input from the entropy encoder 111 to the outside.

逆量子化器108は、量子化された変換係数を逆量子化し、逆変換器109は逆離散コサイン変換し、残差信号を復元する。加算器110は、復元された残差信号とラインL103から送られた予測信号とを加算し、対象ブロックの信号を再生し、フレームメモリ104に格納する。本実施の形態では変換器106と逆変換器109とを用いているが、これらの変換器に代わるほかの変換処理を用いてもよく、変換器106と逆変換器109とは必ずしも必須ではない。このように、後続の対象領域に対する画面内予測もしくは画面間予測を行うために、圧縮された対象領域の画素信号は逆処理され復元され、フレームメモリ104に記憶される。   The inverse quantizer 108 inversely quantizes the quantized transform coefficient, and the inverse transformer 109 performs inverse discrete cosine transform to restore the residual signal. The adder 110 adds the restored residual signal and the prediction signal sent from the line L103, reproduces the signal of the target block, and stores it in the frame memory 104. In this embodiment, converter 106 and inverse converter 109 are used. However, other conversion processes may be used instead of these converters, and converter 106 and inverse converter 109 are not necessarily required. . As described above, in order to perform intra-screen prediction or inter-screen prediction for the subsequent target region, the compressed pixel signal of the target region is inversely processed and restored, and stored in the frame memory 104.

つぎに、予測信号生成器103の詳細について説明する。予測信号生成器103は、符号化処理の対象となる対象領域(以下、対象ブロックと称する)に対して、予測信号を生成する。本発明による実施形態では、2種類の予測方法が用いられる。すなわち、予測信号生成器103は、画面間予測方法と画面内予測方法との少なくともいずれか一方を用いて予測信号を生成する。   Next, details of the prediction signal generator 103 will be described. The prediction signal generator 103 generates a prediction signal for a target region (hereinafter referred to as a target block) that is a target of encoding processing. In the embodiment according to the present invention, two kinds of prediction methods are used. That is, the prediction signal generator 103 generates a prediction signal using at least one of the inter-screen prediction method and the intra-screen prediction method.

画面間予測方法を用いた予測信号生成器103は、過去に符号化された後に復元された再生画像を参照画像として、この参照画像から対象ブロックに対する誤差の最も小さい予測信号を与える動き情報を求める。この処理は動き検出と呼ばれる。また場合に応じて、対象ブロックを再分割し、再分割された小領域に対し画面間予測方法を決定してもよい。この場合、予測信号生成器103は、各種の分割方法の中から、対象ブロック全体に対し最も効率のよい分割方法及びそれぞれの動き情報を決定する。本発明による実施形態では、予測信号生成器103は、上述の予測信号の生成を行うために、対象ブロックはラインL102、参照画像はL104経由で入力される。また、予測信号生成器103は、参照画像としては、過去に符号化され復元された複数の画像を参照画像として用いる。詳細は従来の技術であるMPEG−2または4、ITUH.264のいずれの方法と同じである。   The prediction signal generator 103 using the inter-screen prediction method obtains motion information that gives a prediction signal with the smallest error with respect to the target block from the reference image using a reproduced image that has been encoded and restored in the past as a reference image. . This process is called motion detection. Further, according to circumstances, the target block may be subdivided, and the inter-screen prediction method may be determined for the subdivided small area. In this case, the prediction signal generator 103 determines the most efficient division method and each piece of motion information for the entire target block from among various division methods. In the embodiment according to the present invention, the prediction signal generator 103 receives the target block via the line L102 and the reference image via the L104 in order to generate the above-described prediction signal. Moreover, the prediction signal generator 103 uses, as a reference image, a plurality of images that have been encoded and restored in the past. For details, see MPEG-2 or 4, ITUH. It is the same as any of the H.264 methods.

このように決定された動き情報及び小領域の分割方法はラインL112経由でエントロピー符号化器111に送られ符号化した上で出力端子112から送出される。予測信号生成器103では、小領域の分割方法及びそれぞれの小領域に対応する動き情報をもとにフレームメモリ104から参照画像を取得し、画面間予測信号を生成する。このように生成された画面間予測信号はラインL103経由で減算器105に送られる。   The motion information and the small area dividing method determined in this way are sent to the entropy encoder 111 via the line L112, encoded, and sent out from the output terminal 112. The prediction signal generator 103 acquires a reference image from the frame memory 104 based on the small region dividing method and the motion information corresponding to each small region, and generates an inter-screen prediction signal. The inter-screen prediction signal generated in this way is sent to the subtractor 105 via the line L103.

画面内予測方法を用いた予測信号生成器103は、対象ブロックに空間的に隣接する既再生の画素値を用いて画面内予測信号を生成する。具体的には、予測信号生成器103は、フレームメモリ104から同じ画面内にある既再生の画素信号を取得し、所定の方法で予測信号を生成する画面内予測方法を決定し、当該決定した画面内予測方法に基づいて画面内予測信号を生成する。一方、予測方法に関する情報は、ラインL112経由でエントロピー符号化器111に送られ符号化した上で出力端子112から送出される。このように生成された画面間予測信号は減算器105に送られる。予測信号生成器103の詳細の処理は後に説明する。   The prediction signal generator 103 using the intra prediction method generates an intra prediction signal using the already reproduced pixel values spatially adjacent to the target block. Specifically, the prediction signal generator 103 acquires the already reproduced pixel signal in the same screen from the frame memory 104, determines an in-screen prediction method for generating a prediction signal by a predetermined method, and determines An intra-screen prediction signal is generated based on the intra-screen prediction method. On the other hand, the information on the prediction method is sent to the entropy encoder 111 via the line L112, encoded, and sent from the output terminal 112. The inter-screen prediction signal generated in this way is sent to the subtractor 105. Detailed processing of the prediction signal generator 103 will be described later.

上述のように求められた画面間予測信号と画面内予測信号に対し、誤差の最も小さいものが選択され、減算器105に送られる。但し、一枚目の画像については、過去の画像がないため、全ての対象ブロックは画面内予測で処理される。なお、下記に述べる画面内予測信号の生成方法は写真などの静止画像の符号化・復号にも適用できる。   Of the inter-screen prediction signal and the intra-screen prediction signal obtained as described above, the signal having the smallest error is selected and sent to the subtractor 105. However, since there is no past image for the first image, all target blocks are processed by intra prediction. Note that the intra-screen prediction signal generation method described below can also be applied to encoding / decoding of still images such as photographs.

減算器105にて対象ブロックの信号(ラインL102経由)から予測信号(ラインL103経由)を引き算し、残差信号を生成する。この残差信号は変換器106にて離散コサイン変換され、その各変換係数は量子化器107にて量子化される。最後にエントロピー符号化器111にて量子化された変換係数を予測信号の生成方法に関する情報とともに符号化して、出力端子112より送出される。   The subtractor 105 subtracts the prediction signal (via the line L103) from the signal of the target block (via the line L102) to generate a residual signal. This residual signal is subjected to discrete cosine transform by a transformer 106, and each transform coefficient is quantized by a quantizer 107. Finally, the transform coefficient quantized by the entropy encoder 111 is encoded together with information relating to the generation method of the prediction signal, and is transmitted from the output terminal 112.

つぎに、本発明による予測信号生成器103の処理について、画面内予測方法の場合を中心に説明する。画面間予測方法の場合にも同じように適用可能である。図2は、本発明の実施形態による画像予測符号化装置に用いられる予測信号生成器103を示すブロック図であり、予測信号生成器103は、テキスチャー合成器201とテキスチャー信号決定器202とを含んで構成されている。   Next, the processing of the prediction signal generator 103 according to the present invention will be described focusing on the case of the intra prediction method. The same applies to the inter-screen prediction method. FIG. 2 is a block diagram showing a prediction signal generator 103 used in the image predictive coding apparatus according to the embodiment of the present invention. The prediction signal generator 103 includes a texture synthesizer 201 and a texture signal determiner 202. It consists of

テキスチャー合成器201は、ラインL104経由で図1のフレームメモリ104から、過去の処理で既に再生された画像信号(再生画像信号)が入力される。また、テキスチャー合成器201は、画面内予測方法を用いた場合には、対象ブロックと同じ画面内にある再生画像信号が入力され、画面間予測方法を用いた場合には、対象ブロックと異なる画面(フレームまたはフィールド)にある再生画像信号が入力される。そして、このテキスチャー合成器201は、下記に説明するような方法で複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号をテキスチャー信号決定器202に出力する。   The texture synthesizer 201 receives an image signal (reproduced image signal) that has already been reproduced in the past processing from the frame memory 104 of FIG. The texture synthesizer 201 receives a reproduced image signal in the same screen as the target block when the intra prediction method is used, and a screen different from the target block when the inter prediction method is used. A reproduced image signal in (frame or field) is input. The texture synthesizer 201 generates a plurality of texture signals by a method as described below, and outputs the generated plurality of texture signals to the texture signal determiner 202.

テキスチャー信号決定器202は、テキスチャー合成器201からテキスチャー信号が出力されると同時に、対象ブロックの画像信号をラインL102経由で入力する。そして、テキスチャー信号決定器202は、入力した複数のテキスチャー信号のそれぞれに対し、対象ブロックの画像信号と比較し、誤差の最も小さいテキスチャー信号を対象ブロックの予測信号としてラインL103経由で出力する。本実施の形態では、テキスチャー信号決定器202は、対象ブロックの画像信号とテキスチャー信号との間で画素値の絶対差分値の総和を用いて誤差値を求めて、最も小さい誤差値を与えるテキスチャー信号を予測信号と決定する。   The texture signal determiner 202 inputs the image signal of the target block via the line L102 at the same time as the texture signal is output from the texture synthesizer 201. Then, the texture signal determiner 202 compares each of the plurality of input texture signals with the image signal of the target block, and outputs the texture signal with the smallest error as a prediction signal of the target block via the line L103. In the present embodiment, the texture signal determiner 202 obtains an error value by using the sum of absolute difference values of pixel values between the image signal and the texture signal of the target block, and gives a texture signal that gives the smallest error value. Is determined as a prediction signal.

つぎに、図3を用いて、テキスチャー合成器201について説明する。図3は、本発明の実施形態による画像予測符号化装置100に用いられるテキスチャー合成器201を示すブロック図である。このテキスチャー合成器201は、合成器301、加算器302、重み付け器303〜306、テキスチャー生成器307〜308、第1外挿器309〜第N外挿器310を含んで構成されている。ここで、テキスチャー生成器307は、第1テキスチャー取得器311および第1マッチング器312を備え、テキスチャー生成器308は、第Mテキスチャー取得器313および第Mマッチング器314を備えている。図3ではM個のテキスチャー生成器及びN個の信号外挿器を用いている。本実施の形態では、M=5、N=9であるが、それ以外の数値でもよい。例えば、M=0、N=9で、またはM=5、N=0でもよい。   Next, the texture synthesizer 201 will be described with reference to FIG. FIG. 3 is a block diagram showing the texture synthesizer 201 used in the image predictive coding apparatus 100 according to the embodiment of the present invention. The texture synthesizer 201 includes a synthesizer 301, an adder 302, weighters 303 to 306, texture generators 307 to 308, and a first extrapolator 309 to an Nth extrapolator 310. Here, the texture generator 307 includes a first texture acquisition unit 311 and a first matching unit 312, and the texture generation unit 308 includes an Mth texture acquisition unit 313 and an Mth matching unit 314. In FIG. 3, M texture generators and N signal extrapolators are used. In this embodiment, M = 5 and N = 9, but other numerical values may be used. For example, M = 0, N = 9, or M = 5, N = 0.

まず、テキスチャー生成器307の動作を説明する。第1マッチング器312はラインL104経由でフレームメモリ104にある再生画像信号にアクセスし、マッチング処理を行なう。ここで、このマッチング処理について説明する。図4は、本発明の実施形態によるテキスチャー生成方法におけるマッチング処理を説明するための模式図である。ここでは対象ブロック402に対する予測信号を生成する場合について説明する。   First, the operation of the texture generator 307 will be described. The first matching unit 312 accesses the reproduced image signal in the frame memory 104 via the line L104 and performs matching processing. Here, this matching process will be described. FIG. 4 is a schematic diagram for explaining a matching process in the texture generation method according to the embodiment of the present invention. Here, a case where a prediction signal for the target block 402 is generated will be described.

ある対象ブロックに対し予め決められた方法で「対象隣接領域」(テンプレートともいう)と「探索領域」とを設定する。本実施の形態では対象ブロック402に接しており、それより前に再生され同じ画面内にある再生画像の一部(全部でもよい)を探索領域401と設定する。「対象隣接領域」としては対象ブロック402に隣接する既再生の画素群(逆L文字の領域)406を用いる。   A “target adjacent region” (also referred to as a template) and a “search region” are set for a certain target block by a predetermined method. In this embodiment, a part (or all) of the reproduced images that are in contact with the target block 402 and are reproduced before and within the same screen are set as the search area 401. As the “target adjacent region”, the already reproduced pixel group (reverse L character region) 406 adjacent to the target block 402 is used.

なお、探索領域401は対象ブロック402と全く接していなくてもよい。また、対象隣接領域406は少なくとも1画素で対象ブロック402と接していればよい。また、探索領域401において、対象隣接領域406と同じ形状を有する画素群との間で、対応する画素間の絶対誤差値の和(SAD)を求め、最も小さいSADを与える領域を検索し、それを「予測隣接領域」とする。   Note that the search area 401 may not be in contact with the target block 402 at all. Further, the target adjacent region 406 may be in contact with the target block 402 with at least one pixel. Further, in the search area 401, the sum of absolute error values (SAD) between corresponding pixels is obtained between the pixel groups having the same shape as the target adjacent area 406, and the area that gives the smallest SAD is searched. Is assumed to be a “predicted adjacent region”.

図4では、「予測隣接領域」は、予測隣接領域408が決定されている。そして、予測隣接領域408に接している領域407が対象ブロック402に対するテキスチャー信号と決定される。ここでは、予測隣接領域408とテキスチャー信号を示す領域407との位置関係は、対象ブロック402と対象隣接領域406と同じ関係にあるが、そうでなくてもよい。   In FIG. 4, the predicted adjacent area 408 is determined as the “predicted adjacent area”. Then, a region 407 in contact with the predicted adjacent region 408 is determined as a texture signal for the target block 402. Here, the positional relationship between the predicted adjacent region 408 and the region 407 indicating the texture signal is the same as the target block 402 and the target adjacent region 406, but this need not be the case.

このようにしてテキスチャー信号が決定されると、第1マッチング器312は、予測隣接領域408の座標に関する座標情報、またはテキスチャー信号である領域407の座標に関する座標情報をL312経由で第1テキスチャー取得器311に送出する。第1テキスチャー取得器311は、上記座標情報に基づいてラインL314経由で、フレームメモリ104(図1参照)からテキスチャー信号である領域407の画素信号を取得し、ラインL307経由で合成器301に出力する。   When the texture signal is determined in this way, the first matching unit 312 receives the coordinate information related to the coordinates of the predicted adjacent region 408 or the coordinate information related to the coordinates of the region 407 that is the texture signal via the L312 as the first texture acquisition unit. 311 is sent. The first texture acquisition unit 311 acquires the pixel signal of the region 407 as a texture signal from the frame memory 104 (see FIG. 1) via the line L314 based on the coordinate information, and outputs it to the combiner 301 via the line L307. To do.

このような処理により、対象ブロック402の隣接領域406に近い(誤差の小さい)領域407が探索領域401から探索され、テキスチャー信号として生成される。   By such processing, a region 407 close to the adjacent region 406 of the target block 402 (with a small error) is searched from the search region 401 and generated as a texture signal.

図5は、本発明の実施形態によるテキスチャー生成器307におけるテキスチャー生成方法を示すフローチャートである。第1マッチング器312により対象ブロックに隣接する対象隣接領域が取得される(S411)。つぎに、第1マッチング器312により取得された対象隣接領域について、第1テキスチャー取得器311により、対象隣接領域と探索領域にある同じ形状の画素群との絶対値和SAD値が求められる(S412)。第1テキスチャー取得器311によりSAD値が今までのSAD値の最小値と比較され(S413)、SAD値が最小値より小さいと、第1テキスチャー取得器311により判断された場合、S414に進み、そうでないと判断された場合、S415に進む。なお、最小値の初期値は予め定められているものとする。   FIG. 5 is a flowchart illustrating a texture generation method in the texture generator 307 according to an embodiment of the present invention. A target adjacent region adjacent to the target block is acquired by the first matching unit 312 (S411). Next, for the target adjacent area acquired by the first matching unit 312, the first texture acquisition unit 311 obtains the absolute value sum SAD value between the target adjacent area and the pixel group having the same shape in the search area (S 412). ). The first texture acquisition unit 311 compares the SAD value with the minimum value of the SAD values so far (S413). If the first texture acquisition unit 311 determines that the SAD value is smaller than the minimum value, the process proceeds to S414. If it is determined that this is not the case, the process proceeds to S415. Note that the initial value of the minimum value is determined in advance.

S412で求められたSAD値は最小値として第1テキスチャー取得器311により設定され、予測対象領域に隣接する領域の画素信号が対象ブロックのテキスチャー信号であると第1テキスチャー取得器311により決定される(S414)。その後、第1マッチング器312により探索領域401が全部探索済みか否かが確認され(S415)、全部探索済みではないと判断された場合、S412に戻り、第1テキスチャー取得器311により対象隣接領域406と探索領域401にある(同じ形状の)別の画素群との絶対値和SADが求められる。全部探索済みとなった場合はひとつの対象ブロック(ここでは対象ブロック402)に対する処理が終了となる。そして、次の対象ブロック403〜405と順次同様の処理が行われる。   The SAD value obtained in S412 is set by the first texture acquisition unit 311 as a minimum value, and the first texture acquisition unit 311 determines that the pixel signal of the region adjacent to the prediction target region is the texture signal of the target block. (S414). Thereafter, the first matching unit 312 confirms whether or not the entire search area 401 has been searched (S415). If it is determined that the search has not been completed, the process returns to S412 and the first texture acquisition unit 311 performs the target adjacent area. An absolute value sum SAD between 406 and another pixel group (having the same shape) in the search area 401 is obtained. When all the search is completed, the processing for one target block (here, the target block 402) is completed. Then, the same processing as that of the next target blocks 403 to 405 is sequentially performed.

以上の処理により、テキスチャー生成器307においては、対象ブロック402に隣接する対象隣接領域406を用いて探索領域401から予測隣接領域408を探索し、この予測隣接領域408に隣接する領域407をテキスチャー信号として決定して得ることができる。   With the above processing, the texture generator 307 searches for the predicted adjacent area 408 from the search area 401 using the target adjacent area 406 adjacent to the target block 402, and the area 407 adjacent to the predicted adjacent area 408 is a texture signal. Can be determined and obtained.

なお、図5では対象ブロックと同じ画面内(フレーム、またはフィールドのいずれもよい)にある探索領域401を用いた処理を説明したが、探索領域は対象ブロックと異なる画面内にあり、既に再生された信号を用いてもよい。この場合、予測隣接領域および当該予測隣接領域に隣接するテキスチャー信号は対象ブロックと異なる画面から取得することになる。さらに、探索領域として、対象ブロックと同じ画面および異なる画面の両方にある既再生の画像信号を用いてもよい。この場合、合成の対象となるテキスチャー信号は、対象ブロックと同じ画面内から探索されたテキスチャー信号と、異なる画面内から探索されたテキスチャー信号になる。   In FIG. 5, the processing using the search area 401 in the same screen as the target block (which may be either a frame or a field) has been described. However, the search area is in a different screen from the target block and has already been reproduced. May be used. In this case, the predicted adjacent area and the texture signal adjacent to the predicted adjacent area are acquired from a screen different from the target block. Furthermore, as a search area, an already reproduced image signal on both the same screen and a different screen as the target block may be used. In this case, the texture signal to be synthesized is a texture signal searched from the same screen as the target block and a texture signal searched from a different screen.

つぎに、テキスチャー生成器308の動作について説明する。テキスチャー生成器308の動作はテキスチャー生成器307とほとんど同じであるが、このテキスチャー生成器308は、図4で示される対象隣接領域406を別の形状を有する領域を用いて探索を行う。図6は、当該異なる対象隣接領域の形状の一例を示す図である。図6に示すように形状としては、対象ブロック502の左側に形成される長方形の領域501、対象ブロック504の上側に形成される長方形の領域503、対象ブロック504の左斜め上に形成される領域505、対象ブロック508の上側から左側にかけて三角形状に形成される領域507が考えられるが、これに限定されるものではない。   Next, the operation of the texture generator 308 will be described. The operation of the texture generator 308 is almost the same as that of the texture generator 307, but the texture generator 308 searches the target adjacent area 406 shown in FIG. 4 using an area having another shape. FIG. 6 is a diagram illustrating an example of the shape of the different target adjacent regions. As shown in FIG. 6, the shape includes a rectangular area 501 formed on the left side of the target block 502, a rectangular area 503 formed on the upper side of the target block 504, and an area formed on the upper left side of the target block 504. A region 507 formed in a triangular shape from the upper side to the left side of the target block 508 is conceivable, but is not limited thereto.

そして、テキスチャー生成器308は、図6(D)の形状をする対象隣接領域で図5で示される処理を行ない、対応するテキスチャー信号を生成する。また、そのほかのテキスチャー生成器(図示せず)は、それぞれ図6(A),(B)、(C)に示す形状の対象隣接領域を用いて、テキスチャー信号を生成する。   Then, the texture generator 308 performs the processing shown in FIG. 5 on the target adjacent region having the shape shown in FIG. 6D, and generates a corresponding texture signal. In addition, other texture generators (not shown) generate texture signals using target adjacent regions having shapes shown in FIGS. 6A, 6B, and 6C, respectively.

このように、テキスチャー生成器307、308、および図示しない他のテキスチャー生成器は、それぞれM個(M=5)のテキスチャー信号を生成し、合成器301に出力する。なお、図6では、対象ブロックを2x2画素からなる場合について説明したが、図7に示すように、対象ブロックが4x4画素、または8x8画素の場合でも同じような処理でテキスチャー信号を生成する。なお、対象ブロックが4x4画素については、対象ブロック602に対して領域601、対象ブロック604に対して領域603、対象ブロック606に対して領域605、対象ブロック608に対して領域607aおよび607bが考えられる。また、同様に、8x8画素については、対象ブロック610に対して領域609、対象ブロック612に対して領域611、対象ブロック614に対して領域613、対象ブロック616に対して領域615aおよび615bが考えられる。   In this manner, the texture generators 307 and 308 and other texture generators (not shown) each generate M (M = 5) texture signals and output them to the combiner 301. In FIG. 6, the case where the target block is composed of 2 × 2 pixels has been described. However, as shown in FIG. 7, the texture signal is generated by the same process even when the target block is 4 × 4 pixels or 8 × 8 pixels. When the target block is 4 × 4 pixels, a region 601 for the target block 602, a region 603 for the target block 604, a region 605 for the target block 606, and regions 607a and 607b for the target block 608 can be considered. . Similarly, for 8 × 8 pixels, a region 609 for the target block 610, a region 611 for the target block 612, a region 613 for the target block 614, and regions 615a and 615b for the target block 616 are considered. .

つぎに、第1外挿器309の動作について説明する。信号外挿器309は、対象ブロック(例えば対象ブロック402)に隣接する既再生の画素の値をそのまま繰り返して形成された画素を用いる、いわゆる信号を外挿することにより、テキスチャー信号を生成する。図8は、この方法を用いたテキスチャー信号の生成を示す模式図である。図8(A)は、対象ブロック702の上部にある既再生の画素701(A〜D)の値を矢印の方向に繰り返すことによって信号を外挿する。図8(B)は既再生の画素703(I〜L)を矢印の方向に繰り返すことによって信号を外挿する。図8(C)は既再生の画素705(A〜DとI〜L)の平均値で対象ブロック706の画素値とする。   Next, the operation of the first extrapolator 309 will be described. The signal extrapolator 309 generates a texture signal by extrapolating a so-called signal using pixels formed by repeating the values of already reproduced pixels adjacent to the target block (for example, the target block 402) as they are. FIG. 8 is a schematic diagram showing the generation of a texture signal using this method. FIG. 8A extrapolates a signal by repeating the values of already reproduced pixels 701 (A to D) above the target block 702 in the direction of the arrow. FIG. 8B extrapolates the signal by repeating the previously reproduced pixels 703 (I to L) in the direction of the arrow. FIG. 8C shows the average value of the already reproduced pixels 705 (A to D and I to L), which is the pixel value of the target block 706.

図8(D)から(I)の処理も図示の通り、既再生の画素(707〜717)を矢印の方向に繰り返すことによって、信号を外挿することにより信号が形成される。図3に示されるN個(N=9)の第1外挿器309〜第N外挿器310は、これらの方法でN個のテキスチャー信号を生成し、生成したテキスチャー信号を合成器301に出力する。   As shown in FIGS. 8D to 8I, the signal is formed by extrapolating the signal by repeating the already reproduced pixels (707 to 717) in the direction of the arrow. The N (N = 9) first extrapolator 309 to N extrapolator 310 shown in FIG. 3 generate N texture signals by these methods, and the generated texture signals are sent to the combiner 301. Output.

引き続き図3に示される構成について説明する。合成器301は、入力された複数のテキスチャー信号を予め定められた演算処理を行うことによって、複数個(M+N個)のテキスチャー信号を合成し、ラインL202経由で出力する。本実施の形態では、入力された複数のテキスチャー信号から、複数のK個の合成テキスチャー信号(またはテキスチャー信号)を生成する。   Next, the configuration shown in FIG. 3 will be described. The synthesizer 301 synthesizes a plurality of (M + N) texture signals by performing predetermined arithmetic processing on the plurality of input texture signals, and outputs the synthesized signal via the line L202. In the present embodiment, a plurality of K synthesized texture signals (or texture signals) are generated from a plurality of input texture signals.

すなわち、合成器301は、テキスチャー生成器307、308からのテキスチャー信号を平均化して第1の合成テキスチャー信号を生成する。この場合、重み付け器303、304の重み値は(1/M)で、重み付け器305、306の重み値は0である。また、合成器301は、第1外挿器309の出力を用いて第2の合成テキスチャー信号を生成する。この場合、重み付け器305の重み値は1で、それ以外の重み付け器の重み値は0である。さらに合成器301は、第N外挿器310の出力を用いて第3の合成テキスチャー信号を生成する。この場合、重み付け器306の重み値は1で、それ以外の重み付け器の重み値は0である。   That is, the synthesizer 301 averages the texture signals from the texture generators 307 and 308 to generate a first synthesized texture signal. In this case, the weight values of the weighters 303 and 304 are (1 / M), and the weight values of the weighters 305 and 306 are 0. The synthesizer 301 generates a second synthesized texture signal using the output of the first extrapolator 309. In this case, the weight value of the weighter 305 is 1, and the weight values of the other weighters are 0. Furthermore, the synthesizer 301 generates a third synthesized texture signal using the output of the Nth extrapolator 310. In this case, the weight value of the weighter 306 is 1, and the weight values of the other weighters are 0.

また、合成器301は、図示されていない他の信号外挿器からの出力を用いて生成されたテキスチャー信号(外挿テキスチャー信号)を合成テキスチャー信号として生成し、出力する。なお、合成器301は、上述した重み値以外の重み値を用いて、複数の合成テキスチャー信号を生成してもよい。例えば、重み付け器303の重み値が1かつそれ以外の重み付け器の重み値が0の場合や、重み付け器304の重み値が1かつそれ以外の重み付け器の重み値が0の場合、信号外挿器に接続されている重み付け器305、306の重み値がそれぞれ1/Nかつそれ以外の重み付け器の重み値は0の場合を用いることができる。また、別の組み合わせとして、合成器301に入力されるテキスチャー信号を2つずつ組み合わせて、重み付け平均化し合成テキスチャー信号を生成してもよい。この場合、テキスチャー生成器によるテキスチャー信号と信号外挿器によるテキスチャー信号を組み合わせて合成することもある。   Further, the synthesizer 301 generates and outputs a texture signal (extrapolated texture signal) generated using an output from another signal extrapolator (not shown) as a synthesized texture signal. Note that the combiner 301 may generate a plurality of combined texture signals using weight values other than the above-described weight values. For example, when the weight value of the weighter 303 is 1 and the weight value of the other weighter is 0, or when the weight value of the weighter 304 is 1 and the weight value of the other weighters is 0, signal extrapolation It is possible to use a case in which the weight values of the weighting devices 305 and 306 connected to the device are each 1 / N and the weight values of the other weighting devices are 0. As another combination, two texture signals input to the combiner 301 may be combined and weighted and averaged to generate a combined texture signal. In this case, the texture signal from the texture generator and the texture signal from the signal extrapolator may be combined and combined.

以上のとおり、合成器301は、少なくとも一つのテキスチャー信号を用いて合成テキスチャー信号(すなわち予測信号)を生成すればよく、例えば、テキスチャー生成器307〜308、および第1外挿器309〜第N外挿器310のうち、いずれか一つのテキスチャー生成器または外挿器から出力されたテキスチャー信号(または外挿テキスチャー信号)を用いて合成テキスチャー信号とすればよい。   As described above, the synthesizer 301 may generate a synthesized texture signal (that is, a prediction signal) using at least one texture signal. For example, the texture generators 307 to 308 and the first extrapolators 309 to Nth. What is necessary is just to make it a synthetic | combination texture signal using the texture signal (or extrapolation texture signal) output from any one texture generator or extrapolation device among the extrapolation devices 310.

このように複数(K個)の合成テキスチャー信号(またはテキスチャー信号)はラインL202経由で図2のテキスチャー信号決定器202に送られ、対象ブロックに最も信号的に近い(すなわち、誤差の小さい)テキスチャー信号が決定され、ラインL103経由で予測信号として出力される。   In this way, a plurality (K pieces) of synthesized texture signals (or texture signals) are sent to the texture signal determiner 202 of FIG. 2 via the line L202, and the texture closest to the target block (that is, the error is small). A signal is determined and output as a prediction signal via line L103.

図9は、本発明の実施形態による画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。まず、テキスチャー生成器308〜309および第1外挿器309〜第N外挿器310により、対象ブロックに対し(M+N)個のテキスチャー信号が生成される(ステップ802)。つぎに、合成器301により、M個のテキスチャー信号が合成されることにより、少なくとも2つのテキスチャー信号(本実施の形態ではM個)が生成され、L個の合成テキスチャー信号(本実施の形態ではL=1)が生成される(ステップ803)。なお、ここでは少なくとも2つのテキスチャー信号が生成されているが、少なくとも一つのテキスチャー信号(または外挿テキスチャー信号)が生成されていればよい。   FIG. 9 is a flowchart showing an image predictive encoding method in the image predictive encoding apparatus 100 according to the embodiment of the present invention. First, the texture generators 308 to 309 and the first extrapolator 309 to the Nth extrapolator 310 generate (M + N) texture signals for the target block (step 802). Next, the combiner 301 combines the M texture signals to generate at least two texture signals (M in this embodiment), and L combined texture signals (in this embodiment). L = 1) is generated (step 803). Although at least two texture signals are generated here, it is sufficient that at least one texture signal (or extrapolated texture signal) is generated.

N個のテキスチャー信号とL個の合成テキスチャー信号とのK(=N+L)個の中から、対象ブロックに最も近い一つのテキスチャー信号または合成テキスチャー信号が選択され、選択されたテキスチャー信号または合成テキスチャー信号は予測信号と決定される(ステップ804)。このように決定された予測信号と対象ブロックの信号との差分を示す残差信号が、変換器106、量子化器107、およびエントロピー符号化器111により符号化される(S805)。そして、符号化された残差信号と予測信号生成関連情報が出力端子112を介して出力される(S806)。   One texture signal or synthesized texture signal closest to the target block is selected from K (= N + L) of N texture signals and L synthesized texture signals, and the selected texture signal or synthesized texture signal is selected. Is determined to be a prediction signal (step 804). The residual signal indicating the difference between the prediction signal determined in this way and the signal of the target block is encoded by the converter 106, the quantizer 107, and the entropy encoder 111 (S805). The encoded residual signal and the prediction signal generation related information are output via the output terminal 112 (S806).

ここでは予測信号生成関連情報として、どのテキスチャー生成方法で予測信号を生成すればよいかに関する情報、使用される重み付け器の重みの値に関する情報の少なくとも一方が含まれる。これらの情報を元に受信側で予測信号が生成される。これら処理の後に(または平行して)、後続の対象ブロックを予測符号化するために符号化された残差信号は逆量子化器108および逆変換器109により復号される。そして、復号された残差信号に加算器110により予測信号が加算され、対象ブロックの信号が再生され、フレームメモリ104に参照画像として記憶される(S807)。そして、全ての対象領域の処理が完了していない場合にはS802に戻り、つぎの対象ブロックに対する処理が行われ、完了した場合には、処理を終了する(S808)。   Here, the prediction signal generation related information includes at least one of information on which texture generation method should be used to generate the prediction signal and information on the weight value of the weighting unit used. Based on these pieces of information, a prediction signal is generated on the receiving side. After these processes (or in parallel), the residual signal encoded to predictively encode the subsequent target block is decoded by the inverse quantizer 108 and the inverse transformer 109. Then, the prediction signal is added to the decoded residual signal by the adder 110, and the signal of the target block is reproduced and stored as a reference image in the frame memory 104 (S807). If all the target areas have not been processed, the process returns to S802, the process for the next target block is performed, and if completed, the process ends (S808).

つぎに、上述の図4に示される処理の変形例について説明する。図10は、変形例における合成テキスチャー信号の生成方法を示すフローチャートである。まず、第1マッチング器312により、対象ブロックに対象隣接領域が取得される(S901)。つぎに、第1マッチング器312により取得された対象隣接領域について、第1テキスチャー取得器311により、対象隣接領域と探索領域に形成される同じ形状の画素群との絶対値和SADが求められる(S902)。   Next, a modified example of the process shown in FIG. 4 will be described. FIG. 10 is a flowchart showing a method of generating a composite texture signal in the modified example. First, the target matching area is acquired in the target block by the first matching unit 312 (S901). Next, for the target adjacent region acquired by the first matching unit 312, the first texture acquisition unit 311 obtains the absolute value sum SAD between the target adjacent region and the pixel group having the same shape formed in the search region ( S902).

第1テキスチャー取得器311によりSADと所定の閾値とが比較され、閾値より小さいと判断された場合、S904に進み、そうでないと判断された場合、S905に進む(S903)。閾値より小さいと判断された場合は、閾値より小さいSADを与える予測隣接領域に接するテキスチャー信号(例えば図4の407)が候補テキスチャー信号として保存される(S904)。そして、第1マッチング器312により、探索領域が全部探索済みかであるか否かが確認される(S905)。   If the first texture acquisition unit 311 compares the SAD with a predetermined threshold value and determines that the threshold value is smaller than the threshold value, the process proceeds to S904. If not, the process proceeds to S905 (S903). If it is determined that the value is smaller than the threshold value, a texture signal (for example, 407 in FIG. 4) in contact with the predicted adjacent region that gives an SAD smaller than the threshold value is stored as a candidate texture signal (S904). Then, the first matching unit 312 confirms whether or not the entire search area has been searched (S905).

探索済みではないと判断された場合、S902に戻り、対象隣接領域と探索領域にある別の画素群との絶対値和SADが求められる(S902)。全部探索済みとなった時点で、得られた一つまたは複数の候補テキスチャー信号は、第1テキスチャー取得器311により全て平均化されることにより、テキスチャー信号が生成される(S906)。   If it is determined that the search has not been completed, the process returns to S902, and the absolute value sum SAD between the target adjacent area and another pixel group in the search area is obtained (S902). When all the search has been completed, the obtained one or more candidate texture signals are all averaged by the first texture acquisition unit 311 to generate a texture signal (S906).

このテキスチャー信号は、上述のテキスチャー生成器308および第1外挿器309〜第N外挿器310により生成された他のテキスチャー信号とともに図2に示されるテキスチャー信号決定器202により、対象ブロックに最も近い(誤差の小さい)テキスチャー信号が選択され、選択されたテキスチャー信号は予測信号であると決定される。   This texture signal is sent to the target block by the texture signal determiner 202 shown in FIG. 2 together with the other texture signals generated by the texture generator 308 and the first extrapolator 309 to the Nth extrapolator 310 described above. A close (small error) texture signal is selected, and the selected texture signal is determined to be a prediction signal.

この実施の形態では、再生側も同じ閾値を用いる必要があり、送信側と受信側で閾値を予め決めておくことが必要である。また、別の実施形態として、閾値を圧縮データとともに送信側から受信側に伝送し、受信側は受信された閾値を用いて図10に示す方法で合成テキスチャー信号を生成してもよい。すなわち、予測信号生成器103はラインL112を経由してエントロピー符号化器111に閾値を示す情報を出力し、エントロピー符号化器111は、閾値情報を圧縮データとともに出力端子112から受信側に伝送することにより、閾値を受信側に伝送することができるようにしても良い。   In this embodiment, it is necessary to use the same threshold on the reproduction side, and it is necessary to determine the threshold in advance on the transmission side and the reception side. As another embodiment, the threshold value may be transmitted together with the compressed data from the transmission side to the reception side, and the reception side may generate the synthesized texture signal by the method shown in FIG. 10 using the received threshold value. That is, the prediction signal generator 103 outputs information indicating a threshold value to the entropy encoder 111 via the line L112, and the entropy encoder 111 transmits the threshold information together with the compressed data from the output terminal 112 to the reception side. Thus, the threshold value may be transmitted to the receiving side.

さらに、閾値に加えて平均化する候補テキスチャー信号の個数の上限を設定することも考えられる。この場合、候補テキスチャー信号の個数が上限を超えた場合には、上限値以下の個数の候補テキスチャー信号のみを平均化することになる。また、この上限値はフレームによって変更してもよく、その場合、送信側がフレームごとに上限値を受信側に送ることになる。例えば、上述と同様に予測信号生成器103は、ラインL112を経由してエントロピー符号化器111に出力し、出力端子112を経由して受信側に送信することができる。また、閾値を用いずに、平均化する候補テキスチャー信号の個数を決めて、常にその個数の候補テキスチャー信号を合成してもよい。この個数に関する情報は、フレーム内の領域ごと、フレームごと、またはシーケンスごとに送ってもよいし、送信側と受信側であらかじめ決定してある値を用いてもよい。   Furthermore, it is conceivable to set an upper limit for the number of candidate texture signals to be averaged in addition to the threshold value. In this case, when the number of candidate texture signals exceeds the upper limit, only the number of candidate texture signals equal to or less than the upper limit value is averaged. The upper limit value may be changed depending on the frame. In this case, the transmission side sends the upper limit value to the reception side for each frame. For example, as described above, the prediction signal generator 103 can output to the entropy encoder 111 via the line L112 and transmit it to the receiving side via the output terminal 112. Alternatively, the number of candidate texture signals to be averaged may be determined without using a threshold, and the number of candidate texture signals may be always synthesized. Information regarding this number may be sent for each region in the frame, for each frame, or for each sequence, or a value determined in advance on the transmitting side and the receiving side may be used.

上述方法であるテンプレートマッチングによって求まったSAD値がある閾値より小さいことは、これらのSAD値には大きな差がないことを意味する。このような最適解の不確定性の課題は、テンプレートマッチングによって生成された類似する複数のテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。また、本実施形態による画像予測符号化装置は、再生側(受信側である画像予測復号装置)で一意的にこれらのテキスチャー信号を求めることができるため、(どのテキスチャー信号を用いて合成するかを示す)補助情報を再生側に送る必要がないことから、このような補助情報を扱うことなく符号化できる効果がある。   If the SAD value obtained by the template matching as described above is smaller than a certain threshold value, it means that there is no great difference between these SAD values. Such a problem of the uncertainty of the optimal solution has an effect that a prediction signal with a small statistical error can be generated by combining (averaging) a plurality of similar texture signals generated by template matching. In addition, since the image predictive coding apparatus according to the present embodiment can uniquely obtain these texture signals on the reproduction side (image predictive decoding apparatus on the receiving side), (which texture signal is used for synthesis) Since it is not necessary to send auxiliary information to the reproduction side, there is an effect that encoding can be performed without handling such auxiliary information.

本発明にかかわるテキスチャー信号の加重平均において、SAD値に所定の関数で表せる関係(例えば逆比例関係)で候補テキスチャー信号を平均化するときに用いられる重みを決定した上で重み付け平均化を行なってもよい。さらに、これらの重み値は、ブロック単位、またはフレーム単位で学習的に更新されたものを用いてもよい。具体的にはSAD値に合わせた逐次更新式を用いて更新する。   In the weighted average of texture signals according to the present invention, weighting averaging is performed after determining weights used when averaging candidate texture signals in a relationship (for example, inversely proportional relationship) that can be expressed by a predetermined function in the SAD value. Also good. Furthermore, these weight values may be learned and updated in units of blocks or frames. Specifically, it is updated using a sequential update formula that matches the SAD value.

なお、図10における処理については、変形例として次の処理に変更してもよい。すなわち、画像予測符号化装置100では、ステップ904にて決定された候補テキスチャー信号の同じフレームにおける位置情報を取得し、これをバッファ部(図示せず)に格納し、格納された位置情報をエントロピー符号化した上で差分信号とともに受信側の画像予測復号装置に送信する。   In addition, about the process in FIG. 10, you may change to the following process as a modification. That is, the image predictive coding apparatus 100 acquires position information in the same frame of the candidate texture signal determined in step 904, stores it in a buffer unit (not shown), and stores the stored position information in entropy. The data is encoded and transmitted to the image predictive decoding device on the receiving side together with the difference signal.

受信側における画像予測復号装置では、画像予測符号化装置100から受信した位置情報をエントロピー復号した上で、この位置情報に基づいて、複数の候補テキスチャー信号をフレームメモリから取得し、それらを重み付け平均して、テキスチャー信号を生成する。すなわち、この変形例では、画像予測復号装置において、ステップ901〜905の処理の代わりに、受信した位置情報をもとに複数の候補テキスチャー信号をフレームメモリから取得する処理を行うことになる。   In the image predictive decoding device on the receiving side, the position information received from the image predictive encoding device 100 is entropy-decoded, and based on this position information, a plurality of candidate texture signals are acquired from the frame memory, and they are weighted averaged Then, a texture signal is generated. That is, in this modified example, in the image predictive decoding apparatus, instead of the processing in steps 901 to 905, processing for acquiring a plurality of candidate texture signals from the frame memory based on the received position information is performed.

また、別の変形例として画像予測符号化装置100は、図10のS901における対象隣接領域(テンプレート)を取得せずに、S902にて、対象ブロックと探索領域にある画素群とから差分値SADを求めて、候補テキスチャー信号を決定すると同時にその候補テキスチャー信号の位置情報(例えば、画面における座標情報)を取得し、これを受信側の画像予測復号装置に差分信号とともに送信する。受信側における画像予測復号装置では、受信した位置情報をエントロピー復号した上で、この位置情報に基づいて、複数の候補テキスチャー信号をフレームメモリから取得し、取得した候補テキスチャー信号に対して重み付け平均して、テキスチャー信号を生成する。   As another modification, the image predictive coding device 100 does not acquire the target adjacent region (template) in S901 of FIG. 10, and in S902, calculates the difference value SAD from the target block and the pixel group in the search region. The position information (for example, coordinate information on the screen) of the candidate texture signal is acquired at the same time as the candidate texture signal is determined, and this is transmitted together with the difference signal to the image predictive decoding apparatus on the receiving side. The image predictive decoding apparatus on the receiving side performs entropy decoding on the received position information, acquires a plurality of candidate texture signals from the frame memory based on the position information, and performs weighted averaging on the acquired candidate texture signals. To generate a texture signal.

このように、画像予測符号化装置100で候補テキスチャー信号の位置情報を取得して受信側の画像予測復号装置に送信し、受信側の画像予測復号装置ではこの位置情報を用いて候補テキスチャー信号を取得することができ、受信側の画像予測復号装置の処理負担を軽減することができる。   In this way, the image predictive coding apparatus 100 acquires the position information of the candidate texture signal and transmits it to the image predictive decoding apparatus on the receiving side, and the image predictive decoding apparatus on the receiving side uses this position information to generate the candidate texture signal. Can be acquired, and the processing load of the image predictive decoding apparatus on the receiving side can be reduced.

つぎに、本発明による画像予測復号方法について説明する。図11は、本発明の実施形態による画像予測復号装置900を示すブロック図である。この画像予測復号装置900は、入力端子901、データ解析器902、逆量子化器903、逆変換器904、加算器905、出力端子906、フレームメモリ907、テキスチャー合成器908である。逆量子化器903と逆変換器904とは、復号手段として機能するが、復号手段としてそれ以外のものを用いてもよい。また逆変換器904はなくてもよい。以下、各構成について説明する。   Next, an image predictive decoding method according to the present invention will be described. FIG. 11 is a block diagram illustrating an image predictive decoding apparatus 900 according to an embodiment of the present invention. The image predictive decoding apparatus 900 includes an input terminal 901, a data analyzer 902, an inverse quantizer 903, an inverse transformer 904, an adder 905, an output terminal 906, a frame memory 907, and a texture synthesizer 908. The inverse quantizer 903 and the inverse transformer 904 function as a decoding unit, but other units may be used as the decoding unit. Further, the inverse converter 904 may be omitted. Each configuration will be described below.

入力端子901は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、画像を複数のブロックに分割された対象ブロックを予測し符号化された残差信号及び予測信号の生成に関連する情報が含まれている。予測信号の生成に関連する予測信号生成関連情報として、図3に示したテキスチャー生成器307、308と第1外挿器309、第N外挿器310の中からどれ(ひとつまたはひとつ以上の組み合わせ)を利用するかを示す指示情報が含まれる。また、合成器301に配置されている重み付け器303〜306に用いられる重みの値に関する情報を含めてもよい。さらに、図10に示すテンプレートマッチング方法を用いて合成テキスチャー信号を生成する場合、上述した閾値や合成に用いるテキスチャー信号の個数の上限値を予測信号の生成に関連する情報に含めることになる。   The input terminal 901 inputs compressed data that has been compression-encoded by the above-described image predictive encoding method. The compressed data includes a residual signal encoded by predicting a target block obtained by dividing an image into a plurality of blocks, and information related to generation of a prediction signal. As the prediction signal generation related information related to the generation of the prediction signal, which one of the texture generators 307 and 308, the first extrapolator 309, and the Nth extrapolator 310 shown in FIG. ) Is included. Moreover, you may include the information regarding the value of the weight used for the weighters 303-306 arrange | positioned at the combiner 301. FIG. Furthermore, when a synthesized texture signal is generated using the template matching method shown in FIG. 10, the threshold value and the upper limit value of the number of texture signals used for synthesis are included in the information related to the generation of the prediction signal.

データ解析器902は、入力端子901で入力した圧縮データを解析することにより、対象ブロックの残差信号、予測信号の生成に関連する予測信号生成関連情報、量子化パラメータを抽出する。   The data analyzer 902 extracts the residual signal of the target block, the prediction signal generation related information related to the generation of the prediction signal, and the quantization parameter by analyzing the compressed data input at the input terminal 901.

逆量子化器903は、対象ブロックの残差信号を量子化パラメータ(ラインL902経由)に基づいて逆量子化する。逆変換器904は、逆量子化したデータを逆離散コサイン変換する。   The inverse quantizer 903 inversely quantizes the residual signal of the target block based on the quantization parameter (via the line L902). The inverse transformer 904 performs inverse discrete cosine transform on the inversely quantized data.

テキスチャー合成器908は、データ解析器902からラインL902b経由で予測信号の生成に関連する情報を入力する。このテキスチャー合成器908は、(後述するような方法で)予測信号の生成に関連する予測信号生成関連情報に基づいて、フレームメモリ907から参照画像を取得し予測信号を生成する。テキスチャー合成器908は、生成した予測信号をラインL908経由で加算器905に出力する。なお、予測信号を生成するための情報を予測信号生成関連情報として入力することなく、予め定めておいてもよい。例えば、図10で示される閾値や、重み付け器303〜306における重み値については、予め記憶しておいても良い。   The texture synthesizer 908 inputs information related to the generation of the prediction signal from the data analyzer 902 via the line L902b. The texture synthesizer 908 acquires a reference image from the frame memory 907 and generates a prediction signal based on prediction signal generation related information related to generation of a prediction signal (in a method as described later). The texture synthesizer 908 outputs the generated prediction signal to the adder 905 via the line L908. Note that the information for generating the prediction signal may be determined in advance without inputting the information for generating the prediction signal. For example, the threshold values shown in FIG. 10 and the weight values in the weighters 303 to 306 may be stored in advance.

加算器905は、テキスチャー合成器908で生成された予測信号を、逆量子化器903および逆変換器904により復元された残差信号に加算して、対象ブロックである再生画像をラインL905経由で出力端子906およびフレームメモリ907に出力する。そして、出力端子906は、外部に(例えばディスプレイ)出力する。   The adder 905 adds the prediction signal generated by the texture synthesizer 908 to the residual signal restored by the inverse quantizer 903 and the inverse transformer 904, and the reproduced image which is the target block via the line L905. The data is output to the output terminal 906 and the frame memory 907. The output terminal 906 outputs to the outside (for example, a display).

フレームメモリ907は、つぎの復号処理のための参照用の再生画像として加算器905から出力された再生画像を参照画像として記憶する。   The frame memory 907 stores the playback image output from the adder 905 as a reference playback image for the next decoding process as a reference image.

つぎに、テキスチャー合成器908について説明する。テキスチャー合成器908の詳細は図12に示されており、基本的に図3に示した構成と同じ構成またはそれに相当するような機能をもつ。ラインL902b経由で入力される予測信号の生成に関連する予測信号生成関連情報によって、テキスチャー生成器1007〜1008、第1外挿器1009〜第N外挿器1010のどれを用いてテキスチャー信号を生成するか、が制御される。   Next, the texture synthesizer 908 will be described. The details of the texture synthesizer 908 are shown in FIG. 12, and basically have the same configuration as the configuration shown in FIG. 3 or a function corresponding thereto. A texture signal is generated using any one of the texture generators 1007 to 1008 and the first extrapolator 1009 to the Nth extrapolator 1010 according to the prediction signal generation related information related to the generation of the prediction signal input via the line L902b. Is controlled.

例えば、再生の対象となる対象ブロックに対し、テキスチャー生成器1007〜1008を用いることを示す予測信号生成関連情報を受信した場合、テキスチャー生成器1007〜1008のみが作動し、それ以外の第1外挿器1009〜第N外挿器1010は作動しない。また、例えば、第1外挿器1009を用いてテキスチャー信号を生成することを示す予測信号生成関連情報を受信した場合、それ以外の第N外挿器1010およびテキスチャー生成器1007〜1008は作動しない。なお、それ以外の組み合わせで予測信号生成関連情報が生成されてもよい。例えばテキスチャー生成器1007と第1外挿器1009のみを用いることを示す予測信号生成関連情報もありえる。   For example, when the prediction signal generation related information indicating that the texture generators 1007 to 1008 are used is received for the target block to be reproduced, only the texture generators 1007 to 1008 are operated, and the other first outside The insertion device 1009 to the Nth extrapolation device 1010 do not operate. For example, when prediction signal generation related information indicating that a texture signal is generated using the first extrapolator 1009 is received, the other Nth extrapolator 1010 and texture generators 1007 to 1008 do not operate. . Note that the prediction signal generation related information may be generated by other combinations. For example, there may be prediction signal generation related information indicating that only the texture generator 1007 and the first extrapolator 1009 are used.

以上のとおり、合成器1001は、少なくとも一つのテキスチャー信号を用いて合成テキスチャー信号(すなわち予測信号)を生成すればよく、例えば、ライン902bを経由して受信された予測信号生成関連情報に基づいて、テキスチャー生成器1007〜1008、および第1外挿器1009〜第N外挿器1010のうち、いずれか一つのテキスチャー生成器または外挿器から出力されたテキスチャー信号(または外挿テキスチャー信号)を用いて合成テキスチャー信号とすればよい。   As described above, the synthesizer 1001 may generate a synthesized texture signal (that is, a prediction signal) using at least one texture signal. For example, based on the prediction signal generation related information received via the line 902b. A texture signal (or extrapolation texture signal) output from any one of the texture generators or extrapolators among the texture generators 1007 to 1008 and the first extrapolator 1009 to the Nth extrapolator 1010. It may be used as a synthesized texture signal.

テキスチャー生成器1007、1008は、それぞれ図3にあるテキスチャー生成器307、308と同じ処理でテキスチャー信号を生成する。詳細は上述した通りである。また、第1外挿器1009、第N外挿器1010はそれぞれ図3にて説明した第1外挿器309、第N外挿器310と同じ方法でテキスチャー信号を生成する。   The texture generators 1007 and 1008 generate texture signals by the same processing as the texture generators 307 and 308 shown in FIG. Details are as described above. The first extrapolator 1009 and the Nth extrapolator 1010 generate texture signals in the same manner as the first extrapolator 309 and the Nth extrapolator 310 described in FIG.

このように、予測信号の生成に関連する予測信号生成関連情報(ラインL92b経由)で指定されたテキスチャー生成器1007若しくは1008、第1外挿器1009または第N外挿器1010でテキスチャー信号が生成され、合成器1001に送られる。本実施の形態では、送られたテキスチャー信号に対し、重み付け器1003〜1006が予め定められた重み値で、重み付け処理して加算器1002に送られる。加算器1002では、重み付け処理されたテキスチャー信号を加算し、加算したテキスチャー信号を予測信号としてラインL908経由で出力する。なお、重み付け器1003〜1006に用いられる重み値が予め定められていない場合、予測信号の生成に関連する予測信号生成関連情報に付加された重み値を重み付け器1003〜1006に適用させることが可能である。   In this way, a texture signal is generated by the texture generator 1007 or 1008, the first extrapolator 1009 or the Nth extrapolator 1010 specified by the prediction signal generation related information (via the line L92b) related to the generation of the prediction signal. And sent to the synthesizer 1001. In the present embodiment, weighters 1003 to 1006 perform weighting processing on the sent texture signal with a predetermined weight value, and are sent to adder 1002. The adder 1002 adds the weighted texture signals and outputs the added texture signal as a prediction signal via the line L908. When the weight values used for the weighters 1003 to 1006 are not determined in advance, the weight values added to the prediction signal generation related information related to the generation of the prediction signal can be applied to the weighters 1003 to 1006. It is.

なお、図12においては、テキスチャー生成器のみでテキスチャー信号を生成する場合においては、信号外挿器はなくてもよい。この場合予測信号の生成に関連する予測信号生成関連情報にはテキスチャー生成器、第1外挿器または第N外挿器のうち、どれを用いるかを示す指示情報は不要となる。   In FIG. 12, when a texture signal is generated only by a texture generator, there is no need for a signal extrapolator. In this case, the prediction signal generation related information related to the generation of the prediction signal does not require instruction information indicating which one of the texture generator, the first extrapolator, and the Nth extrapolator is used.

上述したように、画像予測符号化装置100から対象隣接領域または対象ブロックから求められた候補テキスチャー信号の位置情報を受信した場合には、画像予測復号装置900は、受信した位置情報をエントロピー復号した上で、この位置情報に基づいて、複数の候補テキスチャー信号をフレームメモリ907から取得し、取得した候補テキスチャー信号に対して重み付け平均して、テキスチャー信号を生成する。これにより、候補テキスチャー信号の生成処理を軽減することができる。   As described above, when the position information of the candidate texture signal obtained from the target adjacent region or target block is received from the image predictive coding apparatus 100, the image predictive decoding apparatus 900 entropy-decodes the received position information. On the basis of this position information, a plurality of candidate texture signals are acquired from the frame memory 907, and the acquired candidate texture signals are weighted and averaged to generate a texture signal. Thereby, the generation process of a candidate texture signal can be reduced.

つぎに、図13を用いて本発明の実施形態による画像予測復号装置900における画像予測復号方法を説明する。まず、入力端子901を介して、圧縮された圧縮データは入力される(S1102)。そして、データ解析器902において、圧縮データに対しエントロピー復号が行われ、量子化された変換係数、量子化パラメータ、予測信号生成関連情報が抽出される(S1103)。ここで抽出された予測信号生成関連情報に基づいて、テキスチャー合成器908では複数のテキスチャー信号が生成され、生成された複数のテキスチャー信号が合成されることによって予測信号が生成される(S1104)。   Next, an image predictive decoding method in the image predictive decoding apparatus 900 according to the embodiment of the present invention will be described with reference to FIG. First, the compressed data is input via the input terminal 901 (S1102). Then, in the data analyzer 902, entropy decoding is performed on the compressed data, and quantized transform coefficients, quantization parameters, and prediction signal generation related information are extracted (S1103). Based on the extracted prediction signal generation related information, the texture synthesizer 908 generates a plurality of texture signals, and generates a prediction signal by combining the generated plurality of texture signals (S1104).

一方、量子化された変換係数は、逆量子化器903において量子化パラメータを用いて逆量子化され、逆変換器904において逆変換が行われ、再生差分信号が生成される(S1105、S1106)。そして、生成された予測信号と再生差分信号とが加算され再生信号が生成される(S1107)。この生成された再生信号は次の対象ブロックを再生するためにフレームメモリに格納される(S1108)。つぎの圧縮データがある場合には、再度このプロセスを繰り返し(S1103)、全てデータは最後まで処理される(S1109)。なお、必要に応じてS1102に戻り、圧縮データを取り込むようにしても良い。   On the other hand, the quantized transform coefficient is inversely quantized using the quantization parameter in the inverse quantizer 903, and inverse transform is performed in the inverse transformer 904 to generate a reproduction difference signal (S1105, S1106). . Then, the generated prediction signal and the reproduction difference signal are added to generate a reproduction signal (S1107). The generated reproduction signal is stored in the frame memory to reproduce the next target block (S1108). If there is next compressed data, this process is repeated again (S1103), and all data is processed to the end (S1109). If necessary, the process may return to S1102 to capture compressed data.

本発明による画像予測符号化方法及び画像予測復号方法を、プログラムとして記録媒体に格納されて提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。   The image predictive encoding method and the image predictive decoding method according to the present invention can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory.

図14は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、エントロピー符号化モジュールP111を含んで構成されている。なお、予測信号生成モジュールP103は、図15に示すように、合成モジュールP301、テキスチャー生成モジュールP311、外挿モジュールP309を含んで構成されている。   FIG. 14 is a block diagram illustrating modules of a program that can execute the image predictive coding method. The image predictive coding program P100 includes a block division module P102, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a transformation module P106, a quantization module P107, an inverse quantization module P108, an inverse transformation module P109, and an addition module P110. The entropy encoding module P111 is included. As shown in FIG. 15, the prediction signal generation module P103 includes a synthesis module P301, a texture generation module P311 and an extrapolation module P309.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の各構成要素と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111の機能と同様である。   The functions realized by executing the modules are the same as those of the constituent elements of the image predictive coding apparatus 100 described above. That is, the function of each module of the image predictive coding program P100 includes a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, an inverse quantizer 108, and an inverse quantizer. The functions of the converter 109, the adder 110, and the entropy encoder 111 are the same.

また、図16は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP900は、データ解析モジュールP902、逆量子化モジュールP903、逆変換モジュールP904、加算モジュールP905、記憶モジュールP907、テキスチャー合成モジュールP908を含んで構成されている。   FIG. 16 is a block diagram showing modules of a program that can execute the image predictive decoding method. The image predictive decoding program P900 includes a data analysis module P902, an inverse quantization module P903, an inverse transform module P904, an addition module P905, a storage module P907, and a texture synthesis module P908.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置900の各構成要素と同じである。すなわち、画像予測復号プログラムP900の各モジュールの機能は、データ解析器902、逆量子化器903、逆変換器904、加算器905、フレームメモリ907、テキスチャー合成器908の機能と同様である。   The functions realized by executing the modules are the same as those of the components of the image predictive decoding apparatus 900 described above. That is, the functions of each module of the image predictive decoding program P900 are the same as the functions of the data analyzer 902, the inverse quantizer 903, the inverse transformer 904, the adder 905, the frame memory 907, and the texture synthesizer 908.

このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP900は、記録媒体10に記憶され、後述するコンピュータで実行される。   The image predictive encoding program P100 or the image predictive decoding program P900 configured as described above is stored in the recording medium 10 and executed by a computer described later.

図17は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図18は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。コンピュータとして、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 17 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 18 is a perspective view of the computer for executing a program stored in the recording medium. Examples of the computer include a DVD player, a set-top box, a mobile phone, etc. that have a CPU and perform processing and control by software.

図17に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化・復号プログラムによって、本発明による画像符号化装置または画像復号装置として動作することが可能になる。   As shown in FIG. 17, the computer 30 includes a reading device 12 such as a floppy disk drive device, a CD-ROM drive device, a DVD drive device, a working memory (RAM) 14 in which an operating system is resident, and a recording medium 10. A memory 16 for storing programs stored therein, a display device 18 such as a display, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and a CPU 26 for controlling execution of the programs. And. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the image predictive encoding / decoding program stored in the recording medium 10 from the reading device 12, and by the image encoding / decoding program, It becomes possible to operate as an image encoding device or an image decoding device according to the present invention.

図18に示すように、画像予測符号化プログラムもしくは画像復号プログラは、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムもしくは画像復号プログラをメモリ16に格納し、当該画像予測符号化プログラムもしくは画像予測復号プログラムを実行することができる。   As shown in FIG. 18, the image predictive encoding program or the image decoding program may be provided via a network as a computer data signal 40 superimposed on a carrier wave. In this case, the computer 30 can store the image predictive encoding program or the image decoding program received by the communication device 24 in the memory 16 and execute the image predictive encoding program or the image predictive decoding program.

このように、本発明による画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、画像予測復号プログラムによれば、従来技術に用いられる外挿の方法で画面内予測信号を生成した場合、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を防ぎ、複雑な絵柄をもつ画像信号を効率よく予測できるようになる。   As described above, according to the image predictive encoding device, the image predictive decoding device, the image predictive encoding method, the image predictive decoding method, the image predictive encoding program, and the image predictive decoding program according to the present invention, the extrapolation used in the prior art is used. When the intra-screen prediction signal is generated by this method, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target block and to efficiently predict an image signal having a complicated pattern.

つぎに、本実施形態の画像予測符号化装置100の作用効果について説明する。本実施形態の画像予測符号化装置100は、入力端子101から入力された入力画像をブロック分割器102が複数の領域に分割し、分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を予測信号生成器103が生成する。そして、減算器105は、生成された予測信号と対象画素信号との残差信号を生成し、変換器106、量子化器107、およびエントロピー符号化器111は残差信号を符号化して圧縮データを生成することができる。   Next, the operational effects of the image predictive coding device 100 of the present embodiment will be described. In the image predictive coding device 100 according to the present embodiment, a block divider 102 divides an input image input from an input terminal 101 into a plurality of regions, and a target region that is a processing target of the plurality of divided regions. The prediction signal generator 103 generates a prediction signal for the target pixel signal. Then, the subtractor 105 generates a residual signal between the generated prediction signal and the target pixel signal, and the converter 106, the quantizer 107, and the entropy encoder 111 encode the residual signal and compress the compressed data. Can be generated.

ここで、予測信号生成器103は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Here, the prediction signal generator 103 generates a texture signal based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined texture synthesis method. Thus, a prediction signal can be generated. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target block, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、予測信号生成器103は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象ブロックと当該対象ブロックに接する「対象隣接領域」との相関が高い性質を利用することができ、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the prediction signal generator 103 generates a plurality of texture signals having a high correlation with the adjacent area based on the adjacent area composed of the already reproduced pixel signals adjacent to the target pixel signal, and the generated plurality of texture signals. A prediction signal can be generated by processing using a predetermined synthesis method. This makes it possible to take advantage of the high correlation between the target block and the “target adjacent region” that touches the target block, prevents a decrease in prediction accuracy for pixels far from the boundary of the target block, and makes the texture signal complex. Even in this case, the prediction signal can be generated efficiently.

また、予測信号生成器103は、対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象ブロックと当該対象ブロックに接する「対象隣接領域」との相関が高い性質を利用することができ、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the prediction signal generator 103 generates and generates a plurality of texture signals having high correlation with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. The prediction signal can be generated by processing the plurality of texture signals using a predetermined synthesis method. This makes it possible to take advantage of the high correlation between the target block and the “target adjacent region” that touches the target block, prevents a decrease in prediction accuracy for pixels far from the boundary of the target block, and makes the texture signal complex. Even in this case, the prediction signal can be generated efficiently.

また、予測信号生成器103は、第1外挿器309または第N外挿器310において対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、テキスチャー信号および外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the prediction signal generator 103 generates an extrapolated texture signal by repeating the already reproduced pixel values adjacent to the target pixel signal in the first extrapolator 309 or the Nth extrapolator 310 to form pixels. The prediction signal can be generated by combining the texture signal and the extrapolation texture signal using a predetermined combining method. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target block, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

また、予測信号生成器103は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることができる。これにより、対象ブロックとそれに接する「対象隣接領域」との相関が高い性質を利用して、既再生の画像領域から対象隣接領域に対し誤差の最も少ない領域を予測隣接領域として検出し、その予測隣接領域に隣接すると同時に対象ブロックに対応する画素群を対象ブロックのテキスチャー信号とすることで、テキスチャーが複雑な場合でも対象隣接領域と同じ絵柄の予測信号を生成することができ、また対象ブロックの境界から離れていても同じ絵柄のテキスチャー信号を生成することができる。   Further, the prediction signal generator 103 searches for a prediction adjacent region having a high correlation with respect to an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal from a search region that is a predetermined reproduced image, and performs the search. An image area determined based on the predicted adjacent area can be used as a texture signal. As a result, by utilizing the property that the target block and the “target adjacent region” adjacent to the target block are highly correlated, the region having the least error relative to the target adjacent region is detected as the predicted adjacent region from the already reproduced image region. By using the pixel group corresponding to the target block at the same time as adjacent to the adjacent area as the texture signal of the target block, a prediction signal having the same pattern as the target adjacent area can be generated even when the texture is complex. A texture signal with the same pattern can be generated even if it is far from the boundary.

また、エントロピー符号化器111は、テキスチャー合成方法を示す関連情報(例えば、重み値、どのテキスチャー生成器を使うかを示す情報など)を符号化し、符号化された符号化信号とともに、符号化された関連情報を出力端子112を介して送出することができる。これにより、画像のテキスチャー合成方法を受信側に知らせることができ、受信側ではこの知らされたテキスチャー合成方法を用いて予測信号を生成することができるため、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   The entropy encoder 111 encodes related information indicating a texture synthesis method (for example, information indicating a weight value and which texture generator is used) and is encoded together with the encoded signal. Related information can be transmitted via the output terminal 112. As a result, the image texture synthesis method can be notified to the reception side, and the reception side can generate a prediction signal by using the informed texture synthesis method, so that prediction for pixels far from the boundary of the target block can be performed. A decrease in accuracy can be prevented, and a prediction signal can be efficiently generated even when the texture signal is complicated.

また、テキスチャー合成器201は、各テキスチャー生成器307、308、および第1外挿器309ならびに第N外挿器310により生成された、対象画素信号に対する複数のテキスチャー信号に対して、合成器301(重み器303〜306)において予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することができる。これにより、テンプレートマッチングによって生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。   The texture synthesizer 201 also synthesizes the texture signals generated by the texture generators 307 and 308, the first extrapolator 309, and the Nth extrapolator 310 with respect to the plurality of texture signals for the target pixel signal. (Weighters 303 to 306) can generate a prediction signal by performing a weighted average process using a predetermined weighting coefficient. Thereby, there is an effect that a prediction signal with a small statistical error can be generated by synthesizing (averaging) the texture signals generated by template matching.

さらに、「対象隣接領域」に基づいて既再生の画像領域とのマッチング(テンプレートマッチング)で求まった差分値が大きな差がない場合における不確定性の課題は、テンプレートマッチングによって生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。また、本発明によれば、複数のテキスチャー信号を合成することによって、それぞれのテキスチャーに含まれる符号化歪を抑える効果があり、誤差の少ない予測信号を生成することができる。   Furthermore, the problem of uncertainty in the case where there is no large difference between the difference values obtained by matching (template matching) with the already reproduced image area based on the “target adjacent area” is the problem of the texture signal generated by template matching. By combining (averaging), it is possible to generate a prediction signal with a small statistical error. Further, according to the present invention, by synthesizing a plurality of texture signals, there is an effect of suppressing coding distortion included in each texture, and a prediction signal with few errors can be generated.

また、例えばテキスチャー生成器307は、対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、例えばテキスチャー生成器308は、上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、それぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   In addition, for example, the texture generator 307 may determine whether the adjacent region based on the adjacent region including the already reproduced pixel signal adjacent to the target pixel signal from the first search region within the same screen as the target pixel signal. At least one texture signal having a high correlation is generated. For example, the texture generator 308 generates from the already reproduced pixel signal adjacent to the target pixel signal from the second search area which is a screen different from the first search area. Generating a prediction signal by generating at least one texture signal having a high correlation with the adjacent area and combining the generated texture signals using a predetermined texture synthesis method. Can do. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target block, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、入力端子101を介して入力した入力画像を複数の領域にブロック分割器102は分割し、分割された上記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を予測信号生成器103は生成する。そして、生成された予測信号と上記対象画素信号との残差信号を減算器105が生成し、生成された上記残差信号を、変換器106、量子化器107、およびエントロピー符号化器111が符号化して圧縮信号を生成することができる。さらに、予測信号生成器103においては、対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより少なくとも一つの外挿テキスチャー信号を第1外挿器309および第N外挿器310が生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成器301が合成することにより予測信号を生成することができる。これにより、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the block divider 102 divides the input image input via the input terminal 101 into a plurality of regions, and predicts a prediction signal for the target pixel signal in the target region that is the processing target among the divided regions. The signal generator 103 generates. Then, a subtractor 105 generates a residual signal between the generated prediction signal and the target pixel signal, and a converter 106, a quantizer 107, and an entropy encoder 111 generate the generated residual signal. It can be encoded to produce a compressed signal. Further, the prediction signal generator 103 generates at least one extrapolated texture signal from the first extrapolator 309 and the Nth extrapolator by repeating the previously reproduced pixel values adjacent to the target pixel signal to form pixels. 310, and the synthesizer 301 synthesizes the extrapolation texture signal using a predetermined synthesis method, thereby generating a prediction signal. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target block, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

つぎに画像予測復号装置900の作用効果について説明する。画像予測復号装置900は、入力端子901から入力した圧縮データの中から処理対象である対象領域に関する残差信号をデータ解析器902が抽出して、逆量子化器903および逆変換器904において再生残差信号に復元する。そして、テキスチャー合成器908は上記対象領域の対象画素信号に対する予測信号を生成し、加算器905が生成された予測信号と上記残差信号復元手段により復元された再生残差信号とを加算することによって、上記対象領域の画素信号を復元し、フレームメモリ907に復元された画素信号を参照画像として記憶することができる。そして、フレームメモリ907に記憶されている、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。   Next, operational effects of the image predictive decoding apparatus 900 will be described. In the image predictive decoding apparatus 900, the data analyzer 902 extracts a residual signal related to the target region to be processed from the compressed data input from the input terminal 901, and reproduces it in the inverse quantizer 903 and the inverse transformer 904. Restore to residual signal. Then, the texture synthesizer 908 generates a prediction signal for the target pixel signal in the target region, and adds the prediction signal generated by the adder 905 and the reproduction residual signal restored by the residual signal restoration means. Thus, the pixel signal of the target area can be restored, and the restored pixel signal can be stored in the frame memory 907 as a reference image. Then, a texture signal is generated based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal stored in the frame memory 907, and the generated texture signal is processed using a predetermined synthesis method. Thus, a prediction signal can be generated.

また、テキスチャー合成器908は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象ブロックと当該対象ブロックに接する「対象隣接領域」との相関が高い性質を利用することができ、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the texture synthesizer 908 generates a plurality of texture signals having high correlation with the adjacent region based on the adjacent region composed of the already reproduced pixel signals adjacent to the target pixel signal, and the generated plurality of texture signals in advance. A prediction signal can be generated by processing using a predetermined synthesis method. This makes it possible to take advantage of the high correlation between the target block and the “target adjacent region” that touches the target block, prevents a decrease in prediction accuracy for pixels far from the boundary of the target block, and makes the texture signal complex. Even in this case, the prediction signal can be generated efficiently.

また、テキスチャー合成器908は、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象ブロックと当該対象ブロックに接する「対象隣接領域」との相関が高い性質を利用することができ、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the texture synthesizer 908 generates and generates a plurality of texture signals having high correlation with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. The prediction signal can be generated by processing the plurality of texture signals using a predetermined synthesis method. This makes it possible to take advantage of the high correlation between the target block and the “target adjacent region” that touches the target block, prevents a decrease in prediction accuracy for pixels far from the boundary of the target block, and makes the texture signal complex. Even in this case, the prediction signal can be generated efficiently.

また、テキスチャー合成器908の第1外挿器1009または第N外挿器1010が、対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、テキスチャー信号および外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, the first extrapolator 1009 or the Nth extrapolator 1010 of the texture synthesizer 908 generates an extrapolated texture signal by repeating the already reproduced pixel values adjacent to the target pixel signal to form a pixel, The prediction signal can be generated by synthesizing the texture signal and the extrapolation texture signal using a predetermined synthesis method. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target block, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

また、テキスチャー合成器908は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることができる。これにより、対象ブロックとそれに接する「対象隣接領域」との相関が高い性質を利用して、既再生の画像領域から対象隣接領域に対し誤差の最も少ない領域を予測隣接領域として検出し、その予測隣接領域に隣接すると同時に対象ブロックに対応する画素群を対象ブロックのテキスチャー信号とすることで、テキスチャーが複雑な場合でも対象隣接領域と同じ絵柄の予測信号を生成することができ、また対象ブロックの境界から離れていても同じ絵柄のテキスチャー信号を生成することができる。   Further, the texture synthesizer 908 searches for a predicted adjacent area having a high correlation with respect to an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a search area that is a previously reproduced image, and performs the search. An image area determined based on the predicted adjacent area can be used as a texture signal. As a result, by utilizing the property that the target block and the “target adjacent region” adjacent to the target block are highly correlated, the region having the least error relative to the target adjacent region is detected as the predicted adjacent region from the already reproduced image region. By using the pixel group corresponding to the target block at the same time as adjacent to the adjacent area as the texture signal of the target block, a prediction signal having the same pattern as the target adjacent area can be generated even when the texture is complex. A texture signal with the same pattern can be generated even if it is far from the boundary.

また、入力端子901から入力された圧縮データには、テキスチャー合成方法を示す関連情報が含まれており、テキスチャー合成器908はこの関連情報を利用して対象領域のテキスチャー信号を形成することができる。これにより、受信側ではテキスチャー合成方法を知ることができ、この知らされたテキスチャー合成方法を用いて予測信号を生成することができるため、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   In addition, the compressed data input from the input terminal 901 includes related information indicating a texture synthesis method, and the texture synthesizer 908 can form a texture signal of the target region using this related information. . As a result, the receiving side can know the texture synthesis method, and can generate a prediction signal using the informed texture synthesis method, thus preventing a decrease in prediction accuracy for pixels far from the boundary of the target block. Thus, even when the texture signal is complicated, the prediction signal can be generated efficiently.

テキスチャー合成器908は、対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することができる。これにより、テンプレートマッチングによって生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。   The texture synthesizer 908 can generate a prediction signal by synthesizing a plurality of texture signals for the target pixel signal by performing a weighted average process using a predetermined weighting coefficient. Thereby, there is an effect that a prediction signal with a small statistical error can be generated by synthesizing (averaging) the texture signals generated by template matching.

さらに、「対象隣接領域」に基づいて既再生の画像領域とのマッチング(テンプレートマッチング)で求まった差分値が大きな差がない場合における不確定性の課題は、テンプレートマッチングによって生成されたテキスチャー信号の合成(平均化)によって、統計的に誤差の少ない予測信号を生成できる効果がある。また、本発明によれば、複数のテキスチャー信号を合成することによって、それぞれのテキスチャーに含まれる符号化歪を抑える効果があり、誤差の少ない予測信号を生成することができる。   Furthermore, the problem of uncertainty in the case where there is no large difference between the difference values obtained by matching (template matching) with the already reproduced image area based on the “target adjacent area” is the problem of the texture signal generated by template matching. By combining (averaging), it is possible to generate a prediction signal with a small statistical error. Further, according to the present invention, by synthesizing a plurality of texture signals, there is an effect of suppressing coding distortion included in each texture, and a prediction signal with few errors can be generated.

また、テキスチャー合成器908において、例えば、テキスチャー生成器1007が対象画素信号と同一の画面内である第1の探索領域から、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、また、例えばテキスチャー生成器1008が上記第1の探索領域とは異なる画面である第2の探索領域から上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、合成器1001がそれぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することができる。これにより、画像のテキスチャー合成方法を用いて予測信号を生成するため、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, in the texture synthesizer 908, for example, the texture generator 1007 is based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal from the first search region in the same screen as the target pixel signal. Then, at least one texture signal having a high correlation with the adjacent area is generated, and for example, the texture generator 1008 is adjacent to the target pixel signal from a second search area that is a different screen from the first search area. Based on the adjacent area composed of the already reproduced pixel signals to be generated, at least one texture signal highly correlated with the adjacent area is generated, and the synthesizer 1001 uses a predetermined texture synthesis method for each of the generated texture signals. The prediction signal can be generated by synthesizing them. As a result, since the prediction signal is generated using the image texture synthesis method, it is possible to prevent a decrease in prediction accuracy for pixels far from the boundary of the target block, and to efficiently generate the prediction signal even when the texture signal is complicated. Can do.

また、画像予測復号装置900は、データ解析器902が圧縮データの中から上記対象領域に関する残差信号を抽出して、逆量子化器903および逆変換器904が再生残差信号に復元し、テキスチャー合成器908が上記対象領域の対象画素信号に対する予測信号を生成する。そして、加算器905が予測信号と再生残差信号とを加算することによって、対象領域の画素信号を復元することができる。そして、テキスチャー合成器908においては、第1外挿器1009および第N外挿器1010が対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより少なくとも一つの外挿テキスチャー信号を生成し、上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することができる。これにより、対象ブロックの境界から遠く離れる画素に対する予測精度の低下を阻止でき、テキスチャー信号が複雑な場合でも効率よく予測信号を生成することができる。   Further, in the image predictive decoding apparatus 900, the data analyzer 902 extracts the residual signal related to the target region from the compressed data, and the inverse quantizer 903 and the inverse transformer 904 restore the reproduced residual signal, A texture synthesizer 908 generates a prediction signal for the target pixel signal in the target region. Then, the adder 905 adds the prediction signal and the reproduction residual signal, so that the pixel signal in the target region can be restored. In the texture synthesizer 908, the first extrapolator 1009 and the Nth extrapolator 1010 repeat at least one pixel value already reproduced adjacent to the target pixel signal to form a pixel, thereby at least one extrapolation texture signal. , And the prediction signal can be generated by combining the extrapolated texture signal using a predetermined combining method. Thereby, it is possible to prevent a decrease in prediction accuracy for pixels far away from the boundary of the target block, and it is possible to efficiently generate a prediction signal even when the texture signal is complicated.

なお、本実施形態によれば、以下の画像予測符号化方法および画像予測復号方法としても捉えることができる。   In addition, according to this embodiment, it can also be grasped as the following image predictive encoding method and image predictive decoding method.

すなわち、画像予測符号化方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   That is, in the image predictive coding method, the prediction signal generation step generates a plurality of texture signals having a high correlation with the adjacent region based on the adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal. Preferably, the prediction signal is generated by processing the plurality of generated texture signals using a predetermined synthesis method.

また、画像予測符号化方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   In the image predictive coding method, the prediction signal generation step includes a plurality of high correlations with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. It is preferable to generate the prediction signal by generating the texture signal and processing the plurality of generated texture signals using a predetermined synthesis method.

また、画像予測符号化方法において、上記予測信号生成ステップは、さらに、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記テキスチャー信号および上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することが好ましい。   Further, in the image predictive coding method, the prediction signal generation step further generates an extrapolation texture signal by repeating the already reproduced pixel values adjacent to the target pixel signal to form a pixel, and the texture signal It is preferable to generate the prediction signal by combining the extrapolation texture signal using a predetermined combining method.

また、画像予測符号化方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることが好ましい。   Further, in the image predictive coding method, the prediction signal generation step is a pre-reproduced image in which a predictive adjacent region having a high correlation with an adjacent region composed of pre-reproduced pixel signals adjacent to the target pixel signal is determined in advance. It is preferable to search from the search area and use an image area defined based on the searched predicted adjacent area as a texture signal.

また、画像予測復号方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, in the image predictive decoding method, the prediction signal generation step generates a plurality of texture signals having high correlation with the adjacent region based on the adjacent region composed of the already reproduced pixel signals adjacent to the target pixel signal. It is preferable to generate the prediction signal by processing the plurality of generated texture signals using a predetermined synthesis method.

また、画像予測復号方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することが好ましい。   Further, in the image predictive decoding method, the prediction signal generation step includes a plurality of high correlations with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. It is preferable to generate a prediction signal by generating a texture signal and processing the generated plurality of texture signals using a predetermined synthesis method.

また、画像予測復号方法において、上記予測信号生成ステップは、さらに、上記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、上記テキスチャー信号および上記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することが好ましい。   Further, in the image predictive decoding method, the prediction signal generation step further generates an extrapolated texture signal by repeating the already reproduced pixel values adjacent to the target pixel signal to form pixels, and the texture signal and It is preferable to generate the prediction signal by synthesizing the extrapolation texture signal using a predetermined synthesis method.

また、画像予測復号方法において、上記予測信号生成ステップは、上記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることが好ましい。   Further, in the image predictive decoding method, the prediction signal generation step is a search that is a pre-reproduced image in which a prediction adjacent region having a high correlation with respect to an adjacent region composed of pre-reproduced pixel signals adjacent to the target pixel signal is predetermined It is preferable to search from an area and use an image area defined based on the searched predicted adjacent area as a texture signal.

つぎに、本発明の特徴について列挙する。
[発明1]
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化して圧縮データを生成する符号化手段と、を備え、
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
[発明2]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする発明1に記載の画像予測符号化装置。
[発明3]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする発明1に記載の画像予測符号化装置。
[発明4]
前記予測信号生成手段は、さらに、前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記テキスチャー信号および前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする発明1から3のいずれか1項に記載の画像予測符号化装置。
[発明5]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることを特徴とする発明1から4のいずれか1項に記載の画像予測符号化装置。
[発明6]
前記符号化手段は、前記テキスチャー合成方法を示す関連情報を符号化し、
前記符号化手段により符号化された符号化信号とともに、符号化された前記関連情報を送出する送出手段を備えることを特徴とする発明1から5のいずれか1項に記載の画像予測符号化装置。
[発明7]
前記予測信号生成手段は、前記対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することを特徴とする発明2から6のいずれか1項に記載の画像予測符号化装置。
[発明8]
前記予測信号生成手段は、対象画素信号と同一の画面内である第1の探索領域から、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、
前記第1の探索領域とは異なる画面である第2の探索領域から前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、
それぞれ生成されたテキスチャー信号を予め定められたテキスチャー合成方法を用いて合成することにより予測信号を生成することを特徴とする発明2から7のいずれか1項に記載の画像予測符号化装置。
[発明9]
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化して圧縮信号を生成する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより少なくとも一つ外挿テキスチャー信号を生成し、
前記少なくとも一つ外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測符号化装置。
[発明10]
圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、
を備え、
前記予測信号生成手段は、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
[発明11]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする発明10に記載の画像予測復号装置。
[発明12]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる複数の隣接領域に基づいて、当該複数の隣接領域のそれぞれと相関の高い複数のテキスチャー信号を生成し、生成した複数のテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする発明10に記載の画像予測復号装置。
[発明13]
前記予測信号生成手段は、さらに、前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記テキスチャー信号および前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする発明10から12のいずれか1項に記載の画像予測復号装置。
[発明14]
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に対して相関の高い予測隣接領域を予め定めた既再生画像である探索領域から探索し、当該探索した予測隣接領域に基づいて定められた画像領域をテキスチャー信号とすることを特徴とする発明10から13のいずれか1項に記載の画像予測復号装置。
[発明15]
前記圧縮データは、テキスチャー合成方法を示す関連情報を含み、
前記予測信号生成手段は、前記関連情報を利用して前記対象領域のテキスチャー信号を形成することを特徴とする発明10から14のいずれか1項に記載の画像予測復号装置。
[発明16]
前記予測信号生成手段は、前記対象画素信号に対する複数のテキスチャー信号に対して、予め定めた重み付け係数を用いて重み付け平均処理を行うことにより合成して、予測信号を生成することを特徴とする発明11から15のいずれか1項に記載の画像予測復号装置。
[発明17]
前記予測信号生成手段は、対象画素信号と同一の画面内である第1の探索領域から、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、
前記第1の探索領域とは異なる画面である第2の探索領域から前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいて、当該隣接領域と相関の高いテキスチャー信号を少なくとも一つ生成し、
それぞれ生成されたテキスチャー信号を合成することにより予測信号を生成することを特徴とする発明11から16のいずれか1項に記載の画像予測復号装置。
[発明18]
圧縮データの中から前記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号と前記再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元手段と、
を備え、
前記予測信号生成手段は、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより少なくとも一つの外挿テキスチャー信号を生成し、
前記少なくとも一つの外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測復号装置。
[発明19]
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化して圧縮データを生成する符号化ステップと、を備え、
前記予測信号生成ステップは、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化方法。
[発明20]
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化して圧縮信号を生成する符号化ステップと、を備え、
前記予測信号生成ステップは、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測符号化方法。
[発明21]
圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元ステップと、
を備え、
前記予測信号生成ステップは、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号方法。
[発明22]
圧縮データの中から前記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号と前記再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元ステップと、
を備え、
前記予測信号生成ステップは、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測復号方法。
[発明23]
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化して圧縮データを生成する符号化モジュールと、を備え、
前記予測信号生成モジュールは、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化プログラム。
[発明24]
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化して圧縮信号を生成する符号化モジュールと、を備え、
前記予測信号生成モジュールは、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測符号化プログラム。
[発明25]
圧縮データの中から処理対象である対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにより復元された再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元モジュールと、
を備え、
前記予測信号生成モジュールは、対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号プログラム。
[発明26]
圧縮データの中から前記対象領域に関する残差信号を抽出して再生残差信号に復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号と前記再生残差信号とを加算することによって、前記対象領域の画素信号を復元する画像復元モジュールと、
を備え、
前記予測信号生成モジュールは、
前記対象画素信号に隣接する既再生の画素値を繰り返して画素を形成することにより外挿テキスチャー信号を生成し、
前記外挿テキスチャー信号を予め定めた合成方法を用いて合成することにより予測信号を生成することを特徴とする画像予測復号プログラム。
Next, the features of the present invention will be listed.
[Invention 1]
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means to generate compressed data;
The prediction signal generation unit generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined texture synthesis method. An image predictive coding apparatus characterized by generating a prediction signal.
[Invention 2]
The prediction signal generation unit generates a plurality of texture signals having a high correlation with the adjacent region based on an adjacent region composed of already-reproduced pixel signals adjacent to the target pixel signal, and the generated plurality of texture signals are stored in advance. The image predictive coding apparatus according to claim 1, wherein the predictive signal is generated by processing using a predetermined synthesis method.
[Invention 3]
The prediction signal generation unit generates and generates a plurality of texture signals having high correlation with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. The image predictive coding apparatus according to claim 1, wherein a prediction signal is generated by processing a plurality of texture signals using a predetermined synthesis method.
[Invention 4]
The prediction signal generation unit further generates an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal,
4. The image predictive coding apparatus according to claim 1, wherein a prediction signal is generated by combining the texture signal and the extrapolation texture signal using a predetermined combining method. 5.
[Invention 5]
The predicted signal generation means searches for a predicted adjacent area having a high correlation with respect to an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a search area that is a predetermined reproduced image, and performs the search. The image predictive coding apparatus according to any one of claims 1 to 4, wherein an image region determined based on the predicted adjacent region is used as a texture signal.
[Invention 6]
The encoding means encodes related information indicating the texture synthesis method,
The image predictive coding apparatus according to any one of claims 1 to 5, further comprising sending means for sending the related information encoded together with the encoded signal encoded by the encoding means. .
[Invention 7]
The prediction signal generation means generates a prediction signal by synthesizing a plurality of texture signals for the target pixel signal by performing a weighted average process using a predetermined weighting coefficient. The image predictive coding device according to any one of 2 to 6.
[Invention 8]
The predicted signal generation means correlates with the adjacent area based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a first search area within the same screen as the target pixel signal. Generate at least one high texture signal,
At least one texture signal having a high correlation with the adjacent area is based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a second search area that is a different screen from the first search area. Generate
The image predictive coding apparatus according to any one of claims 2 to 7, wherein the prediction signal is generated by combining the generated texture signals using a predetermined texture combining method.
[Invention 9]
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means to generate a compressed signal;
The prediction signal generating means includes
Generating at least one extrapolated texture signal by repeating the previously reproduced pixel values adjacent to the target pixel signal to form a pixel;
An image predictive coding apparatus that generates a prediction signal by combining the at least one extrapolated texture signal using a predetermined combining method.
[Invention 10]
A residual signal restoring means for extracting a residual signal related to a target region to be processed from the compressed data and restoring it to a reproduced residual signal;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Image restoration means for restoring the pixel signal of the target area by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means;
With
The prediction signal generating means generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and predicts by processing the generated texture signal using a predetermined texture synthesis method. An image predictive decoding apparatus characterized by generating a signal.
[Invention 11]
The prediction signal generation unit generates a plurality of texture signals having a high correlation with the adjacent region based on an adjacent region composed of already-reproduced pixel signals adjacent to the target pixel signal, and the generated plurality of texture signals are stored in advance. The image predictive decoding apparatus according to claim 10, wherein a prediction signal is generated by processing using a predetermined synthesis method.
[Invention 12]
The prediction signal generation unit generates and generates a plurality of texture signals having high correlation with each of the plurality of adjacent regions based on a plurality of adjacent regions composed of already reproduced pixel signals adjacent to the target pixel signal. The image predictive decoding apparatus according to claim 10, wherein a prediction signal is generated by processing a plurality of texture signals using a predetermined synthesis method.
[Invention 13]
The prediction signal generation unit further generates an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal,
13. The image predictive decoding apparatus according to claim 10, wherein the prediction signal is generated by combining the texture signal and the extrapolation texture signal using a predetermined combining method.
[Invention 14]
The predicted signal generation means searches for a predicted adjacent area having a high correlation with respect to an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a search area that is a predetermined reproduced image, and performs the search. The image predictive decoding apparatus according to any one of claims 10 to 13, wherein an image area determined based on the predicted adjacent area is used as a texture signal.
[Invention 15]
The compressed data includes related information indicating a texture synthesis method;
The image predictive decoding apparatus according to any one of claims 10 to 14, wherein the prediction signal generation unit forms a texture signal of the target region using the related information.
[Invention 16]
The prediction signal generation means generates a prediction signal by synthesizing a plurality of texture signals for the target pixel signal by performing a weighted average process using a predetermined weighting coefficient. The image predictive decoding device according to any one of 11 to 15.
[Invention 17]
The predicted signal generation means correlates with the adjacent area based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a first search area within the same screen as the target pixel signal. Generate at least one high texture signal,
At least one texture signal having a high correlation with the adjacent area is based on an adjacent area composed of already reproduced pixel signals adjacent to the target pixel signal from a second search area that is a different screen from the first search area. Generate
17. The image predictive decoding apparatus according to any one of claims 11 to 16, wherein a prediction signal is generated by combining the generated texture signals.
[Invention 18]
A residual signal restoring means for extracting a residual signal related to the target region from the compressed data and restoring it to a reproduced residual signal;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Image restoration means for restoring the pixel signal of the target region by adding the prediction signal and the reproduction residual signal;
With
The prediction signal generating means includes
Generating at least one extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal;
An image predictive decoding apparatus, wherein a prediction signal is generated by combining the at least one extrapolated texture signal using a predetermined combining method.
[Invention 19]
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
Encoding the residual signal generated by the residual signal generating step to generate compressed data, and
The predicted signal generation step generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined texture synthesis method. An image predictive encoding method characterized by generating a prediction signal.
[Invention 20]
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
Encoding the residual signal generated by the residual signal generating step to generate a compressed signal, and
The predicted signal generation step includes:
Generating an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal;
An image predictive coding method characterized in that a prediction signal is generated by synthesizing the extrapolation texture signal using a predetermined synthesis method.
[Invention 21]
A residual signal restoration step for extracting a residual signal related to a target region to be processed from the compressed data and restoring it to a reproduction residual signal;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
An image restoration step of restoring the pixel signal of the target region by adding the prediction signal generated by the prediction signal generation step and the reproduction residual signal restored by the residual signal restoration step;
With
The prediction signal generation step generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined synthesis method to generate a prediction signal The image predictive decoding method characterized by producing | generating.
[Invention 22]
A residual signal restoration step of extracting a residual signal related to the target region from the compressed data and restoring it to a reproduced residual signal;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
An image restoration step of restoring the pixel signal of the target region by adding the prediction signal and the reproduction residual signal;
With
The predicted signal generation step includes:
Generating an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal;
An image predictive decoding method, wherein a prediction signal is generated by combining the extrapolated texture signal using a predetermined combining method.
[Invention 23]
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module to generate compressed data;
The prediction signal generation module generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined texture synthesis method. An image predictive coding program for generating a prediction signal.
[Invention 24]
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module to generate a compressed signal;
The prediction signal generation module includes:
Generating an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal;
An image predictive coding program that generates a prediction signal by synthesizing the extrapolation texture signal using a predetermined synthesis method.
[Invention 25]
A residual signal restoration module that extracts a residual signal related to a target region to be processed from the compressed data and restores it to a reproduction residual signal;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
An image restoration module for restoring the pixel signal of the target area by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
With
The prediction signal generation module generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined synthesis method to generate a prediction signal An image predictive decoding program characterized by generating
[Invention 26]
A residual signal restoration module that extracts a residual signal related to the target region from the compressed data and restores it to a reproduction residual signal;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
An image restoration module for restoring the pixel signal of the target region by adding the prediction signal and the reproduction residual signal;
With
The prediction signal generation module includes:
Generating an extrapolated texture signal by forming a pixel by repeating a previously reproduced pixel value adjacent to the target pixel signal;
An image predictive decoding program that generates a prediction signal by combining the extrapolation texture signal using a predetermined combining method.

100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、201…テキスチャー合成器、202…テキスチャー信号決定器、301…合成器、302…加算器、307…テキスチャー生成器、308…テキスチャー生成器、309…第1外挿器、310…第N外挿器、900…画像予測復号装置、901…入力端子、902…データ解析器、903…逆量子化器、904…逆変換器、905…加算器、906…出力端子、907…フレームメモリ、908…テキスチャー合成器、1001…合成器、1007…テキスチャー生成器、1008…テキスチャー生成器、1009…第1外挿器、1010…第N外挿器。

DESCRIPTION OF SYMBOLS 100 ... Image predictive coding apparatus, 101 ... Input terminal, 102 ... Block divider, 103 ... Prediction signal generator, 104 ... Frame memory, 105 ... Subtractor, 106 ... Converter, 107 ... Quantizer, 108 ... Inverse Quantizer, 109 ... Inverse transformer, 110 ... Adder, 111 ... Entropy encoder, 112 ... Output terminal, 201 ... Texture synthesizer, 202 ... Texture signal determiner, 301 ... Synthesizer, 302 ... Adder, 307 ... Texture generator, 308 ... Texture generator, 309 ... First extrapolator, 310 ... Nth extrapolator, 900 ... Image prediction decoding device, 901 ... Input terminal, 902 ... Data analyzer, 903 ... Inverse quantum 904: Inverter, 905 ... Adder, 906 ... Output terminal, 907 ... Frame memory, 908 ... Texture synthesizer, 1001 ... Synthesizer, 007 ... texture generator, 1008 ... texture generator, 1009 ... first outer interpolator, 1010 ... N-th extrapolator.

Claims (1)

入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化して圧縮データを生成する符号化手段と、を備え、
前記予測信号生成手段は、前記対象画素信号に隣接する既再生の画素信号からなる隣接領域に基づいてテキスチャー信号を生成し、生成したテキスチャー信号を予め定めたテキスチャー合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means to generate compressed data;
The prediction signal generation unit generates a texture signal based on an adjacent region composed of already reproduced pixel signals adjacent to the target pixel signal, and processes the generated texture signal using a predetermined texture synthesis method. An image predictive coding apparatus characterized by generating a prediction signal.
JP2011177615A 2011-08-15 2011-08-15 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program Active JP5415495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011177615A JP5415495B2 (en) 2011-08-15 2011-08-15 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011177615A JP5415495B2 (en) 2011-08-15 2011-08-15 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006126480A Division JP2007300380A (en) 2006-04-28 2006-04-28 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Publications (2)

Publication Number Publication Date
JP2011229189A true JP2011229189A (en) 2011-11-10
JP5415495B2 JP5415495B2 (en) 2014-02-12

Family

ID=45043952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011177615A Active JP5415495B2 (en) 2011-08-15 2011-08-15 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Country Status (1)

Country Link
JP (1) JP5415495B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
WO2005022920A1 (en) * 2003-08-26 2005-03-10 Thomson Licensing S.A. Method and apparatus for encoding hybrid intra-inter coded blocks
JP2005318497A (en) * 2003-12-26 2005-11-10 Ntt Docomo Inc Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
WO2005022920A1 (en) * 2003-08-26 2005-03-10 Thomson Licensing S.A. Method and apparatus for encoding hybrid intra-inter coded blocks
JP2005318497A (en) * 2003-12-26 2005-11-10 Ntt Docomo Inc Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program

Also Published As

Publication number Publication date
JP5415495B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5406465B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP6559309B2 (en) Image predictive decoding method
JP5485969B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5686499B2 (en) Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method
JP4994767B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
WO2007125856A1 (en) Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program
JP5372341B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5415495B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5922281B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method
JP6134418B2 (en) Moving picture predictive decoding apparatus and moving picture predictive decoding method
JP5736083B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5668169B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5642305B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131113

R150 Certificate of patent or registration of utility model

Ref document number: 5415495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250