JP2008289005A - Image-predicting/encoding device, image prediction/encoding method, image prediction/encoding program, image-predicting/decoding device, image prediction/decoding method, and image prediction/decoding program - Google Patents

Image-predicting/encoding device, image prediction/encoding method, image prediction/encoding program, image-predicting/decoding device, image prediction/decoding method, and image prediction/decoding program Download PDF

Info

Publication number
JP2008289005A
JP2008289005A JP2007133315A JP2007133315A JP2008289005A JP 2008289005 A JP2008289005 A JP 2008289005A JP 2007133315 A JP2007133315 A JP 2007133315A JP 2007133315 A JP2007133315 A JP 2007133315A JP 2008289005 A JP2008289005 A JP 2008289005A
Authority
JP
Japan
Prior art keywords
signal
prediction
adjacent
target
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007133315A
Other languages
Japanese (ja)
Other versions
JP5372341B2 (en
Inventor
Yoshinori Suzuki
芳典 鈴木
Chunsen Bun
チュンセン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007133315A priority Critical patent/JP5372341B2/en
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to US12/595,242 priority patent/US9031130B2/en
Priority to EP08740053A priority patent/EP2154901A4/en
Priority to EP12189422.4A priority patent/EP2571272B1/en
Priority to BRPI0810924A priority patent/BRPI0810924A2/en
Priority to CN201310244589.5A priority patent/CN103354613B/en
Priority to EP11190490A priority patent/EP2453655A1/en
Priority to CN201410252678.9A priority patent/CN104023242B/en
Priority to PCT/JP2008/056950 priority patent/WO2008126843A1/en
Priority to KR1020117012289A priority patent/KR101475365B1/en
Priority to CN2008800114819A priority patent/CN101653009B/en
Priority to CN201410253164.5A priority patent/CN103997655B/en
Priority to KR1020097022333A priority patent/KR20090132629A/en
Priority to TW097112868A priority patent/TWI435609B/en
Publication of JP2008289005A publication Critical patent/JP2008289005A/en
Priority to RU2011147926/08A priority patent/RU2011147926A/en
Application granted granted Critical
Publication of JP5372341B2 publication Critical patent/JP5372341B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image-predicting/encoding device or an image-predicting/decoding device which selects a plurality of candidate prediction signals without increasing the amount of information. <P>SOLUTION: In a prediction signal generator 103c, a template-matching unit 201 searches for a plurality of prediction adjacent regions 404a-414c with high correlation with the already reproduced object adjacent region 403 adjacent to an object region 402 from search regions 401 and 417. Then, a combination setting unit 237 selects one or more prediction adjacent regions from among the plurality of searched prediction adjacent regions, at least using coordinate information indicating positions of the prediction adjacent regions, for example, reference image signals and motion vectors. A prediction region acquiring unit 204 generates one or more candidate prediction signals of object pixel signals, on the basis of the selected prediction adjacent regions, and a weighting unit 205 and an adder 206 process the candidate prediction signals by using a predetermined synthesis method to generate a prediction signal. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムに関するもので、とりわけ、画像合成方法を用いて予測符号化および復号する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムに関するものである。   The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program. The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program.

静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。   In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG-1 to 4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.

これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その生成された予測信号を対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。   In these encoding methods, encoding / decoding processing is performed after an image to be encoded is divided into a plurality of blocks. In predictive coding within a screen, a prediction signal is generated using an adjacent previously reproduced image signal (reconstructed compressed image data) in the same screen as the target block, and the generated A differential signal obtained by subtracting the prediction signal from the signal of the target block is encoded. In predictive coding between screens, the adjacent reproduced image signal in the screen different from the target block is referred to, the motion is corrected, the predicted signal is generated, and the predicted signal is subtracted from the signal of the target block. The difference signal is encoded.

例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図14は、ITUH.264に用いられる画面内予測方法を説明するための模式図である。図14(A)において、対象ブロック1802は符号化の対象となるブロックであり、その対象ブロック1802の境界に隣接する画素A〜Mからなる画素群1801は隣接領域であり、過去の処理において既に再生された画像信号である。   For example, H.M. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 14 shows ITUH. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 14A, a target block 1802 is a block to be encoded, and a pixel group 1801 composed of pixels A to M adjacent to the boundary of the target block 1802 is an adjacent region, and has already been obtained in past processing. It is the reproduced image signal.

この場合、対象ブロック1802の真上にある隣接画素である画素群1801を下方に引き伸ばして予測信号を生成する。また図14(B)では、対象ブロック1804の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。このように図14(A)から(I)に示す方法で生成された9つの予測信号のそれぞれを対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。   In this case, a prediction signal is generated by extending downward the pixel group 1801, which is an adjacent pixel immediately above the target block 1802. In FIG. 14B, the already reproduced pixels (I to L) on the left of the target block 1804 are stretched to the right to generate a prediction signal. Thus, the difference between each of the nine prediction signals generated by the method shown in FIGS. 14A to 14I and the pixel signal of the target block is taken, and the one with the smallest difference value is set as the optimum prediction signal. . As described above, a prediction signal can be generated by extrapolating pixels. The above contents are described in Patent Document 1 below.

通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号を符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。図15は、ブロックマッチング処理を説明するための模式図である。ここでは、符号化対象の画面1401上の対象ブロック1402を例に予測信号の生成手順を説明する。図15(a)における画面1403は既に再生済みの画面であり、破線で示した領域1404は対象ブロック1402と空間的に同一位置の領域である。ブロックマッチングでは、領域1404を囲む探索範囲1405を設定し、この探索範囲の画素信号から対象ブロック1402の画素信号との絶対値誤差和が最小となる領域1406を検出する。領域1406の画素信号が予測信号となり、領域1404から領域1406への変位量が動きベクトルとして検出される。ITUH.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。ITU H.264の予測タイプについては、例えば特許文献2に記載されている。   In normal inter-picture prediction encoding, a prediction signal is generated by a method in which a signal similar to the pixel signal is searched from an already reproduced screen for a block to be encoded. Then, a motion vector, which is a spatial displacement amount between the target block and a region formed by the searched signal, and a residual signal between the pixel signal and the prediction signal of the target block are encoded. Such a method of searching for a motion vector for each block is called block matching. FIG. 15 is a schematic diagram for explaining the block matching process. Here, a procedure for generating a prediction signal will be described using the target block 1402 on the encoding target screen 1401 as an example. A screen 1403 in FIG. 15A is a screen that has already been reproduced, and a region 1404 indicated by a broken line is a region in the same spatial position as the target block 1402. In block matching, a search range 1405 surrounding the region 1404 is set, and a region 1406 where the absolute value error sum with the pixel signal of the target block 1402 is minimized is detected from the pixel signals in this search range. A pixel signal in the region 1406 becomes a prediction signal, and a displacement amount from the region 1404 to the region 1406 is detected as a motion vector. ITUH. H.264 prepares a plurality of prediction types having different block sizes for encoding motion vectors in order to cope with changes in local features of an image. ITU H. H.264 prediction types are described in Patent Document 2, for example.

また、動画像データの圧縮符号化では、各フレームの符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測、第2の手法は、再生順で未来の再生済み画面を参照して後方向予測、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。
米国特許公報第6765964号明細書 米国特許公報第7003035号明細書 米国特許公報第6259739号明細書
In the compression encoding of moving image data, the encoding order of each frame may be arbitrary. For this reason, there are three types of coding order methods for inter-screen prediction in which a prediction signal is generated with reference to a reproduced screen. The first method refers to forward prediction in which a prediction signal is generated with reference to a previously played screen in the playback order, and the second method refers to backward prediction with reference to a future played screen in the playback order. The method 3 is bidirectional prediction in which both forward prediction and backward prediction are performed and two prediction signals are averaged. About the kind of prediction between screens, it describes in patent document 3, for example.
US Pat. No. 6,765,964 US Patent Publication No. 7003035 US Pat. No. 6,259,739

従来技術では、符号化による歪(例えば量子化雑音)を含む再生画素値をコピーすることにより各画素の予測信号を生成するため、予測信号も符号化歪を含むことになる。このように符号化歪により汚された予測信号は、残差信号の符号量増加や再生画質劣化など符号化効率を低下させる要因となる。   In the prior art, since a predicted signal for each pixel is generated by copying a reproduced pixel value including distortion due to encoding (for example, quantization noise), the predicted signal also includes encoding distortion. Thus, the prediction signal contaminated by the coding distortion becomes a factor of lowering the coding efficiency such as an increase in the code amount of the residual signal and deterioration in reproduction image quality.

符号化歪の影響は予測信号の平滑化にて抑制可能であるが、平滑化の対象となる複数の候補予測信号を指示するための付加情報が必要となり、情報量が多くなる。   Although the influence of coding distortion can be suppressed by smoothing the prediction signal, additional information for indicating a plurality of candidate prediction signals to be smoothed is required, and the amount of information increases.

そこで、本発明では、情報量を多くすることなく複数の候補予測信号を選択する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムを提供することを目的とする。   Therefore, in the present invention, an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image that select a plurality of candidate prediction signals without increasing the amount of information An object is to provide a predictive decoding program.

上述の課題を解決するために、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In order to solve the above-described problem, an image predictive coding apparatus according to the present invention includes an area dividing unit that divides an input image into a plurality of areas, and a processing target of the plurality of areas divided by the area dividing unit. Prediction signal generation means for generating a prediction signal for the target pixel signal in the target area, and residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal; Encoding means for encoding the residual signal generated by the residual signal generating means, wherein the prediction signal generating means is an adjacent pixel that has already been reproduced and is adjacent to a target area composed of the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of a signal are searched from a search area consisting of already reproduced images, and at least using the coordinate information indicating the position of the predicted adjacent area, One or more prediction adjacent regions are selected from the searched plurality of prediction adjacent regions, one or more candidate prediction signals of the target pixel signal are generated based on the selected prediction adjacent region, and the candidate prediction signal is preliminarily generated. A configuration is provided in which a prediction signal is generated by processing using a predetermined synthesis method.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、選択した予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができ、効率的な符号化を行うことができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from the search area made of the already-reproduced images, and at least using the coordinate information indicating the position of the predicted adjacent area, One or more prediction adjacent regions are selected from the prediction adjacent regions, one or more candidate prediction signals of the target pixel signal are generated based on the selected prediction adjacent regions, and a candidate prediction signal is determined using a predetermined synthesis method A prediction signal can be generated by processing. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics, and to perform efficient encoding.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、選択する予測隣接領域の数を設定し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索領域から前記設定した数の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて前記対象画素信号の候補予測信号を前記設定した数だけ生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target among the plurality of regions divided by the region dividing unit. A prediction signal generating means for generating a prediction signal for the signal, a residual signal generating means for generating a residual signal between the prediction signal generated by the prediction signal generating means and the target pixel signal, and the residual signal generating means Encoding means for encoding the residual signal generated by the prediction signal generation means, and the prediction signal generation means includes a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal; A plurality of predicted adjacent areas having a high correlation are searched from a search area composed of already reproduced images, the number of predicted adjacent areas to be selected is set, and coordinate information indicating at least the position of the predicted adjacent area is obtained. And selecting the set number of prediction adjacent regions from the search region, generating the set number of candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and generating the candidate prediction signal in advance A configuration is provided in which a prediction signal is generated by processing using a predetermined synthesis method.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、選択する予測隣接領域の数を設定し、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索領域から設定した数の予測隣接領域を選択し、選択した予測隣接領域に基づいて対象画素信号の候補予測信号を設定した数だけ生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができ、効率的な符号化を行うことができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from a search area composed of already reproduced images, the number of predicted adjacent areas to be selected is set, and at least the position of the predicted adjacent area is determined. The number of predicted adjacent areas set from the search area is selected using the coordinate information shown, and the number of candidate prediction signals set for the target pixel signal is generated based on the selected predicted adjacent area, and the candidate prediction signals are determined in advance. The prediction signal can be generated by processing using the synthesis method. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics, and to perform efficient encoding.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、前記組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記隣接画素信号に対する比較信号をそれぞれ生成し、前記比較信号と前記隣接画素信号との相関が高い予測隣接領域の組み合わせを前記生成した予測隣接領域の組み合わせの中から選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target among the plurality of regions divided by the region dividing unit. A prediction signal generating means for generating a prediction signal for the signal, a residual signal generating means for generating a residual signal between the prediction signal generated by the prediction signal generating means and the target pixel signal, and the residual signal generating means Encoding means for encoding the residual signal generated by the prediction signal generation means, and the prediction signal generation means includes a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal; A plurality of predicted adjacent areas having a high correlation are searched from a search area composed of already reproduced images, and at least different numbers of predicted adjacent areas are included by using coordinate information indicating the positions of the predicted adjacent areas. Two or more combinations of predicted adjacent regions are generated, and pixel signals of predicted adjacent regions belonging to the combination are processed using a predetermined synthesis method, thereby generating a comparison signal for each of the adjacent pixel signals, and comparing A combination of predicted adjacent areas having a high correlation between a signal and the adjacent pixel signal is selected from the generated combinations of predicted adjacent areas, and based on the predicted adjacent areas belonging to the selected combination, the target pixel signal A configuration is provided in which one or more candidate prediction signals are generated and the prediction signals are generated by processing the candidate prediction signals using a predetermined synthesis method.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、隣接画素信号に対する比較信号をそれぞれ生成し、比較信号と隣接画素信号との相関が高い予測隣接領域の組み合わせを選択し、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができ、効率的な符号化を行うことができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from the search area made of the already reproduced images, and at least different numbers of predictions are made using the coordinate information indicating the positions of the predicted adjacent areas. Generate two or more combinations of predicted adjacent areas including adjacent areas, and process the pixel signals of the predicted adjacent areas belonging to the combination using a predetermined synthesis method, thereby generating a comparison signal for the adjacent pixel signals, A combination of prediction adjacent regions having a high correlation between the comparison signal and the adjacent pixel signal is selected, and one or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent regions belonging to the selected combination, and the candidate prediction signal Can be generated using a predetermined synthesis method to generate a prediction signal. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics, and to perform efficient encoding.

また、本発明の画像予測符号化装置において、前記予測信号生成手段は、時間または空間のいずれかあるいは時空間の位置情報を含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   In the image predictive coding apparatus according to the present invention, it is preferable that the prediction signal generation unit selects a prediction adjacent region using coordinate information including position information in either time or space or time and space.

また、この発明によれば、時間または空間のいずれかあるいは時空間の位置情報を含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   In addition, according to the present invention, it is possible to select a predicted adjacent region using coordinate information including position information in either time or space or time and space, which is suitable for smoothing without increasing the amount of information. Combinations of candidate prediction signals can be selected with diversity.

また、本発明の画像予測符号化装置において、前記予測信号生成手段は、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて処理することが好ましい。   In the image predictive coding apparatus according to the present invention, it is preferable that the prediction signal generation unit performs processing using coordinate information including an identification number of a reference image to which a prediction adjacent region belongs.

また、この発明によれば、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて処理することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   Further, according to the present invention, it is possible to process using coordinate information including the identification number of the reference image to which the prediction adjacent region belongs, and to combine candidate prediction signals suitable for smoothing without increasing the amount of information. , You can choose with diversity.

また、本発明の画像予測符号化装置において、前記予測信号生成手段は、予測隣接領域が属する参照画像上の空間位置情報を含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   In the image predictive coding apparatus according to the present invention, it is preferable that the prediction signal generating unit selects a predicted adjacent area using coordinate information including spatial position information on a reference image to which the predicted adjacent area belongs.

この発明によれば、予測隣接領域が属する参照画像上の空間位置情報を含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   According to the present invention, a predicted adjacent area can be selected using coordinate information including spatial position information on a reference image to which the predicted adjacent area belongs, and candidate prediction suitable for smoothing without increasing the amount of information The combination of signals can be selected with diversity.

また、本発明の画像予測符号化装置において、前記予測信号生成手段は、前記対象領域と前記予測隣接領域との間の空間的な位置関係を示す動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   Further, in the image predictive coding apparatus according to the present invention, the prediction signal generation means uses the coordinate information including a motion vector indicating a spatial positional relationship between the target region and the prediction adjacent region to predict adjacent It is preferable to select a region.

この発明によれば、予測隣接領域の動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   According to the present invention, a prediction adjacent region can be selected using coordinate information including a motion vector of the prediction adjacent region, and various combinations of candidate prediction signals suitable for smoothing can be obtained without increasing the amount of information. You can choose with sex.

また、本発明の画像予測復号装置は、圧縮データ内の処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding apparatus according to the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding by the data decoding unit. Residual signal restoration means for restoring the reproduction residual signal, prediction signal generation means for generating a prediction signal for the target pixel signal in the target region, the prediction signal generated by the prediction signal generation means, and the residual signal recovery Reproduction image signal generation means for generating a reproduction image signal by adding the reproduction residual signal restored by the means, wherein the prediction signal generation means is adjacent to the target region composed of the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signals to be searched from the search area consisting of the already reproduced image, and the plurality of searched predictions Selecting one or more predicted adjacent areas from the plurality of searched predicted adjacent areas, using coordinate information indicating positions of at least two predicted adjacent areas including at least one tangential area; A configuration is provided in which one or more candidate prediction signals of the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. ing.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、選択した予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。よって、このように生成された予測信号により効率的に符号化された符号化データを復号することができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from the search area made of the already-reproduced images, and at least using the coordinate information indicating the position of the predicted adjacent area, One or more prediction adjacent regions are selected from the prediction adjacent regions, one or more candidate prediction signals of the target pixel signal are generated based on the selected prediction adjacent regions, and a candidate prediction signal is determined using a predetermined synthesis method A prediction signal can be generated by processing. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, it is possible to decode the encoded data that is efficiently encoded by the prediction signal generated in this way.

また、本発明の画像予測復号装置は、圧縮データの処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、前記対象画素信号に隣接する既再生の隣接画素信号からなる対象隣接領域に対して、上記対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、選択する予測隣接領域の数を設定し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索領域のあらゆる位置から前記設定した数の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を前記選択した数だけ生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive decoding apparatus according to the present invention also includes a data decoding unit that decodes encoded data of a residual signal related to a target region that is a processing target of compressed data, and a reproduction from a signal obtained by decoding by the data decoding unit. A residual signal restoring means for restoring a residual signal, a prediction signal generating means for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating means, and the residual signal restoring means Regenerated image signal generating means for generating a regenerated image signal by adding the regenerated residual signal restored in step (a), wherein the prediction signal generating means is adjacent to the already-regenerated image adjacent to the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area made up of pixel signals are searched from a search area made up of already reproduced images and selected. The number of regions is set, and at least using the coordinate information indicating the position of the predicted adjacent region, the set number of predicted adjacent regions is selected from every position of the search region, and based on the selected predicted adjacent region , A number of the candidate prediction signals of the target pixel signal are generated, and the prediction signal is generated by processing the candidate prediction signals using a predetermined synthesis method.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、選択する予測隣接領域の数を設定し、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索領域から設定した数の予測隣接領域を選択し、選択した予測隣接領域に基づいて対象画素信号の候補予測信号を設定した数だけ生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。よって、このように生成された予測信号により効率的に符号化された符号化データを復号することができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from a search area composed of already reproduced images, the number of predicted adjacent areas to be selected is set, and at least the position of the predicted adjacent area is determined. The number of predicted adjacent areas set from the search area is selected using the coordinate information shown, and the number of candidate prediction signals set for the target pixel signal is generated based on the selected predicted adjacent area, and the candidate prediction signals are determined in advance. The prediction signal can be generated by processing using the synthesis method. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, it is possible to decode the encoded data that is efficiently encoded by the prediction signal generated in this way.

また、本発明の画像予測復号装置は、圧縮データ内の処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、前記対象画素信号に隣接する既再生の隣接画素信号からなる対象隣接領域に対して、上記対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、選択する予測隣接領域の数を設定し、少なくとも前記予測隣接領域の位置を表す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、前記組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを前記生成した予測隣接領域の組み合わせの中から選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding apparatus according to the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding by the data decoding unit. Residual signal restoration means for restoring the reproduction residual signal, prediction signal generation means for generating a prediction signal for the target pixel signal in the target region, the prediction signal generated by the prediction signal generation means, and the residual signal recovery A reproduction image signal generation unit that generates a reproduction image signal by adding the reproduction residual signal restored by the unit, and the prediction signal generation unit includes a reproduced image signal adjacent to the target pixel signal. Prediction in which a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from the search area including the already-reproduced image and selected for the target adjacent area including the adjacent pixel signal The number of contact areas is set, and at least two combinations of predicted adjacent areas including different numbers of predicted adjacent areas are generated using coordinate information representing the positions of the predicted adjacent areas, and predicted adjacent areas belonging to the combination By generating a comparison signal for the adjacent pixel signal by processing the pixel signal using a predetermined synthesis method, and generating a combination having a high correlation between the comparison signal and the adjacent pixel signal. And generating one or more candidate prediction signals of the target pixel signal based on a prediction adjacent region belonging to the selected combination, and using the predetermined synthesis method It has a configuration for generating a prediction signal by processing.

この発明によれば、対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、隣接画素信号に対する比較信号をそれぞれ生成し、比較信号と隣接画素信号との相関が高い予測隣接領域の組み合わせを選択し、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することができる。これにより、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。よって、このように生成された予測信号により効率的に符号化された符号化データを復号することができる。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area are searched from the search area made of the already reproduced images, and at least different numbers of predictions are made using the coordinate information indicating the positions of the predicted adjacent areas. Generate two or more combinations of predicted adjacent areas including adjacent areas, and process the pixel signals of the predicted adjacent areas belonging to the combination using a predetermined synthesis method, thereby generating a comparison signal for the adjacent pixel signals, A combination of prediction adjacent regions having a high correlation between the comparison signal and the adjacent pixel signal is selected, and one or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent regions belonging to the selected combination, and the candidate prediction signal Can be generated using a predetermined synthesis method to generate a prediction signal. As a result, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information using a target adjacent region composed of already reproduced adjacent pixel signals adjacent to the target region with diversity. Therefore, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, it is possible to decode the encoded data that is efficiently encoded by the prediction signal generated in this way.

また、本発明の画像予測復号装置において、前記予測信号生成手段は、時間または空間のいずれかあるいは時空間の位置を含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   In the image predictive decoding device of the present invention, it is preferable that the prediction signal generation unit selects a prediction adjacent region using coordinate information including a time or space position, or a time-space position.

また、この発明によれば、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて処理することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   Further, according to the present invention, it is possible to process using coordinate information including the identification number of the reference image to which the prediction adjacent region belongs, and to combine candidate prediction signals suitable for smoothing without increasing the amount of information. , You can choose with diversity.

また、本発明の画像予測復号装置において、前記予測信号生成手段は、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   In the image predictive decoding device of the present invention, it is preferable that the prediction signal generating unit selects a predicted adjacent area using coordinate information including an identification number of a reference image to which the predicted adjacent area belongs.

この発明によれば、予測隣接領域が属する参照画像上の空間位置情報を含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   According to the present invention, a predicted adjacent area can be selected using coordinate information including spatial position information on a reference image to which the predicted adjacent area belongs, and candidate prediction suitable for smoothing without increasing the amount of information The combination of signals can be selected with diversity.

また、本発明の画像予測復号装置において、前記予測信号生成手段は、予測隣接領域が属する参照画像上の空間位置を含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   In the image predictive decoding device of the present invention, it is preferable that the prediction signal generation unit selects a predicted adjacent area using coordinate information including a spatial position on a reference image to which the predicted adjacent area belongs.

この発明によれば、予測隣接領域が属する参照画像上の空間位置情報を含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   According to the present invention, a predicted adjacent area can be selected using coordinate information including spatial position information on a reference image to which the predicted adjacent area belongs, and candidate prediction suitable for smoothing without increasing the amount of information The combination of signals can be selected with diversity.

また、本発明の画像予測復号装置において、前記予測信号生成手段は、前記対象領域と前記予測隣接領域との間の空間的な位置関係を示す動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することが好ましい。   Further, in the image predictive decoding device of the present invention, the prediction signal generation means uses the coordinate information including a motion vector indicating a spatial positional relationship between the target region and the prediction adjacent region to predict the adjacent region. Is preferably selected.

この発明によれば、予測隣接領域の動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することができ、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できる。   According to the present invention, a prediction adjacent region can be selected using coordinate information including a motion vector of the prediction adjacent region, and various combinations of candidate prediction signals suitable for smoothing can be obtained without increasing the amount of information. You can choose with sex.

ところで、本発明は、上記のように画像予測符号化装置または画像予測復号装置の発明として記述できる他に、以下のように、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、画像予測復号プログラムの発明としても記述することができる。これらはカテゴリーが異なるだけで、実質的に同一の発明であり、同様の作用・効果を奏する。   By the way, the present invention can be described as the invention of the image predictive encoding device or the image predictive decoding device as described above, and as described below, the image predictive encoding method, the image predictive decoding method, the image predictive encoding program, It can also be described as an invention of an image predictive decoding program. These are substantially the same inventions only in different categories, and exhibit the same actions and effects.

すなわち、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   That is, the image predictive coding method of the present invention includes a region dividing step for dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step for encoding the residual signal generated by the step, wherein the prediction signal generating step includes a target adjacent region composed of an already reproduced adjacent pixel signal adjacent to the target region composed of the target pixel signal, and A plurality of predicted adjacent areas having a high correlation with each other, searched from a search area consisting of already reproduced images, and at least coordinate information indicating the position of the predicted adjacent area And selecting one or more predicted adjacent areas from the plurality of searched predicted adjacent areas, generating one or more candidate predicted signals of the target pixel signal based on the selected predicted adjacent areas, and The prediction signal is generated by processing the prediction signal using a predetermined synthesis method.

また、本発明の画像予測復号方法は、圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive decoding method according to the present invention includes a data decoding step for decoding encoded data of a residual signal related to a target region to be processed in compressed data, and a signal obtained by decoding by the data decoding step. A residual signal restoration step for restoring a reproduction residual signal from the prediction signal, a prediction signal generation step for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generation step, and the residual signal A reproduction image signal generation step of generating a reproduction image signal by adding the reproduction residual signal restored in the restoration step, and the prediction signal generation step is performed on a target region composed of the target pixel signal. A plurality of predicted adjacent regions having a high correlation with the target adjacent region made up of adjacent pre-reproduced adjacent pixel signals are searched for from the pre-reproduced image From the plurality of predicted adjacent areas searched using coordinate information indicating the position of at least one of the two or more arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas. One or more prediction adjacent regions are selected, one or more candidate prediction signals of the target pixel signal are generated based on the selected prediction adjacent regions, and the candidate prediction signals are processed using a predetermined synthesis method Thus, a configuration for generating a prediction signal is provided.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive coding program according to the present invention includes an area division module that divides an input image into a plurality of areas, and a target pixel of a target area that is a processing target of the plurality of areas divided by the area division module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by the prediction signal generation module, and the prediction signal generation module includes a target adjacent region including a reconstructed adjacent pixel signal adjacent to the target region including the target pixel signal; A plurality of predicted adjacent areas having a high correlation of One or more predicted adjacent areas are selected from the searched plurality of predicted adjacent areas using coordinate information indicating a position, and one candidate predicted signal of the target pixel signal is selected based on the selected predicted adjacent area. A configuration for generating a prediction signal by generating the above and processing the candidate prediction signal using a predetermined synthesis method is provided.

また、本発明の画像予測復号プログラムは、圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive decoding program of the present invention includes a data decoding module that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding by the data decoding module. A residual signal restoration module for restoring a reproduction residual signal from the prediction signal, a prediction signal generation module for generating a prediction signal for a target pixel signal in the target region, a prediction signal generated by the prediction signal generation module, and the residual signal A reproduction image signal generation module that generates a reproduction image signal by adding the reproduction residual signal restored by the restoration module, and the prediction signal generation module is provided in a target region including the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of adjacent adjacent pixel signals that have been reproduced are Searching from a search area composed of raw images, and using the coordinate information indicating the position of at least one predicted at least one predicted adjacent area including at least one of the searched predicted adjacent areas, the plurality of searched One or more predicted adjacent areas are selected from the predicted adjacent areas, one or more candidate predicted signals of the target pixel signal are generated based on the selected predicted adjacent area, and the candidate predicted signal is synthesized in advance It has the structure which produces | generates a prediction signal by processing using the method.

本発明によれば、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせを、多様性をもたせて選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   According to the present invention, by using the target adjacent region composed of the already reproduced adjacent pixel signals adjacent to the target region, the combination of candidate prediction signals suitable for smoothing without increasing the amount of information is provided with diversity. Since the selection can be made, it is possible to efficiently generate a prediction signal in consideration of local noise characteristics.

本発明は、一実施形態のために示された添付図面を参照して以下の詳細な記述を考慮することによって容易に理解することができる。引き続いて、添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
<第1の実施形態>
The present invention can be readily understood by considering the following detailed description with reference to the accompanying drawings shown for the embodiments. Subsequently, embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.
<First Embodiment>

図1は、本発明の実施形態による画像予測符号化方法を実行することができる画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102(領域分割手段)、予測信号生成器103(予測信号生成手段)、フレームメモリ104、減算器105(残差信号生成手段)、変換器106(符号化手段)、量子化器107(符号化手段)、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、および出力端子112を含んで構成されている。変換器106と量子化器107とは符号化手段として機能する。   FIG. 1 is a block diagram illustrating an image predictive coding apparatus 100 that can execute an image predictive coding method according to an embodiment of the present invention. The image predictive coding apparatus 100 includes an input terminal 101, a block divider 102 (region dividing means), a prediction signal generator 103 (predicted signal generating means), a frame memory 104, a subtractor 105 (residual signal generating means), It includes a converter 106 (encoding means), a quantizer 107 (encoding means), an inverse quantizer 108, an inverse transformer 109, an adder 110, an entropy encoder 111, and an output terminal 112. Yes. The converter 106 and the quantizer 107 function as encoding means.

以上のように構成された画像予測符号化装置100について、以下その構成について説明する。   The configuration of the image predictive encoding device 100 configured as described above will be described below.

入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。   The input terminal 101 is a terminal for inputting a moving image signal composed of a plurality of images.

ブロック分割器102は、入力端子101から入力された動画像の信号であって、符号化の対象となる画像を複数の領域に分割する。本発明による実施形態では、8x8の画素からなるブロックに分割するが、それ以外のブロックの大きさまたは形に分割してもよい。   The block divider 102 divides an image to be encoded, which is a moving image signal input from the input terminal 101, into a plurality of regions. In the embodiment according to the present invention, the block is divided into 8 × 8 pixels, but may be divided into other block sizes or shapes.

予測信号生成器103は、符号化処理の対象となる対象領域(対象ブロック)に対して予測信号を生成する部分である。この予測信号生成器103の具体的な処理については後述する。   The prediction signal generator 103 is a part that generates a prediction signal for a target region (target block) to be encoded. Specific processing of the prediction signal generator 103 will be described later.

減算器105は、ラインL102を経由して入力されたブロック分割器102で分割されて得られた対象領域で示される画素信号から、ラインL103を経由して入力された予測信号生成器103にて生成された予測信号を減算して、残差信号を生成する部分である。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。   The subtractor 105 uses the prediction signal generator 103 input via the line L103 from the pixel signal indicated by the target region obtained by the division by the block divider 102 input via the line L102. This is a part for generating a residual signal by subtracting the generated prediction signal. The subtractor 105 outputs the residual signal obtained by the subtraction to the converter 106 via the line L105.

変換器106は、減算して得られた残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。エントロピー符号化器111は、量子化器107により量子化された変換係数を圧縮符号化し、圧縮符号化された圧縮データを、ラインL111を経由で出力する。出力端子112は、エントロピー符号化器111から入力した情報である圧縮データを外部に出力する。   The converter 106 is a part that performs discrete cosine transform on the residual signal obtained by subtraction. The quantizer 107 is a part that quantizes the transform coefficient that has been discrete cosine transformed by the transformer 106. The entropy encoder 111 compresses and encodes the transform coefficient quantized by the quantizer 107, and outputs the compressed and compressed data via the line L111. The output terminal 112 outputs compressed data that is information input from the entropy encoder 111 to the outside.

逆量子化器108は、量子化された変換係数を逆量子化し、逆変換器109は逆離散コサイン変換し、符号化された残差信号を復元する。加算器110は、復元された残差信号とラインL103から送られた予測信号とを加算し、対象ブロックの信号を再生して、再生画像信号を得て、この再生画像信号をフレームメモリ104に記憶する。本実施形態では変換器106と逆変換器109とを用いているが、これらの変換器に代わるほかの変換処理を用いてもよく、変換器106と逆変換器109とは必ずしも必須ではない。このように、後続の対象領域に対する画面内予測もしくは画面間予測を行うために、圧縮された対象領域の画素信号は逆処理にて復元され、フレームメモリ104に記憶される。   The inverse quantizer 108 inversely quantizes the quantized transform coefficient, and the inverse transformer 109 performs inverse discrete cosine transform to restore the encoded residual signal. The adder 110 adds the restored residual signal and the prediction signal sent from the line L103, reproduces the signal of the target block, obtains a reproduced image signal, and stores the reproduced image signal in the frame memory 104. Remember. In this embodiment, the converter 106 and the inverse converter 109 are used. However, other conversion processes may be used in place of these converters, and the converter 106 and the inverse converter 109 are not necessarily essential. Thus, in order to perform intra prediction or inter prediction for the subsequent target region, the compressed pixel signal of the target region is restored by inverse processing and stored in the frame memory 104.

つぎに、予測信号生成器103について説明する。予測信号生成器103は、符号化処理の対象となる対象領域(以下、対象ブロックと称する)に対する予測信号を生成する部分である。本実施形態では、3種類の予測方法が用いられる。すなわち、予測信号生成器103は、後述する画面間予測方法と画面内予測方法との少なくともいずれか一方あるいは両方を用いて予測信号を生成する。   Next, the prediction signal generator 103 will be described. The prediction signal generator 103 is a part that generates a prediction signal for a target region (hereinafter referred to as a target block) to be encoded. In this embodiment, three types of prediction methods are used. That is, the prediction signal generator 103 generates a prediction signal using at least one or both of an inter-screen prediction method and an intra-screen prediction method described later.

本実施形態における予測信号生成器103の処理について説明する。図2は、本実施形態による画像予測符号化装置100に用いられる予測信号生成器103を示すブロック図であり、テンプレートマッチング器201と座標情報用メモリ202と候補予測信号の組み合わせ決定器203と予測領域取得器204と重み付け器205と加算器206とを含んで構成されている。   Processing of the prediction signal generator 103 in this embodiment will be described. FIG. 2 is a block diagram showing the prediction signal generator 103 used in the image predictive coding apparatus 100 according to the present embodiment. The template matching unit 201, the coordinate information memory 202, the candidate prediction signal combination determiner 203, and the prediction The area acquisition unit 204, the weighting unit 205, and the adder 206 are included.

テンプレートマッチング器201では、ラインL104経由でフレームメモリ104から過去の処理で既に再生された画像信号(再生画像信号)が入力され、対象領域の対象画素信号に対する予測信号の候補(候補予測信号)を後述するテンプレートマッチングにより複数探索し、探索した候補予測信号にアクセスするための座標情報をラインL201a経由で座標情報用メモリ202に出力する。同時に、対象領域と各候補予測信号との間の関係を示す差分値データ(後述する絶対誤差値の和(SAD(sumof absolute difference)に相当)をラインL201b経由で候補予測信号の組み合わせ決定器203に出力する。   In the template matching unit 201, an image signal (reproduced image signal) that has already been reproduced in the past processing is input from the frame memory 104 via the line L104, and prediction signal candidates (candidate prediction signals) for the target pixel signal in the target region are obtained. A plurality of searches are performed by template matching described later, and coordinate information for accessing the searched candidate prediction signal is output to the coordinate information memory 202 via the line L201a. At the same time, difference value data indicating the relationship between the target region and each candidate prediction signal (corresponding to a sum of absolute error values (SAD (sumof absolute difference) described later)) is combined with a candidate prediction signal combination determiner 203 via a line L201b. Output to.

候補予測信号の組み合わせ決定器203では、ラインL201b経由で入力された差分値データを利用して、候補予測信号の組み合わせを複数設定する。そして、ラインL202a経由で座標情報用メモリ202から入力される座標情報に従ってラインL104経由でフレームメモリから入力される画素信号を用いて、候補予測信号の組み合わせを決定し、候補予測信号の組み合わせ情報としてラインL203経由で予測領域取得器204に出力する。   The candidate prediction signal combination determiner 203 uses the difference value data input via the line L201b to set a plurality of candidate prediction signal combinations. Then, a candidate prediction signal combination is determined using the pixel signal input from the frame memory via the line L104 according to the coordinate information input from the coordinate information memory 202 via the line L202a, and the candidate prediction signal combination information is obtained. It outputs to the prediction area | region acquisition device 204 via the line L203.

予測領域取得器204は、ラインL203経由で入力された候補予測信号の組み合わせ情報に従って、この組み合わせに属する候補予測信号の座標情報をラインL202b経由で取得する。そして、予測領域取得器204は、ラインL104経由でフレームメモリ104から、取得した座標情報に対応する候補予測信号を取得し、随時重み付け器205に出力する。重み付け器205は、ラインL204経由で入力された各候補予測信号に重み係数を掛け、ラインL205経由で加算器206に出力する。加算器206は重み付けされた候補予測信号を順次加算し、予測信号としてラインL103経由で図1の減算器105に出力する。なお、重み付け器の動作については、例えば、候補予測信号の数がNのとき1/Nを各候補予測信号に掛ける手法などがあるが、他の手法でもよい。   The prediction area acquisition unit 204 acquires coordinate information of candidate prediction signals belonging to this combination via line L202b according to the combination information of candidate prediction signals input via line L203. Then, the prediction region acquisition unit 204 acquires a candidate prediction signal corresponding to the acquired coordinate information from the frame memory 104 via the line L104 and outputs it to the weighting unit 205 as needed. The weighting unit 205 multiplies each candidate prediction signal input via the line L204 by a weighting coefficient, and outputs the result to the adder 206 via the line L205. The adder 206 sequentially adds the weighted candidate prediction signals and outputs the result as a prediction signal to the subtracter 105 in FIG. 1 via the line L103. As for the operation of the weighting unit, for example, there is a method of multiplying each candidate prediction signal by 1 / N when the number of candidate prediction signals is N, but other methods may be used.

さらに、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、予測領域取得器204の各構成について詳細に説明する。まず、テンプレートマッチング器201における処理内容について説明する。テンプレートマッチング器201は、ラインL104経由でフレームメモリ104に記憶されている再生画像信号にアクセスし、マッチング処理を行なう。ここで、このマッチング処理について説明する。図3と図4は、本発明の実施形態によるテンプレートマッチング処理を説明するための模式図である。ここでは対象ブロック402に対する候補予測信号を生成する処理について説明する。   Furthermore, each configuration of the template matching unit 201, the candidate prediction signal combination determining unit 203, and the prediction region acquiring unit 204 will be described in detail. First, processing contents in the template matching unit 201 will be described. The template matching unit 201 accesses the reproduced image signal stored in the frame memory 104 via the line L104 and performs matching processing. Here, this matching process will be described. 3 and 4 are schematic diagrams for explaining the template matching process according to the embodiment of the present invention. Here, a process of generating a candidate prediction signal for the target block 402 will be described.

まず、対象ブロックに対し予め決められた方法で「対象隣接領域」(テンプレートともいう)と「探索領域」とを設定する。図3では、対象ブロック402に接しており、それより前に再生され同じ画面内にある再生画像の一部(全部でもよい)が探索領域401として設定されている。ここでは、対象ブロック402を、8x8の画素からなる符号化対象ブロックを分割した4x4画素の小ブロックとしているが、それ以外のブロックの大きさまたは形に分割してもよいし、分割しなくてもよい。   First, a “target adjacent region” (also referred to as a template) and a “search region” are set for a target block by a predetermined method. In FIG. 3, a part (or all) of the reproduced images that are in contact with the target block 402 and are reproduced before and within the same screen are set as the search area 401. Here, the target block 402 is a small block of 4 × 4 pixels obtained by dividing an encoding target block made up of 8 × 8 pixels, but may be divided into other block sizes or shapes, or may not be divided. Also good.

さらに、図4では、対象ブロック402と異なる画面411で示される再生画像の一部が探索領域417として設定されている。また、対象ブロック402と異なる複数の画面にそれぞれ探索領域を設けても良い。「対象隣接領域」としては対象ブロック402に隣接する既再生の画素群(逆L文字の領域)403を用いる。なお、本実施形態では、2つの画面(図3と図4)内に探索領域を設定しているが、対象ブロックと同じ画面内のみに設定しても良いし(図3)、対象ブロックと異なる画面内のみに設定しても良い(図4)。   Further, in FIG. 4, a part of the reproduced image shown on the screen 411 different from the target block 402 is set as the search area 417. Further, a search area may be provided on each of a plurality of screens different from the target block 402. As the “target adjacent region”, the already reproduced pixel group (reverse L character region) 403 adjacent to the target block 402 is used. In this embodiment, the search area is set in two screens (FIGS. 3 and 4), but it may be set only in the same screen as the target block (FIG. 3). You may set only in a different screen (FIG. 4).

図3に示すように探索領域401と対象ブロック402とは接する必要はなく、探索領域401は対象ブロック402と全く接していなくてもよい。また、図4に示すように対象ブロックと異なる一の画面(画面411のみ)において探索領域を設定することに限る必要はなく、対象ブロックと異なる複数の画面(参照画像、再生済みであれば表示順で未来のフレームを含んでも良い)にそれぞれ探索領域を設定してもよい。   As shown in FIG. 3, the search area 401 and the target block 402 do not need to touch each other, and the search area 401 may not touch the target block 402 at all. In addition, as shown in FIG. 4, it is not necessary to limit the search area to be set on one screen different from the target block (only the screen 411). Each of the search areas may be set in order to include future frames in order.

また、対象隣接領域403については、対象ブロック402と少なくとも1画素でも接していればよい。ここでは、対象隣接領域の形状は、逆L文字としているが、これに限定されない。よって、対象隣接領域は対象ブロック402の周囲の再生済み画素で構成されていれば、形と画素数は予め定めておけば任意でよく、シーケンス単位あるいはフレーム単位やブロック単位でテンプレートの形状とサイズ(画素数)を符号化してもよい。   In addition, the target adjacent area 403 may be in contact with the target block 402 even at least one pixel. Here, the shape of the target adjacent region is an inverted L character, but is not limited thereto. Therefore, if the target adjacent region is composed of reproduced pixels around the target block 402, the shape and the number of pixels may be arbitrary as long as they are determined in advance. The shape and size of the template in sequence units, frame units, or block units. (Number of pixels) may be encoded.

テンプレートマッチング器201は、探索領域401と探索領域417あるいはいずれか一方の探索領域において、対象隣接領域403と同じ形状を有する画素群との間で、対応する画素間の絶対誤差値の和(SAD値)を求め、SAD値が小さいM個の領域を検索し、それらを「予測隣接領域」とする。検索精度は整数画素単位でもよいし、1/2画素、1/4画素等の小数精度の画素を生成し、小数画素精度で探索を行なってもよい。Mの値は予め設定しておけば任意の値でよい。図3および図4に示すように、M=6であり、予測隣接領域404a、404b、404c、414a、414bおよび414cが探索されている。また、探索する予測隣接領域の数を決めずにSAD値がある閾値より小さい領域を探索してMの値を決めても良いし、閾値より小さい領域の数と設定した数から小さい方をMの値としてもよい。このとき閾値は、SAD値そのものに対してではなく、最小のSAD値と2番目以降のSAD値との差分値に対して適用してもよい。後者では、テンプレートマッチング器201は、最小のSAD値が大きい場合でも閾値を変更せずに多くの予測隣接領域を検索できる。Mの上限値や閾値は、予め設定しておいても良いが、シーケンス単位あるいはフレーム単位やブロック単位で適切な値を符号化してもよい。   The template matching unit 201 calculates the sum of absolute error values between corresponding pixels (SAD) between the search region 401 and the search region 417 or a pixel group having the same shape as the target adjacent region 403 in one of the search regions. Value), M areas having a small SAD value are searched, and these are set as “predicted adjacent areas”. The search accuracy may be in units of integer pixels, or a pixel with decimal precision such as 1/2 pixel or 1/4 pixel may be generated, and the search may be performed with decimal pixel precision. The value of M may be an arbitrary value as long as it is set in advance. As shown in FIGS. 3 and 4, M = 6, and the predicted adjacent regions 404a, 404b, 404c, 414a, 414b, and 414c are searched. Alternatively, the value of M may be determined by searching a region where the SAD value is smaller than a certain threshold without determining the number of predicted adjacent regions to be searched, or the smaller of the number of regions smaller than the threshold and the set number is M It is good also as the value of. At this time, the threshold value may be applied not to the SAD value itself but to a difference value between the minimum SAD value and the second and subsequent SAD values. In the latter case, the template matching unit 201 can search many predicted adjacent regions without changing the threshold value even when the minimum SAD value is large. The upper limit value and threshold value of M may be set in advance, but an appropriate value may be encoded in sequence units, frame units, or block units.

予測隣接領域404a、404b、404c、414a、414bおよび414cに接している領域405a、405b、405c、415a、415bおよび415cが対象ブロック402に対する予測領域に決定され、予測領域内の画素信号が候補予測信号に決定される。なお、ここでは、予測隣接領域と候補予測信号を示す予測領域との位置関係は、対象領域と対象隣接領域と同じ関係にあるが、そうでなくてもよい。本実施形態では、各予測隣接領域(および予測領域)をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と予測隣接領域(および予測領域)との間の差分座標406a、406b、406c、416a、416bおよび416cと各予測隣接領域(および予測領域)が属する画面(参照画像)の識別番号が座標情報として座標情報用メモリ202に記憶される。   The regions 405a, 405b, 405c, 415a, 415b, and 415c adjacent to the prediction adjacent regions 404a, 404b, 404c, 414a, 414b, and 414c are determined as the prediction regions for the target block 402, and the pixel signals in the prediction region are candidate predictions Determined to be a signal. Here, the positional relationship between the prediction adjacent region and the prediction region indicating the candidate prediction signal is the same as the target region and the target adjacent region, but this need not be the case. In the present embodiment, as the access information for acquiring each predicted adjacent area (and predicted area) from the frame memory 104, the difference coordinates between the target adjacent area (and target area) and the predicted adjacent area (and predicted area) The identification numbers of the screens (reference images) to which 406a, 406b, 406c, 416a, 416b and 416c and the respective prediction adjacent areas (and prediction areas) belong are stored in the coordinate information memory 202 as coordinate information.

以上の通りの動作を行うためのテンプレートマッチング器201の構成について説明する。テンプレートマッチング器201は、対象隣接領域取得器211と予測隣接領域取得器212と比較器213とスイッチ214とを含んで構成される。まず、対象隣接領域取得器211は、フレームメモリ104からラインL104を経由して対象隣接領域403を取得する。   A configuration of the template matching unit 201 for performing the operation as described above will be described. The template matching unit 201 includes a target adjacent region acquisition unit 211, a predicted adjacent region acquisition unit 212, a comparator 213, and a switch 214. First, the target adjacent area acquisition unit 211 acquires the target adjacent area 403 from the frame memory 104 via the line L104.

予測隣接領域取得器212は、ラインL104を経由してフレームメモリ104内の探索領域から対象隣接領域と同じ形状の領域の画素信号を取得し、ラインL211経由で対象隣接領域取得器211から得られる対象隣接領域の画素信号(隣接画素信号)と間でSAD値を算出する。比較器213は、算出したSAD値を、ラインL212b経由で入力し、これまで取得されたSAD値のうちでM番目に小さいSAD値と比較する。そして、比較器213が入力されたSAD値の方が小さいと判断する場合には、比較器213は、そのM番目以内に入ったSAD値を一時的に記憶し、M+1番目となったSAD値を消去する。なお、比較器213は、処理開始時にはSAD値の初期値として通常のSAD値と比較して十分大きな値を初期値として設定する。   The predicted adjacent area acquisition unit 212 acquires a pixel signal of an area having the same shape as the target adjacent area from the search area in the frame memory 104 via the line L104, and is obtained from the target adjacent area acquisition unit 211 via the line L211. The SAD value is calculated between the pixel signal (adjacent pixel signal) in the target adjacent region. The comparator 213 inputs the calculated SAD value via the line L212b and compares it with the Mth smallest SAD value among the SAD values acquired so far. When the comparator 213 determines that the input SAD value is smaller, the comparator 213 temporarily stores the SAD value that is within the Mth, and the MADth SAD value. Erase. The comparator 213 sets a sufficiently large value as an initial value at the start of processing as an initial value of the SAD value as compared with a normal SAD value.

この処理を行うとともに、予測隣接領域取得器212は、予測隣接領域(および予測領域)にアクセスするための情報として、比較器213によるスイッチ214に対する制御によりラインL212a経由で座標情報を座標情報用メモリ202に出力する。この際、SAD値がM+1番目となった座標情報は不要となるため、座標情報用メモリ202において上書きされて記憶されても良い。予測隣接領域取得器212による探索領域内を探索が終了したとき、比較器213は、一時的に記憶したM個のSAD値をラインL201bを経由して、候補予測信号の組み合わせ決定器203に出力する。   In addition to performing this process, the predicted adjacent area acquisition unit 212 obtains coordinate information as information for accessing the predicted adjacent area (and the predicted area) via the line L212a by controlling the switch 214 by the comparator 213. To 202. At this time, the coordinate information with the M + 1th SAD value becomes unnecessary, and may be overwritten and stored in the coordinate information memory 202. When the search within the search region by the prediction adjacent region acquisition unit 212 is completed, the comparator 213 outputs the temporarily stored M SAD values to the candidate prediction signal combination determiner 203 via the line L201b. To do.

つぎに、候補予測信号の組み合わせ決定器203の動作を説明する。候補予測信号の組み合わせ決定器203は、組み合わせ設定器231、予測隣接領域取得器232、対象隣接領域取得器233、重み付け器234、加算器235、および比較・選択器236を含んで構成される。   Next, the operation of the candidate prediction signal combination determiner 203 will be described. The candidate prediction signal combination determiner 203 includes a combination setting unit 231, a prediction adjacent region acquisition unit 232, a target adjacent region acquisition unit 233, a weighting unit 234, an adder 235, and a comparison / selection unit 236.

組み合わせ設定器231は、ラインL201bを経由して入力されたM個のSAD値に基づいて、複数の予測隣接領域の組み合わせを設定する。予測隣接領域の組み合わせ決定器203における処理を図6における説明で詳述するように、入力されたSAD値の小さいN個の予測隣接領域を1つの組み合わせとして設定する。Nの値は、Mより小さい2の乗数であり、M=6のとき、N=1、2、4となる3つの組み合わせを作る。   The combination setting unit 231 sets a combination of a plurality of predicted adjacent areas based on the M SAD values input via the line L201b. As will be described in detail in the description of FIG. 6 with respect to the processing in the predictive adjacent region combination determiner 203, the N predictive adjacent regions having small input SAD values are set as one combination. The value of N is a multiplier of 2 smaller than M, and when M = 6, three combinations of N = 1, 2, and 4 are created.

このように、本発明の候補予測信号の組み合わせ処理を利用することにより、各対象ブロックに適切な候補予測信号の平滑化の強さ、つまり平均化する予測候補信号の数を決定することが可能となる。言い換えれば、隣接画素信号との間の絶対誤差値である差分SAD値が小さいN個の予測隣接領域の画素信号を平均化した対象信号と隣接画素信号との間の差分SAD値が最も小さいNを定めることにより、探索したM個の候補予測信号から、予測信号の生成に適した候補予測信号を付加情報なしで選別できる。なお、Nの値を2の乗数としているのは、信号の平均化処理を加算とシフト演算のみにて行なうことを考慮したためである。   Thus, by using the candidate prediction signal combination processing of the present invention, it is possible to determine the smoothing strength of the candidate prediction signal appropriate for each target block, that is, the number of prediction candidate signals to be averaged. It becomes. In other words, the difference SAD value between the target signal and the adjacent pixel signal obtained by averaging the pixel signals of the N predicted adjacent regions having a small difference SAD value that is an absolute error value between the adjacent pixel signals is the smallest N. Can be selected from the M candidate prediction signals searched for, without additional information, candidate prediction signals suitable for generating a prediction signal. The reason why the value of N is a multiplier of 2 is that it is considered that the signal averaging process is performed only by addition and shift calculation.

また、M値とN値およびN個の予測信号領域の組み合わせは、これに限定されない。1つの組み合わせに含まれる予測隣接領域の数は1〜M個から任意に設定できる。例えば、Mより小さいN個の予測隣接領域にて構成される組み合わせを作る場合、M個からN個を選び全ての組み合わせを設定することも可能である。この際、Nの値は固定でもよいし、1〜Mの間で2個以上を選択して組み合わせを設定しもよい。但し、符号化器である画像予測符号化装置100と復号器である後述する画像予測復号装置300にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   Further, the combination of the M value, the N value, and the N predicted signal regions is not limited to this. The number of predicted adjacent regions included in one combination can be arbitrarily set from 1 to M. For example, when creating a combination composed of N predicted adjacent regions smaller than M, it is possible to select N from M and set all combinations. At this time, the value of N may be fixed, or a combination may be set by selecting two or more of 1 to M. However, in order to automatically select the same prediction adjacent region combination in the image predictive encoding device 100 which is an encoder and the image predictive decoding device 300 which will be described later as a decoder, the setting method of the combination of both is made to match. It is necessary to keep.

予測隣接領域取得器232は、予測隣接領域の組み合わせ情報がラインL231a経由で1つ入力されると、その組み合わせに含まれる予測隣接領域に対する座標情報をラインL202a経由で座標情報用メモリ202から取得する。そして、予測隣接領域取得器232は、座標情報に対応する予測隣接領域の画素信号をラインL104経由で取得し、随時重み付け器234に出力する。   When one piece of prediction adjacent region combination information is input via the line L231a, the prediction adjacent region acquisition unit 232 acquires coordinate information for the prediction adjacent region included in the combination from the coordinate information memory 202 via the line L202a. . Then, the predicted adjacent area acquisition unit 232 acquires the pixel signal of the predicted adjacent area corresponding to the coordinate information via the line L104 and outputs it to the weighting unit 234 as needed.

重み付け器234は、ラインL232経由で入力された各予測隣接領域の画素信号に重み係数を掛け、ラインL234経由で加算器235に出力する。   The weighter 234 multiplies the pixel signal of each prediction adjacent region input via the line L232 and outputs the result to the adder 235 via the line L234.

加算器235は、重み付けされた予測隣接領域の画素信号を累積加算して積算することで、対象隣接領域の画素信号(隣接画素信号)と比較するための比較信号を生成し、生成された比較信号をラインL235経由で比較・選択器236に出力する。なお、重み付け器234の動作については、例えば、予測隣接領域の数がNのとき1/Nを各予測隣接領域の画素信号に掛ける手法などがあるが、他の手法でもよい。例えば、N個の予測隣接領域の画素信号と隣接画素信号の差分値(絶対誤差和、二乗誤差和、分散など)を計算し、その比率に基づいて各予測隣接領域への重み付け係数を決める方法が考えられる。   The adder 235 generates a comparison signal to be compared with the pixel signal (adjacent pixel signal) of the target adjacent region by accumulating and accumulating the weighted pixel signals of the predicted adjacent region, and performing the generated comparison. The signal is output to the comparator / selector 236 via the line L235. Note that the operation of the weighter 234 includes, for example, a method of multiplying the pixel signal of each prediction adjacent region by 1 / N when the number of prediction adjacent regions is N, but other methods may be used. For example, a method of calculating a difference value (absolute error sum, square error sum, variance, etc.) between pixel signals of N predicted adjacent regions and adjacent pixel signals and determining a weighting coefficient for each predicted adjacent region based on the ratio Can be considered.

ここで、重み付け器205と重み付け器234の重み付け方法を同じにすることにより、予測隣接領域を用いて、候補予測信号(予測領域の画素信号)の適切な組み合わせが推測できる。予測隣接領域は符号化器と復号器が共有できるため、本手法を用いた復号器であり、後述する画像予測復号装置300は、符号化器である画像予測符号化装置100にて選択した候補予測信号の組み合わせを付加情報なしで取得できるという効果がある。なお、重み付け器205と重み付け器234の重み付け方法は必ずしも同じとする必要はない。例えば、演算量削減のためには、重み付け器234には単純な重み付け処理を適用し、重み付け器205に、局所的な信号の特徴に応じた適応的な重み付け処理を適用するという方法も有効である。   Here, by making the weighting methods of the weighting unit 205 and the weighting unit 234 the same, an appropriate combination of candidate prediction signals (pixel signals of the prediction region) can be estimated using the prediction adjacent region. Since the predictive adjacent region can be shared by the encoder and the decoder, this is a decoder using this technique. There is an effect that a combination of prediction signals can be acquired without additional information. Note that the weighting methods of the weighter 205 and the weighter 234 are not necessarily the same. For example, in order to reduce the amount of calculation, it is also effective to apply a simple weighting process to the weighter 234 and to apply an adaptive weighting process according to local signal characteristics to the weighter 205. is there.

対象隣接領域取得器233は、フレームメモリ104からラインL104を経由して対象隣接領域の画素信号(隣接画素信号)を取得し、比較・選択器236に出力する。   The target adjacent area acquisition unit 233 acquires the pixel signal (adjacent pixel signal) of the target adjacent area from the frame memory 104 via the line L104 and outputs the acquired pixel signal to the comparison / selection unit 236.

比較・選択器236は、複数の予測隣接領域の組み合わせに対応する比較信号と隣接画素信号と間でSAD値を算出し、その値が最小となる対象隣接領域の組み合わせを、候補予測信号の組み合わせとして選択する。選択された候補予測信号の組み合わせは、候補予測信号の組み合わせ情報としてラインL203経由で予測領域取得器204に出力される。   The comparator / selector 236 calculates the SAD value between the comparison signal corresponding to the combination of a plurality of prediction adjacent regions and the adjacent pixel signal, and selects the combination of the target adjacent regions having the minimum value as a combination of candidate prediction signals. Choose as. The selected combination of candidate prediction signals is output to the prediction region acquisition unit 204 via line L203 as candidate prediction signal combination information.

このように、本実施形態によれば、対象ブロック毎に、付加情報なしで、複数の候補予測信号から予測信号生成に有効な候補予測信号の組み合わせを選択することが可能となる。   As described above, according to the present embodiment, for each target block, it is possible to select a combination of candidate prediction signals effective for prediction signal generation from a plurality of candidate prediction signals without additional information.

図5は、本実施形態によるテンプレートマッチング器201にて、対象領域(対象ブロック)に画素信号(対象画素信号)に対する複数(M個)の候補予測信号を探索し、探索した候補予測信号にアクセスするための座標情報を取得する方法を示すフローチャートである。まず、対象隣接領域取得器211では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される(S502)。   FIG. 5 shows a search for a plurality (M) of candidate prediction signals for a pixel signal (target pixel signal) in the target region (target block) by the template matching unit 201 according to the present embodiment, and accesses the searched candidate prediction signals. It is a flowchart which shows the method of acquiring the coordinate information for doing. First, the target adjacent area acquisition unit 211 acquires the target adjacent area (template signal) for the target block from the frame memory 104 (S502).

つぎに、テンプレートマッチング器201は、M個の候補予測信号を選択するための閾値を十分大きな値に初期化する(S503)。予測隣接領域取得器212では、対象隣接領域と探索領域内の対象隣接領域と同じ形状の画素群と差分絶対値和(SAD)が求められる(S504)。テンプレートマッチング器201内の比較器213によりSADと閾値とが比較され(S505)、SAD値が閾値より小さいと判断された場合、S506に進み、そうでないと判断された場合、S508に進む。   Next, the template matching unit 201 initializes a threshold value for selecting M candidate prediction signals to a sufficiently large value (S503). The predicted adjacent area acquisition unit 212 obtains a pixel group having the same shape as the target adjacent area and the target adjacent area in the search area and the sum of absolute differences (SAD) (S504). The SAD is compared with the threshold value by the comparator 213 in the template matching unit 201 (S505). If it is determined that the SAD value is smaller than the threshold value, the process proceeds to S506. If not, the process proceeds to S508.

テンプレートマッチング器201内の比較器213では、求めたSAD値と、以前のSAD値と比較し、求めたSAD値が小さい順でM番までに含まれるとき、探索した画素群を候補予測信号(および予測隣接領域の画素信号)に追加し、候補信号を更新する。本実施形態では、候補予測信号(および予測隣接領域の画素信号)のかわりに、候補予測信号(および予測隣接領域の画素信号)にアクセスするための時空間の座標情報(空間位置と探索した画素群が含まれる画面の識別番号)を、スイッチ214による切換制御に基づいて座標情報用メモリ202に記憶することにより、座標情報を更新する(S506)。同時に、テンプレートマッチング器201は、閾値をM番目に小さいSAD値に更新する(S507)。   The comparator 213 in the template matching unit 201 compares the obtained SAD value with the previous SAD value, and when the obtained SAD value is included in order from the Mth, the searched pixel group is used as a candidate prediction signal ( And the candidate signal is updated. In this embodiment, space-time coordinate information (spatial position and searched pixels) for accessing a candidate prediction signal (and a pixel signal of a prediction adjacent region) instead of the candidate prediction signal (and a pixel signal of the prediction adjacent region) The coordinate information is updated by storing the identification number of the screen including the group in the coordinate information memory 202 based on the switching control by the switch 214 (S506). At the same time, the template matching unit 201 updates the threshold value to the Mth smallest SAD value (S507).

その後、予測隣接領域取得器212により、探索領域が全て探索済みであるか否か確認される(S508)。全て探索済みではないと判断された場合、S504に戻り、予測隣接領域取得器212により、対象隣接領域と探索領域内の対象隣接領域と同じ形状のつぎの画素群と差分絶対値和(SAD)が求められる。   Thereafter, the predicted adjacent area acquisition unit 212 confirms whether or not all search areas have been searched (S508). When it is determined that not all have been searched, the process returns to S504, and the predicted adjacent area acquisition unit 212 and the next pixel group having the same shape as the target adjacent area and the target adjacent area in the search area and the sum of absolute differences (SAD) Is required.

全部探索済みとなった時点で、ひとつの対象ブロックのテンプレートマッチング処理が終了となる(S509)   When all the search has been completed, the template matching process for one target block ends (S509).

このようにテンプレートマッチング器201による処理により、対象隣接領域における画素信号と相関の高い画素信号を含んだ上位M個の予測隣接領域を特定することができる。   In this way, the processing by the template matching unit 201 can identify the top M predicted adjacent areas including pixel signals having a high correlation with the pixel signal in the target adjacent area.

つぎに、候補予測信号の組み合わせ決定器203の処理について図を用いて説明する。図6は、本実施形態による候補予測信号の組み合わせ決定器203における、複数の候補予測信号の平滑化(加重平均)にて予測信号の生成に適したN個の候補予測信号の組み合わせを選択する方法を示すフローチャートである。まず、組み合わせ決定器203の組み合わせ設定器231は、候補予測信号の数Nを1に設定する(S602)。つぎに、対象隣接領域取得器233では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される(S603)。   Next, processing of the candidate prediction signal combination determiner 203 will be described with reference to the drawings. FIG. 6 selects a combination of N candidate prediction signals suitable for generating a prediction signal by smoothing (weighted average) a plurality of candidate prediction signals in the candidate prediction signal combination determiner 203 according to the present embodiment. 3 is a flowchart illustrating a method. First, the combination setter 231 of the combination determiner 203 sets the number N of candidate prediction signals to 1 (S602). Next, the target adjacent area acquisition unit 233 acquires the target adjacent area (template signal) for the target block from the frame memory 104 (S603).

そして、予測隣接領域取得器232にて、組み合わせ設定器231により設定された組み合わせに属するN個の予測隣接領域が、ラインL104を経由して取得される。すなわち、予測隣接領域取得器232は、対象ブロックの画素信号と当該対象ブロックに対する対象隣接領域の隣接画素信号との差分値であるSAD値が小さいN個の予測隣接領域に対応する座標情報を座標情報用メモリ202から取得する。そして、取得した座標情報に対応するN個の予測隣接領域をフレームメモリ104から取得する(S604)。   Then, the predicted adjacent area acquisition unit 232 acquires N predicted adjacent areas belonging to the combination set by the combination setting unit 231 via the line L104. That is, the predicted adjacent area acquisition unit 232 coordinates the coordinate information corresponding to N predicted adjacent areas having a small SAD value that is a difference value between the pixel signal of the target block and the adjacent pixel signal of the target adjacent area for the target block. Obtained from the information memory 202. Then, N predicted adjacent areas corresponding to the acquired coordinate information are acquired from the frame memory 104 (S604).

その後、重み付け器234と加算器235とにおいて、N個の予測隣接領域の画素信号の平均化(加重平均でもよい)により比較信号を生成し(S605)、比較・選択器236にて、生成した比較信号と隣接画素信号との差分値であるSAD値を算出する(S606)。同時に、比較・選択器236では、算出したSAD値をそれまでの最小のSAD値と比較し(S607)、SAD値が最小値と判断された場合、S608に進み、そうでないと判断された場合、S609に進む。なお、S607では、算出したSAD値とそれまでの最小のSAD値が同じ場合には、S609に進むが、S608に進むようにしてもよい。   Thereafter, the weighting unit 234 and the adder 235 generate a comparison signal by averaging the pixel signals of the N predicted adjacent regions (may be weighted average) (S605), and the comparison / selector 236 generates the comparison signal. An SAD value that is a difference value between the comparison signal and the adjacent pixel signal is calculated (S606). At the same time, the comparator / selector 236 compares the calculated SAD value with the minimum SAD value so far (S607), and if the SAD value is determined to be the minimum value, the process proceeds to S608, and if not, , The process proceeds to S609. In S607, if the calculated SAD value and the minimum SAD value so far are the same, the process proceeds to S609, but may proceed to S608.

算出したSAD値が、それまでの最小のSAD値である場合、比較・選択器236にて、S604にて取得した座標情報の組み合わせを記憶する(S608)。   When the calculated SAD value is the minimum SAD value so far, the combination of coordinate information acquired in S604 is stored in the comparator / selector 236 (S608).

ここで、組み合わせ決定器203は、Nの値を2倍に更新する(S609)。そして、更新したNとMの大きさを比較し(S610)、更新したNの値がMより小さい場合、S604に戻り、更新したNの値がMより大きい場合、S608にて記憶した座標情報の組み合わせを候補予測信号の組み合わせとして決定し、候補予測信号の組み合わせ選択処理を終了する(S611)。   Here, the combination determiner 203 updates the value of N twice (S609). Then, the updated N is compared with the magnitude of M (S610). If the updated N value is smaller than M, the process returns to S604. If the updated N value is larger than M, the coordinate information stored in S608 is stored. Is determined as a candidate prediction signal combination, and the candidate prediction signal combination selection process is terminated (S611).

このように、本実施形態の候補予測信号の組み合わせ処理を利用することにより、各対象ブロックに適切な候補予測信号の平滑化の強さ、つまり平均化する予測候補信号の数を決定することが可能となる。言い換えれば、隣接画素信号との間の差分値であるSAD値が小さいN個の予測隣接領域の画素信号を平均化した対象信号と隣接画素信号との間の差分SAD値が最も小さいNを定めることにより、探索したM個の候補予測信号から、予測信号の生成に適した候補予測信号を付加情報なしで選別できる。   As described above, by using the candidate prediction signal combination processing of this embodiment, it is possible to determine the smoothing strength of the candidate prediction signal appropriate for each target block, that is, the number of prediction candidate signals to be averaged. It becomes possible. In other words, N having the smallest difference SAD value between the target signal and the neighboring pixel signal obtained by averaging the pixel signals of the N predicted neighboring regions having a small SAD value that is a difference value between the neighboring pixel signals is determined. Thus, a candidate prediction signal suitable for generation of a prediction signal can be selected from the searched M candidate prediction signals without additional information.

なお、Nの値を2の乗数としているのは、信号の平均化処理を加算とシフト演算のみにて行なうことを考慮したためである。本実施形態においては、Nの値は2の乗数に限定されることはない。また、複数の予測隣接領域の組み合わせを設定する方法は、図6の方法には限定されない。1つの組み合わせに含まれる予測隣接領域の数は1〜M個から任意に設定できる。例えば、Mより小さいN個の予測隣接領域にて構成される組み合わせを作る場合、M個からN個を選ぶ、全ての組み合わせを設定することも可能である。この際、Nの値は固定でもよいし、1〜Mの間で2個以上を選択して組み合わせを設定しもよい。また、符号化器と復号器にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   The reason why the value of N is a multiplier of 2 is that it is considered that the signal averaging process is performed only by addition and shift calculation. In the present embodiment, the value of N is not limited to a multiplier of 2. Moreover, the method of setting the combination of a some prediction adjacent area | region is not limited to the method of FIG. The number of predicted adjacent regions included in one combination can be arbitrarily set from 1 to M. For example, when creating a combination composed of N predicted adjacent regions smaller than M, it is possible to set all combinations of selecting N from M. At this time, the value of N may be fixed, or a combination may be set by selecting two or more of 1 to M. In addition, in order to automatically select the same combination of prediction adjacent regions in the encoder and the decoder, it is necessary to match the setting method of the combination of both.

図7は、本実施形態による複数候補予測信号の平滑化(加重平均)にて予測信号の生成方法を示すフローチャートである。   FIG. 7 is a flowchart showing a prediction signal generation method in smoothing (weighted average) of a plurality of candidate prediction signals according to the present embodiment.

予測領域取得器204では、選択された座標情報に従って、フレームメモリ104から対象ブロックに対応する候補予測信号を1つ以上取得する(S702)。そして、重み付け器205と加算器206とにおいて、取得した候補予測信号を重み付け平均することにより、対象ブロックの予測信号が生成される(S703)。これで、ひとつの対象ブロックに対する処理が終了となる(S704)。   The prediction region acquisition unit 204 acquires one or more candidate prediction signals corresponding to the target block from the frame memory 104 according to the selected coordinate information (S702). Then, the weighting unit 205 and the adder 206 perform weighted averaging of the obtained candidate prediction signals to generate a prediction signal for the target block (S703). This completes the process for one target block (S704).

図8は、本実施形態による画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。まず、図2の予測信号生成器103にて、対象ブロックの予測信号を生成する(S102)。つぎに、対象ブロックの信号と対象ブロックの予測信号との差分を示す残差信号が、変換器106、量子化器107、およびエントロピー符号化器111により符号化される(S103)。そして、符号化された残差信号が出力端子112を介して出力される(S105)。   FIG. 8 is a flowchart showing an image predictive encoding method in the image predictive encoding device 100 according to the present embodiment. First, the prediction signal generator 103 of FIG. 2 generates a prediction signal of the target block (S102). Next, a residual signal indicating a difference between the signal of the target block and the prediction signal of the target block is encoded by the transformer 106, the quantizer 107, and the entropy encoder 111 (S103). The encoded residual signal is output via the output terminal 112 (S105).

その後、後続の対象ブロックを予測符号化するために、符号化された残差信号は逆量子化器108および逆変換器109により復号される。そして、復号された残差信号に加算器110により予測信号が加算され、対象ブロックの信号が再生され、フレームメモリ104に参照画像として記憶される(S106)。そして、全ての対象ブロックの処理が完了していない場合にはS102に戻り、つぎの対象ブロックに対する処理が行われ、完了している場合には、処理を終了する(S107)。   Thereafter, the encoded residual signal is decoded by an inverse quantizer 108 and an inverse transformer 109 in order to predictively encode a subsequent target block. Then, the prediction signal is added to the decoded residual signal by the adder 110, and the signal of the target block is reproduced and stored as a reference image in the frame memory 104 (S106). If all the target blocks have not been processed, the process returns to S102, the process for the next target block is performed, and if it has been completed, the process ends (S107).

以上説明したとおり、本実施形態の画像予測符号化装置100においては、付加情報を用いることなく複数の予測信号を用いて平滑化した予測信号とすることができる。   As described above, in the image predictive coding device 100 of the present embodiment, a prediction signal smoothed using a plurality of prediction signals can be obtained without using additional information.

つぎに、本実施形態における画像予測復号方法について説明する。図9は、本実施形態による画像予測復号装置300を示すブロック図である。この画像予測復号装置300は、入力端子301、エントロピー復号器302(データ復号手段)、逆量子化器303(残差信号復元手段)、逆変換器304(残差信号復元手段)、加算器305(再生画像信号生成手段)、出力端子306、フレームメモリ307、予測信号生成器308(予測信号生成手段)である。逆量子化器303と逆変換器304による残差信号復元手段は、それ以外のものを用いてもよい。また逆変換器304はなくてもよい。以下、各構成について説明する。   Next, an image predictive decoding method according to this embodiment will be described. FIG. 9 is a block diagram showing an image predictive decoding apparatus 300 according to this embodiment. The image predictive decoding apparatus 300 includes an input terminal 301, an entropy decoder 302 (data decoding means), an inverse quantizer 303 (residual signal restoration means), an inverse transformer 304 (residual signal restoration means), and an adder 305. (Reproduced image signal generation means), output terminal 306, frame memory 307, prediction signal generator 308 (prediction signal generation means). As the residual signal restoration means by the inverse quantizer 303 and the inverse transformer 304, other means may be used. Further, the inverse converter 304 may not be provided. Each configuration will be described below.

入力端子301は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、画像を複数のブロックに分割された対象ブロックを予測し符号化された残差信号が含まれている。   The input terminal 301 inputs compressed data that has been compression-encoded by the above-described image predictive encoding method. The compressed data includes a residual signal obtained by predicting and encoding a target block obtained by dividing an image into a plurality of blocks.

エントロピー復号器302は、入力端子301で入力した圧縮データをエントロピー復号することにより、対象ブロックの残差信号の符号化データを復号する。   The entropy decoder 302 decodes the encoded data of the residual signal of the target block by entropy decoding the compressed data input at the input terminal 301.

逆量子化器303は、復号された対象ブロックの残差信号をラインL302経由で入力し、逆量子化する。逆変換器304は、逆量子化したデータを逆離散コサイン変換する。逆量子化器303および逆変換器304は、それぞれ逆量子化、逆離散コサイン変換して得た信号を差分信号(再生残差信号)として出力する。   The inverse quantizer 303 inputs the residual signal of the decoded target block via the line L302 and performs inverse quantization. The inverse transformer 304 performs inverse discrete cosine transform on the inversely quantized data. Inverse quantizer 303 and inverse transformer 304 output signals obtained by inverse quantization and inverse discrete cosine transform, respectively, as difference signals (reproduced residual signals).

予測信号生成器308は、基本的に図2に示した構成と同じ構成またはそれに相当する機能を持ち、図2の予測信号生成器103と同一の処理により予測信号を生成する。予測信号生成器308は、フレームメモリ307に記憶されている再生済み信号のみから予測信号を生成するため、フレームメモリ307と図1におけるフレームメモリ104への入力データを同じ方法で管理することにより、図1の予測信号生成器103と同じ予測信号が生成できる。この予測信号生成器308の構成の詳細については、図2にて説明済みのため割愛する。このように動作する予測信号生成器308は、生成した予測信号をラインL308経由で加算器305に出力する。   The prediction signal generator 308 basically has the same configuration as that shown in FIG. 2 or a function corresponding thereto, and generates a prediction signal by the same processing as the prediction signal generator 103 of FIG. Since the prediction signal generator 308 generates a prediction signal only from the reproduced signal stored in the frame memory 307, by managing the input data to the frame memory 307 and the frame memory 104 in FIG. The same prediction signal as the prediction signal generator 103 in FIG. 1 can be generated. Details of the configuration of the prediction signal generator 308 are omitted because they have already been described with reference to FIG. The prediction signal generator 308 operating in this way outputs the generated prediction signal to the adder 305 via the line L308.

加算器305は、予測信号生成器308で生成された予測信号を、逆量子化器303および逆変換器304により復元された差分信号(再生残差信号)に加算して、対象ブロックの再生画像信号をラインL305経由で出力端子306およびフレームメモリ307に出力する。そして、出力端子306は、外部に(例えばディスプレイ)出力する。   The adder 305 adds the prediction signal generated by the prediction signal generator 308 to the difference signal (reproduction residual signal) restored by the inverse quantizer 303 and the inverse transformer 304, and reproduces the reproduced image of the target block. The signal is output to the output terminal 306 and the frame memory 307 via the line L305. The output terminal 306 outputs to the outside (for example, a display).

フレームメモリ307は、つぎの復号処理のための参照用の再生画像として、加算器305から出力された再生画像を参照画像として記憶する。この際、図1の画像予測符号化装置100と同様の方法で再生画像を管理する。   The frame memory 307 stores the reproduction image output from the adder 305 as a reference image as a reference reproduction image for the next decoding process. At this time, the reproduced image is managed by the same method as that of the image predictive coding apparatus 100 of FIG.

つぎに、図10を用いて本実施形態による画像予測復号装置300における画像予測復号方法を説明する。まず、入力端子301を介して、圧縮された圧縮データは入力される(S302)。そして、エントロピー復号器302において、圧縮データに対しエントロピー復号が行われ、量子化された変換係数が抽出される(S303)。ここで予測信号生成器308にて予測信号が生成される(S304)。S304の処理は、基本的に図8の処理S102と同じであり、図5〜7の処理が実施される。   Next, the image predictive decoding method in the image predictive decoding apparatus 300 according to the present embodiment will be described with reference to FIG. First, the compressed compressed data is input via the input terminal 301 (S302). Then, the entropy decoder 302 performs entropy decoding on the compressed data and extracts quantized transform coefficients (S303). Here, a prediction signal is generated by the prediction signal generator 308 (S304). The process of S304 is basically the same as the process S102 of FIG. 8, and the processes of FIGS.

一方、量子化された変換係数は、逆量子化器303において量子化パラメータを用いて逆量子化され、逆変換器304において逆変換が行われ、再生差分信号が生成される(S305)。そして、生成された予測信号と再生差分信号とが加算され再生信号が生成され、再生信号はつぎの対象ブロックを再生するためにフレームメモリに記憶される(S306)。つぎの圧縮データがある場合には、再度このプロセスを繰り返し(S307)、全てのデータは最後まで処理される(S308)。なお、必要に応じてS302に戻り、圧縮データを取り込むようにしても良い。   On the other hand, the quantized transform coefficient is inversely quantized using the quantization parameter in the inverse quantizer 303, and inverse transform is performed in the inverse transformer 304, thereby generating a reproduction difference signal (S305). Then, the generated prediction signal and the reproduction difference signal are added to generate a reproduction signal, and the reproduction signal is stored in the frame memory to reproduce the next target block (S306). If there is next compressed data, this process is repeated again (S307), and all data is processed to the end (S308). If necessary, the process may return to S302 and take in compressed data.

本実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory.

図11は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、エントロピー符号化モジュールP111を含んで構成されている。なお、予測信号生成モジュールP103は、図12に示すように、テンプレートマッチングモジュールP201、候補予測信号の組み合わせ決定モジュールP202および予測信号合成モジュールP203を含んで構成されている。   FIG. 11 is a block diagram illustrating modules of a program that can execute the image predictive coding method. The image predictive coding program P100 includes a block division module P102, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a transformation module P106, a quantization module P107, an inverse quantization module P108, an inverse transformation module P109, and an addition module P110. The entropy encoding module P111 is included. As shown in FIG. 12, the prediction signal generation module P103 includes a template matching module P201, a candidate prediction signal combination determination module P202, and a prediction signal synthesis module P203.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の各構成要素と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111の機能と同様であり、予測信号生成モジュールP103の各モジュールの機能は、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、信号合成のための予測領域取得器204〜加算器206の機能と同様である。   The functions realized by executing the modules are the same as those of the constituent elements of the image predictive coding apparatus 100 described above. That is, the function of each module of the image predictive coding program P100 includes a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, an inverse quantizer 108, and an inverse quantizer. The functions of the converter 109, the adder 110, and the entropy encoder 111 are the same, and the functions of each module of the prediction signal generation module P103 are the template matching unit 201, the candidate prediction signal combination determiner 203, and signal synthesis. This is similar to the functions of the prediction region acquisition unit 204 to the addition unit 206.

また、図13は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP300は、エントロピー復号モジュールP302、逆量子化モジュールP303、逆変換モジュールP304、加算モジュールP305、記憶モジュールP307、予測信号生成モジュールP308を含んで構成されている。   FIG. 13 is a block diagram showing modules of a program that can execute the image predictive decoding method. The image predictive decoding program P300 includes an entropy decoding module P302, an inverse quantization module P303, an inverse transform module P304, an addition module P305, a storage module P307, and a prediction signal generation module P308.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置300の各構成要素と同じである。すなわち、画像予測復号プログラムP300の各モジュールの機能は、エントロピー復号器302、逆量子化器303、逆変換器304、加算器305、フレームメモリ307の機能と同様である。なお、予測信号生成モジュールP308は、画像予測符号化プログラムP100における予測信号生成モジュールP103と同等の機能を有するものであって、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、信号合成のための予測領域取得器204〜加算器206の機能を備えている。   The functions realized by executing the modules are the same as those of the components of the image predictive decoding apparatus 300 described above. That is, the function of each module of the image predictive decoding program P300 is the same as the functions of the entropy decoder 302, the inverse quantizer 303, the inverse transformer 304, the adder 305, and the frame memory 307. The prediction signal generation module P308 has a function equivalent to that of the prediction signal generation module P103 in the image prediction encoding program P100, and includes a template matching unit 201, a candidate prediction signal combination determination unit 203, and signal synthesis. Functions of the prediction region acquisition unit 204 to the adder 206 are provided.

このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、後述するコンピュータで実行される。   The image predictive encoding program P100 or the image predictive decoding program P300 configured as described above is stored in the recording medium 10 and executed by a computer described later.

図16は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図17は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。コンピュータとして、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 16 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 17 is a perspective view of the computer for executing a program stored in the recording medium. Examples of the computer include a DVD player, a set-top box, a mobile phone, and the like that have a CPU and perform processing and control by software.

図16に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20およびキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に記憶された画像予測符号化プログラムP100または画像予測復号プログラムP300にアクセス可能になり、画像予測符号化プログラムP100または画像予測復号プログラムP300によって、本実施形態の画像予測符号化装置100または画像予測復号装置300として動作することが可能になる。   As shown in FIG. 16, a computer 30 includes a reading device 12 such as a floppy disk drive device, a CD-ROM drive device, a DVD drive device, a working memory (RAM) 14 in which an operating system is resident, and a recording medium 10. A memory 16 for storing the program stored in the memory, a display device 18 such as a display, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and a CPU 26 for controlling execution of the program. And. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the image predictive coding program P100 or the image predictive decoding program P300 stored in the recording medium 10 from the reading device 12, and image predictive coding. The program P100 or the image predictive decoding program P300 can operate as the image predictive encoding device 100 or the image predictive decoding device 300 of the present embodiment.

図17に示すように、画像予測符号化プログラムP100もしくは画像予測復号プログラムP300は、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムP100もしくは画像予測復号プログラムP300をメモリ16に記憶し、当該画像予測符号化プログラムP100もしくは画像予測復号プログラムP300を実行することができる。   As shown in FIG. 17, the image predictive coding program P100 or the image predictive decoding program P300 may be provided via a network as a computer data signal 40 superimposed on a carrier wave. In this case, the computer 30 stores the image predictive encoding program P100 or the image predictive decoding program P300 received by the communication device 24 in the memory 16, and executes the image predictive encoding program P100 or the image predictive decoding program P300. it can.

ここまで説明した本実施形態は、以下のように変形してもよい。図2の候補予測信号組み合わせ決定器203では、対象ブロックの対象隣接領域の画素信号と複数の隣接予測領域の画素信号とを加重平均した対象信号との間の差分値であるSAD値(絶対誤差値の和)を計算して、最適な候補予測信号の組み合わせを決定しているが、SAD値ではなく、差分信号の二乗誤差の和(SSD)や分散(VAR)を用いても組み合わせの決定は可能である。3つの評価基準はSAD、SSD、VARの順で演算量は増加するが、その一方で、評価の精度は向上し、誤差信号の符号量を少なくできるという効果が見込まれる。   The embodiment described so far may be modified as follows. In the candidate prediction signal combination determiner 203 of FIG. 2, the SAD value (absolute error) that is a difference value between the pixel signal of the target adjacent region of the target block and the target signal obtained by weighted averaging the pixel signals of the plurality of adjacent prediction regions. (Sum of values) is calculated to determine the optimal combination of candidate prediction signals, but the combination is determined using the sum of squared errors (SSD) and variance (VAR) of the difference signal instead of the SAD value. Is possible. In the three evaluation criteria, the calculation amount increases in the order of SAD, SSD, and VAR. On the other hand, the evaluation accuracy is improved, and the effect that the code amount of the error signal can be reduced is expected.

また、対象隣接信号と対象信号の差分値であるSAD値が同じ値となる組み合わせが複数得られたときに、SSDやVARを用いて最終的な組み合わせを決定するという方法も有効である。すなわち、比較・選択器236は、予測隣接領域取得器232において算出されたSAD値が、これまで算出した最小値と一致していた場合には、さらに、SSDまたはVARを比較対象として、いずれの値のものが小さいか比較する。ここでSSDまたはVARが小さいと判断された組み合わせが比較・選択器236に最小値を有する組み合わせとして記憶されることになる。この場合、比較・選択器236は、SSDまたはVARをSADとともに算出することになり、一時的に記憶しておくことになる。   It is also effective to determine the final combination using SSD or VAR when a plurality of combinations having the same SAD value as the difference value between the target adjacent signal and the target signal are obtained. That is, when the SAD value calculated by the predicted adjacent region acquisition unit 232 matches the minimum value calculated so far, the comparator / selector 236 further selects either SSD or VAR as a comparison target. Compare if the value is small. Here, the combination determined to have a small SSD or VAR is stored in the comparator / selector 236 as a combination having the minimum value. In this case, the comparator / selector 236 calculates SSD or VAR together with SAD, and temporarily stores it.

さらに、隣接予測領域の画素信号ではなく、複数の候補予測信号の組み合わせについて、その分散を計算し、組み合わせの決定に用いる方法も可能である。具体的には、図2の予測隣接領域取得器232、重み付け器234、加算器235は、それぞれ、予測領域取得器204、重み付け器205、加算器206に置き換えることにより実現できる。この変形例は、対象隣接領域取得器233の処理が不要であり、また、比較・選択器236から図1の減算器105に予測信号を出力することが可能となるため、回路規模が削減できるという効果がある。   Furthermore, it is also possible to use a method for calculating the variance of combinations of a plurality of candidate prediction signals instead of the pixel signals in the adjacent prediction region and using them for determining the combination. Specifically, the prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 in FIG. 2 can be realized by replacing with the prediction region acquisition unit 204, the weighting unit 205, and the adder 206, respectively. In this modified example, the processing of the target adjacent region acquisition unit 233 is not necessary, and a prediction signal can be output from the comparison / selection unit 236 to the subtracter 105 in FIG. 1, so that the circuit scale can be reduced. There is an effect.

テンプレートマッチング器201の比較器213においても、対象ブロックの対象隣接領域と探索された対象隣接領域と同じ形状の画素群の評価に差分値であるSAD値を用いているが、SSDやVARを替えてもよく、上記の候補予測信号組み合わせ決定器203のケースと同様の効果が期待できる。   The comparator 213 of the template matching unit 201 also uses the SAD value, which is a difference value, for evaluating the pixel group having the same shape as the target adjacent area of the target block and the searched target adjacent area. However, the SSD or VAR is changed. The same effect as the case of the candidate prediction signal combination determiner 203 may be expected.

図1の予測信号生成器103は、図2の構成に限定されない。例えば、図2では、テンプレートマッチング器にて検索した複数の候補予測信号について、その信号にアクセスするための座標情報を座標情報用メモリ202に記憶しているが、候補予測信号と予測隣接領域の画素信号とを記憶しておく構成でも良い。図2内のメモリ量は増加するが、フレームメモリ104へのアクセスを減らす効果がある。また、テンプレートマッチング器201は、対象隣接領域とM個の予測隣接領域との間の差分値であるSAD値をラインL201b経由で候補予測信号の組み合わせ決定器203に出力しているが、組み合わせの設定に、これらの差分値であるSAD値を用いない場合には、ラインL201bは不要である。   The prediction signal generator 103 in FIG. 1 is not limited to the configuration in FIG. For example, in FIG. 2, coordinate information for accessing a plurality of candidate prediction signals searched by the template matcher is stored in the coordinate information memory 202. A configuration in which pixel signals are stored may be used. Although the amount of memory in FIG. 2 increases, there is an effect of reducing access to the frame memory 104. The template matching unit 201 outputs the SAD value, which is the difference value between the target adjacent region and the M predicted adjacent regions, to the candidate prediction signal combination determiner 203 via the line L201b. When the SAD value that is the difference value is not used for the setting, the line L201b is unnecessary.

本実施形態では、対象隣接領域を再生済み画素で構成しているが、隣接ブロックの予測信号で構成しても良い。誤差信号の符号化ブロック単位より、予測領域を小さくしたい場合や、符号化・復号処理を行なわずに対象隣接領域の信号を生成したい場合には有効である。   In the present embodiment, the target adjacent area is composed of reproduced pixels, but may be composed of prediction signals of adjacent blocks. This is effective when it is desired to make the prediction area smaller than the coding block unit of the error signal, or when it is desired to generate the signal of the target adjacent area without performing the encoding / decoding process.

本実施形態は、テンプレートマッチングにて、確定しない数の候補信号を探索し、適切な数の候補信号を選択する手法に適用できる。   This embodiment can be applied to a method of searching for an indefinite number of candidate signals and selecting an appropriate number of candidate signals by template matching.

つぎに、本実施形態の画像予測符号化装置100および画像予測復号装置300の作用効果について説明する。   Next, the operational effects of the image predictive encoding device 100 and the image predictive decoding device 300 of this embodiment will be described.

本実施形態の画像予測符号化装置100において、テンプレートマッチング器201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定器203における組み合わせ設定器231は、探索した複数の予測隣接領域404a〜404c、414a〜414cを少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域取得器232は、導出された予測隣接領域の画素信号を抽出し、重み付け器234および加算器235は、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、比較・選択器236は、重み付け器234等により生成された比較信号と対象隣接領域取得器233により取得された隣接画素信号との相関が高い組み合わせを選択する。予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。このように生成された予測信号をブロック分割器102を介して取得された対象画素信号から減算器105が減算して残差信号を生成し、変換器106、量子化器107、およびエントロピー符号化器111は生成された残差信号を符号化する。   In the image predictive coding device 100 according to the present embodiment, the template matching unit 201 has a high correlation with the target adjacent region 403 that is composed of the already reproduced adjacent pixel signals that are adjacent to the target region (target block) 402 that is composed of the target pixel signal. A plurality of predicted adjacent areas 404a to 404c and 414a to 414c are searched from search areas 401 and 417 made of already-reproduced images. The combination setting unit 231 in the candidate prediction signal combination determiner 203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction adjacent region acquisition unit 232 extracts the pixel signal of the derived prediction adjacent region, and the weighter 234 and the adder 235 use, for example, an average of the extracted pixel signals using a predetermined synthesis method. As a result, the comparison signal for the adjacent pixel signal is generated for each combination. Then, the comparison / selector 236 selects a combination having a high correlation between the comparison signal generated by the weighting unit 234 and the like and the adjacent pixel signal acquired by the target adjacent region acquisition unit 233. The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method. The subtractor 105 subtracts the prediction signal generated in this way from the target pixel signal acquired via the block divider 102 to generate a residual signal, and the converter 106, the quantizer 107, and the entropy coding The unit 111 encodes the generated residual signal.

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本実施形態の画像予測符号化装置100における比較・選択器236は、比較信号と隣接画素信号との差分の絶対値和であるSAD値が小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   Further, the comparator / selector 236 in the image predictive encoding device 100 of the present embodiment selects a combination having a small SAD value that is a sum of absolute values of differences between the comparison signal and the adjacent pixel signal, thereby further smoothing. A suitable combination of candidate prediction signals can be selected.

また、本実施形態の画像予測符号化装置100における重み付け器234および加算器235は、組み合わせ設定器231において設定された組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   In addition, the weighter 234 and the adder 235 in the image predictive encoding device 100 according to the present embodiment generate a comparison signal by performing weighted averaging of the pixel signals in the prediction adjacent region belonging to the combination set in the combination setting unit 231. Thus, it is possible to generate an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing.

また、本実施形態の画像予測符号化装置100における組み合わせ設定器231が設定する予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むようにしたことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。ここで、nの値が0以上の整数であることが好ましい。   In addition, the combination of prediction adjacent regions set by the combination setting unit 231 in the image predictive encoding device 100 of the present embodiment includes 2 n predicted adjacent regions in descending order of correlation with the target adjacent region. As a result, it can be performed only by addition and shift operation, and a simple configuration can be achieved. Here, the value of n is preferably an integer of 0 or more.

また、本実施形態の画像予測復号装置300において、テンプレートマッチング器201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定器203における組み合わせ設定器231は、探索した複数の予測隣接領域404a〜404c、414a〜414cを少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域取得器232は、導出された予測隣接領域の画素信号を抽出し、重み付け器234および加算器235は、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、比較・選択器236は、重み付け器234等により生成された比較信号と対象隣接領域取得器233により取得された隣接画素信号との相関が高い組み合わせを選択する。予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Further, in the image predictive decoding device 300 of the present embodiment, the template matching unit 201 has a correlation with the target adjacent region 403 including the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 including the target pixel signal. A plurality of high predicted adjacent areas 404a to 404c and 414a to 414c are searched from the search areas 401 and 417 made of the already reproduced images. The combination setting unit 231 in the candidate prediction signal combination determiner 203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction adjacent region acquisition unit 232 extracts the pixel signal of the derived prediction adjacent region, and the weighter 234 and the adder 235 use, for example, an average of the extracted pixel signals using a predetermined synthesis method. As a result, the comparison signal for the adjacent pixel signal is generated for each combination. Then, the comparison / selector 236 selects a combination having a high correlation between the comparison signal generated by the weighting unit 234 and the like and the adjacent pixel signal acquired by the target adjacent region acquisition unit 233. The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method.

そして、入力端子301を介して入力した圧縮データからエントロピー復号器302、逆量子化器303、逆変換器304が差分信号を復元し、加算器305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。   Then, the entropy decoder 302, the inverse quantizer 303, and the inverse transformer 304 restore the difference signal from the compressed data input through the input terminal 301, and the adder 305 includes the predicted signal generated as described above. The restored difference signal is added to generate a reproduced image signal.

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本実施形態の画像予測復号装置300における比較・選択器236は、比較信号と隣接画素信号との差分の絶対値和であるSAD値が小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   Further, the comparator / selector 236 in the image predictive decoding device 300 of the present embodiment is more suitable for smoothing by selecting a combination having a small SAD value that is the sum of absolute values of differences between the comparison signal and the adjacent pixel signal. A combination of candidate prediction signals can be selected.

また、本実施形態の画像予測復号装置300における重み付け器234および加算器235は、組み合わせ設定器231において設定された組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   In addition, the weighting unit 234 and the adder 235 in the image predictive decoding device 300 according to the present embodiment generate a comparison signal by performing weighted averaging of the pixel signals of the prediction adjacent regions belonging to the combination set by the combination setting unit 231. Thus, it is possible to generate an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing.

また、本実施形態の画像予測復号装置300における組み合わせ設定器231が設定する予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むようにしたことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。ここで、nの値が0以上の整数であることが好ましい。   In addition, the combination of prediction adjacent regions set by the combination setting unit 231 in the image predictive decoding device 300 of the present embodiment includes 2 n predicted adjacent regions in descending order of correlation with the target adjacent region. Therefore, it can be performed only by addition and shift operation, and a simple configuration in mounting can be achieved. Here, the value of n is preferably an integer of 0 or more.

また、本実施形態の画像予測符号化プログラムP100において、テンプレートマッチングモジュールP201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定モジュールP202は、探索した複数の予測隣接領域404a〜404c、414a〜414cを少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、候補予測信号の組み合わせ決定モジュールP202は、導出された予測隣接領域の画素信号を抽出し、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、予測信号合成モジュールP203は、生成された比較信号と取得された隣接画素信号との相関が高い組み合わせを選択する。候補予測信号の組み合わせ決定モジュールP202は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。このように生成された予測信号をブロック分割モジュールP102を介して取得された対象画素信号から減算モジュールP105が減算して残差信号を生成し、変換モジュールP106、量子化モジュールP107、およびエントロピー符号化モジュールP111は生成された残差信号を符号化する。   Further, in the image predictive coding program P100 of the present embodiment, the template matching module P201 correlates with the target adjacent region 403 including the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 including the target pixel signal. A plurality of predicted adjacent regions 404a to 404c and 414a to 414c having a high value are searched from the search regions 401 and 417 made of the already reproduced images. The candidate prediction signal combination determination module P202 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas 404a to 404c and 414a to 414c. Then, the candidate prediction signal combination determination module P202 extracts the pixel signals of the derived prediction adjacent regions, and processes the extracted pixel signals by, for example, averaging using a predetermined synthesis method. The comparison signal for the adjacent pixel signal is generated for each combination. Then, the predicted signal synthesis module P203 selects a combination having a high correlation between the generated comparison signal and the acquired adjacent pixel signal. The candidate prediction signal combination determination module P202 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and processes the candidate prediction signals using a predetermined synthesis method. To generate a prediction signal. The subtraction module P105 subtracts the prediction signal generated in this way from the target pixel signal acquired via the block division module P102 to generate a residual signal, and transform module P106, quantization module P107, and entropy coding Module P111 encodes the generated residual signal.

また、本実施形態の画像予測復号プログラムP300において、テンプレートマッチングモジュールP201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。予測信号合成モジュールP203は、探索した複数の予測隣接領域404a〜404c、414a〜414cを少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測信号合成モジュールP203は、導出された予測隣接領域の画素信号を抽出し、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、予測信号合成モジュールP203は、生成された比較信号と取得された隣接画素信号との相関が高い組み合わせを選択する。予測信号合成モジュールP203は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、予測信号合成モジュールP203は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Further, in the image predictive decoding program P300 of the present embodiment, the template matching module P201 has a correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 composed of the target pixel signal. A plurality of high predicted adjacent areas 404a to 404c and 414a to 414c are searched from the search areas 401 and 417 made of the already reproduced images. The predicted signal synthesis module P203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction signal synthesis module P203 extracts the pixel signal of the derived prediction adjacent region, and processes the extracted pixel signal by, for example, averaging using a predetermined synthesis method, for each combination. The comparison signals for the adjacent pixel signals are respectively generated. Then, the predicted signal synthesis module P203 selects a combination having a high correlation between the generated comparison signal and the acquired adjacent pixel signal. The prediction signal synthesis module P203 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent regions belonging to the selected combination, and the prediction signal synthesis module P203 combines the candidate prediction signals in advance. Is used to generate a prediction signal.

そして、入力した圧縮データからエントロピー復号モジュールP302、逆量子化モジュールP303、逆変換モジュールP304が差分信号を復元し、加算モジュールP305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。

<第2の実施形態>
Then, the entropy decoding module P302, the inverse quantization module P303, and the inverse transform module P304 restore the difference signal from the input compressed data, and the addition module P305 outputs the prediction signal generated as described above and the restored difference signal. Addition to generate a reproduction image signal.

<Second Embodiment>

つぎに、候補予測信号の組み合わせ決定器203(図2参照)ならびに候補予測信号の組み合わせ決定方法(図6参照)に関して、平滑化する候補予測信号に多様性を持たせることを可能とする別の実施形態を示す。これらの実施形態は、候補予測信号の組み合わせ決定器203(図2参照)と候補予測信号の組み合わせ決定方法(図6参照)以外の部分は、第1の実施形態の予測信号生成器103と同じ構成であるため、説明を割愛する。なお、本実施形態にかかる発明は画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化方法を実行することができるプログラム、ならびに記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成に適用できる。また、図2と図6とにおいて同じ番号で示される機能あるいは方法についても、上記と同じ動作ならびに処理であるため、以下では説明を割愛する。また、本実施形態は上述の画像予測符号化装置100または画像予測復号装置300に適用できるものである。   Next, regarding the candidate prediction signal combination determiner 203 (see FIG. 2) and the candidate prediction signal combination determination method (see FIG. 6), another candidate prediction signal to be smoothed can be given diversity. An embodiment is shown. These embodiments are the same as the prediction signal generator 103 of the first embodiment, except for the candidate prediction signal combination determiner 203 (see FIG. 2) and the candidate prediction signal combination determination method (see FIG. 6). Since it is a structure, description is omitted. The invention according to the present embodiment is recorded in an image predictive encoding device, an image predictive decoding device, an image predictive encoding method, an image predictive decoding method, an image predictive decoding method, and a recording medium. It can be applied to the hardware configuration of a computer for executing the program. Also, the functions or methods indicated by the same numbers in FIGS. 2 and 6 are the same operations and processes as described above, and hence the description thereof will be omitted. In addition, the present embodiment can be applied to the image predictive encoding device 100 or the image predictive decoding device 300 described above.

図18は、第2の実施形態の予測信号生成器103aの構成を示すブロック図である。この予測信号生成器103aは、テンプレートマッチング器201と座標情報用メモリ202と候補予測信号の組み合わせ決定器203bと予測領域取得器204と重み付け器205と加算器206とを含んで構成されている。上述第1の実施形態における予測信号生成器103とは、候補予測信号の組み合わせ決定器203bの構成が異なる。すなわち、図2における候補予測信号の組み合わせ決定器203では、L201bを経由して入力されるM個のSAD値(対象隣接領域とM個の各予測隣接領域との間の絶対値誤差和)を用いて、予測隣接領域の組み合わせを設定しているが、図18における候補予測信号の組み合わせ決定器203bでは、L201bを経由して入力されるM個のSAD値と、L202cを経由して入力される予測隣接領域の座標情報とを用いて、予測隣接領域の組み合わせを設定している。   FIG. 18 is a block diagram illustrating a configuration of the prediction signal generator 103a according to the second embodiment. The prediction signal generator 103a includes a template matching unit 201, a coordinate information memory 202, a candidate prediction signal combination determination unit 203b, a prediction region acquisition unit 204, a weighting unit 205, and an adder 206. The configuration of the candidate prediction signal combination determiner 203b is different from that of the prediction signal generator 103 in the first embodiment. That is, the candidate predictive signal combination determiner 203 in FIG. 2 calculates M SAD values (absolute value error sums between the target adjacent area and each of the M predicted adjacent areas) input via L201b. The combination of predictive adjacent regions is set using the candidate predictive signal combination determiner 203b in FIG. 18, and is input via M 202 SAD values input via L201b and L202c. The combination of predicted adjacent areas is set using the coordinate information of the predicted adjacent areas.

より具体的には、図18における組み合わせ設定器237の構成が、図2の組み合わせ設定器231の構成と異なっており、さらに、図18の候補予測信号の組み合わせ決定器203bは、図2における候補予測信号の組み合わせ決定器203の構成に加えて予測隣接領域数の設定器230を含んで構成されている。   More specifically, the configuration of the combination setter 237 in FIG. 18 is different from the configuration of the combination setter 231 in FIG. 2, and the candidate predictive signal combination determiner 203b in FIG. In addition to the configuration of the prediction signal combination determiner 203, it includes a setting unit 230 for the number of predicted adjacent regions.

予測隣接領域数の設定器230は、テンプレートマッチング器201にて探索された予測隣接領域の数Mから、平滑化する予測隣接領域の数の候補を定める部分である。すなわち、予測隣接領域数の設定器230は、ラインL201b経由で、テンプレートマッチング器201にて探索した予測隣接領域の数Mを入力する。そして、予測隣接領域数の設定器230は、M値より小さい2の乗数Nを1つ以上算出し、ラインL230経由で、順次、Nの値を変えて組み合わせ設定器237に出力する。例えば、Mが6の場合には、N=1、2、4を出力し、Mが30の場合には、N=1、2、4、8、16を出力する。   The predictive adjacent region number setting unit 230 is a part that determines candidates for the number of predictive adjacent regions to be smoothed from the number M of predictive adjacent regions searched by the template matching unit 201. That is, the predictive adjacent region number setting unit 230 inputs the number M of predictive adjacent regions searched by the template matching unit 201 via the line L201b. Then, the predictive adjacent region number setting unit 230 calculates one or more multipliers N smaller than the M value, and sequentially outputs the values to the combination setting unit 237 via the line L230 while changing the value of N. For example, when M is 6, N = 1, 2, 4 are output, and when M is 30, N = 1, 2, 4, 8, 16 are output.

組み合わせ設定器237は、ラインL230経由で入力されるN値と、ラインL201b経由で入力されるM個のSAD値と、ラインL202c経由で入力されるM個の予測隣接領域の座標情報を用いて、N個の予測隣接領域を選択する部分である。そして、選択情報(選択した予測隣接領域を識別できる情報)を予測隣接領域の組み合わせ情報として、ラインL237経由で予測隣接領域取得器232に順次、N個の予測隣接領域の組み合わせを変えて複数出力する。   The combination setter 237 uses the N value input via the line L230, the M SAD values input via the line L201b, and the coordinate information of the M predicted adjacent regions input via the line L202c. , N selected adjacent regions. Then, the selection information (information that can identify the selected prediction adjacent region) is used as combination information of the prediction adjacent region, and a plurality of combinations of N prediction adjacent regions are sequentially output to the prediction adjacent region acquisition unit 232 via the line L237. To do.

このように候補予測信号の組み合わせ決定器203bにおいては、異なるN値に対する予測隣接領域の組み合わせ情報を組み合わせ設定器237が生成し、図2に説明した手順にて1つの組み合わせ情報を選択する。   In this way, in the combination predictor 203b for candidate prediction signals, the combination setter 237 generates combination information of prediction adjacent regions for different N values, and selects one combination information according to the procedure described in FIG.

図19は、組み合わせ設定器237の詳細な構成を示すブロック図である。この組み合わせ設定器237は、評価対象の予測隣接領域の決定器281、カウンター282、参照画像の評価器283および動きベクトルの評価器284を含んで構成されている。組み合わせ設定器237は、入力値Nに対して、テンプレートマッチング器201にて探索されたM個の予測隣接領域の座標情報を用いて、N個の予測隣接領域を選択し、選択情報を予測隣接領域の組み合わせ情報として出力する。なお、この実施形態では、座標情報、つまり参照画像の識別番号(参照画像番号)と、対象隣接領域と予測隣接領域との間の画面内における空間的な差分座標(以降、動きベクトルと呼ぶ)を用いて、N個の予測隣接領域から成る予測隣接領域の組み合わせを選択するとが、選択に用いるデータは、参照画像番号と動きベクトルには限定されない。この座標情報は、各候補予測信号の生成に関わり、かつ予測隣接領域を一意に定める情報であればよく、予測隣接領域にアクセスするための情報であればよい。例えば、予測隣接領域の画素信号を用いて、予め定めた複数の予測方法から1つの予測方法を決定するような場合には、選択に用いるデータに予測方法を含めてもよい。   FIG. 19 is a block diagram showing a detailed configuration of the combination setting unit 237. The combination setting unit 237 includes a prediction adjacent region determination unit 281 to be evaluated, a counter 282, a reference image evaluation unit 283, and a motion vector evaluation unit 284. The combination setter 237 uses the coordinate information of the M predicted adjacent areas searched by the template matching unit 201 for the input value N, selects N predicted adjacent areas, and selects the selected information as the predicted adjacent Output as area combination information. In this embodiment, coordinate information, that is, a reference image identification number (reference image number), and spatial difference coordinates in the screen between the target adjacent region and the predicted adjacent region (hereinafter referred to as a motion vector). Is used to select a combination of predicted adjacent areas composed of N predicted adjacent areas, but the data used for the selection is not limited to the reference image number and the motion vector. This coordinate information may be information relating to the generation of each candidate prediction signal and uniquely determining the prediction adjacent region, and may be information for accessing the prediction adjacent region. For example, when one prediction method is determined from a plurality of predetermined prediction methods using pixel signals in the prediction adjacent region, the prediction method may be included in the data used for selection.

評価対象の予測隣接領域の決定器281は、テンプレートマッチング器201にて探索したM個の予測隣接領域からN個の予測隣接領域を選択する前に、選択の対象とする予測隣接領域の数をR個に制限する部分である。このR値は、後述するとおりM個の予測隣接領域のうち所定の閾値以上のSADのものを計数することにより定められる数値である。このR値の決定は、M値に対してN値が非常に小さい場合に、対象隣接領域との間のSAD値が大きい予測隣接領域を選択しないようにする効果がある。   Before selecting N predicted adjacent areas from the M predicted adjacent areas searched by the template matching unit 201, the predictive adjacent area determining unit 281 to be evaluated determines the number of predicted adjacent areas to be selected. This is a part limited to R pieces. This R value is a numerical value determined by counting the number of SADs that are equal to or greater than a predetermined threshold among the M predicted adjacent areas as will be described later. This determination of the R value has an effect of not selecting a predicted adjacent region having a large SAD value with respect to the target adjacent region when the N value is very small with respect to the M value.

評価対象の予測隣接領域の決定器281には、ラインL201b経由でテンプレートマッチング器201にて探索されたM個の予測隣接領域に対応するM個のSAD値(対象隣接領域とM個の予測隣接領域との間の差分データ)が入力され、同時にラインL230経由で選択すべき予測隣接領域の数Nが入力される。評価対象の予測隣接領域の決定器281は、入力されたN値に対して予め定められている閾値とM個のSAD値とを比較し、閾値より小さいSAD値の数を計数する。そして、このように計数された閾値より小さいSAD値の数を、評価対象の予測隣接領域の数Rとして、ラインL281経由で、カウンター282に出力する。但し、R値がN値より小さいまたは同じ場合には、予測隣接領域の選択は不要であるため、評価対象の予測隣接領域の決定器281はその情報をN個(R個)の予測隣接領域の組み合わせ情報としてラインL237経由で予測隣接領域取得器232に出力する。なお、上記で示したように、R値の決定は、M値に対してN値が小さすぎる場合に、対象隣接領域との差が大きい予測隣接領域を選択しないようにする効果がある。そのため、この条件を満たせば、R値の決定には閾値以外の手段を用いてもよい。例えば、2×N値とM値を比較し、小さい方をR値として出力してもよいし、閾値処理にて決定したR値が2×N値より大きい場合には、R値を2×N値に制限するようにしてもよい。また、閾値は予め定めておくのではなく、符号化するようにしてもよい。   The determination target predictive region determiner 281 includes M SAD values corresponding to the M predictive adjacent regions searched by the template matching unit 201 via the line L201b (the target adjacent region and the M predictive adjacent regions). (Difference data between regions) is input, and simultaneously the number N of predicted adjacent regions to be selected via the line L230 is input. The predictive adjacent region determiner 281 to be evaluated compares a predetermined threshold value with respect to the inputted N value and M SAD values, and counts the number of SAD values smaller than the threshold value. Then, the number of SAD values smaller than the threshold value counted in this way is output to the counter 282 via the line L281 as the number R of predicted adjacent regions to be evaluated. However, when the R value is smaller than or equal to the N value, it is not necessary to select a prediction adjacent region, and thus the predictive adjacent region determination unit 281 to be evaluated has N (R) prediction adjacent regions. Is output to the predicted adjacent region acquisition unit 232 via the line L237. Note that, as described above, the determination of the R value has an effect of not selecting a predicted adjacent region having a large difference from the target adjacent region when the N value is too small with respect to the M value. Therefore, as long as this condition is satisfied, means other than the threshold may be used to determine the R value. For example, the 2 × N value and the M value may be compared, and the smaller value may be output as the R value. If the R value determined by the threshold processing is larger than the 2 × N value, the R value is set to 2 ×. You may make it restrict | limit to N value. The threshold value may be encoded instead of being determined in advance.

カウンター282に、ラインL281経由で入力した評価対象の予測隣接領域の数R値が入力されると、カウンター282は、カウンター値Pを1からRまで1刻みで更新しながら、ラインL282aとラインL282b経由で参照画像の評価器283と動きベクトルの評価器284とに出力する。   When the number R of predicted adjacent regions to be evaluated input via the line L281 is input to the counter 282, the counter 282 updates the counter value P from 1 to R in increments of 1, while the lines L282a and L282b are updated. Via the reference image evaluator 283 and the motion vector evaluator 284.

参照画像の評価器283では、R個の参照画像番号から、その多様性を考慮して、N個の参照画像番号を選択する部分である。この参照画像の評価器283は、まず、ラインL282a経由でP値が入力されると、対象隣接領域との間のSAD値がP番目に小さい予測隣接領域にアクセスするための参照画像番号をラインL202c経由で座標情報用メモリ202から取得する。R個の参照画像番号を取得したのち、参照画像の評価器283は、探索領域内の各参照画像に含まれる予測隣接領域の数Ref[i](i=1,2,…,F;iは参照画像番号,Fはテンプレートマッチング器201にて探索対象とする参照画像の数)を確認する。つぎに、参照画像の評価器283は、対象隣接領域との間のSAD値が最も小さい予測隣接領域が属する参照画像番号iを初期値として、以下の動作を実施する。
1)参照画像番号iを選択する。
2)予測隣接領域の数Ref[i]の値を1ずつ減らす。予測隣接領域の数Ref[i]が0となった参照画像番号は選択対象から除外する。
3)参照画像番号iを1増やす。iがFのときiを1にリセットする。
この動作を、N個の参照画像を選択するまで巡回的に繰り返す。選択したN個の参照画像番号は、ラインL283経由で動きベクトルの評価器284に出力する。
The reference image evaluator 283 is a part that selects N reference image numbers from R reference image numbers in consideration of the diversity. First, when the P value is input via the line L282a, the reference image evaluator 283 sets the reference image number for accessing the predicted adjacent region where the SAD value between the target adjacent region is the Pth smallest. Obtained from the coordinate information memory 202 via L202c. After obtaining the R reference image numbers, the reference image evaluator 283 determines the number of predicted adjacent regions Ref [i] (i = 1, 2,..., F; i) included in each reference image in the search region. Is the reference image number, and F is the number of reference images to be searched by the template matching unit 201. Next, the reference image evaluator 283 performs the following operation with the reference image number i to which the predicted adjacent region having the smallest SAD value between the target adjacent region belongs as an initial value.
1) Select reference image number i.
2) Decrease the number of predicted adjacent regions Ref [i] by one. Reference image numbers for which the number of predicted adjacent regions Ref [i] is 0 are excluded from selection targets.
3) Increase the reference image number i by 1. When i is F, i is reset to 1.
This operation is repeated cyclically until N reference images are selected. The selected N reference image numbers are output to the motion vector evaluator 284 via the line L283.

例えば、図26に示す、参照画像450と予測隣接領域の数Ref[i]との関係を示す概念図においては、参照画像毎に予測隣接領域が形成されている。参照画像番号が1については、その予測隣接領域404iは3つ形成されていることが示されており、この場合Ref[1]=3となる。上述処理1)−処理3)を繰り返すことにより、Ref[i]値が上位N個までの参照画像番号が取得されることになる。   For example, in the conceptual diagram illustrating the relationship between the reference image 450 and the number of predicted adjacent areas Ref [i] illustrated in FIG. 26, a predicted adjacent area is formed for each reference image. For the reference image number 1, it is shown that three predicted adjacent regions 404i are formed, and in this case, Ref [1] = 3. By repeating the above-described processing 1) to processing 3), reference image numbers up to the top N Ref [i] values are acquired.

なお、参照画像の選択方法は、予測隣接領域の多様性を確保できれば良いので、識別番号をカウントアップする方法には限定されない。例えば、参照画像番号iに対応するRef[i]の比率Ref[i]/Rを考慮して、参照画像を選択してもよい。また、符号化対象画像に対する参照画像の位置(過去、未来、現在)を考慮し、予め定めた比率で選ぶようにしてもよい。   Note that the reference image selection method is not limited to the method of counting up the identification number, as long as the diversity of predicted adjacent regions can be ensured. For example, the reference image may be selected in consideration of the ratio Ref [i] / R of Ref [i] corresponding to the reference image number i. In addition, the position of the reference image with respect to the encoding target image (past, future, present) may be taken into consideration and selected at a predetermined ratio.

動きベクトルの評価器284は、参照画像の評価器283からN個の参照画像番号が入力されると、動きベクトルの多様性を考慮しながら、R個の動きベクトルからN個の動きベクトルを選択する部分である。このR個の動きベクトルは、上述したR個の予測隣接領域に対応したものである。動きベクトルの評価器284は、P値がラインL282b経由で入力されると、対象隣接領域との間のSAD値がP番目に小さい予測隣接領域にアクセスするための参照画像番号と動きベクトル情報をラインL202c経由で取得する。R個の動きベクトルを取得したのち、動きベクトルの評価器284は、参照画像毎に、対象隣接領域との間のSAD値が最も小さい予測隣接領域に対応する動きベクトルSMV[i]を確認する。つぎに、動きベクトルの評価器284は、ラインL283経由で入力されたN個の参照画像番号に対して、動きベクトルを対応づける。具体的には、
4)R個の動きベクトルを参照画像番号別に分類し、それぞれ、選択すべき動きベクトルの数NumMV[i]を算出する。
5)つぎに、NumMV[i]が1より大きい参照画像番号iのSMV[i]を選択する。
6)そして、各参照画像番号iについて、SMV[i]との絶対値差分和が大きい順に“NumMV[i]−1”個の動きベクトルを選択する。
このように選択した動きベクトルと参照画像番号との組に対応するN個の予測隣接領域の情報を、予測隣接領域の組み合わせ情報としてラインL237経由で予測隣接領域取得器232に出力する。
When N reference image numbers are input from the reference image evaluator 283, the motion vector evaluator 284 selects N motion vectors from the R motion vectors in consideration of the diversity of the motion vectors. It is a part to do. The R motion vectors correspond to the R predicted adjacent regions described above. When the P value is input via the line L282b, the motion vector evaluator 284 receives the reference image number and the motion vector information for accessing the predicted adjacent region where the SAD value between the target adjacent region is the Pth smallest. Obtained via line L202c. After acquiring the R motion vectors, the motion vector evaluator 284 confirms the motion vector SMV [i] corresponding to the predicted adjacent region having the smallest SAD value with respect to the target adjacent region for each reference image. . Next, the motion vector evaluator 284 associates the motion vector with the N reference image numbers input via the line L283. In particular,
4) Classify R motion vectors by reference image number, and calculate the number of motion vectors NumMV [i] to be selected.
5) Next, SMV [i] with reference image number i with NumMV [i] greater than 1 is selected.
6) Then, for each reference image number i, “NumMV [i] −1” motion vectors are selected in descending order of the sum of absolute value differences from SMV [i].
Information on the N predicted adjacent areas corresponding to the set of the motion vector and the reference image number selected in this way is output to the predicted adjacent area acquisition unit 232 via the line L237 as prediction adjacent area combination information.

この動きベクトルに関する処理4)〜6)の処理概念について、図27に示す。図27によると、各参照画像には複数の予測隣接領域が存在しており、それに対応して動きベクトルも存在している。例えば、図27の例では、参照画像番号1には、動きベクトルMV1およびMV2が存在していることにしている。この場合、NumMV[1]=2となる。また、例えば動きベクトルMV1がMV2より小さい場合、SMV[1]として動きベクトルMV1が選択されることになる。
また、動きベクトルの数NumMV[3]=0であるため、処理2)では、参照画像番号3は選択されず、他の参照画像番号1、2、4、5が選択されることになる。
The processing concept of the processing 4) to 6) regarding the motion vector is shown in FIG. According to FIG. 27, each reference image includes a plurality of predicted adjacent areas, and a motion vector also exists corresponding thereto. For example, in the example of FIG. 27, it is assumed that motion vectors MV1 and MV2 exist in the reference image number 1. In this case, NumMV [1] = 2. For example, when the motion vector MV1 is smaller than MV2, the motion vector MV1 is selected as SMV [1].
Further, since the number of motion vectors NumMV [3] = 0, in the process 2), the reference image number 3 is not selected, and other reference image numbers 1, 2, 4, and 5 are selected.

なお、動きベクトルの選択方法は、多様性を確保できれば良いので、上記に示した方法には限定されない。例えば、選択した参照画像iの動きベクトルでSMV[i]を更新することにより、直前に選択した動きベクトルとの絶対値差分和が大きい動きベクトルをつぎに選択するようにしてもよい。   Note that the motion vector selection method is not limited to the method described above because it is sufficient to ensure diversity. For example, by updating SMV [i] with the motion vector of the selected reference image i, a motion vector having a large absolute value difference sum from the motion vector selected immediately before may be selected.

また、図19に示すように、各予測隣接領域にアクセスするための座標情報(参照画像番号および動きベクトル)を用いることにより、時空間方向に多様性を有する予測隣接領域を選択することが可能となる。なお、上記では、組み合わせ設定器237は、R個の予測隣接領域からN個の予測隣接領域を選択しているが、N個全部を座標情報を用いて選択する必要はない。例えば、N/2個については対象隣接領域との間のSAD値が小さい予測隣接領域を選択する方法も考えられ、その場合には予測性能を安定させる効果が見込める。また、SMV[i]との動きベクトルの絶対値差分和に制限をかけ、予め定めた閾値より大きい場合は、選択対象から外す手段も予測性能を安定させることがあると考えられる。なお、組み合わせ設定器237内の構成は、図19に限定されない。例えば、R値をM値とする場合や、R値をN値に対して予め設定している場合には、評価対象の予測隣接領域の決定器281は必ずしも必要ない。この場合、予測隣接領域の選択は、座標情報、つまり動きパラメータのみで実施できる。   Further, as shown in FIG. 19, by using coordinate information (reference image number and motion vector) for accessing each prediction adjacent region, it is possible to select a prediction adjacent region having diversity in the spatio-temporal direction. It becomes. In the above description, the combination setting unit 237 selects N predicted adjacent areas from the R predicted adjacent areas, but it is not necessary to select all N using the coordinate information. For example, for N / 2, a method of selecting a predicted adjacent area having a small SAD value between the target adjacent areas is also conceivable, and in that case, an effect of stabilizing the prediction performance can be expected. In addition, if the sum of absolute difference of motion vectors from SMV [i] is limited and larger than a predetermined threshold, it is considered that means for removing from the selection target may stabilize the prediction performance. The configuration in the combination setting device 237 is not limited to FIG. For example, when the R value is the M value, or when the R value is preset with respect to the N value, the predictive adjacent region determiner 281 to be evaluated is not necessarily required. In this case, the prediction adjacent region can be selected only by the coordinate information, that is, the motion parameter.

以上説明したように、図19に示す多様性を考慮して予測隣接領域の組み合わせを選択することができる組み合わせ設定器237を、図18に示す対象隣接領域と予測隣接領域との関係を用いて平滑化する候補予測信号の数を選択することができる候補予測信号の組み合わせ決定器203b(予測信号生成器103a)と併せて用いることにより、時空間の多様性を考慮して、平滑化する候補予測信号の数の選択動作を実施することが可能となる。なお、候補予測信号の組み合わせ決定器203b内の構成は、図18に示される構成に限定されない。例えば、予測隣接領域数の設定器230は、組み合わせ設定器237に含まれていても良い。   As described above, the combination setting unit 237 capable of selecting a combination of predicted adjacent regions in consideration of the diversity illustrated in FIG. 19 is used by using the relationship between the target adjacent region and the predicted adjacent region illustrated in FIG. Candidates to be smoothed in consideration of space-time diversity by using together with candidate predictor combination determiner 203b (predictive signal generator 103a) that can select the number of candidate predictive signals to be smoothed It becomes possible to perform the selection operation of the number of prediction signals. The configuration in the candidate prediction signal combination determiner 203b is not limited to the configuration shown in FIG. For example, the setting unit 230 for the predicted number of adjacent regions may be included in the combination setting unit 237.

つぎに、図18と図19とに示される予測信号生成器103aの動作である、候補予測信号の組み合わせ決定方法について説明する。図20は、組み合わせ設定器237を用いた予測信号生成器103aの動作を示すフローチャートであり、平滑化する候補予測信号に多様性を持たせることを目的とした候補予測信号の組み合わせ決定方法を示したものである。図20では、図6と異なり、予測隣接領域数の設定器230にて、候補予測信号の数Nを設定する処理(S602、S609)が実施される。   Next, a candidate prediction signal combination determination method, which is the operation of the prediction signal generator 103a shown in FIGS. 18 and 19, will be described. FIG. 20 is a flowchart showing the operation of the prediction signal generator 103a using the combination setter 237, and shows a candidate prediction signal combination determination method for the purpose of giving diversity to the candidate prediction signals to be smoothed. It is a thing. In FIG. 20, unlike FIG. 6, the process (S602, S609) for setting the number N of candidate prediction signals is performed by the setting unit 230 for the number of predicted adjacent areas.

まず、組み合わせ決定器203の組み合わせ設定器237は、候補予測信号の数Nを1に設定する(S602)。つぎに、対象隣接領域取得器233では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される(S603)。   First, the combination setting unit 237 of the combination determining unit 203 sets the number N of candidate prediction signals to 1 (S602). Next, the target adjacent area acquisition unit 233 acquires the target adjacent area (template signal) for the target block from the frame memory 104 (S603).

一方、組み合わせ設定器237にて、予測隣接領域にアクセスするための座標情報(参照画像番号および動きベクトル)、および対象隣接領域と予測隣接領域との差分SAD値を用いてN個の予測隣接領域が選択される(S604a)。以降の処理については、図6と同じである。   On the other hand, the combination setting unit 237 uses the coordinate information (reference image number and motion vector) for accessing the predicted adjacent area and the difference SAD value between the target adjacent area and the predicted adjacent area, so that N predicted adjacent areas are used. Is selected (S604a). The subsequent processing is the same as in FIG.

すなわち、予測隣接領域取得器232、重み付け器234、および加算器235において、N個の予測隣接領域の画素信号を取得し、その平均化(加重平均でもよい)により比較信号を生成し(S605)、比較・選択器236にて、生成した比較信号と隣接画素信号との差分値であるSAD値を算出する(S606)。同時に、比較・選択器236では、算出したSAD値をそれまでの最小のSAD値と比較し(S607)、SAD値が最小値と判断された場合、S608に進み、そうでないと判断された場合、S609に進む。なお、S607では、算出したSAD値とそれまでの最小のSAD値が同じ場合には、S609に進むが、S608に進むようにしてもよい。   That is, the prediction adjacent region acquisition unit 232, the weighter 234, and the adder 235 acquire pixel signals of N prediction adjacent regions, and generate a comparison signal by averaging (may be weighted average) (S605). The comparator / selector 236 calculates a SAD value that is a difference value between the generated comparison signal and the adjacent pixel signal (S606). At the same time, the comparator / selector 236 compares the calculated SAD value with the minimum SAD value so far (S607), and if the SAD value is determined to be the minimum value, the process proceeds to S608, and if not, , The process proceeds to S609. In S607, if the calculated SAD value and the minimum SAD value so far are the same, the process proceeds to S609, but may proceed to S608.

算出したSAD値が、それまでの最小のSAD値である場合、比較・選択器236にて、S604にて取得した座標情報の組み合わせを記憶する(S608)。   When the calculated SAD value is the minimum SAD value so far, the combination of coordinate information acquired in S604 is stored in the comparator / selector 236 (S608).

ここで、組み合わせ設定器237は、N値を2倍に更新する(S609)。そして、更新したN値とM値との大きさを比較し(S610)、更新したN値がM値より小さい場合、S604に戻り、更新したN値がM値より大きい場合、S608にて記憶した座標情報の組み合わせを候補予測信号の組み合わせとして決定し、候補予測信号の組み合わせ選択処理を終了する(S611)   Here, the combination setter 237 updates the N value by a factor of 2 (S609). Then, the magnitudes of the updated N value and the M value are compared (S610). If the updated N value is smaller than the M value, the process returns to S604, and if the updated N value is larger than the M value, the process is stored in S608. The combination of coordinate information thus determined is determined as a combination of candidate prediction signals, and the candidate prediction signal combination selection process is terminated (S611).

つぎに、上述の処理S604aの詳細な処理について説明する。図21は、予測隣接領域の座標情報を用いてN個の予測隣接領域を選択するときの組み合わせ設定器237の動作を示すフローチャートである。この処理では、入力値Nに対して、テンプレートマッチング器201にて候補予測信号を探索する処理(図5参照)にて探索したM個の予測隣接領域の座標情報を用いて、N個の予測隣接領域が選択される。   Next, detailed processing of the above-described processing S604a will be described. FIG. 21 is a flowchart showing the operation of the combination setter 237 when N predicted adjacent areas are selected using the coordinate information of the predicted adjacent areas. In this process, for the input value N, N predictions are made using the coordinate information of the M predicted adjacent areas searched in the process (see FIG. 5) for searching for candidate prediction signals by the template matching unit 201. An adjacent region is selected.

なお、この実施形態における組み合わせ設定器237は、座標情報、つまり参照画像番号と動きベクトルとを用いてN個の予測隣接領域から成る組み合わせを選択するが、選択に用いるデータは、参照画像番号と動きベクトルとには限定されない。各候補予測信号の生成に関わり、かつ予測隣接領域を用いて一意に定まる情報であれば、選択に用いるデータに含めてもよく、予測隣接領域にアクセスするための情報であればよい。例えば、予め定めた複数の予測方法から、予測隣接領域の信号を用いて、1つの予測方法を決定するような場合には、選択に用いるデータに予測方法を含めてもよい。   Note that the combination setter 237 in this embodiment selects a combination of N predicted adjacent regions using coordinate information, that is, a reference image number and a motion vector, and the data used for the selection is a reference image number and a reference image number. It is not limited to a motion vector. Any information that is related to the generation of each candidate prediction signal and that is uniquely determined by using the predicted adjacent area may be included in the data used for selection, and may be information for accessing the predicted adjacent area. For example, when one prediction method is determined from a plurality of predetermined prediction methods using signals in the prediction adjacent region, the prediction method may be included in the data used for selection.

まず、評価対象の予測隣接領域の決定器281において、テンプレートマッチング器201にて探索したM個の予測隣接領域からN個の予測隣接領域を選択する前に、選択の対象とする予測隣接領域の数をR個に設定することで制限する(S802)。このR値の設定は、M値に対してN値が非常に小さい場合に、対象隣接領域との間のSAD値が大きい予測隣接領域を選択しないようにする効果がある。そのため、この条件を満たせば、R値の決定法には閾値以外の方法を用いてもよい。例えば、2×NとMを比較して、小さい方をRとして出力してもよいし、閾値処理にて計算したRが2×Nより大きい場合には、Rを2×Nに制限するようにしてもよい。また、閾値は予め定めておくのではなく、符号化するようにしてもよい。   First, in the predictive adjacent region determination unit 281 to be evaluated, before selecting N predicted adjacent regions from the M predicted adjacent regions searched by the template matching unit 201, the prediction adjacent region to be selected is selected. The number is limited by setting the number to R (S802). This setting of the R value has an effect of preventing the prediction adjacent region having a large SAD value between the target adjacent region from being selected when the N value is very small with respect to the M value. Therefore, as long as this condition is satisfied, a method other than the threshold may be used as the R value determination method. For example, 2 × N and M may be compared and the smaller one may be output as R. If R calculated by the threshold processing is greater than 2 × N, R is limited to 2 × N. It may be. The threshold value may be encoded instead of being determined in advance.

つぎに、評価対象の予測隣接領域の決定器281は、R値とN値とを比較し、R値がN値より小さいまたは同じ場合には、予測隣接領域の選択は不要であるため、予測隣接領域の選択処理を終了する(S803:NO)。R値がN値より大きい場合には、カウンター282は、カウント値Pを初期化する(S804)。参照画像の評価器283と動きベクトルの評価器284とは、対象隣接領域との間のSAD値がP番目に小さい予測隣接領域にアクセスするための参照画像番号と動きベクトルとを座標情報用メモリ202から順次取得する(S805)。P値とR値とを比較し(S806)、P値がR値より小さい場合には(S806:YES)、カウント値Pに1を加算し(S807)、S805の処理を繰り返す。   Next, the predictive adjacent region determiner 281 to be evaluated compares the R value with the N value. If the R value is smaller than or equal to the N value, the prediction adjacent region need not be selected. The adjacent area selection process is terminated (S803: NO). If the R value is greater than the N value, the counter 282 initializes the count value P (S804). The reference image evaluator 283 and the motion vector evaluator 284 store the reference image number and the motion vector for accessing the predicted adjacent region having the SAD value between the target adjacent region and the Pth smallest memory for the coordinate information. Sequentially from 202 (S805). The P value and the R value are compared (S806). If the P value is smaller than the R value (S806: YES), 1 is added to the count value P (S807), and the process of S805 is repeated.

P値がR値に達すると(S805:NO)、参照画像の評価器283は、R個の参照画像番号から、その多様性を考慮して、N個の参照画像番号を選択する(S808)。具体的には、まず、取得したR個の参照画像番号を対象として、探索領域内の各参照画像に含まれる予測隣接領域の数Ref[i](i=1,2,…,F;iは参照画像番号,Fはテンプレートマッチング器201にて探索対象とする参照画像の数)を確認する。つぎに、参照画像の評価器283は、対象隣接領域との間のSAD値が最も小さい予測隣接領域が属する参照画像番号iを初期値として、以下の処理を実施する。
1)参照画像番号iを選択する。
2)予測隣接領域の数Ref[i]の値を1ずつ減らす。Ref[i]が0となった参照画像番号は選択対象から除外する。
3)参照画像番号iを1増やす。iがFのときiを1にリセットする。
この処理を、N個の参照画像を選択するまで巡回的に繰り返す。なお、参照画像の選択方法は、多様性を確保できれば良いので、識別番号をカウントアップする方法には限定されない。例えば、参照画像番号iに対応する予測隣接領域の数Ref[i]の比率Ref[i]/Rを考慮して、参照画像を選択してもよい。また、符号化対象画像に対する参照画像の位置(過去、未来、現在)を考慮し、予め定めた比率で選ぶようにしてもよい。
When the P value reaches the R value (S805: NO), the reference image evaluator 283 selects N reference image numbers from the R reference image numbers in consideration of the diversity (S808). . Specifically, first, for the obtained R reference image numbers, the number Ref [i] (i = 1, 2,..., F; i) of predicted adjacent regions included in each reference image in the search region. Is the reference image number, and F is the number of reference images to be searched by the template matching unit 201. Next, the reference image evaluator 283 performs the following processing with the reference image number i to which the predicted adjacent region having the smallest SAD value from the target adjacent region belongs as an initial value.
1) Select reference image number i.
2) Decrease the number of predicted adjacent areas Ref [i] by one. Reference image numbers for which Ref [i] is 0 are excluded from selection targets.
3) Increase the reference image number i by 1. When i is F, i is reset to 1.
This process is repeated cyclically until N reference images are selected. Note that the selection method of the reference image is not limited to the method of counting up the identification number, as long as diversity can be ensured. For example, the reference image may be selected in consideration of the ratio Ref [i] / R of the number of predicted adjacent areas Ref [i] corresponding to the reference image number i. In addition, the position of the reference image with respect to the encoding target image (past, future, present) may be taken into consideration and selected at a predetermined ratio.

つぎに、動きベクトルの評価器284は、R個の動きベクトルから、その多様性を考慮して、N個の動きベクトルを選択する(S809)。具体的には、まず、動きベクトルの評価器284は、参照画像毎に、対象隣接領域との間のSAD値が最も小さい動きベクトルSMV[i]を確認する。つぎに、動きベクトルの評価器284は、S808にて選択したN個の参照画像番号に、動きベクトルを対応づける。具体的には、
4)R個の動きベクトルを参照画像番号別に分類し、それぞれ、選択すべき動きベクトルの数NumMV[i]を算出する。
5)NumMV[i]が1より大きい参照画像番号iのSMV[i]を選択する。
6)そして、各参照画像番号iについて、SMV[i]との絶対値差分和が大きい順に“NumMV[i]−1”個の動きベクトルを選択する。なお、動きベクトルの選択方法は、多様性を確保できれば良いので、上記に示した方法には限定されない。例えば、選択した参照画像iの動きベクトルでSMV[i]を更新することで、直前に選択した動きベクトルとの絶対値差分和が大きい動きベクトルをつぎに選択するようにしてもよい。
Next, the motion vector evaluator 284 selects N motion vectors from the R motion vectors in consideration of the diversity (S809). Specifically, first, the motion vector evaluator 284 confirms the motion vector SMV [i] having the smallest SAD value with respect to the target adjacent region for each reference image. Next, the motion vector evaluator 284 associates the motion vector with the N reference image numbers selected in S808. In particular,
4) Classify R motion vectors by reference image number, and calculate the number of motion vectors NumMV [i] to be selected.
5) Select SMV [i] with reference image number i with NumMV [i] greater than 1.
6) Then, for each reference image number i, “NumMV [i] −1” motion vectors are selected in descending order of the sum of absolute value differences from SMV [i]. Note that the motion vector selection method is not limited to the method described above because it is sufficient to ensure diversity. For example, by updating SMV [i] with the motion vector of the selected reference image i, a motion vector having a large absolute value difference sum from the motion vector selected immediately before may be selected.

このように対象隣接領域と複数の予測隣接領域との間の差分データに加えて、各予測隣接領域にアクセスするための動きパラメータを用いることにより、時空間方向に多様性を有する予測隣接領域を選択することが可能となる。なお、上記では、R個からN個の予測隣接領域を選択しているが、N個全部を動きパラメータを用いて選択する必要はない。例えば、N/2個は、対象隣接領域との間のSAD値が小さい予測隣接領域を選択する方法も、予測性能を安定させる効果が見込める。また、SMV[i]との動きベクトルの絶対値差分和に制限をかけ、予め定めた閾値より大きい場合は、選択対象から外す方法も予測性能を安定させる効果があると考えられる。なお、R値をM値とする場合や、R値をN値に対して予め設定している場合には、処理S803は不要であり、この場合、予測隣接領域の選択処理は、座標情報、つまり動きパラメータのみで実施できる。   In this way, in addition to the difference data between the target adjacent area and the plurality of predicted adjacent areas, by using the motion parameter for accessing each predicted adjacent area, the predicted adjacent areas having diversity in the spatio-temporal direction can be obtained. It becomes possible to select. In the above description, R to N predicted adjacent regions are selected, but it is not necessary to select all N using motion parameters. For example, for N / 2, the method of selecting a predicted adjacent region having a small SAD value between the target adjacent regions can also be expected to stabilize the prediction performance. In addition, if the sum of absolute difference of motion vectors from SMV [i] is limited and is larger than a predetermined threshold, it is considered that the method of removing from the selection target also has the effect of stabilizing the prediction performance. Note that if the R value is the M value, or if the R value is set in advance for the N value, the process S803 is unnecessary, and in this case, the prediction adjacent region selection process is performed using coordinate information, That is, it can be implemented with only motion parameters.

また、図21に示す「多様性を考慮して予測隣接領域の組み合わせを選択する処理」を、図20に示す「対象隣接領域と予測隣接領域との関係を用いて平滑化する候補予測信号の数を選択する処理」と併せて用いることにより、時空間の多様性を考慮して、平滑化する候補予測信号の数の選択処理を実施することが可能となる。   Further, the “process for selecting a combination of predicted adjacent regions in consideration of diversity” shown in FIG. 21 is replaced with “candidate prediction signal smoothed using the relationship between the target adjacent region and the predicted adjacent region” shown in FIG. By using this together with the “number selection process”, it is possible to perform the selection process of the number of candidate prediction signals to be smoothed in consideration of the diversity of time and space.

本実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。その具体的なモジュール構成は、図11、図12および図13に示すとおりである。なお、ここでは予測信号生成モジュール103の機能は、上述予測信号生成器103aに相当するものである。また、組み合わせ設定器237に相当する組み合わせ設定もジュールは、図28に記載のとおりである。図28は、組み合わせ設定モジュールP237のモジュール構成を示すブロック図である。この組み合わせ設定モジュールP237は、評価対象の予測隣接領域の決定モジュール、P281、カウンターモジュールP282、参照画像の評価モジュールP283、動きベクトルの評価モジュールP284から構成されている。これら各モジュールは、図19に示す組み合わせ設定器237における評価対象の予測隣接領域の決定器281、カウンター282、参照画像の評価器283、動きベクトルの評価器284と同等の機能を有する。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory. The specific module configuration is as shown in FIG. 11, FIG. 12, and FIG. Here, the function of the prediction signal generation module 103 corresponds to the prediction signal generator 103a. Further, the combination setting corresponding to the combination setting unit 237 is as shown in FIG. FIG. 28 is a block diagram showing the module configuration of the combination setting module P237. This combination setting module P237 includes a prediction adjacent region determination module to be evaluated, P281, a counter module P282, a reference image evaluation module P283, and a motion vector evaluation module P284. Each of these modules has functions equivalent to those of the predictive adjacent region determining unit 281, the counter 282, the reference image evaluating unit 283, and the motion vector evaluating unit 284 in the combination setting unit 237 shown in FIG. 19.

このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、上述図16、図17で示したコンピュータで実行される。   The image predictive encoding program P100 or the image predictive decoding program P300 thus configured is stored in the recording medium 10 and executed by the computer shown in FIGS. 16 and 17 described above.

つぎに、この第2の実施形態における画像予測符号化装置100および画像予測復号装置300の作用効果について説明する。   Next, operational effects of the image predictive encoding device 100 and the image predictive decoding device 300 in the second embodiment will be described.

第2の実施形態の画像予測符号化装置100は、入力画像を複数の領域に分割するブロック分割器102と、割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成器103と、生成された予測信号と対象画素信号との残差信号を生成する残差信号生成手段として機能する減算器106と、生成された残差信号を符号化する変換器106、量子化器107およびエントロピー符号化器111とを備えている。   The image predictive coding device 100 according to the second embodiment performs a block divider 102 that divides an input image into a plurality of regions, and a target pixel signal of a target region that is a processing target among the divided regions. A prediction signal generator 103 that generates a prediction signal, a subtractor 106 that functions as a residual signal generation unit that generates a residual signal between the generated prediction signal and a target pixel signal, and a code of the generated residual signal A converter 106, a quantizer 107, and an entropy encoder 111.

そして、予測信号生成器103aにおいて、テンプレートマッチング器201が対象画素信号からなる対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401、417から探索する。そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成する。   Then, in the prediction signal generator 103a, the template matching unit 201 has a plurality of prediction adjacent regions 404a-414c having high correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signals adjacent to the target region 402 composed of the target pixel signal. Are searched from the search areas 401 and 417 made up of already reproduced images. Then, the combination setting unit 237 generates two or more combinations of predicted adjacent areas including different numbers of predicted adjacent areas using at least coordinate information indicating the positions of the predicted adjacent areas.

予測隣接領域取得器232、重み付け器234、および加算器235は、組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、隣接画素信号に対する比較信号をそれぞれ生成する。比較・選択器236は、比較信号と隣接画素信号との相関が高い予測隣接領域の組み合わせを選択し、予測領域取得器204に出力する。   The prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 each generate a comparison signal for the adjacent pixel signal by processing the pixel signal of the prediction adjacent region belonging to the combination using a predetermined synthesis method. . The comparison / selector 236 selects a combination of predicted adjacent regions having a high correlation between the comparison signal and the adjacent pixel signal, and outputs the combination to the predicted region acquisition unit 204.

予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205、および加算器206が候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method.

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、効率的に符号化データを生成することができる。   Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, encoded data can be generated efficiently.

また、第2の実施形態の画像予測復号装置300は、圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するエントロピー復号器302と、復号されて得られた信号から再生残差信号を復元する逆量子化器303および逆変換器304と、対象領域の対象画素信号に対する予測信号を生成する予測信号生成器308と、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する加算器305とを備えている。   In addition, the image predictive decoding device 300 according to the second embodiment includes an entropy decoder 302 that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding. An inverse quantizer 303 and an inverse transformer 304 for restoring the reproduction residual signal from the prediction signal generator 308, a prediction signal generator 308 for generating a prediction signal for the target pixel signal in the target region, and the generated prediction signal and the restored reproduction residual An adder 305 that generates a reproduced image signal by adding the difference signal is provided.

そして、予測信号生成器103aは、対象画素信号からなる対象領域401に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401、417から探索する。そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成する。   Then, the prediction signal generator 103a generates a plurality of prediction adjacent regions 404a to 414c having a high correlation with the target adjacent region 403 including the already reproduced adjacent pixel signal adjacent to the target region 401 including the target pixel signal. Search is performed from search areas 401 and 417 consisting of. Then, the combination setting unit 237 generates two or more combinations of predicted adjacent areas including different numbers of predicted adjacent areas using at least coordinate information indicating the positions of the predicted adjacent areas.

予測隣接領域取得器232、重み付け器234、および加算器235は、組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、隣接画素信号に対する比較信号をそれぞれ生成する。比較・選択器236は、比較信号と隣接画素信号との相関が高い予測隣接領域の組み合わせを選択し、予測領域取得器204に出力する。   The prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 each generate a comparison signal for the adjacent pixel signal by processing the pixel signal of the prediction adjacent region belonging to the combination using a predetermined synthesis method. . The comparison / selector 236 selects a combination of predicted adjacent regions having a high correlation between the comparison signal and the adjacent pixel signal, and outputs the combination to the predicted region acquisition unit 204.

予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205、および加算器206が候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method.

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、効率的に符号化された符号化データを復号することができる。
Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, the encoded data encoded efficiently can be decoded.

<第3の実施形態>
上述のとおり図18〜図21では、「多様性を考慮して予測隣接領域の組み合わせを選択する処理」を、「対象隣接領域と予測隣接領域との関係を用いて平滑化する候補予測信号の数を選択する処理」と併せて用いていた。しかしながら、「多様性を考慮して予測隣接領域の組み合わせを選択する処理」は「対象隣接領域と予測隣接領域との関係を用いて平滑化する候補予測信号の数を選択する処理」と組み合わせない処理でも効果がある。以下にその実施形態を説明する。
<Third Embodiment>
As described above, in FIG. 18 to FIG. 21, “a process of selecting a combination of predicted adjacent areas in consideration of diversity” is performed using “a candidate predicted signal to be smoothed using the relationship between the target adjacent area and the predicted adjacent area”. It was used in conjunction with the “number selection process”. However, “a process of selecting a combination of predicted adjacent areas in consideration of diversity” is not combined with “a process of selecting the number of candidate prediction signals to be smoothed using the relationship between the target adjacent area and the predicted adjacent area”. Effective in processing. The embodiment will be described below.

本実施形態では、平滑化する候補予測信号の数FNを設定してから、「多様性を考慮して予測隣接領域の組み合わせを選択する処理」を利用して、候補予測信号の組み合わせを決定することができる。すなわち、図19に示した組み合わせ設定器237の動作と図21に示した処理S604aの処理とが、決められたFN値に対してのみ実施され、組み合わせ設定器237によりM個の予測隣接領域からFN個の予測隣接領域が選択される。そして、選択されたFN個の予測隣接領域の組み合わせに基づいて、FN個の候補予測信号の重み付け平均化処理が実施される。   In the present embodiment, after setting the number FN of candidate prediction signals to be smoothed, the combination of candidate prediction signals is determined using “processing for selecting a combination of prediction adjacent regions in consideration of diversity”. be able to. That is, the operation of the combination setter 237 shown in FIG. 19 and the process of step S604a shown in FIG. 21 are performed only on the determined FN value, and the combination setter 237 determines from the M predicted adjacent regions. FN predicted adjacent regions are selected. Then, weighted averaging processing of FN candidate prediction signals is performed based on the combination of the selected FN prediction adjacent regions.

図22と図23とは、対象隣接領域と予測隣接領域との関係を用いて平滑化する候補予測信号の数を選択する場合についての実施形態である。以下、第2の実施形態における予測信号生成器103aと、本実施形態の予測信号生成器103bとの違いについて説明する。なお、当然ながら、本実施形態の予測信号生成器103bは、第1の実施形態に記載の画像予測符号化装置100および画像予測復号装置300に適用できる。   FIG. 22 and FIG. 23 are embodiments in the case of selecting the number of candidate prediction signals to be smoothed using the relationship between the target adjacent region and the predicted adjacent region. Hereinafter, the difference between the prediction signal generator 103a in the second embodiment and the prediction signal generator 103b in the present embodiment will be described. Of course, the prediction signal generator 103b of the present embodiment can be applied to the image predictive coding device 100 and the image predictive decoding device 300 described in the first embodiment.

図22は、第3の実施形態である、候補予測信号の組み合わせ設定器237を含んだ予測信号生成器103bの構成を示すブロック図である。図22における候補予測信号の組み合わせ決定器203cでは、図18における候補予測信号の組み合わせ決定器203bとは異なり、予測隣接領域数の設定器230から、複数の異なるN値(N個の予測隣接領域)が、組み合わせ設定器237を介すことなく、直接、予測隣接領域取得器232に入力される。   FIG. 22 is a block diagram illustrating a configuration of the prediction signal generator 103b including the candidate prediction signal combination setting unit 237 according to the third embodiment. Unlike the candidate prediction signal combination determiner 203b in FIG. 18, the candidate prediction signal combination determiner 203c in FIG. 22 receives a plurality of different N values (N predicted adjacent regions) from the predictor adjacent region number setting unit 230. ) Is directly input to the prediction adjacent region acquisition unit 232 without passing through the combination setting unit 237.

そして、図2にて説明したように、予測隣接領域数の設定器230は、N値を変化させ(つまりM値より小さい2の乗数Nを変化させて)、予測隣接領域取得器232にN値を出力し、予測隣接領域取得器232、重み付け器234および加算器235は複数のN値(N個の予測隣接領域)を用いて対象隣接領域とのSAD値が小さいN個の予測隣接領域を重み付け平均化し、比較信号をN個の予測隣接領域の組み合わせごとに複数生成する。比較・選択器236はこのN値が異なる複数の比較信号を対象隣接領域と比較し、差が最も小さいときのN値をFN値として決定し、これを組み合わせ設定器237に出力する。なお、比較・選択器236は、M値を超えるまでN値を変えながら、上述の処理を行い、最小のSAD値を更新していく。   Then, as described with reference to FIG. 2, the predictive adjacent region number setting unit 230 changes the N value (that is, changes the multiplier N of 2 smaller than the M value), and supplies the predictive adjacent region acquisition unit 232 with N The predicted adjacent area acquisition unit 232, the weighting unit 234, and the adder 235 output N values using a plurality of N values (N predicted adjacent areas), and N predicted adjacent areas having a small SAD value with respect to the target adjacent area And a plurality of comparison signals are generated for each combination of N predicted adjacent regions. The comparator / selector 236 compares the plurality of comparison signals having different N values with the target adjacent region, determines the N value with the smallest difference as the FN value, and outputs this to the combination setting unit 237. The comparator / selector 236 performs the above-described processing while changing the N value until it exceeds the M value, and updates the minimum SAD value.

組み合わせ設定器237は、決定されたFN値、ラインL201b経由で入力されるM個のSAD値、およびラインL202c経由で入力する予測隣接領域の座標情報を用いて、M個の予測隣接領域からFN個の予測隣接領域を選択する。すなわち、組み合わせ設定器237は、FN値に対応付けて定められている閾値より小さいSAD値の数を計数し、その計数した値に基づいてFN個の予測隣接領域を選択する。この詳細な処理は図19に示したとおりである。   The combination setter 237 uses the determined FN values, the M SAD values input via the line L201b, and the coordinate information of the predicted adjacent regions input via the line L202c, from the M predicted adjacent regions to FN. Select the predicted adjacent regions. That is, the combination setter 237 counts the number of SAD values that are smaller than the threshold value determined in association with the FN value, and selects FN predicted adjacent regions based on the counted value. This detailed process is as shown in FIG.

そして、組み合わせ設定器237は、予測隣接領域の組み合わせを候補予測信号の組み合わせ情報として、ラインL203経由で予測領域取得器204に出力する。組み合わせ設定器237における動作は、上述図19にて説明したとおりである。   Then, the combination setting unit 237 outputs the combination of the prediction adjacent regions as the combination information of the candidate prediction signal to the prediction region acquisition unit 204 via the line L203. The operation in the combination setter 237 is as described above with reference to FIG.

そして、予測領域取得器204では、ラインL203経由で入力された候補予測信号の組み合わせ情報に従って、この組み合わせに属する候補予測信号の座標情報をラインL202b経由で取得する。そして、予測領域取得器204は、ラインL104経由でフレームメモリ104から、取得した座標情報に対応する候補予測信号を取得し、随時重み付け器205に出力する。重み付け器205は、ラインL204経由で入力された各候補予測信号に重み係数を掛け、ラインL205経由で加算器206に出力する。加算器206は重み付けされた候補予測信号を順次加算し、予測信号としてラインL103経由で図1の減算器105に出力する。   Then, the prediction region acquisition unit 204 acquires the coordinate information of candidate prediction signals belonging to this combination via the line L202b according to the combination information of candidate prediction signals input via the line L203. Then, the prediction region acquisition unit 204 acquires a candidate prediction signal corresponding to the acquired coordinate information from the frame memory 104 via the line L104 and outputs it to the weighting unit 205 as needed. The weighting unit 205 multiplies each candidate prediction signal input via the line L204 by a weighting coefficient, and outputs the result to the adder 206 via the line L205. The adder 206 sequentially adds the weighted candidate prediction signals and outputs the result as a prediction signal to the subtracter 105 in FIG. 1 via the line L103.

図23は、第3の実施形態である予測信号生成器103bによる予測隣接領域を選択するときの処理を示すフローチャートである。この方法では、図6に示す処理と同様に、予測隣接領域数の設定器230は、候補予測信号の数Nを1に設定し(S602)、対象隣接領域取得器233では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得され(S603)、予測隣接領域取得器232にて、予測隣接領域数の設定器230により設定された組み合わせに属するN個の予測隣接領域が、ラインL104を経由して取得される(S604)。   FIG. 23 is a flowchart illustrating processing when a prediction adjacent region is selected by the prediction signal generator 103b according to the third embodiment. In this method, similarly to the process shown in FIG. 6, the predictive adjacent region number setting unit 230 sets the number N of candidate prediction signals to 1 (S602), and the target adjacent region acquiring unit 233 sets the target for the target block. An adjacent region (template signal) is acquired from the frame memory 104 (S603), and N predicted adjacent regions belonging to the combination set by the predictive adjacent region number setting unit 230 are Obtained via L104 (S604).

その後、予測隣接領域取得器232、重み付け器234および加算器235において、N個の予測隣接領域の画素信号の平均化(加重平均でもよい)により比較信号を生成し(S605)、比較・選択器236にて、生成した比較信号と隣接画素信号との差分値であるSAD値を算出する(S606)。同時に、比較・選択器236では、算出したSAD値をそれまでの最小のSAD値と比較し(S607)、SAD値が最小値と判断された場合、S608aに進み、そうでないと判断された場合、S609に進む。なお、S607では、算出したSAD値とそれまでの最小のSAD値が同じ場合には、S609に進むが、S608aに進むようにしてもよい。   After that, in the prediction adjacent region acquisition unit 232, the weighter 234, and the adder 235, a comparison signal is generated by averaging (may be weighted average) the pixel signals of the N prediction adjacent regions (S605), and the comparison / selector In S236, an SAD value that is a difference value between the generated comparison signal and the adjacent pixel signal is calculated (S606). At the same time, the comparator / selector 236 compares the calculated SAD value with the minimum SAD value so far (S607). If the SAD value is determined to be the minimum value, the process proceeds to S608a, and if not, , The process proceeds to S609. In S607, when the calculated SAD value is the same as the minimum SAD value so far, the process proceeds to S609, but may proceed to S608a.

そして、比較・選択器236によりS606において算出されたSAD値がこれまで算出されたSADの最小値より小さいと判断されると、新たに算出されたSAD値に最小値は更新されるとともに、そのときのN値が候補予測信号の数FNとして決定される(S608a)。   When the SAD value calculated in S606 by the comparator / selector 236 is determined to be smaller than the minimum value of SAD calculated so far, the minimum value is updated to the newly calculated SAD value, and Is determined as the number FN of candidate prediction signals (S608a).

そして、N値が2倍に更新され(S609)、更新したN値がM値より小さい場合、S604に戻り、更新したN値がM値より大きい場合、S608aにて決定した座標情報の組み合わせを候補予測信号の組み合わせとして決定する。そして、組み合わせ設定器237にて、予測隣接領域にアクセスするための座標情報(参照画像番号および動きベクトル)、および対象隣接領域と予測隣接領域との差分SAD値を用いて、M個の予測隣接領域からFN個の予測隣接領域が選択され、FN個の予測隣接領域の再生信号を対象領域の候補予測信号とする(S610a)。このS610aの処理は、S604a(図21参照)と同じであるため、説明を割愛する。   Then, the N value is updated twice (S609). If the updated N value is smaller than the M value, the process returns to S604. If the updated N value is larger than the M value, the combination of coordinate information determined in S608a is selected. It is determined as a combination of candidate prediction signals. Then, the combination setting unit 237 uses the coordinate information (reference image number and motion vector) for accessing the predicted adjacent area and the difference SAD value between the target adjacent area and the predicted adjacent area, so that M predicted adjacent areas are used. FN prediction adjacent regions are selected from the region, and the reproduction signal of the FN prediction adjacent regions is set as a candidate prediction signal for the target region (S610a). Since the process of S610a is the same as S604a (see FIG. 21), the description is omitted.

本実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。その具体的なモジュール構成は、図11、図12、図13、および図28に示すとおりである。なお、ここでは予測信号生成モジュール103の機能は、上述予測信号生成器103bに相当するものである。このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、上述図16、図17で示したコンピュータで実行される。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory. The specific module configuration is as shown in FIG. 11, FIG. 12, FIG. 13, and FIG. Here, the function of the prediction signal generation module 103 corresponds to the above-described prediction signal generator 103b. The image predictive encoding program P100 or the image predictive decoding program P300 thus configured is stored in the recording medium 10 and executed by the computer shown in FIGS. 16 and 17 described above.

つぎに、第3の実施形態の画像予測符号化装置100および画像予測復号装置300の作用効果について説明する。   Next, operational effects of the image predictive coding device 100 and the image predictive decoding device 300 according to the third embodiment will be described.

第3の実施形態の画像予測符号化装置100は、入力画像を複数の領域に分割するブロック分割器102と、割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成器103と、生成された予測信号と対象画素信号との残差信号を生成する残差信号生成手段として機能する減算器106と、生成された残差信号を符号化する変換器106、量子化器107およびエントロピー符号化器111とを備えている。   The image predictive coding apparatus 100 according to the third embodiment performs a block divider 102 that divides an input image into a plurality of regions, and a target pixel signal of a target region that is a processing target among the divided regions. A prediction signal generator 103 that generates a prediction signal, a subtractor 106 that functions as a residual signal generation unit that generates a residual signal between the generated prediction signal and a target pixel signal, and a code of the generated residual signal A converter 106, a quantizer 107, and an entropy encoder 111.

そして、予測信号生成器103におけるテンプレートマッチング器201が対象画素信号からなる対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401、411から探索する。   Then, the template matching unit 201 in the prediction signal generator 103 selects a plurality of prediction adjacent regions 404a to 414c having a high correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signals adjacent to the target region 402 composed of the target pixel signal. The search is performed from search areas 401 and 411 made up of already reproduced images.

一方、予測隣接領域数の設定器230は、選択する予測隣接領域の数Nを設定する。   On the other hand, the predictor adjacent region number setting unit 230 sets the number N of predictive adjacent regions to be selected.

そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索領域から設定した数の予測隣接領域を選択する。予測領域取得器204は、選択した予測隣接領域に基づいて対象画素信号の候補予測信号を設定した数だけ生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Then, the combination setting unit 237 selects the number of predicted adjacent areas set from the search area using at least coordinate information indicating the position of the predicted adjacent area. The prediction region acquisition unit 204 generates a set number of candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and the weighting unit 205 and the adder 206 use a synthesis method in which candidate prediction signals are determined in advance. The prediction signal is generated by processing.

なお、本実施形態においては、予測隣接領域230により設定された予測隣接領域の数Nに基づいて、予測隣接領域取得器232、重み付け器234、および加算器235により比較信号が生成される。ここでN値の値が適宜変更されて予測隣接領域取得器232に入力され、N値に応じて比較信号が生成される。その比較信号に基づいて比較・選択器236により対象隣接領域の画素信号との差分SAD値が最小となる比較信号が選択され、その選択された比較信号のもととなるN個の予測隣接領域を特定するためのN値が組み合わせ設定器237に出力されることになる。   In the present embodiment, a comparison signal is generated by the prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 based on the number N of prediction adjacent regions set by the prediction adjacent region 230. Here, the value of the N value is appropriately changed and input to the predicted adjacent region acquisition unit 232, and a comparison signal is generated according to the N value. Based on the comparison signal, the comparison / selector 236 selects a comparison signal that minimizes the difference SAD value from the pixel signal in the target adjacent region, and N predicted adjacent regions from which the selected comparison signal is based. N value for specifying is output to the combination setter 237.

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、効率的に符号化データを生成することができる。   Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, encoded data can be generated efficiently.

また、第3の実施形態の画像予測復号装置300は、圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するエントロピー復号器302と、復号されて得られた信号から再生残差信号を復元する逆量子化器303および逆変換器304と、対象領域の対象画素信号に対する予測信号を生成する予測信号生成器308と、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する加算器305とを備えている。   The image predictive decoding device 300 according to the third embodiment also includes an entropy decoder 302 that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding. An inverse quantizer 303 and an inverse transformer 304 for restoring the reproduction residual signal from the prediction signal generator 308, a prediction signal generator 308 for generating a prediction signal for the target pixel signal in the target region, and the generated prediction signal and the restored reproduction residual An adder 305 that generates a reproduced image signal by adding the difference signal is provided.

そして、予測信号生成器103におけるテンプレートマッチング器201が対象画素信号からなる対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401、411から探索する。   Then, the template matching unit 201 in the prediction signal generator 103 selects a plurality of prediction adjacent regions 404a to 414c having a high correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signals adjacent to the target region 402 composed of the target pixel signal. The search is performed from search areas 401 and 411 made up of already reproduced images.

一方、予測隣接領域数の設定器230は、選択する予測隣接領域の数Nを設定する。   On the other hand, the predictor adjacent region number setting unit 230 sets the number N of predictive adjacent regions to be selected.

そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報を用いて、探索領域から設定した数の予測隣接領域を選択する。予測領域取得器204は、選択した予測隣接領域に基づいて対象画素信号の候補予測信号を設定した数だけ生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Then, the combination setting unit 237 selects the number of predicted adjacent areas set from the search area using at least coordinate information indicating the position of the predicted adjacent area. The prediction region acquisition unit 204 generates a set number of candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and the weighting unit 205 and the adder 206 use a synthesis method in which candidate prediction signals are determined in advance. The prediction signal is generated by processing.

なお、第3の実施形態においては、予測隣接領域230により設定された予測隣接領域の数Nに基づいて、予測隣接領域取得器232、重み付け器234、および加算器235により比較信号が生成される。ここでN値の値が適宜変更されて予測隣接領域取得器232に入力され、N値に応じて比較信号が生成される。その比較信号に基づいて比較・選択器236により対象隣接領域の画素信号との差分SAD値が最小となる比較信号が選択され、その選択された比較信号のもととなるN個の予測隣接領域を特定するためのN値が組み合わせ設定器237に出力されることになる。   In the third embodiment, a comparison signal is generated by the prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 based on the number N of prediction adjacent regions set by the prediction adjacent region 230. . Here, the value of the N value is appropriately changed and input to the predicted adjacent region acquisition unit 232, and a comparison signal is generated according to the N value. Based on the comparison signal, the comparison / selector 236 selects a comparison signal that minimizes the difference SAD value from the pixel signal in the target adjacent region, and N predicted adjacent regions from which the selected comparison signal is based. N value for specifying is output to the combination setter 237.

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、この予測信号を用いて効率的に符号化された符号化データを復号することができる。
Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, the encoded data encoded efficiently using this prediction signal can be decoded.

<第4の実施形態>
図24は、第4の実施形態である候補予測信号の組み合わせ決定器の構成を示すブロック図である。この第4の実施形態は、対象隣接領域と予測隣接領域との間のSAD値を用いた閾値処理にて平滑化する候補予測信号の数を決める場合のついての実施形態である。この第4の実施形態における予測信号生成器103cにおいては、候補予測信号の組み合わせ決定器203dが、他の予測信号生成器103、103a、または103bと相違している。以下、相違点である候補予測信号の組み合わせ決定器203dについて説明する。
<Fourth Embodiment>
FIG. 24 is a block diagram illustrating a configuration of a candidate prediction signal combination determiner according to the fourth embodiment. In the fourth embodiment, the number of candidate prediction signals to be smoothed is determined by threshold processing using the SAD value between the target adjacent region and the predicted adjacent region. In the prediction signal generator 103c in the fourth embodiment, the candidate prediction signal combination determiner 203d is different from the other prediction signal generators 103, 103a, or 103b. Hereinafter, the candidate prediction signal combination determiner 203d as a difference will be described.

図24における候補予測信号の組み合わせ決定器203dは、候補予測信号数の決定器238と組み合わせ設定器237dとを含んで構成される。   The candidate prediction signal combination determiner 203d in FIG. 24 includes a candidate prediction signal number determiner 238 and a combination setter 237d.

候補予測信号数の決定器238は、ラインL201b経由で、対象隣接領域とM個の各予測隣接領域との間のM個のSAD値を入力し、予め定めた閾値より小さいSAD値の数を計算する。そして、閾値より小さいSAD値の数を、平滑化する候補予測信号の数FNとして、組み合わせ設定器237dに出力する。   The candidate prediction signal number determiner 238 inputs M SAD values between the target adjacent region and each of the M predicted adjacent regions via the line L201b, and calculates the number of SAD values smaller than a predetermined threshold. calculate. Then, the number of SAD values smaller than the threshold is output to the combination setting unit 237d as the number FN of candidate prediction signals to be smoothed.

組み合わせ設定器237dは、図19に示す構成をとるものであって、予測隣接領域の座標情報を用いて、M個の予測隣接領域からFN個の予測隣接領域を選択し、予測隣接領域の組み合わせを候補予測信号の組み合わせ情報として、L203経由で、予測領域取得器204に出力する。より具体的には、この組み合わせ設定器237dは、FN値がM値より小さいと判断した場合には、予測隣接領域の座標情報を用いて、M個の予測隣接領域からFN個の予測隣接領域を選択し、それらに隣接するFN個の予測領域の再生信号を対象領域の候補予測信号とする処理を行う。FN値がM値と同じである場合には、選択する処理は行われず、FN個の予測隣接領域の組み合わせが出力されることになる。   The combination setter 237d has the configuration shown in FIG. 19, and uses the coordinate information of the predicted adjacent areas to select FN predicted adjacent areas from the M predicted adjacent areas, and the combination of predicted adjacent areas Is output to the prediction region acquisition unit 204 via L203 as combination information of candidate prediction signals. More specifically, when it is determined that the FN value is smaller than the M value, the combination setting unit 237d uses the coordinate information of the predicted adjacent area to FN predicted adjacent areas. Are selected, and the reproduction signals of the FN prediction areas adjacent to them are used as candidate prediction signals for the target area. When the FN value is the same as the M value, the selection process is not performed and a combination of FN predicted adjacent regions is output.

つぎに、候補予測信号の組み合わせ決定器203dの動作について説明する。図25は、候補予測信号の組み合わせ決定器203dの動作を示すフローチャートである。   Next, the operation of the candidate prediction signal combination determiner 203d will be described. FIG. 25 is a flowchart showing the operation of the candidate prediction signal combination determiner 203d.

候補予測信号の決定器238にて、対象隣接領域とM個の各予測隣接領域との間のSAD値と、予め定めた閾値とが比較され、閾値より小さいSAD値の数が、平滑化する候補予測信号の数FNとして決定される(S615)。そして、組み合わせ設定器237においてFN値とM値とが比較される(S616)。そして、組み合わせ設定器237においてFN値がM値より小さいと判断された場合には、予測隣接領域の座標情報を用いて、M個の予測隣接領域からFN個の予測隣接領域が選択され、それらに隣接するFN個の予測領域の再生信号を対象領域の候補予測信号とされる(S617)。   In the candidate prediction signal determiner 238, the SAD value between the target adjacent region and each of the M predicted adjacent regions is compared with a predetermined threshold value, and the number of SAD values smaller than the threshold value is smoothed. The number FN of candidate prediction signals is determined (S615). Then, the FN value and the M value are compared in the combination setter 237 (S616). When the combination setting unit 237 determines that the FN value is smaller than the M value, FN predicted adjacent areas are selected from the M predicted adjacent areas using the coordinate information of the predicted adjacent areas, and these The reproduction signal of the FN prediction areas adjacent to is used as a candidate prediction signal of the target area (S617).

なお、ここでの処理S617は、図23における処理S610aと同じ処理である。また、M値とF値とが同じである場合(S616:NO)、選択処理は行われず、そのままM個の予測隣接領域の組み合わせが予測領域取得器204に出力され、候補予測信号の決定器238における処理は終了する。   The process S617 here is the same process as the process S610a in FIG. If the M value and the F value are the same (S616: NO), the selection process is not performed, and the combination of M prediction adjacent regions is output to the prediction region acquisition unit 204 as it is, and a candidate prediction signal determiner is determined. The process at 238 ends.

以上図18から図25に示したように、「座標情報や動きパラメータを用いて、時空間方向に多様性のある予測隣接領域の組み合わせを生成する動作ならびに処理」は、指定した数の候補予測信号あるいは予測隣接領域の組み合わせを選択する装置ならびに方法にすべて適用できる。   As described above with reference to FIG. 18 to FIG. 25, “the operation and processing for generating a combination of prediction adjacent regions that are diversified in the spatio-temporal direction using the coordinate information and motion parameters” is the specified number of candidate predictions. The present invention can be applied to all apparatuses and methods for selecting a combination of signals or predicted adjacent regions.

さらに、上記では、N個の参照フレームとN個の動きベクトルを個別に評価して選択しているが、この評価方法には限定されない。P番目の予測隣接信号を、λ*(“P−1”番目に選択された参照画像番号−評価対象の参照画像番号)+(“P−1”番目に選択された動きベクトル−評価対象の動きベクトル)の差分絶対値和のような評価関数(λは換算係数)を用いて、同時に評価するようにしてもよい。   Furthermore, in the above, N reference frames and N motion vectors are individually evaluated and selected, but the present invention is not limited to this evaluation method. The P-th predicted adjacent signal is represented by λ * (“P-1” th selected reference image number−evaluation target reference image number) + (“P−1” th selected motion vector−evaluation target. You may make it evaluate simultaneously using evaluation functions ((lambda) is a conversion coefficient) like the sum of absolute difference of a motion vector.

またさらに、図2の組み合わせ設定器231の出力データと、図18、図22ならびに図24に示した候補予測信号の組み合わせ決定器の出力データは共に予測隣接領域の組み合わせ情報であるため、図2の組み合わせ設定器231を図18と図22と図24の機能を含むように構成することも可能である。つまり、図2の組み合わせ設定器231と、図18、図22および図24の組み合わせ設定器237(237d)とにおいて、出力する2つ以上の予測隣接領域の組み合わせ情報を生成し、図2の候補予測信号の組み合わせ決定器203にて、1つを選択するように構成することも可能である。   Furthermore, since the output data of the combination setter 231 in FIG. 2 and the output data of the candidate predictor combination determiner shown in FIG. 18, FIG. 22, and FIG. The combination setting unit 231 can be configured to include the functions shown in FIGS. 18, 22, and 24. That is, the combination setting unit 231 in FIG. 2 and the combination setting unit 237 (237d) in FIGS. 18, 22 and 24 generate combination information of two or more predicted adjacent regions to be output, and the candidates in FIG. The prediction signal combination determiner 203 may be configured to select one.

本実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。その具体的なモジュール構成は、図11、図12、図13、および図28に示すとおりである。なお、ここでは予測信号生成モジュール103の機能は、上述予測信号生成器103cに相当するものである。このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、上述図16、図17で示したコンピュータで実行される。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory. The specific module configuration is as shown in FIG. 11, FIG. 12, FIG. 13, and FIG. Here, the function of the prediction signal generation module 103 corresponds to the prediction signal generator 103c. The image predictive encoding program P100 or the image predictive decoding program P300 thus configured is stored in the recording medium 10 and executed by the computer shown in FIGS. 16 and 17 described above.

つぎに、第4の実施形態の画像予測符号化装置100および画像予測復号装置300の作用効果について説明する。第4の実施形態の画像予測符号化装置100は、入力画像を複数の領域に分割するブロック分割器102と、割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成器103と、生成された予測信号と対象画素信号との残差信号を生成する残差信号生成手段として機能する減算器106と、生成された残差信号を符号化する変換器106、量子化器107およびエントロピー符号化器111とを備えている。   Next, operational effects of the image predictive coding device 100 and the image predictive decoding device 300 according to the fourth embodiment will be described. The image predictive coding device 100 according to the fourth embodiment includes a block divider 102 that divides an input image into a plurality of regions, and a target pixel signal in a target region that is a processing target among the divided regions. A prediction signal generator 103 that generates a prediction signal, a subtractor 106 that functions as a residual signal generation unit that generates a residual signal between the generated prediction signal and a target pixel signal, and a code of the generated residual signal A converter 106, a quantizer 107, and an entropy encoder 111.

そして、予測信号生成器103cにおいて、テンプレートマッチング器201が対象画素信号からなる対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401および417から探索する。そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報、例えば参照画像番号および動きベクトルを用いて、探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択する。   Then, in the predicted signal generator 103c, the template matching unit 201 has a plurality of predicted adjacent areas 404a-414c that have a high correlation with the target adjacent area 403 composed of the already reproduced adjacent pixel signals adjacent to the target area 402 composed of the target pixel signal. Are searched from search areas 401 and 417 made up of already reproduced images. Then, the combination setting unit 237 selects one or more predicted adjacent areas from the plurality of searched predicted adjacent areas using at least coordinate information indicating the position of the predicted adjacent area, for example, the reference image number and the motion vector.

予測領域取得器204は、選択した予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and the weighter 205 and the adder 206 use a synthesis method in which the candidate prediction signals are determined in advance. The prediction signal is generated by processing.

なお、第4の実施形態においては、候補予測信号数の決定器238により予測隣接領域の数Nを設定し、組み合わせ設定器237は、その設定した数の予測隣接領域を選択するようにしている。   In the fourth embodiment, the number N of predicted adjacent areas is set by the determiner 238 for the number of candidate prediction signals, and the combination setter 237 selects the set number of predicted adjacent areas. .

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、効率的に符号化データを生成することができる。   Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, encoded data can be generated efficiently.

また、第4の実施形態の画像予測復号装置300は、圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するエントロピー復号器302と、復号されて得られた信号から再生残差信号を復元する逆量子化器303および逆変換器304と、対象領域の対象画素信号に対する予測信号を生成する予測信号生成器308と、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する加算器305とを備えている。   Further, the image predictive decoding device 300 according to the fourth embodiment includes an entropy decoder 302 that decodes encoded data of a residual signal related to a target region that is a processing target in compressed data, and a signal obtained by decoding. An inverse quantizer 303 and an inverse transformer 304 for restoring the reproduction residual signal from the prediction signal generator 308, a prediction signal generator 308 for generating a prediction signal for the target pixel signal in the target region, and the generated prediction signal and the restored reproduction residual An adder 305 that generates a reproduced image signal by adding the difference signal is provided.

そして、予測信号生成器103において、テンプレートマッチング器201が対象画素信号からなる対象領域402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a−414cを、既再生画像からなる探索領域401および417から探索する。そして、組み合わせ設定器237は、少なくとも予測隣接領域の位置を示す座標情報、例えば参照画像番号および動きベクトルを用いて、探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択する。   Then, in the prediction signal generator 103, the template matching unit 201 has a plurality of prediction adjacent regions 404a-414c having a high correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signals adjacent to the target region 402 composed of the target pixel signal. Are searched from search areas 401 and 417 made up of already reproduced images. Then, the combination setting unit 237 selects one or more predicted adjacent areas from the plurality of searched predicted adjacent areas using at least coordinate information indicating the position of the predicted adjacent area, for example, the reference image number and the motion vector.

予測領域取得器204は、選択した予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and the weighter 205 and the adder 206 use a synthesis method in which the candidate prediction signals are determined in advance. The prediction signal is generated by processing.

これにより、平滑化する候補予測信号に多様性を持たせることを可能となり、効率よく局所的な雑音特性を考慮した予測信号を生成することができる。よって、この予測信号を用いて効率的に符号化された符号化データを復号することができる。   Thereby, it becomes possible to give diversity to the candidate prediction signal to be smoothed, and it is possible to efficiently generate a prediction signal in consideration of local noise characteristics. Therefore, the encoded data encoded efficiently using this prediction signal can be decoded.

本発明の実施形態による画像予測符号化装置を示すブロック図である。It is a block diagram which shows the image predictive coding apparatus by embodiment of this invention. 画像予測符号化装置に用いられる予測信号生成器103を示すブロック図である。It is a block diagram which shows the prediction signal generator 103 used for an image predictive coding apparatus. テンプレートマッチング器201において、テンプレートマッチング処理および予測隣接領域と予測領域の候補を検索する処理を説明するための模式図である。FIG. 10 is a schematic diagram for explaining template matching processing and processing for searching for a prediction adjacent region and a prediction region candidate in the template matching unit 201. テンプレートマッチング器201において、テンプレートマッチング処理および予測隣接領域と予測領域の候補を検索する処理を説明するための第2の模式図である。FIG. 11 is a second schematic diagram for explaining template matching processing and processing for searching for a prediction adjacent region and a prediction region candidate in the template matching unit 201. テンプレートマッチング器201におけるテンプレートマッチングおよび予測隣接領域と予測領域の候補を検索する方法を説明するためのフローチャートである。10 is a flowchart for explaining a template matching in template matching unit 201 and a method of searching for a prediction adjacent region and a prediction region candidate. 候補予測信号の組み合わせ決定器203における候補予測信号の組み合わせ決定方法を説明するためのフローチャートである。It is a flowchart for demonstrating the combination determination method of the candidate prediction signal in the combination determination unit 203 of a candidate prediction signal. 候補予測信号を合成して予測信号を生成する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of synthesize | combining a candidate prediction signal and producing | generating a prediction signal. 画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。3 is a flowchart illustrating an image predictive encoding method in the image predictive encoding device 100. 画像予測復号装置300を示すブロック図である。It is a block diagram which shows the image prediction decoding apparatus. 画像予測復号装置300の画像予測復号方法を示すフローチャートである。It is a flowchart which shows the image prediction decoding method of the image prediction decoding apparatus 300. 画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image predictive coding method. 予測信号生成モジュールP103のモジュールを示すブロック図である。It is a block diagram which shows the module of the prediction signal generation module P103. 画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image prediction decoding method. 画面内予測方法を説明するための模式図である。It is a schematic diagram for demonstrating the prediction method in a screen. ブロックマッチング処理を説明するための模式図である。It is a schematic diagram for demonstrating a block matching process. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium. 第2の実施形態の予測信号生成器103aの構成を示すブロック図である。It is a block diagram which shows the structure of the prediction signal generator 103a of 2nd Embodiment. 組み合わせ設定器237の詳細な構成を示すブロック図である。4 is a block diagram showing a detailed configuration of a combination setter 237. FIG. 組み合わせ設定器237を用いた予測信号生成器103aの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the prediction signal generator 103a using the combination setting device 237. 予測隣接領域の座標情報を用いてN個の予測隣接領域を選択するときの組み合わせ設定器237の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the combination setting device 237 when selecting N prediction adjacent area | regions using the coordinate information of a prediction adjacent area | region. 第3の実施形態である、候補予測信号の組み合わせ設定器237を含んだ予測信号生成器103bの構成を示すブロック図である。It is a block diagram which shows the structure of the prediction signal generator 103b containing the candidate prediction signal combination setter 237 which is 3rd Embodiment. 第3の実施形態である予測信号生成器103bによる予測隣接領域を選択するときの処理を示すフローチャートである。It is a flowchart which shows a process when selecting the prediction adjacent area | region by the prediction signal generator 103b which is 3rd Embodiment. 第4の実施形態である候補予測信号の組み合わせ決定器の構成を示すブロック図である。It is a block diagram which shows the structure of the combination determination device of the candidate prediction signal which is 4th Embodiment. 候補予測信号の組み合わせ決定器203dの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the combination determination part 203d of a candidate prediction signal. 参照画像の評価器283の処理概念を示す概念図である。It is a conceptual diagram which shows the processing concept of the evaluator 283 of a reference image. 動きベクトルの評価器284の処理概念を示す概念図である。It is a conceptual diagram which shows the processing concept of the evaluator 284 of a motion vector. 組み合わせ設定モジュールP237のモジュール構成を示すブロック図である。It is a block diagram which shows the module structure of the combination setting module P237.

符号の説明Explanation of symbols

100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、201…テンプレートマッチング器、202…座標情報用メモリ、203…候補予測信号の組み合わせ決定器、204…予測領域取得器、205…重み付け器、206…加算器、211…対象隣接領域取得器、212…予測隣接領域取得器、213…比較器、214…スイッチ、230…予測隣接領域の設定器、231、237、237d…組み合わせ設定器、232…予測隣接領域取得器、233 対象隣接領域取得器、234…重み付け器、235…加算器、236…比較・選択器、281…評価対象の予測隣接領域の決定器、238…候補予測信号数の決定器、282…カウンター、283…参照画像の評価器、284…動きベクトルの評価器、300…画像予測復号装置、301…入力端子、302…エントロピー復号器、303…逆量子化器、304…逆変換器、305…加算器、306…出力端子、307…フレームメモリ、308…予測信号生成器、P100…画像予測符号化プログラム、P102…ブロック分割モジュール、P103…予測信号生成モジュール、P104…記憶モジュール、P105…減算モジュール、P106…変換モジュール、P108…逆量子化モジュール、P109…逆変換モジュール、P110…加算モジュール、P111…エントロピー符号化モジュール、P201…テンプレートマッチングモジュール、P202…決定モジュール、P203…予測信号合成モジュール、P300…画像予測復号プログラム、P302…エントロピー復号モジュール、P303…逆量子化モジュール、P304…逆変換モジュール、P305…加算モジュール、P307…記憶モジュール、P308…予測信号生成モジュール。 DESCRIPTION OF SYMBOLS 100 ... Image predictive coding apparatus, 101 ... Input terminal, 102 ... Block divider, 103 ... Prediction signal generator, 104 ... Frame memory, 105 ... Subtractor, 106 ... Converter, 107 ... Quantizer, 108 ... Inverse Quantizer, 109 ... Inverse transformer, 110 ... Adder, 111 ... Entropy encoder, 112 ... Output terminal, 201 ... Template matching unit, 202 ... Memory for coordinate information, 203 ... Combination determiner of candidate prediction signals, 204 ... Predictive region acquisition unit, 205 ... Weighter, 206 ... Adder, 211 ... Target adjacent region acquisition unit, 212 ... Predictive adjacent region acquisition unit, 213 ... Comparator, 214 ... Switch, 230 ... Prediction adjacent region setting device , 231, 237, 237d ... combination setter, 232 ... predicted adjacent area acquirer, 233 target adjacent area acquirer, 234 ... weighted 235 ... adder, 236 ... comparison / selector, 281 ... determiner of prediction adjacent region to be evaluated, 238 ... determiner of candidate prediction signal number, 282 ... counter, 283 ... evaluator of reference image, 284 DESCRIPTION OF SYMBOLS ... Motion vector evaluator, 300 ... Image prediction decoding device, 301 ... Input terminal, 302 ... Entropy decoder, 303 ... Inverse quantizer, 304 ... Inverse transformer, 305 ... Adder, 306 ... Output terminal, 307 ... Frame memory, 308 ... Predictive signal generator, P100 ... Predictive image encoding program, P102 ... Block division module, P103 ... Predictive signal generation module, P104 ... Storage module, P105 ... Subtraction module, P106 ... Conversion module, P108 ... Inverse quantum Module, P109 ... inverse transform module, P110 ... addition module, P111 ... entry P201 encoding module, P201 ... template matching module, P202 ... determination module, P203 ... prediction signal synthesis module, P300 ... image prediction decoding program, P302 ... entropy decoding module, P303 ... inverse quantization module, P304 ... inverse transformation module, P305 ... addition module, P307 ... storage module, P308 ... prediction signal generation module.

Claims (18)

入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
Using at least coordinate information indicating the position of the predicted adjacent area, and selecting one or more predicted adjacent areas from the plurality of searched predicted adjacent areas;
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive encoding device.
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
選択する予測隣接領域の数を設定し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索領域から前記設定した数の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて前記対象画素信号の候補予測信号を前記設定した数だけ生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
Set the number of predicted adjacent regions to select,
Using the coordinate information indicating at least the position of the predicted adjacent area, the set number of predicted adjacent areas is selected from the search area,
Generating the set number of candidate prediction signals of the target pixel signal based on the selected prediction adjacent region, and generating the prediction signal by processing the candidate prediction signals using a predetermined synthesis method; An image predictive encoding device as a feature.
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、
前記組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記隣接画素信号に対する比較信号をそれぞれ生成し、前記比較信号と前記隣接画素信号との相関が高い予測隣接領域の組み合わせを前記生成した予測隣接領域の組み合わせの中から選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
Generating at least two combinations of predicted adjacent areas including different numbers of predicted adjacent areas using coordinate information indicating at least the positions of the predicted adjacent areas;
By processing pixel signals of predicted adjacent regions belonging to the combination using a predetermined synthesis method, a comparison signal for each of the adjacent pixel signals is generated, and prediction with a high correlation between the comparison signal and the adjacent pixel signal is performed. Selecting a combination of adjacent regions from the generated combination of predicted adjacent regions;
Generate one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and generate the prediction signal by processing the candidate prediction signal using a predetermined synthesis method An image predictive coding apparatus characterized by:
前記予測信号生成手段は、時間または空間のいずれかあるいは時空間の位置情報を含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項1から3のいずれか1項に記載の画像予測符号化装置。   The said prediction signal production | generation means selects a prediction adjacent area | region using the coordinate information containing the positional information of either time or space, or time and space, The Claim 1 characterized by the above-mentioned. Image predictive coding apparatus. 前記予測信号生成手段は、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて処理することを特徴とする請求項1から3のいずれか1項に記載の画像予測符号化装置。   4. The image predictive coding apparatus according to claim 1, wherein the prediction signal generation unit performs processing using coordinate information including an identification number of a reference image to which a prediction adjacent region belongs. 5. . 前記予測信号生成手段は、予測隣接領域が属する参照画像上の空間位置情報を含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項1から3のいずれか1項に記載の画像予測符号化装置。   The said prediction signal production | generation means selects a prediction adjacent area | region using the coordinate information containing the spatial position information on the reference image to which a prediction adjacent area | region belongs, The one of Claim 1 to 3 characterized by the above-mentioned. Image predictive coding apparatus. 前記予測信号生成手段は、前記対象領域と前記予測隣接領域との間の空間的な位置関係を示す動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項1から3のいずれか1項に記載の画像予測符号化装置。   2. The prediction signal generation unit selects a prediction adjacent area using coordinate information including a motion vector indicating a spatial positional relationship between the target area and the prediction adjacent area. 4. The image predictive coding apparatus according to claim 1. 圧縮データ内の処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding the encoded data of the residual signal relating to the target region to be processed in the compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
One or more predictions from the searched plurality of predicted neighboring areas using coordinate information indicating the position of at least one of two or more arbitrary predicted prediction neighboring areas including at least one of the searched plurality of predicted neighboring areas Select the adjacent area,
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive decoding apparatus.
圧縮データの処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号に隣接する既再生の隣接画素信号からなる対象隣接領域に対して、上記対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
選択する予測隣接領域の数を設定し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索領域のあらゆる位置から前記設定した数の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を前記選択した数だけ生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding the encoded data of the residual signal relating to the target area to be processed of the compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area from the search area consisting of the already reproduced image with respect to the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target pixel signal,
Set the number of predicted adjacent regions to select,
Using the coordinate information indicating at least the position of the predicted adjacent area, select the set number of predicted adjacent areas from any position of the search area,
Based on the selected prediction adjacent region, generating the number of selected candidate prediction signals of the target pixel signal, and generating the prediction signal by processing the candidate prediction signals using a predetermined synthesis method An image predictive decoding apparatus characterized by the above.
圧縮データ内の処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号に隣接する既再生の隣接画素信号からなる対象隣接領域に対して、上記対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
選択する予測隣接領域の数を設定し、
少なくとも前記予測隣接領域の位置を表す座標情報を用いて、異なる数の予測隣接領域を含む予測隣接領域の組み合わせを2つ以上生成し、
前記組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを前記生成した予測隣接領域の組み合わせの中から選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding the encoded data of the residual signal relating to the target region to be processed in the compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area from the search area consisting of the already reproduced image with respect to the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target pixel signal,
Set the number of predicted adjacent regions to select,
Generating at least two combinations of predicted adjacent areas including different numbers of predicted adjacent areas using at least coordinate information representing the positions of the predicted adjacent areas;
A combination of a signal having a high correlation between the comparison signal and the adjacent pixel signal by generating a comparison signal for the adjacent pixel signal by processing a pixel signal of a predicted adjacent region belonging to the combination using a predetermined synthesis method. Is selected from the generated combination of predicted adjacent regions,
Generate one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and generate the prediction signal by processing the candidate prediction signal using a predetermined synthesis method An image predictive decoding apparatus characterized by:
前記予測信号生成手段は、時間または空間のいずれかあるいは時空間の位置を含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項8から10のいずれか1項に記載の画像予測復号装置。   The said prediction signal production | generation means selects a prediction adjacent area | region using the coordinate information containing either the time or space, or the position of time and space, The Claim 1 characterized by the above-mentioned. Image predictive decoding apparatus. 前記予測信号生成手段は、予測隣接領域が属する参照画像の識別番号を含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項8から10のいずれか1項に記載の画像予測復号装置。   The image according to any one of claims 8 to 10, wherein the prediction signal generation unit selects a prediction adjacent region using coordinate information including an identification number of a reference image to which the prediction adjacent region belongs. Predictive decoding device. 前記予測信号生成手段は、予測隣接領域が属する参照画像上の空間位置を含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項7から9のいずれか1項に記載の画像予測復号装置。   The said prediction signal production | generation means selects a prediction adjacent area | region using the coordinate information containing the spatial position on the reference image to which a prediction adjacent area | region belongs, The one of Claim 7 to 9 characterized by the above-mentioned. Image predictive decoding apparatus. 前記予測信号生成手段は、前記対象領域と前記予測隣接領域との間の空間的な位置関係を示す動きベクトルを含んだ座標情報を用いて予測隣接領域を選択することを特徴とする請求項8から10のいずれか1項に記載の画像予測復号装置。   9. The prediction signal generation unit selects a prediction adjacent area using coordinate information including a motion vector indicating a spatial positional relationship between the target area and the prediction adjacent area. The image predictive decoding device according to any one of 1 to 10. 入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化方法。
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step,
The predicted signal generation step includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
Using at least coordinate information indicating the position of the predicted adjacent area, and selecting one or more predicted adjacent areas from the plurality of searched predicted adjacent areas;
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive encoding method.
圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、
前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、
前記予測信号生成ステップは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号方法。
A data decoding step for decoding encoded data of a residual signal related to a target region to be processed in the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the signal obtained by decoding in the data decoding step;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
A reproduction image signal generation step of generating a reproduction image signal by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step, and
The predicted signal generation step includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
One or more predictions from the searched plurality of predicted neighboring areas using coordinate information indicating the position of at least one of two or more arbitrary predicted prediction neighboring areas including at least one of the searched plurality of predicted neighboring areas Select the adjacent area,
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive decoding method.
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、
前記予測信号生成モジュールは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化プログラム。
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module;
The prediction signal generation module includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
Using at least coordinate information indicating the position of the predicted adjacent area, and selecting one or more predicted adjacent areas from the plurality of searched predicted adjacent areas;
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive encoding program.
圧縮データ内にある処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、
前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、
前記予測信号生成モジュールは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域を少なくとも1つ含む、2つ以上の任意の予少なくとも前記予測隣接領域の位置を示す座標情報を用いて、前記探索した複数の予測隣接領域から1つ以上の予測隣接領域を選択し、
前記選択した予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、前記候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号プログラム。
A data decoding module that decodes encoded data of a residual signal related to a target region to be processed in the compressed data;
A residual signal restoration module for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding module;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
A reproduction image signal generation module that generates a reproduction image signal by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
The prediction signal generation module includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
One or more predictions from the searched plurality of predicted neighboring areas using coordinate information indicating the position of at least one of two or more arbitrary predicted prediction neighboring areas including at least one of the searched plurality of predicted neighboring areas Select the adjacent area,
One or more candidate prediction signals for the target pixel signal are generated based on the selected prediction adjacent region, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method. An image predictive decoding program.
JP2007133315A 2007-04-09 2007-05-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program Active JP5372341B2 (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP2007133315A JP5372341B2 (en) 2007-05-18 2007-05-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
CN2008800114819A CN101653009B (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/decoding device, image prediction/decoding method
EP12189422.4A EP2571272B1 (en) 2007-04-09 2008-04-08 Image coding using template matching
BRPI0810924A BRPI0810924A2 (en) 2007-04-09 2008-04-08 image prediction / coding device, image prediction / coding method, image prediction / coding program, image prediction / coding device, image prediction / coding method and image prediction / coding program
CN201310244589.5A CN103354613B (en) 2007-04-09 2008-04-08 Image prediction encoding device, image prediction/encoding method, image prediction/decoding device and image prediction decoding method
EP11190490A EP2453655A1 (en) 2007-04-09 2008-04-08 Image coding using template matching
CN201410252678.9A CN104023242B (en) 2007-04-09 2008-04-08 Image prediction encoding device and method, image prediction/decoding device and method
PCT/JP2008/056950 WO2008126843A1 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
US12/595,242 US9031130B2 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
EP08740053A EP2154901A4 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
CN201410253164.5A CN103997655B (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method,image prediction/decoding device, image prediction/decoding method
KR1020097022333A KR20090132629A (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
KR1020117012289A KR101475365B1 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
TW097112868A TWI435609B (en) 2007-04-09 2008-04-09 Image predictive coding apparatus, image predictive coding method, image predictive coding program, image predictive decoding apparatus, image predictive decoding method, and image predictive decoding program
RU2011147926/08A RU2011147926A (en) 2007-04-09 2011-11-24 DEVICE FOR CODING / PREDICTING AN IMAGE, METHOD FOR CODING / PREDICTING AN IMAGE, PROGRAM FOR CODING / PREDICTING AN IMAGE, DEVICE FOR DECODING / PICTURE OF A DECORATING / DECORATION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007133315A JP5372341B2 (en) 2007-05-18 2007-05-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Publications (2)

Publication Number Publication Date
JP2008289005A true JP2008289005A (en) 2008-11-27
JP5372341B2 JP5372341B2 (en) 2013-12-18

Family

ID=40148286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007133315A Active JP5372341B2 (en) 2007-04-09 2007-05-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Country Status (1)

Country Link
JP (1) JP5372341B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012532501A (en) * 2009-07-02 2012-12-13 クゥアルコム・インコーポレイテッド Template matching for video coding
JP2013539935A (en) * 2010-09-10 2013-10-28 トムソン ライセンシング Coding links to reference blocks in video compression with image content-based search and ranking
JP2015530841A (en) * 2012-09-26 2015-10-15 トムソン ライセンシングThomson Licensing Inter-picture prediction method and device, and corresponding encoding method and apparatus
US9338477B2 (en) 2010-09-10 2016-05-10 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example-based data pruning using intra-frame patch similarity
US9544598B2 (en) 2010-09-10 2017-01-10 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
US9602814B2 (en) 2010-01-22 2017-03-21 Thomson Licensing Methods and apparatus for sampling-based super resolution video encoding and decoding
US9813707B2 (en) 2010-01-22 2017-11-07 Thomson Licensing Dtv Data pruning for video compression using example-based super-resolution

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (en) * 1988-08-26 1990-03-02 Fujitsu Ltd Compensating/predicting/encoding system for moving image
JP2001028756A (en) * 1999-06-07 2001-01-30 Lucent Technol Inc Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
WO2007004678A1 (en) * 2005-07-05 2007-01-11 Ntt Docomo, Inc. Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (en) * 1988-08-26 1990-03-02 Fujitsu Ltd Compensating/predicting/encoding system for moving image
JP2001028756A (en) * 1999-06-07 2001-01-30 Lucent Technol Inc Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2007503777A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
WO2007004678A1 (en) * 2005-07-05 2007-01-11 Ntt Docomo, Inc. Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
JPN6012058889; Gary J. Sullivan: 'Multi-hypothesis motion compensation for low bit-rate video coding' IEEE International Conference on Acoustics, Speech, and Signal Processing, 1993. ICASSP-93. Vol.5, 19930427, p.437-440, IEEE *
JPN6012058891; Markus Flierl et al.: 'Rate-Constrained Multihypothesis Prediction for Motion-Compensated Video Compression' IEEE Transactions on Circuits and Systems for Video Technology Vol.12, No.11, 200211, p.957-969, IEEE *
JPN6012058893; Thiow Keng Tan et al.: 'Intra Prediction by Template Matching' 2006 IEEE International Conference on Image Processing , 20061008, p.1693-1696, IEEE *
JPN6012058895; Johannes Balle and Mathias Wien: 'Extended Texture Prediction for H.264 Intra Coding' ITU-Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group ( , 200701, ITU-T *
JPN6012058897; Siu-Leong Yu and Christos Chrysafis: 'New Intra Prediction using Intra-Macroblock Motion Compensation' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) 3rd , 200205, ITU-T *
JPN6012058898; Kazuo Sugimoto et al.: 'Inter frame coding with template matching spatio-temporal prediction' 2004 International Conference on Image Processing, 2004. ICIP '04. Vol.1, 20041024, p.465-468, IEEE *
JPN6012058915; Markus Flierl and Bernd Girod: 'Generalized B Pictures and the Draft H.264/AVC Video-Compression Standard' IEEE Transactions on Circuits and Systems for Video Technology Vol.13, No.7, 200307, p.587-597, IEEE *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012532501A (en) * 2009-07-02 2012-12-13 クゥアルコム・インコーポレイテッド Template matching for video coding
JP2014064301A (en) * 2009-07-02 2014-04-10 Qualcomm Incorporated Template matching for video coding
US8873626B2 (en) 2009-07-02 2014-10-28 Qualcomm Incorporated Template matching for video coding
US9602814B2 (en) 2010-01-22 2017-03-21 Thomson Licensing Methods and apparatus for sampling-based super resolution video encoding and decoding
US9813707B2 (en) 2010-01-22 2017-11-07 Thomson Licensing Dtv Data pruning for video compression using example-based super-resolution
JP2013539935A (en) * 2010-09-10 2013-10-28 トムソン ライセンシング Coding links to reference blocks in video compression with image content-based search and ranking
US9338477B2 (en) 2010-09-10 2016-05-10 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example-based data pruning using intra-frame patch similarity
US9544598B2 (en) 2010-09-10 2017-01-10 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
JP2015530841A (en) * 2012-09-26 2015-10-15 トムソン ライセンシングThomson Licensing Inter-picture prediction method and device, and corresponding encoding method and apparatus

Also Published As

Publication number Publication date
JP5372341B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5406465B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
KR101475365B1 (en) Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
AU2017258876B2 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
JP6559309B2 (en) Image predictive decoding method
JP4994767B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5372341B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2009017534A (en) Image predictive coding apparatus, image predictive decoding apparatus, image predictive coding method, image predictive decoding method, image predictive coding program and image predictive decoding program
JP5922281B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method
JP5372352B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5533885B2 (en) Moving picture encoding apparatus and moving picture decoding apparatus
JP6134418B2 (en) Moving picture predictive decoding apparatus and moving picture predictive decoding method
JP5736083B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5668169B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5642305B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5415495B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R150 Certificate of patent or registration of utility model

Ref document number: 5372341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250