JP2008283662A - Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction/decoding program - Google Patents

Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction/decoding program Download PDF

Info

Publication number
JP2008283662A
JP2008283662A JP2007241242A JP2007241242A JP2008283662A JP 2008283662 A JP2008283662 A JP 2008283662A JP 2007241242 A JP2007241242 A JP 2007241242A JP 2007241242 A JP2007241242 A JP 2007241242A JP 2008283662 A JP2008283662 A JP 2008283662A
Authority
JP
Japan
Prior art keywords
signal
prediction
adjacent
target
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007241242A
Other languages
Japanese (ja)
Other versions
JP5372352B2 (en
Inventor
Yoshinori Suzuki
芳典 鈴木
Chunsen Bun
チュンセン ブン
Thiow Keng Tan
ティオ ケン タン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007241242A priority Critical patent/JP5372352B2/en
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to CN2008800114819A priority patent/CN101653009B/en
Priority to PCT/JP2008/056950 priority patent/WO2008126843A1/en
Priority to EP08740053A priority patent/EP2154901A4/en
Priority to US12/595,242 priority patent/US9031130B2/en
Priority to EP11190490A priority patent/EP2453655A1/en
Priority to CN201410253164.5A priority patent/CN103997655B/en
Priority to KR1020097022333A priority patent/KR20090132629A/en
Priority to KR1020117012289A priority patent/KR101475365B1/en
Priority to BRPI0810924A priority patent/BRPI0810924A2/en
Priority to EP12189422.4A priority patent/EP2571272B1/en
Priority to CN201410252678.9A priority patent/CN104023242B/en
Priority to CN201310244589.5A priority patent/CN103354613B/en
Priority to TW097112868A priority patent/TWI435609B/en
Publication of JP2008283662A publication Critical patent/JP2008283662A/en
Priority to RU2011147926/08A priority patent/RU2011147926A/en
Application granted granted Critical
Publication of JP5372352B2 publication Critical patent/JP5372352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image prediction/encoding device, an image prediction/encoding method, an image prediction/encoding program, an image prediction/decoding device, an image prediction/decoding method, and an image prediction/decoding program which selects a plurality of candidate prediction signals without increasing an information amount. <P>SOLUTION: A weighting device 234 and an adder 235 perform a process, averaging, for example, of pixel signals extracted by a prediction adjacent region acquisition device 232 by using a predetermined synthesis method so as to generate a comparative signal for an adjacent pixel signal for each of combinations. A comparison/selection device 236 selects a combination having a high correlation between a comparison signal generated by the weighting device 234 and an adjacent pixel signal acquired by an object adjacent region acquisition unit 233. A prediction region acquisition unit 204, a weighting unit 205, and an adder 206 generate a candidate prediction signal and process it by using the predetermined synthesis method so as to generate a prediction signal. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムに関するもので、とりわけ、画像合成方法を用いて予測符号化および復号する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムに関するものである。   The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program. The present invention relates to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program.

静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。   In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG-1 to 4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.

これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その生成された予測信号を対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。   In these encoding methods, encoding / decoding processing is performed after an image to be encoded is divided into a plurality of blocks. In predictive coding within a screen, a prediction signal is generated using an adjacent previously reproduced image signal (reconstructed compressed image data) in the same screen as the target block, and the generated A differential signal obtained by subtracting the prediction signal from the signal of the target block is encoded. In predictive coding between screens, the adjacent reproduced image signal in the screen different from the target block is referred to, the motion is corrected, the predicted signal is generated, and the predicted signal is subtracted from the signal of the target block. The difference signal is encoded.

例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図14は、ITUH.264に用いられる画面内予測方法を説明するための模式図である。図14(A)において、対象ブロック1702は符号化の対象となるブロックであり、その対象ブロック1702の境界に隣接する画素A〜Mからなる画素群1701は隣接領域であり、過去の処理において既に再生された画像信号である。   For example, H.M. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 14 shows ITUH. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 14A, a target block 1702 is a block to be encoded, and a pixel group 1701 composed of pixels A to M adjacent to the boundary of the target block 1702 is an adjacent region. It is the reproduced image signal.

この場合、対象ブロック1702の真上にある隣接画素である画素群1701を下方に引き伸ばして予測信号を生成する。また図14(B)では、対象ブロック1704の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。このように図14(A)から(I)に示す方法で生成された9つの予測信号のそれぞれを対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。   In this case, a prediction signal is generated by extending a pixel group 1701 that is an adjacent pixel immediately above the target block 1702 downward. In FIG. 14B, the already reproduced pixels (I to L) on the left of the target block 1704 are stretched to the right to generate a prediction signal. Thus, the difference between each of the nine prediction signals generated by the method shown in FIGS. 14A to 14I and the pixel signal of the target block is taken, and the one with the smallest difference value is set as the optimum prediction signal. . As described above, a prediction signal can be generated by extrapolating pixels. The above contents are described in Patent Document 1 below.

通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号を符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。図15は、ブロックマッチング処理を説明するための模式図である。ここでは、符号化対象の画面1401上の対象ブロック1402を例に予測信号の生成手順を説明する。図15(a)における画面1403は既に再生済みの画面であり、破線で示した領域1404は対象ブロック1402と空間的に同一位置の領域である。ブロックマッチングでは、領域1404を囲む探索範囲1405を設定し、この探索範囲の画素信号から対象ブロック1402の画素信号との絶対値誤差和が最小となる領域1406を検出する。領域1406の画素信号が予測信号となり、領域1404から領域1406への変位量が動きベクトルとして検出される。ITUH.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。ITUH.264の予測タイプについては、例えば特許文献2に記載されている。   In normal inter-picture prediction encoding, a prediction signal is generated by a method in which a signal similar to the pixel signal is searched from an already reproduced screen for a block to be encoded. Then, a motion vector, which is a spatial displacement amount between the target block and a region formed by the searched signal, and a residual signal between the pixel signal and the prediction signal of the target block are encoded. Such a method of searching for a motion vector for each block is called block matching. FIG. 15 is a schematic diagram for explaining the block matching process. Here, a procedure for generating a prediction signal will be described using the target block 1402 on the encoding target screen 1401 as an example. A screen 1403 in FIG. 15A is a screen that has already been reproduced, and a region 1404 indicated by a broken line is a region in the same spatial position as the target block 1402. In block matching, a search range 1405 surrounding the region 1404 is set, and a region 1406 where the absolute value error sum with the pixel signal of the target block 1402 is minimized is detected from the pixel signals in this search range. A pixel signal in the region 1406 becomes a prediction signal, and a displacement amount from the region 1404 to the region 1406 is detected as a motion vector. ITUH. H.264 prepares a plurality of prediction types having different block sizes for encoding motion vectors in order to cope with changes in local features of an image. ITUH. H.264 prediction types are described in Patent Document 2, for example.

また、動画像データの圧縮符号化では、各フレームの符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測、第2の手法は、再生順で未来の再生済み画面を参照して後方向予測、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。
米国特許公報第6765964号明細書 米国特許公報第7003035号明細書 米国特許公報第6259739号明細書
In the compression encoding of moving image data, the encoding order of each frame may be arbitrary. For this reason, there are three types of coding order methods for inter-screen prediction in which a prediction signal is generated with reference to a reproduced screen. The first method refers to forward prediction in which a prediction signal is generated with reference to a previously played screen in the playback order, and the second method refers to backward prediction with reference to a future played screen in the playback order. The method 3 is bidirectional prediction in which both forward prediction and backward prediction are performed and two prediction signals are averaged. About the kind of prediction between screens, it describes in patent document 3, for example.
US Pat. No. 6,765,964 US Patent Publication No. 7003035 US Pat. No. 6,259,739

従来技術では、符号化による歪(例えば量子化雑音)を含む再生画素値をコピーすることにより各画素の予測信号を生成するため、予測信号も符号化歪を含むことになる。このように符号化歪により汚された予測信号は、残差信号の符号量増加や再生画質劣化など符号化効率を低下させる要因となる。   In the prior art, since a predicted signal for each pixel is generated by copying a reproduced pixel value including distortion due to encoding (for example, quantization noise), the predicted signal also includes encoding distortion. Thus, the prediction signal contaminated by the coding distortion becomes a factor of lowering the coding efficiency such as an increase in the code amount of the residual signal and deterioration in reproduction image quality.

符号化歪の影響は予測信号の平滑化にて抑制可能であるが、平滑化の対象となる複数の候補予測信号を指示するための付加情報が必要となり、情報量が多くなる。   Although the influence of coding distortion can be suppressed by smoothing the prediction signal, additional information for indicating a plurality of candidate prediction signals to be smoothed is required, and the amount of information increases.

そこで、本発明では、情報量を多くすることなく複数の候補予測信号を選択する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラムを提供することを目的とする。   Therefore, in the present invention, an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image that select a plurality of candidate prediction signals without increasing the amount of information An object is to provide a predictive decoding program.

上述の課題を解決するために、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In order to solve the above-described problem, an image predictive coding apparatus according to the present invention includes an area dividing unit that divides an input image into a plurality of areas, and a processing target of the plurality of areas divided by the area dividing unit. Prediction signal generation means for generating a prediction signal for the target pixel signal in the target area, and residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal; Encoding means for encoding the residual signal generated by the residual signal generating means, wherein the prediction signal generating means is an adjacent pixel that has already been reproduced and is adjacent to a target area composed of the target pixel signal. A plurality of predicted adjacent areas having a high correlation with a target adjacent area made of a signal are searched from a search area made of an already-reproduced image, and include at least one of the searched plurality of predicted adjacent areas Two or more combinations of predicted adjacent regions are derived, and pixel signals of predicted adjacent regions belonging to the combination are processed using a predetermined synthesis method, thereby generating a comparison signal for the adjacent pixel signal for each combination. Selecting a combination having a high correlation between the comparison signal and the adjacent pixel signal, and generating one or more candidate prediction signals of the target pixel signal based on a prediction adjacent region belonging to the selected combination, A configuration is provided in which the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method.

この発明によれば、対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、比較信号と隣接画素信号との相関が高い組み合わせを選択し、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。このように生成された予測信号と対象画素信号との残差信号を生成し、生成された残差信号を符号化する。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of the already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal are searched from the search area composed of the already reproduced image, By deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas, and processing the pixel signals of the predicted adjacent areas belonging to the combination using a predetermined synthesis method The comparison signal for the adjacent pixel signal is generated for each combination. Then, a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected, and one or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent region belonging to the selected combination, and the candidate prediction signal is preliminarily generated. A prediction signal is generated by processing using a predetermined synthesis method. A residual signal between the prediction signal generated in this way and the target pixel signal is generated, and the generated residual signal is encoded.

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本発明の画像予測復号化装置の予測信号生成手段は、前記比較信号と前記隣接画素信号との差分の絶対値和が小さい組み合わせを選択することが好ましい。   Moreover, it is preferable that the prediction signal production | generation means of the image predictive decoding apparatus of this invention selects the combination with a small absolute value sum of the difference of the said comparison signal and the said adjacent pixel signal.

この発明によれば、比較信号と隣接画素信号との差分の絶対値和が小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   According to the present invention, it is possible to select a combination of candidate prediction signals that is more suitable for smoothing by selecting a combination having a small sum of absolute values of differences between the comparison signal and the adjacent pixel signal.

また、本発明の画像予測復号化装置の予測信号生成手段は、前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記比較信号を生成することが好ましい。   In addition, it is preferable that the prediction signal generation unit of the image predictive decoding apparatus according to the present invention generates the comparison signal by weighted averaging pixel signals of prediction adjacent regions belonging to the combination.

この発明によれば、組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   According to the present invention, an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing can be obtained by generating a comparison signal by weighted averaging pixel signals of predicted adjacent regions belonging to the combination. Can be generated.

また、本発明の画像予測復号化装置の予測信号生成手段において、前記予測隣接領域の組み合わせが、前記対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むことが好ましく、さらに前記nの値が0以上の整数であることが好ましい。   Moreover, in the prediction signal generation means of the image predictive decoding device of the present invention, it is preferable that the combination of the prediction adjacent regions includes 2 n prediction adjacent regions in descending order of correlation with the target adjacent region, Further, the value of n is preferably an integer of 0 or more.

この発明によれば、予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。   According to the present invention, the combination of predicted adjacent areas includes 2 n predicted adjacent areas in descending order of the correlation with the target adjacent area, so that only addition and shift operations can be performed, which is simple in implementation. Can be configured.

また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号された信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding apparatus of the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a reproduction residual from the signal decoded by the data decoding unit. A residual signal restoring means for restoring the difference signal, a prediction signal generating means for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating means, and a residual signal restoring means Reconstructed image signal generating means for generating a reconstructed image signal by adding the regenerated residual signal restored in this way, and the prediction signal generating means is an existing signal adjacent to the target area composed of the target pixel signal. A plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of adjacent pixel signals for reproduction are searched from a search area composed of already reproduced images, and the plurality of predicted adjacent areas searched for are searched. By deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the areas, and processing pixel signals of the predicted adjacent areas belonging to the combination using a predetermined synthesis method, for each combination A comparison signal for each of the adjacent pixel signals is generated, a combination having a large correlation between the comparison signal and the adjacent pixel signal is selected, and the target pixel signal candidate is selected based on a predicted adjacent region belonging to the selected combination. One or more prediction signals are generated, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method.

この発明によれば、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号し、復号された信号から再生残差信号を復元するする。一方、処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する。そして、対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索する。探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択する。選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   According to the present invention, the encoded data of the residual signal related to the target region to be processed is decoded from the compressed data, and the reproduction residual signal is restored from the decoded signal. On the other hand, a prediction signal for the target pixel signal in the target region to be processed is generated, and a reproduced image signal is generated by adding the generated prediction signal and the restored reproduction residual signal. Then, a plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of the already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal are searched from the search area composed of the already reproduced image. Deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas, and processing pixel signals of the predicted adjacent areas belonging to the combination using a predetermined synthesis method Thus, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a large correlation between the comparison signal and the adjacent pixel signal is selected. One or more candidate prediction signals of the target pixel signal are generated based on predicted adjacent regions belonging to the selected combination, and a prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method .

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本発明の画像予測復号装置の前記予測信号生成手段において、前記隣接画素信号に対する比較信号を生成し、該比較信号と前記隣接画素信号との差分の絶対値和が小さい組み合わせを選択することが好ましい。   In the prediction signal generating means of the image predictive decoding apparatus of the present invention, a comparison signal for the adjacent pixel signal is generated, and a combination having a small absolute value sum of differences between the comparison signal and the adjacent pixel signal is selected. Is preferred.

この発明によれば、比較信号と隣接画素信号との差分の絶対値和が小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   According to the present invention, it is possible to select a combination of candidate prediction signals that is more suitable for smoothing by selecting a combination having a small sum of absolute values of differences between the comparison signal and the adjacent pixel signal.

また、本発明の画像予測復号装置の前記予測信号生成手段において、前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記比較信号を生成することが好ましい。   Moreover, it is preferable that the said prediction signal production | generation means of the image predictive decoding apparatus of this invention produces | generates the said comparison signal by carrying out the weighted average of the pixel signal of the prediction adjacent area | region which belongs to the said combination.

この発明によれば、組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   According to the present invention, an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing can be obtained by generating a comparison signal by weighted averaging pixel signals of predicted adjacent regions belonging to the combination. Can be generated.

また、本発明の画像予測復号装置の前記予測信号生成手段において、前記予測隣接領域の組み合わせが、前記対象領域との相関が高い順に2のn乗個の予測隣接領域を含むことが好ましく、さらに前記nの値が0以上の整数であることが好ましい。   In the prediction signal generation unit of the image predictive decoding device of the present invention, it is preferable that the combination of the prediction adjacent regions includes 2 n prediction adjacent regions in descending order of correlation with the target region, It is preferable that the value of n is an integer of 0 or more.

この発明によれば、予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。   According to the present invention, the combination of predicted adjacent areas includes 2 n predicted adjacent areas in descending order of the correlation with the target adjacent area, so that only addition and shift operations can be performed, which is simple in implementation. Can be configured.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target among the plurality of regions divided by the region dividing unit. A prediction signal generating means for generating a prediction signal for the signal, a residual signal generating means for generating a residual signal between the prediction signal generated by the prediction signal generating means and the target pixel signal, and the residual signal generating means Encoding means for encoding the residual signal generated by the prediction signal generation means, and the prediction signal generation means includes a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal; A plurality of predicted adjacent areas having a high correlation are searched from a search area composed of already-reproduced images, and the pixel signals of N predicted areas based on the target area among the searched predicted adjacent areas are searched. Alternatively, an evaluation value for evaluating a correlation between the N candidate prediction signals is previously determined using at least two signals from the pixel signals of the prediction adjacent region or both signals of the N predicted adjacent regions searched for. When the evaluation value is smaller than a prescribed threshold value, the prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method.

この発明によれば、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、探索した複数の予測隣接領域のうち、対象領域に基づいたN個の予測領域の画素信号または探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出する。そして、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。生成した予測信号を用いて対象画素信号との残差信号を生成し、残差信号を符号化する。   According to the present invention, a plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of the already reproduced adjacent pixel signals adjacent to the target area are searched from the search area composed of the already reproduced image, and the plurality of searched predictions Among the adjacent regions, at least two signals are used from the pixel signals of the N predicted regions based on the target region or the pixel signals of the predicted adjacent regions of the N predicted adjacent regions searched, or both signals, An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method. When the evaluation value is smaller than a prescribed threshold value, a prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method. A residual signal with the target pixel signal is generated using the generated prediction signal, and the residual signal is encoded.

これにより、複数の候補予測信号に基づいて適切な予測信号を生成することができる。候補予測信号の雑音成分だけが異なり信号成分が類似している信号に対して、特に効果がある。   Thereby, an appropriate prediction signal can be generated based on a plurality of candidate prediction signals. This is particularly effective for signals that differ only in the noise component of the candidate prediction signal but have similar signal components.

また、本発明の画像予測符号化装置において前記予測信号生成手段は、前記Nの値として複数の候補を用意し、N値の候補の最大値について前記評価値を算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成し、該評価値が前記閾値より大きい場合には、N値を減算することで次に大きい値に更新し、前記評価値の算出と規定の閾値との比較を再度行うことが好ましい。   In the image predictive coding apparatus of the present invention, the prediction signal generation unit prepares a plurality of candidates as the value of N, calculates the evaluation value for the maximum value of the N value candidates, and the evaluation value defines A prediction signal is generated by processing the N candidate prediction signals by using a predetermined synthesis method, and when the evaluation value is greater than the threshold, the N value is subtracted. Thus, it is preferable to update to the next largest value and to compare the calculation of the evaluation value with a specified threshold value again.

この発明によれば、評価値が閾値より大きい場合には、N値を減算することで次に大きい値に更新し、評価値の算出と規定の閾値との比較を再度行うことで、有効な候補予測信号の数を選択することができる。   According to the present invention, when the evaluation value is larger than the threshold value, the N value is subtracted to be updated to the next larger value, and the evaluation value is calculated and compared with the specified threshold value again. The number of candidate prediction signals can be selected.

また、本発明の画像予測符号化装置において前記予測信号生成手段は、前記探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは前記画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を前記評価値とすることが好ましい。   Further, in the image predictive coding apparatus of the present invention, the prediction signal generation means includes a pixel signal of a prediction area adjacent to a prediction adjacent area having the highest correlation with the target adjacent area among the N predicted adjacent areas searched for. The pixel signal of the prediction region adjacent to the prediction adjacent region where the correlation between the target adjacent region is the Nth lowest, or the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region and the target adjacent region is Nth It is preferable to calculate the absolute value sum of the difference between the pixel signals in the prediction adjacent region that is very low or the signal that combines the pixel signals, and use the absolute value sum of the differences as the evaluation value.

この発明によれば、探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を評価値とする。これにより、適切な評価値を算出することができる。   According to the present invention, of the N predicted adjacent areas searched for, the prediction is the Nth lowest correlation between the pixel signal of the predicted area adjacent to the predicted adjacent area having the highest correlation with the target adjacent area and the target adjacent area. The pixel signal of the prediction adjacent region adjacent to the adjacent region, the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region, and the pixel signal of the prediction adjacent region having the lowest correlation between the target adjacent region and the pixel signal, respectively Is calculated as an evaluation value. Thereby, an appropriate evaluation value can be calculated.

また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding apparatus of the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding unit. A residual signal restoring means for restoring a reproduction residual signal from the prediction signal, a prediction signal generating means for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating means, and the residual signal A reproduction image signal generation unit that generates a reproduction image signal by adding the reproduction residual signal restored by the restoration unit, and the prediction signal generation unit includes a target region including the target pixel signal. A plurality of predicted adjacent areas having a high correlation with a target adjacent area consisting of adjacent already-reproduced adjacent pixel signals are searched from a search area consisting of already-reproduced images. Among the measurement adjacent regions, at least two signals are obtained from the pixel signals of the N prediction regions based on the target region and / or the pixel signals of the prediction adjacent region among the searched N prediction adjacent regions. An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method, and when the evaluation value is smaller than a predetermined threshold, the N candidate prediction signals are determined in advance. A configuration is provided in which a prediction signal is generated by processing using a synthesis method.

この発明によれば、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号し、復号された信号から再生残差信号を復元する。一方、処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する。   According to the present invention, the encoded data of the residual signal related to the target region to be processed is decoded from the compressed data, and the reproduction residual signal is restored from the decoded signal. On the other hand, a prediction signal for the target pixel signal in the target region to be processed is generated, and a reproduced image signal is generated by adding the generated prediction signal and the restored reproduction residual signal.

一方、予測信号を生成するに際して、以下の処理を行う。対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索する。そして、探索した複数の予測隣接領域のうち、対象領域に基づいたN個の予測領域の画素信号または探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出する。そして、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   On the other hand, when generating a prediction signal, the following processing is performed. A plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of the already reproduced adjacent pixel signals adjacent to the target area are searched from the search area including the previously reproduced image. Then, at least 2 from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the searched N prediction adjacent regions, or both signals among the plurality of prediction adjacent regions searched. An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by using a predetermined method. When the evaluation value is smaller than a prescribed threshold value, a prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method.

これにより、複数の候補予測信号に基づいて適切な予測信号を生成することができる。候補予測信号の雑音成分だけが異なり信号成分が類似している信号に対して、特に効果がある。   Thereby, an appropriate prediction signal can be generated based on a plurality of candidate prediction signals. This is particularly effective for signals that differ only in the noise component of the candidate prediction signal but have similar signal components.

また、本発明の画像予測復号装置において前記予測信号生成手段は、前記Nの値として複数の候補を用意し、N値の候補の最大値について前記評価値を算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成し、該評価値が前記閾値より大きい場合には、N値を減算することで次に大きい値に更新して前記評価値の算出と規定の閾値との比較を再度行うことが好ましい。   In the image predictive decoding device of the present invention, the prediction signal generation unit prepares a plurality of candidates as the value of N, calculates the evaluation value for the maximum value of the N value candidates, and the evaluation value is defined. A prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method when the threshold value is smaller than the threshold value, and the N value is subtracted when the evaluation value is larger than the threshold value. Preferably, the evaluation value is updated to the next largest value, and the evaluation value is compared with a prescribed threshold value again.

この発明によれば、評価値が閾値より大きい場合には、N値を減算することで次に大きい値に更新し、評価値の算出と規定の閾値との比較を再度行うことで、有効な候補予測信号の数を選択することができる。   According to the present invention, when the evaluation value is larger than the threshold value, the N value is subtracted to be updated to the next larger value, and the evaluation value is calculated and compared with the specified threshold value again. The number of candidate prediction signals can be selected.

また、本発明の画像予測復号装置において前記予測信号生成手段は、前記探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関が最も低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは前記画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を前記評価値とすることが好ましい。   Further, in the image predictive decoding device of the present invention, the prediction signal generation means includes a pixel signal of a prediction area adjacent to a prediction adjacent area having the highest correlation with the target adjacent area among the N predicted adjacent areas searched for. Prediction of the pixel signal of the prediction region adjacent to the prediction adjacent region having the lowest correlation with the target adjacent region, or the prediction of the Nth lowest correlation between the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region and the target adjacent region It is preferable to calculate an absolute value sum of differences between pixel signals of adjacent regions or signals obtained by combining the pixel signals, and use the sum of absolute values of the differences as the evaluation value.

この発明によれば、探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を評価値とする。これにより、適切な評価値を算出することができる。   According to the present invention, of the N predicted adjacent areas searched for, the prediction is the Nth lowest correlation between the pixel signal of the predicted area adjacent to the predicted adjacent area having the highest correlation with the target adjacent area and the target adjacent area. The pixel signal of the prediction adjacent region adjacent to the adjacent region, the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region, and the pixel signal of the prediction adjacent region having the lowest correlation between the target adjacent region and the pixel signal, respectively Is calculated as an evaluation value. Thereby, an appropriate evaluation value can be calculated.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、前記対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target among the plurality of regions divided by the region dividing unit. A prediction signal generating means for generating a prediction signal for the signal, a residual signal generating means for generating a residual signal between the prediction signal generated by the prediction signal generating means and the target pixel signal, and the residual signal generating means Encoding means for encoding the residual signal generated by the prediction signal generation means, wherein the prediction signal generation means includes a plurality of predicted adjacent areas having the same shape as the target adjacent area from a search area composed of already reproduced images. Obtaining a combination of arbitrary predicted adjacent areas including two or more of the predicted adjacent areas from among the plurality of acquired predicted adjacent areas, and the prediction adjacent areas belonging to the combination are derived. Deriving two or more sets of weighting factors for weighted average of the elementary signals, and for the combination, weighted averaging of the pixel signals of the prediction adjacent region belonging to the combination using the set of multiple weighting factors, Two or more comparison signals for the adjacent pixel signal are generated, a set of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, and based on the predicted adjacent region belonging to the combination, A configuration is provided in which two or more candidate prediction signals of the target pixel signal are generated, and a prediction signal is generated by weighted averaging the candidate prediction signals using the selected set of weighting coefficients.

この発明によれば、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出する。そして、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、これら組み合わせについて、該複数重み係数の組を用いてこれら組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。つぎに、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。そして、生成した予測信号を用いて対象画素信号との残差信号を生成し、残差信号を符号化する。これにより、対象ブロックごとに、付加情報なしで重み係数の組を選択することが可能となる。   According to the present invention, a plurality of predicted adjacent areas having the same shape as the target adjacent area are acquired from the search area including the already-reproduced images, and two or more predicted adjacent areas are acquired from the acquired predicted adjacent areas. Including any predictive adjacent region combination. Then, two or more sets of weighting factors for weighted averaging of the pixel signals of the predicted adjacent regions belonging to the combination are derived, and for these combinations, the prediction adjacent regions belonging to these combinations are derived using the set of multiple weighting factors. Two or more comparison signals for adjacent pixel signals are generated by weighted averaging of the pixel signals. Next, a pair of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, and two or more candidate prediction signals for the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination. The prediction signal is generated by performing weighted averaging of the candidate prediction signal using the selected set of weighting factors. Then, a residual signal with the target pixel signal is generated using the generated prediction signal, and the residual signal is encoded. This makes it possible to select a set of weighting factors without additional information for each target block.

また、本発明の画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、前記予測信号生成手段は、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing unit. Prediction signal generation means for generating a prediction signal for the signal, residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal, and the residual signal generation means Encoding means for encoding the residual signal generated by the prediction signal generation means, wherein the prediction signal generation means includes a plurality of predicted adjacent areas having the same shape as the target adjacent area from a search area composed of already reproduced images. Obtaining two or more combinations of arbitrary predicted adjacent areas including at least one of the plurality of acquired predicted adjacent areas, and regarding a combination including two or more predicted adjacent areas, By deriving two or more sets of weighting factors for weighted average of pixel signals of predicted adjacent regions belonging to the matching, and weighted average of pixel signals of predicted adjacent regions using the plurality of sets of weighting factors, Two or more comparison signals for the adjacent pixel signal are generated, a set of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, and the pixels in the predicted adjacent region belonging to the combination for the plurality of combinations Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the predicted adjacent region using the set of selected weighting factors, and the correlation between the comparison signal and the adjacent pixel signal A combination having a high value is selected, and one candidate prediction signal of the target pixel signal is selected from the already reproduced image based on a prediction adjacent region belonging to the selected combination. And above it generates, the candidate prediction signal has a structure for generating a predictive signal by averaging weighted with the selected set of weighting factors previously for the selected combination.

この発明によれば、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。つぎに、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と隣接画素信号との相関が高い組み合わせを選択する。そして、該選択した組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。そして、生成した予測信号を用いて対象画素信号との残差信号を生成し、残差信号を符号化する。これにより、対象ブロックごとに、付加情報なしで予測信号生成に有効な候補予測信号の組み合わせおよび重み係数の組を選択することが可能となる。   According to the present invention, a plurality of predicted adjacent areas having the same shape as the target adjacent area are obtained from the search area including the already-reproduced images, and any predicted adjacent area including at least one acquired predicted adjacent area Two or more combinations are derived. Then, for a combination including two or more predicted adjacent areas, two or more weight coefficient sets for weighted averaging of pixel signals of the predicted adjacent areas belonging to the combination are derived, and the plurality of weight coefficient sets are used. Two or more comparison signals for the adjacent pixel signals are generated by weighted averaging of the pixel signals in the predicted adjacent region. Next, a pair of weighting factors having a high correlation between the comparison signal and the adjacent pixel signal is selected, and for a plurality of combinations, a prediction neighboring region is used by using the set of weighting factors selected from the pixel signals in the prediction adjacent region belonging to the combination. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected. Then, based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is weighted previously selected for the selected combination. A prediction signal is generated by weighted averaging using a set of coefficients. Then, a residual signal with the target pixel signal is generated using the generated prediction signal, and the residual signal is encoded. Thereby, for each target block, it is possible to select a combination of candidate prediction signals and a set of weighting coefficients that are effective for generating a prediction signal without additional information.

また、本発明の画像予測符号化装置において前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう、少なくとも前記重み係数の組の1つを算出することが好ましい   In the image predictive coding device of the present invention, the prediction signal generating means may reduce the weighting coefficient as the sum of absolute values of the differences between the pixel signals of the plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals increases. Preferably at least one of the set of weighting factors is calculated so that it is set

この発明によれば、組み合わせに属する複数の予測隣接領域の画素信号と前接画素信号との差分の絶対値和に基づいて少なくとも重み係数の組の1つを算出することにより、適切な重み係数の組を算出することができる。   According to the present invention, an appropriate weighting factor can be obtained by calculating at least one of the weighting factor sets based on the sum of absolute values of differences between the pixel signals of the plurality of predicted adjacent regions belonging to the combination and the leading pixel signal. Can be calculated.

また、本発明の画像予測符号化装置において前記予測信号生成手段は、前記組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することが好ましい。   Further, in the image predictive coding apparatus according to the present invention, the prediction signal generation unit prepares a set of weighting factors determined in advance according to the number of prediction adjacent regions belonging to the combination, and the set of prepared weighting factors It is preferable to derive at least one set of weighting factors by

この発明によれば、組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   According to the present invention, a set of weighting factors determined according to the number of predicted adjacent regions belonging to the combination is prepared in advance, and at least one set of weighting factors is derived from the set of prepared weighting factors. An appropriate set of weighting factors can be calculated.

また、本発明の画像予測符号化装置において前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することが好ましい。   Further, in the image predictive coding apparatus according to the present invention, the prediction signal generation means is configured to determine a set of weighting coefficients from a sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals. It is preferable to prepare a table and derive at least one set of weighting factors using the correspondence table.

この発明によれば、組み合わせに属する複数の予測隣接領域の画素信号と隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   According to this invention, a correspondence table is prepared in which a set of weighting factors is determined based on the sum of absolute values of differences between pixel signals of a plurality of predicted adjacent regions belonging to a combination and adjacent pixel signals. By deriving a set of weighting factors, an appropriate set of weighting factors can be calculated.

また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding apparatus of the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding unit. A residual signal restoring means for restoring a reproduction residual signal from the prediction signal, a prediction signal generating means for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating means, and the residual signal Reproduction image signal generation means for generating a reproduction image signal by adding the reproduction residual signal restored by the restoration means, and the prediction signal generation means has a prediction neighboring shape having the same shape as the target neighboring region A plurality of regions are acquired from each of the search regions including the already-reproduced images, and an arbitrary combination of predicted adjacent regions including two or more of the acquired plurality of predicted adjacent regions is derived. Deriving two or more sets of weighting factors for weighted averaging pixel signals of predicted adjacent regions belonging to the combination, and using the plurality of weighting factor sets for the combinations, the pixel signals of the predicted adjacent regions belonging to the combination Is used to generate two or more comparison signals for the adjacent pixel signal, select a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal, and generate a prediction adjacent region belonging to the combination. And generating a prediction signal by generating two or more candidate prediction signals of the target pixel signal from the already reproduced image and performing weighted averaging of the candidate prediction signals using the selected set of weighting factors. I have.

この発明によれば、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号し、復号された信号から再生残差信号を復元する。一方、処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する。   According to the present invention, the encoded data of the residual signal related to the target region to be processed is decoded from the compressed data, and the reproduction residual signal is restored from the decoded signal. On the other hand, a prediction signal for the target pixel signal in the target region to be processed is generated, and a reproduced image signal is generated by adding the generated prediction signal and the restored reproduction residual signal.

一方、予測信号を生成するに際して、以下の処理を行う。すなわち、本発明においては、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出する。そして、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、これら組み合わせについて、該複数重み係数の組を用いてこれら組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。つぎに、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。これにより、対象ブロックごとに、付加情報なしで重み係数の組を選択することが可能となる。   On the other hand, when generating a prediction signal, the following processing is performed. That is, in the present invention, a plurality of predicted adjacent areas having the same shape as the target adjacent area are obtained from the search area composed of the already-reproduced images, and two predicted adjacent areas are obtained from the acquired predicted adjacent areas. An arbitrary combination of predicted adjacent regions including the above is derived. Then, two or more sets of weighting factors for weighted averaging of the pixel signals of the predicted adjacent regions belonging to the combination are derived, and for these combinations, the prediction adjacent regions belonging to these combinations are derived using the set of multiple weighting factors. Two or more comparison signals for adjacent pixel signals are generated by weighted averaging of the pixel signals. Next, a pair of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, and two or more candidate prediction signals for the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination. The prediction signal is generated by performing weighted averaging of the candidate prediction signal using the selected set of weighting factors. This makes it possible to select a set of weighting factors without additional information for each target block.

また、本発明の画像予測復号装置は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、前記予測信号生成手段は、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成すること構成を備えている。   In addition, the image predictive decoding apparatus according to the present invention includes a data decoding unit that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding unit. A residual signal restoring means for restoring a reproduction residual signal from the prediction signal, a prediction signal generating means for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating means, and the residual signal A reproduction image signal generation unit that generates a reproduction image signal by adding the reproduction residual signal restored by the restoration unit, and the prediction signal generation unit has the same shape as that of the target adjacent region. A plurality of regions are obtained from each of the search regions made up of already reproduced images, and any combination of predicted adjacent regions including at least one of the acquired plurality of predicted adjacent regions Two or more sets of weight coefficients for deriving a weighted average of pixel signals in the predicted adjacent areas belonging to the combination, for a combination including two or more predicted adjacent areas. Is used to generate two or more comparison signals for the adjacent pixel signals by weighting and averaging the pixel signals of the predicted adjacent region, and select a set of weighting factors having a high correlation between the comparison signals and the adjacent pixel signals. For the plurality of combinations, the pixel signals of the predicted adjacent areas belonging to the combination are weighted and averaged using the selected set of weighting coefficients, and the comparison signal for the adjacent pixel signals is calculated as 2 Two or more generations are selected, a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected, and a predicted adjacent region belonging to the selected combination is selected. Then, one or more candidate prediction signals of the target pixel signal are generated from the already reproduced image, and the candidate prediction signals are weighted and averaged using the previously selected weighting factor pair for the selected combination. Thus, a configuration for generating a prediction signal is provided.

この発明によれば、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号し、復号された信号から再生残差信号を復元する。一方、処理対象である対象領域の対象画素信号に対する予測信号を生成し、生成された予測信号と復元された再生残差信号とを加算することによって、再生画像信号を生成する。   According to the present invention, the encoded data of the residual signal related to the target region to be processed is decoded from the compressed data, and the reproduction residual signal is restored from the decoded signal. On the other hand, a prediction signal for the target pixel signal in the target region to be processed is generated, and a reproduced image signal is generated by adding the generated prediction signal and the restored reproduction residual signal.

一方、予測信号を生成するに際して、以下の処理を行う。すなわち、本発明においては、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。つぎに、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と隣接画素信号との相関が高い組み合わせを選択する。そして、該選択した組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。これにより、対象ブロックごとに、付加情報なしで予測信号生成に有効な候補予測信号の組み合わせおよび重み係数の組を選択することが可能となる。   On the other hand, when generating a prediction signal, the following processing is performed. In other words, in the present invention, an arbitrary predicted adjacent area that includes a plurality of predicted adjacent areas having the same shape as the target adjacent area from a search area that has been reproduced, and includes at least one acquired predicted adjacent area. Two or more combinations of regions are derived. Then, for a combination including two or more predicted adjacent areas, two or more weight coefficient sets for weighted averaging of pixel signals of the predicted adjacent areas belonging to the combination are derived, and the plurality of weight coefficient sets are used. Two or more comparison signals for the adjacent pixel signals are generated by weighted averaging of the pixel signals in the predicted adjacent region. Next, a pair of weighting factors having a high correlation between the comparison signal and the adjacent pixel signal is selected, and for a plurality of combinations, a prediction neighboring region is used by using the set of weighting factors selected from the pixel signals in the prediction adjacent region belonging to the combination. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected. Then, based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is weighted previously selected for the selected combination. A prediction signal is generated by weighted averaging using a set of coefficients. Thereby, for each target block, it is possible to select a combination of candidate prediction signals and a set of weighting coefficients that are effective for generating a prediction signal without additional information.

また、画像予測復号装置において前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう、少なくとも前記重み係数の組の1つを算出することが好ましい。   Further, in the image predictive decoding device, the prediction signal generation means sets a smaller weighting coefficient as the absolute value sum of the differences between the pixel signals of the plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals increases. Preferably, at least one of the set of weighting factors is calculated.

この発明によれば、組み合わせに属する複数の予測隣接領域の画素信号と前接画素信号との差分の絶対値和に基づいて、少なくとも重み係数の組の1つを算出することにより、適切な重み係数の組を算出することができる。   According to the present invention, an appropriate weight is obtained by calculating at least one of the sets of weighting factors based on the sum of absolute values of the differences between the pixel signals of the plurality of predicted adjacent regions belonging to the combination and the preceding pixel signal. A set of coefficients can be calculated.

また、画像予測復号装置において前記予測信号生成手段は、前記組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することが好ましい。   Further, in the image predictive decoding apparatus, the prediction signal generation unit prepares in advance a set of weighting factors determined according to the number of prediction adjacent regions belonging to the combination, and at least one set of weighting factors is provided. It is preferable to derive a set of weighting factors.

この発明によれば、組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   According to the present invention, a set of weighting factors determined according to the number of predicted adjacent regions belonging to the combination is prepared in advance, and at least one set of weighting factors is derived from the set of prepared weighting factors. An appropriate set of weighting factors can be calculated.

また、画像予測復号装置において前記予測信号生成手段は、組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することが好ましい。   Further, in the image predictive decoding apparatus, the prediction signal generation means prepares a correspondence table in which a set of weighting coefficients is determined from a sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to a combination and the adjacent pixel signals, It is preferable to derive at least one set of weighting factors using the correspondence table.

この発明によれば、その組み合わせに属する複数の予測隣接領域の画素信号と隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   According to this invention, a correspondence table is prepared in which a set of weighting factors is determined based on the sum of absolute values of differences between the pixel signals of a plurality of predicted neighboring regions belonging to the combination and the neighboring pixel signals, and at least 1 is used using the correspondence table. By deriving one set of weighting factors, an appropriate set of weighting factors can be calculated.

ところで、本発明は、上記のように画像予測符号化装置または画像予測復号装置の発明として記述できる他に、以下のように、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、画像予測復号プログラムの発明としても記述することができる。これらはカテゴリーが異なるだけで、実質的に同一の発明であり、同様の作用・効果を奏する。   By the way, the present invention can be described as the invention of the image predictive encoding device or the image predictive decoding device as described above, and as described below, the image predictive encoding method, the image predictive decoding method, the image predictive encoding program, It can also be described as an invention of an image predictive decoding program. These are substantially the same inventions only in different categories, and exhibit the same actions and effects.

すなわち、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   That is, the image predictive coding method of the present invention includes a region dividing step for dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step for encoding the residual signal generated by the step, wherein the prediction signal generating step includes a target adjacent region composed of an already reproduced adjacent pixel signal adjacent to the target region composed of the target pixel signal, and A plurality of predicted adjacent areas having a high correlation of Two or more combinations of arbitrary predicted adjacent regions including the same, and processing the pixel signals of the predicted adjacent regions belonging to the combination using a predetermined synthesis method, so that for each combination, A comparison signal is generated, a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected, and one candidate prediction signal of the target pixel signal is selected based on a prediction adjacent region belonging to the selected combination. A configuration for generating a prediction signal by generating the above and processing the candidate prediction signal using a predetermined synthesis method is provided.

また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、前記データ復号ステップにより復号された信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive decoding method of the present invention also includes a data decoding step for decoding encoded data of a residual signal relating to a target region to be processed from compressed data, and a reproduction residual from the signal decoded by the data decoding step. A residual signal restoring step for restoring the difference signal, a prediction signal generating step for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generating step, and the residual signal recovery step. A reproduction image signal generation step for generating a reproduction image signal by adding the reproduction residual signal restored in step S3, and the prediction signal generation step includes an existing region adjacent to the target region including the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of the adjacent pixel signals to be reproduced are searched from the search area composed of the already reproduced images. Then, two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and a pixel signal of the predicted adjacent area belonging to the combination is determined using a predetermined synthesis method By processing, a comparison signal for the adjacent pixel signal is generated for each combination, a combination having a large correlation between the comparison signal and the adjacent pixel signal is selected, and a predicted adjacent region belonging to the selected combination is selected. Based on this, one or more candidate prediction signals for the target pixel signal are generated, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding program of the present invention includes a region dividing module that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by the prediction signal generation module, and the prediction signal generation module includes a target adjacent region composed of an already reproduced adjacent pixel signal adjacent to the target region composed of the target pixel signal; A plurality of predicted adjacent areas having a high correlation of the search area are searched from a search area composed of already reproduced images. By deriving two or more combinations of arbitrary predicted adjacent regions including at least one of them, and processing the pixel signals of the predicted adjacent regions belonging to the combination using a predetermined synthesis method, for each combination A comparison signal for each adjacent pixel signal is generated, a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected, and candidate prediction of the target pixel signal is performed based on a predicted adjacent region belonging to the selected combination. A configuration is provided in which one or more signals are generated, and the prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method.

また、本発明の画像予測復号プログラムは、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、前記データ復号モジュールにより復号された信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive decoding program of the present invention includes a data decoding module that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a reproduction residual from the signal decoded by the data decoding module. A residual signal restoration module that restores a difference signal, a prediction signal generation module that generates a prediction signal for a target pixel signal in the target region, a prediction signal generated by the prediction signal generation module, and the residual signal recovery module. A reconstructed image signal generating module that generates a reconstructed image signal by adding the reconstructed reproduction residual signal, and the prediction signal generating module includes an existing signal adjacent to the target region including the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area composed of adjacent pixel signals to be reproduced are already reproduced images. Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are determined in advance. By generating a comparison signal for the adjacent pixel signal for each combination, selecting a combination having a large correlation between the comparison signal and the adjacent pixel signal, and processing the selected combination. A prediction signal is generated by generating one or more candidate prediction signals of the target pixel signal based on a prediction adjacent region belonging to the target pixel signal and processing the candidate prediction signal using a predetermined synthesis method Yes.

また、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive coding method according to the present invention includes a region dividing step of dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step for encoding the residual signal generated by the step, wherein the prediction signal generating step includes a target adjacent region composed of an already reproduced adjacent pixel signal adjacent to the target region composed of the target pixel signal, and A plurality of predicted adjacent areas having a high correlation between the target areas of the plurality of predicted adjacent areas searched for, The N candidate prediction signals are obtained by using at least two signals from the pixel signals of the N prediction regions based on the pixel signals of the prediction adjacent regions or both of the N prediction adjacent regions searched for. An evaluation value for evaluating a correlation between the N candidate prediction signals is calculated by a predetermined method, and when the evaluation value is smaller than a predetermined threshold, the N candidate prediction signals are processed by using a predetermined synthesis method. A configuration for generating a signal is provided.

また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   The image predictive decoding method of the present invention includes a data decoding step for decoding encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding step. A residual signal restoration step for restoring a reproduction residual signal from the prediction signal, a prediction signal generation step for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generation step, and the residual signal A reproduction image signal generation step of generating a reproduction image signal by adding the reproduction residual signal restored in the restoration step, and the prediction signal generation step is performed on a target region composed of the target pixel signal. A plurality of predicted adjacent regions having a high correlation with the target adjacent region made up of adjacent pre-reproduced adjacent pixel signals are searched for from the pre-reproduced image The pixel signals of N prediction regions based on the target region and / or the pixel signals of the prediction adjacent region among the searched N prediction adjacent regions among the plurality of predicted adjacent regions searched from An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method using at least two signals from the signals of N, and when the evaluation value is smaller than a predetermined threshold, the N A configuration is provided in which a prediction signal is generated by processing each candidate prediction signal using a predetermined synthesis method.

また、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive coding method according to the present invention includes a region dividing step of dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step for encoding the residual signal generated by the prediction signal generation step, wherein the prediction signal generation step includes a predicted adjacent region having the same shape as the target adjacent region adjacent to the target region, which is an already reproduced image. Arbitrary combinations of predicted adjacent areas, each of which is acquired from a plurality of search areas and includes two or more predicted adjacent areas among the acquired predicted adjacent areas Two or more sets of weighting factors for deriving a weighted average of pixel signals of prediction adjacent regions belonging to the combination, and using the plurality of sets of weighting factors for the combination, Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the adjacent region, and a set of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, and the combination is selected. A prediction signal is generated by generating two or more candidate prediction signals of the target pixel signal from the already-reproduced image based on a predicted adjacent region to which the signal belongs, and performing weighted averaging of the candidate prediction signals using the selected set of weighting coefficients. The structure which produces | generates is provided.

また、本発明の画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive coding method according to the present invention includes a region dividing step of dividing an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing step. A prediction signal generation step for generating a prediction signal for the signal, a residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal, and the residual signal generation step An encoding step for encoding the residual signal generated by the prediction signal generation step, wherein the prediction signal generation step includes a predicted adjacent region having the same shape as the target adjacent region adjacent to the target region, which is an already reproduced image. Two or more combinations of arbitrary predicted adjacent areas including at least one of the acquired multiple predicted adjacent areas are obtained from each search area. Then, for a combination including two or more predicted adjacent regions, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent regions belonging to the combination are derived, and the plurality of sets of weighting factors are used. Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the predicted adjacent region, a set of weight coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected, Two or more comparison signals for the adjacent pixel signals are obtained by weighted averaging the pixel signals of the predicted adjacent areas belonging to the combination using the set of weighting factors selected above. Generating and selecting a combination having a high correlation between the comparison signal and the adjacent pixel signal, and based on a predicted adjacent region belonging to the selected combination One or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signals are predicted by weighted averaging using the previously selected combination of weight coefficients for the selected combination A configuration for generating a signal is provided.

また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive decoding method of the present invention includes a data decoding step for decoding encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding step. A residual signal restoration step for restoring a reproduction residual signal from the prediction signal, a prediction signal generation step for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generation step, and the residual signal A reproduction image signal generation step of generating a reproduction image signal by adding the reproduction residual signal restored in the restoration step, and the prediction signal generation step includes a target adjacent region adjacent to the target region A plurality of predicted adjacent areas having the same shape as the search area including the already-reproduced images. Deriving a combination of arbitrary predicted adjacent regions including two or more, deriving two or more sets of weighting factors for weighted averaging pixel signals of predicted adjacent regions belonging to the combination, and for the combination, the plurality of weights Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the predicted adjacent region belonging to the combination using a set of coefficients, and the correlation between the comparison signal and the adjacent pixel signal is high A set of weighting factors is selected, two or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are selected from the selected weighting factors. A configuration is provided in which a prediction signal is generated by weighted averaging using a set.

また、本発明の画像予測復号方法は、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive decoding method of the present invention includes a data decoding step for decoding encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding step. A residual signal restoration step for restoring a reproduction residual signal from the prediction signal, a prediction signal generation step for generating a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generation step, and the residual signal A reproduction image signal generation step of generating a reproduction image signal by adding the reproduction residual signal restored in the restoration step, and the prediction signal generation step includes a target adjacent region adjacent to the target region A plurality of predicted adjacent areas having the same shape as the search area including the already-reproduced images. A set of weighting factors for deriving two or more combinations of arbitrary predicted adjacent areas including at least one and weighting and averaging pixel signals of predicted adjacent areas belonging to the combination of combinations including two or more predicted adjacent areas And two or more comparison signals for the adjacent pixel signal are generated by calculating a weighted average of the pixel signals in the prediction adjacent region using the plurality of sets of weighting factors, and the comparison signal and the adjacent signal are generated. Select a set of weighting factors having a high correlation with the pixel signal, and use the set of weighting factors selected above for the pixel signals of the prediction adjacent region belonging to the combination for the plurality of combinations, Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging, and the correlation between the comparison signal and the adjacent pixel signal is high. And generating one or more candidate prediction signals of the target pixel signal from the already-reproduced image based on the prediction adjacent region belonging to the selected combination, and the candidate prediction signal is generated for the selected combination. A configuration is provided in which a prediction signal is generated by performing weighted averaging using a previously selected set of weighting factors.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   In addition, the image predictive coding program of the present invention includes a region dividing module that divides an input image into a plurality of regions, and a target pixel of a target region that is a processing target of the plurality of regions divided by the region dividing module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by the prediction signal generation module, and the prediction signal generation module includes a target adjacent region composed of an already reproduced adjacent pixel signal adjacent to the target region composed of the target pixel signal; A plurality of predicted adjacent areas having a high correlation of the search area are searched from a search area composed of already reproduced images. Among them, at least two signals are used from the pixel signals of the N prediction regions based on the target region or the pixel signals of the prediction adjacent region among the N predicted adjacent regions searched for, or both signals, An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method. When the evaluation value is smaller than a predetermined threshold, a synthesis method for determining the N candidate prediction signals is determined. It has a configuration for generating a prediction signal by processing it.

また、本発明の画像予測符復号プログラムは、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する構成を備えている。   Also, the image predictive code decoding program of the present invention is obtained by decoding the encoded data of the residual signal related to the target region to be processed from the compressed data, and the data decoding module decoding the data. A residual signal restoration module that restores a reproduction residual signal from the signal, a prediction signal generation module that generates a prediction signal for the target pixel signal in the target region, a prediction signal generated by the prediction signal generation module, and the residual A reproduction image signal generation module that generates a reproduction image signal by adding the reproduction residual signal restored by the signal restoration module, and the prediction signal generation module includes a target region including the target pixel signal. A plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of already reproduced adjacent pixel signals adjacent to Search from a search area composed of a reproduced image, and among the searched predicted adjacent areas, pixel signals of N predicted areas based on the target area or predicted adjacent areas of the searched N predicted adjacent areas An evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method using at least two signals from the pixel signals or both of the pixel signals, and the evaluation value is calculated from a predetermined threshold value. When it is small, the N candidate prediction signals are processed by using a predetermined synthesis method to generate a prediction signal.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive coding program according to the present invention includes an area division module that divides an input image into a plurality of areas, and a target pixel of a target area that is a processing target of the plurality of areas divided by the area division module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by the prediction signal generation module, wherein the prediction signal generation module includes a predicted adjacent region having the same shape as the target adjacent region adjacent to the target region, which is an already reproduced image. A plurality of each of the search areas are obtained, and two or more of the obtained prediction adjacent areas are included in the obtained prediction adjacent areas. A plurality of combinations of weighting factors for deriving two or more weight coefficient sets for weighted averaging of pixel signals of the prediction adjacent regions belonging to the combination. Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the prediction adjacent region belonging to the combination, and a set of weighting factors having a high correlation between the comparison signal and the adjacent pixel signal is selected. And generating two or more candidate prediction signals of the target pixel signal from the already-reproduced image based on the prediction adjacent region belonging to the combination, and weighting average the candidate prediction signals using the selected set of weight coefficients By doing so, a configuration for generating a prediction signal is provided.

また、本発明の画像予測符号化プログラムは、入力画像を複数の領域に分割する領域分割モジュールと、前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive coding program according to the present invention includes an area division module that divides an input image into a plurality of areas, and a target pixel of a target area that is a processing target of the plurality of areas divided by the area division module. A prediction signal generation module that generates a prediction signal for the signal, a residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal, and the residual signal generation module An encoding module that encodes the residual signal generated by the prediction signal generation module, wherein the prediction signal generation module includes a predicted adjacent region having the same shape as the target adjacent region adjacent to the target region, which is an already reproduced image. Each of a plurality of search neighboring areas is acquired, and includes at least one of the obtained plurality of predicted neighboring areas. Two or more combinations are derived, and for a combination including two or more predicted adjacent regions, two or more sets of weighting factors for weighted averaging pixel signals of predicted adjacent regions belonging to the combination are derived, Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the predicted adjacent region using a set of weighting factors, and a weight coefficient having a high correlation between the comparison signal and the adjacent pixel signal is generated. For the plurality of combinations, the pixel signal of the predicted adjacent region belonging to the combination is weighted and averaged using the set of weighting factors selected above, thereby calculating the adjacent pixel signal. Generate two or more comparison signals for, select a combination having a high correlation between the comparison signal and the adjacent pixel signal, and belong to the selected combination Based on the measurement adjacent region, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is used using a set of weight coefficients previously selected for the selected combination. And generating a prediction signal by weighted averaging.

また、本発明の画像予測復号プログラムは、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive decoding program according to the present invention includes a data decoding module that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding module. A residual signal restoration module for restoring a reproduction residual signal from the prediction signal, a prediction signal generation module for generating a prediction signal for a target pixel signal in the target region, a prediction signal generated by the prediction signal generation module, and the residual signal A reproduction image signal generation module that generates a reproduction image signal by adding the reproduction residual signal restored by the restoration module, and the prediction signal generation module includes a target adjacent region adjacent to the target region A plurality of predicted adjacent areas having the same shape as the search area including the already reproduced images, Deriving a combination of arbitrary predicted adjacent areas including two or more predicted adjacent areas, and deriving two or more sets of weighting factors for weighted averaging of pixel signals of the predicted adjacent areas belonging to the combination, For the combination, two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, and the comparison signal and the adjacent signal are generated. Selecting a set of weighting factors having a high correlation with the pixel signal, generating two or more candidate prediction signals of the target pixel signal from the already-reproduced image based on a prediction adjacent region belonging to the combination, and the candidate prediction signal Is configured to generate a prediction signal by performing weighted averaging using the set of selected weighting factors.

また、本発明の画像予測復号プログラムは、圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する構成を備えている。   The image predictive decoding program according to the present invention includes a data decoding module that decodes encoded data of a residual signal related to a target region to be processed from compressed data, and a signal obtained by decoding by the data decoding module. A residual signal restoration module for restoring a reproduction residual signal from the prediction signal, a prediction signal generation module for generating a prediction signal for a target pixel signal in the target region, a prediction signal generated by the prediction signal generation module, and the residual signal A reproduction image signal generation module that generates a reproduction image signal by adding the reproduction residual signal restored by the restoration module, and the prediction signal generation module includes a target adjacent region adjacent to the target region A plurality of predicted adjacent areas having the same shape as the search area including the already reproduced images, Two or more combinations of arbitrary predicted adjacent areas including at least one predicted adjacent area are derived, and pixel combinations of the predicted adjacent areas belonging to the combination are weighted average for combinations including two or more predicted adjacent areas. Two or more sets of weighting factors for deriving are derived, and two or more comparison signals for the neighboring pixel signals are generated by weighted averaging pixel signals in the predicted neighboring region using the plurality of sets of weighting factors. , Selecting a set of weighting factors having a high correlation between the comparison signal and the adjacent pixel signal, and using the set of weighting factors selected above for the pixel signals of the predicted adjacent region belonging to the combination for the plurality of combinations Two or more comparison signals for the adjacent pixel signal are generated by performing weighted averaging of the pixel signals in the predicted adjacent region, and the comparison signal and the adjacent pixel signal are generated. A combination having a high correlation with the selected combination, and generating one or more candidate prediction signals of the target pixel signal from the already-reproduced image based on a prediction adjacent region belonging to the selected combination, A configuration is provided in which a prediction signal is generated by performing weighted averaging on a selected combination using a previously selected set of weighting factors.

本発明によれば、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   According to the present invention, it is possible to select a combination of candidate prediction signals suitable for smoothing without increasing the amount of information, using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target region. A prediction signal that takes local noise characteristics into consideration can be generated.

本発明は、一実施形態のために示された添付図面を参照して以下の詳細な記述を考慮することによって容易に理解することができる。引き続いて、添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   The present invention can be readily understood by considering the following detailed description with reference to the accompanying drawings shown for the embodiments. Subsequently, embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

<第一の実施形態>
図1は、本発明の実施形態による画像予測符号化方法を実行することができる画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102(領域分割手段)、予測信号生成器103(予測信号生成手段)、フレームメモリ104、減算器105(残差信号生成手段)、変換器106(符号化手段)、量子化器107(符号化手段)、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、および出力端子112を含んで構成されている。変換器106と量子化器107とは符号化手段として機能する。
<First embodiment>
FIG. 1 is a block diagram illustrating an image predictive coding apparatus 100 that can execute an image predictive coding method according to an embodiment of the present invention. The image predictive coding apparatus 100 includes an input terminal 101, a block divider 102 (region dividing means), a prediction signal generator 103 (predicted signal generating means), a frame memory 104, a subtractor 105 (residual signal generating means), It includes a converter 106 (encoding means), a quantizer 107 (encoding means), an inverse quantizer 108, an inverse transformer 109, an adder 110, an entropy encoder 111, and an output terminal 112. Yes. The converter 106 and the quantizer 107 function as encoding means.

以上のように構成された画像予測符号化装置100について、以下その構成について説明する。   The configuration of the image predictive encoding device 100 configured as described above will be described below.

入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。   The input terminal 101 is a terminal for inputting a moving image signal composed of a plurality of images.

ブロック分割器102は、入力端子101から入力された動画像の信号であって、符号化の対象となる画像を複数の領域に分割する。本発明による実施形態では、8x8の画素からなるブロックに分割するが、それ以外のブロックの大きさまたは形に分割してもよい。   The block divider 102 divides an image to be encoded, which is a moving image signal input from the input terminal 101, into a plurality of regions. In the embodiment according to the present invention, the block is divided into 8 × 8 pixels, but may be divided into other block sizes or shapes.

予測信号生成器103は、符号化処理の対象となる対象領域(対象ブロック)に対して予測信号を生成する部分である。この予測信号生成器103の具体的な処理については後述する。   The prediction signal generator 103 is a part that generates a prediction signal for a target region (target block) to be encoded. Specific processing of the prediction signal generator 103 will be described later.

減算器105は、ラインL102を経由して入力されたブロック分割器102で分割されて得られた対象領域で示される画素信号から、ラインL103を経由して入力された予測信号生成器103にて生成された予測信号を減算して、残差信号を生成する部分である。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。   The subtractor 105 uses the prediction signal generator 103 input via the line L103 from the pixel signal indicated by the target region obtained by the division by the block divider 102 input via the line L102. This is a part for generating a residual signal by subtracting the generated prediction signal. The subtractor 105 outputs the residual signal obtained by the subtraction to the converter 106 via the line L105.

変換器106は、減算して得られた残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。エントロピー符号化器111は、量子化器107により量子化された変換係数を圧縮符号化し、圧縮符号化された圧縮データを、ラインL111を経由で出力する。出力端子112は、エントロピー符号化器111から入力した情報である圧縮データを外部に出力する。   The converter 106 is a part that performs discrete cosine transform on the residual signal obtained by subtraction. The quantizer 107 is a part that quantizes the transform coefficient that has been discrete cosine transformed by the transformer 106. The entropy encoder 111 compresses and encodes the transform coefficient quantized by the quantizer 107, and outputs the compressed and compressed data via the line L111. The output terminal 112 outputs compressed data that is information input from the entropy encoder 111 to the outside.

逆量子化器108は、量子化された変換係数を逆量子化し、逆変換器109は逆離散コサイン変換し、符号化された残差信号を復元する。加算器110は、復元された残差信号とラインL103から送られた予測信号とを加算し、対象ブロックの信号を再生して、再生画像信号を得て、この再生画像信号をフレームメモリ104に記憶する。本実施形態では変換器106と逆変換器109とを用いているが、これらの変換器に代わるほかの変換処理を用いてもよく、変換器106と逆変換器109とは必ずしも必須ではない。このように、後続の対象領域に対する画面内予測もしくは画面間予測を行うために、圧縮された対象領域の画素信号は逆処理にて復元され、フレームメモリ104に記憶される。   The inverse quantizer 108 inversely quantizes the quantized transform coefficient, and the inverse transformer 109 performs inverse discrete cosine transform to restore the encoded residual signal. The adder 110 adds the restored residual signal and the prediction signal sent from the line L103, reproduces the signal of the target block, obtains a reproduced image signal, and stores the reproduced image signal in the frame memory 104. Remember. In this embodiment, the converter 106 and the inverse converter 109 are used. However, other conversion processes may be used in place of these converters, and the converter 106 and the inverse converter 109 are not necessarily essential. Thus, in order to perform intra prediction or inter prediction for the subsequent target region, the compressed pixel signal of the target region is restored by inverse processing and stored in the frame memory 104.

つぎに、予測信号生成器103について説明する。予測信号生成器103は、符号化処理の対象となる対象領域(以下、対象ブロックと称する)に対する予測信号を生成する部分である。本実施形態では、3種類の予測方法が用いられる。すなわち、予測信号生成器103は、後述する画面間予測方法と画面内予測方法との少なくともいずれか一方あるいは両方を用いて予測信号を生成する。   Next, the prediction signal generator 103 will be described. The prediction signal generator 103 is a part that generates a prediction signal for a target region (hereinafter referred to as a target block) to be encoded. In this embodiment, three types of prediction methods are used. That is, the prediction signal generator 103 generates a prediction signal using at least one or both of an inter-screen prediction method and an intra-screen prediction method described later.

本実施形態における予測信号生成器103の処理について説明する。図2は、本実施形態による画像予測符号化装置100に用いられる予測信号生成器103を示すブロック図であり、テンプレートマッチング器201と座標情報用メモリ202と候補予測信号の組み合わせ決定器203と予測領域取得器204と重み付け器205と加算器206とを含んで構成されている。   Processing of the prediction signal generator 103 in this embodiment will be described. FIG. 2 is a block diagram showing the prediction signal generator 103 used in the image predictive coding apparatus 100 according to the present embodiment. The template matching unit 201, the coordinate information memory 202, the candidate prediction signal combination determiner 203, and the prediction The area acquisition unit 204, the weighting unit 205, and the adder 206 are included.

テンプレートマッチング器201では、ラインL104経由でフレームメモリ104から過去の処理で既に再生された画像信号(再生画像信号)が入力され、対象領域の対象画素信号に対する予測信号の候補(候補予測信号)を後述するテンプレートマッチングにより複数探索し、探索した候補予測信号にアクセスするための座標情報をラインL201a経由で座標情報用メモリ202に出力する。同時に、対象領域と各候補予測信号との間の関係を示す差分値データ(後述する絶対誤差値の和(SAD(sumof absolute difference)に相当)をラインL201b経由で候補予測信号の組み合わせ決定器203に出力する。   In the template matching unit 201, an image signal (reproduced image signal) that has already been reproduced in the past processing is input from the frame memory 104 via the line L104, and prediction signal candidates (candidate prediction signals) for the target pixel signal in the target region are obtained. A plurality of searches are performed by template matching described later, and coordinate information for accessing the searched candidate prediction signal is output to the coordinate information memory 202 via the line L201a. At the same time, difference value data indicating the relationship between the target region and each candidate prediction signal (corresponding to a sum of absolute error values (SAD (sumof absolute difference) described later)) is combined with a candidate prediction signal combination determiner 203 via a line L201b. Output to.

候補予測信号の組み合わせ決定器203では、ラインL201b経由で入力された差分値データを利用して、候補予測信号の組み合わせを複数設定する。そして、ラインL202a経由で座標情報用メモリ202から入力される座標情報に従ってラインL104経由でフレームメモリから入力される画素信号を用いて、候補予測信号の組み合わせを決定し、候補予測信号の組み合わせ情報としてラインL203経由で予測領域取得器204に出力する。   The candidate prediction signal combination determiner 203 uses the difference value data input via the line L201b to set a plurality of candidate prediction signal combinations. Then, a candidate prediction signal combination is determined using the pixel signal input from the frame memory via the line L104 according to the coordinate information input from the coordinate information memory 202 via the line L202a, and the candidate prediction signal combination information is obtained. It outputs to the prediction area | region acquisition device 204 via the line L203.

予測領域取得器204は、ラインL203経由で入力された候補予測信号の組み合わせ情報に従って、この組み合わせに属する候補予測信号の座標情報をラインL202b経由で取得する。そして、予測領域取得器204は、ラインL104経由でフレームメモリ104から、取得した座標情報に対応する候補予測信号を取得し、随時重み付け器205に出力する。重み付け器205は、ラインL204経由で入力された各候補予測信号に重み係数を掛け、ラインL205経由で加算器206に出力する。加算器206は重み付けされた候補予測信号を順次加算し、予測信号としてラインL103経由で図1の減算器105に出力する。なお、重み付け器の動作については、例えば、候補予測信号の数がNのとき1/Nを各候補予測信号に掛ける手法などがあるが、他の手法でもよい。   The prediction area acquisition unit 204 acquires coordinate information of candidate prediction signals belonging to this combination via line L202b according to the combination information of candidate prediction signals input via line L203. Then, the prediction region acquisition unit 204 acquires a candidate prediction signal corresponding to the acquired coordinate information from the frame memory 104 via the line L104 and outputs it to the weighting unit 205 as needed. The weighting unit 205 multiplies each candidate prediction signal input via the line L204 by a weighting coefficient, and outputs the result to the adder 206 via the line L205. The adder 206 sequentially adds the weighted candidate prediction signals and outputs the result as a prediction signal to the subtracter 105 in FIG. 1 via the line L103. As for the operation of the weighting unit, for example, there is a method of multiplying each candidate prediction signal by 1 / N when the number of candidate prediction signals is N, but other methods may be used.

さらに、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、予測領域取得器204の各構成について詳細に説明する。まず、テンプレートマッチング器201における処理内容について説明する。テンプレートマッチング器201は、ラインL104経由でフレームメモリ104に記憶されている再生画像信号にアクセスし、マッチング処理を行なう。ここで、このマッチング処理について説明する。図3と図4は、本発明の実施形態によるテンプレートマッチング処理を説明するための模式図である。ここでは対象ブロック402に対する候補予測信号を生成する処理について説明する。   Furthermore, each configuration of the template matching unit 201, the candidate prediction signal combination determining unit 203, and the prediction region acquiring unit 204 will be described in detail. First, processing contents in the template matching unit 201 will be described. The template matching unit 201 accesses the reproduced image signal stored in the frame memory 104 via the line L104 and performs matching processing. Here, this matching process will be described. 3 and 4 are schematic diagrams for explaining the template matching process according to the embodiment of the present invention. Here, a process of generating a candidate prediction signal for the target block 402 will be described.

まず、対象ブロックに対し予め決められた方法で「対象隣接領域」(テンプレートともいう)と「探索領域」とを設定する。図3では、対象ブロック402に接しており、それより前に再生され同じ画面内にある再生画像の一部(全部でもよい)が探索領域401として設定されている。ここでは、対象ブロック402を、8x8の画素からなる符号化対象ブロックを分割した4x4画素の小ブロックとしているが、それ以外のブロックの大きさまたは形に分割してもよいし、分割しなくてもよい。   First, a “target adjacent region” (also referred to as a template) and a “search region” are set for a target block by a predetermined method. In FIG. 3, a part (or all) of the reproduced images that are in contact with the target block 402 and are reproduced before and within the same screen are set as the search area 401. Here, the target block 402 is a small block of 4 × 4 pixels obtained by dividing an encoding target block made up of 8 × 8 pixels, but may be divided into other block sizes or shapes, or may not be divided. Also good.

さらに、図4では、対象ブロック402と異なる画面411で示される再生画像の一部が探索領域417として設定されている。また、対象ブロック402と異なる複数の画面にそれぞれ探索領域を設けても良い。「対象隣接領域」としては対象ブロック402に隣接する既再生の画素群(逆L文字の領域)403を用いる。なお、本実施形態では、2つの画面(図3と図4)内に探索領域を設定しているが、対象ブロックと同じ画面内のみに設定しても良いし(図3)、対象ブロックと異なる画面内のみに設定しても良い(図4)。   Further, in FIG. 4, a part of the reproduced image shown on the screen 411 different from the target block 402 is set as the search area 417. Further, a search area may be provided on each of a plurality of screens different from the target block 402. As the “target adjacent region”, the already reproduced pixel group (reverse L character region) 403 adjacent to the target block 402 is used. In this embodiment, the search area is set in two screens (FIGS. 3 and 4), but it may be set only in the same screen as the target block (FIG. 3). You may set only in a different screen (FIG. 4).

図3に示すように探索領域401と対象ブロック402とは接する必要はなく、探索領域401は対象ブロック402と全く接していなくてもよい。また、図4に示すように対象ブロックと異なる一の画面(画面411のみ)において探索領域を設定することに限る必要はなく、対象ブロックと異なる複数の画面(参照画像、再生済みであれば表示順で未来のフレームを含んでも良い)にそれぞれ探索領域を設定してもよい。   As shown in FIG. 3, the search area 401 and the target block 402 do not need to touch each other, and the search area 401 may not touch the target block 402 at all. In addition, as shown in FIG. 4, it is not necessary to limit the search area to be set on one screen different from the target block (only the screen 411). Each of the search areas may be set in order to include future frames in order.

また、対象隣接領域403については、対象ブロック402と少なくとも1画素でも接していればよい。ここでは、対象隣接領域の形状は、逆L文字としているが、これに限定されない。よって、対象隣接領域は対象ブロック402の周囲の再生済み画素で構成されていれば、形と画素数は予め定めておけば任意でよく、シーケンス単位あるいはフレーム単位やブロック単位でテンプレートの形状とサイズ(画素数)を符号化してもよい。   In addition, the target adjacent area 403 may be in contact with the target block 402 even at least one pixel. Here, the shape of the target adjacent region is an inverted L character, but is not limited thereto. Therefore, if the target adjacent region is composed of reproduced pixels around the target block 402, the shape and the number of pixels may be arbitrary as long as they are determined in advance. The shape and size of the template in sequence units, frame units, or block units. (Number of pixels) may be encoded.

テンプレートマッチング器201は、探索領域401と探索領域417あるいはいずれか一方の探索領域において、対象隣接領域403と同じ形状を有する画素群との間で、対応する画素間の絶対誤差値の和(SAD)を求め、SADが小さいM個の領域を検索し、それらを「予測隣接領域」とする。検索精度は整数画素単位でもよいし、1/2画素、1/4画素等の小数精度の画素を生成し、小数画素精度で探索を行なってもよい。Mの値は予め設定しておけば任意の値でよい。図3および図4に示すように、M=6であり、予測隣接領域404a、404b、404c、414a、414bおよび414cが探索されている。また、探索する予測隣接領域の数を決めずにSADがある閾値より小さい領域を探索してMの値を決めても良いし、閾値より小さい領域の数と設定した数から小さい方をMの値としてもよい。このとき閾値は、SADの値そのものに対してではなく、最小のSADと2番目以降のSADとの差分値に対して適用してもよい。後者では、テンプレートマッチング器201は、最小のSADが大きい場合でも閾値を変更せずに多くの予測隣接領域を検索できる。Mの上限値や閾値は、予め設定しておいても良いが、シーケンス単位あるいはフレーム単位やブロック単位で適切な値を符号化してもよい。   The template matching unit 201 calculates the sum of absolute error values (SAD) between corresponding pixels between the search region 401 and the search region 417 or a pixel group having the same shape as the target adjacent region 403 in one of the search regions. ), And search for M regions having a small SAD and make them “predicted adjacent regions”. The search accuracy may be in units of integer pixels, or a pixel with decimal precision such as 1/2 pixel or 1/4 pixel may be generated and the search may be performed with decimal pixel precision. The value of M may be an arbitrary value as long as it is set in advance. As shown in FIGS. 3 and 4, M = 6, and the predicted adjacent regions 404a, 404b, 404c, 414a, 414b, and 414c are searched. Alternatively, the value of M may be determined by searching a region where the SAD is smaller than a certain threshold without determining the number of predicted adjacent regions to be searched, or the smaller of the number of regions smaller than the threshold and the set number may be set to M It may be a value. At this time, the threshold value may be applied not to the SAD value itself but to a difference value between the minimum SAD and the second and subsequent SADs. In the latter case, the template matching unit 201 can search many prediction adjacent regions without changing the threshold even when the minimum SAD is large. The upper limit value and threshold value of M may be set in advance, but an appropriate value may be encoded in sequence units, frame units, or block units.

予測隣接領域404a、404b、404c、414a、414bおよび414cに接している領域405a、405b、405c、415a、415bおよび415cが対象ブロック402に対する予測領域に決定され、予測領域内の画素信号が候補予測信号に決定される。なお、ここでは、予測隣接領域と候補予測信号を示す予測領域との位置関係は、対象領域と対象隣接領域と同じ関係にあるが、そうでなくてもよい。本実施形態では、各予測隣接領域(および予測領域)をフレームメモリ104から取得するためのアクセス情報として、対象隣接領域(および対象領域)と予測隣接領域(および予測領域)との間の差分座標406a、406b、406c、416a、416bおよび416cと各予測隣接領域(および予測領域)が属する画面(参照画像)の識別番号が座標情報として座標情報用メモリ202に記憶される。   The regions 405a, 405b, 405c, 415a, 415b, and 415c adjacent to the prediction adjacent regions 404a, 404b, 404c, 414a, 414b, and 414c are determined as the prediction regions for the target block 402, and the pixel signals in the prediction region are candidate predictions Determined to be a signal. Here, the positional relationship between the prediction adjacent region and the prediction region indicating the candidate prediction signal is the same as the target region and the target adjacent region, but this need not be the case. In the present embodiment, as the access information for acquiring each predicted adjacent area (and predicted area) from the frame memory 104, the difference coordinates between the target adjacent area (and target area) and the predicted adjacent area (and predicted area) The identification numbers of the screens (reference images) to which 406a, 406b, 406c, 416a, 416b and 416c and the respective prediction adjacent areas (and prediction areas) belong are stored in the coordinate information memory 202 as coordinate information.

以上の通りの動作を行うためのテンプレートマッチング器201の構成について説明する。テンプレートマッチング器201は、対象隣接領域取得器211と予測隣接領域取得器212と比較器213とスイッチ214とを含んで構成される。まず、対象隣接領域取得器211は、フレームメモリ104からラインL104を経由して対象隣接領域403を取得する。   A configuration of the template matching unit 201 for performing the operation as described above will be described. The template matching unit 201 includes a target adjacent region acquisition unit 211, a predicted adjacent region acquisition unit 212, a comparator 213, and a switch 214. First, the target adjacent area acquisition unit 211 acquires the target adjacent area 403 from the frame memory 104 via the line L104.

予測隣接領域取得器212は、ラインL104を経由してフレームメモリ104内の探索領域から対象隣接領域と同じ形状の領域の画素信号を順次取得し、ラインL211経由で対象隣接領域取得器211から得られる対象隣接領域の画素信号(隣接画素信号)と間でSADを算出する。比較器213は、算出したSADを、ラインL212b経由で入力し、これまで取得されたSADのうちでM番目に小さいSADと比較する。そして、比較器213が入力されたSADの方が小さいと判断する場合には、比較器213は、そのM番目以内に入ったSADを一時的に記憶し、M+1番目となったSADを消去する。なお、比較器213は、処理開始時にはSADの初期値として通常のSADと比較して十分大きな値を初期値として設定する。   The predicted adjacent region acquisition unit 212 sequentially acquires pixel signals of the same shape as the target adjacent region from the search region in the frame memory 104 via the line L104, and obtains from the target adjacent region acquisition unit 211 via the line L211. SAD is calculated between the pixel signal (adjacent pixel signal) of the target adjacent region to be obtained. The comparator 213 inputs the calculated SAD via the line L212b, and compares it with the Mth smallest SAD acquired so far. When the comparator 213 determines that the input SAD is smaller, the comparator 213 temporarily stores the SAD within the Mth and erases the M + 1th SAD. . Note that the comparator 213 sets a sufficiently large value as an initial value at the start of processing as an initial value of the SAD as compared with a normal SAD.

この処理を行うとともに、予測隣接領域取得器212は、予測隣接領域(および予測領域)にアクセスするための情報として、比較器213によるスイッチ214に対する制御によりラインL202a経由で座標情報を座標情報用メモリ202に出力する。この際、SADの値がM+1番目となった座標情報は不要となるため、座標情報用メモリ202において上書きされて記憶されても良い。予測隣接領域取得器212による探索領域内を探索が終了したとき、比較器213は、一時的に記憶したM個のSADの値をラインL201bを経由して、候補予測信号の組み合わせ決定器203に出力する。   In addition to performing this process, the predicted adjacent area acquisition unit 212 obtains coordinate information via the line L202a as information for accessing the predicted adjacent area (and the predicted area) via the line L202a as a memory for coordinate information. To 202. At this time, the coordinate information in which the SAD value is M + 1 is not necessary, and may be overwritten and stored in the coordinate information memory 202. When the search within the search region by the prediction adjacent region acquisition unit 212 is completed, the comparator 213 sends the temporarily stored M SAD values to the candidate prediction signal combination determiner 203 via the line L201b. Output.

つぎに、候補予測信号の組み合わせ決定器203の動作を説明する。候補予測信号の組み合わせ決定器203は、組み合わせ設定器231、予測隣接領域取得器232、対象隣接領域取得器233、重み付け器234、加算器235、および比較・選択器236を含んで構成される。   Next, the operation of the candidate prediction signal combination determiner 203 will be described. The candidate prediction signal combination determiner 203 includes a combination setting unit 231, a prediction adjacent region acquisition unit 232, a target adjacent region acquisition unit 233, a weighting unit 234, an adder 235, and a comparison / selection unit 236.

組み合わせ設定器231は、ラインL201bを経由して入力されたM個のSADに基づいて、複数の予測隣接領域の組み合わせを設定する。予測隣接領域の組み合わせ決定器203における処理を図6における説明で詳述するように、入力されたSADの小さいN個の予測隣接領域を1つの組み合わせとして設定する。Nの値は、Mより小さい2の乗数であり、M=6のとき、N=1、2、4となる3つの組み合わせを作る。   The combination setter 231 sets a combination of a plurality of predicted adjacent areas based on the M SADs input via the line L201b. As will be described in detail in the description of FIG. 6 with respect to the processing in the predictive adjacent region combination determiner 203, N predictive adjacent regions having small SADs are set as one combination. The value of N is a multiplier of 2 smaller than M, and when M = 6, three combinations of N = 1, 2, and 4 are created.

このように、本発明の候補予測信号の組み合わせ処理を利用することにより、各対象ブロックに適切な候補予測信号の平滑化の強さ、つまり平均化する予測候補信号の数を決定することが可能となる。言い換えれば、隣接画素信号との間の絶対誤差値である差分SADが小さいN個の予測隣接領域の画素信号を平均化した比較信号と隣接画素信号との間の差分SADが最も小さいNを定めることにより、探索したM個の候補予測信号から、予測信号の生成に適した候補予測信号を付加情報なしで選別できる。なお、Nの値を2の乗数としているのは、信号の平均化処理を加算とシフト演算のみにて行なうことを考慮したためである。   Thus, by using the candidate prediction signal combination processing of the present invention, it is possible to determine the smoothing strength of the candidate prediction signal appropriate for each target block, that is, the number of prediction candidate signals to be averaged. It becomes. In other words, N is defined such that the difference SAD between the comparison signal obtained by averaging the pixel signals of N predicted adjacent regions having a small difference SAD that is an absolute error value between the adjacent pixel signals and the adjacent pixel signal is the smallest. Thus, a candidate prediction signal suitable for generating a prediction signal can be selected from the M candidate prediction signals searched without additional information. The reason why the value of N is a multiplier of 2 is that it is considered that the signal averaging process is performed only by addition and shift calculation.

また、Mの値とNの値およびN個の予測信号領域の組み合わせは、これに限定されない。1つの組み合わせに含まれる予測隣接領域の数は1〜M個から任意に設定できる。例えば、Mより小さいN個の予測隣接領域にて構成される組み合わせを作る場合、M個からN個を選び全ての組み合わせを設定することも可能である。この際、Nの値は固定でもよいし、1〜Mの間で2個以上を選択して組み合わせを設定しもよい。但し、符号化器である画像予測符号化装置100と復号器である後述する画像予測復号装置300にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   Further, the combination of the M value, the N value, and the N prediction signal regions is not limited to this. The number of predicted adjacent regions included in one combination can be arbitrarily set from 1 to M. For example, when creating a combination composed of N predicted adjacent regions smaller than M, it is possible to select N from M and set all combinations. At this time, the value of N may be fixed, or a combination may be set by selecting two or more of 1 to M. However, in order to automatically select the same prediction adjacent region combination in the image predictive encoding device 100 which is an encoder and the image predictive decoding device 300 which will be described later as a decoder, the setting method of the combination of both is made to match. It is necessary to keep.

予測隣接領域取得器232は、予測隣接領域の組み合わせ情報がラインL231経由で1つ入力されると、その組み合わせに含まれる予測隣接領域に対する座標情報をラインL202a経由で座標情報用メモリ202から取得する。そして、予測隣接領域取得器232は、座標情報に対応する予測隣接領域の画素信号をラインL104経由で取得し、随時重み付け器234に出力する。   When one piece of prediction adjacent region combination information is input via the line L231, the prediction adjacent region acquisition unit 232 acquires coordinate information for the prediction adjacent region included in the combination from the coordinate information memory 202 via the line L202a. . Then, the predicted adjacent area acquisition unit 232 acquires the pixel signal of the predicted adjacent area corresponding to the coordinate information via the line L104 and outputs it to the weighting unit 234 as needed.

重み付け器234は、ラインL232経由で入力された各予測隣接領域の画素信号に重み係数を掛け、ラインL234経由で加算器235に出力する。   The weighter 234 multiplies the pixel signal of each prediction adjacent region input via the line L232 and outputs the result to the adder 235 via the line L234.

加算器235は、重み付けされた予測隣接領域の画素信号を累積加算して積算することで、対象隣接領域の画素信号(隣接画素信号)と比較するための比較信号を生成し、生成された比較信号をラインL235経由で比較・選択器236に出力する。なお、重み付け器234の動作については、例えば、予測隣接領域の数がNのとき1/Nを各予測隣接領域の画素信号に掛ける手法などがあるが、他の手法でもよい。例えば、N個の予測隣接領域の画素信号と隣接画素信号の差分値(絶対誤差和、二乗誤差和、分散など)を計算し、その比率に基づいて各予測隣接領域への重み付け係数を決める方法が考えられる。   The adder 235 generates a comparison signal to be compared with the pixel signal (adjacent pixel signal) of the target adjacent region by accumulating and accumulating the weighted pixel signals of the predicted adjacent region, and performing the generated comparison. The signal is output to the comparator / selector 236 via the line L235. Note that the operation of the weighter 234 includes, for example, a method of multiplying the pixel signal of each prediction adjacent region by 1 / N when the number of prediction adjacent regions is N, but other methods may be used. For example, a method of calculating a difference value (absolute error sum, square error sum, variance, etc.) between pixel signals of N predicted adjacent regions and adjacent pixel signals and determining a weighting coefficient for each predicted adjacent region based on the ratio Can be considered.

ここで、重み付け器205と重み付け器234の重み付け方法を同じにすることにより、予測隣接領域を用いて、候補予測信号(予測領域の画素信号)の適切な組み合わせが推測できる。予測隣接領域は符号化器と復号器が共有できるため、本手法を用いた復号器であり、後述する画像予測復号装置300は、符号化器である画像予測符号化装置100にて選択した候補予測信号の組み合わせを付加情報なしで取得できるという効果がある。なお、重み付け器205と重み付け器234の重み付け方法は必ずしも同じとする必要はない。例えば、演算量削減のためには、重み付け器234には単純な重み付け処理を適用し、重み付け器205に、局所的な信号の特徴に応じた適応的な重み付け処理を適用するという方法も有効である。   Here, by making the weighting methods of the weighting unit 205 and the weighting unit 234 the same, an appropriate combination of candidate prediction signals (pixel signals of the prediction region) can be estimated using the prediction adjacent region. Since the predictive adjacent region can be shared by the encoder and the decoder, this is a decoder using this technique. There is an effect that a combination of prediction signals can be acquired without additional information. Note that the weighting methods of the weighter 205 and the weighter 234 are not necessarily the same. For example, in order to reduce the amount of calculation, it is also effective to apply a simple weighting process to the weighter 234 and to apply an adaptive weighting process according to local signal characteristics to the weighter 205. is there.

対象隣接領域取得器233は、フレームメモリ104からラインL104を経由して対象隣接領域の画素信号(隣接画素信号)を取得し、比較・選択器236に出力する。   The target adjacent area acquisition unit 233 acquires the pixel signal (adjacent pixel signal) of the target adjacent area from the frame memory 104 via the line L104 and outputs the acquired pixel signal to the comparison / selection unit 236.

比較・選択器236は、複数の予測隣接領域の組み合わせに対応する比較信号と隣接画素信号と間でSADを算出し、その値が最小となる対象隣接領域の組み合わせを、候補予測信号の組み合わせとして選択する。選択された候補予測信号の組み合わせ(L231経由で取得)は、候補予測信号の組み合わせ情報としてラインL203経由で予測領域取得器204に出力される。   The comparator / selector 236 calculates the SAD between the comparison signal corresponding to the combination of the plurality of prediction adjacent regions and the adjacent pixel signal, and uses the combination of the target adjacent regions having the smallest value as the combination of the candidate prediction signals. select. The selected combination of candidate prediction signals (obtained via L231) is output to the prediction region acquisition unit 204 via line L203 as candidate prediction signal combination information.

このように、本実施形態によれば、対象ブロック毎に、付加情報なしで、複数の候補予測信号から予測信号生成に有効な候補予測信号の組み合わせを選択することが可能となる。   As described above, according to the present embodiment, for each target block, it is possible to select a combination of candidate prediction signals effective for prediction signal generation from a plurality of candidate prediction signals without additional information.

図5は、本実施形態によるテンプレートマッチング器201にて、対象領域(対象ブロック)の画素信号(対象画素信号)に対する複数(M個)の候補予測信号を探索し、探索した候補予測信号にアクセスするための座標情報を取得する方法を示すフローチャートである。まず、対象隣接領域取得器211では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される(S502)。   FIG. 5 illustrates a search for a plurality (M) of candidate prediction signals for a pixel signal (target pixel signal) in a target region (target block) by the template matching unit 201 according to the present embodiment, and accesses the searched candidate prediction signals. It is a flowchart which shows the method of acquiring the coordinate information for doing. First, the target adjacent area acquisition unit 211 acquires the target adjacent area (template signal) for the target block from the frame memory 104 (S502).

つぎに、テンプレートマッチング器201は、M個の候補予測信号を選択するための閾値を十分大きな値に初期化する(S503)。予測隣接領域取得器212では、対象隣接領域と探索領域内の対象隣接領域と同じ形状の画素群と差分絶対値和(SAD)が求められる(S504)。テンプレートマッチング器201内の比較器213によりSADと閾値とが比較され(S505)、SAD値が閾値より小さいと判断された場合、S506に進み、そうでないと判断された場合、S508に進む。   Next, the template matching unit 201 initializes a threshold value for selecting M candidate prediction signals to a sufficiently large value (S503). The predicted adjacent area acquisition unit 212 obtains a pixel group having the same shape as the target adjacent area and the target adjacent area in the search area and the sum of absolute differences (SAD) (S504). The SAD is compared with the threshold value by the comparator 213 in the template matching unit 201 (S505). If it is determined that the SAD value is smaller than the threshold value, the process proceeds to S506. If not, the process proceeds to S508.

テンプレートマッチング器201内の比較器213では、求めたSADと、以前のSADと比較し、求めたSADが小さい順でM番までに含まれるとき、探索した画素群を候補予測信号(および予測隣接領域の画素信号)に追加し、候補信号を更新する。本実施形態では、候補予測信号(および予測隣接領域の画素信号)のかわりに、候補予測信号(および予測隣接領域の画素信号)にアクセスするための時空間の座標情報(空間位置と探索した画素群が含まれる画面の識別番号)を、スイッチ214による切換制御に基づいて座標情報用メモリ202に記憶することにより、座標情報を更新する(S506)。同時に、テンプレートマッチング器201は、閾値をM番目に小さいSADの値に更新する(S507)。   The comparator 213 in the template matching unit 201 compares the obtained SAD with the previous SAD, and when the obtained SAD is included by the Mth in ascending order, the searched pixel group is selected as a candidate prediction signal (and prediction adjacent). And the candidate signal is updated. In this embodiment, space-time coordinate information (spatial position and searched pixels) for accessing a candidate prediction signal (and a pixel signal of a prediction adjacent region) instead of the candidate prediction signal (and a pixel signal of the prediction adjacent region) The coordinate information is updated by storing the identification number of the screen including the group in the coordinate information memory 202 based on the switching control by the switch 214 (S506). At the same time, the template matching unit 201 updates the threshold value to the Mth smallest SAD value (S507).

その後、予測隣接領域取得器212により、探索領域が全て探索済みであるか否か確認される(S508)。全て探索済みではないと判断された場合、S504に戻り、予測隣接領域取得器212により、対象隣接領域と探索領域内の対象隣接領域と同じ形状の次の画素群と差分絶対値和(SAD)が求められる。   Thereafter, the predicted adjacent area acquisition unit 212 confirms whether or not all search areas have been searched (S508). If it is determined that not all have been searched, the process returns to S504, and the predicted adjacent area acquisition unit 212 uses the target adjacent area and the next pixel group having the same shape as the target adjacent area in the search area and the sum of absolute differences (SAD). Is required.

全部探索済みとなった時点で、ひとつの対象ブロックのテンプレートマッチング処理が終了となる(S509)   When all the search has been completed, the template matching process for one target block ends (S509).

このようにテンプレートマッチング器201による処理により、対象隣接領域における画素信号と相関の高い画素信号を含んだ上位M個の予測隣接領域を特定することができる。   In this way, the processing by the template matching unit 201 can identify the top M predicted adjacent areas including pixel signals having a high correlation with the pixel signal in the target adjacent area.

つぎに、候補予測信号の組み合わせ決定器203の処理について図を用いて説明する。図6は、本実施形態による候補予測信号の組み合わせ決定器203における、複数の候補予測信号の平滑化(加重平均)にて予測信号の生成に適したN個の候補予測信号の組み合わせを選択する方法を示すフローチャートである。まず、組み合わせ決定器203の組み合わせ設定器231は、候補予測信号の数Nを1に設定する(S602)。つぎに、対象隣接領域取得器233では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される(S603)。   Next, processing of the candidate prediction signal combination determiner 203 will be described with reference to the drawings. FIG. 6 selects a combination of N candidate prediction signals suitable for generating a prediction signal by smoothing (weighted average) a plurality of candidate prediction signals in the candidate prediction signal combination determiner 203 according to the present embodiment. 3 is a flowchart illustrating a method. First, the combination setter 231 of the combination determiner 203 sets the number N of candidate prediction signals to 1 (S602). Next, the target adjacent area acquisition unit 233 acquires the target adjacent area (template signal) for the target block from the frame memory 104 (S603).

そして、予測隣接領域取得器232にて、組み合わせ設定器231により設定された組み合わせに属するN個の予測隣接領域が、ラインL104を経由して取得される。すなわち、予測隣接領域取得器232は、対象ブロックに対する対象隣接領域の隣接画素信号と参照画像上の探索領域内にある対象隣接領域と同じ形状の領域(予測隣接領域の候補)の画素信号との差分値であるSADが小さいN個の予測隣接領域に対応する座標情報を座標情報用メモリ202から取得する。そして、取得した座標情報に対応するN個の予測隣接領域をフレームメモリ104から取得する(S604)。   Then, the predicted adjacent area acquisition unit 232 acquires N predicted adjacent areas belonging to the combination set by the combination setting unit 231 via the line L104. In other words, the predicted adjacent area acquisition unit 232 calculates the pixel signal of the adjacent pixel signal of the target adjacent area for the target block and the pixel signal of the area having the same shape as the target adjacent area in the search area on the reference image (predicted adjacent area candidate). The coordinate information corresponding to the N predicted adjacent areas having a small SAD as the difference value is acquired from the coordinate information memory 202. Then, N predicted adjacent areas corresponding to the acquired coordinate information are acquired from the frame memory 104 (S604).

その後、重み付け器234と加算器235とにおいて、N個の予測隣接領域の画素信号の平均化(加重平均でもよい)により比較信号を生成し(S605)、比較・選択器236にて、生成した比較信号と隣接画素信号との差分値であるSADを算出する(S606)。同時に、比較・選択器236では、算出したSADをそれまでの最小のSADと比較し(S607)、SADが最小値と判断された場合、S608に進み、そうでないと判断された場合、S609に進む。なお、S607では、算出したSADとそれまでの最小のSADが同じ場合には、S609に進むが、S608に進むようにしてもよい。   Thereafter, the weighting unit 234 and the adder 235 generate a comparison signal by averaging the pixel signals of the N predicted adjacent regions (may be weighted average) (S605), and the comparison / selector 236 generates the comparison signal. SAD, which is a difference value between the comparison signal and the adjacent pixel signal, is calculated (S606). At the same time, the comparator / selector 236 compares the calculated SAD with the minimum SAD so far (S607). If the SAD is determined to be the minimum value, the process proceeds to S608. If not, the process proceeds to S609. move on. In S607, if the calculated SAD and the minimum SAD so far are the same, the process proceeds to S609, but the process may proceed to S608.

算出したSADが、それまでの最小のSADである場合、比較・選択器236にて、S604にて取得した座標情報の組み合わせを記憶する(S608)。   If the calculated SAD is the smallest SAD so far, the comparison / selector 236 stores the combination of coordinate information acquired in S604 (S608).

ここで、組み合わせ決定器203は、Nの値を2倍に更新する(S609)。そして、更新したNとMの大きさを比較し(S610)、更新したNの値がMより小さい場合、S604に戻り。更新したNの値がMより大きい場合、S608にて記憶した座標情報の組み合わせを候補予測信号の組み合わせとして決定し、候補予測信号の組み合わせ選択処理を終了する(S611)。   Here, the combination determiner 203 updates the value of N twice (S609). Then, the updated N is compared with the magnitude of M (S610). If the updated value of N is smaller than M, the process returns to S604. If the updated value of N is larger than M, the combination of coordinate information stored in S608 is determined as a candidate prediction signal combination, and the candidate prediction signal combination selection process is terminated (S611).

このように、本実施形態の候補予測信号の組み合わせ処理を利用することにより、各対象ブロックに適切な候補予測信号の平滑化の強さ、つまり平均化する予測候補信号の数を決定することが可能となる。言い換えれば、隣接画素信号との間の差分値であるSADが小さいN個の予測隣接領域の画素信号を平均化した比較信号と隣接画素信号との間の差分SADが最も小さいNを定めることにより、探索したM個の候補予測信号から、予測信号の生成に適した候補予測信号を付加情報なしで選別できる。   As described above, by using the candidate prediction signal combination processing of this embodiment, it is possible to determine the smoothing strength of the candidate prediction signal appropriate for each target block, that is, the number of prediction candidate signals to be averaged. It becomes possible. In other words, by determining N with the smallest difference SAD between the comparison signal obtained by averaging the pixel signals of N predicted adjacent regions having a small SAD which is a difference value between the adjacent pixel signals and the adjacent pixel signal. From the searched M candidate prediction signals, a candidate prediction signal suitable for generating a prediction signal can be selected without additional information.

なお、Nの値を2の乗数としているのは、信号の平均化処理を加算とシフト演算のみにて行なうことを考慮したためである。本実施形態においては、Nの値は2の乗数に限定されることはない。また、複数の予測隣接領域の組み合わせを設定する方法は、図6の方法には限定されない。1つの組み合わせに含まれる予測隣接領域の数は1〜M個から任意に設定できる。例えば、Mより小さいN個の予測隣接領域にて構成される組み合わせを作る場合、M個からN個を選ぶ、全ての組み合わせを設定することも可能である。この際、Nの値は固定でもよいし、1〜Mの間で2個以上を選択して組み合わせを設定しもよい。また、符号化器と復号器にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   The reason why the value of N is a multiplier of 2 is that it is considered that the signal averaging process is performed only by addition and shift calculation. In the present embodiment, the value of N is not limited to a multiplier of 2. Moreover, the method of setting the combination of a some prediction adjacent area | region is not limited to the method of FIG. The number of predicted adjacent regions included in one combination can be arbitrarily set from 1 to M. For example, when creating a combination composed of N predicted adjacent regions smaller than M, it is possible to set all combinations of selecting N from M. At this time, the value of N may be fixed, or a combination may be set by selecting two or more of 1 to M. In addition, in order to automatically select the same combination of prediction adjacent regions in the encoder and the decoder, it is necessary to match the setting method of the combination of both.

図7は、本実施形態による複数候補予測信号の平滑化(加重平均)にて予測信号の生成方法を示すフローチャートである。   FIG. 7 is a flowchart showing a prediction signal generation method in smoothing (weighted average) of a plurality of candidate prediction signals according to the present embodiment.

予測領域取得器204では、選択された座標情報に従って、フレームメモリ104から対象ブロックに対応する候補予測信号を1つ以上取得する(S702)。そして、重み付け器205と加算器206とにおいて、取得した候補予測信号を重み付け平均することにより、対象ブロックの予測信号が生成される(S703)。これで、ひとつの対象ブロックに対する処理が終了となる(S704)。   The prediction region acquisition unit 204 acquires one or more candidate prediction signals corresponding to the target block from the frame memory 104 according to the selected coordinate information (S702). Then, the weighting unit 205 and the adder 206 perform weighted averaging of the obtained candidate prediction signals to generate a prediction signal for the target block (S703). This completes the process for one target block (S704).

図8は、本実施形態による画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。まず、図2の予測信号生成器103にて、対象ブロックの予測信号を生成する(S102)。つぎに、対象ブロックの信号と対象ブロックの予測信号との差分を示す残差信号が、変換器106、量子化器107、およびエントロピー符号化器111により符号化される(S103)。そして、符号化された残差信号が出力端子112を介して出力される(S105)。   FIG. 8 is a flowchart showing an image predictive encoding method in the image predictive encoding device 100 according to the present embodiment. First, the prediction signal generator 103 of FIG. 2 generates a prediction signal of the target block (S102). Next, a residual signal indicating a difference between the signal of the target block and the prediction signal of the target block is encoded by the transformer 106, the quantizer 107, and the entropy encoder 111 (S103). The encoded residual signal is output via the output terminal 112 (S105).

その後、後続の対象ブロックを予測符号化するために、符号化された残差信号は逆量子化器108および逆変換器109により復号される。そして、復号された残差信号に加算器110により予測信号が加算され、対象ブロックの信号が再生され、フレームメモリ104に参照画像として記憶される(S106)。そして、全ての対象ブロックの処理が完了していない場合にはS102に戻り、つぎの対象ブロックに対する処理が行われ、完了している場合には、処理を終了する(S107)。   Thereafter, the encoded residual signal is decoded by an inverse quantizer 108 and an inverse transformer 109 in order to predictively encode a subsequent target block. Then, the prediction signal is added to the decoded residual signal by the adder 110, and the signal of the target block is reproduced and stored as a reference image in the frame memory 104 (S106). If all the target blocks have not been processed, the process returns to S102, the process for the next target block is performed, and if it has been completed, the process ends (S107).

以上説明したとおり、本実施形態の画像予測符号化装置100においては、付加情報を用いることなく複数の予測信号を用いて平滑化した予測信号とすることができる。   As described above, in the image predictive coding device 100 of the present embodiment, a prediction signal smoothed using a plurality of prediction signals can be obtained without using additional information.

つぎに、本実施形態における画像予測復号方法について説明する。図9は、本実施形態による画像予測復号装置300を示すブロック図である。この画像予測復号装置300は、入力端子301、エントロピー復号器302(データ復号手段)、逆量子化器303(残差信号復元手段)、逆変換器304(残差信号復元手段)、加算器305(再生画像信号生成手段)、出力端子306、フレームメモリ307、予測信号生成器308(予測信号生成手段)である。逆量子化器303と逆変換器304による残差信号復元手段は、それ以外のものを用いてもよい。また逆変換器304はなくてもよい。以下、各構成について説明する。   Next, an image predictive decoding method according to this embodiment will be described. FIG. 9 is a block diagram showing an image predictive decoding apparatus 300 according to this embodiment. The image predictive decoding apparatus 300 includes an input terminal 301, an entropy decoder 302 (data decoding means), an inverse quantizer 303 (residual signal restoration means), an inverse transformer 304 (residual signal restoration means), and an adder 305. (Reproduced image signal generation means), output terminal 306, frame memory 307, prediction signal generator 308 (prediction signal generation means). As the residual signal restoration means by the inverse quantizer 303 and the inverse transformer 304, other means may be used. Further, the inverse converter 304 may not be provided. Each configuration will be described below.

入力端子301は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、画像を複数のブロックに分割された対象ブロックを予測し符号化された残差信号が含まれている。   The input terminal 301 inputs compressed data that has been compression-encoded by the above-described image predictive encoding method. The compressed data includes a residual signal obtained by predicting and encoding a target block obtained by dividing an image into a plurality of blocks.

エントロピー復号器302は、入力端子301で入力した圧縮データをエントロピー復号することにより、対象ブロックの残差信号の符号化データを復号する。   The entropy decoder 302 decodes the encoded data of the residual signal of the target block by entropy decoding the compressed data input at the input terminal 301.

逆量子化器303は、復号された対象ブロックの残差信号をラインL302経由で入力し、逆量子化する。逆変換器304は、逆量子化したデータを逆離散コサイン変換する。逆量子化器303および逆変換器304は、それぞれ逆量子化、逆離散コサイン変換して得た信号を差分信号(再生残差信号)として出力する。   The inverse quantizer 303 inputs the residual signal of the decoded target block via the line L302 and performs inverse quantization. The inverse transformer 304 performs inverse discrete cosine transform on the inversely quantized data. Inverse quantizer 303 and inverse transformer 304 output signals obtained by inverse quantization and inverse discrete cosine transform, respectively, as difference signals (reproduced residual signals).

予測信号生成器308は、基本的に図2に示した構成と同じ構成またはそれに相当する機能を持ち、図2の予測信号生成器103と同一の処理により予測信号を生成する。予測信号生成器308は、フレームメモリ307に記憶されている再生済み信号のみから予測信号を生成するため、フレームメモリ307と図1におけるフレームメモリ104への入力データを同じ方法で管理することにより、図1の予測信号生成器103と同じ予測信号が生成できる。この予測信号生成器308の構成の詳細については、図2にて説明済みのため割愛する。このように動作する予測信号生成器308は、生成した予測信号をラインL308経由で加算器305に出力する。   The prediction signal generator 308 basically has the same configuration as that shown in FIG. 2 or a function corresponding thereto, and generates a prediction signal by the same processing as the prediction signal generator 103 of FIG. Since the prediction signal generator 308 generates a prediction signal only from the reproduced signal stored in the frame memory 307, by managing the input data to the frame memory 307 and the frame memory 104 in FIG. The same prediction signal as the prediction signal generator 103 in FIG. 1 can be generated. Details of the configuration of the prediction signal generator 308 are omitted because they have already been described with reference to FIG. The prediction signal generator 308 operating in this way outputs the generated prediction signal to the adder 305 via the line L308.

加算器305は、予測信号生成器308で生成された予測信号を、逆量子化器303および逆変換器304により復元された差分信号(再生残差信号)に加算して、対象ブロックの再生画像信号をラインL305経由で出力端子306およびフレームメモリ307に出力する。そして、出力端子306は、外部に(例えばディスプレイ)出力する。   The adder 305 adds the prediction signal generated by the prediction signal generator 308 to the difference signal (reproduction residual signal) restored by the inverse quantizer 303 and the inverse transformer 304, and reproduces the reproduced image of the target block. The signal is output to the output terminal 306 and the frame memory 307 via the line L305. The output terminal 306 outputs to the outside (for example, a display).

フレームメモリ307は、つぎの復号処理のための参照用の再生画像として、加算器305から出力された再生画像を参照画像として記憶する。この際、図1の画像予測符号化装置100と同様の方法で再生画像を管理する。   The frame memory 307 stores the reproduction image output from the adder 305 as a reference image as a reference reproduction image for the next decoding process. At this time, the reproduced image is managed by the same method as that of the image predictive coding apparatus 100 of FIG.

つぎに、図10を用いて本実施形態による画像予測復号装置300における画像予測復号方法を説明する。まず、入力端子301を介して、圧縮された圧縮データは入力される(S302)。そして、エントロピー復号器302において、圧縮データに対しエントロピー復号が行われ、量子化された変換係数が抽出される(S303)。ここで予測信号生成器308にて予測信号が生成される(S304)。S304の処理は、基本的に図8の処理S102と同じであり、図5〜7の処理が実施される。   Next, the image predictive decoding method in the image predictive decoding apparatus 300 according to the present embodiment will be described with reference to FIG. First, the compressed compressed data is input via the input terminal 301 (S302). Then, the entropy decoder 302 performs entropy decoding on the compressed data and extracts quantized transform coefficients (S303). Here, a prediction signal is generated by the prediction signal generator 308 (S304). The process of S304 is basically the same as the process S102 of FIG. 8, and the processes of FIGS.

一方、量子化された変換係数は、逆量子化器303において量子化パラメータを用いて逆量子化され、逆変換器304において逆変換が行われ、再生差分信号が生成される(S305)。そして、生成された予測信号と再生差分信号とが加算され再生信号が生成され、再生信号は次の対象ブロックを再生するためにフレームメモリに記憶される(S306)。つぎの圧縮データがある場合には、再度このプロセスを繰り返し(S307)、全てのデータは最後まで処理される(S308)。なお、必要に応じてS302に戻り、圧縮データを取り込むようにしても良い。   On the other hand, the quantized transform coefficient is inversely quantized using the quantization parameter in the inverse quantizer 303, and inverse transform is performed in the inverse transformer 304, thereby generating a reproduction difference signal (S305). Then, the generated prediction signal and the reproduction difference signal are added to generate a reproduction signal, and the reproduction signal is stored in the frame memory to reproduce the next target block (S306). If there is next compressed data, this process is repeated again (S307), and all data is processed to the end (S308). If necessary, the process may return to S302 and take in compressed data.

本実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory.

図11は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、エントロピー符号化モジュールP111を含んで構成されている。なお、予測信号生成モジュールP103は、図12に示すように、テンプレートマッチングモジュールP201、候補予測信号の組み合わせ決定モジュールP202および予測信号合成モジュールP203を含んで構成されている。   FIG. 11 is a block diagram illustrating modules of a program that can execute the image predictive coding method. The image predictive coding program P100 includes a block division module P102, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a transformation module P106, a quantization module P107, an inverse quantization module P108, an inverse transformation module P109, and an addition module P110. The entropy encoding module P111 is included. As shown in FIG. 12, the prediction signal generation module P103 includes a template matching module P201, a candidate prediction signal combination determination module P202, and a prediction signal synthesis module P203.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測符号化装置100の各構成要素と同じである。すなわち、画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111の機能と同様であり、予測信号生成モジュールP103の各モジュールの機能は、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、信号合成のための予測領域取得器204〜加算器206の機能と同様である。   The functions realized by executing the modules are the same as those of the constituent elements of the image predictive coding apparatus 100 described above. That is, the function of each module of the image predictive coding program P100 includes a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, an inverse quantizer 108, and an inverse quantizer. The functions of the converter 109, the adder 110, and the entropy encoder 111 are the same, and the functions of each module of the prediction signal generation module P103 are the template matching unit 201, the candidate prediction signal combination determiner 203, and signal synthesis. This is similar to the functions of the prediction region acquisition unit 204 to the addition unit 206.

また、図13は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP300は、エントロピー復号モジュールP302、逆量子化モジュールP303、逆変換モジュールP304、加算モジュールP305、記憶モジュールP307、予測信号生成モジュールP308を含んで構成されている。   FIG. 13 is a block diagram showing modules of a program that can execute the image predictive decoding method. The image predictive decoding program P300 includes an entropy decoding module P302, an inverse quantization module P303, an inverse transform module P304, an addition module P305, a storage module P307, and a prediction signal generation module P308.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置300の各構成要素と同じである。すなわち、画像予測復号プログラムP300の各モジュールの機能は、エントロピー復号器302、逆量子化器303、逆変換器304、加算器305、フレームメモリ307の機能と同様である。なお、予測信号生成モジュールP308は、画像予測符号化プログラムP100における予測信号生成モジュールP103と同等の機能を有するものであって、テンプレートマッチング器201、候補予測信号の組み合わせ決定器203、信号合成のための予測領域取得器204〜加算器206の機能を備えている。   The functions realized by executing the modules are the same as those of the components of the image predictive decoding apparatus 300 described above. That is, the function of each module of the image predictive decoding program P300 is the same as the functions of the entropy decoder 302, the inverse quantizer 303, the inverse transformer 304, the adder 305, and the frame memory 307. The prediction signal generation module P308 has a function equivalent to that of the prediction signal generation module P103 in the image prediction encoding program P100, and includes a template matching unit 201, a candidate prediction signal combination determination unit 203, and signal synthesis. Functions of the prediction region acquisition unit 204 to the adder 206 are provided.

このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP300は、記録媒体10に記憶され、後述するコンピュータで実行される。   The image predictive encoding program P100 or the image predictive decoding program P300 configured as described above is stored in the recording medium 10 and executed by a computer described later.

図16は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図17は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。コンピュータとして、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 16 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 17 is a perspective view of the computer for executing a program stored in the recording medium. Examples of the computer include a DVD player, a set-top box, a mobile phone, and the like that have a CPU and perform processing and control by software.

図16に示すように、コンピュータ30は、フロッピーディスクドライブ装置(フロッピーは登録商標)、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20およびキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に記憶された画像予測符号化プログラムP100または画像予測復号プログラムP300にアクセス可能になり、画像予測符号化プログラムP100または画像予測復号プログラムP300によって、本実施形態の画像予測符号化装置100または画像予測復号装置300として動作することが可能になる。   As shown in FIG. 16, the computer 30 includes a reading device 12 such as a floppy disk drive device (floppy is a registered trademark), a CD-ROM drive device, a DVD drive device, and a working memory (RAM) in which an operating system is resident. 14, a memory 16 for storing a program stored in the recording medium 10, a display device 18 such as a display, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data, and a program CPU 26 for controlling the execution of the above. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the image predictive coding program P100 or the image predictive decoding program P300 stored in the recording medium 10 from the reading device 12, and image predictive coding. The program P100 or the image predictive decoding program P300 can operate as the image predictive encoding device 100 or the image predictive decoding device 300 of the present embodiment.

図17に示すように、画像予測符号化プログラムP100もしくは画像予測復号プログラムP300は、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した画像予測符号化プログラムP100もしくは画像予測復号プログラムP300をメモリ16に記憶し、当該画像予測符号化プログラムP100もしくは画像予測復号プログラムP300を実行することができる。   As shown in FIG. 17, the image predictive coding program P100 or the image predictive decoding program P300 may be provided via a network as a computer data signal 40 superimposed on a carrier wave. In this case, the computer 30 stores the image predictive encoding program P100 or the image predictive decoding program P300 received by the communication device 24 in the memory 16, and executes the image predictive encoding program P100 or the image predictive decoding program P300. it can.

ここまで説明した本実施形態は、以下のように変形してもよい。図2の候補予測信号組み合わせ決定器203では、対象ブロックの対象隣接領域の画素信号と複数の隣接予測領域の画素信号とを加重平均した比較信号との間の差分値であるSAD(絶対誤差値の和)を計算して、最適な候補予測信号の組み合わせを決定しているが、SADではなく、差分信号の二乗誤差の和(SSD)や分散(VAR)を用いても組み合わせの決定は可能である。3つの評価基準はSAD、SSD、VARの順で演算量は増加するが、その一方で、評価の精度は向上し、誤差信号の符号量を少なくできるという効果が見込まれる。   The embodiment described so far may be modified as follows. In the candidate prediction signal combination determiner 203 in FIG. 2, the SAD (absolute error value) that is a difference value between the pixel signal of the target adjacent region of the target block and the comparison signal obtained by weighted averaging the pixel signals of the plurality of adjacent prediction regions. The optimal combination of candidate prediction signals is determined by calculating the sum of the two), but the combination can also be determined by using the sum of the square error of the difference signal (SSD) or variance (VAR) instead of SAD. It is. In the three evaluation criteria, the calculation amount increases in the order of SAD, SSD, and VAR. On the other hand, the evaluation accuracy is improved, and the effect that the code amount of the error signal can be reduced is expected.

また、対象隣接信号と比較信号の差分値であるSADが同じ値となる組み合わせが複数得られたときに、SSDやVARを用いて最終的な組み合わせを決定するという方法も有効である。すなわち、比較・選択器236は、予測隣接領域取得器232において算出されたSADが、これまで算出した最小値と一致していた場合には、さらに、SSDまたはVARを比較対象として、いずれの値のものが小さいか比較する。ここでSSDまたはVARが小さいと判断された組み合わせが比較・選択器236に最小値を有する組み合わせとして記憶されることになる。この場合、比較・選択器236は、SSDまたはVARをSADとともに算出することになり、一時的に記憶しておくことになる。   It is also effective to determine the final combination using SSD or VAR when a plurality of combinations having the same SAD as the difference value between the target adjacent signal and the comparison signal are obtained. That is, when the SAD calculated in the prediction adjacent region acquisition unit 232 matches the minimum value calculated so far, the comparator / selector 236 further selects any value using SSD or VAR as a comparison target. Compare what is small. Here, the combination determined to have a small SSD or VAR is stored in the comparator / selector 236 as a combination having the minimum value. In this case, the comparator / selector 236 calculates SSD or VAR together with SAD, and temporarily stores it.

さらに、隣接予測領域の画素信号ではなく、複数の候補予測信号の組み合わせについて、その分散を計算し、組み合わせの決定に用いる方法も可能である。具体的には、図2の予測隣接領域取得器232、重み付け器234、加算器235は、それぞれ、予測領域取得器204、重み付け器205、加算器206に置き換えることにより実現できる。この変形例は、対象隣接領域取得器233の処理が不要であり、また、比較・選択器236から図1の減算器105に予測信号を出力することが可能となるため、回路規模が削減できるという効果がある。   Furthermore, it is also possible to use a method for calculating the variance of combinations of a plurality of candidate prediction signals instead of the pixel signals in the adjacent prediction region and using them for determining the combination. Specifically, the prediction adjacent region acquisition unit 232, the weighting unit 234, and the adder 235 in FIG. 2 can be realized by replacing with the prediction region acquisition unit 204, the weighting unit 205, and the adder 206, respectively. In this modified example, the processing of the target adjacent region acquisition unit 233 is not necessary, and a prediction signal can be output from the comparison / selection unit 236 to the subtracter 105 in FIG. 1, so that the circuit scale can be reduced. There is an effect.

テンプレートマッチング器201の比較器213においても、対象ブロックの対象隣接領域と探索された対象隣接領域と同じ形状の画素群の評価に差分値であるSADを用いているが、SSDやVARを替えてもよく、上記の候補予測信号組み合わせ決定器203のケースと同様の効果が期待できる。   Also in the comparator 213 of the template matching unit 201, the SAD that is the difference value is used for evaluating the pixel group having the same shape as the target adjacent area of the target block and the searched target adjacent area, but the SSD or VAR is changed. In other words, the same effect as in the case of the candidate prediction signal combination determiner 203 can be expected.

図1の予測信号生成器103(図9の予測信号生成器308)は、図2の構成に限定されない。例えば、図2では、テンプレートマッチング器にて検索した複数の候補予測信号について、その信号にアクセスするための座標情報を座標情報用メモリ202に記憶しているが、候補予測信号と予測隣接領域の画素信号とを記憶しておく構成でも良い。図2内のメモリ量は増加するが、フレームメモリへのアクセスを減らす効果がある。また、テンプレートマッチング器201は、対象隣接領域とM個の予測隣接領域との間の差分値であるSADをラインL201b経由で候補予測信号の組み合わせ決定器203に出力しているが、組み合わせの設定に、これらの差分値であるSADを用いない場合には、ラインL201bは不要である。   The prediction signal generator 103 in FIG. 1 (the prediction signal generator 308 in FIG. 9) is not limited to the configuration in FIG. For example, in FIG. 2, coordinate information for accessing a plurality of candidate prediction signals searched by the template matcher is stored in the coordinate information memory 202. A configuration in which pixel signals are stored may be used. Although the amount of memory in FIG. 2 increases, there is an effect of reducing access to the frame memory. Further, the template matching unit 201 outputs the SAD that is the difference value between the target adjacent region and the M predicted adjacent regions to the candidate prediction signal combination determiner 203 via the line L201b. In addition, when the SAD that is the difference value is not used, the line L201b is unnecessary.

本実施形態では、対象隣接領域を再生済み画素で構成しているが、隣接ブロックの予測信号で構成しても良い。誤差信号の符号化ブロック単位より、予測領域を小さくしたい場合や、符号化・復号処理を行なわずに対象隣接領域の信号を生成したい場合には有効である。   In the present embodiment, the target adjacent area is composed of reproduced pixels, but may be composed of prediction signals of adjacent blocks. This is effective when it is desired to make the prediction area smaller than the coding block unit of the error signal, or when it is desired to generate the signal of the target adjacent area without performing the encoding / decoding process.

本実施形態は、テンプレートマッチングにて、確定しない数の候補信号を探索し、適切な数の候補信号を選択する手法に適用できる。

<第二の実施形態>
第一の実施形態では、予測隣接領域と対象隣接領域の間の相関を利用して、対象領域の予測信号を生成するための候補予測信号(予測領域の画素信号)の組み合わせを複数の候補から決定する方法について示した。第二の実施形態では、複数の候補予測信号間の相関を利用して、対象領域の予測信号を生成するための候補予測信号の組み合わせを複数の候補から決定する予測信号生成器103aを示す。なお、第二の実施形態では、候補予測信号の組み合わせではなく、候補予測信号の数を決定する方法について説明する。この実施形態は、候補予測信号の数に応じて候補予測信号の組み合わせが一意に決まるケースを示すものであり、候補予測信号の組み合わせの一例に過ぎない。第二の実施形態も、第一の実施形態と同じく、複数の候補予測信号の組み合わせの候補から1つの組み合わせを決定する方法に適応可能である。
This embodiment can be applied to a method of searching for an indefinite number of candidate signals and selecting an appropriate number of candidate signals by template matching.

<Second Embodiment>
In the first embodiment, a combination of candidate prediction signals (prediction region pixel signals) for generating a prediction signal of a target region is generated from a plurality of candidates using a correlation between the prediction adjacent region and the target adjacent region. The method of determination was shown. In the second embodiment, a prediction signal generator 103a that determines a combination of candidate prediction signals for generating a prediction signal of a target region from a plurality of candidates using a correlation between the plurality of candidate prediction signals is shown. In the second embodiment, a method for determining the number of candidate prediction signals, not combinations of candidate prediction signals, will be described. This embodiment shows a case where a combination of candidate prediction signals is uniquely determined according to the number of candidate prediction signals, and is merely an example of a combination of candidate prediction signals. Similarly to the first embodiment, the second embodiment can also be applied to a method for determining one combination from a plurality of candidate combinations of candidate prediction signals.

引き続いて、変形した添付図面を参照しながら本発明の第二の実施形態を説明する。第一の実施形態と重複する図面ならびに説明については、説明を省略する。   Subsequently, a second embodiment of the present invention will be described with reference to a modified attached drawing. Description of the drawings and description overlapping with those of the first embodiment will be omitted.

第二の実施形態における予測信号生成器103aの処理について説明する。なお、画像予測復号装置300に適用される予測信号生成器308aについても、予測信号生成器103aと同じ構成および処理を行うものである。また、図1の画像予測符号化装置100と図9の画像予測復号装置300については、予測信号生成器103aならびに308a内の動作は第一の実施形態とは異なるが、信号の入出力関係は第一の実施形態と同じであり、説明を割愛する。図18は、本実施形態による画像予測符号化装置100に用いられる予測信号生成器103aを示すブロック図であり、テンプレートマッチング器201と座標情報用メモリ202と平均化数決定器1800と予測領域取得器204と重み付け器205と加算器206とを含んで構成されている。   Processing of the prediction signal generator 103a in the second embodiment will be described. Note that the prediction signal generator 308a applied to the image predictive decoding apparatus 300 performs the same configuration and processing as the prediction signal generator 103a. In addition, regarding the image predictive coding apparatus 100 of FIG. 1 and the image predictive decoding apparatus 300 of FIG. This is the same as in the first embodiment, and a description thereof is omitted. FIG. 18 is a block diagram showing the prediction signal generator 103a used in the image predictive coding apparatus 100 according to the present embodiment. The template matching unit 201, the coordinate information memory 202, the averaging number determiner 1800, and the prediction region acquisition. The unit 204 includes a weighter 205 and an adder 206.

テンプレートマッチング器201の処理は、図2と同じである。つまり、ラインL104経由でフレームメモリ104から過去の処理で既に再生された画像信号(再生画像信号)が入力され、対象領域の対象画素信号に対する予測信号の候補(候補予測信号)を後述するテンプレートマッチングにより複数探索し、探索した候補予測信号にアクセスするための座標情報をラインL201a経由で座標情報用メモリ202に出力する。同時に、対象領域と各候補予測信号との間の関係を示す差分値データ(後述する絶対誤差値の和(SAD(sumof absolute difference)に相当)をラインL201b経由で平均化数決定器1800に出力する。なお、本実施形態では、第一の実施形態と同じく、対象領域(対象ブロック)を8x8の画素からなる符号化対象ブロックを分割した4x4画素の小ブロックとするが、それ以外のブロックの大きさまたは形に分割してもよいし、分割しなくてもよい。   The processing of the template matching unit 201 is the same as that in FIG. That is, an image signal (reproduced image signal) that has already been reproduced in the past process is input from the frame memory 104 via the line L104, and a candidate for a prediction signal (candidate prediction signal) for the target pixel signal in the target region is template matching described later. And a plurality of coordinate information for accessing the searched candidate prediction signal is output to the coordinate information memory 202 via the line L201a. At the same time, difference value data (corresponding to the sum of absolute error values (corresponding to SAD (sumof absolute difference) described later) indicating the relationship between the target region and each candidate prediction signal is output to the averaging number determiner 1800 via the line L201b. In this embodiment, as in the first embodiment, the target area (target block) is a small block of 4 × 4 pixels obtained by dividing the encoding target block made up of 8 × 8 pixels, but the other blocks It may be divided into sizes or shapes, or may not be divided.

平均化数決定器1800では、ラインL202a経由で入力された複数の候補予測信号にアクセスするための座標情報に基づいて、複数の候補予測信号を取得し、これらの相関を考慮して、対象領域の予測信号を生成に用いる候補予測信号の数を決定する。決定した候補予測信号の数は、候補予測信号の平均化数情報としてラインL203経由で予測領域取得器204に出力する。   The averaging number determiner 1800 obtains a plurality of candidate prediction signals based on the coordinate information for accessing the plurality of candidate prediction signals input via the line L202a, and considers the correlation between them. The number of candidate prediction signals used for generating the prediction signal is determined. The determined number of candidate prediction signals is output to the prediction region acquisition unit 204 via line L203 as information on the number of candidate prediction signal averages.

予測領域取得器204は、ラインL203経由で入力された候補予測信号の平均化数情報に従って、平均化数決定器1800にて決定した数の候補予測信号の座標情報をラインL202b経由で取得する。そして、予測領域取得器204は、ラインL104経由でフレームメモリ104から、取得した座標情報に対応する候補予測信号を取得し、随時重み付け器205に出力する。重み付け器205は、ラインL204経由で入力された各候補予測信号に重み係数を掛け、ラインL205経由で加算器206に出力する。加算器206は重み付けされた候補予測信号を順次加算し、予測信号としてラインL103経由で図1の減算器105に出力する。なお、重み付け器の動作については、例えば、候補予測信号の数がNのとき1/Nを各候補予測信号に掛ける手法などがあるが、他の手法でもよい。   The prediction area acquisition unit 204 acquires the coordinate information of the number of candidate prediction signals determined by the averaging number determiner 1800 via the line L202b according to the average number information of the candidate prediction signals input via the line L203. Then, the prediction region acquisition unit 204 acquires a candidate prediction signal corresponding to the acquired coordinate information from the frame memory 104 via the line L104 and outputs it to the weighting unit 205 as needed. The weighting unit 205 multiplies each candidate prediction signal input via the line L204 by a weighting coefficient, and outputs the result to the adder 206 via the line L205. The adder 206 sequentially adds the weighted candidate prediction signals and outputs the result as a prediction signal to the subtracter 105 in FIG. 1 via the line L103. As for the operation of the weighting unit, for example, there is a method of multiplying each candidate prediction signal by 1 / N when the number of candidate prediction signals is N, but other methods may be used.

図18におけるテンプレートマッチング器201の動作は、図2と同じであるため、詳細説明は割愛するが、フレームメモリ104内の探索領域内から対象隣接領域の画素信号(隣接画素信号)との間のSADが小さいM個の予測隣接領域を探索し、このM個の予測隣接領域(および予測領域)にアクセスするための情報である座標情報をラインL201経由で座標情報用メモリ202に出力する。また、算出したM個のSAD値をラインL201b経由で、平均化数決定器1800に出力する。   Since the operation of the template matching unit 201 in FIG. 18 is the same as that in FIG. 2, the detailed description is omitted, but between the search area in the frame memory 104 and the pixel signal (adjacent pixel signal) of the target adjacent area. M predicted adjacent areas having a small SAD are searched, and coordinate information, which is information for accessing the M predicted adjacent areas (and predicted areas), is output to the coordinate information memory 202 via the line L201. In addition, the calculated M SAD values are output to the averaging number determiner 1800 via the line L201b.

つぎに、候補予測信号に関する平均化数決定器1800の動作を説明する。平均化数決定器1800は、カウンター1801、代表予測領域取得器1802、予測領域間の相関評価値算出器1803および閾値処理器1804を含んで構成される。   Next, the operation of the averaging number determiner 1800 regarding the candidate prediction signal will be described. The averaging number determiner 1800 includes a counter 1801, a representative prediction region acquisition unit 1802, a correlation evaluation value calculator 1803 between prediction regions, and a threshold processing unit 1804.

カウンター1801は、ラインL201bを経由して入力されたMに基づいて、平均化数の候補Nを設定する。本実施形態では、Nの最大値をMとし、N=2となるまでNを小さくしていく。M=6の場合には、6、5、4、3、2の順に、ラインL1801経由でNの値が代表予測領域取得器1802と閾値処理器1804とに出力される。なお、カウンター1801におけるNの値は上記には限定されない。例えば、Nの値を、Mより小さい2の乗数とし、M=6のとき、4、2の順でカウンターからNの値を出力してもよいし、N=4のように、Nの値を1つに限定してもよい。但し、符号化器である画像予測符号化装置100と復号器である後述する画像予測復号装置300にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   The counter 1801 sets an average number candidate N based on M input via the line L201b. In the present embodiment, the maximum value of N is M, and N is decreased until N = 2. In the case of M = 6, the value of N is output to the representative prediction region acquisition unit 1802 and the threshold processing unit 1804 via the line L1801 in the order of 6, 5, 4, 3, 2. Note that the value of N in the counter 1801 is not limited to the above. For example, the value of N may be a multiplier of 2 smaller than M, and when M = 6, the value of N may be output from the counter in the order of 4 and 2, or the value of N as N = 4. May be limited to one. However, in order to automatically select the same prediction adjacent region combination in the image predictive encoding device 100 which is an encoder and the image predictive decoding device 300 which will be described later as a decoder, the setting method of the combination of both is made to match. It is necessary to keep.

代表予測領域取得器1802は、Nの値の候補が1つ入力されると、テンプレートマッチング器201にて探索されたM個の予測領域のうち、予測隣接領域の画素信号と対象隣接領域の画素信号(隣接画素信号)との間のSADが小さいN個の予測領域にアクセスするための座標情報をラインL202a経由で座標情報用メモリ202から取得する。次に、この座標情報を用いて、予め決められた予測領域の画素信号をフレームメモリ104から取得する。本実施形態では、予測隣接領域の画素信号と対象隣接領域の画素信号(隣接画素信号)との間のSADが最も小さい予測領域の画素信号p0(i, j)とN番目に小さい予測領域の画素信号pN-1(i,j)を取得し、ラインL1802経由で、予測領域間の相関評価値算出器1803に出力する。ここで、(i, j)は予測領域内の画素位置を示している。i, jは0〜B-1の範囲の値であり、対象領域が4x4の場合にはB=4となる。 When one candidate for the value of N is input, the representative prediction region acquisition unit 1802 outputs the pixel signal of the prediction adjacent region and the pixel of the target adjacent region among the M prediction regions searched by the template matching unit 201. The coordinate information for accessing the N prediction regions having a small SAD between the signals (adjacent pixel signals) is acquired from the coordinate information memory 202 via the line L202a. Next, a pixel signal of a predetermined prediction area is acquired from the frame memory 104 using this coordinate information. In the present embodiment, the pixel signal p 0 (i, j) in the prediction region having the smallest SAD between the pixel signal in the prediction adjacent region and the pixel signal (adjacent pixel signal) in the target adjacent region and the Nth smallest prediction region Pixel signal p N-1 (i, j) is obtained and output to the correlation evaluation value calculator 1803 between the prediction regions via the line L1802. Here, (i, j) indicates the pixel position in the prediction region. i and j are values in the range of 0 to B-1, and B = 4 when the target region is 4 × 4.

予測領域間の相関評価値算出器1803は、ラインL1802経由で、2個の予測領域の画素信号(候補予測信号)が入力されると、下記式(1)に従って、N値に対する予測領域間の相関評価値EVNを算出し、ラインL1803経由で、閾値処理器1804に出力する。

Figure 2008283662

When the pixel signals (candidate prediction signals) of the two prediction regions are input via the line L1802, the correlation evaluation value calculator 1803 between the prediction regions is calculated between the prediction regions for the N values according to the following equation (1). Correlation evaluation value EV N is calculated and output to threshold value processor 1804 via line L1803.
Figure 2008283662

閾値処理器1804は、ラインL1803経由でN値に対する予測領域間の相関評価値が入力されると、この相関評価値EVNと予め定めた閾値th(N)を比較する。本実施形態ではth(N)の値は、Nの値に依らず32とする。Nに対する相関評価値が予め定めた閾値th(N)より小さい場合には、候補予測信号の平均化数ANがNに決定され、Nの値が候補予測信号の平均化数情報としてラインL203経由で予測領域取得器204に出力される。Nに対する相関評価値が予め定めた閾値th(N)より大きい場合には、ラインL1804経由で、Nの値を小さい値に更新するようにカウンター1801に通知される。但し、Nの値が2の場合には、ANの値が1に決定され、候補予測信号の平均化数情報としてラインL203経由で予測領域取得器204に出力される。なお、カウンター1801の出力値を固定値としている平均化数決定器では、Nに対する相関評価値EVNが予め定めた閾値th(N)より大きい場合でも、Nの値を更新せず、ANの値は予め定めたデフォルト値(例えば1)に決定され、候補予測信号の平均化数情報としてラインL203経由で予測領域取得器204に出力される。 Thresholding unit 1804, the correlation evaluation value between the prediction region for the N value via line L1803 is input, compares the predetermined threshold th and the correlation evaluation value EV N (N). In the present embodiment, the value of th (N) is 32 regardless of the value of N. If the correlation evaluation value for N is smaller than a predetermined threshold th (N), the average number AN of the candidate prediction signal is determined to be N, and the value of N passes through line L203 as the average number information of the candidate prediction signal. Is output to the prediction region acquisition unit 204. When the correlation evaluation value for N is larger than a predetermined threshold th (N), the counter 1801 is notified via the line L1804 to update the value of N to a smaller value. However, when the value of N is 2, the value of AN is determined to be 1, and is output to the prediction region acquisition unit 204 via the line L203 as the average number information of the candidate prediction signal. Note that in the averaging number determiner in which the output value of the counter 1801 is a fixed value, even if the correlation evaluation value EV N for N is larger than a predetermined threshold th (N), the value of N is not updated, and the AN The value is determined to be a predetermined default value (for example, 1), and is output to the prediction region acquisition unit 204 via the line L203 as the average number information of the candidate prediction signal.

このように、本実施形態によれば、対象領域(対象ブロック)毎に、付加情報なしで、予測信号生成に有効な候補予測信号の数を選択することが可能となる。複数の候補予測信号の平均化による雑音除去は、候補予測信号の雑音成分だけが異なり信号成分が類似している場合に効果がある。本発明では、候補予測信号間の類似度を評価することにより、予測信号の生成に候補予測信号の数を対象領域毎に決定できる。   As described above, according to the present embodiment, it is possible to select the number of candidate prediction signals effective for prediction signal generation without additional information for each target region (target block). Noise removal by averaging a plurality of candidate prediction signals is effective when only the noise components of the candidate prediction signals are different and the signal components are similar. In the present invention, by evaluating the similarity between candidate prediction signals, the number of candidate prediction signals can be determined for each target region for generating a prediction signal.

なお、予測領域間の相関評価値EVNを算出する方法は式(1)に限定されない。例えば、以下の式(2)や式(3)を用いて、N個の候補予測信号間の差分値を相互に評価し、その加算値を相関評価値としてもよい。但し、この場合には、代表予測領域取得器1802は、N個の候補予測信号をフレームメモリ104から取得する必要がある。

Figure 2008283662


Figure 2008283662

Note that the method of calculating the correlation evaluation value EV N between the prediction regions is not limited to Equation (1). For example, the following equation (2) or equation (3) may be used to mutually evaluate a difference value between N candidate prediction signals, and the added value may be used as a correlation evaluation value. However, in this case, the representative prediction region acquisition unit 1802 needs to acquire N candidate prediction signals from the frame memory 104.
Figure 2008283662


Figure 2008283662

また、閾値th(N)も32には限定されない。例えば、対象領域内の画素数が変われば、その閾値も変更する必要がある。さらに、式(2)や式(3)を用いて、予測領域間の相関評価値を算出する場合には、Nの値に応じて、th(N)を適応的に変化させる必要がある。   Also, the threshold th (N) is not limited to 32. For example, if the number of pixels in the target region changes, the threshold value needs to be changed. Further, when the correlation evaluation value between prediction regions is calculated using Expression (2) or Expression (3), it is necessary to adaptively change th (N) according to the value of N.

th(N)の値は、符号化器と復号器で同じ値にする必要がある。予め決めておいても良いが、シーケンス単位やフレーム単位あるいはスライス(複数のブロックで構成)単位で符号化して復号器に送る方法も考えられる。また、ブロック単位で送っても良い。   The value of th (N) needs to be the same value in the encoder and the decoder. Although it may be determined in advance, a method of encoding in sequence units, frame units, or slices (composed of a plurality of blocks) and sending them to the decoder is also conceivable. Moreover, you may send in a block unit.

つぎに、候補予測信号の平均化数決定器1800の処理について図を用いて説明する。本実施形態によるテンプレートマッチング器201の処理については、図5で説明済みのため説明を割愛するが、図5は、対象領域(対象ブロック)に画素信号(対象画素信号)に対する複数(M個)の候補予測信号(および予測隣接領域の画素信号)を探索し、探索した候補予測信号(ならびに予測隣接領域の画素信号)にアクセスするための座標情報を取得する方法を示すフローチャートであり、対象領域に隣接する対象隣接領域の隣接画素信号とのSADが小さいM個の予測隣接領域の画素信号を参照画像上の探索領域から探索する処理を行なう。   Next, the processing of the candidate prediction signal averaging number determiner 1800 will be described with reference to the drawings. Since the processing of the template matching unit 201 according to the present embodiment has already been described with reference to FIG. 5, the description thereof will be omitted, but FIG. Is a flowchart showing a method of searching for a candidate prediction signal (and a pixel signal of a predicted adjacent region) and acquiring coordinate information for accessing the searched candidate prediction signal (and a pixel signal of the predicted adjacent region) A process of searching for pixel signals of M predicted adjacent areas having a small SAD with the adjacent pixel signal of the target adjacent area adjacent to the reference image from the search area on the reference image is performed.

つぎに、候補予測信号に関する平均化数決定器1800の処理について図を用いて説明する。図19は、本実施形態による平均化数決定器1800における、候補予測信号の平滑化(加重平均)による予測信号の生成に適した候補予測信号の数を選択する方法を示すフローチャートである。まず、平均化数決定器1800のカウンター1801は、候補予測信号の数NをMに設定する(1902)。   Next, the processing of the averaging number determiner 1800 regarding the candidate prediction signal will be described with reference to the drawings. FIG. 19 is a flowchart showing a method of selecting the number of candidate prediction signals suitable for generating a prediction signal by smoothing (weighted average) of candidate prediction signals in the averaging number determiner 1800 according to this embodiment. First, the counter 1801 of the averaging number determiner 1800 sets the number N of candidate prediction signals to M (1902).

次に、代表予測領域取得器1802にて、カウンター1801により設定されたN個の予測領域の画素信号(候補予測信号)がラインL104を経由して取得される。すなわち、代表予測領域取得器1802は、当該対象ブロックに隣接する対象隣接領域の隣接画素信号との絶対値差分和(SAD)が小さいN個の予測隣接領域について、対応する座標情報を座標情報用メモリ202から取得する。そして、取得した座標情報に対応するN個の予測領域をフレームメモリ104から取得する(S1903)。   Next, pixel signals (candidate prediction signals) of N prediction regions set by the counter 1801 are acquired via the line L104 by the representative prediction region acquisition unit 1802. That is, the representative prediction area acquisition unit 1802 uses corresponding coordinate information for coordinate information for N prediction adjacent areas whose absolute value difference sum (SAD) is small with the adjacent pixel signal of the target adjacent area adjacent to the target block. Obtained from the memory 202. Then, N prediction regions corresponding to the acquired coordinate information are acquired from the frame memory 104 (S1903).

そして、予測領域間の相関評価値算出器1803は、N個の予測領域間の相関評価値EVNを式(1)に従って算出する。なお、式(1)では、2個の予測領域の画素信号のみをEVNの算出に用いるため、この場合、処理S1903で取得する予測領域は2個のみでもよい。 Then, a correlation evaluation value calculator 1803 between prediction regions calculates a correlation evaluation value EV N between N prediction regions according to the equation (1). In Expression (1), since only pixel signals of two prediction areas are used for EV N calculation, in this case, only two prediction areas may be acquired in step S1903.

その後、閾値処理器1804にて、EVNと予め定めた閾値th(N)(本実施形態では32)を比較し(S1905)、EVNがth(N)より小さい場合には、候補予測信号の平均化数ANをNに決定し(S1906)、処理を終了する(S1910)。EVNがth(N)より大きい場合には、S1907に進む。なお、S1905では、EVNとth(N)が同じ場合には、S1907に進むようにしているが、S1906に進むようにしてもよい。S1907では、カウンター1801がNの値を更新する(S1907)。この際、Nの値が1の場合(S1908)には、平均化数決定器1800は、ANを1に決定し(S1909)、処理を終了する。Nの値が2以上の場合には、S1904に戻る。なお、平均化数決定器1800が、Nの候補を1つに固定している場合には、その固定値がS1902にてNに設定され、S1907とS1908は省略される。 Thereafter, the threshold value processor 1804 compares EV N with a predetermined threshold value th (N) (32 in this embodiment) (S1905). If EV N is smaller than th (N), the candidate prediction signal Is determined to be N (S1906), and the process is terminated (S1910). If EV N is greater than th (N), the process proceeds to S1907. In S1905, when EV N and th (N) are the same, the process proceeds to S1907. However, the process may proceed to S1906. In S1907, the counter 1801 updates the value of N (S1907). At this time, if the value of N is 1 (S1908), the averaging number determiner 1800 determines AN as 1 (S1909) and ends the process. If the value of N is 2 or more, the process returns to S1904. When the averaging number determiner 1800 fixes N candidates to one, the fixed value is set to N in S1902, and S1907 and S1908 are omitted.

このように、本実施形態の平均化数決定処理によれば、対象領域(対象ブロック)毎に、付加情報なしで、予測信号生成に有効な候補予測信号の数を選択することが可能となる。複数の候補予測信号の平均化による雑音除去は、候補予測信号の雑音成分だけが異なり信号成分が類似している場合に効果がある。本発明では、候補予測信号間の類似度を評価することにより、予測信号の生成に候補予測信号の数を対象領域毎に決定できる。   As described above, according to the averaging number determination process of the present embodiment, it is possible to select the number of candidate prediction signals effective for prediction signal generation without additional information for each target region (target block). . Noise removal by averaging a plurality of candidate prediction signals is effective when only the noise components of the candidate prediction signals are different and the signal components are similar. In the present invention, by evaluating the similarity between candidate prediction signals, the number of candidate prediction signals can be determined for each target region for generating a prediction signal.

なお、予測領域間の相関評価値を算出する方法は式(1)に限定されない。例えば、式(2)や式(3)を用いて、N個の候補予測信号間の差分値を相互に評価し、その加算値を相関評価値としてもよい。但し、この場合には、代表予測領域取得器1802は、N個の候補予測信号をフレームメモリ104から取得する必要がある。   Note that the method of calculating the correlation evaluation value between the prediction regions is not limited to the equation (1). For example, a difference value between N candidate prediction signals may be evaluated mutually using Equation (2) or Equation (3), and the added value may be used as a correlation evaluation value. However, in this case, the representative prediction region acquisition unit 1802 needs to acquire N candidate prediction signals from the frame memory 104.

また、閾値th(N)も32には限定されない。例えば、対象領域内の画素数が変われば、その閾値も変更する必要がある。さらに、式(2)や式(3)を用いて、予測領域間の相関評価値を算出する場合には、Nの値に応じて、th(N)を適応的に変化させる必要がある。   Also, the threshold th (N) is not limited to 32. For example, if the number of pixels in the target region changes, the threshold value needs to be changed. Further, when the correlation evaluation value between prediction regions is calculated using Expression (2) or Expression (3), it is necessary to adaptively change th (N) according to the value of N.

th(N)の値は、符号化器と復号器で同じ値にする必要がある。予め決めておいても良いが、シーケンス単位やフレーム単位で符号化して送る方法も考えられる。   The value of th (N) needs to be the same value in the encoder and the decoder. Although it may be determined in advance, a method of encoding and sending in sequence units or frame units is also conceivable.

本実施形態では、M=6の場合において、Nの候補を6、5、4、3、2としているが、この設定に限定されない。例えば、Nの値の候補を2の乗数である、4と2にしてもよい。この処理は、S1902にNの値を4に設定し、S1907をNの値を半分する処理(N=N/2)に変更することで実現できる(M=6の場合)。但し、符号化処理と復号処理で、Nの候補の設定方法を一致させておく必要がある。   In the present embodiment, when M = 6, N candidates are set to 6, 5, 4, 3, 2, but the present invention is not limited to this setting. For example, N value candidates may be 4 and 2, which are multipliers of 2. This process can be realized by setting the value of N to 4 in S1902 and changing S1907 to a process of halving the value of N (N = N / 2) (when M = 6). However, it is necessary to match the N candidate setting methods in the encoding process and the decoding process.

図20は、本実施形態による複数候補予測信号の平滑化(加重平均)にて予測信号の生成方法を示すフローチャートである。   FIG. 20 is a flowchart showing a prediction signal generation method in smoothing (weighted average) of a plurality of candidate prediction signals according to the present embodiment.

予測領域取得器204では、選択された座標情報と候補予測信号の平均化数情報 に従って、フレームメモリ104から対象ブロックに対応する候補予測信号をAN個取得する(S2002)。そして、重み付け器205と加算器206とにおいて、取得した候補予測信号を重み付け平均することにより、対象ブロックの予測信号が生成される(S2003)。これで、ひとつの対象ブロックに対する処理が終了となる(S2004)。   The prediction region acquisition unit 204 acquires AN candidate prediction signals corresponding to the target block from the frame memory 104 according to the selected coordinate information and candidate prediction signal averaging number information (S2002). Then, the weighting unit 205 and the adder 206 perform weighted averaging of the obtained candidate prediction signals to generate a prediction signal for the target block (S2003). This completes the processing for one target block (S2004).

第二の本実施形態による画像予測符号化装置100における画像予測符号化方法と画像予測復号方法については、図8と図9に示したフローチャートと処理過程が同じであるため説明を割愛する。   The image predictive encoding method and the image predictive decoding method in the image predictive encoding device 100 according to the second embodiment are the same as the flowcharts shown in FIGS. 8 and 9 and will not be described.

この第二の実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。画像予測符号化方法を実行することができるプログラムのモジュールと画像予測復号方法を実行することができるプログラムのモジュールの構成は図11ならびに図13に示したブロック図と同じであるため、説明を割愛する。なお、予測信号生成モジュールP103は、図21に示すように、テンプレートマッチングモジュールP201、平均化信号数決定モジュールP2102および予測信号合成モジュールP203を含んで構成されている。記録媒体に記録されたプログラムを実行するためのハードウェアやコンピュータについても図16と図17に説明済みのため説明を割愛する。   The image predictive encoding method and the image predictive decoding method according to the second embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory. The configuration of the program module capable of executing the image predictive coding method and the program module capable of executing the image predictive decoding method are the same as those in the block diagrams shown in FIGS. To do. As shown in FIG. 21, the predicted signal generation module P103 includes a template matching module P201, an average signal number determination module P2102, and a predicted signal synthesis module P203. The hardware and computer for executing the program recorded on the recording medium have also been described in FIGS. 16 and 17 and will not be described.

ここまで説明した実施形態は、以下のように変形してもよい。   The embodiment described so far may be modified as follows.

上記では、候補予測信号の組み合わせの決定に用いる相関評価値を、予測領域の画素信号(候補予測信号)にて算出しているが、予測領域の代わりに予測領域に隣接する予測隣接領域の画素信号を用いて、相関評価値を算出してもよい。さらに、予測領域と予測隣接領域とを併せた領域の画素信号(例えば、図3における予測隣接領域404bと予測領域405bとからなる領域)を用いて相関評価値を算出してもよい。   In the above description, the correlation evaluation value used to determine the combination of candidate prediction signals is calculated using the pixel signal (candidate prediction signal) in the prediction region, but the pixel in the prediction adjacent region adjacent to the prediction region instead of the prediction region A correlation evaluation value may be calculated using the signal. Furthermore, the correlation evaluation value may be calculated using a pixel signal of a region that combines the prediction region and the prediction adjacent region (for example, a region including the prediction adjacent region 404b and the prediction region 405b in FIG. 3).

上記では、平均化数決定器ならびに平均化数決定処理にてANの値を決定していたが、1つまたは2,3のNの候補についてのみ本発明の閾値処理を行い、閾値より予測領域の相関評価値EVが大きい場合には、他の方法でANを決めるような組み合わせも可能である。例えば、1つのNの候補について、EVNを算出して第二の実施形態における閾値処理を行い、EVNがth(N)より小さい場合にはAN=Nとし、EVNがth(N)より大きい場合は、第一の実施形態における候補予測信号の組み合わせ決定処理を適用してANの値を決める方法が考えられる。つまり、複数のANの候補nについて、n個の予測隣接領域の画素信号を平均化した比較信号と隣接画素信号との間の差分SADが最も小さいnをANとする方法が考えられる。 In the above, the AN value is determined by the averaging number determiner and the averaging number determination process. However, the threshold value processing of the present invention is performed only for one or a few N candidates, and the prediction region is determined from the threshold value. When the correlation evaluation value EV is large, a combination that determines AN by other methods is also possible. For example, EV N is calculated for one N candidate and threshold processing in the second embodiment is performed. When EV N is smaller than th (N), AN = N and EV N is equal to th (N). If larger, a method of determining the AN value by applying the candidate prediction signal combination determination process in the first embodiment is conceivable. That is, for a plurality of AN candidates n, a method may be considered in which n is the smallest difference SAD between the comparison signal obtained by averaging the pixel signals of n predicted adjacent regions and the adjacent pixel signal.

図2の平均化数決定器1800では、予測領域の画素信号(候補予測信号)間のSAD(絶対誤差値の和)を用いて予測領域の相関評価値を算出しているが、SADではなく、差分信号の二乗誤差の和(SSD)や分散(VAR)を用いることも可能である。3つの評価基準はSAD、SSD、VARの順で演算量は増加するが、その一方で、評価の精度は向上し、誤差信号の符号量を少なくできるという効果が見込まれる。また、SADやSSDではなく、絶対値誤差平均(MAD)や平均二乗誤差(MSE)を用いてもよい。   In the averaging number determiner 1800 of FIG. 2, the correlation evaluation value of the prediction region is calculated using SAD (sum of absolute error values) between the pixel signals (candidate prediction signals) of the prediction region. It is also possible to use the sum (SSD) or variance (VAR) of the square error of the difference signal. In the three evaluation criteria, the calculation amount increases in the order of SAD, SSD, and VAR. On the other hand, the evaluation accuracy is improved, and the effect that the code amount of the error signal can be reduced is expected. Also, instead of SAD or SSD, absolute value error average (MAD) or mean square error (MSE) may be used.

第一の実施形態におけるテンプレートマッチングに関する変形例は、第二の実施形態にも当てはまる。
The modification regarding template matching in the first embodiment also applies to the second embodiment.

<第三の実施形態>
第一ならびに第二の実施形態では、複数の候補予測信号から対象領域の予測信号を生成する際の重み付け平均は、予め定められた一つの手法であることを前提として説明してきた。しかしながら、本発明の第一の実施形態における候補予測信号の組み合わせ選択手法を利用すれば、用意した複数の重み付け係数から付加情報なしで1つの適切な対象領域毎に選択することが可能となる。この実施形態は、これまでの説明で用いた図面の変形と以下の記述を考慮することによって理解できる。引き続いて、変形した添付図面を参照しながら本発明の第三の実施形態を説明する。第一の実施形態と重複する図面ならびに説明については、説明を省略する。
<Third embodiment>
The first and second embodiments have been described on the assumption that the weighted average when generating the prediction signal of the target region from a plurality of candidate prediction signals is a predetermined method. However, if the candidate prediction signal combination selection method according to the first embodiment of the present invention is used, it is possible to select from a plurality of prepared weighting factors for each appropriate target region without additional information. This embodiment can be understood by considering the modifications of the drawings used in the above description and the following description. Subsequently, a third embodiment of the present invention will be described with reference to a modified attached drawing. Description of the drawings and description overlapping with those of the first embodiment will be omitted.

第三の実施形態における予測信号生成器103bの処理について説明する。なお、画像予測復号装置300に適用される予測信号生成器308bについても、予測信号生成器103bと同じ構成および処理を行うものである。図1の画像予測符号化装置100と図9の画像予測復号装置300については、予測信号生成器103bならびに308b内の動作は第一の実施形態とは異なるが、信号の入出力関係は第一の実施形態と同じであり、説明を割愛する。図22は、本実施形態による画像予測符号化装置100に用いられる予測信号生成器103bを示すブロック図であり、テンプレートマッチング器201と座標情報用メモリ202と候補予測信号の組み合わせ決定器2200と予測領域取得器204と重み付け平均化器2204を含んで構成されている。   The processing of the prediction signal generator 103b in the third embodiment will be described. Note that the prediction signal generator 308b applied to the image predictive decoding apparatus 300 also performs the same configuration and processing as the prediction signal generator 103b. As for the image predictive coding apparatus 100 in FIG. 1 and the image predictive decoding apparatus 300 in FIG. This embodiment is the same as the embodiment of FIG. FIG. 22 is a block diagram showing the prediction signal generator 103b used in the image predictive coding apparatus 100 according to the present embodiment. The template matching unit 201, the coordinate information memory 202, the candidate prediction signal combination determiner 2200, and the prediction A region acquisition unit 204 and a weighted averager 2204 are included.

テンプレートマッチング器201の処理は、図2と同じである。つまり、ラインL104経由でフレームメモリ104から過去の処理で既に再生された画像信号(再生画像信号)が入力され、対象領域の対象画素信号に対する予測信号の候補(候補予測信号)を後述するテンプレートマッチングにより複数探索し、探索した候補予測信号にアクセスするための座標情報をラインL201a経由で座標情報用メモリ202に出力する。同時に、対象領域と各候補予測信号との間の関係を示す差分値データ(後述する絶対誤差値の和(SAD(sumof absolute difference)に相当)をラインL201b経由で候補予測信号の組み合わせ決定器2200に出力する。なお、本実施形態では、第一の実施形態と同じく、対象領域(対象ブロック)を8x8の画素からなる符号化対象ブロックを分割した4x4画素の小ブロックとするが、それ以外のブロックの大きさまたは形に分割してもよいし、分割しなくてもよい。   The processing of the template matching unit 201 is the same as that in FIG. That is, an image signal (reproduced image signal) that has already been reproduced in the past process is input from the frame memory 104 via the line L104, and a candidate for a prediction signal (candidate prediction signal) for the target pixel signal in the target region is template matching described later. And a plurality of coordinate information for accessing the searched candidate prediction signal is output to the coordinate information memory 202 via the line L201a. At the same time, difference value data indicating the relationship between the target region and each candidate prediction signal (corresponding to a sum of absolute error values (SAD (sumof absolute difference) described later)) is combined with a candidate prediction signal combination determiner 2200 via a line L201b. In this embodiment, as in the first embodiment, the target region (target block) is a small block of 4 × 4 pixels obtained by dividing the encoding target block made up of 8 × 8 pixels. It may be divided into block sizes or shapes, or may not be divided.

候補予測信号の組み合わせ決定器2200では、ラインL201b経由で入力された差分値データを利用して、候補予測信号の組み合わせを複数設定する。さらに、同じ差分値データを利用して、候補予測信号を重み付け平均する際の重み係数を複数設定する。そして、ラインL202a経由で座標情報用メモリ202から入力される座標情報に従ってラインL104経由でフレームメモリから入力される画素信号を用いて、候補予測信号の組み合わせとそれらの候補予測信号を重み付け平均する際の重み係数の組(候補予測信号の重み係数情報)を決定する、候補予測信号の組み合わせ情報はラインL203経由で予測領域取得器204に出力し、候補予測信号の重み係数情報はL2203経由で重み付け平均化器2204に出力される。   The candidate prediction signal combination determiner 2200 sets a plurality of candidate prediction signal combinations using the difference value data input via the line L201b. Furthermore, using the same difference value data, a plurality of weighting factors for weighted averaging of candidate prediction signals are set. Then, using the pixel signal input from the frame memory via the line L104 according to the coordinate information input from the coordinate information memory 202 via the line L202a, the combination of candidate prediction signals and the candidate prediction signals are weighted averaged The combination information of the candidate prediction signals is output to the prediction region acquisition unit 204 via the line L203, and the weight coefficient information of the candidate prediction signals is weighted via the L2203. It is output to the averager 2204.

予測領域取得器204は、ラインL203経由で入力された候補予測信号の組み合わせ情報に従って、この組み合わせに属する候補予測信号の座標情報をラインL202b経由で取得する。そして、予測領域取得器204は、ラインL104経由でフレームメモリ104から、取得した座標情報に対応する候補予測信号を取得し、随時重み付け平均化器2204に出力する。重み付け平均化器2204は、ラインL204経由で入力された各候補予測信号に、ラインL2203経由で入力された重み係数を掛け合わせ、順次加算し重み付け加算値を算出する。同時に重み付け平均化器2204はL2203経由で入力された重み係数を加算する。そして、重み付け加算値を重み係数の加算値で除算し、対象領域の予測信号としてラインL103経由で図1の減算器105に出力する。   The prediction area acquisition unit 204 acquires coordinate information of candidate prediction signals belonging to this combination via line L202b according to the combination information of candidate prediction signals input via line L203. Then, the prediction region acquisition unit 204 acquires a candidate prediction signal corresponding to the acquired coordinate information from the frame memory 104 via the line L104, and outputs it to the weighted averager 2204 as needed. The weighted averager 2204 multiplies each candidate prediction signal input via the line L204 by the weighting coefficient input via the line L2203 and sequentially adds them to calculate a weighted addition value. At the same time, the weighted averager 2204 adds the weighting coefficient input via L2203. Then, the weighted addition value is divided by the addition value of the weighting coefficient, and is output to the subtracter 105 in FIG.

式(4)に予測領域取得器204と重み付け平均化器2204にて実施される対象領域の予測信号Pb(i,j)の生成手順を整理する。ここで、(i, j)は対象領域における各画素の座標を示している。

Figure 2008283662


式(4)において、NはラインL203経由で予測領域取得器204に入力される候補予測信号の組み合わせ情報を示しており、予測領域取得器204はN個の候補予測信号pn(i,j) (n=0〜N-1)をフレームメモリ104から取得する。wnはラインL2203経由で重み付け平均化器2204に入力される重み係数の組(N個)を示している。n番目の重み係数wnは、重み付け平均化器2204にてn番目の候補予測信号pn(i,j)内の各画素と掛け合わされ、重み付けされたN個の候補予測信号の各画素は累積加算される。このように重み付け加算された候補予測信号の重み付け加算値は、重み係数の加算値で除算され、各画素の予測信号Pb(i,j)が算出される。 The procedure for generating the prediction signal Pb (i, j) of the target region, which is performed by the prediction region acquisition unit 204 and the weighted averager 2204, is organized in Expression (4). Here, (i, j) indicates the coordinates of each pixel in the target region.
Figure 2008283662


In Equation (4), N indicates combination information of candidate prediction signals input to the prediction region acquisition unit 204 via the line L203, and the prediction region acquisition unit 204 includes N candidate prediction signals p n (i, j ) (n = 0 to N−1) is acquired from the frame memory 104. w n indicates a set (N) of weighting factors input to the weighted averager 2204 via the line L2203. n-th weighting coefficient w n is, n-th candidate prediction signal p n (i, j) in the weighted averaging unit 2204 is multiplied with each pixel in each pixel of N weighted candidate prediction signals Cumulative addition. The weighted addition value of the candidate prediction signal thus weighted and added is divided by the addition value of the weighting coefficient to calculate the prediction signal Pb (i, j) of each pixel.

図22におけるテンプレートマッチング器201の動作は、図2と同じであるため、詳細説明は割愛するが、フレームメモリ104内の探索領域内から対象隣接領域の画素信号(隣接画素信号)と間のSADが小さいM個の予測隣接領域を探索し、このM個の予測隣接領域(および予測領域)にアクセスするための情報である座標情報をラインL202a経由で座標情報用メモリ202に出力する。また、算出したM個のSAD値をラインL201b経由で、候補予測信号の組み合わせ決定器2200に出力する。   Since the operation of the template matching unit 201 in FIG. 22 is the same as that in FIG. 2, the detailed description is omitted, but SAD between the search area in the frame memory 104 and the pixel signal (adjacent pixel signal) in the target adjacent area is performed. M prediction adjacent regions having a small size are searched, and coordinate information, which is information for accessing the M predicted adjacent regions (and prediction regions), is output to the coordinate information memory 202 via the line L202a. Further, the calculated M SAD values are output to the candidate prediction signal combination determiner 2200 via the line L201b.

つぎに、候補予測信号の組み合わせ決定器2200の動作を説明する。候補予測信号の組み合わせ決定器203は、組み合わせ設定器231、重み係数設定器2201、予測隣接領域取得器232、対象隣接領域取得器233、重み付け平均化器2202および比較・選択器2203を含んで構成される。   Next, the operation of the candidate prediction signal combination determiner 2200 will be described. The candidate prediction signal combination determiner 203 includes a combination setter 231, a weight coefficient setter 2201, a prediction adjacent region acquisition unit 232, a target adjacent region acquisition unit 233, a weighted averager 2202, and a comparison / selector 2203. Is done.

第三の実施形態では、対象領域の予測信号を生成するにあたり、候補予測信号の組み合わせと重み付け平均化のため、まず組み合わせ設定器231と重み係数設定器2201が動作する。   In the third embodiment, when generating the prediction signal of the target region, first, the combination setting unit 231 and the weighting factor setting unit 2201 operate for the combination of the candidate prediction signals and the weighted averaging.

組み合わせ設定器231は、ラインL201bを経由して入力されたM個のSADに基づいて、複数の予測隣接領域の組み合わせを設定する。本実施形態では、入力されたSADの小さいN個の予測隣接領域を1つの組み合わせとして設定する。設定した組み合わせは、ラインL231を経由して、予測隣接領域取得器232、比較・選択器2203ならびに重み係数設定器2201にそれぞれ出力される。Nの値は、Mより小さい2の乗数とし、M=6のとき、N=1、2、4となる3つの組み合わせを作る。なお、Mの値とNの値およびN個の予測信号領域の組み合わせは、これに限定されない。1つの組み合わせに含まれる予測隣接領域の数は1〜M個から任意に設定できる。例えば、Mより小さいN個の予測隣接領域にて構成される組み合わせを作る場合、M個からN個を選び全ての組み合わせを設定することも可能である。この際、Nの値は固定でもよいし、1〜Mの間で2個以上を選択して組み合わせを設定しもよい。また、組み合わせの数は1つ以上であれば、その数は限定されない。但し、符号化器である画像予測符号化装置100と復号器である後述する画像予測復号装置300にて同じ予測隣接領域の組み合わせを自動選択させるためには、両者の組み合わせの設定方法を一致させておく必要がある。   The combination setter 231 sets a combination of a plurality of predicted adjacent areas based on the M SADs input via the line L201b. In the present embodiment, the N predicted adjacent areas with small input SADs are set as one combination. The set combination is output to the predicted adjacent region acquisition unit 232, the comparison / selection unit 2203, and the weighting factor setting unit 2201 via the line L231. The value of N is a multiplier of 2 smaller than M, and when M = 6, three combinations of N = 1, 2, and 4 are created. In addition, the combination of the value of M, the value of N, and N prediction signal area | regions is not limited to this. The number of predicted adjacent regions included in one combination can be arbitrarily set from 1 to M. For example, when creating a combination composed of N predicted adjacent regions smaller than M, it is possible to select N from M and set all combinations. At this time, the value of N may be fixed, or a combination may be set by selecting two or more of 1 to M. Moreover, the number will not be limited if the number of combinations is one or more. However, in order to automatically select the same prediction adjacent region combination in the image predictive encoding device 100 which is an encoder and the image predictive decoding device 300 which will be described later as a decoder, the setting method of the combination of both is made to match. It is necessary to keep.

重み係数設定器2201は、ラインL231から入力された予測隣接領域の組み合わせ情報、および対象隣接領域とN個の予測隣接領域の画素信号との間のSADに基づいて、N個の予測隣接領域の画素信号を重み付け平均するための重み付け係数の組の候補を複数設定する。本実施形態では、重み係数の組の候補として4種類を用意する。以下で、q, nはn番目(n=0〜N-1)の予測隣接領域の画素信号に対するタイプq(q=1-4)の重み係数を示す
(1)q=1、式(6)、N個の重み係数をそれぞれ1/Nに設定

Figure 2008283662


(2)q=2、式(8)、対象隣接領域t(r) (rは対象隣接領域内のR個の画素の位置)とN個の予測隣接領域sn(r)(n=0〜N-1)との間のSAD(LSADn、式(7))に基づいて算出。
Figure 2008283662


Figure 2008283662


(3)q=3、式(9)、SAD値の小さい対象隣接領域の画素信号に大きな値の重み係数を割り当てる
Figure 2008283662


(4)q=4、図26に示す対応表に基づいてLSAD0とLSADn(n=0〜N-1)の関係からwnの値を設定。 The weighting factor setting unit 2201 is configured to calculate N predicted adjacent regions based on the combination information of the predicted adjacent regions input from the line L231 and the SAD between the target adjacent region and the pixel signals of the N predicted adjacent regions. A plurality of sets of weighting coefficient sets for weighted averaging of pixel signals are set. In the present embodiment, four types are prepared as candidates for a set of weighting factors. In the following, q and n indicate the weighting coefficient of type q (q = 1-4) for the pixel signal of the nth (n = 0 to N-1) predicted adjacent region (1) q = 1, formula (6) ), Set N weighting factors to 1 / N each
Figure 2008283662


(2) q = 2, the formula (8), the target adjacent region t (r) (r is the position of R pixels in the target adjacent region) prediction adjacent regions and the N s n (r) (n = 0 To N-1) based on SAD (LSAD n , Equation (7)).
Figure 2008283662


Figure 2008283662


(3) q = 3, Expression (9), assigning a large weighting factor to the pixel signal in the target adjacent region having a small SAD value
Figure 2008283662


(4) q = 4, and the value of w n is set from the relationship between LSAD 0 and LSAD n (n = 0 to N −1) based on the correspondence table shown in FIG.

図26は、対象隣接領域の画素信号と予測隣接領域の画素信号との間の差分値から重み係数の組を設定する対応表の例を示す説明図である。LSADnは、対象隣接領域t(r) (rは対象隣接領域内のR個の画素の位置)とN個の予測隣接領域sn(r)(n=0〜N-1)との間のSADを示し、LSAD0は、nが0であるときのSADを示す。図26に示される対応表を用いることで、それぞれのSADに基づいて重み付け係数が一義的に定まる。例えば、LSADnが6、LSAD0が17である場合には、重み付け係数は6に定められる。 FIG. 26 is an explanatory diagram illustrating an example of a correspondence table in which a set of weighting factors is set based on a difference value between a pixel signal in the target adjacent region and a pixel signal in the predicted adjacent region. LSAD n is between target adjacent region t (r) (r is the position of R pixels in the target adjacent region) and the N prediction adjacent regions s n (r) (n = 0~N-1) LSAD 0 indicates SAD when n is 0. By using the correspondence table shown in FIG. 26, the weighting coefficient is uniquely determined based on each SAD. For example, when LSAD n is 6 and LSAD 0 is 17, the weighting coefficient is set to 6.

なお、重み係数の組の数と候補値の設定方法は、この4種類に限定されない。重み係数の組の数は1種類でも良い。図26の対応表(テーブル)を用いる方法もこのテーブルに限定されるものではない。テーブル内の閾値や重み値の設定のみならず、符号化側と復号側が共有できる情報、例えば、ブロックサイズ、量子化精度ならびに重み付け平均のための予測隣接領域の数(N)、等を場合分けの条件として追加したテーブルを作成しても良いし、これらの条件で場合分けしたテーブルを複数用意しても良い。但し、符号化器である画像予測符号化装置100と復号器である後述する画像予測復号装置300にて同じ重み係数の組を自動選択させるためには、両者の重み係数の組の設定方法を一致させておく必要がある。   Note that the number of sets of weighting factors and the method of setting candidate values are not limited to these four types. The number of sets of weighting coefficients may be one. The method using the correspondence table (table) in FIG. 26 is not limited to this table. Not only thresholds and weight values in the table, but also information that can be shared between the encoding side and decoding side, such as block size, quantization accuracy, and the number of predicted adjacent areas (N) for weighted averaging, etc. A table added as the above condition may be created, or a plurality of tables classified according to these conditions may be prepared. However, in order to automatically select the same set of weight coefficients in the image predictive coding apparatus 100 that is an encoder and the image predictive decoding apparatus 300 that is a decoder, which will be described later, a setting method for both sets of weight coefficients is used. Must match.

これら設定した重み係数の組は、ラインL2201を経由して、重み付け平均化器2202と比較・選択器2203にそれぞれ出力される。   These set of weighting factors are output to the weighted averager 2202 and the comparator / selector 2203 via the line L2201.

予測隣接領域取得器232は、予測隣接領域の組み合わせ情報(N)がラインL231経由で1つ入力されると、その組み合わせに含まれるN個の予測隣接領域に対する座標情報をラインL202a経由で座標情報用メモリ202から取得する。そして、予測隣接領域取得器232は、座標情報に対応するN個の予測隣接領域の画素信号をラインL104経由で取得し、随時重み付け平均化器2202に出力する。   When one piece of prediction adjacent region combination information (N) is input via the line L231, the prediction adjacent region acquisition unit 232 receives coordinate information about the N prediction adjacent regions included in the combination via the line L202a. Obtained from the memory 202. Then, the predicted adjacent region acquisition unit 232 acquires pixel signals of N predicted adjacent regions corresponding to the coordinate information via the line L104, and outputs them to the weighted averager 2202 as needed.

重み付け平均化器2202は、ラインL232経由で入力されたN個の予測隣接領域の画素信号に、重み係数設定器2201からラインL2201経由で入力された1つの重み係数の組に含まれるN個の重み係数を掛け合わせて累積加算する。そして、N個の重み係数の加算値を算出し、重み付けされた予測隣接領域の画素信号の累積加算値を、重み係数の加算値で割ることにより、対象隣接領域の画素信号(隣接画素信号)と比較するための比較信号を生成する。   The weighted averager 2202 includes N pieces of pixel signals of N predicted adjacent regions input via the line L232, and N pieces of N weighting factors included in one set of weighting coefficients input from the weighting coefficient setting unit 2201 via the line L2201. Multiply the weighting factors and add them cumulatively. Then, an addition value of N weighting factors is calculated, and a cumulative addition value of the weighted prediction adjacent region pixel signals is divided by the addition value of the weighting factor, thereby obtaining a pixel signal (adjacent pixel signal) of the target adjacent region. A comparison signal for comparison with is generated.

比較信号は、複数の重み係数の組について、それぞれ生成される。つまり、組み合わせ設定器231にて設定された1つの予測隣接領域の組み合わせ情報(N)について、重み係数設定器2201にて設定した4種類の重み係数の組に対する重み付け平均化器2202の処理が繰り返し実施される。   The comparison signal is generated for each of a plurality of sets of weighting factors. That is, for the combination information (N) of one prediction adjacent region set by the combination setting unit 231, the processing of the weighted averager 2202 for the four types of weighting factor sets set by the weighting factor setting unit 2201 is repeated. To be implemented.

以下の式(5)を用いて比較信号の生成手段を説明する。

Figure 2008283662


式(5)は、予測隣接領域の組み合わせ情報Nに対して用意されたタイプqの重み係数の組について、比較信号の生成方法を示している。第1に、n番目の予測隣接領域sn(r)内のR個の画素に、それぞれタイプqの重み係数の組におけるn番目の重み係数wq,nを掛ける。第2に、重み付けされたN個の予測隣接領域wq,nx sn(r)を足し合わせ、対象隣接領域内のR個の各画素について、N個の重み係数wq,nの加算値で除算する。 The comparison signal generating means will be described using the following equation (5).
Figure 2008283662


Equation (5) shows a method for generating a comparison signal for a set of weighting factors of type q prepared for the combination information N of predicted adjacent regions. First, the R pixels in the nth predicted adjacent region s n (r) are each multiplied by the nth weighting factor w q, n in the set of weighting factors of type q. Second, the weighted N predicted adjacent regions w q, n xs n (r) are added together, and the added value of N weighting factors w q, n for each of R pixels in the target adjacent region Divide by.

対象隣接領域取得器233は、フレームメモリ104からラインL104を経由して対象隣接領域の画素信号(隣接画素信号)を取得し、比較・選択器2203に出力する。   The target adjacent region acquisition unit 233 acquires the pixel signal (adjacent pixel signal) of the target adjacent region from the frame memory 104 via the line L104 and outputs the pixel signal to the comparison / selector 2203.

比較・選択器2203は、ラインL233経由で対象隣接領域の画素信号を入力し、ラインL2203経由で、1つの予測隣接領域の組み合わせに対する複数の重み係数の組について生成された複数の比較信号を入力する。そして、複数の重み係数の組に対応する比較信号と隣接画素信号との間でSADを算出し、その値が最小となる重み係数の組を選択し、一時保存する。   The comparator / selector 2203 inputs the pixel signal of the target adjacent area via the line L233, and inputs a plurality of comparison signals generated for a plurality of sets of weighting factors for one combination of predicted adjacent areas via the line L2203. To do. Then, the SAD is calculated between the comparison signal corresponding to a plurality of sets of weighting factors and the adjacent pixel signal, and the set of weighting factors having the smallest value is selected and temporarily stored.

この重み係数の組を選択する処理(組み合わせ設定器から出力される1つの予測隣接領域の組み合わせ情報に対する、重み係数設定器、予測隣接領域取得器、加算器、重み除算器、対象隣接領域取得器、比較・選択器の処理)は、複数の予測隣接領域の組み合わせに対して実施され(予測隣接領域の組み合わせが1つの場合は除く)、隣接画素信号との間で算出されるSADの値が最も小さい予測隣接領域の組み合わせと重み係数の組が選択される。選択された予測隣接領域の組み合わせ(L231経由で取得)は、候補予測信号の組み合わせ情報としてラインL203経由で予測領域取得器204に出力され、選択された重み係数の組は、候補予測信号の重み付け係数情報としてL2203経由で、重み付け平均化器2204に出力される。   Processing for selecting a set of weighting factors (weighting factor setting unit, prediction adjacent region acquisition unit, adder, weight divider, target adjacent region acquisition unit for combination information of one prediction adjacent region output from the combination setting unit The processing of the comparator / selector) is performed on a combination of a plurality of prediction adjacent regions (except when there is one combination of prediction adjacent regions), and the SAD value calculated between adjacent pixel signals is The smallest combination of predicted adjacent regions and the combination of weighting factors are selected. The selected combination of prediction adjacent regions (acquired via L231) is output as combination information of candidate prediction signals to the prediction region acquisition unit 204 via line L203, and the selected combination of weighting factors is the weight of the candidate prediction signal. The coefficient information is output to the weighted averager 2204 via L2203.

このように、本実施形態によれば、対象ブロック毎に、付加情報なしで、予測信号生成に有効な候補予測信号の組み合わせと重み係数の組を選択することが可能となる。なお、予測信号生成に有効な候補予測信号の組み合わせについては予め定めておいた場合には、適切な重み係数の組を選択することに対して効果がある。   As described above, according to the present embodiment, it is possible to select a combination of candidate prediction signals and a combination of weighting factors that are effective for prediction signal generation without additional information for each target block. If combinations of candidate prediction signals effective for prediction signal generation are determined in advance, there is an effect on selecting an appropriate combination of weighting factors.

つぎに、候補予測信号の組み合わせ決定器1800の処理について図を用いて説明する。本実施形態によるテンプレートマッチング器201の処理については、図5で説明済みのため説明を割愛するが、図5は、対象領域(対象ブロック)に画素信号(対象画素信号)に対する複数(M個)の候補予測信号(および予測隣接領域の画素信号)を探索し、探索した候補予測信号(ならびに予測隣接領域の画素信号)にアクセスするための座標情報を取得する方法を示すフローチャートであり、対象領域に隣接する対象隣接領域の隣接画素信号とのSADが小さいM個の予測隣接領域の画素信号を参照画像上の探索領域から探索する処理を行なう。   Next, processing of the candidate prediction signal combination determiner 1800 will be described with reference to the drawings. Since the processing of the template matching unit 201 according to the present embodiment has already been described with reference to FIG. 5, description thereof will be omitted, but FIG. 5 illustrates a plurality (M) of pixel signals (target pixel signals) in a target region (target block). Is a flowchart showing a method of searching for a candidate prediction signal (and a pixel signal of a predicted adjacent region) and acquiring coordinate information for accessing the searched candidate prediction signal (and a pixel signal of the predicted adjacent region) A process of searching for pixel signals of M predicted adjacent areas having a small SAD with the adjacent pixel signal of the target adjacent area adjacent to the reference image from the search area on the reference image is performed.

図23は、第三の実施形態による候補予測信号の組み合わせ決定器2200における、対象領域の予測信号の生成に適したN個の候補予測信号の組み合わせと、そのN個の候補予測信号を重み付け平均するための重み係数の組を選択する方法を示すフローチャートである。まず、候補予測信号の組み合わせ決定器2200の組み合わせ設定器231は、候補予測信号の数Nを1に設定する(S602)。つぎに、対象隣接領域取得器233では、対象ブロックに対する対象隣接領域(テンプレート領域)がフレームメモリ104から取得される(S603)。   FIG. 23 shows a combination of N candidate prediction signals suitable for generating a prediction signal in the target region and a weighted average of the N candidate prediction signals in the candidate prediction signal combination determiner 2200 according to the third embodiment. It is a flowchart which shows the method of selecting the group of the weighting factor for doing. First, the combination setter 231 of the candidate prediction signal combination determiner 2200 sets the number N of candidate prediction signals to 1 (S602). Next, the target adjacent area acquisition unit 233 acquires the target adjacent area (template area) for the target block from the frame memory 104 (S603).

そして、予測隣接領域取得器232にて、組み合わせ設定器231により設定された組み合わせに属するN個の予測隣接領域が、ラインL104を経由して取得される。すなわち、予測隣接領域取得器232は、当該対象ブロックに対する対象隣接領域の隣接画素信号と参照画像上の探索領域内にある対象隣接領域と同じ形状の領域(予測隣接領域の候補)の画素信号との差分値であるSADが小さいN個の予測隣接領域に対応する座標情報を座標情報用メモリ202から取得する。そして、取得した座標情報に対応するN個の予測隣接領域をフレームメモリ104から取得する(S604)。   Then, the predicted adjacent area acquisition unit 232 acquires N predicted adjacent areas belonging to the combination set by the combination setting unit 231 via the line L104. That is, the predicted adjacent area acquisition unit 232 receives the adjacent pixel signal of the target adjacent area for the target block and the pixel signal of the area having the same shape as the target adjacent area in the search area on the reference image (predicted adjacent area candidate). Coordinate information corresponding to N predicted adjacent areas having a small SAD, which is the difference value of, is acquired from the coordinate information memory 202. Then, N predicted adjacent areas corresponding to the acquired coordinate information are acquired from the frame memory 104 (S604).

次に、重み係数設定器2201は、隣接画素信号とN個の予測隣接領域との間のSADに基づいて、N個の予測隣接領域に対する重み係数の組を複数設定し、候補予測信号の組み合わせ決定器2200は、後述(図24の説明)する処理にてN個の予測隣接領域に対する重み係数を決定する。そして決定した重み係数に基づいて、重み付け平均化器2202において、N個の予測隣接領域の画素群の重み付け平均により比較信号を生成する(S2301)。   Next, the weighting factor setting unit 2201 sets a plurality of sets of weighting factors for the N predicted adjacent regions based on the SAD between the adjacent pixel signal and the N predicted adjacent regions, and a combination of candidate prediction signals The determiner 2200 determines weighting factors for the N predicted adjacent regions in a process described later (explained in FIG. 24). Based on the determined weight coefficient, the weighted averager 2202 generates a comparison signal by weighted average of the pixel groups of the N predicted adjacent regions (S2301).

その後、比較・選択器2203にて、生成した比較信号と隣接画素信号との差分値であるSADを算出する(S606)。同時に、比較・選択器2203では、算出したSADをそれまでの最小のSADと比較し(S607)、SADが最小値と判断された場合、S2302に進み、そうでないと判断された場合、S609に進む。なお、S607では、算出したSADとそれまでの最小のSADが同じ場合には、S2302に進むが、S608に進むようにしてもよい。   Thereafter, the comparator / selector 2203 calculates SAD, which is a difference value between the generated comparison signal and the adjacent pixel signal (S606). At the same time, the comparator / selector 2203 compares the calculated SAD with the smallest SAD so far (S607). If the SAD is determined to be the minimum value, the process proceeds to S2302, and if not, the process proceeds to S609. move on. In S607, when the calculated SAD and the minimum SAD so far are the same, the process proceeds to S2302, but the process may proceed to S608.

算出したSADが、それまでの最小のSADである場合、比較・選択器2203にて、S604にて取得した座標情報の組み合わせとS2301にて決定した重み係数の組を記憶する(S2302)。   If the calculated SAD is the smallest SAD so far, the comparison / selector 2203 stores the combination of the coordinate information acquired in S604 and the combination of the weighting factors determined in S2301 (S2302).

ここで、組み合わせ決定器2200は、Nの値を2倍に更新する(S609)。そして、更新したNとMの大きさを比較し(S610)、更新したNの値がMより小さい場合、S604に戻り。更新したNの値がMより大きい場合、S2302にて記憶した座標情報の組み合わせを候補予測信号の組み合わせとして決定する。さらに、S2302にて記憶した重み付け係数の組を「候補予測信号を重み付け平均する際の重み係数」として決定し、候補予測信号の組み合わせ選択処理を終了する(S611)。   Here, the combination determiner 2200 updates the value of N by a factor of 2 (S609). Then, the updated N is compared with the magnitude of M (S610). If the updated value of N is smaller than M, the process returns to S604. If the updated value of N is greater than M, the combination of coordinate information stored in S2302 is determined as a combination of candidate prediction signals. Further, the set of weighting coefficients stored in S2302 is determined as “weighting coefficient for weighted average of candidate prediction signals”, and the candidate prediction signal combination selection processing is terminated (S611).

図24は、第三の実施形態による候補予測信号の組み合わせ決定器2200における、N個の候補予測信号を重み付け平均するための重み係数の組を選択する方法を示すフローチャートである。なお、Nの値が1の場合、候補予測信号の組み合わせ決定器2200は、この処理をスキップする。   FIG. 24 is a flowchart showing a method of selecting a set of weighting factors for weighted averaging of N candidate prediction signals in the candidate prediction signal combination determiner 2200 according to the third embodiment. If the value of N is 1, the candidate prediction signal combination determiner 2200 skips this process.

まず、候補予測信号の組み合わせ決定器2200は、テンプレートマッチング器201にて探索したN個の予測隣接領域について、対象隣接領域の隣接画素信号との間のSAD(LSADn, n=0〜N-1)を取得する(S2402)。次に、重み係数設定器2201は、重み係数のタイプqを1に設定する(S2403)。重み係数設定器2201は、この後、設定したタイプ(q)とNの値に応じて、重み係数の組を決定する(S2404)。なお、本実施形態では、下記のように重み係数の組の候補として4種類を用意したが、重み係数の組の数と候補値の設定方法は、この4種類に限定されない。
(1)q=1、式(6)、N個の重み係数をそれぞれ1/Nに設定
(2)q=2、数8、対象隣接領域t(r) (rは対象隣接領域内のR個の画素の位置)とN個の予測隣接領域sn(r)(n=0〜N-1)との間のSAD(LSADn、式(7))に基づいて算出。
(3)q=3、式(9)、SAD値の小さい対象隣接領域の画素信号に大きな値の重み係数を割り当てる
(4)q=4、図26に示すテーブルに基づいてLSAD0とLSADn(n=0〜N-1)の関係からwnの値を設定。
First, the candidate predictive signal combination determiner 2200, for the N predicted adjacent regions searched by the template matching unit 201, SAD (LSADn, n = 0 to N−1) between the adjacent pixel signals of the target adjacent region. ) Is acquired (S2402). Next, the weighting factor setting unit 2201 sets the weighting factor type q to 1 (S2403). Thereafter, the weighting factor setting unit 2201 determines a set of weighting factors according to the set type (q) and the value of N (S2404). In the present embodiment, four types of weight coefficient set candidates are prepared as described below, but the number of weight coefficient sets and the method of setting candidate values are not limited to these four types.
(1) q = 1, equation (6), N weighting factors are set to 1 / N, respectively (2) q = 2, equation 8, target adjacent region t (r) (r is R in the target adjacent region (SAD (LSAD n between r) (n = 0~N-1 ), formula (7) pieces of the position of the pixel) and the n prediction adjacent regions s n calculated based on).
(3) q = 3, equation (9), assigning a large weighting factor to the pixel signal of the target adjacent region having a small SAD value (4) q = 4, LSAD 0 and LSAD n based on the table shown in FIG. Set the value of w n from the relationship (n = 0 to N-1).

重み係数の組が設定されると、S604で取得したN個の予測隣接領域の画素信号と設定した重み係数の組を用いて、式(5)に従い比較信号を生成する(S2405)。式(5)は、予測隣接領域の組み合わせ情報Nに対して用意されたタイプqの重み係数の組について、比較信号の生成方法を示している。第1に、n番目の予測隣接領域sn(r)内のR個の画素に、それぞれタイプqの重み係数の組におけるn番目の重み係数wq,nを掛ける。第2に、重み付けされたN個の予測隣接領域wq,nx sn(r)を足し合わせ、対象隣接領域内のR個の各画素について、N個の重み係数wq,nの加算値で除算する。 When the set of weighting factors is set, a comparison signal is generated according to Equation (5) using the pixel signals of the N predicted adjacent regions acquired in S604 and the set of weighting factors (S2405). Equation (5) shows a method for generating a comparison signal for a set of weighting factors of type q prepared for the combination information N of predicted adjacent regions. First, the R pixels in the nth predicted adjacent region s n (r) are each multiplied by the nth weighting factor w q , n in the type q weighting factor set. Second, the weighted N predicted adjacent regions w q, n xs n (r) are added together, and the added value of N weighting factors w q, n for each of R pixels in the target adjacent region Divide by.

その後、比較・選択器2203にて、生成した比較信号とS603で取得した対象ブロックに対する対象隣接領域(テンプレート領域)の隣接画素信号との差分値であるSADを算出する(S2406)。同時に、比較・選択器2203では、算出したSADをそれまでの最小のSADと比較し(S2407)、SADが最小値と判断された場合、S2408に進み、そうでないと判断された場合、S2409に進む。なお、S2407では、算出したSADとそれまでの最小のSADが同じ場合には、S2408に進むが、S2409に進むようにしてもよい。   Thereafter, the comparator / selector 2203 calculates SAD which is a difference value between the generated comparison signal and the adjacent pixel signal of the target adjacent region (template region) with respect to the target block acquired in S603 (S2406). At the same time, the comparator / selector 2203 compares the calculated SAD with the minimum SAD so far (S2407). If the SAD is determined to be the minimum value, the process proceeds to S2408. If not, the process proceeds to S2409. move on. In S2407, when the calculated SAD and the minimum SAD so far are the same, the process proceeds to S2408, but the process may proceed to S2409.

算出したSADが、それまでの最小のSADである場合、最小値をSADに更新し、N個の予測隣接領域に対する重み係数をタイプqの値に更新する(S2408)。   When the calculated SAD is the smallest SAD so far, the minimum value is updated to SAD, and the weighting coefficient for the N predicted adjacent regions is updated to the value of type q (S2408).

つぎに、重み係数設定器2201は、qの値に1を足して更新する(S2409)。そして、更新したqとQ(重み係数の組の設定数、本実施形態では4)の大きさを比較し(S2410)、更新したqの値がMより小さいまたは同じ場合、S2404に戻り。更新したqの値がQより大きい場合、S2302にて記憶した重み付け係数の組を、組み合わせ設定器231にて設定した隣接予測領域の組み合わせ(N個の予測隣接領域で構成)に対する重み係数の組を決定し、重み係数の選択処理を終了する(S2411)。なお、Qの値は4には限定されず、1以上であればよい。   Next, the weighting factor setting unit 2201 updates q by adding 1 (S2409). Then, the magnitudes of the updated q and Q (the set number of sets of weighting factors, 4 in the present embodiment) are compared (S2410). If the updated q value is less than or equal to M, the process returns to S2404. When the updated value of q is larger than Q, the set of weighting coefficients for the combination of adjacent prediction areas set by the combination setting unit 231 (composed of N prediction adjacent areas) is used as the combination of the weighting coefficients stored in S2302. And the weighting coefficient selection process ends (S2411). The value of Q is not limited to 4, but may be 1 or more.

このように、本実施形態の候補予測信号の組み合わせ処理を利用することにより、N個の予測隣接領域の画素信号(と対象領域の画素信号、つまり候補予測信号)を平均化するための重み係数の組を付加情報なしで決定することが可能となる。   As described above, the weighting coefficient for averaging the pixel signals of the N prediction adjacent regions (and the pixel signal of the target region, that is, the candidate prediction signal) by using the combination processing of the candidate prediction signals of the present embodiment. Can be determined without additional information.

図25は、本実施形態による候補予測信号の平滑化(加重平均)にて予測信号の生成方法を示すフローチャートである。   FIG. 25 is a flowchart showing a method of generating a prediction signal by smoothing (weighted average) candidate prediction signals according to this embodiment.

予測領域取得器204では、選択された座標情報に従って、フレームメモリ104から対象ブロックに対応する候補予測信号を1つまたは複数取得する(S702)。そして、重み付け平均化器2204において、取得した候補予測信号を選択した重み係数の組を用いて、候補予測信号の重み付け平均処理を実施し、対象ブロックの予測信号を生成が生成される(S2501)。これで、ひとつの対象ブロックに対する処理が終了となる(S704)。この際、予測信号Pb(i,j)の生成は式(4)に基づいて計算される。ここで、(i, j)は対象領域における各画素の座標を示している。式(4)において、NはラインL203経由で予測領域取得器204に入力される候補予測信号の組み合わせ情報を示しており、予測領域取得器204はN個の候補予測信号pn(i,j) (n=0〜N-1)をフレームメモリ104から取得する。wnはラインL2203経由で重み付け平均化器2204に入力される重み係数の組(N個)を示している。n番目の重み係数wnは、重み付け平均化器2204にて、n番目の候補予測信号pn(i,j)内の各画素と掛け合わされ、重み付けされたN個の候補予測信号の各画素は累積加算される。このように重み付け加算された候補予測信号の累積加算値は、重み係数の加算値で除算され、各画素の予測値Pb(i,j)が算出される。 The prediction region acquisition unit 204 acquires one or more candidate prediction signals corresponding to the target block from the frame memory 104 according to the selected coordinate information (S702). Then, the weighted averager 2204 performs weighted average processing of the candidate prediction signals using the set of weighting coefficients selected from the acquired candidate prediction signals, and generates a prediction signal for the target block (S2501). . This completes the process for one target block (S704). At this time, the generation of the prediction signal Pb (i, j) is calculated based on Expression (4). Here, (i, j) indicates the coordinates of each pixel in the target region. In Equation (4), N indicates combination information of candidate prediction signals input to the prediction region acquisition unit 204 via the line L203, and the prediction region acquisition unit 204 includes N candidate prediction signals p n (i, j ) (n = 0 to N−1) is acquired from the frame memory 104. w n indicates a set (N) of weighting factors input to the weighted averager 2204 via the line L2203. n-th weighting coefficient w n, at the weighted averaging unit 2204, the n-th candidate prediction signal p n (i, j) multiplied by the respective pixels in each pixel of N weighted candidate prediction signals Are cumulatively added. The cumulative addition value of the candidate prediction signals weighted and added in this way is divided by the addition value of the weighting coefficient to calculate the prediction value Pb (i, j) of each pixel.

第三の本実施形態による画像予測符号化装置100における画像予測符号化方法と画像予測復号方法については、図8と図9に示したフローチャートと処理過程が同じであるため説明を割愛する。   The image predictive encoding method and the image predictive decoding method in the image predictive encoding device 100 according to the third embodiment are the same as the flowcharts shown in FIGS. 8 and 9 and will not be described.

この第三の実施形態における画像予測符号化方法および画像予測復号方法を、プログラムとして記録媒体に記憶して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。画像予測符号化方法を実行することができるプログラムのモジュールと画像予測復号方法を実行することができるプログラムのモジュールの構成は図11〜図13に指名したブロック図と同じであるため、説明を割愛する。記録媒体に記録されたプログラムを実行するためのハードウェアやコンピュータについても図16と図17に説明済みのため説明を割愛する。なお、予測信号合成モジュールP203については、予測領域取得器204、重み付け平均化器2204を含んだ機能となっている。   The image predictive encoding method and the image predictive decoding method according to the third embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory. Since the configuration of the program module capable of executing the image predictive encoding method and the module of the program capable of executing the image predictive decoding method are the same as the block diagrams designated in FIGS. To do. The hardware and computer for executing the program recorded on the recording medium have also been described in FIGS. 16 and 17 and will not be described. Note that the prediction signal synthesis module P203 has a function including a prediction region acquisition unit 204 and a weighted averager 2204.

ここまで説明した第三の本実施形態は、以下のように変形してもよい。   The third embodiment described so far may be modified as follows.

式(4)や式(5)にて説明した重み付け処理では、重み係数の演算精度は、実数精度となる。しかしながら、本実施形態では、各重み係数を整数化してから、重み付け平均化処理を行なってもよい。重み係数が実数値の場合には、異なる演算装置が異なる演算結果を導く場合があるが、整数化のルールを符号化器と復号器で決めておくことで、この問題は回避できる。この際、各重み係数に一定値を掛けてから整数化すると、重み付け処理の演算精度を高く保つことが可能となる。   In the weighting processing described in Equation (4) and Equation (5), the calculation accuracy of the weighting coefficient is real number accuracy. However, in this embodiment, the weighted averaging process may be performed after each weighting coefficient is converted to an integer. When the weighting factor is a real value, different arithmetic devices may lead to different arithmetic results. However, this problem can be avoided by determining the integerization rule between the encoder and the decoder. At this time, if each weighting coefficient is multiplied by a certain value and then converted into an integer, the calculation accuracy of the weighting process can be kept high.

図22の候補予測信号組み合わせ決定器2200では、対象ブロックの対象隣接領域の画素信号と複数の隣接予測領域の画素信号とを加重平均した比較信号との間の差分値であるSAD(絶対誤差値の和)を計算して、最適な候補予測信号の組み合わせを決定しているが、SADではなく、差分信号の二乗誤差の和(SSD)や分散(VAR)を用いても組み合わせの決定は可能である。3つの評価基準はSAD、SSD、VARの順で演算量は増加するが、その一方で、評価の精度は向上し、誤差信号の符号量を少なくできるという効果が見込まれる。   In the candidate prediction signal combination determiner 2200 of FIG. 22, the SAD (absolute error value) that is a difference value between the pixel signal of the target adjacent region of the target block and the comparison signal obtained by weighted averaging the pixel signals of the plurality of adjacent prediction regions. The optimal combination of candidate prediction signals is determined by calculating the sum of the two), but the combination can also be determined by using the sum of the square error of the difference signal (SSD) or variance (VAR) instead of SAD. It is. In the three evaluation criteria, the calculation amount increases in the order of SAD, SSD, and VAR. On the other hand, the evaluation accuracy is improved, and the effect that the code amount of the error signal can be reduced is expected.

また、対象隣接信号と比較信号の差分値であるSADが同じ値となる組み合わせが複数得られたときに、SSDやVARを用いて最終的な組み合わせを決定するという方法も有効である。すなわち、比較・選択器2203は、予測隣接領域取得器232において算出されたSADが、これまで算出した最小値と一致していた場合には、さらに、SSDまたはVARを比較対象として、いずれの値のものが小さいか比較する。ここでSSDまたはVARが小さいと判断された組み合わせが比較・選択器2203に最小値を有する組み合わせとして記憶されることになる。この場合、比較・選択器2203は、SSDまたはVARをSADとともに算出することになり、一時的に記憶しておくことになる。   It is also effective to determine the final combination using SSD or VAR when a plurality of combinations having the same SAD as the difference value between the target adjacent signal and the comparison signal are obtained. That is, when the SAD calculated in the predicted adjacent region acquisition unit 232 matches the minimum value calculated so far, the comparator / selector 2203 further selects any value using SSD or VAR as a comparison target. Compare what is small. Here, the combination determined to have a small SSD or VAR is stored in the comparator / selector 2203 as a combination having the minimum value. In this case, the comparator / selector 2203 calculates SSD or VAR together with SAD, and temporarily stores it.

予測信号生成器103b(予測信号生成器308b)の構成は、図22の構成に限定されない。例えば、図22では、テンプレートマッチング器にて検索した複数の候補予測信号について、その信号にアクセスするための座標情報を座標情報用メモリ202に記憶しているが、候補予測信号と予測隣接領域の画素信号とを記憶しておく構成でも良い。図22内のメモリ量は増加するが、フレームメモリへのアクセスを減らす効果がある。
The configuration of the prediction signal generator 103b (prediction signal generator 308b) is not limited to the configuration of FIG. For example, in FIG. 22, for a plurality of candidate prediction signals searched by the template matcher, coordinate information for accessing the signals is stored in the coordinate information memory 202. A configuration in which pixel signals are stored may be used. Although the amount of memory in FIG. 22 increases, there is an effect of reducing access to the frame memory.

<第四の実施形態>
第三に実施形態では、デコーダは、対象隣接領域に付加された情報(例えば対象隣接信号)に基づいて、予測領域とそれに隣接する予測隣接領域を探索している。一方、予測領域ならびに予測隣接領域にアクセスするための座標情報(例えば、図4の座標情報416)、つまり対象領域に付加された情報(動きベクトルや参照画像の識別番号)をエンコーダにて符号化し、この付加情報に基づいて、デコーダが予測領域ならびに予測隣接領域を取得するような場合にも、各対象領域の予測信号生成の際に適用する重み付け係数を、複数の候補から付加情報なしで決定する本発明は適用できる。
<Fourth embodiment>
In the third embodiment, the decoder searches for a prediction region and a prediction adjacent region adjacent thereto based on information (for example, a target adjacent signal) added to the target adjacent region. On the other hand, coordinate information (for example, coordinate information 416 in FIG. 4) for accessing the prediction area and the prediction adjacent area, that is, information (motion vector or reference image identification number) added to the target area is encoded by the encoder. Based on this additional information, even when the decoder acquires the prediction area and the prediction adjacent area, the weighting coefficient to be applied when generating the prediction signal of each target area is determined from a plurality of candidates without additional information. The present invention is applicable.

第三の実施形態による符号化装置ならびに復号装置は、図2の予測生成器内のテンプレートマッチング器を図28あるいは図31の動き補償器に変更することにより、実現できる。符号化装置ならびに復号装置は、対象領域の付加情報の符号化ならびに復号化処理のため、図27ならびに図30のように変更される。また、この変形例による符号化処理ならびに復号処理は図5のテンプレートマッチング処理を図29ならびに図32の動き補償処理に変更することにより実現できる。なお、第四の実施形態では、候補予測信号の数をM個に固定とし、M個の重み係数の組を複数の候補から選択する。   The encoding device and the decoding device according to the third embodiment can be realized by changing the template matching unit in the prediction generator of FIG. 2 to the motion compensator of FIG. The encoding device and the decoding device are changed as shown in FIG. 27 and FIG. 30 for encoding and decoding the additional information of the target region. The encoding process and the decoding process according to this modification can be realized by changing the template matching process in FIG. 5 to the motion compensation process in FIGS. In the fourth embodiment, the number of candidate prediction signals is fixed to M, and a set of M weighting factors is selected from a plurality of candidates.

図28は第四の実施形態による画像予測符号化装置100bを示すブロック図である。予測信号生成器103cの入出力構成が、画像予測符号化装置100のブロック図における画像予測符号化装置100と異なる。つまり、対象領域(対象ブロック)の画素信号(対象画素信号)がL102経由で入力され、L2703経由で、2つ以上の各予測領域にアクセスするための座標情報を含む対象領域の付加情報が、エントロピー符号化器111に出力される。予測信号生成器103cから出力された対象領域の付加情報は、量子化器107にて量子化された変換係数と共に、エントロピー符号化器111にて符号化される。   FIG. 28 is a block diagram showing an image predictive encoding device 100b according to the fourth embodiment. The input / output configuration of the prediction signal generator 103 c is different from that of the image prediction encoding device 100 in the block diagram of the image prediction encoding device 100. That is, the pixel signal (target pixel signal) of the target region (target block) is input via L102, and additional information of the target region including coordinate information for accessing each of two or more predicted regions via L2703 is It is output to the entropy encoder 111. The additional information of the target region output from the prediction signal generator 103 c is encoded by the entropy encoder 111 together with the transform coefficient quantized by the quantizer 107.

次に、第四の実施形態による画像予測符号化装置100b内の予測信号生成器103cについて説明する。図22の予測信号生成器と異なるところは、テンプレートマッチング器201が動き補償器に変更される点である。   Next, the prediction signal generator 103c in the image predictive coding device 100b according to the fourth embodiment will be described. A difference from the prediction signal generator of FIG. 22 is that the template matching unit 201 is changed to a motion compensator.

図28は第四の実施形態による画像予測符号化装置100b内の予測信号生成器103cにおける動き補償器201bのブロック図である。   FIG. 28 is a block diagram of the motion compensator 201b in the prediction signal generator 103c in the image predictive encoding device 100b according to the fourth embodiment.

動き補償器201bは、ラインL104経由でフレームメモリ104に記憶されている再生画像信号にアクセスし、ブロックマッチング処理を行なう。ここで、図3と図4を用いて、このブロックマッチング処理について説明する。ここでは対象ブロック402に対する候補予測信号を生成する処理について説明する。   The motion compensator 201b accesses the reproduced image signal stored in the frame memory 104 via the line L104 and performs block matching processing. Here, this block matching processing will be described with reference to FIGS. Here, a process of generating a candidate prediction signal for the target block 402 will be described.

まず、対象ブロックや符号化済みの隣接ブロックに付加された情報に基づいて「探索領域」を設定する。図3では、対象ブロック402に接しており、それより前に再生され同じ画面内にある再生画像の一部(全部でもよい)が探索領域401として設定されている。ここでは、対象ブロック402を、8x8の画素からなる符号化対象ブロックを分割した4x4画素の小ブロックとしているが、それ以外のブロックの大きさまたは形に分割してもよいし、分割しなくてもよい。   First, a “search area” is set based on the information added to the target block and the encoded adjacent block. In FIG. 3, a part (or all) of the reproduced images that are in contact with the target block 402 and are reproduced before and within the same screen are set as the search area 401. Here, the target block 402 is a small block of 4 × 4 pixels obtained by dividing an encoding target block made up of 8 × 8 pixels, but may be divided into other block sizes or shapes, or may not be divided. Also good.

さらに、図4では、対象ブロック402と異なる画面411で示される再生画像の一部が探索領域417として設定されている。なお、本実施形態では、2つの画面(図3と図4)内に探索領域を設定しているが、対象ブロックと同じ画面内のみに設定しても良いし(図3)、対象ブロックと異なる画面内のみに設定しても良い(図4)。   Further, in FIG. 4, a part of the reproduced image shown on the screen 411 different from the target block 402 is set as the search area 417. In this embodiment, the search area is set in two screens (FIGS. 3 and 4), but it may be set only in the same screen as the target block (FIG. 3). You may set only in a different screen (FIG. 4).

図3に示すように探索領域401と対象ブロック402とは接する必要はなく、探索領域401は対象ブロック402と全く接していなくてもよい。また、図4に示すように対象ブロックと異なる一画面(画面411のみ)において探索領域を設定することに限る必要はなく、対象ブロックと異なる複数の画面(参照画像、再生済みであれば表示順で未来のフレームを含んでも良い)にそれぞれ探索領域を設定してもよい。   As shown in FIG. 3, the search area 401 and the target block 402 do not need to touch each other, and the search area 401 may not touch the target block 402 at all. Also, as shown in FIG. 4, it is not necessary to limit the search area to be set on one screen (only the screen 411) different from the target block. And may include future frames), and search areas may be set respectively.

動き補償器201bは、探索領域401と(各参照フレームの)探索領域417の探索領域(いずれか一方でもよい)において、対象領域402内の画素と対象領域402と同じ形状を有する画素群との間で、対応する画素間の絶対誤差値の和(SAD)を求め、SADが小さいM個の領域を検索し、それらを「予測領域」とする。そして、予測領域に隣接する逆L字の領域を「予測隣接領域」とする。検索精度は整数画素単位でもよいし、1/2画素、1/4画素等の小数精度の画素を生成し、小数画素精度で探索を行なってもよい。Mの値は予め設定しておくが、図3および図4では、M=6であり、予測領域405a、405b、405c、415a、415bおよび415cが探索されている。これらに伴う予測隣接領域が領域404a、404b、404c、414a、414bおよび414cであり、対象領域の付加情報、つまり、各予測領域ならびに予測隣接領域にアクセスするための座標情報(動きベクトルと参照画像の識別番号)がベクトル406a、406b、406c、416a、416bおよび416cで示される。   The motion compensator 201b includes a pixel in the target area 402 and a pixel group having the same shape as the target area 402 in the search area 401 and the search area 417 (for each reference frame). In the meantime, a sum (SAD) of absolute error values between corresponding pixels is obtained, and M regions having a small SAD are searched and set as “predicted regions”. Then, an inverted L-shaped region adjacent to the prediction region is referred to as a “prediction adjacent region”. The search accuracy may be in units of integer pixels, or a pixel with decimal precision such as 1/2 pixel or 1/4 pixel may be generated and the search may be performed with decimal pixel precision. The value of M is set in advance, but in FIGS. 3 and 4, M = 6, and the prediction regions 405a, 405b, 405c, 415a, 415b, and 415c are searched. Predicted adjacent areas accompanying these are areas 404a, 404b, 404c, 414a, 414b, and 414c, and additional information of the target area, that is, coordinate information (motion vector and reference image) for accessing each predicted area and predicted adjacent area Are identified by vectors 406a, 406b, 406c, 416a, 416b and 416c.

さらに動き補償器201bでは、対象ブロック402に隣接する「対象隣接領域403」の画素信号(対象隣接信号)と探索したM個の予測隣接領域404、414の画素信号との間でSADを算出する。   Furthermore, the motion compensator 201b calculates SAD between the pixel signal (target adjacent signal) of the “target adjacent region 403” adjacent to the target block 402 and the pixel signals of the M predicted adjacent regions 404 and 414 searched. .

以上の通りの動作を行うための動き補償器201bの構成について説明する。動き補償器201bは、対象隣接領域取得器211と予測隣接領域取得器212と予測領域取得器2801とを含んで構成される。   A configuration of the motion compensator 201b for performing the operation as described above will be described. The motion compensator 201b includes a target adjacent region acquisition unit 211, a predicted adjacent region acquisition unit 212, and a prediction region acquisition unit 2801.

予測領域取得器2801は、ラインL104を経由してフレームメモリ104内の探索領域から対象領域402(対象ブロック)と同じ形状の領域(予測領域)の画素信号を順次取得し、ラインL102経由で入力された対象領域402の画素信号(対象画素信号)と取得した予測領域(405や415を含む)の画素信号との間でSADを算出する。そして、探索範囲内の画像群からSADの小さいM個の予測領域を検索する。検索されたM個の予測領域(405と415)にアクセスするための座標情報(406と416、動きベクトルと参照画像の識別番号)は、対象領域の付加情報として、ラインL2703経由で、エントロピー符号化器111に出力される。同時、M個の座標情報はラインL201a経由で、座標情報用メモリ202と予測隣接領域取得器212とに出力される。   The prediction region acquisition unit 2801 sequentially acquires pixel signals of a region (prediction region) having the same shape as the target region 402 (target block) from the search region in the frame memory 104 via the line L104, and inputs it via the line L102. The SAD is calculated between the pixel signal (target pixel signal) of the target region 402 thus obtained and the pixel signal of the acquired prediction region (including 405 and 415). Then, M prediction regions having a small SAD are searched from the image group within the search range. Coordinate information (406 and 416, motion vector and reference image identification number) for accessing the searched M prediction regions (405 and 415) is entropy code via line L2703 as additional information of the target region. Is output to the generator 111. At the same time, the M pieces of coordinate information are output to the coordinate information memory 202 and the predicted adjacent area acquisition unit 212 via the line L201a.

対象隣接領域取得器211は、フレームメモリ104からラインL104を経由して対象隣接領域403を取得し、ラインL211経由で予測隣接領域取得器212に出力する。   The target adjacent region acquisition unit 211 acquires the target adjacent region 403 from the frame memory 104 via the line L104 and outputs the target adjacent region 403 to the predicted adjacent region acquisition unit 212 via the line L211.

予測隣接領域取得器212は、ラインL201a経由でM個の予測領域の座標情報が入力されると、この座標情報に基づいて、フレームメモリ104内の探索領域から対象隣接領域403と同じ形状の領域である予測隣接領域の画素信号をM個取得する。そして、ラインL211経由で対象隣接領域取得器211から得られる対象隣接領域403の画素信号(隣接画素信号)と取得したM個の予測隣接領域の画素信号との間でSADを算出し、ラインL201b経由で候補予測信号の組み合わせ決定器2200に出力する。   When the coordinate information of the M prediction regions is input via the line L201a, the prediction adjacent region acquisition unit 212 receives the region having the same shape as the target adjacent region 403 from the search region in the frame memory 104 based on the coordinate information. M pixel signals of the predicted adjacent area are acquired. Then, SAD is calculated between the pixel signal (adjacent pixel signal) of the target adjacent area 403 obtained from the target adjacent area acquisition unit 211 via the line L211 and the acquired pixel signals of the M predicted adjacent areas, and the line L201b To the candidate prediction signal combination determiner 2200.

このように動き補償器201bは、M個の予測領域を探索し、これらの予測領域にアクセスするための座標情報を対象領域の付加情報として、エントロピー符号化器に出力する。そして、探索したM個の予測領域について、各予測領域に隣接する予測隣接領域の画素信号と対象隣接領域の画素信号との間のSADと、各予測隣接領域にアクセスするための座標情報を生成し、候補予測信号の組み合わせ決定器2200に出力する。候補予測信号の組み合わせ決定器2200は、入力された情報に基づいて、第三の実施形態に示すように、M個の予測領域の画素信号を重み付け平均化するための重み係数の組を複数の候補から選択する。   In this way, the motion compensator 201b searches for M prediction regions, and outputs coordinate information for accessing these prediction regions to the entropy encoder as additional information of the target region. Then, for the M prediction areas searched, SAD between the pixel signal of the prediction adjacent area adjacent to each prediction area and the pixel signal of the target adjacent area and coordinate information for accessing each prediction adjacent area are generated. And output to the candidate prediction signal combination determiner 2200. Based on the input information, the candidate prediction signal combination determiner 2200 generates a plurality of weight coefficient sets for weighted averaging pixel signals of M prediction regions, as shown in the third embodiment. Select from candidates.

図29は、本実施形態による動き補償器201bにて、対象領域(対象ブロック)の画素信号(対象画素信号)に対する複数(M個)の候補予測信号を探索し、探索した候補予測信号にアクセスするための座標情報を、対象領域の付加情報として取得する方法を示すフローチャートである。   In FIG. 29, the motion compensator 201b according to the present embodiment searches a plurality (M) of candidate prediction signals for the pixel signal (target pixel signal) in the target region (target block), and accesses the searched candidate prediction signal. It is a flowchart which shows the method of acquiring the coordinate information for doing as additional information of an object area | region.

まず、対象隣接領域取得器211では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ104から取得される。同時に、動き補償器201bは対象領域の画像信号を、入力画像信号を保存するフレームメモリから取得する(S2902)。   First, the target adjacent area acquisition unit 211 acquires the target adjacent area (template signal) for the target block from the frame memory 104. At the same time, the motion compensator 201b acquires the image signal of the target region from the frame memory that stores the input image signal (S2902).

つぎに、動き補償器201bは、M個の候補予測信号を選択するための閾値を十分大きな値に初期化する(S503)。予測領域取得器2801は、探索領域から予測領域を取得し、取得した予測領域と対象領域との画素信号の間の絶対値差分和(SAD)を求める(S2903)。更にSAD値と閾値が比較され(S505)、SAD値が閾値より小さいと判断された場合、S2904に進み、そうでないと判断された場合、S508に進む。   Next, the motion compensator 201b initializes a threshold value for selecting M candidate prediction signals to a sufficiently large value (S503). The prediction region acquisition unit 2801 acquires a prediction region from the search region, and obtains an absolute value difference sum (SAD) between the pixel signals of the acquired prediction region and the target region (S2903). Further, the SAD value is compared with the threshold value (S505), and if it is determined that the SAD value is smaller than the threshold value, the process proceeds to S2904, and if not, the process proceeds to S508.

処理S2904では、処理S2903で算出したSADのうち、値が小さいM個の予測領域にアクセスするための座標情報を保存・更新する。同時に、動き補償器201bは、閾値をM番目に小さいSADの値に更新する(S507)。   In the process S2904, the coordinate information for accessing the M prediction areas having a small value among the SADs calculated in the process S2903 is stored / updated. At the same time, the motion compensator 201b updates the threshold value to the Mth smallest SAD value (S507).

その後、予測領域取得器2801により、探索領域が全て探索済みであるか否か確認される(S508)。全て探索済みではないと判断された場合、S2903に戻り、全部探索済みとなった時点で、動き補償器201bは処理S2905を実施し、動き補償処理を終了する(S509)。処理S2905では、検出したM個の座標情報を対象領域の付加情報として符号化する。さらに、予測隣接領域取得器212にて、処理S2902で取得した対象隣接領域の画素信号と、M個の座標情報に基づいて取得されるM個の予測隣接領域の画素信号のSADが算出される。   Thereafter, the prediction area acquisition unit 2801 checks whether or not all search areas have been searched (S508). When it is determined that not all have been searched, the process returns to S2903, and when all have been searched, the motion compensator 201b performs the process S2905 and ends the motion compensation process (S509). In process S2905, the detected M pieces of coordinate information are encoded as additional information of the target area. Further, the predicted adjacent area acquisition unit 212 calculates the SAD of the pixel signal of the target adjacent area acquired in step S2902 and the pixel signals of M predicted adjacent areas acquired based on the M pieces of coordinate information. .

図30は第四の実施形態による画像予測復号装置300bを示すブロック図である。予測信号生成器308cの入力構成が、画像予測復号装置300bのブロック図における画像予測復号装置300と異なる。つまり、エントロピー復号器302にて復号された2つ以上の各予測領域にアクセスするための座標情報を含む対象領域の付加情報が、予測信号生成器308cに入力される。   FIG. 30 is a block diagram showing an image predictive decoding device 300b according to the fourth embodiment. The input configuration of the prediction signal generator 308c is different from that of the image prediction decoding device 300 in the block diagram of the image prediction decoding device 300b. That is, additional information of the target region including coordinate information for accessing each of two or more prediction regions decoded by the entropy decoder 302 is input to the prediction signal generator 308c.

次に、第四の実施形態による画像予測符号化装置100b内の予測信号生成器103cについて説明する。図22の予測信号生成器と異なるところは、テンプレートマッチング器201が対象隣接領域動き補償器201bに変更される点である。   Next, the prediction signal generator 103c in the image predictive coding device 100b according to the fourth embodiment will be described. The difference from the prediction signal generator of FIG. 22 is that the template matching unit 201 is changed to a target adjacent region motion compensator 201b.

図31は第四の実施形態による画像予測復号装置300b内の予測信号生成器308cにおける対象隣接領域動き補償器201cのブロック図である。   FIG. 31 is a block diagram of the target adjacent region motion compensator 201c in the prediction signal generator 308c in the image predictive decoding device 300b according to the fourth embodiment.

対象隣接領域動き補償器201cでは、ラインL309経由で入力されるM個の座標情報に基づいて、M個の予測隣接領域404、414の画素信号を取得し、対象ブロック402に隣接する「対象隣接領域403」の画素信号(対象隣接信号)との間でSADを算出する。   The target adjacent region motion compensator 201c acquires pixel signals of M predicted adjacent regions 404 and 414 based on the M pieces of coordinate information input via the line L309, and acquires the “target adjacent” adjacent to the target block 402. The SAD is calculated with respect to the pixel signal (target adjacent signal) in the “region 403”.

対象隣接領域動き補償器201cの構成について説明する。動き補償器201cは、対象隣接領域取得器211と予測隣接領域取得器212とを含んで構成される。   A configuration of the target adjacent region motion compensator 201c will be described. The motion compensator 201c includes a target adjacent region acquisition unit 211 and a predicted adjacent region acquisition unit 212.

まず、ラインL309経由で入力されるM個の予測領域にアクセスするための座標情報は、予測隣接領域取得器212に入力されると共に、候補予測信号の組み合わせ決定器2200に出力される。   First, coordinate information for accessing the M prediction regions input via the line L309 is input to the prediction adjacent region acquisition unit 212 and also output to the candidate prediction signal combination determiner 2200.

対象隣接領域取得器211は、フレームメモリ104からラインL104を経由して対象隣接領域403を取得し、ラインL211経由で予測隣接領域取得器212に出力する。   The target adjacent region acquisition unit 211 acquires the target adjacent region 403 from the frame memory 104 via the line L104 and outputs the target adjacent region 403 to the predicted adjacent region acquisition unit 212 via the line L211.

予測隣接領域取得器212は、ラインL309経由でM個の予測領域の座標情報が入力されると、この座標情報に基づいて、フレームメモリ104内の探索領域から対象隣接領域403と同じ形状の領域である予測隣接領域の画素信号をM個取得する。そして、ラインL211経由で対象隣接領域取得器211から得られる対象隣接領域403の画素信号(隣接画素信号)と取得したM個の予測隣接領域の画素信号との間でSADを算出し、ラインL201b経由で候補予測信号の組み合わせ決定器2200に出力する。   When the coordinate information of M prediction regions is input via the line L309, the prediction adjacent region acquisition unit 212 receives the region having the same shape as the target adjacent region 403 from the search region in the frame memory 104 based on the coordinate information. M pixel signals of the predicted adjacent area are acquired. Then, SAD is calculated between the pixel signal (adjacent pixel signal) of the target adjacent area 403 obtained from the target adjacent area acquisition unit 211 via the line L211 and the acquired pixel signals of the M predicted adjacent areas, and the line L201b To the candidate prediction signal combination determiner 2200.

このように対象隣接領域動き補償器201cは、M個の各予測領域に隣接する予測隣接領域の画素信号と対象隣接領域の画素信号との間のSADを算出し、各予測隣接領域にアクセスするための座標情報と共に、候補予測信号の組み合わせ決定器2200に出力する。候補予測信号の組み合わせ決定器2200は、入力された情報に基づいて、第三の実施形態に示すように、M個の予測領域の画素信号を重み付け平均化するための重み係数の組を複数の候補から選択する。   As described above, the target adjacent region motion compensator 201c calculates the SAD between the pixel signal of the prediction adjacent region adjacent to each of the M prediction regions and the pixel signal of the target adjacent region, and accesses each prediction adjacent region. Together with the coordinate information for output to the candidate determination signal combination determiner 2200. Based on the input information, the candidate prediction signal combination determiner 2200 generates a plurality of weight coefficient sets for weighted averaging pixel signals of M prediction regions, as shown in the third embodiment. Select from candidates.

図32は、本実施形態による対象隣接領域動き補償器201cにて実施される処理を示すフローチャートである。   FIG. 32 is a flowchart illustrating processing performed by the target adjacent region motion compensator 201c according to the present embodiment.

第1に、復号器のエントロピー復号器302は、対象領域の付加情報を復号し、M個の予測領域にアクセスするための座標情報を復号する(S3202)。対象隣接領域取得器211では、対象ブロックに対する対象隣接領域(テンプレート信号)がフレームメモリ307から取得される(S3203)。   First, the entropy decoder 302 of the decoder decodes the additional information of the target region and decodes the coordinate information for accessing the M prediction regions (S3202). The target adjacent area acquisition unit 211 acquires the target adjacent area (template signal) for the target block from the frame memory 307 (S3203).

第2に、予測隣接領域取得器212にて、処理S3203にて取得した対象隣接領域の画素信号と、復号したM個の座標情報に基づいて取得されるM個の予測隣接領域の画素信号のSADが算出され(S3204)、処理を終了する(S3205)。   Second, the prediction adjacent region acquisition unit 212 calculates the pixel signal of the target adjacent region acquired in step S3203 and the pixel signals of the M predicted adjacent regions acquired based on the decoded M pieces of coordinate information. SAD is calculated (S3204), and the process ends (S3205).

このように、対象領域に付加された情報に基づいて、複数の予測領域を生成する場合においても、これらの予測領域を重み付け平均化して、対象領域の予測信号を生成するための重み係数の組を、付加情報なしで複数の候補から決定できる。   Thus, even when a plurality of prediction regions are generated based on information added to the target region, a set of weighting factors for generating a prediction signal of the target region by weighting and averaging these prediction regions. Can be determined from a plurality of candidates without additional information.

なお、第一〜第三の実施形態と同様に、第四の実施形態の画像予測符号化装置100および画像予測復号装置300を、プログラムまたはそのプログラムを含んだ記録媒体として構成することができる。その具体的なモジュール構成は、図11、および図13と同様の構成をとる。また、予測信号生成器103cに相当するモジュール構成は、図12と同様の構成をとるが、テンプレートマッチングモジュールP201にかえて、動き補償器201bの機能を有する動き補償モジュールにする必要がある。また、予測信号生成器308cに相当するモジュール構成は、図12と同様の構成をとるが、テンプレートマッチングモジュールP201にかえて、対象隣接領域動き補償器201cに相当する対象隣接領域動き補償モジュールとする必要がある。   Note that, similarly to the first to third embodiments, the image predictive encoding device 100 and the image predictive decoding device 300 of the fourth embodiment can be configured as a program or a recording medium including the program. The specific module configuration is the same as that shown in FIGS. The module configuration corresponding to the prediction signal generator 103c is the same as that in FIG. 12, but it is necessary to replace the template matching module P201 with a motion compensation module having the function of the motion compensator 201b. The module configuration corresponding to the prediction signal generator 308c has the same configuration as that in FIG. 12, but instead of the template matching module P201, the target adjacent region motion compensation module corresponding to the target adjacent region motion compensator 201c is used. There is a need.

つぎに、本実施形態の画像予測符号化装置100および画像予測復号装置300の作用効果について説明する。   Next, the operational effects of the image predictive encoding device 100 and the image predictive decoding device 300 of this embodiment will be described.

第一の実施形態の画像予測符号化装置100において、テンプレートマッチング器201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定器203における組み合わせ設定器231は、探索した複数の予測隣接領域404a〜404c、414a〜414cのうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域取得器232は、導出された予測隣接領域の画素信号を抽出し、重み付け器234および加算器235は、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、比較・選択器236は、重み付け器234等により生成された比較信号と対象隣接領域取得器233により取得された隣接画素信号との相関が高い組み合わせを選択する。予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。このように生成された予測信号をブロック分割器102を介して取得された対象画素信号から減算器105が減算して残差信号を生成し、変換器106、量子化器107、およびエントロピー符号化器111は生成された残差信号を符号化する。   In the image predictive encoding device 100 according to the first embodiment, the template matching unit 201 correlates with the target adjacent region 403 including the already-reproduced adjacent pixel signal adjacent to the target region (target block) 402 including the target pixel signal. A plurality of predicted adjacent regions 404a to 404c and 414a to 414c having a high value are searched from the search regions 401 and 417 made of the already reproduced images. The combination setting unit 231 in the candidate prediction signal combination determiner 203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction adjacent region acquisition unit 232 extracts the pixel signal of the derived prediction adjacent region, and the weighter 234 and the adder 235 use, for example, an average of the extracted pixel signals using a predetermined synthesis method. As a result, the comparison signal for the adjacent pixel signal is generated for each combination. Then, the comparison / selector 236 selects a combination having a high correlation between the comparison signal generated by the weighting unit 234 and the like and the adjacent pixel signal acquired by the target adjacent region acquisition unit 233. The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method. The subtractor 105 subtracts the prediction signal generated in this way from the target pixel signal acquired via the block divider 102 to generate a residual signal, and the converter 106, the quantizer 107, and the entropy coding The unit 111 encodes the generated residual signal.

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本実施形態の画像予測符号化装置100における比較・選択器236は、比較信号と隣接画素信号との差分の絶対値和であるSADが小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   Further, the comparison / selector 236 in the image predictive coding device 100 of the present embodiment is more suitable for smoothing by selecting a combination having a small SAD that is the sum of absolute values of differences between the comparison signal and the adjacent pixel signal. A combination of candidate prediction signals can be selected.

また、本実施形態の画像予測符号化装置100における重み付け器234および加算器235は、組み合わせ設定器231において設定された組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   In addition, the weighter 234 and the adder 235 in the image predictive encoding device 100 according to the present embodiment generate a comparison signal by performing weighted averaging of the pixel signals in the prediction adjacent region belonging to the combination set in the combination setting unit 231. Thus, it is possible to generate an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing.

また、本実施形態の画像予測符号化装置100における組み合わせ設定器231が設定する予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むようにしたことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。ここで、nの値が0以上の整数であることが好ましい。   In addition, the combination of prediction adjacent regions set by the combination setting unit 231 in the image predictive encoding device 100 of the present embodiment includes 2 n predicted adjacent regions in descending order of correlation with the target adjacent region. As a result, it can be performed only by addition and shift operation, and a simple configuration can be achieved. Here, the value of n is preferably an integer of 0 or more.

また、本実施形態の画像予測復号装置300において、テンプレートマッチング器201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定器203における組み合わせ設定器231は、探索した複数の予測隣接領域404a〜404c、414a〜414cのうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測隣接領域取得器232は、導出された予測隣接領域の画素信号を抽出し、重み付け器234および加算器235は、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、比較・選択器236は、重み付け器234等により生成された比較信号と対象隣接領域取得器233により取得された隣接画素信号との相関が高い組み合わせを選択する。予測領域取得器204は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、重み付け器205および加算器206は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Further, in the image predictive decoding device 300 of the present embodiment, the template matching unit 201 has a correlation with the target adjacent region 403 including the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 including the target pixel signal. A plurality of high predicted adjacent areas 404a to 404c and 414a to 414c are searched from the search areas 401 and 417 made of the already reproduced images. The combination setting unit 231 in the candidate prediction signal combination determiner 203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction adjacent region acquisition unit 232 extracts the pixel signal of the derived prediction adjacent region, and the weighter 234 and the adder 235 use, for example, an average of the extracted pixel signals using a predetermined synthesis method. As a result, the comparison signal for the adjacent pixel signal is generated for each combination. Then, the comparison / selector 236 selects a combination having a high correlation between the comparison signal generated by the weighting unit 234 and the like and the adjacent pixel signal acquired by the target adjacent region acquisition unit 233. The prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and the weighter 205 and the adder 206 determine the candidate prediction signal in advance. A prediction signal is generated by processing using a synthesis method.

そして、入力端子301を介して入力した圧縮データからエントロピー復号器302、逆量子化器303、逆変換器304が差分信号を復元し、加算器305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。   Then, the entropy decoder 302, the inverse quantizer 303, and the inverse transformer 304 restore the difference signal from the compressed data input through the input terminal 301, and the adder 305 includes the predicted signal generated as described above. The restored difference signal is added to generate a reproduced image signal.

これにより、対象ブロックに隣接する既再生の隣接画素信号からなる対象隣接領域を用いて、情報量を多くすることなく平滑化に適した候補予測信号の組み合わせが選択できるので、効率良く局所的な雑音特性を考慮した予測信号を生成することができる。   As a result, a combination of candidate prediction signals suitable for smoothing can be selected without increasing the amount of information using a target adjacent region composed of already-reproduced adjacent pixel signals adjacent to the target block. A prediction signal in consideration of noise characteristics can be generated.

また、本実施形態の画像予測復号装置300における比較・選択器236は、比較信号と隣接画素信号との差分の絶対値和であるSADが小さい組み合わせを選択することにより、より平滑化に適した候補予測信号の組み合わせを選択することができる。   Further, the comparison / selector 236 in the image predictive decoding device 300 of the present embodiment is more suitable for smoothing by selecting a combination having a small SAD that is the sum of absolute values of differences between the comparison signal and the adjacent pixel signal. A combination of candidate prediction signals can be selected.

また、本実施形態の画像予測復号装置300における重み付け器234および加算器235は、組み合わせ設定器231において設定された組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより比較信号を生成することで、より平滑化に適した候補予測信号の組み合わせを選択するにあたっての適切な比較信号を生成することができる。   In addition, the weighting unit 234 and the adder 235 in the image predictive decoding device 300 according to the present embodiment generate a comparison signal by performing weighted averaging of the pixel signals of the prediction adjacent regions belonging to the combination set by the combination setting unit 231. Thus, it is possible to generate an appropriate comparison signal for selecting a combination of candidate prediction signals more suitable for smoothing.

また、本実施形態の画像予測復号装置300における組み合わせ設定器231が設定する予測隣接領域の組み合わせが、対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むようにしたことにより、加算とシフト演算のみで行うことができ、実装上簡易な構成をとることができる。ここで、nの値が0以上の整数であることが好ましい。   In addition, the combination of prediction adjacent regions set by the combination setting unit 231 in the image predictive decoding device 300 of the present embodiment includes 2 n predicted adjacent regions in descending order of correlation with the target adjacent region. Therefore, it can be performed only by addition and shift operation, and a simple configuration in mounting can be achieved. Here, the value of n is preferably an integer of 0 or more.

また、本実施形態の画像予測符号化プログラムP100において、テンプレートマッチングモジュールP201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。候補予測信号の組み合わせ決定モジュールP202は、探索した複数の予測隣接領域404a〜404c、414a〜414cのうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、候補予測信号の組み合わせ決定モジュールP202は、導出された予測隣接領域の画素信号を抽出し、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、予測信号合成モジュールP203は、生成された比較信号と取得された隣接画素信号との相関が高い組み合わせを選択する。候補予測信号の組み合わせ決定モジュールP202は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。このように生成された予測信号をブロック分割モジュールP102を介して取得された対象画素信号から減算モジュールP105が減算して残差信号を生成し、変換モジュールP106、量子化モジュールP107、およびエントロピー符号化モジュールP111は生成された残差信号を符号化する。   Further, in the image predictive coding program P100 of the present embodiment, the template matching module P201 correlates with the target adjacent region 403 including the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 including the target pixel signal. A plurality of predicted adjacent regions 404a to 404c and 414a to 414c having a high value are searched from the search regions 401 and 417 made of the already reproduced images. The candidate prediction signal combination determination module P202 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas 404a to 404c and 414a to 414c. Then, the candidate prediction signal combination determination module P202 extracts the pixel signals of the derived prediction adjacent regions, and processes the extracted pixel signals by, for example, averaging using a predetermined synthesis method. The comparison signal for the adjacent pixel signal is generated for each combination. Then, the predicted signal synthesis module P203 selects a combination having a high correlation between the generated comparison signal and the acquired adjacent pixel signal. The candidate prediction signal combination determination module P202 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and processes the candidate prediction signals using a predetermined synthesis method. To generate a prediction signal. The subtraction module P105 subtracts the prediction signal generated in this way from the target pixel signal acquired via the block division module P102 to generate a residual signal, and transform module P106, quantization module P107, and entropy coding Module P111 encodes the generated residual signal.

また、本実施形態の画像予測復号プログラムP300において、テンプレートマッチングモジュールP201は、対象画素信号からなる対象領域(対象ブロック)402に隣接する既再生の隣接画素信号からなる対象隣接領域403との相関が高い複数の予測隣接領域404a〜404c、414a〜414cを、既再生画像からなる探索領域401および417から探索する。予測信号合成モジュールP203は、探索した複数の予測隣接領域404a〜404c、414a〜414cのうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出する。そして、予測信号合成モジュールP203は、導出された予測隣接領域の画素信号を抽出し、抽出された画素信号を予め定めた合成方法を用いて、例えば平均化することで加工することにより、組み合わせ毎に隣接画素信号に対する比較信号をそれぞれ生成する。そして、予測信号合成モジュールP203は、生成された比較信号と取得された隣接画素信号との相関が高い組み合わせを選択する。予測信号合成モジュールP203は、選択された組み合わせに属する予測隣接領域に基づいて、対象画素信号の候補予測信号を1つ以上生成し、予測信号合成モジュールP203は、候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成する。   Further, in the image predictive decoding program P300 of the present embodiment, the template matching module P201 has a correlation with the target adjacent region 403 composed of the already reproduced adjacent pixel signal adjacent to the target region (target block) 402 composed of the target pixel signal. A plurality of high predicted adjacent areas 404a to 404c and 414a to 414c are searched from the search areas 401 and 417 made of the already reproduced images. The predicted signal synthesis module P203 derives two or more combinations of arbitrary predicted adjacent areas including at least one of the searched predicted adjacent areas 404a to 404c and 414a to 414c. Then, the prediction signal synthesis module P203 extracts the pixel signal of the derived prediction adjacent region, and processes the extracted pixel signal by, for example, averaging using a predetermined synthesis method, for each combination. The comparison signals for the adjacent pixel signals are respectively generated. Then, the predicted signal synthesis module P203 selects a combination having a high correlation between the generated comparison signal and the acquired adjacent pixel signal. The prediction signal synthesis module P203 generates one or more candidate prediction signals of the target pixel signal based on the prediction adjacent regions belonging to the selected combination, and the prediction signal synthesis module P203 combines the candidate prediction signals in advance. Is used to generate a prediction signal.

そして、入力した圧縮データからエントロピー復号モジュールP302、逆量子化モジュールP303、逆変換モジュールP304が差分信号を復元し、加算モジュールP305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。   Then, the entropy decoding module P302, the inverse quantization module P303, and the inverse transform module P304 restore the difference signal from the input compressed data, and the addition module P305 outputs the prediction signal generated as described above and the restored difference signal. Addition to generate a reproduction image signal.

画像予測符号化装置100において予測信号生成器103aを適用した第二実施形態ついては、以下の作用効果を奏する。すなわち、予測信号生成器103aにおいて、予測隣接領域取得器212は、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索する。そして、代表予測領域取得器1802は、探索した複数の予測隣接領域のうち、対象領域に基づいたN個の予測領域の画素信号または探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から2個の信号を取得する。   The second embodiment to which the prediction signal generator 103a is applied in the image predictive encoding device 100 has the following operational effects. In other words, in the prediction signal generator 103a, the prediction adjacent region acquisition unit 212 includes a plurality of prediction adjacent regions that have a high correlation with the target adjacent region including the already reproduced adjacent pixel signals that are adjacent to the target region. Search from the search area. Then, the representative prediction region acquisition unit 1802 outputs pixel signals of N prediction regions based on the target region among the plurality of prediction adjacent regions searched for or pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for. Alternatively, two signals are acquired from both signals.

そして、予測領域間の相関評価値算出器1803は、N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出する。予測領域取得器204は、該評価値が規定の閾値より小さい場合におけるN個の候補予測信号を取得し、重み付け器205および加算器206は、N個の候補予測信号に対して予め定めた合成方法を用いて加工することによって予測信号を生成する。そして、減算器105は、生成した予測信号を対象画素信号から減算して残差信号を算出し、変換器106、量子化器107およびエントロピー符号化器111は、残差信号を符号化し、出力端子112は出力する。   Then, a correlation evaluation value calculator 1803 between prediction regions calculates an evaluation value for evaluating the correlation between N candidate prediction signals by a predetermined method. The prediction area acquisition unit 204 acquires N candidate prediction signals when the evaluation value is smaller than a predetermined threshold value, and the weighter 205 and the adder 206 combine predetermined combinations for the N candidate prediction signals. A prediction signal is generated by processing using the method. The subtractor 105 subtracts the generated prediction signal from the target pixel signal to calculate a residual signal, and the converter 106, the quantizer 107, and the entropy encoder 111 encode the residual signal and output it. The terminal 112 outputs.

これにより、複数の候補予測信号に基づいて適切な予測信号を生成することができる。候補予測信号の雑音成分だけが異なり信号成分が類似している信号に対して、特に効果がある。   Thereby, an appropriate prediction signal can be generated based on a plurality of candidate prediction signals. This is particularly effective for signals that differ only in the noise component of the candidate prediction signal but have similar signal components.

また、予測信号生成器103aにおいて、閾値処理器1804が評価値が閾値より大きいと判断する場合には、カウンター1801がN値を減算することで次に大きい値に更新し、代表予測領域取得器1802が画素信号の組み合わせを再取得し、予測領域間の相関評価値算出器1803が再度評価値を算出し、閾値処理器1804が評価値の算出と規定の閾値との比較を再度行うことで、予測領域取得器204は、有効な候補予測信号の数を選択することができる。   Also, in the prediction signal generator 103a, when the threshold value processor 1804 determines that the evaluation value is larger than the threshold value, the counter 1801 updates the value to the next largest value by subtracting the N value, and the representative prediction region acquisition unit 1802 re-acquires a combination of pixel signals, a correlation evaluation value calculator 1803 between prediction regions calculates an evaluation value again, and a threshold value processor 1804 recalculates the evaluation value and compares it with a prescribed threshold value. The prediction region acquisition unit 204 can select the number of valid candidate prediction signals.

また、予測信号生成器103aにおいて、予測領域間の相関評価値算出器1803は、テンプレートマッチング器201が探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を評価値とする。これにより、適切な評価値を算出することができる。   Further, in the prediction signal generator 103a, the correlation evaluation value calculator 1803 between prediction regions sets the prediction adjacent region having the highest correlation with the target adjacent region among the N prediction adjacent regions searched by the template matching unit 201. The pixel signal of the prediction adjacent region adjacent to the prediction adjacent region having the Nth lowest correlation between the pixel signal of the adjacent prediction region and the target adjacent region, or the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region and the target adjacent The absolute value sum of the pixel signals of the prediction adjacent region having the Nth lowest correlation with the region, or the difference between the signals combining the pixel signals is calculated, and the absolute value sum of the differences is used as the evaluation value. Thereby, an appropriate evaluation value can be calculated.

また、画像予測復号装置300において、予測信号生成器308aを適用した場合以下の作用効果を奏する。予測隣接領域取得器212は、対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索する。そして、代表予測領域取得器1802は、探索した複数の予測隣接領域のうち、対象領域に基づいたN個の予測領域の画素信号または探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から2個の信号を取得する。   Further, when the prediction signal generator 308a is applied to the image predictive decoding device 300, the following operational effects are obtained. The predicted adjacent area acquisition unit 212 searches a plurality of predicted adjacent areas having a high correlation with the target adjacent area including the already-reproduced adjacent pixel signals adjacent to the target area from the search area including the already-reproduced image. Then, the representative prediction region acquisition unit 1802 outputs pixel signals of N prediction regions based on the target region among the plurality of prediction adjacent regions searched for or pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for. Alternatively, two signals are acquired from both signals.

そして、予測領域間の相関評価値算出器1803は、N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出する。予測領域取得器204は、該評価値が規定の閾値より小さい場合におけるN個の候補予測信号を取得し、重み付け器205および加算器206は、N個の候補予測信号に対して予め定めた合成方法を用いて加工することによって予測信号を生成する。   Then, a correlation evaluation value calculator 1803 between prediction regions calculates an evaluation value for evaluating the correlation between N candidate prediction signals by a predetermined method. The prediction area acquisition unit 204 acquires N candidate prediction signals when the evaluation value is smaller than a predetermined threshold value, and the weighter 205 and the adder 206 combine predetermined combinations for the N candidate prediction signals. A prediction signal is generated by processing using the method.

一方、入力端子301を介して入力した圧縮データからエントロピー復号器302、逆量子化器303、逆変換器304が差分信号を復元し、加算器305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。   On the other hand, the entropy decoder 302, the inverse quantizer 303, and the inverse transformer 304 restore the differential signal from the compressed data input through the input terminal 301, and the adder 305 includes the prediction signal generated as described above. The restored difference signal is added to generate a reproduced image signal.

これにより、複数の候補予測信号に基づいて適切な予測信号を生成することができる。候補予測信号の雑音成分だけが異なり信号成分が類似している信号に対して、特に効果がある。   Thereby, an appropriate prediction signal can be generated based on a plurality of candidate prediction signals. This is particularly effective for signals that differ only in the noise component of the candidate prediction signal but have similar signal components.

また、予測信号生成器103aにおいて、閾値処理器1804が評価値が閾値より大きいと判断する場合には、カウンター1801がN値を減算することで次に大きい値に更新し、代表予測領域取得器1802が画素信号の組み合わせを再取得し、予測領域間の相関評価値算出器1803が再度評価値を算出し、閾値処理器1804が評価値の算出と規定の閾値との比較を再度行うことで、予測領域取得器204は、有効な候補予測信号の数を選択することができる。   Also, in the prediction signal generator 103a, when the threshold value processor 1804 determines that the evaluation value is larger than the threshold value, the counter 1801 updates the value to the next largest value by subtracting the N value, and the representative prediction region acquisition unit 1802 re-acquires a combination of pixel signals, a correlation evaluation value calculator 1803 between prediction regions calculates an evaluation value again, and a threshold value processor 1804 recalculates the evaluation value and compares it with a prescribed threshold value. The prediction region acquisition unit 204 can select the number of valid candidate prediction signals.

また、予測信号生成器103aにおいて、予測領域間の相関評価値算出器1803は、テンプレートマッチング器201が探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を評価値とする。これにより、適切な評価値を算出することができる。   Further, in the prediction signal generator 103a, the correlation evaluation value calculator 1803 between prediction regions sets the prediction adjacent region having the highest correlation with the target adjacent region among the N prediction adjacent regions searched by the template matching unit 201. The pixel signal of the prediction adjacent region adjacent to the prediction adjacent region having the Nth lowest correlation between the pixel signal of the adjacent prediction region and the target adjacent region, or the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region and the target adjacent The absolute value sum of the pixel signals of the prediction adjacent region having the Nth lowest correlation with the region, or the difference between the signals combining the pixel signals is calculated, and the absolute value sum of the differences is used as the evaluation value. Thereby, an appropriate evaluation value can be calculated.

画像予測符号化装置100に対して予測信号生成器103bを適用した第三の実施形態については、以下の作用効果を奏する。テンプレートマッチング器201が、対象領域あるいは対象領域に隣接する対象隣接領域に基づいて、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得する。   The third embodiment in which the prediction signal generator 103b is applied to the image predictive encoding device 100 has the following operational effects. Based on the target area or the target adjacent area adjacent to the target area, the template matching unit 201 acquires a plurality of predicted adjacent areas having the same shape as the target adjacent area from the search area including the already reproduced images.

そして、組み合わせ設定器231は、取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出する。つぎに、重み係数設定器2201は、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、重み付け平均化器2202は、これら組み合わせについて、該複数重み係数の組を用いてこれら組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。   Then, the combination setter 231 derives an arbitrary combination of predicted adjacent areas including two or more of the predicted adjacent areas among the plurality of acquired predicted adjacent areas. Next, the weighting factor setting unit 2201 derives two or more sets of weighting factors for performing weighted averaging of pixel signals in the prediction adjacent region belonging to the combination, and the weighting averager 2202 calculates the plurality of combinations for the combinations. Two or more comparison signals for the adjacent pixel signals are generated by performing weighted averaging of the pixel signals of the predicted adjacent regions belonging to these combinations using a set of weighting factors.

つぎに、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、予測領域取得器204は、組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を2つ以上生成し、重み付け平均化器2204は、該候補予測信号を選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。そして、減算器105は、生成した予測信号を対象画素信号から減算することで残差信号を生成し、変換器106、量子化器107、エントロピー符号化器111は、残差信号を符号化する。これにより、対象ブロックごとに、付加情報なしで重み係数の組を選択することが可能となる。   Next, the comparator / selector 2203 selects a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal, and the prediction area acquisition unit 204 determines the already reproduced image based on the prediction adjacent area belonging to the combination. Two or more candidate prediction signals of the target pixel signal are generated from the above, and the weighted averager 2204 generates a prediction signal by performing weighted averaging of the candidate prediction signals using a selected set of weighting coefficients. Then, the subtractor 105 generates a residual signal by subtracting the generated prediction signal from the target pixel signal, and the converter 106, the quantizer 107, and the entropy encoder 111 encode the residual signal. . This makes it possible to select a set of weighting factors without additional information for each target block.

また、第三の実施形態の画像符号化装置100においては、テンプレートマッチング器201が、対象領域あるいは対象領域に隣接する対象隣接領域に基づいて、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得する。   Further, in the image encoding device 100 according to the third embodiment, the template matching unit 201 uses a target adjacent region or a target adjacent region adjacent to the target region to generate a predicted adjacent region having the same shape as the target adjacent region. A plurality of images are obtained from the search area made up of reproduced images.

そして、組み合わせ設定器231は、取得した複数の予測隣接領域のうち、当該予測隣接領域を1つ以上含む、任意の予測隣接領域の組み合わせを導出する。   Then, the combination setter 231 derives a combination of arbitrary predicted adjacent areas including one or more of the predicted adjacent areas among the plurality of acquired predicted adjacent areas.

そして、重み係数設定器2201は、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、重み付け平均化器2202は、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。   Then, the weighting factor setting unit 2201 derives two or more sets of weighting factors for weighted average of the pixel signals of the predicted adjacent regions belonging to the combination of combinations including two or more predicted adjacent regions, and performs weighted averaging. The unit 2202 generates two or more comparison signals for adjacent pixel signals by performing weighted averaging of the pixel signals in the predicted adjacent region using the plurality of sets of weighting factors.

つぎに、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、再度、重み付け平均化器2202は、選択された複数の組み合わせに属する予測隣接領域の画素信号を、選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成し、再度、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い組み合わせを選択する。   Next, the comparator / selector 2203 selects a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal, and the weighted averager 2202 again predicts adjacent regions belonging to the selected combinations. Are compared with each other using a set of selected weighting factors, and two or more comparison signals for the adjacent pixel signal are generated. Again, the comparison / selector 2203 A combination having a high correlation between the comparison signal and the adjacent pixel signal is selected.

そして、予測領域取得器204は、該選択した組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を1つ以上生成し、重み付け平均化器2204は、該候補予測信号を、選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。そして、生成した予測信号を用いて対象画素信号との残差信号を生成し、残差信号を符号化する。これにより、対象ブロックごとに、付加情報なしで予測信号生成に有効な候補予測信号の組み合わせおよび重み係数の組を選択することが可能となる。   Then, the prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal from the already reproduced image based on the prediction adjacent region belonging to the selected combination, and the weighted averager 2204 includes the candidate prediction signal. A predicted signal is generated by weighted averaging the signal using the previously selected combination of weighting factors for the selected combination. Then, a residual signal with the target pixel signal is generated using the generated prediction signal, and the residual signal is encoded. Thereby, for each target block, it is possible to select a combination of candidate prediction signals and a set of weighting coefficients that are effective for generating a prediction signal without additional information.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する複数の予測隣接領域の画素信号と前接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう(例えば式(7)に示されるように)、少なくとも重み係数の組の1つを算出することにより、適切な重み係数の組を算出することができる。   Further, in the prediction signal generator 103b, the weighting coefficient setting unit 2201 sets a smaller weighting coefficient as the absolute value sum of the differences between the pixel signals of the plurality of prediction adjacent regions belonging to the combination and the preceding pixel signal increases. As shown (for example, as shown in equation (7)), an appropriate set of weighting factors can be calculated by calculating at least one set of weighting factors.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組(例えば、式(6)に示されるように)を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   In the prediction signal generator 103b, the weighting factor setting unit 2201 prepares in advance a set of weighting factors (for example, as shown in Expression (6)) determined according to the number of prediction adjacent regions belonging to the combination. Thus, by deriving at least one set of weight coefficients from the prepared set of weight coefficients, an appropriate set of weight coefficients can be calculated.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する複数の予測隣接領域の画素信号と隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表(例えば、図26に示されるように)を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   Further, in the prediction signal generator 103b, the weighting factor setting unit 2201 is a correspondence table in which a set of weighting factors is determined based on the sum of absolute values of differences between the pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals (for example, As shown in FIG. 26, an appropriate weight coefficient set can be calculated by deriving at least one set of weight coefficients using the correspondence table.

また、画像予測復号装置300において、予測信号生成器308bを適用した場合以下の作用効果を奏する。テンプレートマッチング器201が、対象領域あるいは対象領域に隣接する対象隣接領域に基づいて、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得する。   Further, when the prediction signal generator 308b is applied to the image predictive decoding device 300, the following operational effects are obtained. Based on the target area or the target adjacent area adjacent to the target area, the template matching unit 201 acquires a plurality of predicted adjacent areas having the same shape as the target adjacent area from the search area including the already reproduced images.

そして、組み合わせ設定器231は、取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出する。つぎに、重み係数設定器2201は、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、重み付け平均化器2202は、これら組み合わせについて、該複数重み係数の組を用いてこれら組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。   Then, the combination setter 231 derives an arbitrary combination of predicted adjacent areas including two or more of the predicted adjacent areas among the plurality of acquired predicted adjacent areas. Next, the weighting factor setting unit 2201 derives two or more sets of weighting factors for performing weighted averaging of pixel signals in the prediction adjacent region belonging to the combination, and the weighting averager 2202 calculates the plurality of combinations for the combinations. Two or more comparison signals for the adjacent pixel signals are generated by performing weighted averaging of the pixel signals of the predicted adjacent regions belonging to these combinations using a set of weighting factors.

つぎに、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、予測領域取得器204は、組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を2つ以上生成し、重み付け平均化器2204は、該候補予測信号を選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。そして、減算器105は、生成した予測信号を対象画素信号から減算することで残差信号を生成し、変換器106、量子化器107、エントロピー符号化器111は、残差信号を符号化する。これにより、対象ブロックごとに、付加情報なしで重み係数の組を選択することが可能となる。   Next, the comparator / selector 2203 selects a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal, and the prediction area acquisition unit 204 determines the already reproduced image based on the prediction adjacent area belonging to the combination. Two or more candidate prediction signals of the target pixel signal are generated from the above, and the weighted averager 2204 generates a prediction signal by performing weighted averaging of the candidate prediction signals using a selected set of weighting coefficients. Then, the subtractor 105 generates a residual signal by subtracting the generated prediction signal from the target pixel signal, and the converter 106, the quantizer 107, and the entropy encoder 111 encode the residual signal. . This makes it possible to select a set of weighting factors without additional information for each target block.

また、第三の実施形態の画像符号化装置100においては、テンプレートマッチング器201が、対象領域あるいは対象領域に隣接する対象隣接領域に基づいて、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得する。   Further, in the image encoding device 100 according to the third embodiment, the template matching unit 201 uses a target adjacent region or a target adjacent region adjacent to the target region to generate a predicted adjacent region having the same shape as the target adjacent region. A plurality of images are obtained from the search area made up of reproduced images.

そして、組み合わせ設定器231は、取得した複数の予測隣接領域のうち、当該予測隣接領域を1つ以上含む、任意の予測隣接領域の組み合わせを導出する。   Then, the combination setter 231 derives a combination of arbitrary predicted adjacent areas including one or more of the predicted adjacent areas among the plurality of acquired predicted adjacent areas.

そして、重み係数設定器2201は、予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、重み付け平均化器2202は、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成する。   Then, the weighting factor setting unit 2201 derives two or more sets of weighting factors for weighted average of the pixel signals of the predicted adjacent regions belonging to the combination of combinations including two or more predicted adjacent regions, and performs weighted averaging. The unit 2202 generates two or more comparison signals for adjacent pixel signals by performing weighted averaging of the pixel signals in the predicted adjacent region using the plurality of sets of weighting factors.

つぎに、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い重み係数の組を選択し、再度、重み付け平均化器2202は、選択された複数の組み合わせに属する予測隣接領域の画素信号を、選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、隣接画素信号に対する比較信号を2つ以上生成し、再度、比較・選択器2203は、該比較信号と隣接画素信号との相関が高い組み合わせを選択する。   Next, the comparator / selector 2203 selects a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal, and the weighted averager 2202 again predicts adjacent regions belonging to the selected combinations. Are compared with each other using a set of selected weighting factors, and two or more comparison signals for the adjacent pixel signal are generated. Again, the comparison / selector 2203 A combination having a high correlation between the comparison signal and the adjacent pixel signal is selected.

そして、予測領域取得器204は、該選択した組み合わせに属する予測隣接領域に基づいて、既再生画像から対象画素信号の候補予測信号を1つ以上生成し、重み付け平均化器2204は、該候補予測信号を、選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成する。   Then, the prediction region acquisition unit 204 generates one or more candidate prediction signals of the target pixel signal from the already reproduced image based on the prediction adjacent region belonging to the selected combination, and the weighted averager 2204 includes the candidate prediction signal. A predicted signal is generated by weighted averaging the signal using the previously selected combination of weighting factors for the selected combination.

一方、入力端子301を介して入力した圧縮データからエントロピー復号器302、逆量子化器303、逆変換器304が差分信号を復元し、加算器305は、上述した通りに生成された予測信号と復元した差分信号とを加算して、再生画像信号を生成する。これにより、対象ブロックごとに、付加情報なしで予測信号生成に有効な候補予測信号の組み合わせおよび重み係数の組を選択することが可能となる。   On the other hand, the entropy decoder 302, the inverse quantizer 303, and the inverse transformer 304 restore the differential signal from the compressed data input through the input terminal 301, and the adder 305 includes the prediction signal generated as described above. The restored difference signal is added to generate a reproduced image signal. Thereby, for each target block, it is possible to select a combination of candidate prediction signals and a set of weighting coefficients that are effective for generating a prediction signal without additional information.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する複数の予測隣接領域の画素信号と前接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう(例えば、式(7)に示されるように)、少なくとも重み係数の組の1つを算出することにより、適切な重み係数の組を算出することができる。   Further, in the prediction signal generator 103b, the weighting coefficient setting unit 2201 sets a smaller weighting coefficient as the absolute value sum of the differences between the pixel signals of the plurality of prediction adjacent regions belonging to the combination and the preceding pixel signal increases. As shown (for example, as shown in equation (7)), an appropriate set of weighting factors can be calculated by calculating at least one set of weighting factors.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組(式(6)に示されるように)を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   Further, in the prediction signal generator 103b, the weighting factor setting unit 2201 prepares in advance a set of weighting factors (as shown in the equation (6)) determined according to the number of prediction adjacent regions belonging to the combination, By deriving at least one set of weighting factors from the prepared set of weighting factors, an appropriate set of weighting factors can be calculated.

また、予測信号生成器103bにおいて、重み係数設定器2201は、組み合わせに属する複数の予測隣接領域の画素信号と隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表(図26に示されるように)を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することにより、適切な重み係数の組を算出することができる。   In the prediction signal generator 103b, the weighting factor setting unit 2201 is a correspondence table in which a set of weighting factors is determined based on the sum of absolute values of differences between pixel signals in a plurality of prediction adjacent regions belonging to the combination and adjacent pixel signals (FIG. 26). And a suitable weight coefficient set can be calculated by deriving at least one set of weight coefficients using the correspondence table.

第四の実施形態として、第三の実施形態に対して、動き補償を行うよう構成している。例えば、第三の実施形態では、テンプレートマッチング器201が、対象領域あるいは対象領域に隣接する対象隣接領域に基づいて、対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得する、こととしているが、これに限らず、例えば、対象領域に付加されている、動きベクトルや参照画像の識別番号などの付加情報に基づいて予測隣接領域を取得するようにしてもよい。   As the fourth embodiment, the third embodiment is configured to perform motion compensation. For example, in the third embodiment, the template matching unit 201 extracts a predicted adjacent area having the same shape as the target adjacent area based on the target area or the target adjacent area adjacent to the target area from the search area including the already reproduced image. However, the present invention is not limited to this. For example, the predicted adjacent region is acquired based on additional information added to the target region, such as a motion vector or a reference image identification number. Also good.

本発明の実施形態による画像予測符号化装置を示すブロック図である。It is a block diagram which shows the image predictive coding apparatus by embodiment of this invention. 画像予測符号化装置に用いられる予測信号生成器103を示すブロック図である。It is a block diagram which shows the prediction signal generator 103 used for an image predictive coding apparatus. テンプレートマッチング器201において、テンプレートマッチング処理および予測隣接領域と予測領域の候補を検索する処理を説明するための模式図である。FIG. 10 is a schematic diagram for explaining template matching processing and processing for searching for a prediction adjacent region and a prediction region candidate in the template matching unit 201. テンプレートマッチング器201において、テンプレートマッチング処理および予測隣接領域と予測領域の候補を検索する処理を説明するための第2の模式図である。FIG. 11 is a second schematic diagram for explaining template matching processing and processing for searching for a prediction adjacent region and a prediction region candidate in the template matching unit 201. テンプレートマッチング器201におけるテンプレートマッチングおよび予測隣接領域と予測領域の候補を検索する方法を説明するためのフローチャートである。10 is a flowchart for explaining a template matching in template matching unit 201 and a method of searching for a prediction adjacent region and a prediction region candidate. 候補予測信号の組み合わせ決定器203における候補予測信号の組み合わせ決定方法を説明するためのフローチャートである。It is a flowchart for demonstrating the combination determination method of the candidate prediction signal in the combination determination unit 203 of a candidate prediction signal. 候補予測信号を合成して予測信号を生成する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of synthesize | combining a candidate prediction signal and producing | generating a prediction signal. 画像予測符号化装置100における画像予測符号化方法を示すフローチャートである。3 is a flowchart illustrating an image predictive encoding method in the image predictive encoding device 100. 画像予測復号装置300を示すブロック図である。It is a block diagram which shows the image prediction decoding apparatus. 画像予測復号装置300の画像予測復号方法を示すフローチャートである。It is a flowchart which shows the image prediction decoding method of the image prediction decoding apparatus 300. 画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image predictive coding method. 予測信号生成モジュールP103のモジュールを示すブロック図である。It is a block diagram which shows the module of the prediction signal generation module P103. 画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。It is a block diagram which shows the module of the program which can perform the image prediction decoding method. 画面内予測方法を説明するための模式図である。It is a schematic diagram for demonstrating the prediction method in a screen. ブロックマッチング処理を説明するための模式図である。It is a schematic diagram for demonstrating a block matching process. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium. 第二の実施形態における画像予測符号化装置に用いられる予測信号生成器103のブロック図である。It is a block diagram of the prediction signal generator 103 used for the image predictive coding apparatus in 2nd embodiment. 平均化数決定器1800における候補予測信号の組み合わせ決定方法を説明するためのフローチャートである。18 is a flowchart for explaining a method of determining a combination of candidate prediction signals in an averaging number determiner 1800. 候補予測信号を合成して予測信号を生成する第2の方法を示すフローチャートである。It is a flowchart which shows the 2nd method which synthesize | combines a candidate prediction signal and produces | generates a prediction signal. 予測信号生成モジュールP103の第2のモジュールを示すブロック図である。It is a block diagram which shows the 2nd module of the prediction signal generation module P103. 第三の実施形態における画像予測符号化装置に用いられる予測信号生成器103を示すブロック図である。It is a block diagram which shows the prediction signal generator 103 used for the image predictive coding apparatus in 3rd embodiment. 重み係数設定器2201における候補予測信号の重み係数決定方法を説明するためのフローチャートである。12 is a flowchart for explaining a weight coefficient determination method for candidate prediction signals in a weight coefficient setting unit 2201. 候補予測信号の組み合わせ決定器2200における候補予測信号の第3の組み合わせ決定方法を説明するためのフローチャートである。It is a flowchart for demonstrating the 3rd combination determination method of the candidate prediction signal in the combination determination unit 2200 of a candidate prediction signal. 候補予測信号を合成して予測信号を生成する第3の方法を示すフローチャートである。It is a flowchart which shows the 3rd method which synthesize | combines a candidate prediction signal and produces | generates a prediction signal. 対象隣接領域の画素信号と予測隣接領域の画素信号との間の差分値から重み係数の組を設定する対応表を示す説明図である。It is explanatory drawing which shows the correspondence table which sets the group of a weighting factor from the difference value between the pixel signal of a target adjacent area | region, and the pixel signal of a prediction adjacent area | region. 本発明の第四の実施形態による画像予測符号化装置を示すブロック図である。It is a block diagram which shows the image predictive coding apparatus by 4th embodiment of this invention. 本発明の第四の実施形態による画像予測符号化装置の予測信号生成器103cにおける動き補償器201bを示すブロック図である。It is a block diagram which shows the motion compensator 201b in the prediction signal generator 103c of the image predictive coding apparatus by 4th embodiment of this invention. 動き補償器201bにおける動き補償方法を示すフローチャートである。It is a flowchart which shows the motion compensation method in the motion compensator 201b. 本発明の第四の実施形態による画像予測復号装置を示すブロック図である。It is a block diagram which shows the image prediction decoding apparatus by 4th embodiment of this invention. 本発明の第四の実施形態による画像予測復号装置の予測信号生成器308cにおける対象隣接領域動き補償器201cを示すブロック図である。It is a block diagram which shows the object adjacent area | region motion compensator 201c in the prediction signal generator 308c of the image prediction decoding apparatus by 4th embodiment of this invention. 対象隣接領域動き補償器201cにおける動き補償方法を示すフローチャートである。It is a flowchart which shows the motion compensation method in the object adjacent area | region motion compensator 201c.

符号の説明Explanation of symbols

100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、201…テンプレートマッチング器、202…座標情報用メモリ、203…候補予測信号の組み合わせ決定器、204…予測領域取得器、205…重み付け器、206…加算器、211…対象隣接領域取得器、212…予測隣接領域取得器、213…比較器、214…スイッチ、231…組み合わせ設定器、232…予測隣接領域取得器、233…対象隣接領域取得器、234…重み付け器、235…加算器、236…比較・選択器、300…画像予測復号装置、301…入力端子、302…エントロピー復号器、303…逆量子化器、304…逆変換器、305…加算器、306…出力端子、307…フレームメモリ、308…予測信号生成器、P100…画像予測符号化プログラム、P102…ブロック分割モジュール、P103…予測信号生成モジュール、P104…記憶モジュール、P105…減算モジュールP106…変換モジュール、P108…逆量子化モジュール、P109…逆変換モジュール、P110…加算モジュール、P111…エントロピー符号化モジュール、P201…テンプレートマッチングモジュール、P202…決定モジュール、P203…予測信号合成モジュール、P300…画像予測復号プログラム、P302…エントロピー復号モジュール、P303…逆量子化モジュール、P304…逆変換モジュール、P305…加算モジュール、P307…記憶モジュール、P308…予測信号生成モジュール、1800…平均化数決定器、1801…カウンター、1802…代表予測領域取得器、1803…相関評価値算出器、1804…閾値処理器、2200…候補予測信号の組み合わせ決定器、2201…重み付け係数設定器、2202…重み付け平均化器、2203…比較・選択器、2204…重み付け平均化器、2801…予測領域取得器。 DESCRIPTION OF SYMBOLS 100 ... Image predictive coding apparatus, 101 ... Input terminal, 102 ... Block divider, 103 ... Prediction signal generator, 104 ... Frame memory, 105 ... Subtractor, 106 ... Converter, 107 ... Quantizer, 108 ... Inverse Quantizer, 109 ... Inverse transformer, 110 ... Adder, 111 ... Entropy encoder, 112 ... Output terminal, 201 ... Template matching unit, 202 ... Memory for coordinate information, 203 ... Combination determiner of candidate prediction signals, 204 ... Predictive region acquisition unit, 205 ... Weighter, 206 ... Adder, 211 ... Target adjacent region acquisition unit, 212 ... Predictive adjacent region acquisition unit, 213 ... Comparator, 214 ... Switch, 231 ... Combination setting unit, 232 ... Predictive adjacent region acquisition unit, 233... Target adjacent region acquisition unit, 234... Weighting unit, 235... Adder, 236. Image predictive decoding apparatus, 301 ... input terminal, 302 ... entropy decoder, 303 ... inverse quantizer, 304 ... inverse transformer, 305 ... adder, 306 ... output terminal, 307 ... frame memory, 308 ... prediction signal generator , P100: Image predictive coding program, P102: Block division module, P103: Prediction signal generation module, P104: Storage module, P105: Subtraction module P106: Conversion module, P108: Inverse quantization module, P109: Inverse conversion module, P110 ... addition module, P111 ... entropy encoding module, P201 ... template matching module, P202 ... decision module, P203 ... predictive signal synthesis module, P300 ... image prediction decoding program, P302 ... entropy decoding module, 303 ... Inverse quantization module, P304 ... Inverse transformation module, P305 ... Addition module, P307 ... Storage module, P308 ... Prediction signal generation module, 1800 ... Averaging number determiner, 1801 ... Counter, 1802 ... Representative prediction region acquisition unit, 1803 ... correlation evaluation value calculator, 1804 ... threshold value processor, 2200 ... candidate prediction signal combination determiner, 2201 ... weighting coefficient setting unit, 2202 ... weighted averager, 2203 ... comparison / selector, 2204 ... weighted average , 2801 ... Predictive region acquisition unit.

Claims (42)

入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The predicted signal generation means searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area consisting of an already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from a search area consisting of an already reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method. Thus, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected.
Generate one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and generate the prediction signal by processing the candidate prediction signal using a predetermined synthesis method An image predictive coding apparatus characterized by:
前記予測信号生成手段は、前記比較信号と前記隣接画素信号との差分の絶対値和が小さい組み合わせを選択することを特徴とする請求項1に記載の画像予測符号化装置。   The image predictive coding apparatus according to claim 1, wherein the prediction signal generation unit selects a combination having a small sum of absolute values of differences between the comparison signal and the adjacent pixel signal. 前記予測信号生成手段は、前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記比較信号を生成することを特徴とする請求項1または2に記載の画像予測符号化装置。   The image predictive coding apparatus according to claim 1, wherein the prediction signal generation unit generates the comparison signal by performing weighted averaging of pixel signals of prediction adjacent regions belonging to the combination. 前記予測信号生成手段において、前記予測隣接領域の組み合わせが、前記対象隣接領域との相関が高い順に2のn乗個の予測隣接領域を含むことを特徴とする請求項1から3のいずれか1項に記載の画像予測符号化装置。   4. The prediction signal generation unit according to claim 1, wherein the combination of the predicted adjacent areas includes 2 n predicted adjacent areas in descending order of correlation with the target adjacent area. The image predictive encoding device according to the item. 前記nの値が0以上の整数であることを特徴とする請求項4に記載の画像予測符号化装置。   The image predictive coding apparatus according to claim 4, wherein the value of n is an integer of 0 or more. 圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つを含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding encoded data of a residual signal related to a target region to be processed from among compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The predicted signal generation means searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area consisting of an already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from a search area consisting of an already reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method To generate a comparison signal for the adjacent pixel signal for each combination, and select a combination having a large correlation between the comparison signal and the adjacent pixel signal,
One or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent region belonging to the selected combination, and a prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method An image predictive decoding apparatus characterized by:
前記予測信号生成手段において、前記隣接画素信号に対する比較信号を生成し、該比較信号と前記隣接画素信号との差分の絶対値和が小さい組み合わせを選択することを特徴とする請求項6に記載の画像予測復号装置。   The said prediction signal production | generation means produces | generates the comparison signal with respect to the said adjacent pixel signal, and selects the combination with a small absolute value sum of the difference of this comparison signal and the said adjacent pixel signal. Image predictive decoding apparatus. 前記予測信号生成手段において、前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記比較信号を生成することを特徴とする請求項6または7に記載の画像予測復号装置。   The image predictive decoding apparatus according to claim 6 or 7, wherein the prediction signal generation unit generates the comparison signal by performing weighted averaging of pixel signals of prediction adjacent regions belonging to the combination. 前記予測信号生成手段において、前記予測隣接領域の組み合わせが、前記対象領域との相関が高い順に2のn乗個の予測隣接領域を含むことを特徴とする請求項6から8のいずれか1項に記載の画像予測復号装置。   9. The prediction signal generation unit according to claim 6, wherein the combination of predicted adjacent areas includes 2 n predicted adjacent areas in descending order of correlation with the target area. The image predictive decoding apparatus described in 1. 前記nの値が0以上の整数であることを特徴とする請求項9に記載の画像予測復号装置。   The image predictive decoding apparatus according to claim 9, wherein the value of n is an integer of 0 or more. 入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化方法。
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step,
The predicted signal generation step searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method. Thus, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected.
Generate one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and generate the prediction signal by processing the candidate prediction signal using a predetermined synthesis method An image predictive encoding method characterized by:
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、
前記データ復号ステップにより復号された信号から再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、
前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号方法。
A data decoding step for decoding encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the signal decoded by the data decoding step;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
A reproduction image signal generation step of generating a reproduction image signal by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step, and
The predicted signal generation step searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method. Accordingly, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a large correlation between the comparison signal and the adjacent pixel signal is selected.
One or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent region belonging to the selected combination, and a prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method An image predictive decoding method characterized by:
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、
前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化プログラム。
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module;
The predicted signal generation module searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method. Thus, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a high correlation between the comparison signal and the adjacent pixel signal is selected.
Generate one or more candidate prediction signals of the target pixel signal based on the prediction adjacent region belonging to the selected combination, and generate the prediction signal by processing the candidate prediction signal using a predetermined synthesis method An image predictive encoding program characterized by:
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、
前記データ復号モジュールにより復号された信号から再生残差信号を復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、
前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、該組み合わせに属する予測隣接領域の画素信号を予め定めた合成方法を用いて加工することにより、前記組み合わせ毎に前記隣接画素信号に対する比較信号をそれぞれ生成し、該比較信号と前記隣接画素信号との相関が大きい組み合わせを選択し、
前記選択された組み合わせに属する予測隣接領域に基づいて、前記対象画素信号の候補予測信号として1つ以上生成し、該候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号プログラム。
A data decoding module that decodes encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration module for restoring a reproduction residual signal from the signal decoded by the data decoding module;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
A reproduction image signal generation module that generates a reproduction image signal by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
The predicted signal generation module searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
Two or more combinations of arbitrary predicted adjacent areas including at least one of the searched plurality of predicted adjacent areas are derived, and pixel signals of the predicted adjacent areas belonging to the combination are processed using a predetermined synthesis method. Accordingly, a comparison signal for the adjacent pixel signal is generated for each combination, and a combination having a large correlation between the comparison signal and the adjacent pixel signal is selected.
One or more candidate prediction signals of the target pixel signal are generated based on the prediction adjacent region belonging to the selected combination, and a prediction signal is generated by processing the candidate prediction signal using a predetermined synthesis method An image predictive decoding program characterized by:
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The prediction signal generating means includes
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image predictive coding apparatus, wherein when the evaluation value is smaller than a predetermined threshold value, a prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method.
前記予測信号生成手段は、前記Nの値として複数の候補を用意し、N値の候補の最大値について前記評価値を算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成し、
該評価値が前記閾値より大きい場合には、N値を減算することで次に大きい値に更新し、前記評価値の算出と規定の閾値との比較を再度行うことを特徴とする請求項15に記載の画像予測符号化装置。
The prediction signal generation means prepares a plurality of candidates as the value of N, calculates the evaluation value for the maximum value of the N value candidates, and when the evaluation value is smaller than a prescribed threshold, Generating a prediction signal by processing the candidate prediction signal using a predetermined synthesis method;
16. When the evaluation value is larger than the threshold value, the N value is subtracted to be updated to the next largest value, and the calculation of the evaluation value is compared with a prescribed threshold value again. The image predictive coding apparatus described in 1.
前記予測信号生成手段は、前記探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは前記画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を前記評価値とすることを特徴とする請求項15または16に記載の画像予測符号化装置。   The prediction signal generation means has the Nth correlation between the pixel signal of the prediction area adjacent to the prediction adjacent area having the highest correlation with the target adjacent area and the target adjacent area among the N predicted adjacent areas searched for. A pixel signal of a prediction region adjacent to a low prediction adjacent region, a pixel signal of a prediction adjacent region having the highest correlation with the target adjacent region, and a pixel signal of a prediction adjacent region having the Nth lowest correlation between the target adjacent region, or 17. The image predictive coding apparatus according to claim 15, wherein an absolute value sum of a difference between signals including the pixel signals is calculated, and the absolute value sum of the differences is used as the evaluation value. 圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding encoded data of a residual signal related to a target region to be processed from among compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The predicted signal generation means searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area consisting of an already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from a search area consisting of an already reproduced image. And
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image predictive decoding apparatus that generates a prediction signal by processing the N candidate prediction signals using a predetermined synthesis method when the evaluation value is smaller than a predetermined threshold.
前記予測信号生成手段は、前記Nの値として複数の候補を用意し、N値の候補の最大値について前記評価値を算出し、該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成し、
該評価値が前記閾値より大きい場合には、N値を減算することで次に大きい値に更新して前記評価値の算出と規定の閾値との比較を再度行うことを特徴とする請求項18に記載の画像予測復号装置。
The prediction signal generation means prepares a plurality of candidates as the value of N, calculates the evaluation value for the maximum value of the N value candidates, and when the evaluation value is smaller than a prescribed threshold, Generating a prediction signal by processing the candidate prediction signal using a predetermined synthesis method;
19. When the evaluation value is larger than the threshold value, the N value is subtracted to be updated to the next largest value, and the evaluation value is calculated and compared with a specified threshold value again. The image predictive decoding apparatus described in 1.
前記予測信号生成手段は、前記探索したN個の予測隣接領域の内、対象隣接領域との相関が最も高い予測隣接領域に隣接する予測領域の画素信号と対象隣接領域との相関が最も低い予測隣接領域に隣接する予測領域の画素信号、または対象隣接領域との相関が最も高い予測隣接領域の画素信号と対象隣接領域との相関がN番目に低い予測隣接領域の画素信号、あるいは前記画素信号それぞれを併せた信号の差分の絶対値和を算出し、該差分の絶対値和を前記評価値とすることを特徴とする請求項18または19に記載の画像予測復号装置。   The prediction signal generation means predicts the correlation between the pixel signal of the prediction area adjacent to the prediction adjacent area having the highest correlation with the target adjacent area and the target adjacent area among the N predicted adjacent areas searched for. The pixel signal of the prediction adjacent region adjacent to the adjacent region, the pixel signal of the prediction adjacent region having the highest correlation with the target adjacent region, and the pixel signal of the prediction adjacent region having the Nth lowest correlation between the target adjacent region, or the pixel signal The image predictive decoding apparatus according to claim 18 or 19, wherein the sum of absolute values of the differences of the signals combined with each other is calculated, and the sum of the absolute values of the differences is used as the evaluation value. 入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The predicted signal generation means obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from the search area composed of already reproduced images,
A weighting factor for deriving a combination of arbitrary prediction adjacent areas including two or more of the obtained prediction adjacent areas from among the plurality of obtained prediction adjacent areas, and weighted averaging pixel signals of the prediction adjacent areas belonging to the combination Deriving two or more sets of
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive coding apparatus characterized by generating a prediction signal by means of
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された前記残差信号を符号化する符号化手段と、を備え、
前記予測信号生成手段は、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generation unit that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the prediction signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means,
The predicted signal generation means obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from the search area composed of already reproduced images,
Deriving two or more combinations of arbitrary predicted adjacent regions including at least one of the obtained plurality of predicted adjacent regions,
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive coding apparatus, characterized in that a prediction signal is generated by weighted averaging using a set of weighting coefficients.
前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう、少なくとも前記重み係数の組の1つを算出することを特徴とする請求項21または22に記載の画像予測符号化装置。   The prediction signal generating means sets at least the set of weighting factors so that a smaller weighting factor is set as the sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals increases. The image predictive coding apparatus according to claim 21 or 22, wherein one of the following is calculated. 前記予測信号生成手段は、前記組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することを特徴とする請求項21または22に記載の画像予測符号化装置。   The prediction signal generation means prepares a set of weighting factors determined in advance according to the number of prediction adjacent regions belonging to the combination, and derives at least one set of weighting factors from the set of weighting factors prepared. The image predictive coding apparatus according to claim 21 or 22, 前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することを特徴とする請求項21または22に記載の画像予測符号化装置。   The prediction signal generation means prepares a correspondence table in which a set of weighting coefficients is determined from the sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signal, and uses the correspondence table The image predictive coding apparatus according to claim 21 or 22, wherein a set of at least one weighting factor is derived. 圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding encoded data of a residual signal related to a target region to be processed from among compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The predicted signal generation means obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from the search area composed of already reproduced images,
Deriving a combination of arbitrary predicted adjacent areas including two or more of the obtained plurality of predicted adjacent areas, and deriving two or more sets of weighting coefficients for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination. And
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive decoding apparatus, characterized in that a prediction signal is generated by:
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号手段と、
前記データ復号手段により復号されて得られた信号から再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された予測信号と前記残差信号復元手段にて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成手段と、を備え、
前記予測信号生成手段は、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域のうち少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号装置。
Data decoding means for decoding encoded data of a residual signal related to a target region to be processed from among compressed data;
Residual signal restoration means for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding means;
Prediction signal generating means for generating a prediction signal for the target pixel signal of the target region;
Reproduction image signal generation means for generating a reproduction image signal by adding the prediction signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means, and
The predicted signal generation means obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from the search area composed of already reproduced images,
Deriving two or more combinations of arbitrary predicted adjacent regions including at least one of the obtained plurality of predicted adjacent regions,
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive decoding apparatus that generates a prediction signal by performing weighted averaging using a set of weighting coefficients.
前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和が大きくなるにつれて小さい重み付け係数が設定されるよう、少なくとも前記重み係数の組の1つを算出することを特徴とする請求項26または27に記載の画像予測復号装置。   The prediction signal generating means sets at least the set of weighting factors so that a smaller weighting factor is set as the sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signals increases. 28. The image predictive decoding apparatus according to claim 26, wherein one of the following is calculated. 前記予測信号生成手段は、前記組み合わせに属する予測隣接領域の数に応じて定まる重み係数の組を予め用意しており、該用意された重み係数の組により少なくとも1つの重み係数の組を導出することを特徴とする請求項26また27に記載の画像予測復号装置。   The prediction signal generation means prepares a set of weighting factors determined in advance according to the number of prediction adjacent regions belonging to the combination, and derives at least one set of weighting factors from the set of weighting factors prepared. 28. The image predictive decoding apparatus according to claim 26 or 27. 前記予測信号生成手段は、前記組み合わせに属する複数の予測隣接領域の画素信号と前記隣接画素信号との差分の絶対値和から重み係数の組が決まる対応表を用意し、該対応表を用いて少なくとも1つの重み係数の組を導出することを特徴とする請求項26または27に記載の画像予測復号装置。   The prediction signal generation means prepares a correspondence table in which a set of weighting coefficients is determined from the sum of absolute values of differences between pixel signals of a plurality of prediction adjacent regions belonging to the combination and the adjacent pixel signal, and uses the correspondence table 28. The image predictive decoding apparatus according to claim 26, wherein at least one set of weight coefficients is derived. 入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測符号化方法。
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step,
The predicted signal generation step includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image predictive coding method, wherein when the evaluation value is smaller than a prescribed threshold value, a prediction signal is generated by processing the N candidate prediction signals using a predetermined synthesis method.
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、
前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、
前記予測信号生成ステップは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とすることを特徴とする画像予測復号方法。
A data decoding step for decoding encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the signal obtained by decoding in the data decoding step;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
A reproduction image signal generation step of generating a reproduction image signal by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step, and
The predicted signal generation step searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image predictive decoding characterized by generating a prediction signal by processing the N candidate prediction signals using a predetermined synthesis method when the evaluation value is smaller than a prescribed threshold value Method.
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化方法。
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step,
In the prediction signal generation step, a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area are obtained from the search area including the already reproduced images, respectively.
A weighting factor for deriving a combination of arbitrary prediction adjacent areas including two or more of the obtained prediction adjacent areas from among the plurality of obtained prediction adjacent areas, and weighted averaging pixel signals of the prediction adjacent areas belonging to the combination Deriving two or more sets of
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive coding method, characterized in that a prediction signal is generated by:
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された前記残差信号を符号化する符号化ステップと、を備え、
前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化方法。
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the prediction signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step,
In the prediction signal generation step, a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area are obtained from the search area including the already reproduced images, respectively.
Deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the obtained plurality of predicted adjacent areas;
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive coding method, wherein a prediction signal is generated by weighted averaging using a set of weighting factors.
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、
前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、
前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号方法。
A data decoding step for decoding encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the signal obtained by decoding in the data decoding step;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
A reproduction image signal generation step of generating a reproduction image signal by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step, and
In the prediction signal generation step, a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area are obtained from the search area including the already reproduced images, respectively.
Deriving a combination of arbitrary predicted adjacent areas including two or more of the obtained plurality of predicted adjacent areas, and deriving two or more sets of weighting coefficients for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination. And
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive decoding method, characterized by generating a prediction signal by:
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号ステップと、
前記データ復号ステップにより復号されて得られた信号から再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された予測信号と前記残差信号復元ステップにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成ステップと、を備え、
前記予測信号生成ステップは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号方法。
A data decoding step for decoding encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the signal obtained by decoding in the data decoding step;
A prediction signal generation step of generating a prediction signal for the target pixel signal of the target region;
A reproduction image signal generation step of generating a reproduction image signal by adding the prediction signal generated in the prediction signal generation step and the reproduction residual signal restored in the residual signal restoration step, and
In the prediction signal generation step, a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area are obtained from the search area including the already reproduced images, respectively.
Deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the obtained plurality of predicted adjacent areas;
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive decoding method, wherein a prediction signal is generated by performing weighted averaging using a set of weighting coefficients.
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、
前記予測信号生成モジュールは、
前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とすることを特徴とする画像予測符号化プログラム。
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module;
The prediction signal generation module includes:
Search for a plurality of predicted adjacent areas having a high correlation with the target adjacent area consisting of the already reproduced adjacent pixel signal adjacent to the target area consisting of the target pixel signal from the search area consisting of the already reproduced image,
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image prediction code characterized by generating a prediction signal by processing the N candidate prediction signals using a predetermined synthesis method when the evaluation value is smaller than a prescribed threshold value Program.
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、
前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、
前記予測信号生成モジュールは、前記対象画素信号からなる対象領域に隣接する既再生の隣接画素信号からなる対象隣接領域との相関が高い複数の予測隣接領域を、既再生画像からなる探索領域から探索し、
前記探索した複数の予測隣接領域のうち、前記対象領域に基づいたN個の予測領域の画素信号または前記探索したN個の予測隣接領域のうち予測隣接領域の画素信号あるいはその両方の信号から少なくとも2個の信号を用いて、該N個の候補予測信号間の相関を評価する評価値を予め定めた方法で算出し、
該評価値が規定の閾値より小さい場合には該N個の候補予測信号を予め定めた合成方法を用いて加工することによって予測信号を生成することを特徴とする画像予測復号プログラム。
A data decoding module that decodes encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration module for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding module;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
A reproduction image signal generation module that generates a reproduction image signal by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
The predicted signal generation module searches a plurality of predicted adjacent areas having a high correlation with a target adjacent area composed of already reproduced adjacent pixel signals adjacent to the target area composed of the target pixel signal from a search area composed of a previously reproduced image. And
At least from the pixel signals of the N prediction regions based on the target region, the pixel signals of the prediction adjacent region among the N prediction adjacent regions searched for among the plurality of predicted adjacent regions searched, or the signals of both Using two signals, an evaluation value for evaluating the correlation between the N candidate prediction signals is calculated by a predetermined method,
An image predictive decoding program which generates a prediction signal by processing the N candidate prediction signals using a predetermined synthesis method when the evaluation value is smaller than a predetermined threshold.
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、
前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域のうち、当該予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化プログラム。
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module;
The predicted signal generation module obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from each of the search areas including the already reproduced images,
A weighting factor for deriving a combination of arbitrary prediction adjacent areas including two or more of the obtained prediction adjacent areas from among the plurality of obtained prediction adjacent areas, and weighted averaging pixel signals of the prediction adjacent areas belonging to the combination Deriving two or more sets of
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive coding program characterized by generating a prediction signal according to the above.
入力画像を複数の領域に分割する領域分割モジュールと、
前記領域分割モジュールにより分割された前記複数の領域のうちの処理対象である対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記対象画素信号との残差信号を生成する残差信号生成モジュールと、
前記残差信号生成モジュールにより生成された前記残差信号を符号化する符号化モジュールと、を備え、
前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測符号化プログラム。
An area division module for dividing an input image into a plurality of areas;
A prediction signal generation module that generates a prediction signal for a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region division module;
A residual signal generation module that generates a residual signal between the prediction signal generated by the prediction signal generation module and the target pixel signal;
An encoding module that encodes the residual signal generated by the residual signal generation module;
The predicted signal generation module obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from each of the search areas including the already reproduced images,
Deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the obtained plurality of predicted adjacent areas;
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive coding program for generating a prediction signal by performing weighted averaging using a set of weighting coefficients.
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、
前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、
前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を2つ以上含む、任意の予測隣接領域の組み合わせを導出し、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、
前記組み合わせについて、該複数重み係数の組を用いて前記組み合わせに属する予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、
該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を2つ以上生成し、該候補予測信号を前記選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号プログラム。
A data decoding module that decodes encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration module for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding module;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
A reproduction image signal generation module that generates a reproduction image signal by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
The predicted signal generation module obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from each of the search areas including the already reproduced images,
Deriving a combination of arbitrary predicted adjacent areas including two or more of the obtained plurality of predicted adjacent areas, and deriving two or more sets of weighting coefficients for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination. And
For the combination, by generating a weighted average of the pixel signals of the prediction adjacent region belonging to the combination using the set of the plurality of weighting factors, two or more comparison signals for the adjacent pixel signal are generated,
Selecting a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal;
Two or more candidate prediction signals of the target pixel signal are generated from the already reproduced image based on the prediction adjacent region belonging to the combination, and the candidate prediction signals are weighted and averaged using the selected set of weighting factors. An image predictive decoding program characterized by generating a prediction signal by means of
圧縮データの中から処理対象である対象領域に関する残差信号の符号化データを復号するデータ復号モジュールと、
前記データ復号モジュールにより復号されて得られた信号から再生残差信号を復元する残差信号復元モジュールと、
前記対象領域の対象画素信号に対する予測信号を生成する予測信号生成モジュールと、
前記予測信号生成モジュールにより生成された予測信号と前記残差信号復元モジュールにて復元された再生残差信号とを加算することによって、再生画像信号を生成する再生画像信号生成モジュールと、を備え、
前記予測信号生成モジュールは、前記対象領域に隣接する対象隣接領域と同形状の予測隣接領域を、既再生画像からなる探索領域からそれぞれ複数個取得し、
前記取得した複数の予測隣接領域を少なくとも1つ含む、任意の予測隣接領域の組み合わせを2つ以上導出し、
予測隣接領域を2つ以上含む組み合わせについて、該組み合わせに属する予測隣接領域の画素信号を重み付け平均するための重み係数の組を2つ以上導出し、該複数の重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い重み係数の組を選択し、
前記複数の組み合わせについて、その組み合わせに属する予測隣接領域の画素信号を前記で選択した重み係数の組を用いて予測隣接領域の画素信号を重み付け平均することにより、前記隣接画素信号に対する比較信号を2つ以上生成し、該比較信号と前記隣接画素信号との相関が高い組み合わせを選択し、
該選択した組み合わせに属する予測隣接領域に基づいて、前記既再生画像から前記対象画素信号の候補予測信号を1つ以上生成し、該候補予測信号を、前記選択した組み合わせに対して先に選択した重み係数の組を用いて重み付け平均することによって予測信号を生成することを特徴とする画像予測復号プログラム。
A data decoding module that decodes encoded data of a residual signal related to a target region to be processed from the compressed data;
A residual signal restoration module for restoring a reproduction residual signal from a signal obtained by decoding by the data decoding module;
A prediction signal generation module that generates a prediction signal for a target pixel signal in the target region;
A reproduction image signal generation module that generates a reproduction image signal by adding the prediction signal generated by the prediction signal generation module and the reproduction residual signal restored by the residual signal restoration module;
The predicted signal generation module obtains a plurality of predicted adjacent areas having the same shape as the target adjacent area adjacent to the target area from each of the search areas including the already reproduced images,
Deriving two or more combinations of arbitrary predicted adjacent areas including at least one of the obtained plurality of predicted adjacent areas;
For a combination including two or more predicted adjacent areas, two or more sets of weighting factors for weighted averaging pixel signals of the predicted adjacent areas belonging to the combination are derived, and predicted adjacents are generated using the plurality of sets of weighting coefficients. Two or more comparison signals for the adjacent pixel signal are generated by weighted averaging the pixel signals in the region, and a set of weighting coefficients having a high correlation between the comparison signal and the adjacent pixel signal is selected.
For the plurality of combinations, the pixel signal of the predicted adjacent area belonging to the combination is weighted and averaged using the set of weighting factors selected above, so that the comparison signal for the adjacent pixel signal is 2 One or more, and select a combination having a high correlation between the comparison signal and the adjacent pixel signal,
Based on the predicted adjacent region belonging to the selected combination, one or more candidate prediction signals of the target pixel signal are generated from the already-reproduced image, and the candidate prediction signal is previously selected with respect to the selected combination An image predictive decoding program for generating a prediction signal by performing weighted averaging using a set of weighting coefficients.
JP2007241242A 2007-04-09 2007-09-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program Active JP5372352B2 (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP2007241242A JP5372352B2 (en) 2007-04-09 2007-09-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
EP12189422.4A EP2571272B1 (en) 2007-04-09 2008-04-08 Image coding using template matching
EP08740053A EP2154901A4 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
US12/595,242 US9031130B2 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
EP11190490A EP2453655A1 (en) 2007-04-09 2008-04-08 Image coding using template matching
CN201410253164.5A CN103997655B (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method,image prediction/decoding device, image prediction/decoding method
KR1020097022333A KR20090132629A (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
KR1020117012289A KR101475365B1 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
CN2008800114819A CN101653009B (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/decoding device, image prediction/decoding method
PCT/JP2008/056950 WO2008126843A1 (en) 2007-04-09 2008-04-08 Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
CN201410252678.9A CN104023242B (en) 2007-04-09 2008-04-08 Image prediction encoding device and method, image prediction/decoding device and method
CN201310244589.5A CN103354613B (en) 2007-04-09 2008-04-08 Image prediction encoding device, image prediction/encoding method, image prediction/decoding device and image prediction decoding method
BRPI0810924A BRPI0810924A2 (en) 2007-04-09 2008-04-08 image prediction / coding device, image prediction / coding method, image prediction / coding program, image prediction / coding device, image prediction / coding method and image prediction / coding program
TW097112868A TWI435609B (en) 2007-04-09 2008-04-09 Image predictive coding apparatus, image predictive coding method, image predictive coding program, image predictive decoding apparatus, image predictive decoding method, and image predictive decoding program
RU2011147926/08A RU2011147926A (en) 2007-04-09 2011-11-24 DEVICE FOR CODING / PREDICTING AN IMAGE, METHOD FOR CODING / PREDICTING AN IMAGE, PROGRAM FOR CODING / PREDICTING AN IMAGE, DEVICE FOR DECODING / PICTURE OF A DECORATING / DECORATION

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007102154 2007-04-09
JP2007102154 2007-04-09
JP2007241242A JP5372352B2 (en) 2007-04-09 2007-09-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Publications (2)

Publication Number Publication Date
JP2008283662A true JP2008283662A (en) 2008-11-20
JP5372352B2 JP5372352B2 (en) 2013-12-18

Family

ID=40144067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007241242A Active JP5372352B2 (en) 2007-04-09 2007-09-18 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Country Status (1)

Country Link
JP (1) JP5372352B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI562608B (en) * 2010-10-06 2016-12-11 Ntt Docomo Inc

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (en) * 1988-08-26 1990-03-02 Fujitsu Ltd Compensating/predicting/encoding system for moving image
JP2001028756A (en) * 1999-06-07 2001-01-30 Lucent Technol Inc Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
WO2007004678A1 (en) * 2005-07-05 2007-01-11 Ntt Docomo, Inc. Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (en) * 1988-08-26 1990-03-02 Fujitsu Ltd Compensating/predicting/encoding system for moving image
JP2001028756A (en) * 1999-06-07 2001-01-30 Lucent Technol Inc Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2007503777A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
WO2007004678A1 (en) * 2005-07-05 2007-01-11 Ntt Docomo, Inc. Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
JPN6012058900; Gary J. Sullivan: 'Multi-hypothesis motion compensation for low bit-rate video coding' IEEE International Conference on Acoustics, Speech, and Signal Processing, 1993. ICASSP-93. Vol.5, 19930427, p.437-440, IEEE *
JPN6012058902; Markus Flierl et al.: 'Constrained Multihypothesis Prediction for Motion-Compensated Video Compression' IEEE Transactions on Circuits and Systems for Video Technology Vol.12, No.11, 200211, p.957-969, IEEE *
JPN6012058904; Thiow Keng Tan et al.: 'Intra Prediction by Template Matching' 2006 IEEE International Conference on Image Processing , 20061008, p.1693-1696, IEEE *
JPN6012058906; Johannes Balle and Mathias Wien: 'Extended Texture Prediction for H.264 Intra Coding' ITU-Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group ( , 200701, ITU-T *
JPN6012058907; Siu-Leong Yu and Christos Chrysafis: 'New Intra Prediction using Intra-Macroblock Motion Compensation' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) 3rd , 200205, ITU-T *
JPN6012058910; Kazuo Sugimoto et al.: 'Inter frame coding with template matching spatio-temporal prediction' 2004 International Conference on Image Processing, 2004. ICIP '04. Vol.1, 20041024, p.465-468, IEEE *
JPN6012058913; Markus Flierl and Bernd Girod: 'Generalized B Pictures and the Draft H.264/AVC Video-Compression Standard' IEEE Transactions on Circuits and Systems for Video Technology Vol.13, No.7, 200307, p.587-597, IEEE *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI562608B (en) * 2010-10-06 2016-12-11 Ntt Docomo Inc

Also Published As

Publication number Publication date
JP5372352B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
KR101475365B1 (en) Image prediction/encoding device, image prediction/encoding method, image prediction/encoding program, image prediction/decoding device, image prediction/decoding method, and image prediction decoding program
JP5406465B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
EP2595381B1 (en) Image predictive decoding device
JP6559309B2 (en) Image predictive decoding method
JP4994767B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5372341B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5372352B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5736083B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP2011229189A (en) Image prediction encoder, image prediction encoding method, image prediction encoding program, image prediction decoder, image prediction decoding method and image prediction decoding program
JP2014187721A (en) Moving image prediction encoder, moving image prediction encoding method, moving image prediction encoding program, moving image prediction decoder, moving image prediction decoding method and moving image prediction decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R150 Certificate of patent or registration of utility model

Ref document number: 5372352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250