JP2006108811A - Image encoding method - Google Patents

Image encoding method Download PDF

Info

Publication number
JP2006108811A
JP2006108811A JP2004289174A JP2004289174A JP2006108811A JP 2006108811 A JP2006108811 A JP 2006108811A JP 2004289174 A JP2004289174 A JP 2004289174A JP 2004289174 A JP2004289174 A JP 2004289174A JP 2006108811 A JP2006108811 A JP 2006108811A
Authority
JP
Japan
Prior art keywords
image
unit
reference image
resolution
hierarchical level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004289174A
Other languages
Japanese (ja)
Inventor
Mitsuru Suzuki
満 鈴木
Shigeyuki Okada
茂之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2004289174A priority Critical patent/JP2006108811A/en
Publication of JP2006108811A publication Critical patent/JP2006108811A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize spatial scalability easily in compression encoding of a motion picture. <P>SOLUTION: The image encoder comprises a wavelet transform section 3 for transforming an image hierarchically into spatial frequency components, a section 4 for quantizing the spatial frequency components obtained by transformation, a section 6 for dequantizing the quantized spatial frequency components, a wavelet inverse transform section 7 performing inverse transformation of the dequantized spatial frequency components up to a hierarchy set at the inverse transform hierarchy level setting section 8, and a section 12 performing movement prediction using a reference image generated by enlarging the low frequency component of the hierarchy set at the inverse transform hierarchy level setting section 8 at a reference image enlarging section 9. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、動画像の圧縮符号化において空間スケーラビリティの実現が容易な画像符号化方法に関する。   The present invention relates to an image coding method that can easily realize spatial scalability in compression coding of moving images.

動画像において、MPEG−4やH.264など、これまで高い圧縮効率を実現する圧縮符号化方式の標準化が主になされてきた。そして、今後は高い圧縮効率を維持しつつ、スケーラビリティを重視した圧縮方式の標準化に注目が集まると予想される。特許文献1には、変換符号化方式として、高い圧縮効率とスケーラビリティとを容易に両立できる離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を使用し、予測符号方式として動き予測符号化を使用した動画像符号化方法が開示されている。
特開平8−182001号公報
In moving images, MPEG-4 and H.264 are used. Standardization of compression coding schemes that achieve high compression efficiency such as H.264 has been mainly performed so far. In the future, it is expected that attention will be focused on standardization of compression methods that emphasize scalability while maintaining high compression efficiency. In Patent Document 1, a discrete wavelet transform (DWT: Discrete Wavelet Transform) that can easily achieve both high compression efficiency and scalability is used as a transform coding method, and a moving image using motion predictive coding as a predictive coding method. An encoding method is disclosed.
JP-A-8-182001

しかしながら、特許文献1に開示された動画像符号化方法では、動き予測符号化を行う際、符号化対象である原画像に対して動き予測を行い、動きベクトルを検出して符号化している。このため、この符号化画像を復号する場合は、結局原画像の解像度まで復号しなければならない。すなわち、変換符号化方式としてスケーラビリティの容易なDWTを用いているにも関わらず、動き予測符号化方式には空間スケーラビリティがないために、動画像符号化方法全体として空間スケーラビリティを容易に実現することはできない、という問題があった。   However, in the moving image encoding method disclosed in Patent Document 1, when performing motion prediction encoding, motion prediction is performed on an original image to be encoded, and a motion vector is detected and encoded. For this reason, when decoding this encoded image, it is necessary to decode up to the resolution of the original image. That is, despite the fact that DWT, which is easy to scale, is used as the transform coding method, the motion predictive coding method does not have spatial scalability, so that it is easy to realize spatial scalability as a whole moving image coding method. There was a problem that it was not possible.

この発明は、上記のような課題を解決するためになされたものであり、動画像の圧縮符号化において、空間スケーラビリティの実現が容易な画像符号化方法を提供することである。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an image encoding method that can easily realize spatial scalability in the compression encoding of moving images.

本発明のある態様は、画像符号化方法に関する。この方法は、画像を複数の空間周波数帯域に分割する第1のステップと、分割された空間周波数帯域のうち最も低い周波帯域を、更に複数の空間周波数帯域に分割する第2のステップと、を含み、前記第1のステップ又は第2のステップによって得られた任意の周波数帯域成分から参照画像を生成し、前記画像と異なる時間に入力された画像に対して動き予測を行って、この動き予測の結果を符号化する。   One embodiment of the present invention relates to an image encoding method. The method includes a first step of dividing an image into a plurality of spatial frequency bands, and a second step of further dividing a lowest frequency band among the divided spatial frequency bands into a plurality of spatial frequency bands. A reference image is generated from an arbitrary frequency band component obtained by the first step or the second step, and motion prediction is performed on an image input at a time different from the image, and the motion prediction is performed. The result of is encoded.

この態様によれば、動き予測に用いる参照画像は、第1のステップ又は第2のステップで得られた最も低い周波数帯域成分を使用するので、この方法によって符号化された画像を復号する場合、少なくとも参照画像を生成した空間周波数帯域成分さえ復号できれば、以後の復号を継続して行うことができる。これにより、この符号化画像から任意の画像サイズで画像を復号するために、動画像を構成する1枚の画像の復号を途中で止め、次の画像の復号を開始することが可能である。したがって、この態様の画像符号化装置は、空間スケーラビリティを容易に実現することができる。   According to this aspect, since the reference image used for motion prediction uses the lowest frequency band component obtained in the first step or the second step, when decoding an image encoded by this method, If at least the spatial frequency band component that generated the reference image can be decoded, the subsequent decoding can be continued. Thereby, in order to decode an image with an arbitrary image size from the encoded image, it is possible to stop decoding one image constituting the moving image halfway and start decoding the next image. Therefore, the image encoding device according to this aspect can easily realize spatial scalability.

この態様において、前記任意の周波数帯域は、前記分割された空間周波数帯域のうち最も低い周波数帯域であってもよい。一般的に、画像を空間周波数帯域に分割すると、この中で最も低い周波数帯域に多くの情報が集まる。したがって、最も低い周波数帯域を更に複数の空間周波数帯域に分割すれば、より高効率に画像を圧縮することができる。   In this aspect, the arbitrary frequency band may be the lowest frequency band among the divided spatial frequency bands. In general, when an image is divided into spatial frequency bands, a large amount of information is collected in the lowest frequency band. Therefore, if the lowest frequency band is further divided into a plurality of spatial frequency bands, the image can be compressed with higher efficiency.

この態様において、前記動き予測の結果を符号化してもよい。これにより、復号側で動き予測の結果を取得し、これに基づいて動き補償を行うことが可能である。   In this aspect, the motion prediction result may be encoded. Thereby, it is possible to acquire the result of motion prediction on the decoding side and perform motion compensation based on the result.

この態様において、前記第2のステップは、所定の回数繰り返して行われてもよい。これにより、最も低い周波数帯域を繰り返し複数の空間周波数帯域に分割した画像を得ることができ、このような方法で複数の空間周波数帯域に分割された画像を符号化した場合においても、空間スケーラビリティを容易に実現することが可能である。 この態様において、符号化されたデータに対し、前記参照画像を生成した低周波帯域成分がどのステップによって得られたものかを示す情報を付加してもよい。これにより、符号化側で設定した参照画像を生成するために必要な階層レベルを、復号側に伝えることが可能となる。   In this aspect, the second step may be repeated a predetermined number of times. As a result, an image obtained by repeatedly dividing the lowest frequency band into a plurality of spatial frequency bands can be obtained, and even when an image divided into a plurality of spatial frequency bands is encoded by such a method, spatial scalability is improved. It can be easily realized. In this aspect, information indicating in which step the low-frequency band component that generated the reference image is obtained may be added to the encoded data. As a result, it is possible to inform the decoding side of the hierarchical level necessary for generating the reference image set on the encoding side.

この態様において、前記参照画像を前記異なる時間に入力された画像と同じ解像度に拡大した上で前記動き予測を行ってもよい。これにより、精度のよい動き予測が可能となる。   In this aspect, the motion prediction may be performed after enlarging the reference image to the same resolution as the image input at the different time. As a result, accurate motion prediction is possible.

また、この態様において、前記異なる時間に入力された画像を前記参照画像と同じ解像度に縮小した上で前記動き予測を行ってもよい。これにより、動き予測部の演算量を削減することができ、低コスト化・低消費電力化を図ることができる。   In this aspect, the motion prediction may be performed after reducing the image input at the different time to the same resolution as the reference image. Thereby, the amount of calculation of a motion estimation part can be reduced, and cost reduction and low power consumption can be achieved.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, etc. are also effective as an aspect of the present invention.

動画像の圧縮符号化において、空間スケーラビリティを容易に実現することができる。   Spatial scalability can be easily realized in compression encoding of moving images.

(実施の形態1)
図1は、実施の形態1に係る画像符号化装置100の構成図を示したものである。画像符号化装置100に入力される原画像OIは、一連のフレームで構成される動画像であり、画像符号化装置100によって各フレーム毎に圧縮符号化されて、符号化画像CIが出力される。画像処理装置100の構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリのロードされた復号機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
(Embodiment 1)
FIG. 1 is a configuration diagram of an image encoding device 100 according to Embodiment 1. The original image OI input to the image encoding device 100 is a moving image composed of a series of frames, and is compressed and encoded for each frame by the image encoding device 100 to output an encoded image CI. . The configuration of the image processing apparatus 100 can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer, and is realized in software by a program having a decoding function loaded in the memory. Here, the functional blocks realized by the cooperation are depicted. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

画像符号化装置100は、原画像OIを構成するフレームが入力されると、そのフレームをフレーム内符号化、若しくはフレーム間符号化によって圧縮符号化する。フレーム内符号化を行う場合、SW1はIntraノードに接続され、原画像OIはウェーブレット変換部3に入力されて、後述の通り階層化される。一方、フレーム間符号化を行う場合は、SW1はInterノードに接続される。この時、原画像OIは減算器2に入力され、原画像OIと後述の動き予測部12で得られた予測画像との差分(予測誤差と言う)を算出する。この予測誤差がウェーブレット変換部3に入力され、階層化される。   When a frame constituting the original image OI is input, the image encoding apparatus 100 compresses and encodes the frame by intraframe encoding or interframe encoding. When performing intra-frame coding, SW1 is connected to the Intra node, and the original image OI is input to the wavelet transform unit 3 and hierarchized as described later. On the other hand, when performing interframe coding, SW1 is connected to the Inter node. At this time, the original image OI is input to the subtractor 2, and a difference (referred to as a prediction error) between the original image OI and a predicted image obtained by the motion prediction unit 12 described later is calculated. This prediction error is input to the wavelet transform unit 3 and hierarchized.

ウェーブレット変換部3はドベシィ(Daubechies)フィルタを利用したもので、図2にも示すとおり、このフィルタは画像のx、yそれぞれの方向において、同時にローパスフィルタおよびハイパスフィルタとして作用し、ひとつの画像を4つの周波数サブバンドへ分割する。これらのサブバンドは、x、yの両方向において低周波成分を有するLLサブバンドと、x、yのいずれかひとつの方向において低周波成分を有し、かつもう一方の方向において高周波成分を有するHLおよびLHサブバンドと、x、yの両方向において高周波成分を有するHHサブバンドである。各サブバンドの縦横の画素数は処理前の画像のそれぞれ1/2であり、一回のフィルタリングで解像度、すなわち解像度が1/4のサブバンド画像が得られる。   The wavelet transform unit 3 uses a Doubechies filter, and as shown in FIG. 2, this filter acts as a low-pass filter and a high-pass filter in the x and y directions of the image at the same time. Divide into 4 frequency subbands. These subbands are LL subbands having low frequency components in both x and y directions, and HL subbands having low frequency components in either one of x and y directions and high frequency components in the other direction. And an HH subband having a high frequency component in both the x and y directions. The number of vertical and horizontal pixels of each subband is ½ that of the image before processing, and a subband image having a resolution, that is, a resolution of ¼ is obtained by one filtering.

ウェーブレット変換部3は、こうして得られたサブバンドのうち、LLサブバンドに対して再度フィルタリング処理を行い、これをさらにLL、HL、LH、HHの4つのサブバンドに分割する。フィルタリングは所定の回数行われ、最後のフィルタリングで生じたLLサブバンドが原画像OIにおいて最もDC成分に近い画像として取得される。以下、同一階層の各サブバンド、すなわち同じ回数フィルタリングを施して得られた4つのサブバンドはHH、HLおよびLH、LLの順に次第に低周波成分を含み、階層が深くなるにつれて、より低周波成分を含む画像が生成されていく。図2の例でいえば、右下から順に左上へいくほど低周波成分を含む画像として階層化画像が得られる。   The wavelet transform unit 3 performs the filtering process again on the LL subband among the subbands thus obtained, and further divides it into four subbands of LL, HL, LH, and HH. Filtering is performed a predetermined number of times, and the LL subband generated by the last filtering is acquired as an image closest to the DC component in the original image OI. Hereinafter, each subband of the same layer, that is, four subbands obtained by performing the same number of times of filtering, include low frequency components in the order of HH, HL and LH, LL, and lower frequency components as the layer becomes deeper. An image including is generated. In the example of FIG. 2, a hierarchized image is obtained as an image including a low frequency component in order from the lower right to the upper left.

ここで、フィルタリング処理をn回施した時に得られる階層化画像を、第n階層レベルの画像と呼ぶ。図2の例でいえば、1回フィルタリング処理を施して得られた画像WI1を第1階層レベルの画像、2回フィルタリング処理を施して得られた画像WI2を第2階層レベルの画像、3回フィルタリング処理を施して得られた画像WI3を第3階層レベルの画像と呼ぶ。   Here, the hierarchized image obtained when the filtering process is performed n times is referred to as an nth layer level image. In the example of FIG. 2, the image WI1 obtained by performing the filtering process once is an image at the first hierarchy level, the image WI2 obtained by performing the filtering process twice is the image at the second hierarchy level, and 3 times. The image WI3 obtained by performing the filtering process is referred to as an image at the third hierarchical level.

量子化部4は、ウェーブレット変換部3から出力される空間周波数成分を量子化する。符号化部5は、例えばビットプレーン符号化および算術符号化器によって、量子化された空間周波数データを符号化し、この符号データを、所定の順序に並び替える。   The quantization unit 4 quantizes the spatial frequency component output from the wavelet transform unit 3. The encoding unit 5 encodes the quantized spatial frequency data using, for example, a bit plane encoding and arithmetic encoder, and rearranges the encoded data in a predetermined order.

一方、動き予測符号化を行うための参照画像を生成するために、量子化部4で量子化された空間周波数成分は、逆量子化部6で逆量子化された後、ウェーブレット逆変換部7に入力される。ウェーブレット逆変換部7は、階層化された画像を、図2とは逆の流れで逆変換する。例えば、第3階層レベルまで階層化された画像WI3がウェーブレット逆変換部7に入力された場合、まずLL、3LH、3HH、3HHの4つのサブバンドに対して逆変換を行い、第2階層レベルの画像WI2を得る。続いて、第2階層レベルの画像WI2のLL、2LH、2HL、2HHの4つのサブバンドに対して逆変換を行い、第1階層レベルの画像WI1を得る。最後に、第1階層レベルの画像WI1のLL、LH、HL、HHの4つのサブバンドに対して逆変換を行い、原画像の解像度の画像若しくは予測誤差が復号される。   On the other hand, in order to generate a reference image for performing motion prediction encoding, the spatial frequency component quantized by the quantizing unit 4 is dequantized by the inverse quantizing unit 6 and then the wavelet inverse transforming unit 7. Is input. The wavelet inverse transform unit 7 inversely transforms the hierarchized image in a flow reverse to that in FIG. For example, when the image WI3 hierarchized to the third hierarchy level is input to the wavelet inverse transformation unit 7, first, inverse transformation is performed on the four subbands LL, 3LH, 3HH, and 3HH, and the second hierarchy level is obtained. Image WI2 is obtained. Subsequently, inverse transformation is performed on the four subbands LL, 2LH, 2HL, and 2HH of the image WI2 at the second hierarchy level to obtain the image WI1 at the first hierarchy level. Finally, inverse transformation is performed on the four subbands LL, LH, HL, and HH of the image WI1 of the first hierarchy level, and the image of the original image or the prediction error is decoded.

このウェーブレット逆変換部7は、逆変換階層レベル設定部8で設定された階層レベルまで逆変換を行う。例えば、ウェーブレット逆変換部7に第3階層レベルまで階層化された画像が入力された時に、逆変換階層レベル設定部8で第1階層レベルまで逆変換を行うように設定されると、ウェーブレット逆変換部7は第1階層レベルの画像が得られた段階で逆変換処理を終了する。また、逆変換階層レベル設定部8が第3階層レベルまで逆変換を行うように設定された場合は、ウェーブレット逆変換部7に入力された画像が第3階層レベルまで階層化されているので、ウェーブレット逆変換部7は逆変換を行わずに処理を終了する。ウェーブレット逆変換部7は、処理が終わった段階で得られた階層レベルのLLサブバンド成分を参照画像拡大部9に送る。   The wavelet inverse transformation unit 7 performs inverse transformation up to the hierarchical level set by the inverse transformation hierarchical level setting unit 8. For example, when an image layered up to the third hierarchy level is input to the wavelet inverse transformation unit 7 and the inverse transformation hierarchy level setting unit 8 is set to perform inverse transformation up to the first hierarchy level, the wavelet inverse transformation is performed. The conversion unit 7 ends the reverse conversion process when the first layer level image is obtained. In addition, when the inverse transformation hierarchy level setting unit 8 is set to perform the inverse transformation up to the third hierarchy level, the image input to the wavelet inverse transformation unit 7 is hierarchized to the third hierarchy level. The wavelet inverse transform unit 7 ends the process without performing the inverse transform. The wavelet inverse transform unit 7 sends the LL subband components at the hierarchical level obtained at the stage of processing to the reference image enlargement unit 9.

逆変換階層レベル設定部8で設定する階層レベルは、参照画像を生成するために必要な階層レベルを示している。どの階層レベルのLL成分を使用するかは、空間スケーラビリティの範囲と符号量とのバランスによって決められる。すなわち、小さな解像度から大きな解像度まで容易に復号できるように空間スケーラビリティの範囲を大きくした場合は、できるだけ深い階層レベルのLL成分から参照画像を生成するようにするとよい。ただしこの場合、参照画像の精度が悪くなるため、予測誤差が大きくなり符号量が大きくなる問題がある。逆に符号量を抑えるためには、できるだけ原画像に近いサイズをもつ階層レベルのLL成分から参照画像を生成するとよい。ただし、この場合は空間スケーラビリティの範囲が狭くなる。   The hierarchy level set by the inverse conversion hierarchy level setting unit 8 indicates a hierarchy level necessary for generating a reference image. Which layer level LL component is used is determined by the balance between the range of spatial scalability and the code amount. That is, when the spatial scalability range is increased so that it can be easily decoded from a small resolution to a large resolution, the reference image may be generated from the LL component of the deepest hierarchical level. However, in this case, since the accuracy of the reference image is deteriorated, there is a problem that the prediction error increases and the code amount increases. Conversely, in order to reduce the code amount, it is preferable to generate a reference image from hierarchical LL components having a size as close as possible to the original image. However, in this case, the range of spatial scalability becomes narrow.

したがって、逆変換階層レベル設定部8は、空間スケーラビリティの範囲と符号化量とのバランスを考慮しつつ、原画像の解像度やウェーブレット変換部3で変換した階層レベルの深さ、或いは画像符号化装置100の処理能力などに応じて自動で決定される。もしくは、ユーザによって手動で設定されてもよい。   Therefore, the inverse transform layer level setting unit 8 considers the balance between the range of spatial scalability and the coding amount, and the resolution of the original image, the depth of the layer level converted by the wavelet transform unit 3, or the image coding device. It is automatically determined according to the processing capacity of 100 or the like. Alternatively, it may be set manually by the user.

参照画像拡大部9は、入力されたLLサブバンド成分を、原画像OIと同じ解像度となるように拡大処理する。第n階層レベルのLLサブバンド成分が参照画像拡大部9に入力された場合、このLLサブバンド成分の解像度は原画像の解像度の1/2である。したがって、LLサブバンド成分に対して、解像度が2となるように拡大処理を行う。入力されたLLサブバンド成分の階層レベルは、逆変換階層レベル設定部8より取得する。 The reference image enlargement unit 9 enlarges the input LL subband component so as to have the same resolution as that of the original image OI. When the LL subband component at the nth layer level is input to the reference image enlargement unit 9, the resolution of the LL subband component is 1/2 n of the resolution of the original image. Therefore, enlargement processing is performed on the LL subband component so that the resolution is 2 n . The layer level of the input LL subband component is acquired from the inverse transformation layer level setting unit 8.

参照画像拡大部9で拡大処理されたデータがフレーム内符号化で得られる予測誤差を復号したものである場合、このデータは加算器10に入力され、この予測誤差を算出する際に使用した予測画像と足し合わされる。この時、SW2はInterノードに接続され、加算器10によって得られた画像を新たな参照画像としてフレームメモリ11に記憶する。一方、参照画像拡大部9で拡大処理されたデータがフレーム間符号化した画像を復号したものである場合は、SW2をIntraノードに接続し、この拡大処理された画像を新たな参照画像としてフレームメモリ11に記憶する。   If the data enlarged by the reference image enlargement unit 9 is obtained by decoding a prediction error obtained by intra-frame coding, this data is input to the adder 10 and the prediction used in calculating this prediction error. It is added to the image. At this time, SW2 is connected to the Inter node and stores the image obtained by the adder 10 in the frame memory 11 as a new reference image. On the other hand, when the data enlarged by the reference image enlargement unit 9 is obtained by decoding an image obtained by inter-frame coding, SW2 is connected to the Intra node, and this enlarged image is used as a new reference image as a frame. Store in the memory 11.

動き予測部12は、画像符号化装置100に入力された原画像OIのフレームに対しフレーム内符号化を行う時に、このフレームとフレームメモリ11に記憶された参照画像とを比較して動き予測を行い、予測画像を減算器2と加算器10に出力する。また、動きベクトル情報を符号化部5に出力する。参照画像は、符号化対象のフレームよりも1フレームもしくは数フレーム前に画像符号化装置100に入力されたフレームを用いてもよいし、或いは1フレームもしくは数フレーム後に入力されるフレームを用いてもよい。或いは、これら複数のフレームから参照画像を生成してもよい。   When performing intra-frame coding on the frame of the original image OI input to the image coding apparatus 100, the motion prediction unit 12 compares the frame with the reference image stored in the frame memory 11 to perform motion prediction. The prediction image is output to the subtracter 2 and the adder 10. Also, the motion vector information is output to the encoding unit 5. The reference image may be a frame input to the image encoding device 100 one frame or several frames before the frame to be encoded, or may be a frame input one frame or several frames later. Good. Alternatively, a reference image may be generated from these multiple frames.

符号化部5は、前述の通り、量子化部4で量子化された空間周波数データを符号化し、この符号データを所定の順序に並び替えるとともに、符号化対象のフレームがフレーム内圧縮もしくはフレーム間圧縮のどちらによって圧縮されたかを示す情報と、フレーム間圧縮した場合は、逆変換階層レベル設定部8で設定した参照画像の生成に必要な階層レベル、動き予測部12で求めた動きベクトル、動き予測方向、及び参照画像に使用するフレームなどの符号化条件を示すパラメータを付加して符号データストリームを生成する。この階層レベルは、ストリーム(若しくはシーケンス)に対して1つ付加してもよいし、フレームの集合(例えばGOP)に対して1つ付加してもよいし、フレーム毎に付加してもよい。こうして、最終的な符号化画像CI(Coded Image)が出力される。   As described above, the encoding unit 5 encodes the spatial frequency data quantized by the quantization unit 4, rearranges the encoded data in a predetermined order, and the frame to be encoded is compressed within the frame or between frames. Information indicating which one has been compressed, and, when inter-frame compression is performed, the layer level necessary for generating the reference image set by the inverse transformation layer level setting unit 8, the motion vector obtained by the motion prediction unit 12, and the motion A code data stream is generated by adding a parameter indicating a prediction direction and a coding condition such as a frame used for a reference image. One hierarchical level may be added to a stream (or sequence), one may be added to a set of frames (for example, GOP), or may be added to each frame. Thus, a final encoded image CI (Coded Image) is output.

斯かる構成に基づき、図1に示した画像符号化装置100の動作を以下に説明する。原画像OIを構成するフレームをフレーム内圧縮で符号化する場合、このフレームはSW1のIntraノードを介してウェーブレット変換部3に入力される。ここで、符号化対象のフレームは複数段に階層化されたサブバンドに分割される。ウェーブレット変換部3によって得られたデータは、量子化部4、符号化部5を経由して符号化画像CIが生成される。   Based on such a configuration, the operation of the image coding apparatus 100 shown in FIG. 1 will be described below. When a frame constituting the original image OI is encoded by intra-frame compression, this frame is input to the wavelet transform unit 3 via the Intra node of SW1. Here, the encoding target frame is divided into subbands that are hierarchized into a plurality of stages. As for the data obtained by the wavelet transform unit 3, a coded image CI is generated via the quantization unit 4 and the coding unit 5.

また、量子化部4によって量子化されたデータは、参照画像を生成するために逆量子化部6によって逆量子化され、ウェーブレット逆変換部7でウェーブレット逆変換が施される。この時、ウェーブレット逆変換部7は、逆変換階層レベル設定部8にて設定された階層レベルまで逆変換を行う。そして、この階層のLLサブバンド成分を動き予測の参照画像として利用するために、このLLサブバンド成分を参照画像拡大部9で拡大し、この拡大されたLLサブバンド成分をSW2のIntraノードを介してフレームメモリ11に格納する。   The data quantized by the quantization unit 4 is inversely quantized by the inverse quantization unit 6 to generate a reference image, and wavelet inverse transformation is performed by the wavelet inverse transformation unit 7. At this time, the wavelet inverse transformation unit 7 performs inverse transformation up to the hierarchical level set by the inverse transformation hierarchical level setting unit 8. Then, in order to use the LL subband component of this hierarchy as a reference image for motion prediction, the LL subband component is enlarged by the reference image enlargement unit 9, and the enlarged LL subband component is set to the Intra node of SW2. And stored in the frame memory 11.

一方、原画像OIを構成するフレームをフレーム間圧縮で符号化する場合、このフレームは減算器2に送られ、動き予測部12で生成された予測画像が減算されて、予測誤差が出力される。この予測誤差は、SW1のInterノードを介してウェーブレット変換部3によって複数段に階層化されたサブバンドに分割される。ウェーブレット変換部3によって得られたデータは、量子化部4、符号化部5を経由して符号化画像CIが生成される。   On the other hand, when a frame constituting the original image OI is encoded by inter-frame compression, this frame is sent to the subtracter 2, and the prediction image generated by the motion prediction unit 12 is subtracted to output a prediction error. . This prediction error is divided into subbands hierarchized into a plurality of stages by the wavelet transform unit 3 via the Inter node of SW1. As for the data obtained by the wavelet transform unit 3, a coded image CI is generated via the quantization unit 4 and the coding unit 5.

また、量子化部4によって量子化されたデータは、参照画像を生成するために逆量子化部6によって逆量子化され、ウェーブレット逆変換部7でウェーブレット逆変換が施される。この時、ウェーブレット逆変換部7は、逆変換階層レベル設定部8にて設定された階層レベルまで逆変換を行う。そして、この階層のLLサブバンド成分と動き予測部12で生成された予測画像とを加算器10で足し合わせて参照画像を生成するために、このLLサブバンド成分は参照画像拡大部9によって拡大される。そして、加算器10で生成された参照画像はSW2のInterノードを介してフレームメモリ11に格納される。   The data quantized by the quantization unit 4 is inversely quantized by the inverse quantization unit 6 to generate a reference image, and wavelet inverse transformation is performed by the wavelet inverse transformation unit 7. At this time, the wavelet inverse transformation unit 7 performs inverse transformation up to the hierarchical level set by the inverse transformation hierarchical level setting unit 8. Then, the LL subband component is expanded by the reference image enlargement unit 9 in order to add the LL subband component of this hierarchy and the prediction image generated by the motion prediction unit 12 by the adder 10 to generate a reference image. Is done. The reference image generated by the adder 10 is stored in the frame memory 11 via the Inter node of SW2.

動き予測部12は、逆変換階層レベル設定部8で設定された階層レベルのLLサブバンド成分をもとに生成された参照画像をフレームメモリ11から読み出して、動き予測を行う。   The motion prediction unit 12 reads a reference image generated based on the LL subband component at the hierarchical level set by the inverse transformation hierarchical level setting unit 8 from the frame memory 11 and performs motion prediction.

次に、図1の画像符号化装置100によって得られた符号化画像CIを復号するための装置について説明する。図3に示した画像復号装置200は、画像符号化装置100で符号化された画像CIを復号するための装置の一例である。画像復号装置200は、符号化画像CIを復号部51に入力し、符号化画像CIに付加された符号化条件を示すパラメータや量子化された空間周波数データを復号する。符号化条件を示すパラメータには、参照画像を生成するために必要な階層レベル、動きベクトル、動き予測方向、及び参照画像に使用するフレームが含まれる。参照画像を生成するために必要な階層レベルはウェーブレット逆変換部53、参照画像拡大縮小部56、動き補償部59に入力される。また動きベクトル、動き予測方向、及び参照画像に使用するフレームは動き補償部59に入力される。   Next, an apparatus for decoding the encoded image CI obtained by the image encoding apparatus 100 of FIG. 1 will be described. The image decoding apparatus 200 illustrated in FIG. 3 is an example of an apparatus for decoding the image CI encoded by the image encoding apparatus 100. The image decoding apparatus 200 inputs the encoded image CI to the decoding unit 51, and decodes a parameter indicating an encoding condition added to the encoded image CI and quantized spatial frequency data. The parameters indicating the coding conditions include a hierarchical level necessary for generating a reference image, a motion vector, a motion prediction direction, and a frame used for the reference image. The hierarchical level necessary for generating the reference image is input to the wavelet inverse transformation unit 53, the reference image enlargement / reduction unit 56, and the motion compensation unit 59. The motion vector, the motion prediction direction, and the frame used for the reference image are input to the motion compensation unit 59.

量子化された空間周波数データは、逆量子化部52で逆量子化された後、ウェーブレット逆変換部53に入力される。復号画像階層レベル設定部54は、画像復号装置100の状態や、復号した画像を表示する表示装置の画素数などに応じて、復号画像の階層レベルを設定する。ウェーブレット逆変換部53は、復号画像階層レベル設定部54で設定された階層レベルまで逆変換を行う。この時、途中の階層レベルまで逆変換を行った場合は、そのLL成分を逆変換の結果としてSW3もしくは加算器55に送る。また、原画像の解像度まで逆変換された場合は、逆変換された結果をすべてSW3もしくは加算器55に送る。   The quantized spatial frequency data is inversely quantized by the inverse quantization unit 52 and then input to the wavelet inverse transform unit 53. The decoded image hierarchy level setting unit 54 sets the hierarchy level of the decoded image in accordance with the state of the image decoding device 100, the number of pixels of the display device that displays the decoded image, and the like. The wavelet inverse transform unit 53 performs inverse transform up to the layer level set by the decoded image layer level setting unit 54. At this time, when the inverse transformation is performed up to an intermediate hierarchical level, the LL component is sent to SW3 or the adder 55 as a result of the inverse transformation. Further, when the inverse transformation is performed up to the resolution of the original image, all the inverse transformation results are sent to SW3 or the adder 55.

逆変換したフレームがフレーム内符号化の場合、SW3をIntraノードに接続し、ウェーブレット逆変換部53で逆変換された結果がそのまま復号画像DIとして出力される。また、フレーム間符号化の場合は、SW3はInterノードに接続され、ウェーブレット逆変換部53で逆変換された結果と後述の動き補償部59で得られた予測画像とを加算器55で足し合わせた結果が復号画像DIとして出力される。   When the inversely transformed frame is intraframe coding, the SW3 is connected to the Intra node, and the result of inverse transformation by the wavelet inverse transformation unit 53 is output as it is as a decoded image DI. In the case of inter-frame coding, SW3 is connected to the Inter node, and an adder 55 adds the result of inverse transformation by the wavelet inverse transformation unit 53 and a prediction image obtained by a motion compensation unit 59 described later. The result is output as a decoded image DI.

ウェーブレット逆変換部53は、復号部51から入力された参照画像に必要な階層レベルを基に、その階層レベルのLL成分を参照画像拡大縮小部56に入力する。この時、参照画像に必要な階層レベルが復号画像の階層レベルと同等もしくは小さい場合は、復号の際に参照画像に必要な階層レベルの画像が得られるため、それを利用する。逆に、参照画像に必要な階層レベルが復号画像の階層レベルよりも大きい場合は、復号の際に参照画像に必要な階層レベルの画像が得られないため、ウェーブレット逆変換部53は参照画像に必要な階層レベルまで逆変換を行う。   The wavelet inverse transform unit 53 inputs the LL component at the hierarchical level to the reference image enlargement / reduction unit 56 based on the hierarchical level necessary for the reference image input from the decoding unit 51. At this time, if the hierarchical level necessary for the reference image is equal to or smaller than the hierarchical level of the decoded image, the hierarchical level image necessary for the reference image is obtained at the time of decoding. On the other hand, when the hierarchical level required for the reference image is higher than the hierarchical level of the decoded image, the image of the hierarchical level required for the reference image cannot be obtained at the time of decoding. Perform reverse transformation to the required hierarchy level.

参照画像拡大縮小部56は、復号画像の階層レベルと参照画像に必要な階層レベルを比較し、ウェーブレット逆変換部53から入力されたLL成分を復号画像の解像度と同じになるように拡大・縮小する。例えば、参照画像に必要な階層レベルが図2の第2階層レベルWI2の時、ウェーブレット逆変換部53から第2階層レベルWI2のLL成分が入力される。そして、復号画像の階層レベルが図2の第1階層レベルWI1である場合は、ウェーブレット逆変換部53から入力されたLL成分を縦・横とも2倍に拡大処理する。また、復号画像の階層レベルが図2の原画像レベルOIである場合は、ウェーブレット逆変換部53から入力されたLL成分を縦・横とも4倍に拡大処理する。一方、復号画像の階層レベルが図2の第3階層レベルWI3である場合は、ウェーブレット逆変換部53から入力されたLL成分を縦・横とも1/2に縮小処理する。   The reference image enlargement / reduction unit 56 compares the hierarchy level of the decoded image with the hierarchy level necessary for the reference image, and enlarges / reduces the LL component input from the wavelet inverse transformation unit 53 to be the same as the resolution of the decoded image. To do. For example, when the hierarchical level required for the reference image is the second hierarchical level WI2 in FIG. 2, the LL component of the second hierarchical level WI2 is input from the wavelet inverse transformation unit 53. When the hierarchical level of the decoded image is the first hierarchical level WI1 in FIG. 2, the LL component input from the wavelet inverse transformation unit 53 is enlarged twice in both vertical and horizontal directions. When the hierarchical level of the decoded image is the original image level OI of FIG. 2, the LL component input from the wavelet inverse transform unit 53 is expanded by 4 times in both the vertical and horizontal directions. On the other hand, when the hierarchical level of the decoded image is the third hierarchical level WI3 in FIG. 2, the LL component input from the wavelet inverse transformation unit 53 is reduced to 1/2 in both vertical and horizontal directions.

復号しているフレームがフレーム内符号化の場合、SW4はIntraノードに接続され、参照画像拡大縮小部56の結果がフレームメモリ58に格納される。また、復号しているフレームがフレーム間符号化の場合は、SW4はInterノードに接続され、参照画像拡大縮小部56の結果と後述の動き補償部59で得られた予測画像とが加算器57で足し合わされて、その結果がフレームメモリ58に格納される。   When the frame being decoded is intra-frame coding, SW 4 is connected to the Intra node, and the result of the reference image enlargement / reduction unit 56 is stored in the frame memory 58. When the frame being decoded is interframe coding, SW4 is connected to the Inter node, and the result of the reference image enlargement / reduction unit 56 and the predicted image obtained by the motion compensation unit 59 described later are added to the adder 57. And the result is stored in the frame memory 58.

動き補償部59は、復号部51から動きベクトル、動き予測方向、及び参照画像に使用するフレームの情報を受け取り、フレームメモリ58から必要な画像を読み出して、予測画像を生成する。予測画像は加算器55、57に送られる。   The motion compensation unit 59 receives the motion vector, the motion prediction direction, and the frame information used for the reference image from the decoding unit 51, reads out a necessary image from the frame memory 58, and generates a prediction image. The predicted image is sent to the adders 55 and 57.

斯かる構成に基づき、図3に示した画像符号化装置200の動作を以下に説明する。復号部51は符号化画像CIが入力されると、まず復号対象のフレームがフレーム内圧縮されたものかフレーム間圧縮されたものかを判断し、フレーム内圧縮されたものであれば、SW3とSW4をIntraノードにスイッチし、フレーム間圧縮されたものであれば、SW3とSW4をInterノードにスイッチする。   Based on such a configuration, the operation of the image coding apparatus 200 shown in FIG. 3 will be described below. When the encoded image CI is input, the decoding unit 51 first determines whether the frame to be decoded has been subjected to intra-frame compression or inter-frame compression. SW4 is switched to the Intra node, and if it is compressed between frames, SW3 and SW4 are switched to the Inter node.

復号部51はさらに量子化係数を復号し、逆量子化部52によって逆量子化された後、ウェーブレット逆変換部53によってウェーブレット逆変換される。このとき、ウェーブレット逆変換部53は復号画像階層レベル設定部54にて設定された階層レベルまで逆変換を行い、SW3がIntraノードにスイッチされている場合は、その階層のLLサブバンド成分が復号画像DIとして出力される。また、SW3がInterノードにスイッチされている場合は、その階層のLLサブバンド成分と動き補償部59によって生成された予測画像とを加算器55で加算した後、この加算されたデータが復号画像DIとして出力される。   The decoding unit 51 further decodes the quantized coefficients, is inversely quantized by the inverse quantization unit 52, and is then inversely wavelet transformed by the wavelet inverse transform unit 53. At this time, the wavelet inverse transform unit 53 performs inverse transform to the layer level set by the decoded image layer level setting unit 54, and when SW3 is switched to the Intra node, the LL subband component of that layer is decoded. Output as an image DI. Further, when SW3 is switched to the Inter node, the adder 55 adds the LL subband component of the layer and the prediction image generated by the motion compensation unit 59, and then the added data is the decoded image. Output as DI.

一方、動き補償用の参照画像を生成するために参照画像拡大縮小部56は、復号部51で復号された参照画像を生成するために必要な階層レベルのLLサブバンド成分をウェーブレット逆変換部53から得て、復号画像の解像度と同じになるように拡大縮小を行う。SW4がIntraノードにスイッチされている場合、この拡大縮小されたLLサブバンド成分が参照画像としてフレームメモリ58に格納される。また、SW4がInterノードにスイッチされている場合は、加算器57によって、この拡大縮小されたLLサブバンド成分に、動き補償部59によって生成された予測画像が加算され、この加算されたデータが参照画像としてフレームメモリ58に格納される。   On the other hand, in order to generate a reference image for motion compensation, the reference image enlargement / reduction unit 56 converts the LL subband components at the hierarchical level necessary for generating the reference image decoded by the decoding unit 51 into the wavelet inverse conversion unit 53. And scaling is performed so as to be the same as the resolution of the decoded image. When SW4 is switched to the Intra node, the enlarged / reduced LL subband component is stored in the frame memory 58 as a reference image. When SW4 is switched to the Inter node, the adder 57 adds the predicted image generated by the motion compensation unit 59 to the scaled LL subband component, and the added data is It is stored in the frame memory 58 as a reference image.

動き補償部59は、復号部51によって復号した動きベクトルと、参照画像を生成するために必要な階層レベルのLLサブバンド成分をもとに生成された参照画像から予測画像を生成し、加算器55と加算器57に送る。   The motion compensation unit 59 generates a prediction image from the reference image generated based on the motion vector decoded by the decoding unit 51 and the LL subband component of the hierarchical level necessary for generating the reference image, and adds the adder 55 and the adder 57.

以上、画像符号化装置100に係る構成によれば、画像符号化装置100は階層化された画像を原画像の解像度に戻すことなく、途中の階層レベル(すなわち、逆変換階層レベル設定部8で設定される階層レベル)のLL成分を使用して参照画像を生成する。したがって、画像符号化装置100によって出力された符号化画像CIを画像復号装置200で復号する場合も、ウェーブレット逆変換によって得られる途中の階層レベルのLL成分を使用すれば参照画像を生成することができる。このことは、例えば、画像復号装置200の処理能力が小さかったり、復号画像を表示する表示装置の解像度が小さい場合、画像復号装置はウェーブレット逆変換を途中で止めても、参照画像を生成できる階層レベル以上に逆変換されていれば、復号を継続することができる。   As described above, according to the configuration relating to the image encoding device 100, the image encoding device 100 does not return the layered image to the resolution of the original image, but the intermediate layer level (that is, the inverse conversion layer level setting unit 8). The reference image is generated using the LL component of the set hierarchical level). Therefore, even when the encoded image CI output by the image encoding device 100 is decoded by the image decoding device 200, a reference image can be generated by using an LL component at a mid-level obtained by wavelet inverse transformation. it can. This is because, for example, when the processing capability of the image decoding device 200 is small or the resolution of the display device that displays the decoded image is small, the image decoding device can generate a reference image even if wavelet inverse transformation is stopped halfway. Decoding can be continued if it is inversely converted to a level or higher.

このように、この画像符号化装置100は、これによって出力された符号化画像を復号する際、空間スケーラビリティを容易に実現することができる。   As described above, the image encoding apparatus 100 can easily realize spatial scalability when decoding the encoded image output thereby.

(実施の形態2)
図4は、実施の形態2に係る画像符号化装置110の構成図である。この画像符号化装置110は、実施の形態1に係る画像符号化装置100の参照画像拡大部9を取り除き、代わりに原画像縮小部14及び予測画像拡大部15が付加された構成である。実施の形態1と同じ構成については同符号を付し、説明を省略する。
(Embodiment 2)
FIG. 4 is a configuration diagram of the image encoding device 110 according to the second embodiment. This image encoding device 110 has a configuration in which the reference image enlargement unit 9 of the image encoding device 100 according to Embodiment 1 is removed and an original image reduction unit 14 and a predicted image enlargement unit 15 are added instead. The same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

この画像符号化装置110は、逆変換レベル設定部8で設定した階層レベルのLLサブバンド成分の解像度のまま動き予測を行う。原画像縮小部14は、原画像を逆変換レベル設定部8で設定した階層レベルのLLサブバンド成分の解像度まで縮小する。例えば、変換レベル設定部8で設定した階層レベルが第n階層レベルであれば、原画像縮小部14は1/2まで縮小する。 The image encoding device 110 performs motion prediction with the resolution of the LL subband component at the hierarchical level set by the inverse transform level setting unit 8. The original image reduction unit 14 reduces the original image to the resolution of the LL subband component at the hierarchical level set by the inverse conversion level setting unit 8. For example, if the layer level set by the conversion level setting unit 8 is the nth layer level, the original image reduction unit 14 reduces the image to 1 / 2n .

予測画像拡大部15は、動き予測部12で得られた予測画像の解像度を、原画像の解像度に合わせるために拡大処理を行う。すなわち、動き予測部12で得られた予測画像の解像度は、動き予測は逆変換階層レベル設定部8で設定された階層レベルの解像度であるため、その設定された階層レベルを基に拡大処理する。例えば、逆変換階層レベル設定部8で設定された階層レベルが第n階層レベルであれば、予測画像拡大部15は予測画像の解像度が2倍となるように拡大処理する。この拡大処理された予測画像は、減算器2に入力される。 The predicted image enlarging unit 15 performs an enlarging process in order to match the resolution of the predicted image obtained by the motion predicting unit 12 with the resolution of the original image. In other words, the resolution of the prediction image obtained by the motion prediction unit 12 is enlarged based on the set hierarchical level because the motion prediction is the resolution of the hierarchical level set by the inverse transformation hierarchical level setting unit 8. . For example, if the hierarchical level set by the inverse transformation hierarchical level setting unit 8 is the n-th hierarchical level, the predicted image enlarging unit 15 performs an enlargement process so that the resolution of the predicted image becomes 2 n times. The enlarged predicted image is input to the subtracter 2.

斯かる構成に基づき、図4に示した画像符号化装置110の動作を以下に説明する。量子化部4の量子化結果から参照画像を生成するとき、逆量子化部6で逆量子化した後、ウェーブレット逆変換部7にて逆変換階層レベル設定部8で設定された階層レベルまで逆変換される。処理しているフレームがフレーム内圧縮されたものである場合、SW2はIntraノードに接続され、ウェーブレット逆変換部7で得られた階層レベルのLL成分がそのままフレームメモリ11に格納される。逆に、処理しているフレームがフレーム間圧縮されたものであれば、SW2はInterノードに接続され、加算器10にてウェーブレット逆変換部7で得られた階層レベルのLL成分と予測画像が足し合わされた後、フレームメモリ11に格納される。したがって、フレームメモリ11に格納される参照画像の解像度は、原画像の解像度に拡大されたものではなく、逆変換階層レベル設定部8で設定された階層レベルのLL成分相当の解像度となる。   Based on such a configuration, the operation of the image encoding device 110 shown in FIG. 4 will be described below. When generating a reference image from the quantization result of the quantization unit 4, after inverse quantization by the inverse quantization unit 6, the wavelet inverse transform unit 7 performs inverse processing up to the layer level set by the inverse transform layer level setting unit 8. Converted. If the frame being processed is an intra-frame compressed one, SW2 is connected to the Intra node, and the LL component at the hierarchical level obtained by the wavelet inverse transform unit 7 is stored in the frame memory 11 as it is. Conversely, if the frame being processed is inter-frame compressed, SW2 is connected to the Inter node, and the LL component at the hierarchical level obtained by the wavelet inverse transform unit 7 in the adder 10 and the predicted image are obtained. After the addition, it is stored in the frame memory 11. Therefore, the resolution of the reference image stored in the frame memory 11 is not enlarged to the resolution of the original image, but becomes a resolution equivalent to the LL component at the hierarchical level set by the inverse transformation hierarchical level setting unit 8.

原画像は原画像縮小部14で逆変換階層レベル設定部8で設定された階層レベルのLL成分相当の解像度まで縮小される。   The original image is reduced by the original image reduction unit 14 to a resolution corresponding to the LL component of the layer level set by the inverse conversion layer level setting unit 8.

動き予測部12は、フレームメモリ11に格納された参照画像と原画像縮小部14で縮小された原画像とを比較して動き予測を行う。すなわち、動き予測は逆変換階層レベル設定部8で設定された階層レベルの解像度で行われる。動き予測部12はその動き予測の結果から、動きベクトルを符号化部5に送り、動きベクトルに基づいて生成された予測画像を、加算器10と予測画像拡大部15に送る。   The motion prediction unit 12 compares the reference image stored in the frame memory 11 with the original image reduced by the original image reduction unit 14 and performs motion prediction. That is, motion prediction is performed at the resolution of the hierarchy level set by the inverse conversion hierarchy level setting unit 8. The motion prediction unit 12 sends the motion vector to the encoding unit 5 from the result of the motion prediction, and sends the predicted image generated based on the motion vector to the adder 10 and the predicted image enlargement unit 15.

予測画像拡大部15は、動き予測部12で得られた予測画像の解像度を、原画像の解像度に合わせるために拡大処理を行い、拡大処理された予測画像は、減算器2に入力される。   The predicted image enlarging unit 15 performs an enlarging process so that the resolution of the predicted image obtained by the motion predicting unit 12 matches the resolution of the original image, and the predicted image subjected to the enlarging process is input to the subtractor 2.

図5は、画像符号化装置110によって得られた符号化画像CIを復号するための画像復号装置210の構成図である。この画像復号装置210は、実施の形態1に係る画像復号装置200から参照画像拡大縮小部56を取り除き、代わりに予測画像拡大縮小部61を付加した構成である。実施の形態1と同じ構成については同符号を付し、説明を省略する。   FIG. 5 is a configuration diagram of the image decoding device 210 for decoding the encoded image CI obtained by the image encoding device 110. The image decoding apparatus 210 has a configuration in which the reference image enlargement / reduction unit 56 is removed from the image decoding apparatus 200 according to Embodiment 1 and a predicted image enlargement / reduction unit 61 is added instead. The same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

予測画像拡大縮小部61は、参照画像に必要な階層レベルと復号画像の階層レベルを比較し、予測画像の解像度を復号画像の解像度と同じになるように、予測画像を拡大・縮小する。例えば、参照画像に必要な階層レベルが図2の第2階層レベルWI2の時、復号画像の階層レベルが図2の第1階層レベルWI1である場合は、予測画像を縦・横とも2倍に拡大処理する。また、復号画像の階層レベルが図2の原画像レベルOIである場合は、予測画像を縦・横とも4倍に拡大処理する。一方、復号画像の階層レベルが図2の第3階層レベルWI3である場合は、予測画像を縦・横とも1/2に縮小処理する。   The predicted image enlargement / reduction unit 61 compares the hierarchical level required for the reference image with the hierarchical level of the decoded image, and enlarges / reduces the predicted image so that the resolution of the predicted image is the same as the resolution of the decoded image. For example, when the hierarchical level required for the reference image is the second hierarchical level WI2 in FIG. 2 and the hierarchical level of the decoded image is the first hierarchical level WI1 in FIG. 2, the predicted image is doubled both vertically and horizontally. Zoom in. Further, when the hierarchical level of the decoded image is the original image level OI in FIG. 2, the predicted image is enlarged four times in both the vertical and horizontal directions. On the other hand, when the hierarchical level of the decoded image is the third hierarchical level WI3 in FIG. 2, the predicted image is reduced to 1/2 in both vertical and horizontal directions.

斯かる構成に基づき、図5に示した画像符号化装置210の動作を以下に説明する。フレームメモリ58に格納される参照画像は、原画像の解像度まで拡大されず、ウェーブレット逆変換部53で得られた参照画像に必要な階層レベルのLL成分の解像度のまま格納される。そして、動き補償も動き補償部59にて参照画像に必要な階層レベルのLL成分の解像度で行われ、その解像度を持つ予測画像が加算器57と予測画像拡大縮小部61に出力される。   Based on such a configuration, the operation of the image coding apparatus 210 shown in FIG. 5 will be described below. The reference image stored in the frame memory 58 is not enlarged to the resolution of the original image, but is stored with the resolution of the LL component at the hierarchical level necessary for the reference image obtained by the wavelet inverse transform unit 53. Motion compensation is also performed at the resolution of the hierarchical level LL component required for the reference image by the motion compensation unit 59, and a predicted image having the resolution is output to the adder 57 and the predicted image scaling unit 61.

そして、予測画像拡大縮小部61は、予測画像の解像度を復号画像の解像度と同じになるように、予測画像を拡大・縮小した上で、加算器55に拡大・縮小された画像を送る。   Then, the predicted image enlargement / reduction unit 61 enlarges / reduces the predicted image so that the resolution of the predicted image is the same as the resolution of the decoded image, and sends the enlarged / reduced image to the adder 55.

以上、画像符号化装置110及び画像復号装置210に係る構成によれば、参照画像を原画像の解像度まで拡大せずに、低解像度のままフレームメモリ11ないしフレームメモリ58に格納し、動き予測ないし動き補償を行うことができる。すなわち、フレームメモリの容量を少なくでき、また動き予測・動き補償においては、その精度が落ちるもの演算量を小さくすることができる。したがって、実施の形態1の効果に加えて、画像符号化装置、画像復号装置の低コスト化、低消費電力化を図ることができる。加えて、画像を復号する際に、復号途中で復号画像の階層レベル(すなわち復号画像の解像度)が変更となった場合でも、参照画像は常に同じ解像度の画像がフレームメモリに格納されるため、正しく復号を継続することができる。   As described above, according to the configuration related to the image encoding device 110 and the image decoding device 210, the reference image is stored in the frame memory 11 or the frame memory 58 without being expanded to the resolution of the original image, and the motion prediction or Motion compensation can be performed. That is, it is possible to reduce the capacity of the frame memory, and it is possible to reduce the amount of calculation in motion prediction / compensation, although the accuracy is reduced. Therefore, in addition to the effects of the first embodiment, the cost and power consumption of the image encoding device and the image decoding device can be reduced. In addition, when the image is decoded, even if the hierarchical level of the decoded image (that is, the resolution of the decoded image) is changed during decoding, the reference image is always stored in the frame memory with the same resolution. Decoding can be continued correctly.

(実施の形態3)
図6は、実施の形態3に係る画像符号化装置120の構成図である。この画像符号化装置120は、実施の形態1に係る画像符号化装置100の参照画像拡大部9をウェーブレット逆変換部7と加算器10との間から、フレームメモリ11と動き予測部12との間に移動させ、さらに画像符号化装置100に予測画像縮小部16を付加した構成である。実施の形態1と同じ構成については同符号を付し、実施の形態1とは異なる構成と動作を説明する。
(Embodiment 3)
FIG. 6 is a configuration diagram of the image encoding device 120 according to Embodiment 3. The image encoding device 120 includes a reference image enlarging unit 9 of the image encoding device 100 according to Embodiment 1 between the wavelet inverse transform unit 7 and the adder 10, and between the frame memory 11 and the motion prediction unit 12. The predicted image reduction unit 16 is added to the image encoding apparatus 100. The same components as those in the first embodiment are denoted by the same reference numerals, and different configurations and operations from those in the first embodiment will be described.

この画像符号化装置120は、参照画像を逆変換階層レベル設定部8で設定さえた階層レベルのLLサブバンド成分の解像度のまま参照画像を生成し、フレームメモリ11に格納した後、動き予測部10で動き予測を行う前に、参照画像を原画像と同じ解像度に拡大処理する。   The image encoding device 120 generates a reference image with the resolution of the LL subband component of the hierarchical level set by the inverse transformation hierarchical level setting unit 8 and stores the reference image in the frame memory 11, and then the motion prediction unit Before performing motion prediction at 10, the reference image is enlarged to the same resolution as the original image.

予測画像縮小部16は、フレーム内予測符号化されたフレームから参照画像を生成する場合、その予測画像と予測誤差とを足し合わせるために、予測画像の解像度(原画像OIの解像度に相当)を予測誤差の解像度(逆変換階層レベル設定部8で設定された階層レベルの解像度に相当)に合わせる。すなわち、逆変換階層レベル設定部8で設定された階層レベルが第n階層レベルであった場合は、動き予測部12で得られた予測画像を1/2だけ縮小処理する。この縮小された予測画像は加算器10に入力され、新たな参照画像が生成される。 When generating a reference image from a frame subjected to intraframe prediction encoding, the predicted image reduction unit 16 sets the resolution of the predicted image (corresponding to the resolution of the original image OI) in order to add the predicted image and the prediction error. The resolution of the prediction error (corresponding to the resolution of the hierarchy level set by the inverse conversion hierarchy level setting unit 8) is set. That is, when the hierarchical level set by the inverse transformation hierarchical level setting unit 8 is the n-th hierarchical level, the prediction image obtained by the motion prediction unit 12 is reduced by 1/2 n . The reduced predicted image is input to the adder 10, and a new reference image is generated.

斯かる構成に基づき、図6に示した画像符号化装置120の動作を以下に説明する。量子化部4の量子化結果から参照画像を生成するとき、逆量子化部6で逆量子化した後、ウェーブレット逆変換部7にて逆変換階層レベル設定部8で設定された階層レベルまで逆変換される。処理しているフレームがフレーム内圧縮されたものである場合、SW2はIntraノードに接続され、ウェーブレット逆変換部7で得られた階層レベルのLL成分がそのままフレームメモリ11に格納される。逆に、処理しているフレームがフレーム間圧縮されたものであれば、SW2はInterノードに接続され、加算器10にてウェーブレット逆変換部7で得られた階層レベルのLL成分と予測画像が足し合わされた後、フレームメモリ11に格納される。したがって、フレームメモリ11に格納される参照画像の解像度は、原画像の解像度に拡大されたものではなく、逆変換階層レベル設定部8で設定された階層レベルのLL成分相当の解像度となる。   Based on such a configuration, the operation of the image encoding device 120 shown in FIG. 6 will be described below. When generating a reference image from the quantization result of the quantization unit 4, after inverse quantization by the inverse quantization unit 6, the wavelet inverse transform unit 7 performs inverse processing up to the layer level set by the inverse transform layer level setting unit 8. Converted. If the frame being processed is an intra-frame compressed one, SW2 is connected to the Intra node, and the LL component at the hierarchical level obtained by the wavelet inverse transform unit 7 is stored in the frame memory 11 as it is. Conversely, if the frame being processed is inter-frame compressed, SW2 is connected to the Inter node, and the LL component at the hierarchical level obtained by the wavelet inverse transform unit 7 in the adder 10 and the predicted image are obtained. After the addition, it is stored in the frame memory 11. Therefore, the resolution of the reference image stored in the frame memory 11 is not enlarged to the resolution of the original image, but becomes a resolution equivalent to the LL component at the hierarchical level set by the inverse transformation hierarchical level setting unit 8.

参照画像拡大部9は、参照画像の解像度を原画像の解像度に合わせるために、実施の形態1に係る画像符号化装置100の参照画像拡大部9と同様の方法で拡大処理を行う。ただし、画像符号化装置100の場合は、ウェーブレット逆変換部7で得られた結果を拡大処理するのに対し、実施の形態3に係る画像符号化装置120の参照画像拡大部9は、フレームメモリ11に格納された参照画像を拡大処理する点が異なる。   The reference image enlargement unit 9 performs enlargement processing in the same manner as the reference image enlargement unit 9 of the image encoding device 100 according to Embodiment 1 in order to match the resolution of the reference image with the resolution of the original image. However, in the case of the image encoding device 100, the result obtained by the wavelet inverse transform unit 7 is enlarged, whereas the reference image enlargement unit 9 of the image encoding device 120 according to Embodiment 3 is a frame memory. 11 is different in that the reference image stored in 11 is enlarged.

動き予測部12は、原画像OIと参照画像拡大部9で拡大された参照画像とを原画像OIの解像度のレベルで比較し、動き予測を行う。これによって得られた動きベクトルは符号化部5に送られ、予測画像は減算器2と予測画像縮小部16に送られる。   The motion prediction unit 12 compares the original image OI and the reference image enlarged by the reference image enlargement unit 9 at the resolution level of the original image OI, and performs motion prediction. The motion vector thus obtained is sent to the encoding unit 5, and the predicted image is sent to the subtracter 2 and the predicted image reducing unit 16.

予測画像縮小部16は、前述のように予測画像の解像度を予測誤差の解像度(逆変換階層レベル設定部8で設定された階層レベルの解像度に相当)に合わせるために、予測画像を縮小する。そして、この縮小された予測画像は加算器10に入力され、新たな参照画像が生成される。   As described above, the predicted image reduction unit 16 reduces the predicted image in order to match the resolution of the predicted image with the resolution of the prediction error (corresponding to the resolution of the hierarchical level set by the inverse transformation hierarchical level setting unit 8). Then, the reduced predicted image is input to the adder 10, and a new reference image is generated.

図7は、画像符号化装置120によって得られた符号化画像CIを復号するための画像復号装置220の構成図である。この画像復号装置220は、実施の形態1に係る画像復号装置200の参照画像拡大縮小部56をウェーブレット逆変換部53と加算器57との間から、フレームメモリ58と動き補償部59との間に移動させ、さらに画像復号装置200に予測画像拡大縮小部62を付加した構成である。実施の形態1と同じ構成については同符号を付し、説明を省略する。   FIG. 7 is a configuration diagram of an image decoding device 220 for decoding the encoded image CI obtained by the image encoding device 120. In this image decoding device 220, the reference image enlargement / reduction unit 56 of the image decoding device 200 according to Embodiment 1 is placed between the wavelet inverse transform unit 53 and the adder 57, and between the frame memory 58 and the motion compensation unit 59. And a predicted image scaling unit 62 is further added to the image decoding apparatus 200. The same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

予測画像拡大縮小部62は、復号画像階層レベル設定部54で設定された階層レベルの解像度を持つ予測画像を、参照画像に必要な階層レベルの解像度に合うように拡大縮小処理する。例えば、参照画像に必要な階層レベルが図2の第2階層レベルWI2の時、復号画像の階層レベルが図2の第1階層レベルWI1である場合は、予測画像を縦・横とも1/2に縮小処理する。また、復号画像の階層レベルが図2の原画像レベルOIである場合は、予測画像を縦・横とも1/4に縮小処理する。一方、復号画像の階層レベルが図2の第3階層レベルWI3である場合は、予測画像を縦・横とも2倍に拡大処理する。   The predicted image enlargement / reduction unit 62 performs an enlargement / reduction process on the predicted image having the layer level resolution set by the decoded image layer level setting unit 54 so as to match the layer level resolution required for the reference image. For example, when the hierarchical level required for the reference image is the second hierarchical level WI2 in FIG. 2 and the hierarchical level of the decoded image is the first hierarchical level WI1 in FIG. Reduce to Also, when the hierarchical level of the decoded image is the original image level OI in FIG. 2, the predicted image is reduced to ¼ both vertically and horizontally. On the other hand, when the hierarchical level of the decoded image is the third hierarchical level WI3 in FIG. 2, the predicted image is enlarged twice in both vertical and horizontal directions.

斯かる構成に基づき、図6に示した画像符号化装置120の動作を以下に説明する。フレームメモリ58に格納される参照画像は、原画像の解像度まで拡大されず、ウェーブレット逆変換部53で得られた参照画像に必要な階層レベルのLL成分の解像度のまま格納される。そして、動き補償部59で動き補償を行う前に、参照画像拡大縮小部56によって、参照画像を復号画像階層レベル設定部54で設定された階層レベルの解像度まで拡大する。参照画像拡大縮小部56の動作は、画像復号装置200の参照画像拡大縮小部56と同じである。また、動き補償部59も画像復号装置200の動き補償部59と同じ処理し、動き補償部59で得られた予測画像を加算器55へ出力し、ウェーブレット逆変換部53で得られた予測誤差と足し合わされて復号画像DIが生成される。   Based on such a configuration, the operation of the image encoding device 120 shown in FIG. 6 will be described below. The reference image stored in the frame memory 58 is not enlarged to the resolution of the original image, but is stored with the resolution of the LL component at the hierarchical level necessary for the reference image obtained by the wavelet inverse transform unit 53. Before the motion compensation unit 59 performs motion compensation, the reference image enlargement / reduction unit 56 enlarges the reference image to the resolution of the layer level set by the decoded image layer level setting unit 54. The operation of the reference image enlargement / reduction unit 56 is the same as that of the reference image enlargement / reduction unit 56 of the image decoding apparatus 200. Also, the motion compensation unit 59 performs the same processing as the motion compensation unit 59 of the image decoding apparatus 200, outputs the prediction image obtained by the motion compensation unit 59 to the adder 55, and predicts the prediction error obtained by the wavelet inverse transformation unit 53. And the decoded image DI is generated.

また、予測画像は予測画像拡大縮小部62にも送られ、前述の通り予測画像を参照画像に必要な階層レベルの解像度に合うように拡大縮小処理する。予測画像拡大縮小部62で拡大・縮小処理された予測画像は、加算器57に送られ、ウェーブレット逆変換部53で得られた予測誤差と足し合わされた、新たな参照画像が生成される。   The predicted image is also sent to the predicted image enlargement / reduction unit 62, and as described above, the predicted image is enlarged / reduced to match the resolution of the hierarchical level required for the reference image. The predicted image enlarged / reduced by the predicted image enlargement / reduction unit 62 is sent to the adder 57 to generate a new reference image added with the prediction error obtained by the wavelet inverse transform unit 53.

以上、画像符号化装置120及び画像復号装置220に係る構成によれば、参照画像を原画像の解像度まで拡大せずに、低解像度のままフレームメモリ11ないし58に格納する一方、動き予測は原画像の解像度で行い、また動き補償は復号画像の解像度にあわせて行うことができる。すなわち、フレームメモリの容量を少なくできる一方、また動き予測・動き補償は、高い精度で行うことができる。したがって、実施の形態1の効果に加えて、低コストかつ高精度な画像符号化装置、画像復号装を実現することができる。加えて、画像を復号する際に、復号途中で復号画像の階層レベル(すなわち復号画像の解像度)が変更となった場合でも、参照画像は常に同じ解像度の画像がに格納されるため、正しく復号を継続することができる。   As described above, according to the configuration related to the image encoding device 120 and the image decoding device 220, the reference image is stored in the frame memories 11 to 58 at a low resolution without being expanded to the resolution of the original image. It can be performed at the resolution of the image, and motion compensation can be performed according to the resolution of the decoded image. That is, while the capacity of the frame memory can be reduced, the motion prediction / motion compensation can be performed with high accuracy. Therefore, in addition to the effects of the first embodiment, a low-cost and high-accuracy image encoding device and image decoding device can be realized. In addition, when decoding an image, even if the hierarchical level of the decoded image (that is, the resolution of the decoded image) is changed during decoding, the reference image is always stored in the same resolution, so the image is decoded correctly. Can continue.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を以下に示す。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to the combinations of the respective components and processing processes, and such modifications are also within the scope of the present invention. Such a modification is shown below.

上記の実施の形態において、生成した参照画像に対し、フィルタリング処理を施してもよい。このフィルタリング処理は、生成した参照画像をフレームメモリに書き込む前に行ってもよいし、参照画像をフレームメモリから読み出した後に行ってもよい。上記の実施の形態で生成される参照画像は、高周波成分がカットされた画像となるため、参照画像から生成される予測画像と原画像との差分である予測誤差に、多くの高周波成分が含まれる可能性がある。したがって、圧縮効率が落ちる問題がある。そこで、参照画像にフィルタリング処理を施し、エッジ強調などを行うことにより、参照画像の高周波成分を補うことによって、予測誤差の高周波成分を減らし、圧縮効率を上げることができる。   In the above embodiment, filtering processing may be performed on the generated reference image. This filtering process may be performed before the generated reference image is written in the frame memory, or may be performed after the reference image is read from the frame memory. Since the reference image generated in the above embodiment is an image in which high-frequency components are cut, many high-frequency components are included in the prediction error that is the difference between the predicted image generated from the reference image and the original image. There is a possibility. Therefore, there is a problem that the compression efficiency is lowered. Therefore, by performing filtering processing on the reference image and performing edge enhancement or the like, the high-frequency component of the prediction error can be reduced and the compression efficiency can be increased by supplementing the high-frequency component of the reference image.

上記の実施の形態では、変換符号化方式として離散ウェーブレット変換を用いたが、これに限るものではなく、原画像を階層化して変換する方式であれば、本発明の目的を達することができる。例えば、原画像を階層化する方式として、QMF(Quadrature Mirror Filter)などがある。   In the above embodiment, the discrete wavelet transform is used as the transform coding method. However, the present invention is not limited to this, and the object of the present invention can be achieved as long as the original image is layered and transformed. For example, there is a QMF (Quadrature Mirror Filter) as a method for hierarchizing original images.

上記の実施の形態では、参照画像を生成するために必要な画像の階層レベルを符号化画像CIに付加する例を示した。この参照画像を生成するために必要な画像の階層レベルは、参照画像を生成するために必要なウェーブレット逆変換の回数を規定する、と言い換ええることもできる。したがって、符号化画像CIに、参照画像を生成するために必要なウェーブレット逆変換の回数を付加してもよい。画像復号装置では、この回数をもとに参照画像の生成に必要な画像の階層レベルを特定し、ウェーブレット逆変換部53からその階層レベルの画像を取り出して参照画像を生成する。   In the above-described embodiment, an example in which the hierarchical level of an image necessary for generating a reference image is added to the encoded image CI has been described. In other words, the hierarchical level of the image necessary for generating the reference image defines the number of wavelet inverse transformations necessary for generating the reference image. Therefore, the number of wavelet inverse transforms necessary for generating a reference image may be added to the encoded image CI. In the image decoding apparatus, the hierarchical level of the image necessary for generating the reference image is specified based on the number of times, and the hierarchical level image is extracted from the wavelet inverse transform unit 53 to generate the reference image.

上記の実施の形態では、逆変換階層レベル設定部8で参照画像を生成するために必要な階層レベルを設定できるようにしたが、この階層レベルを常にウェーブレット変換部3で階層化した一番深い階層レベルとしてもよい。この場合、ウェーブレット逆変換部7はなくてもよく、逆量子化部6で得られた一番深い階層のLL成分を、参照画像を生成するために使用すればよい。また、符号化部5で参照画像を生成するために必要な階層レベルを付加しなくてもよい。この符号化画像CIを復号する場合は、逆量子化部52で得られた一番深い階層のLL成分を、参照画像を生成するために使用すればよい。   In the above embodiment, the hierarchical level necessary for generating the reference image can be set by the inverse transformation hierarchical level setting unit 8, but this hierarchical level is always the deepest layered by the wavelet transform unit 3. It may be a hierarchical level. In this case, the wavelet inverse transformation unit 7 may not be provided, and the deepest hierarchical LL component obtained by the inverse quantization unit 6 may be used to generate the reference image. Further, it is not necessary to add a hierarchical level necessary for generating a reference image in the encoding unit 5. When decoding this encoded image CI, the deepest LL component obtained by the inverse quantization unit 52 may be used to generate a reference image.

実施の形態1に係る画像符号化装置100の構成図である。1 is a configuration diagram of an image encoding device 100 according to Embodiment 1. FIG. ウェーブレット変換を説明するための図である。It is a figure for demonstrating wavelet transformation. 実施の形態1に係る画像復号装置200の構成図である。1 is a configuration diagram of an image decoding device 200 according to Embodiment 1. FIG. 実施の形態2に係る画像符号化装置110の構成図である。6 is a configuration diagram of an image encoding device 110 according to Embodiment 2. FIG. 実施の形態2に係る画像復号装置210の構成図である。6 is a configuration diagram of an image decoding device 210 according to Embodiment 2. FIG. 実施の形態3に係る画像符号化装置120の構成図である。10 is a configuration diagram of an image encoding device 120 according to Embodiment 3. FIG. 実施の形態3に係る画像復号装置220の構成図である。It is a block diagram of the image decoding apparatus 220 which concerns on Embodiment 3. FIG.

符号の説明Explanation of symbols

2 減算器
3 ウェーブレット変換部
4 量子化部
5 符号化部
6 逆量子化部
7 ウェーブレット逆変換部
8 逆変換階層レベル設定部
9 参照画像拡大部
10 加算器
11 フレームメモリ
12 動き予測部
14 原画像縮小部
15 予測画像拡大部
16 予測画像縮小部
51 復号部
52 逆量子化部
53 ウェーブレット逆変換部
54 復号画像階層レベル設定部
55 加算器
56 参照画像拡大縮小部
57 加算器
58 フレームメモリ
59 動き補償部
61 予測画像拡大縮小部
62 予測画像拡大縮小部
100、110、120 画像符号化装置
200、210、220 画像復号装置
DESCRIPTION OF SYMBOLS 2 Subtractor 3 Wavelet transformation part 4 Quantization part 5 Encoding part 6 Inverse quantization part 7 Wavelet inverse transformation part 8 Inverse transformation hierarchy level setting part 9 Reference image expansion part 10 Adder 11 Frame memory 12 Motion prediction part 14 Original image Reduction unit 15 Prediction image enlargement unit 16 Prediction image reduction unit 51 Decoding unit 52 Inverse quantization unit 53 Inverse wavelet transform unit 54 Decoded image layer level setting unit 55 Adder 56 Reference image enlargement / reduction unit 57 Adder 58 Frame memory 59 Motion compensation Unit 61 Predictive Image Enlargement / Reduction Unit 62 Predictive Image Enlargement / Reduction Unit 100, 110, 120 Image Encoding Device 200, 210, 220 Image Decoding Device

Claims (7)

画像を複数の空間周波数帯域に分割する第1のステップと、
分割された空間周波数帯域のうち任意の周波帯域を、更に複数の空間周波数帯域に分割する第2のステップと、を含み、
前記第1のステップ又は第2のステップによって得られた最も低い周波数帯域成分から参照画像を生成し、前記画像と異なる時間に入力された画像に対して動き予測を行う画像符号化方法。
A first step of dividing the image into a plurality of spatial frequency bands;
A second step of further dividing an arbitrary frequency band of the divided spatial frequency bands into a plurality of spatial frequency bands,
An image encoding method for generating a reference image from the lowest frequency band component obtained in the first step or the second step, and performing motion prediction on an image input at a time different from the image.
前記任意の周波数帯域は、前記分割された空間周波数帯域のうち最も低い周波数帯域であることを特徴とした請求項1又は2に記載の画像符号化方法。 3. The image encoding method according to claim 1, wherein the arbitrary frequency band is a lowest frequency band among the divided spatial frequency bands. 前記動き予測の結果を符号化することを特徴とした請求項1又は2に記載の画像符号化方法。 The image encoding method according to claim 1, wherein the result of motion prediction is encoded. 前記第2のステップは、所定の回数繰り返して行われることを特徴とした請求項1から3のいずれかに記載の画像符号化方法。 The image encoding method according to claim 1, wherein the second step is repeatedly performed a predetermined number of times. 符号化されたデータに対し、前記参照画像を生成した低周波帯域成分がどのステップによって得られたものかを示す情報を付加することを特徴とした請求項1から4のいずれかに記載の画像符号化方法。 The image according to any one of claims 1 to 4, wherein information indicating by which step the low-frequency band component that generated the reference image is obtained is added to the encoded data. Encoding method. 前記参照画像を前記異なる時間に入力された画像と同じ解像度に拡大した上で前記動き予測を行うことを特徴とした請求項1から5のいずれかに記載の画像符号化方法。 6. The image encoding method according to claim 1, wherein the motion prediction is performed after enlarging the reference image to the same resolution as an image input at the different time. 前記異なる時間に入力された画像を前記参照画像と同じ解像度に縮小した上で前記動き予測を行うことを特徴とした請求項1から6のいずれかに記載の画像符号化方法。 The image coding method according to claim 1, wherein the motion prediction is performed after reducing the image input at the different time to the same resolution as the reference image.
JP2004289174A 2004-09-30 2004-09-30 Image encoding method Pending JP2006108811A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004289174A JP2006108811A (en) 2004-09-30 2004-09-30 Image encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004289174A JP2006108811A (en) 2004-09-30 2004-09-30 Image encoding method

Publications (1)

Publication Number Publication Date
JP2006108811A true JP2006108811A (en) 2006-04-20

Family

ID=36378055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004289174A Pending JP2006108811A (en) 2004-09-30 2004-09-30 Image encoding method

Country Status (1)

Country Link
JP (1) JP2006108811A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093377A (en) * 2008-10-03 2010-04-22 Fujitsu Ltd Image prediction apparatus and method, image encoding apparatus, and image decoding apparatus
WO2010095557A1 (en) * 2009-02-19 2010-08-26 ソニー株式会社 Image processing device and method
JPWO2010095556A1 (en) * 2009-02-19 2012-08-23 ソニー株式会社 Image processing apparatus and method
JP2017120979A (en) * 2015-12-28 2017-07-06 Kddi株式会社 Moving picture decoding device, moving picture decoding method, moving picture encoding device, moving picture encoding method and computer-readable recording medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306116B2 (en) 2008-10-03 2012-11-06 Fujitsu Limited Image prediction apparatus and method, image encoding apparatus, and image decoding apparatus
JP2010093377A (en) * 2008-10-03 2010-04-22 Fujitsu Ltd Image prediction apparatus and method, image encoding apparatus, and image decoding apparatus
US9462294B2 (en) 2009-02-19 2016-10-04 Sony Corporation Image processing device and method to enable generation of a prediction image
KR101736015B1 (en) * 2009-02-19 2017-05-15 소니 주식회사 Image processing device and method
JPWO2010095557A1 (en) * 2009-02-19 2012-08-23 ソニー株式会社 Image processing apparatus and method
KR20110129861A (en) * 2009-02-19 2011-12-02 소니 주식회사 Image processing device and method
US8457422B2 (en) 2009-02-19 2013-06-04 Sony Corporation Image processing device and method for generating a prediction image
JP2014195263A (en) * 2009-02-19 2014-10-09 Sony Corp Unit and method for processing image
US8995779B2 (en) 2009-02-19 2015-03-31 Sony Corporation Image processing device and method for generating a prediction image
KR101629993B1 (en) * 2009-02-19 2016-06-13 소니 주식회사 Image decoder device and method, and non-transitory computer-readable medium
WO2010095557A1 (en) * 2009-02-19 2010-08-26 ソニー株式会社 Image processing device and method
JPWO2010095556A1 (en) * 2009-02-19 2012-08-23 ソニー株式会社 Image processing apparatus and method
US10931944B2 (en) 2009-02-19 2021-02-23 Sony Corporation Decoding device and method to generate a prediction image
US10334244B2 (en) 2009-02-19 2019-06-25 Sony Corporation Image processing device and method for generation of prediction image
US9872020B2 (en) 2009-02-19 2018-01-16 Sony Corporation Image processing device and method for generating prediction image
RU2658890C2 (en) * 2009-02-19 2018-06-25 Сони Корпорейшн Device and method for image processing
RU2658891C2 (en) * 2009-02-19 2018-06-25 Сони Корпорейшн Device and method for image processing
CN108464003A (en) * 2015-12-28 2018-08-28 凯迪迪爱通信技术有限公司 Animated image decoding device, animated image coding/decoding method, moving picture encoding equipment, moving picture encoding method and computer readable storage medium
EP3399750A4 (en) * 2015-12-28 2019-01-02 KDDI Corporation Moving image decoding device, moving image decoding method, moving image encoding device, moving image encoding method, and computer-readable recording medium
WO2017115483A1 (en) * 2015-12-28 2017-07-06 Kddi株式会社 Moving image decoding device, moving image decoding method, moving image encoding device, moving image encoding method, and computer-readable recording medium
JP2017120979A (en) * 2015-12-28 2017-07-06 Kddi株式会社 Moving picture decoding device, moving picture decoding method, moving picture encoding device, moving picture encoding method and computer-readable recording medium

Similar Documents

Publication Publication Date Title
TWI436286B (en) Method and apparatus for decoding image
JP4124792B2 (en) Encoding method, decoding method, encoding device, and decoding device
JP4844741B2 (en) Moving picture coding apparatus and moving picture decoding apparatus, method and program thereof
US20080247658A1 (en) Method and apparatus for encoding and decoding image using modification of residual block
JP2007174569A (en) Encoding method
TW202332273A (en) Image coding apparatus, image coding method, and storage media
US20090208122A1 (en) Image coding method and apparatus, and image decoding method and apparatus
JP2008306510A (en) Image coding method, image coding device, image decoding method and image decoding device
JP4835855B2 (en) Apparatus, method and program for moving picture encoding, and apparatus method and program for moving picture decoding
US8279932B2 (en) Information processing apparatus and method
JP2006108811A (en) Image encoding method
JP4559811B2 (en) Information processing apparatus and information processing method
TWI791959B (en) Image decoding device, image decoding method and program
JP2006108795A (en) Image encoding method
Eeckhaut et al. A hardware-friendly wavelet entropy codec for scalable video
JP6793499B2 (en) Image coding device and its control method
TWI803709B (en) Image encoding device, image decoding device, control method and program thereof
TWI795635B (en) Image decoding device, image decoding method and program
JP4667423B2 (en) Image decoding device
JP2011045138A (en) Method for decoding image
JP4667424B2 (en) Image decoding device
JP6792359B2 (en) Image coding device
JP2009194887A (en) Information processor and method, and program
JP2003324742A (en) Image encoding apparatus and image decoding apparatus
JP2006309652A (en) Signal processing method and signal processing device