JP2004343710A - Device and method for decoding moving image - Google Patents

Device and method for decoding moving image Download PDF

Info

Publication number
JP2004343710A
JP2004343710A JP2004073404A JP2004073404A JP2004343710A JP 2004343710 A JP2004343710 A JP 2004343710A JP 2004073404 A JP2004073404 A JP 2004073404A JP 2004073404 A JP2004073404 A JP 2004073404A JP 2004343710 A JP2004343710 A JP 2004343710A
Authority
JP
Japan
Prior art keywords
decoding
bit plane
sub
bit
processing time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004073404A
Other languages
Japanese (ja)
Inventor
Hiroshi Kajiwara
浩 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004073404A priority Critical patent/JP2004343710A/en
Priority to US10/823,612 priority patent/US7903734B2/en
Publication of JP2004343710A publication Critical patent/JP2004343710A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an excellent reproduction image quality with almost no visual disturbance by efficiently decoding all of or a part of moving image encoding data corresponding to the processing capability of a moving image decoder. <P>SOLUTION: The moving image decoder is so constituted that each frame of the moving image data is disassembled to a plurality of subbands and the moving image encoding data, which are generated by bit-plane-encoding the coefficient of the subband for each prescribed unit, are decoded. It is provided with a decoding processing time measurement part (105), which acquires the information for determining the magnitude of the difference between the times required for the decoding processing of the moving image encoding data at the prescribed unit, an undecoding bit plane decision part (107) for deciding the bit plane to be undecoded on the basis of the acquired information, a bit plane decoding part, which restores the coefficient of the subband from the encoding data other than the bit plane to be undecoded at the prescribed unit, and an inverse discrete wavelet converting part (104) which composites the restored coefficient of the subband and generates the frame data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、各フレームが独立に符号化された動画像データから、その全部または一部を復号して再生画像を得る動画像復号装置、及び方法、及びこの方法を実現するプログラム、及びこのプログラムを記憶する記憶媒体に関するものである。   The present invention relates to a moving image decoding apparatus and method for obtaining a reproduced image by decoding all or a part of moving image data in which each frame is independently encoded, a program realizing the method, and a program And a storage medium for storing.

一般に、動画像データの符号化方式は、フレーム間の相関を利用するものとしないものとに大別することができる。それぞれの方式には長所及び短所が存在し、どちらの方式が適しているかということは使用するアプリケーションに依存する。例えば、Motion JPEGは、動画像データの各フレームを一枚の静止画像としてとらえて独立に符号化する方式であり、フレーム間の相関を用いない符号化方式の一例である。フレーム毎に独立に符号化することによって、動画像の分割、連結、部分的な書き換えなどの動画編集が容易であることや、復号側の処理能力に応じて復号フレーム数を選択して復号することが可能であるという利点がある。   In general, moving image data encoding methods can be broadly classified into those that use correlation between frames and those that do not. Each method has advantages and disadvantages, and which method is suitable depends on the application used. For example, Motion JPEG is a method in which each frame of moving image data is treated as one still image and independently encoded, and is an example of an encoding method that does not use correlation between frames. Independent encoding for each frame facilitates moving image editing such as division, concatenation, and partial rewriting of moving images, and selects and decodes the number of decoding frames according to the processing capacity of the decoding side. There is an advantage that it is possible.

近年、動画像データをフレーム毎に独立に符号化する符号化方式において、各フレームをウェーブレット変換とビットプレーン符号化とを組み合わせて符号化する方式が注目を集めている。このような動画像符号化方式には、ウェーブレット変換におけるサブバンド分解の仕組みを利用して空間解像度を段階的に変えた復号が可能であること、また、復号ビットプレーン数を変えることにより、復号画素精度を段階的に変更することが可能である等の大きな特徴がある。   2. Description of the Related Art In recent years, in an encoding method for independently encoding moving image data for each frame, a method of encoding each frame by combining wavelet transform and bit plane encoding has attracted attention. Such a moving picture coding method can perform decoding by changing the spatial resolution step by step using the mechanism of subband decomposition in the wavelet transform, and can also perform decoding by changing the number of decoding bit planes. There is a great feature that the pixel accuracy can be changed step by step.

ISO/IEC JTC1/SC29/WG1で標準化作業が進められている画像符号化方式であるJPEG2000(ISO/IEC 15444)もウェーブレット変換とビットプレーン符号化との組み合わせにより構成されている。同標準のPart3では、Motion JPEG2000の名称で、動画像の各フレームの符号化にJPEG2000を適用した場合のファイルフォーマットを規定している。   JPEG2000 (ISO / IEC 15444), which is an image coding system whose standardization is being advanced in ISO / IEC JTC1 / SC29 / WG1, is also configured by a combination of wavelet transform and bit plane coding. Part 3 of the standard defines a file format when JPEG2000 is applied to encoding of each frame of a moving image under the name of Motion JPEG2000.

Motion JPEG2000に代表されるこのような動画像符号化方式は、前述のように復号解像度、復号画素精度の柔軟性といった利点がある一方で、ビットプレーン符号化による符号化・復号処理の負荷が高いという欠点がある。特に、専用の動画像記録装置で記録した映像をパーソナルコンピュータで再生する場合に、コンピュータの性能によっては、全データを実時間で復号・表示することはできないという問題が起こる。   Such a moving picture coding method represented by Motion JPEG2000 has advantages such as flexibility of decoding resolution and decoding pixel precision as described above, but has a high load of coding / decoding processing by bit plane coding. There is a disadvantage that. In particular, when a video recorded by a dedicated moving picture recording device is reproduced by a personal computer, there is a problem that all data cannot be decoded and displayed in real time depending on the performance of the computer.

このような問題に対して、フレームを復号するのに所望の復号処理時間を定めて符号化処理単位に復号処理時間を割り振り、割り振られた復号処理時間内でビットプレーン単位に復号する方法が開示されている(例えば、特許文献1参照)。   With respect to such a problem, there is disclosed a method of determining a desired decoding processing time for decoding a frame, allocating a decoding processing time to an encoding processing unit, and decoding in bit plane units within the allocated decoding processing time. (For example, see Patent Document 1).

特開平11−288307号公報JP-A-11-288307

しかしながら、特許文献1に開示されるような所定の時間で復号処理を打ち切る動画像復号装置では、フレーム毎に復号処理打ち切りのポイント(復号ビットプレーン数)が変化しやすいため、動画像として再生した場合に歪みの形状の時間変化を生じ、これがフリッカー(ちらつき)として視覚上の妨害要因となるという問題がある。   However, in a moving picture decoding apparatus that terminates the decoding processing at a predetermined time as disclosed in Patent Document 1, the point at which the decoding processing is terminated (the number of decoding bit planes) is likely to change for each frame, and thus the moving picture is reproduced as a moving picture. In such a case, there is a problem that a temporal change in the shape of the distortion occurs, which causes visual disturbance as flicker.

本発明は上記問題点を鑑みてなされたものであり、動画像符号化データの全部または一部を、動画像復号装置の処理能力に応じて効率良く復号し、視覚的な妨害の少ない良好な再生画質を得ることができる動画像復号装置並びに方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and efficiently or efficiently decodes all or a part of encoded video data in accordance with the processing capability of a video decoding device. It is an object of the present invention to provide a moving image decoding apparatus and method capable of obtaining a reproduction image quality.

上記目的を達成するために、動画像データの各フレームを複数のサブバンドに分解し、サブバンドの係数を所定単位毎に上位のビットから下位のビットへとビットプレーン、またはサブビットプレーン単位で符号化して生成された動画像符号化データを復号する、本発明の動画像復号装置は、前記所定単位の動画像符号化データの復号処理に割り当てられた時間と実際の復号処理にかかった時間の差の大小を判定するための情報を取得する復号処理時間情報取得手段と、前記復号処理時間情報取得手段により得られる情報に基づいて、復号しないビットプレーン、またはサブビットプレーンを決定する非復号ビットプレーン決定手段と、前記非復号ビットプレーン決定手段により決定されたビットプレーン、またはサブビットプレーン以外の符号化データから、サブバンドの係数を前記所定単位で復元するビットプレーン復号手段と、前記ビットプレーン復号手段により得られた前記複数のサブバンドの係数を合成し、フレームデータを生成するサブバンド合成手段とを備えることを特徴とする。   In order to achieve the above object, each frame of the moving image data is decomposed into a plurality of sub-bands, and the sub-band coefficients are converted from a higher-order bit to a lower-order bit for each predetermined unit in a bit plane or a sub bit plane unit. The video decoding apparatus of the present invention, which decodes the encoded video data generated by encoding, comprises a time allocated to a decoding process of the predetermined unit of video encoded data and a time required for an actual decoding process. Decoding processing time information obtaining means for obtaining information for determining the magnitude of the difference between the non-decoding and non-decoding bit planes or sub-bit planes to be determined based on the information obtained by the decoding processing time information obtaining means. A bit plane determined by the non-decoded bit plane determining means, Bit plane decoding means for restoring sub band coefficients in predetermined units from encoded data, and sub band synthesis for synthesizing the plurality of sub band coefficients obtained by the bit plane decoding means to generate frame data Means.

また、動画像データの各フレームを複数のサブバンドに分解し、サブバンドの係数を所定単位毎に上位のビットから下位のビットへとビットプレーン、またはサブビットプレーン単位で符号化して生成された動画像符号化データを復号する、本発明の動画像復号方法は、前記所定単位の動画像符号化データの復号処理に割り当てられた時間と実際の復号処理にかかった時間の差の大小を判定するための情報を取得する復号処理時間情報取得工程と、前記復号処理時間情報取得工程により得られる情報に基づいて、復号しないビットプレーン、またはサブビットプレーンを決定する非復号ビットプレーン決定工程と、前記非復号ビットプレーン決定工程により決定されたビットプレーン、またはサブビットプレーン以外の符号化データから、サブバンドの係数を前記所定単位で復元するビットプレーン復号工程と、前記ビットプレーン復号工程により得られた前記複数のサブバンドの係数を合成し、フレームデータを生成するサブバンド合成工程とを備えることを特徴とする。   Further, each frame of the moving image data is decomposed into a plurality of sub-bands, and the coefficients of the sub-bands are generated by encoding the bits of the sub-band from the upper bits to the lower bits for each predetermined unit in bit plane or sub-bit plane units. The moving picture decoding method of the present invention for decoding moving picture encoded data determines a magnitude of a difference between a time allocated to decoding processing of the predetermined unit of moving picture encoded data and a time required for actual decoding processing. Decoding processing time information obtaining step of obtaining information to perform, based on the information obtained by the decoding processing time information obtaining step, a non-decoding bit plane, or a non-decoding bit plane determining step of determining a sub bit plane, From encoded data other than the bit plane or sub-bit plane determined in the non-decoding bit plane determining step, A bit plane decoding step of restoring band coefficients in the predetermined unit; and a subband combining step of combining the coefficients of the plurality of subbands obtained in the bitplane decoding step to generate frame data. Features.

本発明によれば、動画像符号化データの全部または一部を、動画像復号装置の処理能力に応じて効率良く復号し、視覚的な妨害の少ない良好な再生画質を得ることができる。   According to the present invention, it is possible to efficiently decode all or a part of encoded video data in accordance with the processing capability of the video decoding device and obtain good reproduction image quality with little visual interference.

以下、添付図面を参照して本発明の好適な実施の形態を詳細に説明する。ただし、本実施の形態において例示される構成部品の寸法、材質、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the dimensions, materials, shapes, relative arrangements, and the like of the components exemplified in the present embodiment should be appropriately changed depending on the configuration of the apparatus to which the present invention is applied and various conditions. Is not limited to those examples.

<動画像符号化データの概略>
まず、本実施の形態における動画像復号装置で復号する対象となる動画像符号化データについて説明する。
<Outline of encoded video data>
First, moving picture coded data to be decoded by the moving picture decoding apparatus according to the present embodiment will be described.

図1は、本実施の形態の動画像復号装置で復号する対象となる動画像符号化データを生成する動画像符号化装置200の構成を示す図である。動画像符号化装置200ではウェーブレット変換とビットプレーン符号化とを組み合わせた符号化方式により、動画像を構成する各フレームを独立に符号化するものである。図1に示すように、動画像データ入力部201、離散ウェーブレット変換部202、係数量子化部203、ビットプレーン符号化部204、符号列形成部205及び2次記憶装置206、信号線207を備えている。   FIG. 1 is a diagram illustrating a configuration of a moving picture encoding apparatus 200 that generates encoded moving picture data to be decoded by the moving picture decoding apparatus according to the present embodiment. In the moving picture coding apparatus 200, each frame constituting a moving picture is independently coded by a coding method combining wavelet transform and bit plane coding. As shown in FIG. 1, a moving image data input unit 201, a discrete wavelet transform unit 202, a coefficient quantization unit 203, a bit plane encoding unit 204, a code string forming unit 205, a secondary storage device 206, and a signal line 207 are provided. ing.

次に、図1に示す動画像符号化装置200の各構成要素の動作を説明しながら、動画像符号化装置200における符号化処理の流れについて説明する。尚、ここでは、1秒あたり30フレームのレートで、1画素の輝度値が8ビットのモノクロ動画像データが4秒分(合計120フレーム)、動画像符号化装置200に取り込まれ、符号化されるものとして説明する。すなわち、動画像符号化装置200では、動画像データ入力部201から入力される1秒あたり30フレームの動画像データをフレーム単位に符号化し、最終的に2次記憶装置206に符号化データを格納するものである。   Next, the flow of the encoding process in the video encoding device 200 will be described while describing the operation of each component of the video encoding device 200 shown in FIG. Here, at a rate of 30 frames per second, monochrome moving image data of which the luminance value of one pixel is 8 bits is taken into the moving image encoding device 200 for 4 seconds (total of 120 frames) and encoded. It will be described as what is. That is, in the moving picture coding apparatus 200, the moving picture data of 30 frames per second inputted from the moving picture data input unit 201 is coded in frame units, and the coded data is finally stored in the secondary storage device 206. Is what you do.

まず、動画像データ入力部201から1秒あたり30フレームのレートで、4秒分の動画像データが入力される。動画像データ入力部201は、例えばディジタルカメラ等の撮像部分であって、CCD等の撮像デバイスとガンマ補正、シェーディング補正等の各種画像調整回路とによって実現することが可能である。動画像データ入力部201は、入力された動画像データを1フレームずつ離散ウェーブレット変換部202に送る。尚、以降の説明において、便宜上各フレームデータには、入力された順に1から番号を与えて、例えばフレーム1、フレーム2、…というような番号で各フレームを識別するようにする。また、各フレームにおける水平方向の画素位置(座標)をx、垂直方向の画素位置をyとし、画素位置(x,y)の画素値をP(x,y)で表す。   First, moving image data for 4 seconds is input from the moving image data input unit 201 at a rate of 30 frames per second. The moving image data input unit 201 is, for example, an imaging unit such as a digital camera, and can be realized by an imaging device such as a CCD and various image adjustment circuits such as gamma correction and shading correction. The moving image data input unit 201 sends the input moving image data to the discrete wavelet transform unit 202 frame by frame. In the following description, for convenience, each frame data is given a number from 1 in the order of input, and each frame data is identified by a number such as, for example, frame 1, frame 2,. In each frame, the horizontal pixel position (coordinate) is x, the vertical pixel position is y, and the pixel value at the pixel position (x, y) is represented by P (x, y).

動画像データ入力部201から入力した1フレームの画像データは、離散ウェーブレット変換部202でそれぞれ不図示の内部バッファに適宜格納され、2次元離散ウェーブレット変換が行われる。2次元離散ウェーブレット変換は、1次元の離散ウェーブレット変換を水平及び垂直方向それぞれに適用することにより実現するものである。図2は、2次元離散ウェーブレット変換によって処理される符号化対象画像のサブバンドを説明するための概念図である。   One frame of image data input from the moving image data input unit 201 is appropriately stored in an internal buffer (not shown) by the discrete wavelet transform unit 202, and two-dimensional discrete wavelet transform is performed. The two-dimensional discrete wavelet transform is realized by applying a one-dimensional discrete wavelet transform to each of the horizontal and vertical directions. FIG. 2 is a conceptual diagram for explaining subbands of an encoding target image processed by two-dimensional discrete wavelet transform.

すなわち、図2(a)に示されるような符号化対象画像に対して、まず垂直方向に1次元離散ウェーブレット変換を適用し、図2(b)に示すように低周波サブバンドLと高周波サブバンドHとに分解する。次に、それぞれのサブバンドに対して水平方向の1次元離散ウェーブレット変換を適用することにより、図2(c)に示すようなLL、HL、LH、HHの4つのサブバンドに分解する。   That is, a one-dimensional discrete wavelet transform is first applied in the vertical direction to the image to be encoded as shown in FIG. 2A, and the low-frequency sub-band L and the high-frequency sub-band L are applied as shown in FIG. Decomposes into band H. Next, by applying a one-dimensional horizontal discrete wavelet transform to each subband, the subbands are decomposed into four subbands LL, HL, LH, and HH as shown in FIG. 2C.

動画像符号化装置200の離散ウェーブレット変換部202では、上述した2次元離散ウェーブレット変換により得られたサブバンドLLに対して、さらに繰り返し2次元離散ウェーブレット変換を適用する。これによって、符号化対象画像をLL、LH1、HL1、HH1、LH2、HL2、HH2の7つのサブバンドに分解することができる。図3は、2回の2次元離散ウェーブレット変換によって得られる7つのサブバンドを示す図である。   The discrete wavelet transform unit 202 of the video encoding device 200 further repeatedly applies a two-dimensional discrete wavelet transform to the sub-band LL obtained by the above-described two-dimensional discrete wavelet transform. As a result, the encoding target image can be decomposed into seven subbands LL, LH1, HL1, HH1, LH2, HL2, and HH2. FIG. 3 is a diagram illustrating seven sub-bands obtained by two two-dimensional discrete wavelet transforms.

尚、動画像符号化装置200では、各サブバンド内の係数をC(Sb,x,y)と表す。ここで、Sbはサブバンドの種類を表し、LL、LH1、HL1、HH1、LH2、HL2、HH2のいずれかである。また、(x,y)は各サブバンド内の左上隅の係数位置を(0,0)としたときの水平方向及び垂直方向の係数位置(座標)を表す。   In the moving picture coding apparatus 200, the coefficient in each subband is represented as C (Sb, x, y). Here, Sb represents the type of subband, and is one of LL, LH1, HL1, HH1, LH2, HL2, and HH2. (X, y) represents coefficient positions (coordinates) in the horizontal and vertical directions when the coefficient position at the upper left corner in each subband is (0, 0).

動画像符号化装置200は、離散ウェーブレット変換部202におけるN個の1次元信号s(n)(但し、nは0〜N−1の整数)に対する1次元離散ウェーブレット変換として2つの方法を備える。一つは式(1)、(2)に示す整数型5×3フィルタによる変換であり、もう一つは式(3)、(4)に示す実数型5×3フィルタによる変換である。   The moving image coding apparatus 200 includes two methods as a one-dimensional discrete wavelet transform for N one-dimensional signals s (n) (where n is an integer of 0 to N−1) in the discrete wavelet transform unit 202. One is conversion using an integer type 5 × 3 filter shown in equations (1) and (2), and the other is conversion using a real number type 5 × 3 filter shown in equations (3) and (4).

h(n)=s(2n+1)
−floor{(s(2n)+s(2n+2))/2} …(1)
h (n) = s (2n + 1)
−floor {(s (2n) + s (2n + 2)) / 2} (1)

l(n)=s(2n)
+floor{(h(n−1)+h(n)+2)/4} …(2)
l (n) = s (2n)
+ Floor {(h (n-1) + h (n) +2) / 4} (2)

h(n)=s(2n+1)−(s(2n)+s(2n+2))/2 …(3)   h (n) = s (2n + 1)-(s (2n) + s (2n + 2)) / 2 (3)

l(n)=s(2n)+(h(n−1)+h(n))/4 …(4)   l (n) = s (2n) + (h (n-1) + h (n)) / 4 (4)

但し、h(n)は高周波サブバンドの係数、l(n)は低周波サブバンドの係数、floor{R}は実数Rを超えない最大の整数値を表す。尚、式(1)、(2)及び式(3)、(4)の計算において必要となる1次元信号s(n)の両端(n<0及びn>N−1)におけるs(n)は、公知の方法により1次元信号s(n)(n=0〜N−1)の値から求めておく。   Here, h (n) is a coefficient of the high frequency sub-band, l (n) is a coefficient of the low frequency sub-band, and floor {R} is a maximum integer value not exceeding the real number R. In addition, s (n) at both ends (n <0 and n> N-1) of the one-dimensional signal s (n) required in the calculation of the equations (1) and (2) and the equations (3) and (4). Is obtained from the value of the one-dimensional signal s (n) (n = 0 to N-1) by a known method.

整数型5×3フィルタと実数型5×3フィルタのいずれを適用するかは、信号線207を介して装置外部から入力されるフィルタ選択信号によって、フレーム単位に指定することができる。例えば、信号線207から入力されるフィルタ選択信号が「0」である場合、着目するフレームを整数型5×3フィルタによって分解し、フィルタ選択信号が「1」である場合、着目するフレームを実数型5×3フィルタによって分解するといった具合である。   Which of the integer type 5 × 3 filter and the real type 5 × 3 filter is to be applied can be designated in frame units by a filter selection signal input from outside the device via the signal line 207. For example, when the filter selection signal input from the signal line 207 is “0”, the frame of interest is decomposed by an integer 5 × 3 filter, and when the filter selection signal is “1”, the frame of interest is a real number. Decomposition is performed by a type 5 × 3 filter.

係数量子化部203では、離散ウェーブレット変換部202で生成された各サブバンドの係数C(Sb,x,y)を、各サブバンド毎に定めた量子化ステップdelta(Sb)を用いて量子化する。ここで、量子化された係数値をQ(Sb,x,y)と表す場合、係数量子化部203で行われる量子化処理は式(5)により表すことができる。   The coefficient quantization unit 203 quantizes the coefficient C (Sb, x, y) of each subband generated by the discrete wavelet transform unit 202 using a quantization step delta (Sb) determined for each subband. I do. Here, when the quantized coefficient value is represented as Q (Sb, x, y), the quantization process performed by the coefficient quantization unit 203 can be represented by Expression (5).

Q(Sb,x,y)=sign{C(Sb,x,y)}
×floor{|C(Sb,x,y)|/delta(Sb)}…(5)
Q (Sb, x, y) = sign {C (Sb, x, y)}
× floor {| C (Sb, x, y) | / delta (Sb)} (5)

ここで、sign{I}は整数Iの正負符号を表す関数であり、Iが正の場合は1を、負の場合は−1を返す。また、floor{R}は実数Rを超えない最大の整数値を表す。但し、上述の量子化処理は離散ウェーブレット変換部202において実数型5×3フィルタが選択され、使用された場合にのみ適用されるものであり、信号線207から入力されるフィルタ選択信号により整数型5×3フィルタが選択されている場合には係数C(Sb,x,y)を量子化された係数値として出力する。即ちこの場合、Q(Sb,x,y)=C(Sb,x,y)となる。   Here, sign {I} is a function representing the sign of the integer I, and returns 1 if I is positive and -1 if I is negative. Floor {R} represents the maximum integer value not exceeding the real number R. However, the above-described quantization processing is applied only when a real type 5 × 3 filter is selected and used in the discrete wavelet transform unit 202, and is applied to an integer type by a filter selection signal input from a signal line 207. When the 5 × 3 filter is selected, the coefficient C (Sb, x, y) is output as a quantized coefficient value. That is, in this case, Q (Sb, x, y) = C (Sb, x, y).

ビットプレーン符号化部204は、係数量子化部203において量子化された係数値Q(Sb,x,y)を符号化する。尚、各サブバンドの係数をブロック分割し、別々に符号化することによりランダムアクセスを容易にする方法など、符号化手法として様々な手法が提案されているが、ここでは説明を簡単にするためにサブバンド単位で符号化することとする。   The bit plane encoding unit 204 encodes the coefficient value Q (Sb, x, y) quantized by the coefficient quantization unit 203. Note that various methods have been proposed as encoding methods, such as a method of facilitating random access by dividing the coefficients of each subband into blocks and separately encoding the coefficients, but in order to simplify the description, To be encoded in subband units.

各サブバンドの量子化された係数値Q(Sb,x,y)(以降、単に「係数値」と称す。)の符号化は、サブバンド内の係数値Q(Sb,x,y)の絶対値を自然2進数で表現し、上位の桁から下位の桁へとビットプレーン方向を優先して二値算術符号化することにより行われる。各サブバンドの係数値Q(Sb,x,y)を自然2進表記した場合の下からn桁目のビットをQn(x,y)と表記して説明する。尚、2進数の桁を表す変数nをビットプレーン番号と呼ぶこととし、ビットプレーン番号nはLSB(最下位ビット)を0桁目とする。
図4は、ビットプレーン符号化部204でサブバンドSbを符号化する処理手順を説明するためのフローチャートである。図4に示すように、まず、符号化対象となるサブバンドSb内の係数の絶対値を調べ、その最大値Mabs(Sb)を求める(ステップS601)。次に、サブバンドSb内の係数の絶対値を表すためにMabs(Sb)を2進数で表現する場合に必要となる桁数NBP(Sb)を式(6)を用いて求める(ステップS602)。
Coding of the quantized coefficient value Q (Sb, x, y) of each subband (hereinafter, simply referred to as “coefficient value”) is performed by encoding the coefficient value Q (Sb, x, y) in the subband. This is performed by expressing the absolute value in a natural binary number and performing binary arithmetic coding with priority on the bit plane direction from the upper digit to the lower digit. A description will be given by describing the n-th bit from the bottom in the case where the coefficient value Q (Sb, x, y) of each subband is expressed in natural binary notation as Qn (x, y). Note that a variable n representing a digit of a binary number is referred to as a bit plane number, and the bit plane number n has an LSB (least significant bit) as the 0th digit.
FIG. 4 is a flowchart illustrating a processing procedure for encoding subband Sb in bit plane encoding section 204. As shown in FIG. 4, first, the absolute value of the coefficient in the subband Sb to be encoded is checked, and the maximum value Mabs (Sb) is obtained (step S601). Next, the number of digits N BP (Sb) required when Mabs (Sb) is represented by a binary number in order to represent the absolute value of the coefficient in the sub-band Sb is obtained using Expression (6) (Step S602). ).

BP(Sb)=ceil{log2(Mabs(Sb)+1)} …(6) N BP (Sb) = ceil {log2 (Mabs (Sb) +1)} (6)

但し、ceil{R}は実数Rに等しい、又はそれ以上の最小の整数値を表すものとする。   Note that ceil {R} represents the smallest integer value equal to or greater than the real number R.

次に、ビットプレーン番号nに有効桁数NBP(Sb)を代入する(ステップS603)。そして、ビットプレーン番号nから1を引いてn−1を求めてnに代入する(ステップS604)。 Next, the number of significant digits N BP (Sb) is substituted for the bit plane number n (step S603). Then, 1 is subtracted from the bit plane number n to obtain n-1 and substitute for n (step S604).

さらに、n桁目のビットプレーンを二値算術符号を用いて符号化する(ステップS605)。ビットプレーン内の各ビットを符号化する際には、符号化済みの情報からいくつかの状態(コンテクスト)に分類し、それぞれ異なる出現確率予測モデルで符号化する。動画像符号化装置200においては、使用する算術符号としてMQ−Coderを用いる。このMQ−Coderを用いて、ある状態(コンテクスト)で発生した二値シンボルを符号化する手順、或いは、算術符号化処理のための初期化手順、終端手順については、静止画像の国際標準ISO/IEC15444−1勧告等に詳細に説明されているのでここでは説明を省略する。   Further, the n-th bit plane is encoded using a binary arithmetic code (step S605). When each bit in the bit plane is encoded, it is classified into several states (contexts) from the encoded information, and is encoded using different appearance probability prediction models. The moving picture coding apparatus 200 uses MQ-Coder as an arithmetic code to be used. A procedure for encoding a binary symbol generated in a certain state (context) using the MQ-Coder, or an initialization procedure and an end procedure for arithmetic encoding processing, are described in International Standard ISO / ISO for Still Images. Since it is described in detail in the IEC15444-1 recommendation and the like, the description is omitted here.

また、動画像符号化装置200では、各ビットプレーンの符号化の開始時に算術符号化器を初期化し、終了時に算術符号化器の終端処理を行うものとする。また、個々の係数の最初に符号化される「1」の直後に、その係数の正負符号を0、1で表し、算術符号化する。ここでは、正の場合は0、負の場合は1とする。例えば、係数が−5で、この係数の属するサブバンドSbの有効桁数NBP(Sb)が6の場合、係数の絶対値は2進数000101で表され、各ビットプレーンの符号化により上位桁から下位桁へと符号化される。そして、2番目のビットプレーンの符号化時(この場合、上から4桁目)に最初の「1」が符号化され、この直後に正負符号「1」を算術符号化する。 Also, in the moving picture coding apparatus 200, the arithmetic coder is initialized at the start of coding of each bit plane, and termination processing of the arithmetic coder is performed at the end. Immediately after "1" which is coded at the beginning of each coefficient, the sign of the coefficient is represented by 0 or 1, and arithmetically coded. Here, the value is 0 for a positive value and 1 for a negative value. For example, when the coefficient is −5 and the number of significant digits N BP (Sb) of the subband Sb to which the coefficient belongs is 6, the absolute value of the coefficient is represented by a binary number 00001, and the upper digit is obtained by encoding each bit plane. To the lower digit. Then, at the time of encoding the second bit plane (in this case, the fourth digit from the top), the first “1” is encoded, and immediately after that, the sign “1” is arithmetically encoded.

次に、ビットプレーン番号nが0であるか否かを判定する(ステップS606)。その結果、nが0、すなわちステップS605においてLSBプレーンの符号化を行った場合(YES)、サブバンドSbの符号化処理を終了する。また、それ以外の場合(NO)、ステップS604に処理を移す。   Next, it is determined whether the bit plane number n is 0 (step S606). As a result, if n is 0, that is, if encoding of the LSB plane has been performed in step S605 (YES), the encoding process of the subband Sb ends. Otherwise (NO), the process moves to step S604.

上述した処理によって、サブバンドSbの全係数を符号化することができ、各ビットプレーンnに対応する符号列CS(Sb,n)を生成する。生成した符号列CS(Sb,n)は、符号列形成部205に送られ、符号列形成部205内の不図示のバッファに一時的に格納される。   By the above-described processing, all the coefficients of the sub-band Sb can be encoded, and a code string CS (Sb, n) corresponding to each bit plane n is generated. The generated code sequence CS (Sb, n) is sent to the code sequence forming unit 205, and is temporarily stored in a buffer (not shown) in the code sequence forming unit 205.

符号列形成部205では、ビットプレーン符号化部204により全サブバンドの係数の符号化が終了して全符号列が内部バッファに格納されると、所定の順序で内部バッファに格納された符号列を読み出す。そして、必要な付加情報を挿入して、1枚のフレームに対応する符号列を形成し、2次記憶装置206へと出力する。   In the code sequence forming unit 205, when the encoding of the coefficients of all the subbands is completed by the bit plane coding unit 204 and all the code sequences are stored in the internal buffer, the code sequences stored in the internal buffer in a predetermined order Read out. Then, necessary additional information is inserted to form a code string corresponding to one frame and output to the secondary storage device 206.

符号列形成部205で生成される最終的な符号列は、ヘッダと、レベル0、レベル1及びレベル2の3つに階層化された符号化データとにより構成される。ヘッダには画像の水平方向、垂直方向の画素数や、2次元離散ウェーブレット変換の適用回数、選択されたフィルタを指定する情報、各サブバンドの量子化ステップdelta(Sb)など、復号に必要となる付加情報が格納される。   The final code string generated by the code string forming unit 205 includes a header and coded data hierarchized into three levels: level 0, level 1, and level 2. The header includes information such as the number of pixels in the horizontal and vertical directions of the image, the number of applications of the two-dimensional discrete wavelet transform, information specifying the selected filter, and the quantization step delta (Sb) of each subband. Is stored.

レベル0の符号化データは、サブバンドLLの係数を符号化して得られるCS(LL,NBP(LL)−1)からCS(LL,0)の符号列で構成される。また、レベル1は、LH1、HL1、HH1の各サブバンドの係数を符号化して得られる符号列CS(LH1,NBP(LH1)−1)からCS(LH1,0)、CS(HL1,NBP(HL1)−1)からCS(HL1,0)、及びCS(HH1,NBP(HH1)−1)からCS(HH1,0)で構成される。さらに、レベル2は、LH2、HL2、HH2の各サブバンドの係数を符号化して得られる符号列CS(LH2,NBP(LH2)−1)からCS(LH2,0)、CS(HL2,NBP(HL2)−1)からCS(HL2,0)、及びCS(HH2,NBP(HH2)−1)からCS(HH2,0)で構成される。 The coded data of level 0 is composed of a code string of CS (LL, NBP (LL) -1) to CS (LL, 0) obtained by coding the coefficients of the subband LL. The level 1 is, LH1, HL1, encodes the coefficients of each subband HH1 code string obtained by CS from (LH1, N BP (LH1) -1) CS (LH1,0), CS (HL1, N BP (HL1) -1) from CS (HL1,0), and CS (HH1, N BP (HH1 ) consists -1) with CS (HH1,0). Furthermore, level 2, LH2, HL2, encodes the coefficients of each subband HH2 code string obtained by CS from (LH2, N BP (LH2) -1) CS (LH2,0), CS (HL2, N BP (HL2) -1) from CS (HL2,0), and CS (HH2, N BP (HH2 ) consists -1) with CS (HH2,0).

図5は、符号列形成部205において生成される1枚のフレームデータに対応する符号列の細部構造を示す図である。   FIG. 5 is a diagram illustrating a detailed structure of a code string corresponding to one frame data generated by the code string forming unit 205.

図5に示すように構成された符号列は、復号側でヘッダとレベル0の符号化データを復号することにより元の1/4の解像度の復元画像を得ることができる。また、レベル1の符号化データを加えて復号することにより元の1/2の解像度の復元画像を得ることができる。さらに、レベル2の符号化データまで加えて復号した場合には、元の解像度の復元画像を得ることができるというように、徐々に解像度を上げて画像を復号することができる。   In the code string configured as shown in FIG. 5, a decoded image having the original quarter resolution can be obtained by decoding the header and the coded data of level 0 on the decoding side. Further, by adding and decoding the level 1 encoded data, a restored image having the original 1/2 resolution can be obtained. Furthermore, when decoding is performed in addition to the encoded data of level 2, it is possible to decode the image by gradually increasing the resolution so that a restored image of the original resolution can be obtained.

一方、各レベルのビットプレーン符号化データの、上位のいくつかのビットプレーンのみを復号した場合には荒い復号画像を、下位のビットプレーンへと復号対象を増やしていった場合には、徐々に精度を上げて各サブバンドの変換係数を復元することができ、復号画質を向上させることが可能となる。   On the other hand, when only some upper bit planes of the bit plane encoded data of each level are decoded, a coarse decoded image is gradually decoded. The transform coefficients of each subband can be restored with higher accuracy, and the decoded image quality can be improved.

2次記憶装置206は、例えば、ハードディスクやメモリといった記憶装置であり、符号列形成部205で生成された符号列を内部に格納する。2次記憶装置206では符号列形成部205から出力される各フレームの符号列が連結され、動画像データの符号化データが構成される。図6は2次記憶装置206に格納される動画像符号化データの構造を示すものである。先頭のヘッダには動画像としての付加情報、例えば、フレーム数や、再生フレームレートなどが格納される。   The secondary storage device 206 is, for example, a storage device such as a hard disk or a memory, and stores therein the code string generated by the code string forming unit 205. In the secondary storage device 206, the code strings of the respective frames output from the code string forming unit 205 are connected to form encoded data of moving image data. FIG. 6 shows the structure of the encoded video data stored in the secondary storage device 206. In the first header, additional information as a moving image, for example, the number of frames, a reproduction frame rate, and the like are stored.

<第1の実施形態>
図7は、本発明の第1の実施形態に係る動画像復号装置100の構成を示すブロック図である。前述の動画像符号化装置200と共通するブロックについては同じ参照番号を用いる。図7に示すように、第1の実施形態に係る動画像復号装置100は、2次記憶装置206、符号列読み出し部101、ビットプレーン復号部102、逆離散ウェーブレット変換部104、動画像データ出力部105、復号処理時間計測部106、非復号ビットプレーン決定部107とを備える。
<First embodiment>
FIG. 7 is a block diagram illustrating a configuration of the video decoding device 100 according to the first embodiment of the present invention. The same reference numerals are used for blocks common to the above-described video encoding device 200. As shown in FIG. 7, the moving image decoding apparatus 100 according to the first embodiment includes a secondary storage device 206, a code string reading unit 101, a bit plane decoding unit 102, an inverse discrete wavelet transform unit 104, and a moving image data output. A decoding unit 105, a decoding processing time measuring unit 106, and a non-decoding bit plane determining unit 107.

以下、図7を参照して、第1の実施形態の動画像復号装置100の動作手順について説明する。   Hereinafter, an operation procedure of the video decoding device 100 according to the first embodiment will be described with reference to FIG.

第1の実施形態の動画像復号装置100で復号対象とする動画像符号化データは、前述の動画像符号化装置200により生成した符号化データである。また、動画像符号化データの生成にあたっては、全てのフレームで整数型5×3フィルタを使用したものとする。すなわち、前述した動画像符号化装置200の信号線207から整数型5×3フィルタを選択する信号を入力して動画像データの符号化を行う。   The encoded video data to be decoded by the video decoding device 100 of the first embodiment is the encoded data generated by the video encoding device 200 described above. In addition, when generating encoded video data, it is assumed that an integer type 5 × 3 filter is used for all frames. That is, a signal for selecting an integer type 5 × 3 filter is input from the signal line 207 of the moving picture coding apparatus 200 described above to perform coding of moving picture data.

動画像符号化データの復号は、符号化データ中のフレーム単位で行われる。そこで、符号列読み出し部101は、二次記憶装置206に格納されている符号化データから着目するフレームの符号化データを読み出して不図示の内部バッファに格納する。符号化データのフレーム単位の読み出しは、フレーム1、フレーム2というように順番に行われる。   The decoding of the encoded moving image data is performed in units of frames in the encoded data. Therefore, the code string reading unit 101 reads the encoded data of the frame of interest from the encoded data stored in the secondary storage device 206, and stores the encoded data in an internal buffer (not shown). Reading of encoded data in units of frames is performed in order, such as frame 1 and frame 2.

ビットプレーン復号部102は、符号列読み出し部101の内部バッファに格納される符号化データをサブバンド順に読み出して、量子化された変換係数データQ(Sb,x,y)を復号する。ビットプレーン復号部102における処理は、図1に示されるビットプレーン符号化部204と対を成すものである。   The bit plane decoding unit 102 reads the encoded data stored in the internal buffer of the code string reading unit 101 in the order of subbands, and decodes the quantized transform coefficient data Q (Sb, x, y). The processing in the bit plane decoding unit 102 forms a pair with the bit plane encoding unit 204 shown in FIG.

すなわち、ビットプレーン符号化部204では、上位のビットプレーンから下位のビットプレーンへと係数の絶対値の各ビットを所定のコンテクストにより二値算術符号化する。これに対し、ビットプレーン復号部102では、同様に上位のビットプレーンから下位のビットプレーンへと符号化時と同じコンテクストにより二値算術符号化データの復号を行い、係数の各ビットを復元する。また、係数の正負符号については符号化時と同じタイミングで、同じコンテクストを用いて算術符号の復号を行うようにする。   That is, the bit plane coding unit 204 performs binary arithmetic coding of each bit of the absolute value of the coefficient from the upper bit plane to the lower bit plane in a predetermined context. On the other hand, the bit plane decoding unit 102 similarly decodes the binary arithmetic coded data from the upper bit plane to the lower bit plane in the same context as when encoding, and restores each bit of the coefficient. Further, with respect to the sign of the coefficient, the arithmetic code is decoded using the same context at the same timing as the encoding.

但し、このとき非復号ビットプレーン決定部107からは、各サブバンドについて復号しない下位ビットプレーン数ND(Sb)が指示され、ビットプレーン復号部102では指示される枚数の下位ビットプレーンについては復号処理を行わない。例えば、サブバンドHH2の係数を復号する場合に、非復号ビットプレーン決定部107から与えられるサブバンドHH2の非復号ビットプレーン数ND(HH2)が2である場合、符号列読み出し部101から読み出されるサブバンドHH2の係数の符号化データのCS(HH2,NBP(HH2)−1)からCS(HH2,2)までを復号してサブバンドの係数を復元し、CS(HH2,1)およびCS(HH2,0)の2枚のビットプレーンについては復号しない。 However, at this time, the non-decoding bit plane determining unit 107 indicates the number of lower bit planes ND (Sb) not to be decoded for each subband, and the bit plane decoding unit 102 performs decoding processing on the specified number of lower bit planes. Do not do. For example, when decoding the coefficient of the sub-band HH2, when the number ND (HH2) of the non-decoded bit planes of the sub-band HH2 given from the non-decoded bit plane determining unit 107 is 2, the coefficient is read from the code string reading unit 101. restore the coefficients of subband decoded from the encoded data of the coefficients of the subband HH2 CS (HH2, N BP ( HH2) -1) to CS (HH2,2), CS (HH2,1 ) and CS The two bit planes (HH2, 0) are not decoded.

逆離散ウェーブレット変換部104では、図1における離散ウェーブレット変換部202でのウェーブレット変換処理の逆変換を行い、フレームのデータを復元する。本第1の実施形態の動画像復号装置100では、全てのフレームで整数型5×3フィルタを使用して生成される動画像符号化データを復号対象とするので、上述した式(1)、(2)に対応する逆変換を行う。   The inverse discrete wavelet transform unit 104 performs an inverse transform of the wavelet transform process in the discrete wavelet transform unit 202 in FIG. 1 to restore frame data. In the video decoding device 100 according to the first embodiment, since the video coded data generated by using the integer type 5 × 3 filter in all frames is to be decoded, the above equation (1) is used. The inverse transformation corresponding to (2) is performed.

動画像の再生表示を行う場合には、各フレームデータは所定の時間に表示される。一方、逆離散ウェーブレット変換104からの出力は、復号処理に掛かる時間により左右されるので、表示すべき時間と同期するものではない。このため、復号したフレームデータをバッファに格納して表示時間との調整が必要になる。例えば、動画像データ出力部105をネットワーク回線のインターフェースにより実現して、表示時間との調整のためのバッファ格納処理を本第1の実施の形態の動画像復号装置100の外部で行うようにしても良いし、動画像データ出力部105の内部で行うようにしても良い。   When playing back and displaying a moving image, each frame data is displayed at a predetermined time. On the other hand, the output from the inverse discrete wavelet transform 104 is not synchronized with the time to be displayed because it depends on the time required for the decoding process. For this reason, it is necessary to store the decoded frame data in a buffer and adjust the display time. For example, the moving image data output unit 105 is realized by an interface of a network line, and a buffer storage process for adjusting the display time is performed outside the moving image decoding device 100 according to the first embodiment. Alternatively, the processing may be performed inside the moving image data output unit 105.

動画像データ出力部105の具体例として、動画像データ出力部105にディスプレイを接続し、動画像表示を行う場合について説明する。図16は動画像データ出力部105の一形態と、ディスプレイへの接続を示す図である。同図において1601は複数のフレームデータを格納することが可能なバッファ、1602はディスプレイインターフェース、1603はディスプレイである。バッファ1601は逆離散ウェーブレット変換部104から可変の時間間隔で出力される復元画像データを、順番に格納する。復元画像データ格納の際には格納する復元画像データのフレーム番号と格納するアドレスを保持し、後から順番に取り出せるようにしておく。ディスプレイインターフェース1602は動画像データのフレームレートに応じて一定の時間間隔(例えば秒あたり30フレームの動画像であるならば1/30秒おき)でバッファ1601から復元画像データを順番に取り出し、ディスプレイ1603へと表示する。取り出したフレームデータはバッファ1601から消去する。このように、バッファ1601は、逆離散ウェーブレット変換部104からの復元画像データの入力と、ディスプレイインターフェースによるデータ取り出しの時間間隔の違いを調整する役割を果たす。   As a specific example of the moving image data output unit 105, a case where a display is connected to the moving image data output unit 105 to display moving images will be described. FIG. 16 is a diagram showing one mode of the moving image data output unit 105 and connection to a display. In the figure, reference numeral 1601 denotes a buffer capable of storing a plurality of frame data, 1602 denotes a display interface, and 1603 denotes a display. The buffer 1601 sequentially stores restored image data output from the inverse discrete wavelet transform unit 104 at variable time intervals. When the restored image data is stored, the frame number of the restored image data to be stored and the storage address are held so that they can be sequentially taken out later. The display interface 1602 sequentially takes out the restored image data from the buffer 1601 at a fixed time interval (for example, every 1/30 second if the moving image is 30 frames per second) according to the frame rate of the moving image data, and displays it on the display 1603. To be displayed. The extracted frame data is deleted from the buffer 1601. As described above, the buffer 1601 plays a role of adjusting the difference in the time interval between the input of the restored image data from the inverse discrete wavelet transform unit 104 and the data extraction by the display interface.

本実施の形態の動画像復号装置では、後述する処理によって、1フレームの復号処理時間の平均が目標復号時間Tとなるように制御を行う。しかしながら、各フレームのデータ復元に掛かる時間にはばらつきがあるため、バッファ1601に格納されるフレームデータの枚数が変化する。そのため、表示時間になってもフレームデータがバッファに準備されていない状態にならないように、動画復号の開始から所定時間後に再生表示を開始したり、あるいは所定のフレーム枚数がバッファに蓄積されてから再生開始するなど、動画再生開始のタイミングを調整する。また、バッファ容量に制約のある場合であって、バッファに所定枚数以上のフレームデータが格納されている場合には、フレームデータの復号処理を休止するよう制御することも必要となる。   The moving picture decoding apparatus according to the present embodiment performs control so that the average of the decoding processing time of one frame becomes the target decoding time T by the processing described later. However, since the time required for data restoration of each frame varies, the number of frame data stored in the buffer 1601 changes. Therefore, in order to prevent the frame data from being unprepared in the buffer even when the display time has elapsed, reproduction display is started after a predetermined time from the start of video decoding, or after a predetermined number of frames are accumulated in the buffer. Adjust the timing of video playback start, such as starting playback. In addition, when the buffer capacity is limited, and when a predetermined number or more of frame data is stored in the buffer, it is necessary to control to stop the decoding process of the frame data.

そして、動画像データ出力部105は、逆離散ウェーブレット変換部104から出力される復元画像データを装置外部へと出力する。動画像データ出力部105は、例えばネットワーク回線や表示デバイスへのインタフェース等によって実現することが可能である。   Then, the moving image data output unit 105 outputs the restored image data output from the inverse discrete wavelet transform unit 104 to the outside of the device. The moving image data output unit 105 can be realized by, for example, an interface to a network line or a display device.

復号処理時間計測部106は、各フレームについて、符号列読み出し部101によるフレーム符号化データの読み出し開始から動画像データ出力部105による復元されたフレームデータの出力までにかかる時間Dtを測定し、非復号ビットプレーン決定部107へと出力する。ただし、図16に例示したように、動画像データ出力部105が内部にフレームデータを格納するバッファを備え、装置外部への出力を一定間隔に調整する場合には、時間Dtはバッファ1601へのフレームデータ格納までの時間とする。   The decoding processing time measuring unit 106 measures the time Dt required for each frame from the start of reading the encoded frame data by the code string reading unit 101 to the output of the restored frame data by the moving image data output unit 105. Output to decoding bit plane determining section 107. However, as illustrated in FIG. 16, when the moving image data output unit 105 includes a buffer for storing the frame data therein and adjusts the output to the outside of the apparatus at a constant interval, the time Dt is set to the buffer 1601. This is the time until the frame data is stored.

非復号ビットプレーン決定部107は、復号処理時間計測部106から出力される1フレームの復号処理時間を元に、各サブバンドの非復号ビットプレーンを決定する。非復号ビットプレーン決定部107はその内部に、非復号ビットプレーン数決定のインデックス値となる変数Q(以降、「Qファクタ」と呼ぶ。)と、それぞれのQファクタにおいて各サブバンドの非復号ビットプレーン数を示したテーブルと、目標復号処理時間T、時間差分ΔTを保持する。図8にQファクタと各サブバンドの非復号ビットプレーン数の対応を表すテーブルの例を示す。   Non-decoding bit plane determining section 107 determines a non-decoding bit plane for each subband based on the decoding processing time of one frame output from decoding processing time measuring section 106. The non-decoding bit plane determining unit 107 includes therein a variable Q (hereinafter, referred to as a “Q factor”) serving as an index value for determining the number of non-decoding bit planes, and a non-decoding bit of each subband in each Q factor. It holds a table indicating the number of planes, a target decoding processing time T, and a time difference ΔT. FIG. 8 shows an example of a table representing the correspondence between the Q factor and the number of non-decoded bit planes of each subband.

図9は、動画像復号装置100による動画像符号化データの復号処理の流れを示すフローチャートである。図9に示すように、まず、動画像符号化データの復号開始時点、即ち、フレーム1の符号化データの復号開始前にQファクタ、時間差分ΔTを0にリセットする(ステップS701)。   FIG. 9 is a flowchart showing the flow of the decoding processing of the encoded video data by the video decoding apparatus 100. As shown in FIG. 9, first, the Q factor and the time difference ΔT are reset to 0 at the start of the decoding of the encoded video data, that is, before the decoding of the encoded data of the frame 1 starts (step S701).

次に、非復号ビットプレーン決定部107で、Qファクタに基づいて各サブバンドの非復号ビットプレーン数をテーブルから読み出し、ビットプレーン復号部102へ設定する(ステップS702)。   Next, the non-decoding bit plane determining unit 107 reads out the number of non-decoding bit planes of each subband from the table based on the Q factor, and sets the number in the bit plane decoding unit 102 (step S702).

続いて、符号列読み出し部101から逆離散ウェーブレット変換部104の処理により、1フレームの復号が行われ、動画像データ出力部105にフレームデータが出力される(ステップS703)。   Subsequently, one frame is decoded by the processing of the inverse discrete wavelet transform unit 104 from the code string reading unit 101, and the frame data is output to the moving image data output unit 105 (step S703).

復号処理時間計測部106はステップS703で行われた1フレームの復号処理にかかった時間Dtを計測し、非復号ビットプレーン決定部107へと渡す(ステップS704)。   The decoding processing time measurement unit 106 measures the time Dt required for the decoding processing of one frame performed in step S703, and passes it to the non-decoding bit plane determination unit 107 (step S704).

非復号ビットプレーン決定部107は、1フレームの目標復号時間Tと実際にかかった復号処理時間Dtの差分を求め、保持している時間差分ΔTに加算する(ステップS705)。   The non-decoding bit plane determining unit 107 obtains the difference between the target decoding time T of one frame and the actually applied decoding processing time Dt, and adds the difference to the held time difference ΔT (step S705).

次に、ΔTの値に応じてQファクタを更新する(ステップS706)。ΔTがあらかじめ設定した所定の閾値Uq(Uq>0)よりも大きければQから1を減じ、値を小さくする。ΔTが所定の閾値よりも大きくなるのは目標の時間の総和に対して実際にかかった復号時間の総和が小さい場合であり、復号画質を向上させるためにQの値を小さくすることにより非復号ビットプレーン数を減らす。また、反対にΔTがあらかじめ設定した所定の閾値Lq(Lq<0)よりも小さければQに1を加えて、値を大きくする。ΔTが所定の閾値Lqよりも小さくなるのは目標の時間の総和に対して実際にかかった復号時間の総和が大きい場合であり、1フレームの復号時間を短縮するために値を大きくすることにより非復号ビットプレーン数を増やす。但しQの値の範囲は0から9までとし、上述の更新処理により0より小さくなった場合には0、9より大きくなった場合には9とする。なお、ΔTが閾値LqとUqの範囲内ある場合には(Lq≦ΔT≦Uq)、目標の時間の総和に対して実際にかかった復号時間の総和が丁度良い範囲内にあるので、Qの値は変更せずにそのままにしておく。   Next, the Q factor is updated according to the value of ΔT (step S706). If ΔT is larger than a predetermined threshold Uq (Uq> 0), 1 is subtracted from Q to reduce the value. ΔT becomes larger than the predetermined threshold value when the total sum of the decoding time actually taken with respect to the total sum of the target time is small, and the non-decoding is performed by reducing the value of Q in order to improve the decoding image quality. Reduce the number of bit planes. Conversely, if ΔT is smaller than a predetermined threshold Lq (Lq <0), 1 is added to Q to increase the value. ΔT becomes smaller than the predetermined threshold Lq when the total sum of the decoding times actually taken with respect to the total sum of the target times is large, and by increasing the value to shorten the decoding time of one frame. Increase the number of non-decoded bit planes. However, the range of the value of Q is from 0 to 9, and is 0 when it is smaller than 0 and 9 when it is larger than 9 by the above-described update processing. If ΔT is within the range between the thresholds Lq and Uq (Lq ≦ ΔT ≦ Uq), the sum of the decoding times actually taken with respect to the sum of the target times is just within a good range. Leave the value unchanged.

復号処理を行ったフレームが最後のフレームであるか否かを判定し、最後のフレームでない場合(NO)にはステップS702に処理を移し、次のフレームの復号を行い、最後のフレームである場合(YES)は動画像符号化データの復号処理を終了する(ステップS707)。   It is determined whether or not the decoded frame is the last frame. If it is not the last frame (NO), the process proceeds to step S702, where the next frame is decoded and the last frame is decoded. (YES) ends the decoding processing of the encoded video data (step S707).

上述したように、1フレームの復号処理にかかる時間と目標復号時間の差分の累積値から、非復号ビットプレーン数のインデックス値であるQファクタを定め、Qファクタに応じてサブバンド毎の非復号ビットプレーン数を変えることで、再生画像の視覚上の不具合をできるだけ抑制して、復号処理時間を制御することができる。   As described above, the Q factor that is the index value of the number of non-decoding bit planes is determined from the accumulated value of the difference between the time required for decoding one frame and the target decoding time, and the non-decoding for each subband is determined according to the Q factor. By changing the number of bit planes, it is possible to control the decoding processing time while minimizing visual defects in the reproduced image.

<第2の実施形態>
第1の実施形態では、復号対象となる動画像符号化データは全て整数型5×3フィルタによりサブバンド分解を行うことを前提として説明した。本第2の実施形態の動画像復号装置では、実数型5×3フィルタを使用してサブバンド分解を行った動画像符号化データを復号対象とする場合について説明する。即ち、前述した動画像符号化装置200において信号線207から実数型5×3フィルタを選択する信号を入力して、動画像の各フレームを符号化する。符号化する際に各サブバンドの量子化ステップdelta(Sb)を全フレームで同一とする。
<Second embodiment>
In the first embodiment, the description has been made on the assumption that all the moving image encoded data to be decoded are subjected to subband decomposition by an integer type 5 × 3 filter. In the moving picture decoding apparatus according to the second embodiment, a case will be described in which moving picture coded data subjected to subband decomposition using a real number type 5 × 3 filter is to be decoded. That is, a signal for selecting the real number type 5 × 3 filter is input from the signal line 207 to the moving picture coding apparatus 200 described above, and each frame of the moving picture is coded. When encoding, the quantization step delta (Sb) of each subband is set to be the same for all frames.

図10は、本発明の第2の実施形態に係る動画像復号装置300の構成を示すブロック図である。前述の動画像符号化装置200、および第1の実施形態の動画像復号装置100と共通するブロックについては同じ参照番号を用いる。図10に示すように、第2の実施形態に係る動画像復号装置300は、2次記憶装置206、符号列読み出し部904、ビットプレーン復号部102、係数逆量子化部901、逆離散ウェーブレット変換部902、動画像データ出力部105、復号処理時間計測部106、非復号ビットプレーン決定部903とを備える。   FIG. 10 is a block diagram illustrating a configuration of a video decoding device 300 according to the second embodiment of the present invention. The same reference numerals are used for blocks common to the above-described video encoding device 200 and the video decoding device 100 of the first embodiment. As shown in FIG. 10, the video decoding device 300 according to the second embodiment includes a secondary storage device 206, a code string reading unit 904, a bit plane decoding unit 102, a coefficient inverse quantization unit 901, an inverse discrete wavelet transform. A video data output unit 105; a decoding processing time measuring unit 106; and a non-decoded bit plane determining unit 903.

以下、同図を用いて、本第2の実施形態の動画像復号装置300の動作手順について説明する。   Hereinafter, the operation procedure of the video decoding device 300 according to the second embodiment will be described with reference to FIG.

まず、第1の実施形態の符号列読み出し部101と同様にして符号列読み出し部904により、二次記憶装置206に格納されている動画像符号化データから着目するフレームの符号化データを読み出して不図示の内部バッファに格納する。このとき、読み出したフレームの符号化データのヘッダから各サブバンドSbの量子化ステップdelta(Sb)を読み出し、同じく不図示の内部バッファに格納しておく。   First, the coded data of the target frame is read from the coded video data stored in the secondary storage device 206 by the coded sequence reading unit 904 in the same manner as the coded sequence reading unit 101 of the first embodiment. It is stored in an internal buffer (not shown). At this time, the quantization step delta (Sb) of each sub-band Sb is read from the header of the coded data of the read frame and stored in an internal buffer (not shown).

ビットプレーン復号部102は、第1の実施形態と同様にして符号列読み出し部904の内部バッファに格納される符号化データから、量子化された変換係数データQ(Sb,x,y)を復号する。本第2の実施形態の動画像復号装置300においても、非復号ビットプレーン決定部903から指示されるND(Sb)枚の下位ビットプレーンについては復号処理を行わない。   The bit plane decoding unit 102 decodes the quantized transform coefficient data Q (Sb, x, y) from the encoded data stored in the internal buffer of the code sequence reading unit 904 in the same manner as in the first embodiment. I do. Also in the video decoding device 300 of the second embodiment, the decoding process is not performed on ND (Sb) lower-order bit planes specified by the non-decoding bit plane determining unit 903.

係数逆量子化部901では、各サブバンド毎に定めた量子化ステップdelta(Sb)とビットプレーン復号部102で復号された量子化された係数値をQ(Sb,x,y)とから、各サブバンドの係数C(Sb,x,y)を復元する。   The coefficient inverse quantization unit 901 calculates the quantization step delta (Sb) determined for each sub-band and the quantized coefficient value decoded by the bit plane decoding unit 102 from Q (Sb, x, y). The coefficient C (Sb, x, y) of each subband is restored.

逆離散ウェーブレット変換部902では、図1における離散ウェーブレット変換部202でのウェーブレット変換処理の逆変換を行い、フレームのデータを復元する。本第2の実施形態の動画像復号装置300では、全てのフレームで実数型5×3フィルタを使用して生成される動画像符号化データを復号対象とするので、上述した式(3)、(4)に対応する逆変換を行う。   The inverse discrete wavelet transform unit 902 performs inverse transform of the wavelet transform process in the discrete wavelet transform unit 202 in FIG. 1 to restore frame data. In the moving picture decoding apparatus 300 of the second embodiment, the moving picture coded data generated by using the real number type 5 × 3 filter is to be decoded in every frame. The inverse transformation corresponding to (4) is performed.

そして、動画像データ出力部105は、逆離散ウェーブレット変換部902から出力される復元画像データを装置外部へと出力する。   Then, the moving image data output unit 105 outputs the restored image data output from the inverse discrete wavelet transform unit 902 to the outside of the device.

復号処理時間計測部106は、第1の実施形態と同様に、各フレームについて、符号列読み出し部904によるフレーム符号化データの読み出し開始から動画像データ出力部105による復元されたフレームデータの出力までにかかる時間Dtを測定し、非復号ビットプレーン決定部903へと出力する。   As in the first embodiment, the decoding processing time measuring unit 106 performs, for each frame, from the start of reading the encoded frame data by the code string reading unit 904 to the output of the restored frame data by the moving image data output unit 105. Is measured and output to the non-decoding bit plane determining unit 903.

非復号ビットプレーン決定部903は、復号処理時間計測部106から出力される1フレームの復号処理時間を元に、各サブバンドの非復号ビットプレーンを決定する。非復号ビットプレーン決定部903はその内部に、各サブバンドの非復号ビットプレーン数ND(Sb)を示したテーブルと、目標復号処理時間T、時間差分ΔT、サブバンドインデックスSIを保持する。図11にサブバンドSb毎の非復号ビットプレーン数ND(Sb)を保持するテーブルの例を示す。   The non-decoding bit plane determining unit 903 determines a non-decoding bit plane for each subband based on the decoding processing time of one frame output from the decoding processing time measuring unit 106. The non-decoding bit plane determining unit 903 holds therein a table indicating the number ND (Sb) of non-decoding bit planes of each subband, a target decoding processing time T, a time difference ΔT, and a subband index SI. FIG. 11 shows an example of a table that holds the number ND (Sb) of non-decoded bit planes for each subband Sb.

図12は、本画像復号装置300による動画像符号化データの復号処理の流れを示すフローチャートである。図12に示すように、まず、動画像符号化データの復号開始時点、即ち、フレーム1の符号化データの復号開始前にサブバンドインデックスSI、時間差分ΔTを0にリセットする(ステップS1101)。   FIG. 12 is a flowchart illustrating a flow of a decoding process of moving image encoded data by the image decoding device 300. As shown in FIG. 12, first, the subband index SI and the time difference ΔT are reset to 0 at the start of the decoding of the encoded video data, that is, before the decoding of the encoded data of the frame 1 is started (step S1101).

次に、非復号ビットプレーン決定部903に保持するサブバンド毎の非復号ビットプレーン数ND(Sb)を全て0に初期化する(ステップS1102)。   Next, the number of non-decoded bit planes ND (Sb) for each subband held in the non-decoded bit plane determination unit 903 is initialized to 0 (step S1102).

次に、非復号ビットプレーン決定部903に格納された非復号ビットプレーン数ND(Sb)を読み出し、ビットプレーン復号部102へ設定する(ステップS1103)。   Next, the number of non-decoded bit planes ND (Sb) stored in the non-decoded bit plane determining unit 903 is read and set to the bit plane decoding unit 102 (step S1103).

続いて、符号列読み出し部904から逆離散ウェーブレット変換部902の処理により、1フレームの復号が行われ、動画像データ出力部105にフレームデータが出力される(ステップS1104)。   Subsequently, one frame is decoded by the processing of the inverse discrete wavelet transform unit 902 from the code string reading unit 904, and the frame data is output to the moving image data output unit 105 (step S1104).

復号処理時間計測部106はステップS1104で行われた1フレームの復号処理にかかった時間Dtを計測し、非復号ビットプレーン決定部903へと渡す(ステップS1105)。   The decoding processing time measuring unit 106 measures the time Dt required for the decoding processing of one frame performed in step S1104, and passes it to the non-decoded bit plane determining unit 903 (step S1105).

非復号ビットプレーン決定部903は、1フレームの目標復号時間Tと実際にかかった復号処理時間Dtの差分を求め、保持している時間差分ΔTに加算する(ステップS1106)。   The non-decoding bit plane determining unit 903 obtains the difference between the target decoding time T of one frame and the decoding processing time Dt actually taken, and adds the difference to the held time difference ΔT (step S1106).

次に、ΔTの値に応じて非復号ビットプレーン数ND(Sb)を保持するテーブル、および、サブバンドインデックスSIを更新する(ステップS1107)。   Next, the table holding the number ND (Sb) of non-decoded bit planes and the subband index SI are updated according to the value of ΔT (step S1107).

図13はステップS1107で行われる処理の流れを示すフローチャートである。まず、ΔTがあらかじめ設定した所定の閾値Uq(Uq>0)よりも大きいか否かを判断する(ステップS1201)。大きい場合(YES)にはサブバンドインデックスSIから1を減じる(ステップS1202)。そして、SIが−1かどうかを判断し(ステップS1203)、−1である場合にはSIを6に設定する(ステップS1204)。次に、サブバンドインデックスSIに対応するサブバンドS(SI)の非復号ビットプレーン数ND(S(SI))から1を引く(ステップS1205)。ΔTが所定の閾値よりも大きくなるのは目標の時間の総和に対して実際にかかった復号時間の総和が小さい場合であるので、非復号ビットプレーン数を減らすことで復号画質を向上させる。サブバンドインデックスSIとサブバンドの対応は図14の通りである。例えばSIが2であれば、対応するサブバンドはHL2であり、ND(HL2)の値から1を引くといった具合である。そして、ND(S(SI))と0を比較し(ステップS1206)、ND(S(SI))が0より小さい値となった場合にはND(S(SI))を0とし(ステップS1207)、SIを0に戻す(ステップS1213)。   FIG. 13 is a flowchart showing the flow of the process performed in step S1107. First, it is determined whether ΔT is larger than a predetermined threshold Uq (Uq> 0) set in advance (step S1201). If it is larger (YES), 1 is subtracted from the subband index SI (step S1202). Then, it is determined whether or not SI is -1 (step S1203). If it is -1, SI is set to 6 (step S1204). Next, 1 is subtracted from the number ND (S (SI)) of non-decoded bit planes of the subband S (SI) corresponding to the subband index SI (step S1205). Since ΔT becomes larger than the predetermined threshold value when the total sum of the decoding time actually taken with respect to the total sum of the target time is small, the decoding image quality is improved by reducing the number of non-decoding bit planes. The correspondence between the subband index SI and the subband is as shown in FIG. For example, if SI is 2, the corresponding subband is HL2, and 1 is subtracted from the value of ND (HL2). Then, ND (S (SI)) is compared with 0 (step S1206). If ND (S (SI)) is smaller than 0, ND (S (SI)) is set to 0 (step S1207). ), Return SI to 0 (step S1213).

一方、ステップS1201の比較の結果、ΔT≦Uqである場合(NO)、ΔTをあらかじめ設定した所定の閾値Lq(Lq<0)と比較し(ステップS1208)、ΔT>Lqである場合(NO)には処理を終了する。ΔT≦Lqの場合(YES)、ND(S(SI))に1を加える(ステップS1209)。ΔTが所定の閾値よりも小さくなるのは目標の時間の総和に対して実際にかかった復号時間の総和が長い場合であるので、非復号ビットプレーン数を増やすことで、1フレームの復号時間を短縮する。続いてSIにも1を加え(ステップS1210)、SIを7と比較して(ステップS1211)、SIが7ならば(YES)SIを0に設定する(ステップS1212)。   On the other hand, if ΔT ≦ Uq as a result of the comparison in step S1201 (NO), ΔT is compared with a predetermined threshold Lq (Lq <0) set in advance (step S1208), and if ΔT> Lq (NO). Ends the processing. If ΔT ≦ Lq (YES), 1 is added to ND (S (SI)) (step S1209). Since ΔT becomes smaller than the predetermined threshold value when the total sum of the decoding times actually taken with respect to the total sum of the target times is long, the decoding time of one frame can be reduced by increasing the number of non-decoding bit planes. Shorten. Subsequently, 1 is also added to SI (step S1210), and SI is compared with 7 (step S1211). If SI is 7 (YES), SI is set to 0 (step S1212).

以上の処理により、ΔTが所定の値より大きい場合、または所定の値よりも小さい場合に、ひとつのサブバンドの非復号ビットプレーン数ND(Sb)を1レベル変化させる。   By the above processing, when ΔT is larger than the predetermined value or smaller than the predetermined value, the number ND (Sb) of non-decoded bit planes of one subband is changed by one level.

図12の処理に戻り、復号処理を行ったフレームが最後のフレームであるか否かを判定し(ステップS1108)、最後のフレームでない場合(NO)にはステップS1103に処理を移し、次のフレームの復号を行い、最後のフレームである場合(YES)は動画像符号化データの復号処理を終了する。   Returning to the processing of FIG. 12, it is determined whether or not the frame subjected to the decoding processing is the last frame (step S1108). If it is not the last frame (NO), the processing moves to step S1103, and the next frame , And if it is the last frame (YES), the decoding process of the encoded video data ends.

上述したように、1フレームの復号処理にかかる時間と目標復号時間の差分の累積値から、サブバンド毎の非復号ビットプレーン数を変えることで、再生画像の視覚上の不具合できるだけ抑制して、復号処理時間を制御することができる。   As described above, by changing the number of non-decoding bitplanes for each subband from the accumulated value of the difference between the time required for the decoding process of one frame and the target decoding time, visual defects of the reproduced image are suppressed as much as possible. The decoding processing time can be controlled.

<第3の実施形態>
第1、第2の実施形態の動画像復号装置では、ビットプレーンを単位として非復号部分を定めたが、着目するビットの周囲の符号化済みの部分に基づき、ビットプレーン内の各ビットをカテゴリ分けして複数のパス(サブビットプレーン)に分解し、パスを単位として非復号部分を定めることもできる。以下、パスを単位として非復号部分を定める実施形態について説明する。
<Third embodiment>
In the video decoding devices of the first and second embodiments, the non-decoding part is determined in units of bit planes, but each bit in the bit plane is classified into a category based on a coded part around a bit of interest. It is also possible to divide the data into a plurality of paths (sub-bit planes) and determine a non-decoding part in units of paths. Hereinafter, an embodiment will be described in which a non-decoding portion is determined in units of paths.

本第3の実施形態の動画像復号装置の復号対象となる動画像符号化データを生成する過程は、基本的には前述した図1に示した動画像符号化装置200の処理と同様であるが、ビットプレーン符号化部204におけるビットプレーンの符号化の方法が異なっており、前述のように1つのビットプレーンを複数のパスに分けて符号化する。説明を簡略化するため、ここでは具体的なパスへ分割方法は記さないが、ISO/IEC15444−1勧告書に記載されるJPEG2000におけるビットプレーン符号化方法と同様の方法により符号化する。JPEG2000では、最上位のビットプレーンを除き、3つのパスに分解して符号化が行われる。従って、あるサブバンドSbの有効ビット数がNBP(Sb)である場合、(NBP(Sb)−1)×3+1のパスによって符号化される。それぞれのパスにより生成される符号をCSP(Sb,n)と記す。ここでnはパスの番号であり、最初のパスの番号を(NBP(Sb)−1)×3)とし、最後のパスの番号を0とする。 The process of generating the encoded video data to be decoded by the video decoding device of the third embodiment is basically the same as the process of the video encoding device 200 shown in FIG. 1 described above. However, the bit plane encoding unit 204 uses a different bit plane encoding method. One bit plane is divided into a plurality of passes and encoded as described above. For simplicity of description, a specific method of dividing into paths is not described here, but encoding is performed by a method similar to the bit plane encoding method in JPEG2000 described in the ISO / IEC15444-1 recommendation. In JPEG2000, encoding is performed by decomposing into three passes, except for the most significant bit plane. Therefore, the number of effective bits of a certain subband Sb be a N BP (Sb), it is encoded by the (N BP (Sb) -1) × 3 + 1 paths. The code generated by each pass is referred to as CSP (Sb, n). Here, n is the number of the path, the first path number is ( NBP (Sb) -1) × 3), and the last path number is 0.

符号列形成部205により、ビットプレーン単位の符号化データを並べて符号列を形成したのと同様に、パスの符号化データを並べて符号列を形成する。図15はこのようにして生成された、本第3の実施形態の動画像復号装置で復号対象となる動画像符号化データの構造の例である。図5に示した第1、第2の実施形態の符号化対象と比較すると、符号化データを構成する要素がビットプレーン符号化データCS(Sb,n)からパスの符号化データCSP(Sb,n)に置き換わった点が異なっている。nはビットプレーン、または、パスの番号である。さらに、第1、第2の実施形態で復号対象とする動画像符号化データはビットプレーン符号化部204の出力するビットプレーン符号化データを全て含んだが、ここでは、符号列形成部205により符号化データの廃棄が行われる例を示している。サブバンドHH1,LH2,HL2については最後のパスの符号化データを廃棄し、HH2については最後の2つのパスの符号化データを廃棄している。   In the same manner as the code string is formed by arranging the coded data in bit plane units by the code string forming unit 205, the coded data of the paths is arranged to form a code string. FIG. 15 shows an example of the structure of the encoded moving image data to be decoded by the moving image decoding device of the third embodiment generated in this manner. As compared with the encoding targets of the first and second embodiments shown in FIG. 5, the elements constituting the encoded data are the bit encoded data CS (Sb, n) and the encoded data CSP (Sb, n). n is a bit plane or path number. Furthermore, the moving picture coded data to be decoded in the first and second embodiments includes all the bit plane coded data output from the bit plane coding unit 204. An example is shown in which discarded encrypted data is performed. For the subbands HH1, LH2, and HL2, the encoded data of the last pass is discarded, and for HH2, the encoded data of the last two passes are discarded.

なお、本第3の実施形態の動画像復号装置の構成は、図7に示す第1の実施形態の動画像復号装置100の構成と同じであり、ビットプレーン復号部102と非復号ビットプレーン決定部107の動作が異なるのみである。   Note that the configuration of the video decoding device of the third embodiment is the same as the configuration of the video decoding device 100 of the first embodiment shown in FIG. Only the operation of the unit 107 is different.

ビットプレーン復号部102では、前述の動画像符号化装置200のビットプレーン符号化と対をなす復号処理により、パスの符号化データCSP(Sb,n)を復号して各パスのビットを取り出し、サブバンドの係数を復元する。このとき、第1の実施形態の動画像復号装置100では非復号ビットプレーン決定部107から復号しない下位ビットプレーン数ND(Sb)が指示されたが、本第3の実施形態では復号しない下位のパスの数NDP(Sb)が指示され、ビットプレーン復号部102では下位NDP(Sb)のパスの符号化データは復号しない。即ち、CSP(Sb,NDP(Sb)−1)からCSP(Sb,0)の復号を行わない。   The bit plane decoding unit 102 decodes the coded data CSP (Sb, n) of the path and extracts the bits of each path by a decoding process paired with the bit plane coding of the moving image coding device 200 described above. Restore the subband coefficients. At this time, in the moving picture decoding apparatus 100 according to the first embodiment, the non-decoding bit plane determining unit 107 instructs the number of lower bit planes ND (Sb) not to be decoded. The number of paths NDP (Sb) is specified, and the bit plane decoding unit 102 does not decode the encoded data of the lower NDP (Sb) path. That is, CSP (Sb, 0) is not decoded from CSP (Sb, NDP (Sb) -1).

非復号ビットプレーン決定部107は、第1の実施形態で非復号ビットプレーン数ND(Sb)をビットプレーン復号部102に指示したのと同様の処理により、非復号パス数NDP(Sb)を指示する。   The non-decoding bit plane determining unit 107 specifies the number of non-decoding paths NDP (Sb) by the same processing as instructing the bit plane decoding unit 102 of the number of non-decoding bit planes ND (Sb) in the first embodiment. I do.

以上のように、本第3の実施形態の動画像復号装置100では、ビットプレーンよりも細かい符号化単位で非復号部分を設定できるため、より細かな復号画質の調整、および復号時間の調整が可能となる。   As described above, in the video decoding device 100 of the third embodiment, since the non-decoding part can be set in a coding unit finer than the bit plane, finer adjustment of the decoding image quality and decoding time can be performed. It becomes possible.

<第4の実施形態>
上記第1から第3の実施形態においては、各フレームの目標復号時間Tと実際の復号処理時間Dtとの差分を累積した値ΔTに基づいて復号範囲を調整していた。第1の実施形態の説明で動画像データ出力部105の具体例として説明したように、動画像データ出力部105をバッファとディスプレイインターフェースにより構成し、ディスプレイを接続して動画像表示を行うような場合には、実際に復号処理時間を計測せずともバッファに格納されているフレームデータの枚数を監視することで同等の処理を行うことができる。以下、このような実施の形態について説明する。
<Fourth embodiment>
In the first to third embodiments, the decoding range is adjusted based on the value ΔT obtained by accumulating the difference between the target decoding time T of each frame and the actual decoding processing time Dt. As described as a specific example of the moving image data output unit 105 in the description of the first embodiment, the moving image data output unit 105 is configured by a buffer and a display interface, and a moving image is displayed by connecting a display. In this case, the same processing can be performed by monitoring the number of frame data stored in the buffer without actually measuring the decoding processing time. Hereinafter, such an embodiment will be described.

本第4の実施形態の動画像復号装置の復号対象となる動画像符号化データを生成する過程は、前述した図1に示す動画像符号化装置200の処理と同様である。   The process of generating the encoded video data to be decoded by the video decoding device of the fourth embodiment is the same as the process of the video encoding device 200 shown in FIG. 1 described above.

図17は、本発明の第4の実施形態に係る動画像復号装置400の構成を示すブロック図である。動画像符号化装置200、および第1の実施形態の動画像復号装置100と共通するブロックについては同じ参照番号を用いる。図17に示すように、第4の実施形態に係る動画像復号装置400は、2次記憶装置206、符号列読み出し部101、ビットプレーン復号部102、逆離散ウェーブレット変換部104、バッファ1601、ディスプレイインターフェース1602、非復号ビットプレーン決定部1702、バッファ状態監視部1701とを備え、ディスプレイ1603に接続されている。同図の通り、本発明の第4の実施形態の動画像復号装置400は第1の実施形態の動画像復号装置100の動画像データ出力部105を図16のようにバッファ1601とディスプレイインターフェース1602で構成し、復号処理時間計測部106をバッファ状態監視部1701に、非復号ビットプレーン決定部107を非復号ビットプレーン決定部1702に置き換えている。   FIG. 17 is a block diagram illustrating a configuration of a video decoding device 400 according to the fourth embodiment of the present invention. The same reference numerals are used for blocks common to the moving picture coding apparatus 200 and the moving picture decoding apparatus 100 of the first embodiment. As shown in FIG. 17, a moving image decoding device 400 according to the fourth embodiment includes a secondary storage device 206, a code string reading unit 101, a bit plane decoding unit 102, an inverse discrete wavelet transform unit 104, a buffer 1601, and a display. An interface 1602, a non-decoded bit plane determining unit 1702, and a buffer status monitoring unit 1701 are provided, and are connected to the display 1603. As shown in the figure, the moving picture data output unit 105 of the moving picture decoding apparatus 100 according to the fourth embodiment of the present invention comprises a buffer 1601 and a display interface 1602 as shown in FIG. The decoding processing time measuring unit 106 is replaced with a buffer state monitoring unit 1701 and the non-decoded bit plane determining unit 107 is replaced with a non-decoded bit plane determining unit 1702.

以下、同図を用いて、本第4の実施形態の動画像復号装置400の動作手順について説明する。符号列読み出し部101、ビットプレーン復号部102、逆離散ウェーブレット変換部104の動作は第1の実施形態の動画像復号装置100での動作と同様である。また、バッファ1601、ディスプレイインターフェース1602の基本動作についても同じく第1の実施の形態の説明にて動画像データ出力部105をバッファとディスプレイインターフェースにより構成する具体例として説明した通りである。但し、本第4の実施形態の動画像復号装置400では所定の時間に本来表示すべきデータがバッファ1601に準備できていない状態を避けるために、復号開始後、時間mT経過してから復号フレームデータの表示を開始することとする。Tは上述の実施の形態と同じく、1フレームの目標復号処理時間であり、mは任意の正の整数である。即ち、ディスプレイインターフェース1602は復号処理の開始から時間mT経過の後、バッファ1601から一定の時間間隔にて復元フレームデータを順番に取り出してディスプレイへの表示を行う。1フレームの復号データをバッファ1601に準備する時間として、復号処理時間以外の要素は無視できるものとして考えるならば、秒あたり30フレームの動画像の場合、目標復号時間Tは1/30秒であり、また、バッファ1601から復元フレームデータを取り出す間隔もまた1/30秒である。   Hereinafter, the operation procedure of the video decoding device 400 according to the fourth embodiment will be described with reference to FIG. The operations of the code string reading unit 101, the bit plane decoding unit 102, and the inverse discrete wavelet transform unit 104 are the same as the operations of the video decoding device 100 according to the first embodiment. The basic operations of the buffer 1601 and the display interface 1602 are also the same as those described in the first embodiment as a specific example in which the moving image data output unit 105 is configured by the buffer and the display interface. However, in the moving picture decoding apparatus 400 according to the fourth embodiment, in order to avoid a state in which data to be originally displayed at a predetermined time is not prepared in the buffer 1601, a decoding frame is set after a lapse of time mT from the start of decoding. Display of data is started. T is the target decoding processing time for one frame, as in the above embodiment, and m is any positive integer. That is, after a lapse of time mT from the start of the decoding process, the display interface 1602 sequentially retrieves the restored frame data from the buffer 1601 at fixed time intervals and displays the data on the display. Assuming that the time for preparing one frame of decoded data in the buffer 1601 is negligible, other than the decoding processing time, the target decoding time T is 1/30 second for a moving image of 30 frames per second. The interval at which the restored frame data is extracted from the buffer 1601 is also 1/30 second.

図18は復号開始からの時系列で本動画像復号装置400の動作を表すものである。図18に示すように、復号開始時点(時間0)から時間mT経過した時点において最初のフレームが表示され、時間T間隔でフレームが次々と表示される。上述の第1から第3の実施形態にて復号範囲を制御する指標として用いた時間差分ΔTは、時間nTから着目するあるフレームnが復号された時間を減じたものであり、この値が上限値Uqより大きい場合には復号範囲を広げて復号画質を上げ、逆にこの値が下限値Lqより小さい場合には復号範囲を狭くして復号画質を落として1フレーム当りの復号処理時間を短くするよう制御していたが、本第4の実施形態の動画像復号装置ではバッファ1601に格納される復号フレームデータ数に着目して同様の制御を行う。   FIG. 18 shows the operation of the main video decoding apparatus 400 in a time series from the start of decoding. As shown in FIG. 18, the first frame is displayed when a time mT has elapsed from the decoding start time (time 0), and the frames are displayed one after another at time T intervals. The time difference ΔT used as an index for controlling the decoding range in the above-described first to third embodiments is obtained by subtracting the time when a certain frame n of interest is decoded from the time nT, and this value is an upper limit. If the value is larger than the value Uq, the decoding range is widened to increase the decoding quality. Conversely, if the value is smaller than the lower limit Lq, the decoding range is narrowed to lower the decoding quality and shorten the decoding processing time per frame. However, the video decoding apparatus according to the fourth embodiment performs similar control by focusing on the number of decoded frame data stored in the buffer 1601.

図18において、復号開始からフレームnの復号終了時点の時間をdとして(n−1)T<d<nTである場合、即ち、0<ΔT<Tである場合、フレームnの復号終了時点でバッファ1601に格納されている復号フレーム数はm枚である。ΔT>Tとなる場合、フレームn復号終了時点でバッファ1601にはm+1枚以上の復号フレームデータが格納される。反対に、nT<d<(n+1)Tである場合、即ち−T<ΔT<0である場合、フレームn復号終了時点でバッファ1601に格納されている復号フレーム数はm−1枚である。ΔT<−Tとなる場合には、m−2枚以下となる。フレームnの復号終了時点でバッファ1601に格納される復号フレーム数がm+1枚以上であれば復号範囲を広げて復号画質を向上させ、逆に、m−2枚以下であれば復号画質を落として1フレーム当りの復号処理時間を短くするように制御すれば、Uq=T、Lq=−TとしてΔTに基づいて復号範囲を制御するのと同様の動作をさせることができる。なお、逆離散ウェーブレット変換部104によるバッファ1601への復号フレームデータ格納と、ディスプレイインターフェース1602による復号フレームデータの読み出しは同一時刻には発生しないものとする。   In FIG. 18, when the time from the start of decoding to the end of decoding of frame n is d, (n-1) T <d <nT, that is, 0 <ΔT <T, The number of decoded frames stored in the buffer 1601 is m. When ΔT> T, at the end of frame n decoding, m + 1 or more decoded frame data is stored in the buffer 1601. Conversely, when nT <d <(n + 1) T, that is, when −T <ΔT <0, the number of decoded frames stored in the buffer 1601 at the end of frame n decoding is m−1. If ΔT <−T, m−2 or less. If the number of decoded frames stored in the buffer 1601 at the end of the decoding of the frame n is m + 1 or more, the decoding range is widened to improve the decoding quality, and conversely, if m-2 or less, the decoding quality is reduced. If control is performed to shorten the decoding processing time per frame, the same operation as controlling the decoding range based on ΔT with Uq = T and Lq = −T can be performed. Note that storage of decoded frame data in the buffer 1601 by the inverse discrete wavelet transform unit 104 and reading of decoded frame data by the display interface 1602 do not occur at the same time.

バッファ状態監視部1701は、各フレームの復号終了時点ごとにバッファ1601に格納されている復号フレームの枚数pを取得し、非復号ビットプレーン決定部1702へと出力する。   The buffer state monitoring unit 1701 obtains the number p of decoded frames stored in the buffer 1601 at each decoding end time of each frame, and outputs the number to the non-decoded bit plane determining unit 1702.

非復号ビットプレーン決定部1702では、バッファ状態監視部1701から出力される格納フレーム数pを元に、各サブバンドの非復号ビットプレーンを決定する。非復号ビットプレーン決定部1702はその内部に、非復号ビットプレーン数決定のインデックス値となる変数Q(以下、「Qファクタ」と呼ぶ。)と、それぞれのQファクタにおいて各サブバンドの非復号ビットプレーン数を示したテーブルと、復号開始から表示開始までの遅延時間を決定するパラメータmを保持する。図8はQファクタと各サブバンドの非復号ビットプレーン数の対応を表すテーブルの例を示す。   The non-decoding bit plane determining unit 1702 determines a non-decoding bit plane for each subband based on the number of stored frames p output from the buffer status monitoring unit 1701. The non-decoding bit plane determining unit 1702 includes therein a variable Q (hereinafter, referred to as a “Q factor”) serving as an index value for determining the number of non-decoding bit planes, and a non-decoding bit of each subband in each Q factor. A table indicating the number of planes and a parameter m for determining a delay time from the start of decoding to the start of display are held. FIG. 8 shows an example of a table indicating the correspondence between the Q factor and the number of non-decoded bit planes of each subband.

図19は、動画像復号装置400による動画像符号化データの復号処理の流れを示すフローチャートである。図19に示すように、まず、動画像符号化データの復号開始時点、即ち、フレーム1の符号化データの復号開始前にQファクタ、時間差分ΔTを0にリセットする(ステップS1901)。   FIG. 19 is a flowchart showing a flow of a decoding process of encoded video data by the video decoding device 400. As shown in FIG. 19, first, the Q factor and the time difference ΔT are reset to 0 at the start of decoding of the encoded video data, that is, before the decoding of the encoded data of frame 1 is started (step S1901).

次に、非復号ビットプレーン決定部1702で、Qファクタに基づいて各サブバンドの非復号ビットプレーン数をテーブルから読み出し、ビットプレーン復号部102へ設定する(ステップS1902)。   Next, the non-decoding bit plane determining unit 1702 reads the number of non-decoding bit planes of each subband from the table based on the Q factor, and sets the number in the bit plane decoding unit 102 (step S1902).

続いて、符号列読み出し部101から逆離散ウェーブレット変換部104の処理により1フレームの復号が行われ、バッファ1601にフレームデータが格納される(ステップS1903)。   Subsequently, one frame is decoded by the processing of the inverse discrete wavelet transform unit 104 from the code string reading unit 101, and the frame data is stored in the buffer 1601 (step S1903).

バッファ監視部1701はバッファ1601に格納されているフレームデータの枚数pを取得し、非復号ビットプレーン決定部1702へと渡す(ステップS1904)。   The buffer monitoring unit 1701 obtains the number p of frame data stored in the buffer 1601 and passes it to the non-decoded bit plane determining unit 1702 (step S1904).

復号処理の開始から時間mTが経過しているか否か、即ち、復号フレームデータの表示を開始しているか否かを判断し(ステップS1905)、表示開始前である場合(NO)、ステップS1902に戻って次のフレームの処理を行う。表示開始済である場合(YES)には、pの値に応じてQファクタを更新する(ステップS1906)。pがmよりも大きければ(即ちp>mならば)Qから1を減じ、値を小さくする。p>mとなるのは目標の時間の総和に対して実際にかかった復号時間の総和が小さい場合であり、復号画質を向上させるためにQの値を小さくすることにより非復号ビットプレーン数を減らす。また、反対にpがm−1より小さければ(即ち、p<m−1ならば)Qに1を加えて、値を大きくする。p<m−1となるのは目標の時間の総和に対して実際にかかった復号時間の総和が大きい場合であり、1フレームの復号時間を短縮するために値を大きくすることにより非復号ビットプレーン数を増やす。但しQの値の範囲は0から9までとし、上述の更新処理により0より小さくなった場合には0、9より大きくなった場合には9とする。なお、p=mであれば、目標の時間の総和に対して実際にかかった復号時間の総和が丁度良い範囲内にあるので、Qの値は変更せずにそのままにしておく。   It is determined whether or not the time mT has elapsed from the start of the decoding process, that is, whether or not the display of the decoded frame data has been started (step S1905). Then, the process returns to the next frame. If the display has been started (YES), the Q factor is updated according to the value of p (step S1906). If p is greater than m (that is, if p> m), 1 is subtracted from Q to reduce the value. The case where p> m is satisfied when the total sum of the decoding time actually taken with respect to the total sum of the target time is small. cut back. Conversely, if p is smaller than m-1 (that is, if p <m-1), 1 is added to Q to increase the value. The case where p <m-1 is satisfied is when the total sum of the decoding time actually taken with respect to the total sum of the target time is large, and by increasing the value to shorten the decoding time of one frame, the non-decoded bits are reduced. Increase the number of planes. However, the range of the value of Q is from 0 to 9, and is 0 when the value is smaller than 0 and 9 when the value is larger than 9 by the above-described update processing. If p = m, the sum of the decoding times actually taken with respect to the sum of the target times is within a good range, so the value of Q is left unchanged.

次のステップS1907で復号処理を行ったフレームが最後のフレームであるか否かを判定し、最後のフレームでない場合(NO)にはステップS702に戻って次のフレームの復号を行い、最後のフレームである場合(YES)は動画像符号化データの復号処理を終了する。   In the next step S1907, it is determined whether or not the decoded frame is the last frame. If it is not the last frame (NO), the process returns to step S702 to decode the next frame, and the last frame is decoded. Is satisfied (YES), the decoding process of the encoded video data ends.

復号処理が終了してもディスプレイインターフェース1602はバッファ1601に格納されるフレームデータの取り出しを時間mT分継続する。   Even when the decoding process is completed, the display interface 1602 continues extracting frame data stored in the buffer 1601 for the time mT.

以上のように、本第4の実施形態の動画像復号装置400では、1フレームの復号処理にかかる時間と目標復号時間の差分の累積値から復号範囲を調整することと同等な手法として、バッファに保持された復号フレーム数によって復号範囲を調整した。このような構成にすることで、個々のフレームの処理時間の計測が困難である場合にも、バッファに保持する復号フレーム数に応じて非復号ビットプレーン数を変えることで、再生画像の視覚上の不具合できるだけ抑制して、復号処理時間を制御することができる。   As described above, the moving picture decoding apparatus 400 according to the fourth embodiment employs a buffer as a technique equivalent to adjusting the decoding range from the cumulative value of the difference between the time required for decoding one frame and the target decoding time. The decoding range was adjusted according to the number of decoding frames held in. With such a configuration, even when it is difficult to measure the processing time of each frame, by changing the number of non-decoded bitplanes according to the number of decoded frames held in the buffer, the reproduced image can be visually recognized. Can be controlled as much as possible, and the decoding processing time can be controlled.

<他の実施形態>
本発明は、上述した実施形態に限定されるものではない。例えば、上述した第1から第3の実施形態においては、サブバンドを単位にビットプレーン符号化を行ったが、サブバンドをブロックに分割し、ブロック毎にビットプレーン符号化を行ってもよい。また、一つのビットプレーンを複数のパスで符号化するようにしても構わない。
<Other embodiments>
The present invention is not limited to the embodiments described above. For example, in the above-described first to third embodiments, bit-plane encoding is performed in units of sub-bands. However, sub-bands may be divided into blocks, and bit-plane encoding may be performed for each block. Further, one bit plane may be encoded by a plurality of passes.

また、二値算術符号化の方法としてMQ-Coderを用いる例について述べたが、上述の実施形態に限定されるものではなく、例えば、QM-Coder等、MQ-Coder以外の算術符号化方法を適用しても構わないし、マルチコンテクストの情報源を符号化するに適する方式であればその他の2値符号化方式を適用しても構わない。   Further, although an example using MQ-Coder as a method of binary arithmetic coding has been described, the present invention is not limited to the above-described embodiment, and for example, an arithmetic coding method other than MQ-Coder, such as QM-Coder, may be used. It may be applied, or any other binary encoding method may be applied as long as it is a method suitable for encoding a multi-context information source.

また、サブバンド分解のためのフィルタは上述の実施形態に限定されるものではなく、実数型9×7フィルタなど、その他のフィルタを使用しても構わない。さらに、その適用回数についても上述の実施形態に限定されるものではない。上述の実施の形態では水平方向、垂直方向に同回数の1次元離散ウェーブレット変換を施したが、同一回数でなくてもよい。   Further, the filter for subband decomposition is not limited to the above-described embodiment, and another filter such as a real number type 9 × 7 filter may be used. Further, the number of times of application is not limited to the above embodiment. In the above-described embodiment, the same number of one-dimensional discrete wavelet transforms are performed in the horizontal direction and the vertical direction.

さらに、動画像符号化データの構造についても上述の実施の形態に限定されるものではなく、符号列の順序、付加情報の格納形態など、変えても構わない。例えば、本発明はフレームデータの符号化方式としてISO/IEC15444−1に定めるJPEG2000を用いる場合に好適なものであり、JPEG2000の規格に記される符号化データ、あるいは同規格のPart3に規定するMotion JPEG2000の符号化データとしても良い。   Further, the structure of the encoded video data is not limited to the above-described embodiment, and the order of the code string, the storage format of the additional information, and the like may be changed. For example, the present invention is suitable for the case where JPEG2000 defined in ISO / IEC15444-1 is used as a frame data encoding method, and encoded data described in the JPEG2000 standard or Motion defined in Part 3 of the standard. It may be JPEG2000 encoded data.

また、復号処理時間の計測についても上述の実施の形態に限定されるものではなく、例えば、ウェーブレット変換などの処理はおおむね一定の処理時間と推定し、ビットプレーン復号にかかる時間のみを計測するようにしても構わないし、複数フレーム単位に処理時間を計測し、非復号部分を制御しても構わない。   Also, the measurement of the decoding processing time is not limited to the above-described embodiment. For example, processing such as wavelet transform is estimated to be a substantially constant processing time, and only the time required for bit plane decoding is measured. Alternatively, the processing time may be measured in units of a plurality of frames, and the non-decoding part may be controlled.

更に、本発明は、複数の機器(例えば、ホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置等)に適用してもよい。   Further, even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, and the like), an apparatus including one device (for example, a copier, a facsimile device, and the like) May be applied.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。ここでプログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク、MOなどが考えられる。   Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide a computer (or a CPU or Needless to say, the present invention can also be achieved by an MPU) reading and executing a program code stored in a storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing. Here, examples of the storage medium for storing the program code include a flexible disk, a hard disk, a ROM, a RAM, a magnetic tape, a nonvolatile memory card, a CD-ROM, a CD-R, a DVD, an optical disk, a magneto-optical disk, and an MO. Can be considered.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

本発明の実施の形態における動画像符号化装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a video encoding device according to an embodiment of the present invention. 2次元離散ウェーブレット変換によって処理される符号化対象画像のサブバンドを説明するための図である。FIG. 3 is a diagram for explaining subbands of an encoding target image processed by two-dimensional discrete wavelet transform. 2回の2次元離散ウェーブレット変換によって得られる7つのサブバンドを示す図である。FIG. 11 is a diagram illustrating seven subbands obtained by two two-dimensional discrete wavelet transforms. ビットプレーン符号化部でサブバンドSbを符号化する処理手順を説明するためのフローチャートである。35 is a flowchart for describing a processing procedure of encoding a subband Sb in a bit plane encoding unit. 符号列形成部において生成される1フレーム分の動画像符号化データに対応する符号列の細部構造を示す図である。FIG. 3 is a diagram illustrating a detailed structure of a code string corresponding to one frame of encoded moving image data generated by the code string forming unit. 二次記憶装置に格納される各フレームの符号列の一例を示す図である。FIG. 3 is a diagram illustrating an example of a code string of each frame stored in a secondary storage device. 本発明の第1、第3の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram showing the composition of the video decoding device concerning a 1st, 3rd embodiment of the present invention. 本発明の第1の実施形態に係るQファクタと各サブバンドの非復号ビットプレーンND(Sb)、まは、Qファクタと各サブバンドの非復号パス数NDP(Sb)の関係を示す図である。FIG. 7 is a diagram illustrating a relationship between a Q factor and a non-decoding bit plane ND (Sb) of each subband or a Q factor and the number of non-decoding paths NDP (Sb) of each subband according to the first embodiment of the present invention. is there. 本発明の第1、第3の実施形態に係る動画像復号装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the video decoding device which concerns on the 1st, 3rd embodiment of this invention. 本発明の第2の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram showing the composition of the video decoding device concerning a 2nd embodiment of the present invention. 本発明の第2の実施形態に係る非復号ビットプレーン決定部に保持されるテーブルの例を示す図である。FIG. 14 is a diagram illustrating an example of a table held in a non-decoding bit plane determination unit according to the second embodiment of the present invention. 本発明の第2の実施形態に係る動画像復号装置の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a video decoding device concerning a 2nd embodiment of the present invention. ステップS1107におけるND(Sb)テーブル、SIの更新処理の流れを示すフローチャートである。It is a flowchart which shows the flow of update processing of ND (Sb) table and SI in step S1107. 本発明の第2の実施形態に係るサブバンドインデックスSIとサブバンドの対応を示す図である。FIG. 13 is a diagram illustrating a correspondence between a subband index SI and a subband according to the second embodiment of the present invention. 本発明の第3の実施形態に係る動画像復号装置で復号対象とする1フレーム分の動画像符号化データの構造を示す図である。FIG. 15 is a diagram illustrating a structure of encoded video data for one frame to be decoded by the video decoding device according to the third embodiment of the present invention. 動画像データ出力部の具体的構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a specific configuration example of a moving image data output unit. 本発明の第4の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram showing the composition of the video decoding device concerning a 4th embodiment of the present invention. 本発明の第4の実施形態に係る動画像復号装置の時系列での動作を示すタイムチャートである。15 is a time chart illustrating a time-series operation of the video decoding device according to the fourth embodiment of the present invention. 本発明の第4の実施形態に係る動画像復号装置の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a video decoding device concerning a 4th embodiment of the present invention.

符号の説明Explanation of reference numerals

100 動画像復号装置
101 符号列読み出し部
102 ビットプレーン復号部
104 逆離散ウェーブレット変換部
105 動画像データ出力部
106 復号処理時間計測部
107 非復号ビットプレーン決定部
200 動画像復号装置
201 動画像データ入力部
202 離散ウェーブレット変換部
203 係数量子化部
204 ビットプレーン符号化部
205 符号列形成部
206 2次記憶装置
207 信号線
300 動画像復号装置
400 動画像復号装置
901 係数逆量子化部
902 逆離散ウェーブレット変換部
903 非復号ビットプレーン決定部
904 符号列読み出し部
1601 バッファ
1602 ディスプレイインターフェース
1603 ディスプレイ
1701 バッファ状態監視部
1702 非復号ビットプレーン決定部
REFERENCE SIGNS LIST 100 moving image decoding device 101 code string reading unit 102 bit plane decoding unit 104 inverse discrete wavelet transform unit 105 moving image data output unit 106 decoding processing time measuring unit 107 non-decoding bit plane determining unit 200 moving image decoding device 201 moving image data input Unit 202 discrete wavelet transform unit 203 coefficient quantization unit 204 bit plane encoding unit 205 code string forming unit 206 secondary storage device 207 signal line 300 video decoding device 400 video decoding device 901 coefficient inverse quantization unit 902 inverse discrete wavelet Conversion section 903 Non-decoding bit plane determining section 904 Code string reading section 1601 Buffer 1602 Display interface 1603 Display 1701 Buffer state monitoring section 1702 Non-decoding bit plane determining section

Claims (19)

動画像データの各フレームを複数のサブバンドに分解し、サブバンドの係数を所定単位毎に上位のビットから下位のビットへとビットプレーン、またはサブビットプレーン単位で符号化して生成された動画像符号化データを復号する動画像復号装置であって、
前記所定単位の動画像符号化データの復号処理に割り当てられた時間と実際の復号処理にかかった時間の差の大小を判定するための情報を取得する復号処理時間情報取得手段と、
前記復号処理時間情報取得手段により得られる情報に基づいて、復号しないビットプレーン、またはサブビットプレーンを決定する非復号ビットプレーン決定手段と、
前記非復号ビットプレーン決定手段により決定されたビットプレーン、またはサブビットプレーン以外の符号化データから、サブバンドの係数を前記所定単位で復元するビットプレーン復号手段と、
前記ビットプレーン復号手段により得られた前記複数のサブバンドの係数を合成し、フレームデータを生成するサブバンド合成手段と
を備えることを特徴とする動画像復号装置。
Each frame of the moving image data is decomposed into a plurality of sub-bands, and the moving image generated by encoding the coefficients of the sub-bands from a higher-order bit to a lower-order bit for each predetermined unit in bit plane or sub-bit plane units A moving image decoding device that decodes encoded data,
Decoding processing time information obtaining means for obtaining information for determining the magnitude of the difference between the time allocated to the decoding processing of the video encoded data of the predetermined unit and the time required for the actual decoding processing,
Based on the information obtained by the decoding processing time information obtaining means, a non-decoding bit plane, or a non-decoding bit plane determining means for determining a sub-bit plane,
Bit plane determined by the non-decoding bit plane determining means, or bit plane decoding means for restoring sub-band coefficients in the predetermined unit from encoded data other than sub-bit planes,
A subband synthesizing unit that synthesizes coefficients of the plurality of subbands obtained by the bit plane decoding unit and generates frame data.
前記復号処理時間情報取得手段は動画像符号化データの復号処理にかかった復号処理時間を取得し、前記非復号ビットプレーン決定手段は前記復号処理時間情報取得手段から得られる復号処理時間に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項1に記載の動画像復号装置。   The decoding processing time information obtaining means obtains the decoding processing time required for the decoding processing of the encoded video data, and the non-decoding bit plane determining means obtains the decoding processing time based on the decoding processing time obtained from the decoding processing time information obtaining means. The moving picture decoding apparatus according to claim 1, wherein a bit plane or a sub bit plane not to be decoded is determined. 更に復号済のフレームデータを格納するための復号フレームデータ格納手段を備え、
前記復号処理時間情報取得手段は前記復号フレームデータ格納手段に格納されているフレーム数を取得し、前記非復号ビットプレーン決定手段は前記復号処理時間情報取得手段から得られるフレーム数に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項1に記載の動画像復号装置。
Further provided is a decoded frame data storage means for storing the decoded frame data,
The decoding processing time information obtaining means obtains the number of frames stored in the decoded frame data storage means, and the non-decoding bit plane determining means does not perform decoding based on the number of frames obtained from the decoding processing time information obtaining means. The moving picture decoding apparatus according to claim 1, wherein a bit plane or a sub-bit plane is determined.
前記非復号ビットプレーン決定手段は画質を示すパラメータを保持し、前記復号処理時間情報取得手段により得られる情報に基づいて前記パラメータを調整し、パラメータにより各サブバンドの復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項1乃至3のいずれかに記載の動画像復号装置。   The non-decoding bit plane determining unit holds a parameter indicating image quality, adjusts the parameter based on information obtained by the decoding processing time information obtaining unit, and sets a non-decoding bit plane or sub bit of each subband by the parameter. The moving picture decoding apparatus according to claim 1, wherein a plane is determined. 前記非復号ビットプレーン決定手段は各サブバンドの復号しないビットプレーン、またはサブビットプレーンの枚数を格納するテーブルを保持し、前記復号処理時間情報取得手段により得られる情報に応じて前記テーブルに格納された復号しないビットプレーン、またはサブビットプレーンの枚数を増減することを特徴とする請求項1乃至3のいずれかに記載の動画像復号装置。   The non-decoding bit plane determining means holds a table for storing the number of bit planes not to be decoded for each sub-band, or the number of sub-bit planes, and is stored in the table in accordance with information obtained by the decoding processing time information obtaining means. 4. The moving picture decoding apparatus according to claim 1, wherein the number of bit planes or sub bit planes not decoded is increased or decreased. 前記非復号ビットプレーン決定手段は、前記所定単位の動画像符号化データの復号処理に割り当てられた時間と、前記復号処理情報取得手段により得られる復号処理時間との差分を算出し、算出した差分を累積した値に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項2に記載の動画像復号装置。   The non-decoding bit plane determining means calculates a difference between a time allocated to the predetermined unit of moving image encoded data decoding processing and a decoding processing time obtained by the decoding processing information obtaining means, and calculates the calculated difference. 3. The moving picture decoding apparatus according to claim 2, wherein a bit plane or a sub-bit plane not to be decoded is determined based on a value obtained by accumulating. 前記動画像符号化データを生成するためのサブバンド分解が2次元離散ウェーブレット変換により行われ、前記サブバンド合成手段は、2次元逆離散ウェーブレット変換を用いてフレームデータを合成することを特徴とする請求項1乃至6のいずれかに記載の動画像復号装置。   The sub-band decomposition for generating the moving image encoded data is performed by a two-dimensional discrete wavelet transform, and the sub-band synthesizing unit synthesizes the frame data using a two-dimensional inverse discrete wavelet transform. The moving picture decoding device according to claim 1. 前記所定単位は、フレームまたは、フレームを複数に分割したブロックであることを特徴とする請求項1乃至7のいずれかに記載の動画像復号装置。   The moving picture decoding apparatus according to any one of claims 1 to 7, wherein the predetermined unit is a frame or a block obtained by dividing the frame into a plurality. 動画像データの各フレームを複数のサブバンドに分解し、サブバンドの係数を所定単位毎に上位のビットから下位のビットへとビットプレーン、またはサブビットプレーン単位で符号化して生成された動画像符号化データを復号する動画像復号方法であって、
前記所定単位の動画像符号化データの復号処理に割り当てられた時間と実際の復号処理にかかった時間の差の大小を判定するための情報を取得する復号処理時間情報取得工程と、
前記復号処理時間情報取得工程により得られる情報に基づいて、復号しないビットプレーン、またはサブビットプレーンを決定する非復号ビットプレーン決定工程と、
前記非復号ビットプレーン決定工程により決定されたビットプレーン、またはサブビットプレーン以外の符号化データから、サブバンドの係数を前記所定単位で復元するビットプレーン復号工程と、
前記ビットプレーン復号工程により得られた前記複数のサブバンドの係数を合成し、フレームデータを生成するサブバンド合成工程と
を備えることを特徴とする動画像復号方法。
Each frame of the moving image data is decomposed into a plurality of sub-bands, and the moving image generated by encoding the coefficients of the sub-bands from a higher-order bit to a lower-order bit for each predetermined unit in bit plane or sub-bit plane units A moving image decoding method for decoding encoded data,
A decoding processing time information obtaining step of obtaining information for determining the magnitude of a difference between the time allocated to the decoding processing of the moving image encoded data of the predetermined unit and the time required for the actual decoding processing,
Based on the information obtained by the decoding processing time information obtaining step, a non-decoding bit plane, or a non-decoding bit plane determining step of determining a sub-bit plane,
A bit plane determined by the non-decoding bit plane determining step, or a bit plane decoding step of restoring subband coefficients in the predetermined unit from encoded data other than the sub bit plane,
A subband synthesizing step of synthesizing coefficients of the plurality of subbands obtained in the bitplane decoding step to generate frame data.
前記復号処理時間情報取得工程では動画像符号化データの復号処理にかかった復号処理時間を取得し、前記非復号ビットプレーン決定工程では前記復号処理時間情報取得工程で得られる復号処理時間に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項9に記載の動画像復号方法。   In the decoding processing time information obtaining step, a decoding processing time required for decoding the moving picture encoded data is obtained, and in the non-decoding bit plane determining step, based on the decoding processing time obtained in the decoding processing time information obtaining step. The moving picture decoding method according to claim 9, wherein a bit plane or a sub-bit plane not to be decoded is determined. 更に復号済のフレームデータを格納するための復号フレームデータ格納工程を備え、
前記復号処理時間情報取得工程では前記復号フレームデータ格納工程に格納されているフレーム数を取得し、前記非復号ビットプレーン決定工程では前記復号処理時間情報取得工程で得られるフレーム数に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項9に記載の動画像復号方法。
Further comprising a decoded frame data storing step for storing the decoded frame data,
In the decoding processing time information obtaining step, the number of frames stored in the decoded frame data storing step is obtained, and in the non-decoding bit plane determining step, decoding is not performed based on the number of frames obtained in the decoding processing time information obtaining step. The moving picture decoding method according to claim 9, wherein a bit plane or a sub-bit plane is determined.
前記非復号ビットプレーン決定工程では、画質を示すパラメータを管理し、前記復号処理時間情報取得工程で得られる情報に基づいて前記パラメータを調整し、パラメータにより各サブバンドの復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項9乃至11のいずれかに記載の動画像復号方法。   In the non-decoding bit plane determining step, a parameter indicating image quality is managed, and the parameter is adjusted based on the information obtained in the decoding processing time information obtaining step. The moving picture decoding method according to claim 9, wherein a bit plane is determined. 前記非復号ビットプレーン決定工程では、各サブバンドの復号しないビットプレーン、またはサブビットプレーンの枚数を格納するテーブルを管理し、前記復号処理時間情報取得工程で得られる情報に応じて前記テーブルに格納された復号しないビットプレーン、またはサブビットプレーンの枚数を増減することを特徴とする請求項9乃至11のいずれかに記載の動画像復号方法。   In the non-decoding bit plane determining step, a table for storing the number of bit planes or sub bit planes that are not decoded for each subband is managed, and stored in the table according to the information obtained in the decoding processing time information obtaining step. 12. The moving picture decoding method according to claim 9, wherein the number of bit planes or sub-bit planes not decoded is increased or decreased. 前記非復号ビットプレーン決定工程では、前記所定単位の動画像符号化データの復号処理に割り当てられた時間と、前記復号処理時間情報取得工程で得られる復号処理時間との差分を算出し、算出した差分を累積した値に基づいて復号しないビットプレーン、またはサブビットプレーンを決定することを特徴とする請求項10に記載の動画像復号方法。   In the non-decoding bit plane determining step, the difference between the time allocated to the decoding processing of the predetermined unit of moving image encoded data and the decoding processing time obtained in the decoding processing time information obtaining step is calculated and calculated. The moving picture decoding method according to claim 10, wherein a bit plane or a sub-bit plane not to be decoded is determined based on a value obtained by accumulating the differences. 前記動画像符号化データを生成するためのサブバンド分解が2次元離散ウェーブレット変換により行われ、前記サブバンド合成工程において、2次元逆離散ウェーブレット変換を用いてフレームデータを合成することを特徴とする請求項9乃至14のいずれかに記載の動画像復号方法。   The sub-band decomposition for generating the moving image encoded data is performed by two-dimensional discrete wavelet transform, and the sub-band synthesizing step synthesizes frame data using two-dimensional inverse discrete wavelet transform. The moving picture decoding method according to claim 9. 前記所定単位は、フレームまたは、フレームを複数に分割したブロックであることを特徴とする請求項9乃至15のいずれかに記載の動画像復号方法。   16. The video decoding method according to claim 9, wherein the predetermined unit is a frame or a block obtained by dividing the frame into a plurality. 情報処理装置が実行可能なプログラムであって、前記プログラムを実行した情報処理装置を、請求項1乃至8のいずれかに記載の動画像復号装置として機能させることを特徴とするプログラム。   9. A program executable by an information processing apparatus, the information processing apparatus executing the program functioning as the moving picture decoding apparatus according to claim 1. 請求項9乃至16のいずれかに記載の動画像復号方法を実現するためのプログラムコードを有することを特徴とする情報処理装置が実行可能なプログラム。   A program executable by an information processing apparatus, comprising a program code for implementing the moving picture decoding method according to claim 9. 請求項17又は18に記載のプログラムを記憶したことを特徴とする情報処理装置が読み取り可能な記憶媒体。   A storage medium readable by an information processing apparatus, storing the program according to claim 17.
JP2004073404A 2003-04-24 2004-03-15 Device and method for decoding moving image Withdrawn JP2004343710A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004073404A JP2004343710A (en) 2003-04-24 2004-03-15 Device and method for decoding moving image
US10/823,612 US7903734B2 (en) 2003-04-24 2004-04-14 Moving image decoding apparatus, moving image decoding method, image decoding method, and image decoding apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003120501 2003-04-24
JP2004073404A JP2004343710A (en) 2003-04-24 2004-03-15 Device and method for decoding moving image

Publications (1)

Publication Number Publication Date
JP2004343710A true JP2004343710A (en) 2004-12-02

Family

ID=33543233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004073404A Withdrawn JP2004343710A (en) 2003-04-24 2004-03-15 Device and method for decoding moving image

Country Status (1)

Country Link
JP (1) JP2004343710A (en)

Similar Documents

Publication Publication Date Title
JP4702928B2 (en) Moving picture encoding apparatus and decoding apparatus, control method therefor, computer program, and computer-readable storage medium
TWI521890B (en) Image coding apparatus, method and program, and image decoding apparatus, method and program
US6847735B2 (en) Image processing system, image processing apparatus, image input apparatus, image output apparatus and method, and storage medium
JP5680283B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
US6950471B2 (en) Coding device, coding method and storage medium
KR101303375B1 (en) Method and device for encoding blocks of values
US7302105B2 (en) Moving image coding apparatus, moving image decoding apparatus, and methods therefor
JP2001346047A (en) Image processor and image processing method
US7903734B2 (en) Moving image decoding apparatus, moving image decoding method, image decoding method, and image decoding apparatus
JP2007267384A (en) Compression apparatus and compression method
RU2335803C2 (en) Method and device for frame-accurate encoding of residual movement based on superabundant basic transformation to increase video image condensation
JP6727011B2 (en) Image coding apparatus and control method thereof
JP5689291B2 (en) Image decoding apparatus, image decoding method, image decoding program, image encoding apparatus, image encoding method, and image encoding program
JP5817125B2 (en) Image processing apparatus and method
US20040057514A1 (en) Image processing apparatus and method thereof
KR20060069227A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
JP4514666B2 (en) Video encoding device
JP2004343710A (en) Device and method for decoding moving image
JP3833585B2 (en) Image coding apparatus, image coding method, and computer program
JP2003244443A (en) Image encoder and image decoder
JP4353986B2 (en) Image composition apparatus, image composition method, image composition program, and computer-readable recording medium on which image composition program is recorded
JP4194311B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, and methods thereof
JP2005102125A (en) Image decoding method and image decoding apparatus
JP4174254B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, and methods thereof
JP3954052B2 (en) Image composition apparatus, image composition method, image composition program, and computer-readable recording medium on which image composition program is recorded

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605