JP2006319556A - Image decoding device - Google Patents
Image decoding device Download PDFInfo
- Publication number
- JP2006319556A JP2006319556A JP2005138759A JP2005138759A JP2006319556A JP 2006319556 A JP2006319556 A JP 2006319556A JP 2005138759 A JP2005138759 A JP 2005138759A JP 2005138759 A JP2005138759 A JP 2005138759A JP 2006319556 A JP2006319556 A JP 2006319556A
- Authority
- JP
- Japan
- Prior art keywords
- code
- decoding
- code stream
- processing time
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
この発明は、静止画像の階層的な符号データを対象とした画像復号装置に関するものである。 The present invention relates to an image decoding apparatus for hierarchical code data of still images.
現在、インターネットを中心に静止画像符号化アルゴリズムJPEGが広く普及しているが、一方で次世代の符号化方式としてさらなる性能改善、機能付加の要求を背景として標準化された、JPEG2000が次第に使われ始めてきている。以下に、標準書(非特許文献1参照)に従ってJPEG2000符号化アルゴリズムの基本方式の概略を説明する。 Currently, the still image coding algorithm JPEG is widespread mainly on the Internet. On the other hand, JPEG2000, which has been standardized against the background of the demand for further performance improvement and function addition as the next generation coding method, is gradually being used. It is coming. In the following, an outline of the basic scheme of the JPEG2000 encoding algorithm will be described according to the standard (see Non-Patent Document 1).
まず、入力される画像信号は、ウェーブレット変換部で2次元のウェーブレット変換が施され、複数のサブバンドに帯域分割される。ここで、2次元のウェーブレット変換は1次元のウェーブレット変換の組み合わせとして実現される。つまり、垂直方向の一次元ウェーブレット変換を列毎に順次行う処理と水平方向の一次元ウェーブレット変換をライン毎に順次行う処理である。また、1次元のウェーブレット変換は、所定の特性を持つローパスフィルタとハイパスフィルタおよびダウンサンプラから構成されるものである。 First, an input image signal is subjected to two-dimensional wavelet transform by a wavelet transform unit, and is divided into a plurality of subbands. Here, the two-dimensional wavelet transform is realized as a combination of the one-dimensional wavelet transform. That is, a process of sequentially performing vertical one-dimensional wavelet transform for each column and a process of sequentially performing horizontal one-dimensional wavelet transform for each line. The one-dimensional wavelet transform is composed of a low-pass filter, a high-pass filter, and a down sampler having predetermined characteristics.
こうして生成された2次元のウェーブレット変換係数は、低域成分をL、高域成分をHとし、水平方向の変換を1文字目、垂直副走査方向の変換を2文字目で表現することで、LL、HL、LH、HHと表現される。また、これらの帯域分割された成分はサブバンドと呼ばれている。ここで、水平、垂直方向の低域成分(LL成分)は再帰的にウェーブレッ変換が施される。 The two-dimensional wavelet transform coefficient generated in this way is expressed by expressing the low-frequency component as L, the high-frequency component as H, the horizontal conversion by the first character, and the vertical sub-scanning conversion by the second character. Expressed as LL, HL, LH, HH. These band-divided components are called subbands. Here, the horizontal and vertical low-frequency components (LL components) are recursively subjected to wavelet transform.
次に、各サブバンドのウェーブレット変換係数は、サブバンド毎に設定された量子化ステップサイズにより量子化される。 Next, the wavelet transform coefficient of each subband is quantized by the quantization step size set for each subband.
次に、各サブバンドの量子化後のウェーブレット変換係数をコードブロックと呼ばれる固定サイズの領域に分割した後、多値データからなるコードブロックを2値のビットプレーン表現に変換し、各ビットプレーンを3通りの符号化パス(Significant Propagation Decoding Pass, Magnitude Refinement Pass, Cleanup Pass)に分割する。 Next, after the wavelet transform coefficients after quantization of each subband are divided into fixed-size areas called code blocks, the code block consisting of multi-value data is converted into a binary bit plane representation, and each bit plane is converted to Dividing into three types of encoding passes (Significant Propagation Decoding Pass, Magnitude Refinement Pass, and Cleanup Pass).
3つの符号化パスから出力される2値信号は、それぞれの符号化パス毎にコンテクストモデリングが行われ、エントロピー符号化が行われる。 The binary signal output from the three coding passes is subjected to context modeling for each coding pass and subjected to entropy coding.
また、エントロピー符号化処理と並行して、各コードブロックに於いて符号化パス毎の符号量と歪情報を計算する。 In parallel with the entropy encoding process, the code amount and distortion information for each encoding pass are calculated in each code block.
最後に、ラグランジェの乗数法を用いて画質劣化(符号化歪)を最小にしながら、目標とする符号サイズ以下に符号量を調整するレート制御が一般的に適用される。この方法では、各コードブロックiにおける切り捨てポイント(それより下位の符号化パスを切り捨てる)をni、各切捨てポイントまでの符号量をR(i,ni)、符号化歪をD(i,ni)とした時、ラグランジェの乗数法を使い、次式
Σ(R(i,ni)+λD(i,ni))
を最小にする切捨てポイントによって生ずる画面全体での総符号量Rが目標符号量Rmaxの範囲内であることを満足するまで変数λを調整する。ここで、符号化歪とは、ある符号化パスまでを復号した時に発生する再生画像の平均二乗誤差とする。
Finally, rate control that adjusts the code amount to a target code size or less while minimizing image quality degradation (encoding distortion) using the Lagrange multiplier method is generally applied. In this method, the truncation point in each code block i (which truncates the lower encoding pass) is ni, the code amount up to each truncation point is R (i, ni), and the encoding distortion is D (i, ni). When using Lagrange's multiplier method, the following formula Σ (R (i, ni) + λD (i, ni))
The variable λ is adjusted until the total code amount R in the entire screen generated by the cut-off point that minimizes is satisfied within the range of the target code amount Rmax. Here, the coding distortion is a mean square error of a reproduced image generated when decoding up to a certain coding pass.
変数λが求まったら、その変数λに対応する切捨てポイントまでの符号データを全てのコードブロックから集めて、更に各コードブロックにおける符号化パス数を付加情報として付け加え、最終的な符号データを構成する。こうして、目標符号量Rmaxのもとで符号化歪みを最小とする符号データを生成することができる。 When the variable λ is obtained, the code data up to the truncation point corresponding to the variable λ is collected from all the code blocks, and the number of coding passes in each code block is added as additional information to form the final code data. . In this way, code data that minimizes coding distortion can be generated under the target code amount Rmax.
符号化パスを複数のレイヤに分割してコードストリームを構成することも可能である。これには、目標符号量Dmaxを小さな値から大きな値まで複数回設定して、前記手順により切り捨てポイントを複数設定する。次に、切り捨てポイント間の符号データをレイヤとして分割し、同一解像度レベル、同一コンポーネント、同一レイヤの符号データをパケットとしてまとめる。各パケットにはそのバイト数などを格納したパケットヘッダを付加する。上位ビットプレーンのパケットを下位ビットプレーンのパケットよりもコードストリーム内で先に配置することにより、重要なパケットほどコードストリーム内で先に配置される構成が実現できる。復号時には、コードストリームの先頭から所望のバイト数を満たすパケットを抽出すれば、所望の符号量のもとで符号化歪が最小となるコードストリームが得られる。 It is also possible to configure the code stream by dividing the coding pass into a plurality of layers. For this purpose, the target code amount Dmax is set a plurality of times from a small value to a large value, and a plurality of truncation points are set by the above procedure. Next, the code data between the cut-off points is divided into layers, and the code data of the same resolution level, the same component, and the same layer are collected as a packet. A packet header storing the number of bytes is added to each packet. By arranging higher-order bit-plane packets earlier in the code stream than lower-bit-plane packets, it is possible to realize a configuration in which more important packets are placed earlier in the code stream. At the time of decoding, if a packet satisfying a desired number of bytes is extracted from the head of the code stream, a code stream with a minimum coding distortion can be obtained under a desired code amount.
以上のようなJPEG2000国際標準規格は、ISOやITU−T等の標準化機関を通して入手することができる。また、JPEG2000の最新情報については、http://www.jpeg.orgを参照することにより入手することができる。 The JPEG2000 international standard as described above can be obtained through a standardization organization such as ISO or ITU-T. The latest information on JPEG2000 can be obtained by referring to http://www.jpeg.org.
上述した符号データ抽出方法では、所望の符号量の符号データを抽出し、復号することが可能だが、処理にどれだけの時間が掛かるかがわからない、また、表示される再生画像がどの程度の画質のものかがわからないといった問題があった。 In the code data extraction method described above, it is possible to extract and decode code data of a desired code amount, but it is not known how much time it takes to process, and how much image quality the reproduced image to be displayed is. There was a problem that I did not know what.
この発明は前記のような問題点を解決するためになされたもので、復号側で指定される所望の画質あるいは処理時間を考慮して抽出符号量を決定することにより、復号側のユーザが表示までに必要以上長く待つことや、再生画質が極端に悪くなることを防ぎ、画像の快適な閲覧を提供することを目的とする。 The present invention has been made to solve the above-described problems, and a decoding-side user can display by determining an extraction code amount in consideration of a desired image quality or processing time designated on the decoding side. An object of the present invention is to provide a comfortable browsing of images by preventing waiting for an unnecessarily long time or an extremely poor reproduction image quality.
この発明に係る画像復号装置は、複数のレイヤに分割して構成されたコードストリームを復号する画像復号装置であって、コードストリームを蓄積するコードストリーム蓄積手段と、前記コードストリーム蓄積手段に蓄積されたコードストリームから所定の符号データを抽出するコードストリーム抽出手段と、前記コードストリーム抽出手段により抽出されたコードストリームを復号するコードストリーム復号手段と、指定されたレイヤあるいは画質を与える符号量を検出する符号量検出手段と、復号に要する時間と復号速度を計測する復号速度計測手段と、前記復号速度計測手段により計測された復号速度を記憶する復号速度記憶手段と、前記符号量検出手段により検出された符号量及び前記復号速度記憶手段に記憶された復号速度に基づいて前記コードストリームから抽出する符号データを決定する抽出パケット決定手段とを備えたものである。 An image decoding apparatus according to the present invention is an image decoding apparatus that decodes a code stream configured by being divided into a plurality of layers, the code stream storing means for storing the code stream, and stored in the code stream storing means. A code stream extraction unit for extracting predetermined code data from the code stream; a code stream decoding unit for decoding the code stream extracted by the code stream extraction unit; and a code amount that provides a specified layer or image quality. Code amount detection means, decoding speed measurement means for measuring the time and decoding speed required for decoding, decoding speed storage means for storing the decoding speed measured by the decoding speed measurement means, and detection by the code amount detection means Code amount and the decoding speed stored in the decoding speed storage means. Those with an extraction packet determining means for determining the encoded data to be extracted from the code stream Te.
また、他の発明に係る画像復号装置は、複数のレイヤに分割して構成されたコードストリームを復号する画像復号装置であって、コードストリームを蓄積するコードストリーム蓄積手段と、前記コードストリーム蓄積手段に蓄積されたコードストリームから所定の符号データを抽出するコードストリーム抽出手段と、指定されたレイヤあるいは指定された画質を与える符号量とコードストリームを伝送するコードストリーム・符号量情報伝送手段と、指定されたレイヤあるいは画質を与える符号量を検出する符号量検出手段と、指定されたレイヤあるいは指定された画質を与える符号量とコードストリームを受信するコードストリーム・符号量情報受信手段と、抽出されたコードストリームを復号するコードストリーム復号手段と、復号に要する時間を計測する復号速度計測手段と、復号速度を記憶する復号速度記憶手段と、伝送速度を計測する伝送速度計測手段と、伝送速度を記憶する伝送速度記憶手段と、前記コードストリームから抽出する符号データを決定する抽出パケット決定手段とを備えたものである。 An image decoding apparatus according to another invention is an image decoding apparatus for decoding a code stream configured by being divided into a plurality of layers, the code stream storing means for storing the code stream, and the code stream storing means Code stream extraction means for extracting predetermined code data from the code stream stored in the code stream, a code amount for giving a specified layer or a specified image quality and a code stream / code quantity information transmission means for transmitting the code stream, and designation Code amount detection means for detecting a code amount that gives a specified layer or image quality, a code amount that gives a specified layer or a specified image quality, and a code stream / code amount information receiving means for receiving a code stream; Code stream decoding means for decoding the code stream and necessary for decoding A decoding speed measuring means for measuring the transmission time; a decoding speed storing means for storing the decoding speed; a transmission speed measuring means for measuring the transmission speed; a transmission speed storing means for storing the transmission speed; Extraction packet determination means for determining code data is provided.
この発明によれば、再生画像の画質と復号に要する処理時間の両方を考慮することにより、閲覧に適切な符号量の符号データを抽出して復号することができる。 According to the present invention, it is possible to extract and decode code data having a code amount appropriate for browsing by taking into consideration both the image quality of a reproduced image and the processing time required for decoding.
実施の形態1.
本実施の形態1による画像復号装置では、復号装置内部の記憶装置に格納されたコードストリームからユーザが静止画像を閲覧するのに適当な符号量の符号データを抽出して、復号する例を示す。符号化・復号方式としては、JPEG2000を使って説明する。なお、符号化はリアルタイムで行うのではなく、予め実行しておき、コードストリームを蓄積しておくことを想定している。
In the image decoding apparatus according to the first embodiment, an example in which code data having a code amount appropriate for a user to view a still image is extracted from a code stream stored in a storage device inside the decoding apparatus and decoded is shown. . The encoding / decoding method will be described using JPEG2000. It is assumed that encoding is not performed in real time, but is executed in advance and a code stream is accumulated.
まず、コードストリームの構成を説明するために、図1に示す画像符号化装置の構成を示すブロック図を使ってコードストリームを生成する符号化手順を説明する。
図1に示す画像符号化装置は、入力画像信号を2次元のウェーブレット変換を再帰的に行うウェーブレット変換手段101と、ウェーブレット変換手段101によって生成されたウェーブレット変換係数を予め設定された量子化ステップサイズで量子化処理する量子化手段102と、量子化されたウェーブレット変換係数をビットプレーンに分解し2値算術符号化するエントロピー符号化手段103と、エントロピー符号化された符号データを所定のフォーマットに変換してコードストリームを生成するフォーマッティング手段104と、各コードブロックにおいてある符号化パスの符号化が終了する度に、その符号化パスまでを復号した場合に発生する符号化歪Dを算出するレート歪特性算出手段105と、コードストリームを蓄積するコードストリーム蓄積手段110とを備えている。
First, in order to describe the configuration of the code stream, an encoding procedure for generating a code stream will be described using the block diagram showing the configuration of the image encoding device shown in FIG.
The image encoding apparatus shown in FIG. 1 includes a
図には示していない画像入力装置(例えば、イメージスキャナやデジタルカメラ、もしくはネットワークや記憶媒体等)から入力された画像信号は、ウェーブレット変換手段101で1次元のウェーブレット変換が垂直方向、水平方向の両方向に対して2次元的に施され、サブバンドに帯域分割される。ここで、1次元のウェーブレット変換は、低域通過フィルタと高域通過フィルタのフィルタバンクによって構成される。
An image signal input from an image input device (for example, an image scanner, a digital camera, a network, a storage medium, or the like) not shown in the figure is converted into a one-dimensional wavelet transform by the
図2は、2次元のウェーブレット変換を2回再帰的に施した例である。図中、先頭の数字は分解レベルを表しており、続くLまたはHの2つの英字は、水平方向、垂直方向のフィルタの種類を表している。Lは低域通過フィルタを、Hは高域通過フィルタを施した結果を表している。また、「再帰的に」ウェーブレット変換を2回施すと言うことは、まず第1回目のウェーブレット変換により、1LL,1HL,1LH,1HHが生成されると、その1LLに対して2回目のウェーブレット変換を施し、2LL,2HL,2LH,2HHを生成することを意味している。 FIG. 2 is an example in which a two-dimensional wavelet transform is recursively performed twice. In the figure, the first number represents the decomposition level, and the following two alphabetic characters L or H represent the types of filters in the horizontal and vertical directions. L represents a low-pass filter, and H represents the result of applying a high-pass filter. In addition, “recursively” performing wavelet transform twice means that when 1LL, 1HL, 1LH, and 1HH are generated by the first wavelet transform, the second wavelet transform is performed on the 1LL. To generate 2LL, 2HL, 2LH, and 2HH.
量子化処理手段102では、サブバンド毎に設定された量子化ステップサイズによりウェーブレット変換係数を量子化する。 The quantization processing means 102 quantizes the wavelet transform coefficient with the quantization step size set for each subband.
エントロピー符号化手段103では、各サブバンドのウェーブレット変換係数をコードブロックと呼ばれる固定サイズの矩形領域に分割した後、多値データからなるそれぞれのコードブロックを2値のビットプレーンに変換する。通常このコードブロックの大きさは、64x64、32x32などのサイズに設定される。
The
ここで、図3を用いてビットプレーンの分解について詳しく説明する。図3において、(a)は4x4のコードブロックの一例を表している。これらのデータに対して、正負を表す1ビットの信号と絶対値の表現に変換し、それらのデータを縦方向に2進表現した結果を各行単位に並べたものが(b)となる。次に、(b)に対して同一のビット番号のビットを集めたものが(c)となる。ここで、最下位ビット(LSB:Least Significant Bit)を第0ビット、第上位ビット(MSB:Most Significant Bit)を第3ビットとした時、第0ビットで集めたものを第0ビットプレーン、第1ビットで集めたものを第1ビットプレーン、第2ビットで集めたものを第2ビットプレーン、第3ビットで集めたものを第3ビットプレーンとしている。これ以外にも正負を表すビットの集まりとして符号ビットプレーンを作成する。 Here, the decomposition of the bit plane will be described in detail with reference to FIG. In FIG. 3, (a) represents an example of a 4 × 4 code block. These data are converted into a 1-bit signal representing positive and negative values and an absolute value representation, and the result of binary representation of the data in the vertical direction is arranged in units of rows (b). Next, (c) is a collection of bits having the same bit number with respect to (b). Here, when the least significant bit (LSB) is the 0th bit and the most significant bit (MSB) is the 3rd bit, the 0th bit plane is a collection of the 0th bit. A collection of 1 bits is a first bit plane, a collection of 2 bits is a second bit plane, and a collection of 3 bits is a third bit plane. In addition to this, a sign bit plane is created as a collection of bits representing positive and negative.
エントロピー符号化手段103では、ビットプレーン内の各ビットを、そのコンテクストに応じて、3通りの符号化パス、シグニフィカントプロパゲーションデコーディングパス(Significant Propagation Decoding Pass)、マグニチュードリファインメントパス(Magnitude Refinement Pass)、クリーンナップパス(Cleanup Pass)に分割する。 In the entropy encoding means 103, each bit in the bit plane is divided into three types of encoding pass, significant propagation decoding pass (Significant Propagation Decoding Pass), and magnitude refinement pass (Magnitude Refinement Pass) according to the context. And divide it into Cleanup Pass.
次に、それぞれの符号化パス毎に算術符号化するためのコンテクストモデリングを行う。但し、MSBプレーンから数えて全て0となるビットプレーンはコンテクストモデリング、符号化は行わず、全て0のビットプレーンの数をヘッダに書くだけとする。そして、最初に1が出現したビットプレーンについては全てのビットがクリーンナップパスに分類されるが、その他のビットプレーンについては前述したように3種類の符号化パスに分類される。 Next, context modeling for arithmetic coding is performed for each coding pass. However, the bit planes that are all 0s from the MSB plane are not subjected to context modeling and encoding, and only the number of all 0 bit planes is written in the header. For the bit plane in which 1 appears first, all bits are classified as a cleanup pass, while the other bit planes are classified into three types of encoding passes as described above.
図4は、コードブロックのビットプレーン数が6で有効なビットプレーン数が4の場合の例を示している。コンテストモデリングが終了すると、算術符号によるエントロピー符号化が行われる。エントロピー符号化は全てのビットプレーンに対して実行され、生成された符号データは、フォーマッティング手段104に一旦保存される。 FIG. 4 shows an example in which the number of bit planes in the code block is 6 and the number of effective bit planes is 4. When the contest modeling is completed, entropy coding using arithmetic codes is performed. Entropy coding is performed on all bit planes, and the generated code data is temporarily stored in the formatting means 104.
全てのコードブロックのエントロピ符号化を終了したら、各コードブロックの符号化パスをレイヤと呼ばれる単位に分割する。例えば再生画像のSNR向上への寄与度の高い符号化パスほど上位レイヤとして、符号化パスをいくつかレイヤに分割して、同一解像度、同一コンポーネント、空間位置の近いコードブロックの同一レイヤの符号データをまとめて、パケットと呼ばれる単位を構成する。 When entropy encoding of all code blocks is completed, the encoding pass of each code block is divided into units called layers. For example, the higher the contribution level to the SNR improvement of the reproduced image, the higher the upper layer, the coding pass is divided into several layers, and the code data of the same layer of the code block of the same resolution, the same component, and the close spatial position Are combined to form a unit called a packet.
図5にコードストリームの概念図を示す。ここでは説明を簡単にするために、コンポーネント数1、空間的な位置によるパケットの分割は行わない場合、つまりレイヤと解像度レベルだけからパケットを分類し、上位レイヤのパケットほどコードストリーム内で先に配置する例を示す。ウェーブレット変換係数の2LLが解像度レベル0、2HL、2LH、2HHが解像度レベル1、1HL、1LH、1HHが解像度レベル2である。この例では、各解像度レベルを5つのレイヤに分割しているので、全15個のパケットKr,s(解像度レベルr=0〜2、レイヤs=0〜4)が定義される。
FIG. 5 shows a conceptual diagram of the code stream. Here, for the sake of simplicity, in the case where the number of components is one and the packet is not divided by the spatial position, that is, the packets are classified based on only the layer and the resolution level. An example of arrangement will be shown. Wavelet transform coefficients 2LL are
次に、各パケットにそのパケットのバイト数などの属性を格納したパケットヘッダを付加した上で所定の順序に並べる。コードストリームの先頭には、画像のサイズ、ウェーブレット変換レベル数などの情報を格納したメインヘッダを、最後にはコードストリームの終わりを示すEOCマーカと呼ばれるコードを付けて、ひとつのコードストリームとなる。 Next, a packet header storing attributes such as the number of bytes of the packet is added to each packet, and the packets are arranged in a predetermined order. A code stream called an EOC marker indicating the end of the code stream is added to the main header storing information such as the image size and the number of wavelet transform levels at the head of the code stream, thereby forming one code stream.
次に、レイヤの決定方法を示す。レート歪特性算出手段105では、各コードブロックにおいてある符号化パスの符号化が終了する度に、その符号化パスまでを復号した場合に発生する符号化歪Dを算出する。なお、本実施の形態では、符号化歪をある符号化パスまでの復号した時の再生画像の平均二乗誤差として定義する。また、各コードブロックにおいてある符号化パスの符号化が終了する度にその符号化パスまでの累積符号量Rをカウントする。 Next, a layer determination method will be described. The rate distortion characteristic calculation means 105 calculates the coding distortion D that occurs when decoding up to the coding pass every time the coding pass in each code block is finished. In this embodiment, encoding distortion is defined as a mean square error of a reproduced image when decoding up to a certain encoding pass. Further, every time encoding of a certain coding pass is completed in each code block, the accumulated code amount R up to that coding pass is counted.
すべてのコードブロックの符号化が終了し、全てのコードブロックで符号化歪と符号量の関係が計算できたら、目標総歪量Dmax以下で符号量が最小となる符号化パスを全てのコードブロックに対して見つける処理を開始する。この最適化問題はラグランジェの未定乗数法を用いることで実現できる。具体的には、あるコードブロックiにおける符号化パスniまでの符号量をR(i,ni)、符号化歪をD(i,ni)とした時、
Σ(D(i,ni)+λR(i,ni))
が最小となるポイントを見つけ、その時の総歪量Dsumが目標歪量Dmaxとなるようなλを求めることになる。これは、図6に示すように、符号量Rと符号化歪Dのグラフで、傾き−λが接線となるようなポイントを見つけ、そのポイントの符号化歪の総和DsumがDmaxとなるまでλを調整することと同じである。
When the encoding of all the code blocks is completed and the relationship between the encoding distortion and the code amount can be calculated in all the code blocks, all the code blocks are passed through the encoding path having the minimum code amount below the target total distortion amount Dmax. The process of finding for is started. This optimization problem can be realized by using Lagrange's undetermined multiplier method. Specifically, when the code amount up to the encoding pass ni in a certain code block i is R (i, ni) and the encoding distortion is D (i, ni),
Σ (D (i, ni) + λR (i, ni))
Is found, and λ is obtained so that the total distortion amount Dsum at that time becomes the target distortion amount Dmax. As shown in FIG. 6, in the graph of the code amount R and the encoding distortion D, a point where the slope −λ is a tangent is found, and the sum Dsum of the encoding distortion at that point becomes Dmax. Is the same as adjusting
次に、λ調整方法の具体的な例を、図7を用いて説明する。まず、傾き−λの下限値を与えるλmax、上限値を与えるλminを定義し(図7のステップ701)、λ=(λmin+λmax)/2となるλを計算する(図7のステップ702)。コードブロックiにおいてD(i,ni)+λR(i,ni)が最小となる符号化パスniを求め、その符号量をD(i,ni)とする。全てのコードブロック対してΣD(i,ni)=Dsumを計算し(図7のステップ703〜707)、
Dsum≧Dmax であれば λmax=λ
Dsum<Dmax であれば λmin=λ
とする(図7のステップ708〜710)。
Next, a specific example of the λ adjustment method will be described with reference to FIG. First, λmax giving the lower limit value of the slope −λ and λmin giving the upper limit value are defined (step 701 in FIG. 7), and λ that satisfies λ = (λmin + λmax) / 2 is calculated (step 702 in FIG. 7). An encoding pass ni that minimizes D (i, ni) + λR (i, ni) in the code block i is obtained, and its code amount is set to D (i, ni). ΣD (i, ni) = Dsum is calculated for all code blocks (
If Dsum ≧ Dmax, λmax = λ
If Dsum <Dmax, λmin = λ
(
新しいλmin、λmaxが求められたら、先と同じように、λ=(λmin+λmax)/2の計算を行い、以下同様に繰り返す。以上の処理をλmax−λmin≦ε(εは正の定数)となるまで繰り返す(図7のステップ702〜703)。こうして、最終的に求められたλに対する符号化パスniが求めるべき符号化パスとなる。
When new λmin and λmax are obtained, λ = (λmin + λmax) / 2 is calculated in the same manner as before, and the same is repeated thereafter. The above processing is repeated until λmax−λmin ≦ ε (ε is a positive constant) (
フォーマッティング手段104では、各コードブロックにおいて符号化パスniより上位の符号化パスの符号データを集めることにより所望の符号化歪Dmax以下で総符号量が最小となるレイヤを作成することができる。 The formatting means 104 can create a layer having a minimum total code amount below a desired encoding distortion Dmax by collecting code data of an encoding pass higher than the encoding pass ni in each code block.
ここで、最初のレイヤではDmaxを大きな値として前記の処理を実行し、次第に小さな値を設定して、各レイヤの境界となる符号化パスを算出する。例えば、表1に示すように、Dmaxを設定すれば、客観的画質評価尺度として広く使用されているPSNR(=10×log(255×255/Dmax))のレイヤ構造が、レイヤが上がるごとに高くなるよう形成される。 Here, in the first layer, the above-described processing is executed with Dmax being a large value, and gradually decreasing values are calculated to calculate a coding pass that becomes a boundary between the layers. For example, as shown in Table 1, when Dmax is set, the layer structure of PSNR (= 10 × log (255 × 255 / Dmax)) widely used as an objective image quality evaluation scale is It is formed to be higher.
次に、本実施の形態1に係る画像復号装置について図8を用いて説明する。この画像復号装置では、画像復号装置内部に蓄積されたコードストリームから、再生画像の画質と復号に要する処理時間の両方を考慮して適切な符号量の符号データを部分的に抽出して復号する。各レイヤで達成する符号化歪は予め復号側でもわかっているものとする。 Next, the image decoding apparatus according to the first embodiment will be described with reference to FIG. In this image decoding device, code data having an appropriate code amount is partially extracted from the code stream stored in the image decoding device in consideration of both the image quality of the reproduced image and the processing time required for decoding, and decoded. . It is assumed that the coding distortion achieved in each layer is known in advance on the decoding side.
図8に示されるように、実施の形態1に係る画像復号装置は、コードストリーム蓄積手段210から表示するのに必要なコードストリームを部分的に抽出するコードストリーム抽出手段201と、コードストリームを復号して再生画像を生成するコードストリーム復号手段220と、コードストリームの所望のパケットのバイト数を検出する符号量検出手段205と、復号すべきパケットを決定する抽出パケット決定手段206と、復号速度を記憶しておく復号速度記憶手段207と、エントロピー復号、逆量子化、ウェーブレット逆変換に要する処理時間と処理した符号量から復号速度を算出する復号速度計測手段208とを備えている。
As shown in FIG. 8, the image decoding apparatus according to
コードストリーム復号手段220は、コードストリームを2値算術復号してウェーブレット変換係数量子化値を再生するエントロピー復号手段202と、ウェーブレット変換係数量子化値を予め設定された量子化ステップサイズで逆量子化処理する逆量子化手段203と、ウェーブレット変換係数を逆ウェーブレット変換し、再生画像データを生成するウェーブレット逆変換手段204とからなる。
The code stream decoding unit 220 includes an
以下、コードストリーム抽出方法を中心に図9のフローチャートを用いて動作を説明する。コードストリームの抽出方法には、画質優先モードと処理時間優先モードの2種類の復号モードがあり、ユーザが事前に指定しておく。本実施の形態1では、時間優先モードを説明する。 Hereinafter, the operation will be described with reference to the flowchart of FIG. 9 focusing on the code stream extraction method. There are two types of codestream extraction methods, an image quality priority mode and a processing time priority mode, which are designated in advance by the user. In the first embodiment, the time priority mode will be described.
最初に、コードストリーム抽出手段201により標準処理時間Tを設定する(図9のステップ902)。例えば、3秒など、ユーザが画像を指定してから表示までに要する標準的な時間である。次に、画質を設定するパラメータである標準復号レイヤ数Nを設定する(図9のステップ903)。N=2とすれば、2レイヤが復号される標準的なレイヤ数となり、表1のコードストリームでは、Dmax=65(PSNR=30)により決定されたレイヤまでが復号されることになる。
First, the standard processing time T is set by the code stream extraction means 201 (
次に、抽出パケット決定手段206により、復号速度記憶手段207から予測復号速度p[bytes/sec]を読み出す(図9のステップ904)。この値は、画像が復号されるたびに更新されていくが、最初の画像に対しては、初期値としては適当な値を予め設定しておく。次に、符号量検出手段205によりコードストリーム蓄積手段210に格納された復号対象となるコードストリームのNレイヤの符号量b[bytes]を検出する(図9のステップ905)。各パケットの符号量は、コードストリームのパケットヘッダに書き込まれている値を読みとることにより得られる。例えば、図5のコードストリームでレイヤ0の符号量は、パケットK0,0、K0,1、K0,2のパケットヘッダに書き込まれている各パケットの符号量を読みとることにより得られる。
Next, the extracted packet determination unit 206 reads the predicted decoding rate p [bytes / sec] from the decoding rate storage unit 207 (
次に、抽出パケット決定手段206により、処理に要する時間の予測値である、予測処理時間t=b/p[sec]を算出する(図9のステップ906)。ここで、予測処理時間tと標準処理時間Tを比較する(図9のステップ907)。もし、予測処理時間tが標準処理時間Tに比べて短ければ、Nレイヤ分をコードストリームから抽出し、復号する(図9のステップ909、910)。逆に、予測処理時間tが標準処理時間Tに比べて長ければ、標準処理時間で復号できる符号量Tp[byte]だけを抽出し、復号する(図9のステップ908、910)。なお、本実施の形態1では、符号を抽出する際、抽出する符号データ境界をパケット境界とする、つまり、ある符号量の符号データを抽出する場合には、実際にはその符号量を超える最も近いパケット境界までを抽出するものとする。例えば、図5のコードストリームで、先頭からパケットK0,2の途中までが抽出するバイト数Tp[byte]だった場合、抽出するパケットは、K0,0、K0,1、K0,2となる。
Next, the extracted packet determining means 206 calculates a predicted processing time t = b / p [sec], which is a predicted value of the time required for processing (
復号速度計測手段208では、エントロピー復号手段がその処理の開始時点に出力する復号開始信号とウェーブレット逆変換手段がその処理の終了時点に出力する復号終了信号を受け取り、それらの受信時間の差から復号に要する時間Δtを算出する(図9のステップ911)。そして、抽出したコードストリームの符号量と処理時間Δtから、当該コードストリームに対する復号速度p[byte/sec]を算出し(図9のステップ912)、復号速度記憶手段207に書き込む。次の画像の復号時には、現在のコードストリームに対する復号速度がその予測値として適用されることになる。 The decoding speed measuring means 208 receives a decoding start signal output by the entropy decoding means at the start time of the process and a decoding end signal output by the wavelet inverse transform means at the end time of the process, and decodes from the difference between the reception times. Is calculated (step 911 in FIG. 9). Then, the decoding speed p [byte / sec] for the code stream is calculated from the code amount of the extracted code stream and the processing time Δt (step 912 in FIG. 9) and written in the decoding speed storage means 207. At the time of decoding the next image, the decoding speed for the current code stream is applied as the predicted value.
以上が一つのコードストリームに対する処理手順であり、さらに次に復号する画像が指定されれば、次の画像に対して予測復号速度読み込み(図9のステップ904)から処理を実行する。
The above is the processing procedure for one code stream, and if an image to be decoded next is designated, the process is executed for the next image after reading the predicted decoding speed (
なお、本実施の形態1では、符号化歪が所定の値となるようなレイヤ分割を説明したが、必ずしも符号化歪でなくてもよく、例えば主観的評価尺度(MOS)が所定の値となる符号化パスまでをレイヤとして分割しても構わない。また、抽出する画質の尺度としてレイヤ数を指定する方法を示したが、必ずしもレイヤ数でなくともよく、例えば平均2乗誤差、PSNRなどでもよい。 In the first embodiment, the layer division has been described such that the coding distortion has a predetermined value. However, the layering is not necessarily the coding distortion. For example, the subjective evaluation scale (MOS) is a predetermined value. It is possible to divide up to an encoding pass as a layer. In addition, although the method of specifying the number of layers as a measure of the image quality to be extracted has been shown, the number of layers is not necessarily limited, and for example, a mean square error, PSNR, or the like may be used.
もし、単に標準復号レイヤ数だけ符号データを復号するのであれば、場合によっては復号時間が大幅に長くなってしまうことが生じる。本実施の形態1ではそのような場合、標準処理時間で復号が可能な範囲に符号量を制限することにより、復号時間が短縮されるという効果が得られる。 If code data is simply decoded by the number of standard decoding layers, the decoding time may be significantly increased in some cases. In the first embodiment, in such a case, an effect that the decoding time is shortened can be obtained by limiting the code amount to a range that can be decoded in the standard processing time.
一方、単に標準処理時間を要する符号量だけを復号するのであれば、場合によっては必要以上の画質が得られる符号データまでを復号してしまうことがある。本実施の形態1ではそのような場合、標準復号レイヤ数の符号データだけを復号することにより、復号時間が短縮されるという効果が得られる。 On the other hand, if only the amount of code that requires the standard processing time is decoded, in some cases, even code data that can obtain an image quality higher than necessary may be decoded. In the first embodiment, in such a case, the decoding time is shortened by decoding only the code data of the standard decoding layer number.
以上のように、本実施の形態1では、再生画像の画質と復号に要する処理時間の両方を考慮することにより、閲覧に適切な符号量の符号データを抽出して復号することが可能となる。 As described above, in the first embodiment, it is possible to extract and decode code data having a code amount appropriate for browsing by considering both the image quality of a reproduced image and the processing time required for decoding. .
実施の形態2.
前記実施の形態1では、復号処理時間が標準処理時間以内となることを最優先に符号データを抽出するモードである、時間優先モードを説明したが、この実施の形態2では、符号歪が所望の値以下となること(所望の画質を達成すること)を最優先に符号データを抽出する画質優先モードの例を説明する。コードストリームの生成方法、コードストリームの構成、復号装置のブロック図は、実施の形態1と同じなので説明を省略し、復号処理におけるコードストリーム抽出の動作を図10のフローチャートを使って説明する。
In the first embodiment, the time priority mode, which is a mode in which code data is extracted with the highest priority that the decoding processing time is within the standard processing time, has been described. In the second embodiment, code distortion is desired. An example of an image quality priority mode in which code data is extracted with the highest priority being set to be equal to or less than the value (achieving a desired image quality) will be described. Since the code stream generation method, the code stream configuration, and the block diagram of the decoding apparatus are the same as those in the first embodiment, the description thereof will be omitted, and the code stream extraction operation in the decoding process will be described with reference to the flowchart of FIG.
最初に、コードストリーム抽出手段201により標準処理時間Tを設定する(図10のステップ1002)。例えば、3秒など、ユーザが画像を指定してから表示までに要する標準的な時間である。次に、画質を設定するパラメータである標準復号レイヤ数Nを設定する(図10のステップ1003)。N=2とすれば、2レイヤが復号される標準的なレイヤ数となり、表1のコードストリームでは、Dmax=65(PSNR=30)により決定されたレイヤまでが復号されることになる。
First, the standard processing time T is set by the code stream extraction means 201 (
次に、コードストリーム抽出手段201により、復号速度記憶手段207から予測復号速度p[bytes/sec]を読み出す(図10のステップ1004)。この値は、画像が復号されるたびに更新されていくが、最初の画像に対しては、初期値としては適当な値を予め設定しておく。次に、符号量検出手段205によりコードストリーム蓄積手段210に格納された復号対象となるコードストリームのNレイヤの符号量b[bytes]を検出する(図10のステップ1005)。例えば、図5のコードストリームでレイヤ0の符号量を算出するには、パケットK0,0、K0,1、K0,2のパケットヘッダに書き込まれている各パケットの符号量を読みとることにより得られる。
Next, the code
次に、抽出パケット決定手段206により、処理に要する時間の予測値である、予測処理時間t=b/p[sec]を算出する(図10のステップ1006)。ここで、予測処理時間tと標準処理時間Tを比較する(図10のステップ1007)。もし、予測処理時間tが標準処理時間Tに比べて短ければ、標準処理時間で復号できる符号量Tp[byte]だけを抽出し、復号する(図10のステップ1008、1010)。逆に、予測処理時間tが標準処理時間Tに比べて長ければ、Nレイヤ分を抽出し、復号する(図10のステップ1009、1010)。なお、本実施の形態2では、符号を抽出する際、抽出する符号データ境界をパケット境界とする。ある符号量の符号データを抽出する場合には、実際にはその符号量を超える最も近いパケット境界までを抽出するものとする。
Next, the extracted packet determining means 206 calculates a predicted processing time t = b / p [sec], which is a predicted value of the time required for processing (
復号速度計測手段208では、エントロピー復号手段がその処理の開始時点に出力する復号開始信号とウェーブレット逆変換手段がその処理の終了時点に出力する復号終了信号を受け取り、それらの受信時間の差から復号に要する時間Δtを算出する(図10のステップ1011)。そして、抽出したコードストリームの符号量と処理時間Δtから、当該コードストリームに対する復号速度p[byte/sec]を算出し(図10のステップ1012)、復号速度記憶手段207に書き込む。次の画像の復号時には、現在のコードストリームに対する復号速度がその予測値として適用されることになる。
The decoding speed measuring means 208 receives a decoding start signal output by the entropy decoding means at the start time of the process and a decoding end signal output by the wavelet inverse transform means at the end time of the process, and decodes from the difference between the reception times. Is calculated (
以上が一つのコードストリームに対する処理手順であり、さらに次に復号する画像が指定されれば、次の画像に対して予測復号速度読み込み(図10のステップ1004)から処理を実行する。
The above is the processing procedure for one code stream, and if the next image to be decoded is designated, the processing is executed from the predicted decoding speed reading (
なお、本実施の形態2では、符号化歪が所定の値となるようなレイヤ分割を説明したが、必ずしも符号化歪でなくてもよく、例えば主観的評価尺度(MOS)が所定の値となる符号化パスまでをレイヤとして分割しても構わない。また、抽出する画質の尺度としてレイヤ数を指定する方法を示したが、必ずしもレイヤ数でなくともよく、例えば平均2乗誤差、PSNRなどでもよい。 In the second embodiment, the layer division is described such that the coding distortion becomes a predetermined value. However, the layer division is not necessarily the coding distortion. For example, the subjective evaluation scale (MOS) is a predetermined value. It is possible to divide up to an encoding pass as a layer. In addition, although the method of specifying the number of layers as a measure of the image quality to be extracted has been shown, the number of layers is not necessarily limited, and for example, a mean square error, PSNR, or the like may be used.
もし、必ず標準復号レイヤ数だけを復号するのであれば、復号時間が標準処理時間に比べ大幅に短くなり、標準処理時間に相当する符号データによる復号画像に比べて低い画質の画像しか再生できないことが生じる。本実施の形態2では、そのような場合、標準処理時間で復号が可能だけの符号データを抽出することにより、標準処理時間の範囲でより高い画質の画像が再生されるという効果が得られる。 If only the number of standard decoding layers is always decoded, the decoding time will be significantly shorter than the standard processing time, and only low-quality images can be played back compared to the decoded image with code data corresponding to the standard processing time. Occurs. In the second embodiment, in such a case, by extracting code data that can be decoded in the standard processing time, an effect of reproducing an image with higher image quality within the standard processing time can be obtained.
一方、必ず標準処理時間を要する符号量だけを復号するのであれば、場合によっては標準復号レイヤから得られる画質を達成できない符号データまでしか復号しないことがある。本実施の形態ではそのような場合、標準レイヤ数の符号データだけを復号することにより、より高い画質の画像が再生されるという効果が得られる。 On the other hand, if only the code amount that requires the standard processing time is to be decoded, only code data that cannot achieve the image quality obtained from the standard decoding layer may be decoded. In this embodiment, in such a case, an effect that an image with higher image quality is reproduced is obtained by decoding only the code data of the standard number of layers.
以上のように、本実施の形態2では、再生画像の画質と復号に要する処理時間の両方を考慮することにより、閲覧に適切な符号量の符号データを抽出して復号することが可能となる。 As described above, in the second embodiment, it is possible to extract and decode code data having a code amount appropriate for viewing by considering both the image quality of the reproduced image and the processing time required for decoding. .
実施の形態3.
前記実施の形態1および2では、コードストリームが復号装置内部にあることを前提としていたが、この実施の形態3では、コードストリームが復号装置とネットワークでつながれたコードストリーム蓄積装置内部に格納されている場合について説明する。なお、符号化はリアルタイムで行うのではなく、予め実行しておき、コードストリームを蓄積しておくことを想定している。コードストリーム生成の処理は、図1に示した実施の形態1と同様なので説明を省略する。
Embodiment 3 FIG.
In the first and second embodiments, it is assumed that the code stream is in the decoding apparatus. In the third embodiment, the code stream is stored in the code stream storage apparatus connected to the decoding apparatus and the network. The case will be described. It is assumed that encoding is not performed in real time, but is executed in advance and a code stream is accumulated. The code stream generation process is the same as that of the first embodiment shown in FIG.
図11は、この発明の実施の形態3に係る画像復号装置の構成を示すブロック図であり、このブロック図を用いてコードストリームの抽出から復号まで動作を説明する。図11に示されるように、実施の形態2に係る画像復号装置は、コードストリームを蓄積するコードストリーム蓄積手段1101と、コードストリーム蓄積手段1101から必要な符号データを部分的に抽出するコードストリーム抽出手段1110と、指定されたレイヤの符号量情報と、抽出されたコードストリームを伝送するコードストリーム・符号量情報伝送手段1111と、指定されたレイヤの符号量を検出する符号量検出手段1112と、指定されたレイヤの符号量情報および抽出されたコードストリームを受信するコードストリーム・符号量情報受信手段1120と、コードストリームを復号して再生画像を生成するコードストリーム復号手段1130と、復号すべきパケットを決定する抽出パケット決定手段1125と、復号速度を記憶しておく復号速度記憶手段1126と、エントロピー復号、逆量子化、ウェーブレット逆変換に要する処理時間と処理した符号量から復号速度を算出する復号速度計測手段1127と、伝送速度を記憶しておく伝送速度記憶手段1128と、コードストリームの伝送速度を計測する伝送速度計測手段1129とを備えている。
FIG. 11 is a block diagram showing the configuration of the image decoding apparatus according to Embodiment 3 of the present invention, and the operation from code stream extraction to decoding will be described using this block diagram. As shown in FIG. 11, the image decoding apparatus according to
コードストリーム復号手段1130は、コードストリームを2値算術復号してウェーブレット変換係数量子化値を再生するエントロピー復号手段1121と、ウェーブレット変換係数量子化値を予め設定された量子化ステップサイズで逆量子化処理する逆量子化手段1122と、ウェーブレット変換係数を逆ウェーブレット変換し、再生画像データを生成するウェーブレット逆変換手段1123とからなる。
The code stream decoding unit 1130 includes an
以下、コードストリーム抽出方法を中心に図12のフローチャートを用いて動作を説明する。コードストリームの抽出方法には、画質優先モードと処理時間優先モードの2種類の復号モードがあり、ユーザが事前に指定しておく。本実施の形態3では、時間優先モードを説明する。 Hereinafter, the operation will be described with reference to the flowchart of FIG. 12 focusing on the code stream extraction method. There are two types of codestream extraction methods, an image quality priority mode and a processing time priority mode, which are designated in advance by the user. In the third embodiment, the time priority mode will be described.
最初に、コードストリーム抽出手段1110により標準処理時間Tを設定する(図12のステップ1202)。例えば、3秒など、ユーザが画像を指定してから表示までに要する標準的な時間である。次に、画質を設定するパラメータである標準復号レイヤ数Nを設定する(図12のステップ1203)。N=2とすれば、2レイヤが復号される標準的なレイヤ数となり、表1のコードストリームでは、Dmax=65(PSNR=30)により決定されたレイヤまでが復号されることになる。
First, the standard processing time T is set by the code stream extraction means 1110 (
抽出パケット決定手段1125により、復号速度記憶手段1126から予測復号速度p1[bytes/sec]を読み出す(図12のステップ1204)。同様に、伝送速度記憶手段1128から予測伝送速度p2[bytes/sec]を読み出す(図12のステップ1205)。これらの値は、画像が復号されるたびに更新されていくが、最初の画像に対しては、初期値として適当な値を予め設定しておく。
The extracted
コードストリーム・符号量情報受信手段1120は、ネットワークにより接続されたコードストリーム・符号量情報送信手段1111に標準レイヤ数の符号量情報を要求する。さらに、コードストリーム・符号量情報送信手段1111は、符号量抽出手段1112に符号量を取得するよう要求を出して、符号量抽出手段1112は、コードストリーム蓄積手段1101に格納してあるコードストリームから標準レイヤ数の符号量を読みとる(図12のステップ1206)。各パケットの符号量は、コードストリームのパケットヘッダに書き込まれている各パケットヘッダの符号量を読みとることにより得られる。
The code stream / code amount
符号量抽出手段1112は、符号量情報をコードストリーム・符号量情報送信手段1111に出力し、さらに、コードストリーム・符号量情報送信手段1111からコードストリーム・符号量情報受信手段1120にネットワーク経由で符号量情報が伝送される(図12のステップ1207)。受信された符号量情報は、抽出パケット決定手段1125に送られる。
The code
抽出パケット決定手段1125では、標準レイヤ数分の符号量b、予測復号速度p1,予測伝送速度p2を用いて、処理に要する時間の予測値、予測処理時間t=b/p1+b/p2[sec]を算出する(図12のステップ1208)。そして、予測処理時間tと標準処理時間Tを比較する(図12のステップ1209)。
The extracted packet determination means 1125 uses the code amount b for the number of standard layers, the predicted decoding speed p1, and the predicted transmission speed p2, and the predicted value of the time required for processing, the predicted processing time t = b / p1 + b / p2 [sec]. Is calculated (
もし、予測処理時間tが標準処理時間Tに比べて短ければ、Nレイヤ分をコードストリームから抽出し、受信する(図12のステップ1211)。受信に際しては、まず、コードストリーム・符号量情報受信手段1120は、コードストリーム・符号量情報送信手段1111にNレイヤ分のパケットを要求する。コードストリーム・符号量情報送信手段1111は、コードストリーム抽出手段1110に指定のパケットを抽出するよう要求を出して、コードストリームを受け取る。コードストリーム・符号量情報送信手段1111は、ネットワーク経由で抽出されたコードストリームを送信し、コードストリーム・符号量情報受信手段1120が受信する。
If the predicted processing time t is shorter than the standard processing time T, N layers are extracted from the code stream and received (
逆に、予測処理時間tが標準処理時間Tに比べて長ければ、標準処理時間で復号できる符号量T・p1・p2(p1+p2)[byte]に相当するパケットを抽出し、受信する(図12のステップ1210)。なお、本実施の形態では、符号を抽出する際、抽出する符号データ境界をパケット境界とする。ある符号量の符号データを抽出する場合には、実際にはその符号量を超える最も近いパケット境界までを抽出するものとする。 On the contrary, if the predicted processing time t is longer than the standard processing time T, a packet corresponding to the code amount T · p1 · p2 (p1 + p2) [byte] that can be decoded in the standard processing time is extracted and received (FIG. 12). Step 1210). In the present embodiment, when a code is extracted, a code data boundary to be extracted is set as a packet boundary. In the case of extracting code data of a certain code amount, it is actually assumed that the nearest packet boundary exceeding the code amount is extracted.
受信されたコードストリームは、エントロピー復号手段1121,逆量子化手段1122,ウェーブレット逆変換手段1123の順で処理され再生画像データが出力される(図12のステップ1212)。
The received code stream is processed in the order of entropy decoding means 1121, inverse quantization means 1122, and wavelet inverse transform means 1123, and reproduced image data is output (
復号速度計測手段1126では、エントロピー復号手段がその処理の開始時点に出力する処理開始信号とウェーブレット逆変換手段がその処理の終了時点に出力する処理開始信号を受け取り、それらの受信時間の差から復号に要する時間Δt1を算出する(図12のステップ1213)。そして、抽出したコードストリームの符号量と復号時間Δt1から、当該コードストリームに対する復号速度p1[byte/sec]を算出し、復号速度記憶手段1126に書き込む(図12のステップ1214)。
The decoding speed measuring means 1126 receives a processing start signal output from the entropy decoding means at the start time of the process and a processing start signal output from the wavelet inverse transform means at the end time of the process, and decodes from the difference between the reception times. Is calculated (step 1213 in FIG. 12). Then, the decoding speed p1 [byte / sec] for the code stream is calculated from the code amount of the extracted code stream and the decoding time Δt1, and written to the decoding speed storage means 1126 (
伝送速度計測手段1129では、コードストリーム・符号量情報受信手段1120がコードストリームの受信開始時点に出力する受信開始信号と受信終了時点に出力する受信終了信号を受け取り、それらの時間差から受信に要する時間Δt2を算出する(図12のステップ1215)。そして、抽出したコードストリームの符号量と伝送時間Δt2から、当該コードストリームに対する伝送速度p2[byte/sec]を算出し、復号速度記憶手段に書き込む(図12のステップ1216)。次の画像の復号時には、現在のコードストリームに対する復号速度、伝送速度が予測値として適用されることになる。
In the transmission rate measuring means 1129, the code stream / code amount
以上が一つのコードストリームに対する処理手順であり、さらに次に復号する画像が指定されれば、次の画像に対して予測復号速度読み込み(図12のステップ1204)から処理を実行する。
The above is the processing procedure for one code stream. If an image to be decoded next is specified, the process is executed for the next image after reading the predicted decoding speed (
なお、本実施の形態3では、符号化歪が所定の値となるようなレイヤ分割を説明したが、必ずしも符号化歪でなくてもよく、例えば主観的評価尺度(MOS)が所定の値となる符号化パスまでをレイヤとして分割しても構わない。また、抽出する画質の尺度としてレイヤ数を指定する方法を示したが、必ずしもレイヤ数でなくともよく、例えば平均2乗誤差、PSNRなどでもよい。 In the third embodiment, the layer division has been described in which the coding distortion has a predetermined value. However, the layering is not necessarily the coding distortion. For example, the subjective evaluation scale (MOS) is a predetermined value. It is possible to divide up to an encoding pass as a layer. In addition, although the method of specifying the number of layers as a measure of the image quality to be extracted has been shown, the number of layers is not necessarily limited, and for example, a mean square error, PSNR, or the like may be used.
また、実施の形態3では、符号量情報は、復号する画像を指定するたびに伝送する方法を示したが、予め復号側に伝送して記憶しておいても構わない。 In the third embodiment, the code amount information is transmitted every time an image to be decoded is designated. However, the code amount information may be transmitted and stored in advance on the decoding side.
もし、単に標準復号レイヤ数だけ符号データを復号するのであれば、場合によっては復号時間が大幅に長くなってしまうことが生じる。本実施の形態3ではそのような場合、標準処理時間で復号が可能な範囲に符号量を制限することにより、復号時間が短縮されるという効果が得られる。 If code data is simply decoded by the number of standard decoding layers, the decoding time may be significantly increased in some cases. In the third embodiment, in such a case, an effect that the decoding time is shortened can be obtained by limiting the code amount to a range that can be decoded in the standard processing time.
一方、単に標準処理時間を要する符号量だけを復号するのであれば、場合によっては必要以上の画質が得られる符号データまでを復号してしまうことがある。本実施の形態3ではそのような場合、標準復号レイヤ数の符号データだけを復号することにより、復号時間が短縮されるという効果が得られる。 On the other hand, if only the amount of code that requires the standard processing time is decoded, in some cases, even code data that can obtain an image quality higher than necessary may be decoded. In the third embodiment, in such a case, the decoding time is shortened by decoding only the code data of the standard decoding layer number.
以上のように、本実施の形態3では、再生画像の画質と復号に要する処理時間の両方を考慮することにより、閲覧に適切な符号量の符号データを抽出して復号することが可能となる。 As described above, in the third embodiment, it is possible to extract and decode code data having a code amount appropriate for browsing by considering both the image quality of a reproduced image and the processing time required for decoding. .
実施の形態4.
前記実施の形態3では、復号処理時間が標準処理時間以内となることを最優先に符号データを抽出するモードである、時間優先モードを説明したが、この実施の形態4では、符号歪が所望の値以下となること(所望の画質を達成すること)を最優先に符号データを抽出する画質優先モードの例を説明する。コードストリームの生成方法、コードストリームの構成、復号装置のブロック図は実施の形態3と同じなので説明を省略し、復号処理におけるコードストリーム抽出の動作を図13のフローチャートを使って説明する。
In the third embodiment, the time priority mode, which is a mode in which code data is extracted with the highest priority when the decoding processing time is within the standard processing time, has been described. In the fourth embodiment, code distortion is desired. An example of an image quality priority mode in which code data is extracted with the highest priority being set to be equal to or less than the value (achieving a desired image quality) will be described. Since the code stream generation method, the code stream configuration, and the block diagram of the decoding apparatus are the same as those in the third embodiment, description thereof will be omitted and the code stream extraction operation in the decoding process will be described with reference to the flowchart of FIG.
最初に、標準処理時間Tを設定する(図13のステップ1302)。例えば、3秒など、ユーザが画像を指定してから表示までに要する標準的な時間である。次に、画質を設定するパラメータである標準復号レイヤ数Nを設定する(図13のステップ1303)。N=2とすれば、2レイヤが復号される標準的なレイヤ数となり、表1のコードストリームでは、Dmax=65により決定されたレイヤまでが復号されることになる。
First, the standard processing time T is set (
復号速度記憶手段1226から予測復号速度p1[bytes/sec]を読み出す(図13のステップ1304)。同様に、伝送速度記憶手段1128から予測伝送速度p2[bytes/sec]を読み出す(図13のステップ1305)。これらの値は、画像が復号されるたびに更新されていくが、最初の画像に対しては、初期値として適当な値を予め設定しておく。
The predicted decoding speed p1 [bytes / sec] is read from the decoding speed storage means 1226 (
コードストリーム・符号量情報受信手段1120は、ネットワークにより接続されたコードストリーム・符号量情報送信手段1111に標準レイヤ数の符号量情報を要求する。さらに、コードストリーム・符号量情報送信手段1111は、符号量抽出手段1112に符号量を取得するよう要求を出して、符号量抽出手段1112はコードストリーム蓄積手段1101に格納してあるコードストリームから標準レイヤ数の符号量を読みとる(図13のステップ1306)。各パケットの符号量は、コードストリームのパケットヘッダに書き込まれている各パケットヘッダの符号量を読みとることにより得られる。
The code stream / code amount
符号量抽出手段1112は、符号量情報をコードストリーム・符号量情報送信手段1111に出力し、さらに、コードストリーム・符号量情報送信手段1111からコードストリーム・符号量情報受信手段1120にネットワーク経由で符号量情報が伝送される(図13のステップ1307)。受信された符号量情報は、抽出パケット決定手段1125に送られる。
The code
抽出パケット決定手段1125では、標準レイヤ数分の符号量b、予測復号速度p1,予測伝送速度p2を用いて、処理に要する時間の予測値、予測処理時間 t=b/p1+b/p2[sec]を算出する(図13のステップ1308)。そして、予測処理時間tと標準処理時間Tを比較する(図13のステップ1309)。
The extracted
もし、予測処理時間tが標準処理時間Tに比べて長ければ、Nレイヤ分をコードストリームから抽出し、受信する(図13のステップ1311)。受信に際しては、まず、コードストリーム・符号量情報受信手段1120は、コードストリーム・符号量情報送信手段1111にNレイヤ分のパケットを要求する。コードストリーム・符号量情報送信手段1111は、コードストリーム抽出手段1110に指定のパケットを抽出するよう要求を出して、コードストリームを受け取る。コードストリーム・符号量情報送信手段1111は、ネットワーク経由で抽出されたコードストリームを送信し、コードストリーム・符号量情報受信手段1120が受信する。
If the predicted processing time t is longer than the standard processing time T, N layers are extracted from the code stream and received (
逆に、予測処理時間tが標準処理時間Tに比べて短ければ、標準処理時間で復号できる符号量T・p1・p2(p1+p2)[byte]に相当するパケットを抽出し、受信する(図13のステップ1310)。なお、本実施の形態では、符号を抽出する際、抽出する符号データ境界をパケット境界とする。ある符号量の符号データを抽出する場合には、実際にはその符号量を超える最も近いパケット境界までを抽出するものとする。 Conversely, if the predicted processing time t is shorter than the standard processing time T, a packet corresponding to the code amount T · p1 · p2 (p1 + p2) [byte] that can be decoded in the standard processing time is extracted and received (FIG. 13). Step 1310). In the present embodiment, when a code is extracted, a code data boundary to be extracted is set as a packet boundary. In the case of extracting code data of a certain code amount, it is actually assumed that the nearest packet boundary exceeding the code amount is extracted.
受信されたコードストリームは、エントロピー復号手段1121,逆量子化手段1122,ウェーブレット逆変換手段1123の順で処理され再生画像データが出力される(図13のステップ1312)。
The received code stream is processed in the order of entropy decoding means 1121, inverse quantization means 1122, and wavelet inverse transform means 1123, and reproduced image data is output (
復号速度計測手段1126では、エントロピー復号手段がその処理の開始時点に出力する処理開始信号とウェーブレット逆変換手段がその処理の終了時点に出力する処理開始信号を受け取り、それらの受信時間の差から復号に要する時間Δt1を算出する(図13のステップ1313)。そして、抽出したコードストリームの符号量と復号時間Δt1から、当該コードストリームに対する復号速度p1[byte/sec]を算出し、復号速度記憶手段1126に書き込む(図13のステップ1314)。
The decoding speed measuring means 1126 receives a processing start signal output from the entropy decoding means at the start time of the process and a processing start signal output from the wavelet inverse transform means at the end time of the process, and decodes from the difference between the reception times. Is calculated (
伝送速度計測手段1129では、コードストリーム・符号量情報受信手段1120がコードストリームの受信開始時点に出力する受信開始信号と受信終了時点に出力する受信終了信号を受け取り、それらの時間差から受信に要する時間Δt2を算出する(図13のステップ1315)。そして、抽出したコードストリームの符号量と伝送時間Δt2から、当該コードストリームに対する伝送速度p2[byte/sec]を算出し、復号速度記憶手段に書き込む(図13のステップ1316)。次の画像の復号時には、現在のコードストリームに対する復号速度、伝送速度が予測値として適用されることになる。
In the transmission rate measuring means 1129, the code stream / code amount
以上が一つのコードストリームに対する処理手順であり、さらに次に復号する画像が指定されれば、次の画像に対して予測復号速度読み込み(図13のステップ1304)から処理を実行する。
The above is the processing procedure for one code stream, and if the next image to be decoded is designated, the processing is executed from the predicted decoding speed reading (
なお、本実施の形態4では、符号化歪が所定の値となるようなレイヤ分割を説明したが、必ずしも符号化歪でなくてもよく、例えば主観的評価尺度(MOS)が所定の値となる符号化パスまでをレイヤとして分割しても構わない。また、抽出する画質の尺度としてレイヤ数を指定する方法を示したが、必ずしもレイヤ数でなくともよく、例えば平均2乗誤差、PSNRなどでもよい。 In the fourth embodiment, the layer division has been described in which the coding distortion has a predetermined value. However, the layering is not necessarily the coding distortion. For example, the subjective evaluation scale (MOS) is a predetermined value. It is possible to divide up to an encoding pass as a layer. In addition, although the method of specifying the number of layers as a measure of the image quality to be extracted has been shown, the number of layers is not necessarily limited, and for example, a mean square error, PSNR, or the like may be used.
また、実施の形態4では、符号量情報は、復号する画像を指定するたびに伝送する方法を示したが、予め復号側に伝送して記憶しておいても構わない。 In the fourth embodiment, the code amount information is transmitted every time an image to be decoded is designated. However, the code amount information may be transmitted and stored in advance on the decoding side.
もし、標準復号レイヤ数だけ復号するのであれば、復号時間が標準処理時間に比べ大幅に短くなり、標準処理時間に相当する符号データによる復号画像に比べて低い画質の画像しか再生できないことが生じる。本実施の形態4ではそのような場合、標準処理時間で復号が可能だけの符号データを抽出することにより、標準処理時間の範囲でより高い画質の画像が再生されるという効果が得られる。 If decoding is performed for the number of standard decoding layers, the decoding time is significantly shorter than the standard processing time, and only low-quality images can be reproduced compared to a decoded image using code data corresponding to the standard processing time. . In the fourth embodiment, in such a case, by extracting code data that can be decoded in the standard processing time, an effect of reproducing an image with higher image quality within the standard processing time can be obtained.
一方、必ず標準処理時間を要する符号量だけを復号するのであれば、場合によっては標準復号レイヤから得られる画質を達成できない符号データまでしか復号しないことがある。本実施の形態4ではそのような場合、標準レイヤ数の符号データだけを復号することにより、より高い画質の画像が再生されるという効果が得られる。 On the other hand, if only the code amount that requires the standard processing time is to be decoded, only code data that cannot achieve the image quality obtained from the standard decoding layer may be decoded. In the fourth embodiment, in such a case, an effect that a higher quality image is reproduced can be obtained by decoding only the code data of the standard number of layers.
以上のように、本実施の形態4では、再生画像の画質と復号に要する処理時間の両方を考慮することにより、閲覧に適切な符号量の符号データを抽出して復号することが可能となる。 As described above, in the fourth embodiment, it is possible to extract and decode code data having a code amount suitable for browsing by considering both the image quality of a reproduced image and the processing time required for decoding. .
201 コードストリーム抽出手段、202 エントロピー復号手段、203 逆量子化手段、204 ウェーブレット逆変換手段、205 符号量検出手段、206 抽出パケット決定手段、207 復号速度記憶手段、208 復号速度計測手段、210 コードストリーム蓄積手段、220 コードストリーム復号手段、1101 コードストリーム蓄積手段、1110 コードストリーム抽出手段、1111 コードストリーム・符号量情報伝送手段、1112 符号量検出手段、1120 コードストリーム・符号量情報受信手段、1121 エントロピー復号手段、1122 逆量子化手段、1123 ウェーブレット逆変換手段、1125 抽出パケット決定手段、1126 復号速度記憶手段、1127 復号速度計測手段、1128伝送速度記憶手段、1129 伝送速度計測手段、1130 コードストリーム復号手段。 201 code stream extraction means, 202 entropy decoding means, 203 inverse quantization means, 204 wavelet inverse transform means, 205 code amount detection means, 206 extracted packet determination means, 207 decoding speed storage means, 208 decoding speed measurement means, 210 code stream Storage means, 220 Code stream decoding means, 1101 Code stream storage means, 1110 Code stream extraction means, 1111 Code stream / code amount information transmission means, 1112 Code amount detection means, 1120 Code stream / code amount information reception means, 1121 Entropy decoding Means, 1122 inverse quantization means, 1123 wavelet inverse transform means, 1125 extraction packet determination means, 1126 decoding speed storage means, 1127 decoding speed measurement means, 1128 transmission Degree storage unit, 1129 transmission rate measuring means 1130 code stream decoding unit.
Claims (6)
コードストリームを蓄積するコードストリーム蓄積手段と、
前記コードストリーム蓄積手段に蓄積されたコードストリームから所定の符号データを抽出するコードストリーム抽出手段と、
前記コードストリーム抽出手段により抽出されたコードストリームを復号するコードストリーム復号手段と、
指定されたレイヤあるいは画質を与える符号量を検出する符号量検出手段と、
復号に要する時間と復号速度を計測する復号速度計測手段と、
前記復号速度計測手段により計測された復号速度を記憶する復号速度記憶手段と、
前記符号量検出手段により検出された符号量及び前記復号速度記憶手段に記憶された復号速度に基づいて前記コードストリームから抽出する符号データを決定する抽出パケット決定手段と
を備えた画像復号装置。 An image decoding device that decodes a codestream configured by being divided into a plurality of layers,
Code stream storage means for storing the code stream;
Code stream extraction means for extracting predetermined code data from the code stream stored in the code stream storage means;
Code stream decoding means for decoding the code stream extracted by the code stream extraction means;
Code amount detection means for detecting a code amount that gives a specified layer or image quality;
Decoding speed measuring means for measuring the time required for decoding and the decoding speed;
Decoding speed storage means for storing the decoding speed measured by the decoding speed measuring means;
An image decoding apparatus comprising: an extracted packet determining unit that determines code data to be extracted from the code stream based on a code amount detected by the code amount detecting unit and a decoding rate stored in the decoding rate storage unit.
前記抽出パケット決定手段は、
過去に処理したコードストリームに対する復号速度と指定されたレイヤあるいは画質を与える符号量から予測処理時間を算出し、
算出される予測処理時間が指定された処理時間より短ければ、指定されたレイヤあるいは画質を与える符号量の符号データを抽出し、
算出される予測処理時間が指定された処理時間より長ければ、指定された処理時間を要する符号量の符号データを抽出する
ことを特徴とする画像復号装置。 The image decoding device according to claim 1,
The extracted packet determination means includes
Calculate the prediction processing time from the decoding speed for the code stream processed in the past and the code amount that gives the specified layer or image quality,
If the calculated prediction processing time is shorter than the specified processing time, the code data of the code amount that gives the specified layer or image quality is extracted,
An image decoding apparatus, wherein if the calculated prediction processing time is longer than the designated processing time, code data having a code amount that requires the designated processing time is extracted.
前記抽出パケット決定手段は、
過去に処理したコードストリームに対する復号速度と設定されたレイヤあるいは画質を与える符号量から予測処理時間を算出し、
算出される予測処理時間が指定された処理時間より長ければ、指定されたレイヤあるいは画質を与える符号量の符号データを抽出し、
算出される処理時間が指定された処理時間より短ければ、指定された処理時間を要する符号量の符号データを抽出する
ことを特徴とする画像復号装置。 The image decoding device according to claim 1,
The extracted packet determination means includes
Calculate the prediction processing time from the decoding speed for the code stream processed in the past and the code amount that gives the set layer or image quality,
If the calculated prediction processing time is longer than the specified processing time, the code data of the code amount that gives the specified layer or image quality is extracted,
If the calculated processing time is shorter than the designated processing time, code data having a code amount that requires the designated processing time is extracted.
コードストリームを蓄積するコードストリーム蓄積手段と、
前記コードストリーム蓄積手段に蓄積されたコードストリームから所定の符号データを抽出するコードストリーム抽出手段と、
指定されたレイヤあるいは指定された画質を与える符号量とコードストリームを伝送するコードストリーム・符号量情報伝送手段と、
指定されたレイヤあるいは画質を与える符号量を検出する符号量検出手段と、
指定されたレイヤあるいは指定された画質を与える符号量とコードストリームを受信するコードストリーム・符号量情報受信手段と、
抽出されたコードストリームを復号するコードストリーム復号手段と、
復号に要する時間を計測する復号速度計測手段と、
復号速度を記憶する復号速度記憶手段と、
伝送速度を計測する伝送速度計測手段と、
伝送速度を記憶する伝送速度記憶手段と、
前記コードストリームから抽出する符号データを決定する抽出パケット決定手段と
を備えた画像復号装置。 An image decoding device that decodes a codestream configured by being divided into a plurality of layers,
Code stream storage means for storing the code stream;
Code stream extraction means for extracting predetermined code data from the code stream stored in the code stream storage means;
A code stream / code amount information transmission means for transmitting a code amount and a code stream that gives a designated layer or a designated image quality;
Code amount detection means for detecting a code amount that gives a specified layer or image quality;
A code stream / code quantity information receiving means for receiving a code stream and a code stream that gives a designated layer or a designated image quality;
Code stream decoding means for decoding the extracted code stream;
Decoding speed measuring means for measuring the time required for decoding;
Decoding speed storage means for storing the decoding speed;
A transmission speed measuring means for measuring the transmission speed;
Transmission rate storage means for storing the transmission rate;
An image decoding apparatus comprising: extracted packet determining means for determining code data to be extracted from the code stream.
前記抽出パケット決定手段は、
過去に処理したコードストリームに対する処理速度、伝送速度と指定されたレイヤあるいは画質を与える符号量から処理時間を算出し、
算出される処理時間が指定された処理時間より短ければ、指定されたレイヤあるいは画質を与える符号量の符号データを抽出し、
算出される処理時間が指定された処理時間より長ければ、指定された処理時間を要する符号量の符号データを抽出する
ことを特徴とする画像復号装置。 The image decoding device according to claim 4, wherein
The extracted packet determination means includes
Calculate the processing time from the processing speed for the code stream processed in the past, the transmission speed and the code amount that gives the specified layer or image quality,
If the calculated processing time is shorter than the specified processing time, extract the code data of the code amount that gives the specified layer or image quality,
If the calculated processing time is longer than the designated processing time, code data having a code amount that requires the designated processing time is extracted.
前記抽出パケット決定手段は、
過去に処理したコードストリームに対する処理速度、伝送速度と指定されたレイヤあるいは画質を与える符号量から処理時間を算出し、
算出される処理時間が指定された処理時間より長ければ、指定されたレイヤあるいは画質を与える符号量の符号データを抽出し、
算出される処理時間が指定された処理時間より短ければ、指定された処理時間を要する符号量の符号データを抽出する
ことを特徴とする画像復号装置。 The image decoding device according to claim 4, wherein
The extracted packet determination means includes
Calculate the processing time from the processing speed for the code stream processed in the past, the transmission speed and the code amount that gives the specified layer or image quality,
If the calculated processing time is longer than the specified processing time, extract the code data of the code amount that gives the specified layer or image quality,
If the calculated processing time is shorter than the designated processing time, code data having a code amount that requires the designated processing time is extracted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005138759A JP4579049B2 (en) | 2005-05-11 | 2005-05-11 | Image decoding apparatus and image decoding system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005138759A JP4579049B2 (en) | 2005-05-11 | 2005-05-11 | Image decoding apparatus and image decoding system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006319556A true JP2006319556A (en) | 2006-11-24 |
JP4579049B2 JP4579049B2 (en) | 2010-11-10 |
Family
ID=37539837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005138759A Expired - Fee Related JP4579049B2 (en) | 2005-05-11 | 2005-05-11 | Image decoding apparatus and image decoding system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4579049B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009124570A (en) * | 2007-11-16 | 2009-06-04 | Canon Inc | Video processing apparatus, video processing method, video processing program, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160062A (en) * | 1999-12-03 | 2001-06-12 | Mitsubishi Electric Corp | Device for retrieving image data |
JP2004221832A (en) * | 2003-01-14 | 2004-08-05 | Ricoh Co Ltd | Image processor and image forming apparatus |
JP2004229314A (en) * | 2001-02-20 | 2004-08-12 | Sanyo Electric Co Ltd | Image decoding method and apparatus |
JP2004274630A (en) * | 2003-03-11 | 2004-09-30 | Ricoh Co Ltd | Image data generating apparatus, image data generating method, and recording medium |
-
2005
- 2005-05-11 JP JP2005138759A patent/JP4579049B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160062A (en) * | 1999-12-03 | 2001-06-12 | Mitsubishi Electric Corp | Device for retrieving image data |
JP2004229314A (en) * | 2001-02-20 | 2004-08-12 | Sanyo Electric Co Ltd | Image decoding method and apparatus |
JP2004221832A (en) * | 2003-01-14 | 2004-08-05 | Ricoh Co Ltd | Image processor and image forming apparatus |
JP2004274630A (en) * | 2003-03-11 | 2004-09-30 | Ricoh Co Ltd | Image data generating apparatus, image data generating method, and recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009124570A (en) * | 2007-11-16 | 2009-06-04 | Canon Inc | Video processing apparatus, video processing method, video processing program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4579049B2 (en) | 2010-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7382926B2 (en) | Transcoding a JPEG2000 compressed image | |
US6987890B2 (en) | Producing and encoding rate-distortion information allowing optimal transcoding of compressed digital image | |
JP4702928B2 (en) | Moving picture encoding apparatus and decoding apparatus, control method therefor, computer program, and computer-readable storage medium | |
JP4656190B2 (en) | Information processing apparatus and method | |
JP4898513B2 (en) | Client / server system | |
Wei | An introduction to image compression | |
JP4680112B2 (en) | Image encoding device | |
JP5817125B2 (en) | Image processing apparatus and method | |
KR101703330B1 (en) | Method and apparatus for re-encoding an image | |
JP4579049B2 (en) | Image decoding apparatus and image decoding system | |
CN101212543A (en) | JPEG2000 Bit Rate Control Method Based on Image Quality and Bit Rate Constraints | |
CN102131082A (en) | Image processing apparatus and image processing method | |
Naveen et al. | An efficient low dynamic range image compression using improved block based EZW | |
JP4315926B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
George et al. | A methodology for spatial domain image compression based on hops encoding | |
JP2011239066A (en) | Device and method of processing image | |
JP4129913B2 (en) | Image processing apparatus and image processing method | |
JP4114144B2 (en) | Image encoding device, image encoding program, and image decoding program | |
JP5843450B2 (en) | Image processing apparatus and control method thereof | |
Dubey | A review on wavelet-based image compression techniques | |
JP2004221781A (en) | Image processing apparatus | |
JP2004260539A (en) | Image decoding system and program | |
Novosel et al. | JPEG2000 software implementation | |
Basu et al. | Compression Techniques on Image Content | |
KR100776822B1 (en) | Stereo residual image coding method and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100824 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100825 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4579049 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |