JP2011254215A - Image coding method, image decoding method, image coding device, image decoding device, and program for the method and device - Google Patents
Image coding method, image decoding method, image coding device, image decoding device, and program for the method and device Download PDFInfo
- Publication number
- JP2011254215A JP2011254215A JP2010125764A JP2010125764A JP2011254215A JP 2011254215 A JP2011254215 A JP 2011254215A JP 2010125764 A JP2010125764 A JP 2010125764A JP 2010125764 A JP2010125764 A JP 2010125764A JP 2011254215 A JP2011254215 A JP 2011254215A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- bit
- image
- encoded data
- texture analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は,高能率画像信号符号化方法および復号方法に関する。 The present invention relates to a high-efficiency image signal encoding method and decoding method.
H.264/AVCに代表される現行の符号化方式においては,フレーム内予測,フレーム間予測および階層間予測によって予測信号を生成し,予測信号と原信号の残差信号を符号化対象としている。このような従来技術は,原信号波形の正確な再現を目的としている。しかし,こうした従来手法では,波形再現の枠組みのもと,量子化により符号量を制御していたため,低レートでは,ブロック歪み,リンギングといった画質劣化が顕在化する。 H. In the current encoding method represented by H.264 / AVC, a prediction signal is generated by intra-frame prediction, inter-frame prediction, and inter-layer prediction, and a residual signal between the prediction signal and the original signal is to be encoded. Such a conventional technique aims to accurately reproduce the original signal waveform. However, in such a conventional method, since the code amount is controlled by quantization under the waveform reproduction framework, image quality degradation such as block distortion and ringing becomes obvious at a low rate.
また,その予測処理は復号信号を参照するため,低レートでは,劣化した復号信号を参照することになり,ある一定以上の高周波成分を予測することは不可能となる。このため,高周波成分を多く含む画像に対しては,予測性能は低下する。例えば,こうした低レートにおける画質劣化は,フレーム間予測の場合,剛体移動モデルの成立しない水面等のシーンにおいて顕著であり,フレーム内予測・階層間予測の場合,精細な絵柄のテクスチャ領域において顕著となる。 Further, since the prediction process refers to the decoded signal, at a low rate, the deteriorated decoded signal is referred to, and it is impossible to predict a high frequency component above a certain level. For this reason, the prediction performance deteriorates for an image containing many high-frequency components. For example, such low-rate image quality degradation is noticeable in scenes such as water surfaces where a rigid body movement model is not established in the case of inter-frame prediction, and in the case of intra-frame prediction and inter-layer prediction, it is noticeable in the texture area of a fine pattern. Become.
これに対し,テクスチャ合成と呼ばれる手法が検討されている。付与されたデータ(シードと呼ぶ)を用いて,予め定められた生成規則に基づき,画像を合成する技術である。テクスチャ合成では,原信号の正確な波形再現を追求するのではなく,原信号内のテクスチャの特徴量を再現対象とする点が,従来の一般的な符号化方式と異なる。 On the other hand, a technique called texture synthesis is being studied. This is a technique for synthesizing an image based on a predetermined generation rule using given data (referred to as a seed). The texture synthesis is different from the conventional general coding method in that it does not pursue accurate waveform reproduction of the original signal but uses the texture feature quantity in the original signal as a reproduction target.
テクスチャ合成の方法としては,例えば,非特許文献1に記載されている方法がある。この方法では,テクスチャ合成処理の入力として,方向性フィルタバンクの出力として得られた係数のヒストグラムをテクスチャの特徴量として用いる。
As a texture synthesis method, for example, there is a method described in
一般に,テクスチャ合成で使用するシードのデータ量は,原信号のデータ量に比べて,極めて少なく抑えることが可能である。このため,テクスチャ合成の画像符号化への適用が期待される。 In general, the amount of seed data used in texture synthesis can be suppressed to be extremely small compared to the amount of data of the original signal. Therefore, application of texture synthesis to image coding is expected.
一方,テクスチャ合成によって生成された信号は,波形再現という観点からは原信号との類似度は保証されない。これは,画像中の位相情報を保持する保証がないためである。このため,原画像との比較を前提として,主観的に原信号に近い画質の信号を得ることが求められる場合には,単純に画像符号化にテクスチャ合成の手法を適用しても,その要求に応えることができない。 On the other hand, the similarity between the signal generated by texture synthesis and the original signal is not guaranteed from the viewpoint of waveform reproduction. This is because there is no guarantee that the phase information in the image is retained. For this reason, if it is required to obtain a signal with an image quality that is subjectively similar to the original signal on the premise of comparison with the original image, even if the texture synthesis method is simply applied to image coding, the request Can not respond to.
本発明はかかる事情に鑑みてなされたものであって,低レートの符号化方式として,従来の波形再現ベースの符号化方式に変わる手法として,テクスチャ合成技術に基づき主観的に原信号に近い画質の信号を生成する処理を確立することを目的とする。 The present invention has been made in view of such circumstances, and as a low-rate encoding method, a method that replaces the conventional waveform reproduction-based encoding method, based on texture synthesis technology, is subjectively close to the original image quality. It aims at establishing the process which produces | generates the signal of.
テクスチャ合成のみでの波形再現は,その処理の構造上,限界があった。これは,テクスチャ合成では,画像内の位相情報が保持されないためである。本発明では,従来の波形再現ベースの符号化方式とテクスチャ合成とを組み合わせ,両者の苦手とした部分を互いの長所で補い合うアプローチを取る。そのために,画像信号を波形の概形を表す成分(構造成分)とそれ以外の成分(テクスチャ成分)に分割し,構造成分に対して波形再現ベースの符号化を適用し,テクスチャ成分に対してテクスチャ分析・テクスチャ合成による符号化を適用する。 Waveform reproduction using only texture synthesis has its limitations due to its processing structure. This is because the phase information in the image is not retained in texture synthesis. In the present invention, a conventional waveform reproduction-based encoding method and texture synthesis are combined, and an approach is taken in which the weak points of both are supplemented by the advantages of each other. For this purpose, the image signal is divided into components that represent the general shape of the waveform (structural components) and other components (texture components), and waveform reproduction based coding is applied to the structural components. Encoding by texture analysis and texture synthesis is applied.
すなわち,本発明は,主観画質を保持しつつ符号量の削減を図るため,符号化対象の画像信号を構造成分とテクスチャ成分とに分割し,構造成分については,波形符号化に基づく符号化処理を行い,テクスチャ成分に対して,テクスチャ合成に基づく符号化処理を行う。画像信号を構造成分とテクスチャ成分とに分割する際には,例えば画像信号の上位ビットを構造情報とし,下位ビットをテクスチャ情報とする。下位ビットの劣化が視覚的に検知しにくい情報の場合,大きな符号量削減効果が期待できる。 That is, the present invention divides an image signal to be encoded into a structural component and a texture component in order to reduce the amount of code while maintaining subjective image quality, and the structural component is encoded based on waveform encoding. The texture component is encoded based on texture synthesis. When dividing an image signal into a structural component and a texture component, for example, the upper bits of the image signal are used as structure information and the lower bits are used as texture information. A large code amount reduction effect can be expected for information in which deterioration of lower bits is difficult to detect visually.
詳しくは本発明の画像符号化装置は,まず,原信号のビット深度変換により,少ないビット深度で表現された信号に対して波形符号化に基づく符号化処理を行い,符号化データを生成する。その符号化データを復号し,さらに,逆ビット深度変換により原信号と同じビット深度の信号を復元する。その復元信号と原信号との差分信号を算出し,差分信号に対して必要に応じてビット深度の制限を行い,ビット深度の制限された差分信号に対してテクスチャ分析を行うことにより,その信号を画素値のヒストグラム,変換フィルタ係数のヒストグラム群により表現して,テクスチャ分析による符号化データを生成する。以上の波形符号化処理による符号化データとテクスチャ分析による符号化データとを符号化ストリームとして統合して出力する。 Specifically, the image coding apparatus of the present invention first performs coding processing based on waveform coding on a signal expressed with a small bit depth by bit depth conversion of the original signal to generate coded data. The encoded data is decoded, and a signal having the same bit depth as the original signal is restored by inverse bit depth conversion. The difference signal between the restored signal and the original signal is calculated, the bit depth of the difference signal is limited as necessary, and texture analysis is performed on the difference signal of which the bit depth is limited. Is expressed by a histogram of pixel values and a group of histograms of transform filter coefficients to generate encoded data by texture analysis. The encoded data by the above waveform encoding process and the encoded data by texture analysis are integrated and output as an encoded stream.
または,本発明の画像符号化装置は,入力画像の上位ビットと下位ビットを分離し,上位ビットに対しては,ビットシフトにより,原信号よりも少ないビット深度の信号として表現し,波形符号化に基づく符号化処理を行い,符号化データを生成する。また,下位ビット信号に対してテクスチャ分析を行うことにより,その信号を画素値のヒストグラム,変換フィルタ係数のヒストグラム群により表現して,テクスチャ分析による符号化データを生成する。以上の波形符号化処理による符号化データとテクスチャ分析による符号化データとを符号化ストリームとして統合して出力する。 Alternatively, the image coding apparatus of the present invention separates the upper bits and the lower bits of the input image, and the upper bits are expressed by a bit shift as a signal having a bit depth smaller than that of the original signal. Encoding processing based on is performed to generate encoded data. Also, by performing texture analysis on the lower-order bit signal, the signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients to generate encoded data by texture analysis. The encoded data by the above waveform encoding process and the encoded data by texture analysis are integrated and output as an encoded stream.
上記画像符号化において,前記差分信号に対するビット深度の制限量に応じて,テクスチャ分析で得られるヒストグラムの表現精度を制御することも好適である。 In the image coding, it is also preferable to control the accuracy of expression of the histogram obtained by texture analysis according to the bit depth limit amount for the difference signal.
また,本発明の画像復号装置は,波形符号化処理による符号化データを入力として,復号処理により,復号信号を生成し,その復号信号に対して,逆ビット深度変換により原信号と同じビット深度をもつ信号として復元する。また,テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号し,前記2つの信号を統合することで,復号信号を得る。 In addition, the image decoding apparatus of the present invention receives encoded data obtained by waveform encoding processing as an input, generates a decoded signal by decoding processing, and performs the same bit depth as the original signal by inverse bit depth conversion on the decoded signal. Is restored as a signal with. Also, the encoded data obtained by texture analysis is input, the residual signal that cannot be expressed by the waveform encoding process is decoded by the texture synthesis process, and the decoded signal is obtained by integrating the two signals.
本発明により,主観画質は保持しつつ,符号量を削減する符号化を実現することができる。 According to the present invention, it is possible to realize encoding that reduces the code amount while maintaining subjective image quality.
以下,本実施形態で行う処理の概要について説明する。 Hereinafter, an outline of processing performed in the present embodiment will be described.
図1は,本発明の実施形態に係る画像符号化装置の構成例を示す。符号化処理の流れを図1を用いて説明する。まず,画像符号化装置1は,符号化対象の画像信号(Nビット信号) を入力する。ビット深度変換部10は,この画像信号(Nビット信号) を入力として,ビット深度変換処理により,N−Δビット信号へ変換する。ここで,Δは1≦Δ≦Nを満たす整数である。ビット深度変換処理としては,各画素値を右へΔビットシフトする方法が挙げられる。なお,この演算結果は,もとの画素値を1/(2のΔ乗)倍して小数点以下を切り捨てた値と一致する。また,二乗誤差最小化の規範に基づき,量子化の考え方を利用して,Nビット信号における2N 種類の画素値を「2の(N−Δ)乗」種類の画素値で近似する方法もある。
FIG. 1 shows a configuration example of an image coding apparatus according to an embodiment of the present invention. The flow of the encoding process will be described with reference to FIG. First, the
ビット深度変換処理の出力として得られたN−Δビット信号が,本手法における構造成分である。そこで,構造成分であるN−Δビット信号に対して,波形符号化処理部11は波形符号化処理を行い,符号化ストリームを出力する。波形符号化処理としては,H.264/AVC準拠の符号化方式を用いる。なお,本発明は,波形符号化処理をH.264/AVCに限定するものではなく,例えば,JPEG,JPEG2000,MPEG−2といった方法を用いることも可能である。
The N-Δ bit signal obtained as the output of the bit depth conversion process is a structural component in this method. Therefore, the waveform
次に,復号処理部12は,波形符号化処理の出力として得られた符号化ストリームに対して,H.264/AVCが規定する復号処理を行い,復号信号を得る。符号化方式としてH.264/AVC以外の方法(JPEG,JPEG2000,MPEG−2等)を用いた場合には,対応する復号処理を行う。
Next, the
逆ビット深度変換部13は,復号処理の出力として得られた復号信号(N−Δビット信号)に対して,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る。
The inverse bit
差分信号生成部14は,原信号と構造成分の復号信号(Nビット信号)との差分信号を算出する。この差分信号が,本手法におけるテクスチャ成分となる。テクスチャ分析処理部15は,テクスチャ成分に対して,テクスチャ分析処理を行い,復号時のテクスチャ合成において必要となる情報として,以下の2種類のヒストグラムを抽出する。一つが,差分信号のヒストグラムである。もう一つが,差分信号に対するSteerable pyramid 変換〔参考文献1参照〕により得られる変換係数に対するヒストグラムである。
〔参考文献1〕:E. P. Simoncelli and W. T. Freeman, “The Steerable Pyramid: A Flexible Architecture for Multi-Scale Derivative Computation ”,IEEE Int'l Conf. on Image Processing. Washington DC, October 1995 .
Steerable pyramid 変換は,方向性フィルタバンクの一種であり,方向数と分解レベルにより出力が規定される。原信号を2J ×2J 画素として,方向数Mと分解レベルJmax のSteerable pyramid 変換を行う場合,第j分解レベル(0≦j≦Jmax −1)においては,M種類の方向成分を有し,各方向成分が2J-J ×2J-j 個の変換係数を有する。なお,最上位の分解レベルj=Jmax においては,方向成分に関する分割はなく,2J-Jmax×2J-Jmax個の変換係数を有する。また,上記とは別に,高周波成分として,2J ×2J 個の変換係数を有する。
The difference
[Reference 1]: EP Simoncelli and WT Freeman, “The Steerable Pyramid: A Flexible Architecture for Multi-Scale Derivative Computation”, IEEE Int'l Conf. On Image Processing. Washington DC, October 1995.
Steerable pyramid transform is a kind of directional filter bank, and its output is defined by the number of directions and the decomposition level. When Steerable pyramid transformation with the number of directions M and decomposition level J max is performed with the original signal as 2 J × 2 J pixels, M types of direction components are used at the jth decomposition level (0 ≦ j ≦ J max −1). Each directional component has 2 JJ × 2 Jj conversion coefficients. At the highest decomposition level j = J max , there is no division with respect to the direction component, and 2 J−Jmax × 2 J−Jmax conversion coefficients. In addition to the above, 2 J × 2 J conversion coefficients are provided as high frequency components.
また,変換係数は実数値で表現されているため,分解レベル毎の各方向成分を予め与えられた量子化幅Kで量子化し,量子化後の変換係数に対するヒストグラムをテクスチャ分析情報とする。 Further, since the transform coefficient is expressed by a real value, each direction component for each decomposition level is quantized with a predetermined quantization width K, and a histogram for the quantized transform coefficient is used as texture analysis information.
例として,図2に,M=2, Jmax =1とした場合のsteerable pyramid 変換の分析フィルタの構成例を示す。高域通過フィルタ21および低域通過フィルタ22の入力は,画像信号(差分信号)である。この分析フィルタは,入力された画像信号に対して,指定されたレベル分解および方向分解を行い,高域成分,低域成分としてのフィルタ係数を算出する。高域通過フィルタ21から,高域通過フィルタの係数が出力され,第一方向成分通過フィルタ231から低域通過フィルタ+第一方向成分通過フィルタの係数が出力され,第二方向成分通過フィルタ232から低域通過フィルタ+第一方向成分通過フィルタの係数が出力され,低域通過フィルタ233とダウンサンプリング部234から,低域通過フィルタ+ダウンサンプリング後の係数が出力される。
As an example, FIG. 2 shows a configuration example of an analysis filter for steerable pyramid conversion when M = 2 and J max = 1. The input of the high-
分解レベルを増やす場合には,ダウンサンプリング部234の出力するダウンサンプリング後の信号に対して,破線で囲んだ部分23の処理を再帰的に繰り返す。
When increasing the decomposition level, the processing of the
図3は,画像符号化装置の他の構成例を示す。図3に示す画像符号化装置1−1では,図1に示す画像符号化装置1に対して,差分信号生成部14とテクスチャ分析処理部15との間に,ビット深度制限処理部16が設けられている。他の構成部分は,図1に示す画像符号化装置1と同様である。ビット深度制限処理部16は,差分信号の下位δビットを抽出し,テクスチャ分析処理の対象をδビット信号に制限する。この場合,δはΔと同一の値とすることもできるが,Δとは独立に設定することも可能である。このδをビット深度制限パラメータと呼ぶ。
FIG. 3 shows another configuration example of the image encoding device. In the image encoding device 1-1 illustrated in FIG. 3, a bit depth
ここで,ヒストグラムの表現方法について整理する。ヒストグラムをhB [i](i=0,1,…,B−1)と表した場合,hB [i]は,対象となる信号値がiとなるサンプルの個数を格納する。このとき,Bをヒストグラムのbin数と呼び,hB [i]を第ibinの頻度値と呼ぶ。 Here, the histogram representation methods are organized. When the histogram is expressed as h B [i] (i = 0, 1,..., B−1), h B [i] stores the number of samples whose target signal value is i. At this time, B is called the bin number of the histogram, and h B [i] is called the frequency value of the i-th bin.
前記のように,テクスチャ合成処理の対象のビット深度を制限することで,前記差分信号は「2のδ乗」種類の画素値に制限される。このとき,対応するヒストグラムに格納されるのは,「2のδ乗」種類の画素値となり,ヒストグラムのbin数を2N+1 から「2のδ乗」に抑えることができる。この結果,ビット制限前に比べて,同ヒストグラムを表現する情報量を低減することが可能となる。 As described above, by limiting the bit depth of the texture synthesis target, the difference signal is limited to “2 to the δth power” type of pixel value. At this time, pixel values of the “2 to the δth power” type are stored in the corresponding histogram, and the bin number of the histogram can be suppressed from 2 N + 1 to “2 to the δth power”. As a result, it is possible to reduce the amount of information expressing the histogram compared to before the bit restriction.
Steerable pyramid 変換の変換係数に対するヒストグラムに対しても,ビット深度制限パラメータδに基づき,ヒストグラムのbin数を制限する。具体的には,ビット深度制限パラメータδが小さくなるにつれて,ヒストグラムのbin数を小さく設定する。これは,変換前の信号のビット深度に応じて,変換係数に必要なビット深度も変化することを考慮すると,変換係数のヒストグラムのbin数を常に一定に保つことは,δが小さな場合,変換係数に対して冗長な表現を与える可能性があるためである。 Also for the histogram for the transform coefficient of the Steerable pyramid transform, the number of bins of the histogram is limited based on the bit depth limit parameter δ. Specifically, the bin number of the histogram is set to be smaller as the bit depth restriction parameter δ is smaller. In consideration of the fact that the bit depth required for the transform coefficient also changes according to the bit depth of the signal before the conversion, keeping the number of bins in the histogram of the transform coefficient is always constant when δ is small. This is because a redundant expression may be given to the coefficient.
Steerable pyramid 変換における第j分解レベル(0 ≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数に対するヒストグラムをLx (j,m) [i](i=0,…,22(J-j)−1)〔ここで,下添字XはBδ(δは下添字)の代わりの表記,以下同様〕とする。なお,前述の通り,最上位の分解レベルj=Jmax においては,方向成分に関する分割はなく,m=0に対応するヒストグラムに限定される。また,上記とは別に,高周波成分として,2J ×2J 個の変換係数を有するため,この高周波成分を格納するヒストグラムを,HJ [i](i=0,…,22J−1)とする。 A histogram for the transformation coefficient of the m-th (m = 0, 1,..., M−1) direction component at the j-th decomposition level (0 ≦ j ≦ J max −1) in the Steerable pyramid transformation is expressed as L x (j, m) [ i] (i = 0,..., 2 2 (Jj) −1) [where subscript X is a notation instead of Bδ (δ is a subscript), and so on). As described above, at the highest decomposition level j = J max , there is no division related to the direction component, and it is limited to the histogram corresponding to m = 0. In addition to the above, since there are 2 J × 2 J conversion coefficients as high-frequency components, a histogram for storing these high-frequency components is represented as H J [i] (i = 0,..., 2 2J −1). And
第j分解レベル(0≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数に対するヒストグラムをLx (j,m) [i](i=0,…,22(J-j)−1)とすることは,実数値で表現された変換係数をBδ種類の離散値で近似することになる。この離散化の際,用いる量子化幅をqj,m ,第j分解レベル(0≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数cj,m [k](k=0,…,22(J-j)−1)とすると,この離散化に伴う近似誤差Ex (j,m) は,次式のように表される。 A histogram for transform coefficients of m-th (m = 0, 1,..., M−1) direction components at the j-th decomposition level (0 ≦ j ≦ J max −1) is expressed as L x (j, m) [i] (i = 0,..., 2 2 (Jj) −1) means that the conversion coefficient expressed by a real value is approximated by Bδ types of discrete values. In this discretization, the quantization width to be used is q j, m , and the m-th (m = 0, 1,..., M−1) direction component conversion at the j-th decomposition level (0 ≦ j ≦ J max −1). Assuming that the coefficient c j, m [k] (k = 0,..., 2 2 (Jj) −1), the approximation error Ex (j, m) accompanying this discretization is expressed as follows: .
この式中,「L字型の記号」と「左右反転L字型の記号」で挟まれる値xは,実数xに対する少数点以下の切捨てを意味する。また,高周波成分に対する近似誤差を,便宜上,以下のように表す。 In this equation, the value x sandwiched between the “L-shaped symbol” and the “left-right inverted L-shaped symbol” means rounding off the decimal point with respect to the real number x. In addition, the approximation error for high frequency components is expressed as follows for convenience.
なお,ここで用いたm=Mは方向成分を同定するためではなく,高周波成分を表すインデックスとして用いている。 Note that m = M used here is not used to identify a direction component but as an index representing a high-frequency component.
全分解レベルの全方向成分に対する近似誤差の和として,次式を定義する。 The following equation is defined as the sum of approximation errors for the omnidirectional components at all resolution levels.
bin数の増加に対して,近似誤差和Etotal (Bδ,δ)は単調減少となる。そこで,bin数の設定の際には,式(1)に対する閾値Tを設定し,bin数の候補となる値を複数用意し,同候補に含まれる値の中で次式を満たす最大の値をbin数とする。 As the number of bins increases, the approximate error sum E total (Bδ, δ) decreases monotonously. Therefore, when setting the number of bins, a threshold value T for the formula (1) is set, a plurality of values as candidates for the number of bins are prepared, and the maximum value satisfying the following formula among the values included in the candidates is set. Is the number of bins.
Etotal (Bδ,δ)≦T
図4は,画像符号化装置の他の構成例を示す。図4に示す画像符号化装置1−2では,図1に示す画像符号化装置1に対して,テクスチャ分析処理部15の後に,ビット深度制限処理部17が設けられている。他の構成部分は,図1に示す画像符号化装置1と同様である。ビット深度制限処理部17は,テクスチャ分析処理部15の出力をδビット信号に制限する。δビット信号に制限することにより,テクスチャ分析処理による符号化データの符号量をさらに圧縮することができる。
E total (Bδ, δ) ≦ T
FIG. 4 shows another configuration example of the image encoding device. In the image encoding device 1-2 illustrated in FIG. 4, a bit depth
また,図5は,画像符号化装置のさらに他の構成例を示す。図5に示す画像符号化装置1−3では,ビットシフト処理部101が,入力したNビットの画像信号から上位N−Δビットの画像信号(Δ>0)を抽出する。波形符号化処理部102は,N−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを出力する。
FIG. 5 shows still another configuration example of the image encoding device. In the image encoding device 1-3 illustrated in FIG. 5, the bit
一方,下位ビット抽出処理部103は,入力したNビットの画像信号から下位Δビットの画像信号を抽出し,テクスチャ分析処理部104は,下位Δビットの画像信号に対するテクスチャ分析により,下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成する。これらの波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームとして統合する。
On the other hand, the low-order bit
以上のように,ビット深度変換処理として,ビットシフトを用いる場合には,図5に示す形式で,図1,図3,図4の符号化処理が実現できる。図5の構成の利点は,テクスチャ分析処理と波形符号化処理を並列に処理できる点にある。このため,図1,図3,図4に示す符号化処理では,波形符号化処理・復号処理が完了するまで,テクスチャ合成処理が実行できないのに対して,図5の構成では,両者を並列に処理できるため,並列処理可能な環境では,処理速度の向上が期待できる。 As described above, when bit shift is used as the bit depth conversion processing, the encoding processing shown in FIGS. 1, 3, and 4 can be realized in the format shown in FIG. The advantage of the configuration of FIG. 5 is that the texture analysis process and the waveform encoding process can be processed in parallel. Therefore, in the encoding process shown in FIGS. 1, 3 and 4, the texture synthesis process cannot be executed until the waveform encoding process / decoding process is completed. Therefore, the processing speed can be improved in an environment where parallel processing is possible.
復号処理について,図6を用いて説明する。図6は,画像復号装置の構成例を示す。画像復号装置3は,テクスチャ合成処理部30と,復号処理部31と,逆ビット深度変換部32と,復号信号生成部33とを備える。
Decoding processing will be described with reference to FIG. FIG. 6 shows a configuration example of the image decoding apparatus. The
復号処理では,2種類の符号化情報を入力とする。まず,波形符号化処理の出力として得られた符号化ストリームに対して,復号処理部31は,対応する復号処理を行い,復号信号を得る。復号処理の出力として得られた復号信号(N−Δビット信号)に対して,逆ビット深度変換部32は,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る。
In the decoding process, two types of encoded information are input. First, the
次に,テクスチャ合成処理部30は,テクスチャ分析情報を入力として,以下のテクスチャ合成の方法に基づき,テクスチャ情報を復号する。符号化処理において,図3,図4に示すようなビット深度制限処理が加わっている場合には,復号されるテクスチャ情報は,δビットに制限されている。
Next, the texture
テクスチャ合成の方法は,非特許文献1の方法を使用する。この方法では,テクスチャ合成処理の入力として,Steerable pyramid と呼ぶ方向性フィルタバンクの出力として得られた係数のヒストグラムを用いる。同方法の概要を以下に示す。
The method of
同方法の入力は,適当な初期画像(上記非特許文献1では,白色雑音画像),および目標とするテクスチャ画像(以後,目標テクスチャ画像と呼ぶ)に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンドのヒストグラムとする。サブバンド分解には,Steerable pyramid を用いる。テクスチャ合成の出力として得られる画像を合成画像と呼ぶ。なお,以下の処理の開始時点では,合成画像は上記の初期画像で初期化されている。 The input of the method includes an appropriate initial image (white noise image in Non-Patent Document 1), a pixel value histogram for a target texture image (hereinafter referred to as a target texture image), and each of the two images. Is a histogram of each subband. Steerable pyramid is used for subband decomposition. An image obtained as an output of texture synthesis is called a synthesized image. Note that, at the start of the following processing, the composite image is initialized with the initial image.
〔テクスチャ合成の方法〕
(1)処理対象画像の初期画像としての白色雑音画像,および目標テクスチャ画像に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンド毎の変換係数のヒストグラム(サブバンドヒストグラムと呼ぶ)を入力する。
[Texture synthesis method]
(1) A white noise image as an initial image of the processing target image, pixel value histograms for the target texture image, and a histogram of conversion coefficients for each subband (referred to as a subband histogram) for both images are input. To do.
(2)合成画像(最初は初期画像)の画素値ヒストグラム,目標テクスチャ画像の画素値ヒストグラムをもとに,合成画像の画素値ヒストグラムを目標テクスチャ画像のそれに近づける。 (2) Based on the pixel value histogram of the composite image (initially the initial image) and the pixel value histogram of the target texture image, the pixel value histogram of the composite image is brought close to that of the target texture image.
(3)上記(2)で得られた合成画像の画素値ヒストグラムを用いて,合成画像を生成する。 (3) A composite image is generated using the pixel value histogram of the composite image obtained in (2) above.
(4)上記(3)で得られた合成画像を入力として,同画像に対する方向性フィルタバンクの順変換を行い,変換係数を算出する。各サブバンド毎に変換係数のヒストグラムを生成する。 (4) Using the composite image obtained in (3) above as an input, the directional filter bank is forward-converted with respect to the image and a conversion coefficient is calculated. A histogram of conversion coefficients is generated for each subband.
(5)合成画像および目標テクスチャ画像の両画像のサブバンドヒストグラムを入力として,合成画像の各サブバンドのヒストグラムを目標テクスチャ画像の同一帯域のサブバンドのヒストグラムに近づける。 (5) Using the subband histograms of both the composite image and the target texture image as input, the histogram of each subband of the composite image is brought close to the subband histogram of the same band of the target texture image.
(6)上記(5)で修正した合成画像のサブバンド係数を入力として,方向性フィルタバンクの逆変換を行い,合成画像を出力する。 (6) Using the subband coefficient of the composite image corrected in (5) above as an input, the directional filter bank is inversely transformed and a composite image is output.
(7)上記(2)〜(6)の処理を一定回数,繰り返す。 (7) The processes (2) to (6) are repeated a certain number of times.
テクスチャ合成においてサブバンド係数を得る手法としては,例えばwavelet のような上記以外のフィルタバンクの適用も検討されている。本発明におけるテクスチャ特徴量の予測機構は,上記の方向性フィルタバンクに限らず,それ以外のフィルタバンクに対しても同様に適用することができる。 As a technique for obtaining subband coefficients in texture synthesis, application of a filter bank other than the above, such as wavelet, is also being studied. The texture feature amount prediction mechanism according to the present invention is not limited to the above-described directional filter bank, and can be similarly applied to other filter banks.
例として,図7に,M=2, Jmax =1とした場合のsteerable pyramid 変換の合成フィルタの構成例を示す。この合成フィルタは,入力されたフィルタ係数から画像信号を合成する。高域合成フィルタ42は,図2に示す高域通過フィルタ21が出力したフィルタ係数を入力し,画像信号を合成する。第一方向成分合成フィルタ401は,図2に示す第一方向成分通過フィルタ231が出力した低域通過フィルタと第一方向成分通過フィルタの係数を入力する。第二方向成分合成フィルタ402は,図2に示す第二方向成分通過フィルタ232が出力した低域通過フィルタと第二方向成分通過フィルタの係数を入力する。アップサンプリング部403は,図2に示すダウンサンプリング部234が出力した低域通過フィルタとダウンサンプリング後の係数を入力してアップサンプリングし,低域成分合成フィルタ404はアップサンプリング後の係数から画像信号を合成する。低域合成フィルタ41は,第一方向成分合成フィルタ401,第二方向成分合成フィルタ402,低域成分合成フィルタ404の出力を合成する。高域合成フィルタ42および低域合成フィルタ41の出力から,最終的な差分信号の画像信号が合成される。
As an example, FIG. 7 shows a configuration example of a synthesis filter for a steerable pyramid transformation when M = 2 and J max = 1. This synthesis filter synthesizes an image signal from the input filter coefficients. The high-
分解レベルを増やす場合には,破線で囲んだ部分40の処理を,再帰的に繰り返す。
When increasing the decomposition level, the process of the
図8に示す画像復号装置3−1は,図5に示す画像符号化装置1−3に対応する復号処理を行う復号装置である。図8に示す画像復号装置3−1では,図6の画像復号装置3における逆ビット深度変換部32として,逆ビットシフト処理部34が用いられている。逆ビットシフト処理部34は,復号処理部31が復号したN−Δビット信号を,Δビット分だけ逆ビットシフトすることにより,Nビット信号に変換する。復号信号生成部33は,このNビット信号と,テクスチャ合成処理部30の出力であるΔビット信号とを加算し,Nビット信号の復号画像を生成する。
An image decoding device 3-1 illustrated in FIG. 8 is a decoding device that performs a decoding process corresponding to the image encoding device 1-3 illustrated in FIG. In the image decoding device 3-1 shown in FIG. 8, an inverse bit shift processing unit 34 is used as the inverse bit
以下,本実施形態の具体的な処理の流れについて説明する。 Hereinafter, a specific processing flow of the present embodiment will be described.
〔フローチャート(符号化処理)〕
図9は,図3に示す画像符号化装置1−1の処理フローチャートである。他の実施形態についても同様に処理できる。
[Flowchart (encoding process)]
FIG. 9 is a processing flowchart of the image encoding device 1-1 shown in FIG. Other embodiments can be similarly processed.
(1)画像信号(Nビット信号)を入力とし,同信号に含まれる2N 種類の画素値を「2の(N−Δ)乗」種類の画素値に割り当て,N−Δビットの信号として出力する(ステップS10)。 (1) An image signal (N-bit signal) is input, and 2 N types of pixel values included in the signal are assigned to “2 to the (N−Δ) power” type of pixel value, and the signal is an N−Δ bit signal. Output (step S10).
(2)N−Δビットの信号を入力として,予め定められた符号化方法に従い,波形符号化処理を行い,その符号化データを出力する。波形符号化処理としては,例えば,H.264/AVCの標準規格に準拠した符号化方法がある(ステップS11)。 (2) An N-Δ bit signal is input, waveform encoding processing is performed according to a predetermined encoding method, and the encoded data is output. Examples of the waveform encoding process include H.264. There is an encoding method compliant with the H.264 / AVC standard (step S11).
(3)上記(2)で生成された符号化データを復号し,N−Δビットの信号としての復号信号を得る(ステップS12)。 (3) The encoded data generated in (2) above is decoded to obtain a decoded signal as an N-Δ bit signal (step S12).
(4)N−Δビットの復号信号を入力として,同信号に含まれる「2の(N−Δ)乗」種類の画素値を2N 種類の画素値に割り当てる逆ビット深度変換の処理を行い,Nビットの復号信号として出力する(ステップS13)。 (4) An N-Δ bit decoded signal is input, and an inverse bit depth conversion process is performed in which “2 to the (N−Δ) power” type pixel value included in the signal is assigned to 2 N type pixel values. , N-bit decoded signals are output (step S13).
(5)上記(4)で生成した逆ビット深度変換後の復号信号と原信号との差分を算出し,差分信号として出力する(ステップS14)。 (5) The difference between the decoded signal after inverse bit depth conversion generated in (4) above and the original signal is calculated and output as a difference signal (step S14).
(6)同差分信号を入力として,ビット深度をδビットに制限し,δビット信号として出力する(ステップS15)。 (6) The same differential signal is input, the bit depth is limited to δ bits, and output as a δ bit signal (step S15).
(7)上記(6)で生成したδビット信号を入力として,テクスチャ分析処理を行い,画素値のヒストグラム,方向性フィルタバンクの各バンド毎のフィルタ係数のヒストグラムを出力する(ステップS16)。このステップS16の処理を「テクスチャ分析処理」と呼ぶ。 (7) The texture analysis process is performed using the δ bit signal generated in (6) above as an input, and a histogram of pixel values and a histogram of filter coefficients for each band of the directional filter bank are output (step S16). The processing in step S16 is referred to as “texture analysis processing”.
〔フローチャート(テクスチャ分析処理)〕
図10は,テクスチャ分析処理(ステップS16)の詳細な処理フローチャートである。
[Flowchart (texture analysis processing)]
FIG. 10 is a detailed process flowchart of the texture analysis process (step S16).
(1)入力信号を読み込み,入力信号の画素値のヒストグラムを出力する(ステップS161)。 (1) The input signal is read and a histogram of pixel values of the input signal is output (step S161).
(2) Steerable pyramid変換を規定するパラメータ方向数M,分解レベルJmax を読み込む(ステップS162)。 (2) The parameter direction number M that defines the Steerable pyramid transformation and the decomposition level J max are read (step S162).
(3)入力信号に対して,方向数M,分解レベルJmax で定まるSteerable pyramid 変換を行い,変換係数を出力する(ステップS163)。 (3) Steerable pyramid conversion determined by the number of directions M and the decomposition level J max is performed on the input signal, and a conversion coefficient is output (step S163).
(4)高周波成分に属する2J ×2J 個の変換係数に対してヒストグラムを求め,HJ [i](i=0,…,22J−1)として出力する(ステップS164)。 (4) A histogram is obtained for 2 J × 2 J conversion coefficients belonging to the high frequency component, and output as H J [i] (i = 0,..., 2 2J −1) (step S164).
(5)j=0,1,…,Jmax −1に対して,以下の処理を繰り返す(ステップS165〜S170)。 (5) The following processing is repeated for j = 0, 1,..., J max −1 (steps S165 to S170).
(6)m=0,1,…,M−1に対して,以下の処理を繰り返す(ステップS166〜S168)。 (6) The following processing is repeated for m = 0, 1,..., M−1 (steps S166 to S168).
(7)第j分解レベルにおける第m方向成分に属する22(J-j)個の変換係数に対するヒストグラムを求め,Lx (j,m) [i](i=0,…,22(J-j)−1)として出力する(ステップS166)。 (7) A histogram for 2 2 (Jj) transform coefficients belonging to the mth direction component at the jth decomposition level is obtained, and L x (j, m) [i] (i = 0,..., 2 2 (Jj) -1) (step S166).
(8)最上位の分解レベルj=Jmax に属する「2の2(J−Jmax )乗」個の変換係数に対するヒストグラムを求め,Lx Y [i](i=0,…,2の2(J−Jmax )乗−1)として出力する。なお,ここでYは(Jmax ,0)である。最上位の分解レベルでは,方向成分に関する分割はなく,m=0に対応するヒストグラムに限定される(ステップS171)。 (8) A histogram for “2 to the power of 2 (J−J max )” belonging to the highest decomposition level j = J max is obtained, and L x Y [i] (i = 0,. 2 (J−J max ) -1). Here, Y is (J max , 0). At the highest decomposition level, there is no division related to the direction component, and it is limited to the histogram corresponding to m = 0 (step S171).
〔フローチャート(復号処理)〕
図11は,図6に示す画像復号装置3の処理フローチャートである。他の実施形態についても同様に処理できる。
[Flowchart (decoding process)]
FIG. 11 is a processing flowchart of the
(1)波形符号化処理の出力として得られた符号化データを入力として,波形符号化処理に対応する復号処理を行い,復号信号を出力する(ステップS20)。 (1) The encoded data obtained as an output of the waveform encoding process is input, a decoding process corresponding to the waveform encoding process is performed, and a decoded signal is output (step S20).
(2)復号処理の出力として得られた復号信号(N−Δビット信号)を入力として,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る(ステップS21)。 (2) Using the decoded signal (N-Δ bit signal) obtained as an output of the decoding process as an input, inverse bit depth conversion processing is performed to obtain a decoded signal of the structural component as an N-bit signal (step S21).
(3)テクスチャ分析情報を入力として,テクスチャ合成処理を行い,復号されたテクスチャ信号を出力する(ステップS22)。この処理の詳細については,図12を用いて後述する。 (3) Using the texture analysis information as an input, texture synthesis processing is performed and a decoded texture signal is output (step S22). Details of this processing will be described later with reference to FIG.
(4)Nビット信号としての構造成分の復号信号,復号されたテクスチャ信号を入力として,二つの信号を加算し,加算後の信号を復号信号として出力する(ステップS23)。 (4) The decoded signal of the structural component as an N-bit signal and the decoded texture signal are input, the two signals are added, and the signal after addition is output as a decoded signal (step S23).
〔フローチャート(テクスチャ合成処理)〕
図12は,テクスチャ合成処理(ステップS22)の詳細な処理フローチャートである。
[Flowchart (texture synthesis processing)]
FIG. 12 is a detailed process flowchart of the texture synthesis process (step S22).
テクスチャ合成処理では,Steerable pyramid 変換の変換係数のヒストグラムを入力として,サブバンド分解には,Steerable pyramid を用いる。テクスチャ合成の出力として得られる画像を合成画像と呼ぶ。なお,以下の処理の開始時点では,合成画像は上記の初期画像で初期化されている。 In the texture synthesis process, the histogram of the Steerable pyramid transform is input, and Steerable pyramid is used for subband decomposition. An image obtained as an output of texture synthesis is called a synthesized image. Note that, at the start of the following processing, the composite image is initialized with the initial image.
(1)入力として,処理対象画像の初期画像としての白色雑音画像,および目標とするテクスチャ画像(以後,目標テクスチャ画像と呼ぶ)に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンドのヒストグラムを読み込む。このヒストグラムをサブバンドヒストグラムと呼ぶ(ステップS221)。 (1) As input, a white noise image as an initial image of a processing target image, each pixel value histogram for a target texture image (hereinafter referred to as a target texture image), each subband for both images Read the histogram. This histogram is called a subband histogram (step S221).
(2)合成画像の画素値ヒストグラム,目標テクスチャ画像の画素値ヒストグラムを入力として,合成画像の画素値ヒストグラムを目標テクスチャ画像のそれに近づける処理を行い,処理後の合成画像の画素値ヒストグラムを出力する(ステップS222)。 (2) The pixel value histogram of the composite image and the pixel value histogram of the target texture image are input, the pixel value histogram of the composite image is approximated to that of the target texture image, and the pixel value histogram of the composite image after processing is output (Step S222).
(3)上記(2)で得られた合成画像の画素値ヒストグラムを用いて,処理対象画像の画素値を修正し,合成画像を生成する(ステップS223)。 (3) Using the pixel value histogram of the composite image obtained in (2) above, the pixel value of the processing target image is corrected and a composite image is generated (step S223).
(4)上記(3)で得られた合成画像を入力として,同画像に対する方向性フィルタバンクの順変換を行い,変換係数を算出する(ステップS224)。 (4) Using the composite image obtained in (3) above as an input, the directional filter bank is forward-converted with respect to the image and a conversion coefficient is calculated (step S224).
(5)各サブバンドの変換係数を入力として,同変換係数のヒストグラムを出力する(ステップS225)。 (5) Using the conversion coefficient of each subband as an input, a histogram of the conversion coefficient is output (step S225).
(6)合成画像と目標テクスチャ画像の両画像のサブバンドヒストグラムを入力として,合成画像の各サブバンドのヒストグラムを目標テクスチャ画像の同一帯域のサブバンドのヒストグラムに近づける処理を行い,処理後のヒストグラムを出力する(ステップS226)。 (6) Using the subband histograms of both the composite image and the target texture image as input, the histogram of each subband of the composite image is approximated to the subband histogram of the same band of the target texture image, and the processed histogram Is output (step S226).
(7)上記(6)で得られたサブバンドのヒストグラムを用いて,変換係数の値を修正し,修正後の値を生成する(ステップS227)。 (7) Using the subband histogram obtained in (6) above, the value of the transform coefficient is corrected to generate a corrected value (step S227).
(8)上記(7)で修正した合成画像のサブバンド係数を入力として,方向性フィルタバンクの逆変換を行い,合成画像を出力する(ステップS228)。 (8) Using the subband coefficient of the composite image corrected in (7) above as an input, the directional filter bank is inversely transformed and a composite image is output (step S228).
(9)以上の処理を一定回数,繰り返す(ステップS222〜S229)。 (9) The above process is repeated a predetermined number of times (steps S222 to S229).
以上説明した画像符号化および画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。 The image encoding and image decoding processes described above can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network. .
1 画像符号化装置
10 ビット深度変換部
11 波形符号化処理部
12 復号処理部
13 逆ビット深度変換部
14 差分信号生成部
15 テクスチャ分析処理部
16,17 ビット深度制限処理部
3 画像復号装置
30 テクスチャ合成処理部
31 復号処理部
32 逆ビット深度変換部
33 復号信号生成部
34 逆ビットシフト処理部
DESCRIPTION OF
Claims (10)
ビット深度変換後のN−Δビット信号の画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理過程と,
前記符号化データを復号する過程と,
前記復号されたN−Δビット信号の復号信号を逆ビット深度変換し,Nビットの復号信号を生成する過程と,
入力した前記Nビットの画像信号と,前記逆ビット深度変換後のNビットの復号信号との差分信号を算出する過程と,
前記差分信号に対するテクスチャ分析により,前記差分信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理過程と,
符号化ストリームとして,前記波形符号化処理過程による符号化データと前記テクスチャ分析処理過程による符号化データを符号化ストリームに統合する過程とを有する
ことを特徴とする画像符号化方法。 A process of inputting an N-bit image signal and converting the bit depth into an N-Δ bit signal (Δ>0);
A waveform coding process for performing coding processing based on waveform coding on the image signal of the N-Δ bit signal after bit depth conversion, and generating coded data;
Decoding the encoded data;
A process of inverse bit depth converting the decoded signal of the decoded N-Δ bit signal to generate an N-bit decoded signal;
Calculating a difference signal between the input N-bit image signal and the N-bit decoded signal after the inverse bit depth conversion;
A texture analysis process for generating encoded data of texture analysis information in which the difference signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis on the difference signal;
An image encoding method comprising: as an encoded stream, a process of integrating the encoded data by the waveform encoding process and the encoded data by the texture analysis process into an encoded stream.
前記差分信号に対して,ビット深度の制限を行うビット深度制限処理過程を有し,
前記テクスチャ分析処理過程では,ビット深度の制限された差分信号に対するテクスチャ分析により符号化データを生成する
ことを特徴とする画像符号化方法。 The image encoding method according to claim 1,
A bit depth limiting process for limiting the bit depth of the differential signal;
In the texture analysis process, encoded data is generated by texture analysis for a differential signal with a limited bit depth.
前記差分信号に対するビット深度の制限量に応じて,前記テクスチャ分析で得られるヒストグラムの表現精度を制御する
ことを特徴とする画像符号化方法。 The image encoding method according to claim 2, wherein
An image coding method, wherein the accuracy of representing a histogram obtained by the texture analysis is controlled according to a bit depth limit amount for the difference signal.
抽出したN−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理過程と,
前記Nビットの画像信号から下位Δビットの画像信号を抽出する過程と,
前記下位Δビットの画像信号に対するテクスチャ分析により,前記下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理過程と,
符号化ストリームとして,前記波形符号化処理過程による符号化データと前記テクスチャ分析処理過程による符号化データを符号化ストリームに統合する過程とを有する
ことを特徴とする画像符号化方法。 A process of extracting an upper N-Δ bit image signal (Δ> 0) by bit shift from the input N-bit image signal;
A waveform coding process for performing coding processing based on waveform coding on the extracted N-Δ bit image signal and generating coded data;
Extracting a lower Δbit image signal from the N bit image signal;
A texture analysis process for generating encoded data of texture analysis information in which the lower Δbit image signal is represented by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis of the lower Δbit image signal;
An image encoding method comprising: as an encoded stream, a process of integrating the encoded data by the waveform encoding process and the encoded data by the texture analysis process into an encoded stream.
前記復号信号に対して,逆ビット深度変換またはビットシフトにより符号化前の原信号と同じビット深度をもつ信号として復元する過程と,
テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号する過程と,
前記原信号と同じビット深度をもつ信号として復元した信号と,前記残差信号を復号した信号の2つの信号を統合することで,復号信号を生成する過程とを有する
ことを特徴とする画像復号方法。 A process of generating a decoded signal by the decoding process using the encoded data by the waveform encoding process as input;
Restoring the decoded signal as a signal having the same bit depth as the original signal before encoding by inverse bit depth conversion or bit shift;
The process of decoding the residual signal that could not be expressed by the waveform encoding process by the texture synthesis process using the encoded data from the texture analysis as input,
A process of generating a decoded signal by integrating two signals of a signal restored as a signal having the same bit depth as the original signal and a signal obtained by decoding the residual signal Method.
ビット深度変換後のN−Δビット信号の画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理部と,
前記符号化データを復号する復号処理部と,
前記復号処理部の出力であるN−Δビット信号の復号信号を逆ビット深度変換し,Nビットの復号信号を生成する逆ビット深度変換部と,
入力した前記Nビットの画像信号と,前記逆ビット深度変換後のNビットの復号信号との差分信号を算出する差分信号生成部と,
前記差分信号または前記差分信号のビット深度を制限した差分信号に対するテクスチャ分析により,前記差分信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理部とを備え,
符号化ストリームとして,波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームに統合する
ことを特徴とする画像符号化装置。 A bit depth conversion unit that inputs an N-bit image signal and converts it into an N-Δ bit signal (Δ>0);
A waveform encoding processing unit that performs encoding processing based on waveform encoding on the image signal of the N-Δ bit signal after bit depth conversion, and generates encoded data;
A decoding processor for decoding the encoded data;
An inverse bit depth conversion unit that performs an inverse bit depth conversion on the decoded signal of the N-Δ bit signal that is an output of the decoding processing unit, and generates an N bit decoded signal;
A difference signal generation unit for calculating a difference signal between the input N-bit image signal and the N-bit decoded signal after the inverse bit depth conversion;
Texture analysis for generating encoded data of texture analysis information expressing the difference signal by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis on the difference signal or a difference signal with a limited bit depth of the difference signal A processing unit,
An image encoding device, wherein encoded data obtained by waveform encoding processing and encoded data obtained by texture analysis are integrated into an encoded stream as an encoded stream.
前記N−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理部と,
前記Nビットの画像信号から下位Δビットの画像信号を抽出する下位ビット抽出処理部と,
前記下位Δビットの画像信号に対するテクスチャ分析により,前記下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理部とを備え,
符号化ストリームとして,波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームに統合する
ことを特徴とする画像符号化装置。 A bit shift processing unit for extracting an upper N-Δ bit image signal (Δ> 0) from the input N-bit image signal;
A waveform encoding processing unit that performs encoding processing based on waveform encoding on the N-Δ bit image signal, and generates encoded data;
A lower bit extraction processing unit for extracting a lower Δbit image signal from the N bit image signal;
A texture analysis processing unit that generates encoded data of texture analysis information in which the lower Δbit image signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis of the lower Δbit image signal; Prepared,
An image encoding device, wherein encoded data obtained by waveform encoding processing and encoded data obtained by texture analysis are integrated into an encoded stream as an encoded stream.
前記復号信号に対して,逆ビット深度変換またはビットシフトにより符号化前の原信号と同じビット深度をもつ信号として復元する逆ビットシフト変換部と,
テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号するテクスチャ合成処理部と,
前記原信号と同じビット深度をもつ信号として復元した信号と,前記残差信号を復号した信号の2つの信号を統合することで,復号信号を生成する復号信号生成部とを備える
ことを特徴とする画像復号装置。 A decoding processing unit that receives encoded data obtained by waveform encoding processing as input and generates a decoded signal by decoding processing;
An inverse bit shift conversion unit that restores the decoded signal as a signal having the same bit depth as the original signal before encoding by inverse bit depth conversion or bit shift;
A texture synthesis processing unit that receives encoded data by texture analysis and decodes a residual signal that cannot be expressed by waveform coding processing by texture synthesis processing;
A decoded signal generating unit that generates a decoded signal by integrating two signals of a signal restored as a signal having the same bit depth as the original signal and a signal obtained by decoding the residual signal, An image decoding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010125764A JP5351093B2 (en) | 2010-06-01 | 2010-06-01 | Image coding method, image coding apparatus, and image coding program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010125764A JP5351093B2 (en) | 2010-06-01 | 2010-06-01 | Image coding method, image coding apparatus, and image coding program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011254215A true JP2011254215A (en) | 2011-12-15 |
JP5351093B2 JP5351093B2 (en) | 2013-11-27 |
Family
ID=45417804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010125764A Expired - Fee Related JP5351093B2 (en) | 2010-06-01 | 2010-06-01 | Image coding method, image coding apparatus, and image coding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5351093B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002315004A (en) * | 2001-04-09 | 2002-10-25 | Ntt Docomo Inc | Image-encoding method and device, image-decoding method and device, and image processing system |
JP2003534734A (en) * | 2000-05-25 | 2003-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Bit plane dependent signal compression method |
JP2007243942A (en) * | 2006-02-24 | 2007-09-20 | Sharp Corp | Encoding method and decoding method of image data, and codec system |
WO2008066025A1 (en) * | 2006-11-27 | 2008-06-05 | Panasonic Corporation | Image encoding apparatus and image decoding part |
JP2009049627A (en) * | 2007-08-17 | 2009-03-05 | Nippon Telegr & Teleph Corp <Ntt> | Method of encoding scalable image, decoding method, encoder, decoder, program thereof, and recording medium thereof |
WO2009091625A1 (en) * | 2008-01-16 | 2009-07-23 | Sony Corporation | Video coding system using texture analysis and synthesis in a scalable coding framework |
WO2009091080A1 (en) * | 2008-01-18 | 2009-07-23 | Sharp Kabushiki Kaisha | Methods, device, program and media for texture synthesis for video coding with side information |
-
2010
- 2010-06-01 JP JP2010125764A patent/JP5351093B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003534734A (en) * | 2000-05-25 | 2003-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Bit plane dependent signal compression method |
JP2002315004A (en) * | 2001-04-09 | 2002-10-25 | Ntt Docomo Inc | Image-encoding method and device, image-decoding method and device, and image processing system |
JP2007243942A (en) * | 2006-02-24 | 2007-09-20 | Sharp Corp | Encoding method and decoding method of image data, and codec system |
WO2008066025A1 (en) * | 2006-11-27 | 2008-06-05 | Panasonic Corporation | Image encoding apparatus and image decoding part |
JP2009049627A (en) * | 2007-08-17 | 2009-03-05 | Nippon Telegr & Teleph Corp <Ntt> | Method of encoding scalable image, decoding method, encoder, decoder, program thereof, and recording medium thereof |
WO2009091625A1 (en) * | 2008-01-16 | 2009-07-23 | Sony Corporation | Video coding system using texture analysis and synthesis in a scalable coding framework |
WO2009091080A1 (en) * | 2008-01-18 | 2009-07-23 | Sharp Kabushiki Kaisha | Methods, device, program and media for texture synthesis for video coding with side information |
Also Published As
Publication number | Publication date |
---|---|
JP5351093B2 (en) | 2013-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU711488B2 (en) | Hybrid waveform and model-based encoding and decoding of image signals | |
US8223837B2 (en) | Learning-based image compression | |
US7653248B1 (en) | Compression for holographic data and imagery | |
CN109996073B (en) | Image compression method, system, readable storage medium and computer equipment | |
JP2007518367A (en) | Data compression using matching tracking | |
RU2335803C2 (en) | Method and device for frame-accurate encoding of residual movement based on superabundant basic transformation to increase video image condensation | |
Arora et al. | A comprehensive review of image compression techniques | |
Kabir et al. | Edge-based transformation and entropy coding for lossless image compression | |
Chen et al. | A new image codec paradigm for human and machine uses | |
CN117956185A (en) | Image feature processing method, image encoding method, image decoding method and device | |
US8989278B2 (en) | Method and device for coding a multi dimensional digital signal comprising original samples to form coded stream | |
JP5351094B2 (en) | Image coding method, image coding apparatus, and image coding program | |
JP4690371B2 (en) | Scalable image encoding method, decoding method, encoding device, decoding device, program thereof and recording medium thereof | |
JP5351093B2 (en) | Image coding method, image coding apparatus, and image coding program | |
CN113079377B (en) | Training method for depth image/video compression network | |
KR20240025629A (en) | Video compression using optical flow | |
Gray et al. | Image compression and tree-structured vector quantization | |
Kumari et al. | Image quality estimation by entropy and redundancy calculation for various wavelet families | |
Annalakshmi | Lossy image compression techniques | |
Chen et al. | A two-part predictive coder for multitask signal compression | |
JP4748113B2 (en) | Learning device, learning method, program, and recording medium | |
JP4255071B2 (en) | Pixel value selection type encoding device and decoding device of interest | |
Ho et al. | A variable-rate image coding scheme with vector quantization and clustering interpolation | |
JP4000589B2 (en) | Decoding device, decoding method, program, and recording medium | |
Basha et al. | A robust approach for qualitative compression in JPEG 2000 standard |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5351093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |