JP2011254215A - Image coding method, image decoding method, image coding device, image decoding device, and program for the method and device - Google Patents

Image coding method, image decoding method, image coding device, image decoding device, and program for the method and device Download PDF

Info

Publication number
JP2011254215A
JP2011254215A JP2010125764A JP2010125764A JP2011254215A JP 2011254215 A JP2011254215 A JP 2011254215A JP 2010125764 A JP2010125764 A JP 2010125764A JP 2010125764 A JP2010125764 A JP 2010125764A JP 2011254215 A JP2011254215 A JP 2011254215A
Authority
JP
Japan
Prior art keywords
signal
bit
image
encoded data
texture analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010125764A
Other languages
Japanese (ja)
Other versions
JP5351093B2 (en
Inventor
Yukihiro Bando
幸浩 坂東
Masayuki Takamura
誠之 高村
Hirohisa Jozawa
裕尚 如澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010125764A priority Critical patent/JP5351093B2/en
Publication of JP2011254215A publication Critical patent/JP2011254215A/en
Application granted granted Critical
Publication of JP5351093B2 publication Critical patent/JP5351093B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize coding which reduces the amount of codes while retaining a subjective image quality.SOLUTION: An image signal of an original signal is subjected to bit depth conversion (S10), and a signal expressed by a bit depth less than that of the original signal (structure component) is subjected to coding processing based on waveform coding (S11). A signal of a texture component obtained by removing a signal of the structure component from the original signal is subjected to coding processing based on texture analysis (S16), and coded data by the waveform coding processing and coded data by the coding processing based on the texture analysis are integrated to a coded stream.

Description

本発明は,高能率画像信号符号化方法および復号方法に関する。   The present invention relates to a high-efficiency image signal encoding method and decoding method.

H.264/AVCに代表される現行の符号化方式においては,フレーム内予測,フレーム間予測および階層間予測によって予測信号を生成し,予測信号と原信号の残差信号を符号化対象としている。このような従来技術は,原信号波形の正確な再現を目的としている。しかし,こうした従来手法では,波形再現の枠組みのもと,量子化により符号量を制御していたため,低レートでは,ブロック歪み,リンギングといった画質劣化が顕在化する。   H. In the current encoding method represented by H.264 / AVC, a prediction signal is generated by intra-frame prediction, inter-frame prediction, and inter-layer prediction, and a residual signal between the prediction signal and the original signal is to be encoded. Such a conventional technique aims to accurately reproduce the original signal waveform. However, in such a conventional method, since the code amount is controlled by quantization under the waveform reproduction framework, image quality degradation such as block distortion and ringing becomes obvious at a low rate.

また,その予測処理は復号信号を参照するため,低レートでは,劣化した復号信号を参照することになり,ある一定以上の高周波成分を予測することは不可能となる。このため,高周波成分を多く含む画像に対しては,予測性能は低下する。例えば,こうした低レートにおける画質劣化は,フレーム間予測の場合,剛体移動モデルの成立しない水面等のシーンにおいて顕著であり,フレーム内予測・階層間予測の場合,精細な絵柄のテクスチャ領域において顕著となる。   Further, since the prediction process refers to the decoded signal, at a low rate, the deteriorated decoded signal is referred to, and it is impossible to predict a high frequency component above a certain level. For this reason, the prediction performance deteriorates for an image containing many high-frequency components. For example, such low-rate image quality degradation is noticeable in scenes such as water surfaces where a rigid body movement model is not established in the case of inter-frame prediction, and in the case of intra-frame prediction and inter-layer prediction, it is noticeable in the texture area of a fine pattern. Become.

これに対し,テクスチャ合成と呼ばれる手法が検討されている。付与されたデータ(シードと呼ぶ)を用いて,予め定められた生成規則に基づき,画像を合成する技術である。テクスチャ合成では,原信号の正確な波形再現を追求するのではなく,原信号内のテクスチャの特徴量を再現対象とする点が,従来の一般的な符号化方式と異なる。   On the other hand, a technique called texture synthesis is being studied. This is a technique for synthesizing an image based on a predetermined generation rule using given data (referred to as a seed). The texture synthesis is different from the conventional general coding method in that it does not pursue accurate waveform reproduction of the original signal but uses the texture feature quantity in the original signal as a reproduction target.

テクスチャ合成の方法としては,例えば,非特許文献1に記載されている方法がある。この方法では,テクスチャ合成処理の入力として,方向性フィルタバンクの出力として得られた係数のヒストグラムをテクスチャの特徴量として用いる。   As a texture synthesis method, for example, there is a method described in Non-Patent Document 1. In this method, a histogram of coefficients obtained as an output of the directional filter bank is used as a texture feature value as an input of the texture synthesis process.

D.Heeger, and J. Bergen,“Pyramid-Based Texture Analysis/Synthesis”, Proc ACM SIGGRAPH 95, 1995.D. Heeger, and J. Bergen, “Pyramid-Based Texture Analysis / Synthesis”, Proc ACM SIGGRAPH 95, 1995.

一般に,テクスチャ合成で使用するシードのデータ量は,原信号のデータ量に比べて,極めて少なく抑えることが可能である。このため,テクスチャ合成の画像符号化への適用が期待される。   In general, the amount of seed data used in texture synthesis can be suppressed to be extremely small compared to the amount of data of the original signal. Therefore, application of texture synthesis to image coding is expected.

一方,テクスチャ合成によって生成された信号は,波形再現という観点からは原信号との類似度は保証されない。これは,画像中の位相情報を保持する保証がないためである。このため,原画像との比較を前提として,主観的に原信号に近い画質の信号を得ることが求められる場合には,単純に画像符号化にテクスチャ合成の手法を適用しても,その要求に応えることができない。   On the other hand, the similarity between the signal generated by texture synthesis and the original signal is not guaranteed from the viewpoint of waveform reproduction. This is because there is no guarantee that the phase information in the image is retained. For this reason, if it is required to obtain a signal with an image quality that is subjectively similar to the original signal on the premise of comparison with the original image, even if the texture synthesis method is simply applied to image coding, the request Can not respond to.

本発明はかかる事情に鑑みてなされたものであって,低レートの符号化方式として,従来の波形再現ベースの符号化方式に変わる手法として,テクスチャ合成技術に基づき主観的に原信号に近い画質の信号を生成する処理を確立することを目的とする。   The present invention has been made in view of such circumstances, and as a low-rate encoding method, a method that replaces the conventional waveform reproduction-based encoding method, based on texture synthesis technology, is subjectively close to the original image quality. It aims at establishing the process which produces | generates the signal of.

テクスチャ合成のみでの波形再現は,その処理の構造上,限界があった。これは,テクスチャ合成では,画像内の位相情報が保持されないためである。本発明では,従来の波形再現ベースの符号化方式とテクスチャ合成とを組み合わせ,両者の苦手とした部分を互いの長所で補い合うアプローチを取る。そのために,画像信号を波形の概形を表す成分(構造成分)とそれ以外の成分(テクスチャ成分)に分割し,構造成分に対して波形再現ベースの符号化を適用し,テクスチャ成分に対してテクスチャ分析・テクスチャ合成による符号化を適用する。   Waveform reproduction using only texture synthesis has its limitations due to its processing structure. This is because the phase information in the image is not retained in texture synthesis. In the present invention, a conventional waveform reproduction-based encoding method and texture synthesis are combined, and an approach is taken in which the weak points of both are supplemented by the advantages of each other. For this purpose, the image signal is divided into components that represent the general shape of the waveform (structural components) and other components (texture components), and waveform reproduction based coding is applied to the structural components. Encoding by texture analysis and texture synthesis is applied.

すなわち,本発明は,主観画質を保持しつつ符号量の削減を図るため,符号化対象の画像信号を構造成分とテクスチャ成分とに分割し,構造成分については,波形符号化に基づく符号化処理を行い,テクスチャ成分に対して,テクスチャ合成に基づく符号化処理を行う。画像信号を構造成分とテクスチャ成分とに分割する際には,例えば画像信号の上位ビットを構造情報とし,下位ビットをテクスチャ情報とする。下位ビットの劣化が視覚的に検知しにくい情報の場合,大きな符号量削減効果が期待できる。   That is, the present invention divides an image signal to be encoded into a structural component and a texture component in order to reduce the amount of code while maintaining subjective image quality, and the structural component is encoded based on waveform encoding. The texture component is encoded based on texture synthesis. When dividing an image signal into a structural component and a texture component, for example, the upper bits of the image signal are used as structure information and the lower bits are used as texture information. A large code amount reduction effect can be expected for information in which deterioration of lower bits is difficult to detect visually.

詳しくは本発明の画像符号化装置は,まず,原信号のビット深度変換により,少ないビット深度で表現された信号に対して波形符号化に基づく符号化処理を行い,符号化データを生成する。その符号化データを復号し,さらに,逆ビット深度変換により原信号と同じビット深度の信号を復元する。その復元信号と原信号との差分信号を算出し,差分信号に対して必要に応じてビット深度の制限を行い,ビット深度の制限された差分信号に対してテクスチャ分析を行うことにより,その信号を画素値のヒストグラム,変換フィルタ係数のヒストグラム群により表現して,テクスチャ分析による符号化データを生成する。以上の波形符号化処理による符号化データとテクスチャ分析による符号化データとを符号化ストリームとして統合して出力する。   Specifically, the image coding apparatus of the present invention first performs coding processing based on waveform coding on a signal expressed with a small bit depth by bit depth conversion of the original signal to generate coded data. The encoded data is decoded, and a signal having the same bit depth as the original signal is restored by inverse bit depth conversion. The difference signal between the restored signal and the original signal is calculated, the bit depth of the difference signal is limited as necessary, and texture analysis is performed on the difference signal of which the bit depth is limited. Is expressed by a histogram of pixel values and a group of histograms of transform filter coefficients to generate encoded data by texture analysis. The encoded data by the above waveform encoding process and the encoded data by texture analysis are integrated and output as an encoded stream.

または,本発明の画像符号化装置は,入力画像の上位ビットと下位ビットを分離し,上位ビットに対しては,ビットシフトにより,原信号よりも少ないビット深度の信号として表現し,波形符号化に基づく符号化処理を行い,符号化データを生成する。また,下位ビット信号に対してテクスチャ分析を行うことにより,その信号を画素値のヒストグラム,変換フィルタ係数のヒストグラム群により表現して,テクスチャ分析による符号化データを生成する。以上の波形符号化処理による符号化データとテクスチャ分析による符号化データとを符号化ストリームとして統合して出力する。   Alternatively, the image coding apparatus of the present invention separates the upper bits and the lower bits of the input image, and the upper bits are expressed by a bit shift as a signal having a bit depth smaller than that of the original signal. Encoding processing based on is performed to generate encoded data. Also, by performing texture analysis on the lower-order bit signal, the signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients to generate encoded data by texture analysis. The encoded data by the above waveform encoding process and the encoded data by texture analysis are integrated and output as an encoded stream.

上記画像符号化において,前記差分信号に対するビット深度の制限量に応じて,テクスチャ分析で得られるヒストグラムの表現精度を制御することも好適である。   In the image coding, it is also preferable to control the accuracy of expression of the histogram obtained by texture analysis according to the bit depth limit amount for the difference signal.

また,本発明の画像復号装置は,波形符号化処理による符号化データを入力として,復号処理により,復号信号を生成し,その復号信号に対して,逆ビット深度変換により原信号と同じビット深度をもつ信号として復元する。また,テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号し,前記2つの信号を統合することで,復号信号を得る。   In addition, the image decoding apparatus of the present invention receives encoded data obtained by waveform encoding processing as an input, generates a decoded signal by decoding processing, and performs the same bit depth as the original signal by inverse bit depth conversion on the decoded signal. Is restored as a signal with. Also, the encoded data obtained by texture analysis is input, the residual signal that cannot be expressed by the waveform encoding process is decoded by the texture synthesis process, and the decoded signal is obtained by integrating the two signals.

本発明により,主観画質は保持しつつ,符号量を削減する符号化を実現することができる。   According to the present invention, it is possible to realize encoding that reduces the code amount while maintaining subjective image quality.

画像符号化装置の構成例を示す図である。It is a figure which shows the structural example of an image coding apparatus. Steerable pyramid の分析フィルタの構成例を示す図である。It is a figure which shows the structural example of the analysis filter of Steerable pyramid. 画像符号化装置の他の構成例を示す図である。It is a figure which shows the other structural example of an image coding apparatus. 画像符号化装置の他の構成例を示す図である。It is a figure which shows the other structural example of an image coding apparatus. 画像符号化装置の他の構成例を示す図である。It is a figure which shows the other structural example of an image coding apparatus. 画像復号装置の構成例を示す図である。It is a figure which shows the structural example of an image decoding apparatus. Steerable pyramid の合成フィルタの構成例を示す図である。It is a figure which shows the structural example of the synthesis filter of Steerable pyramid. 画像復号装置の他の構成例を示す図である。It is a figure which shows the other structural example of an image decoding apparatus. 符号化処理のフローチャートである。It is a flowchart of an encoding process. テクスチャ分析処理のフローチャートである。It is a flowchart of a texture analysis process. 復号処理のフローチャートである。It is a flowchart of a decoding process. テクスチャ合成処理のフローチャートである。It is a flowchart of a texture synthetic | combination process.

以下,本実施形態で行う処理の概要について説明する。   Hereinafter, an outline of processing performed in the present embodiment will be described.

図1は,本発明の実施形態に係る画像符号化装置の構成例を示す。符号化処理の流れを図1を用いて説明する。まず,画像符号化装置1は,符号化対象の画像信号(Nビット信号) を入力する。ビット深度変換部10は,この画像信号(Nビット信号) を入力として,ビット深度変換処理により,N−Δビット信号へ変換する。ここで,Δは1≦Δ≦Nを満たす整数である。ビット深度変換処理としては,各画素値を右へΔビットシフトする方法が挙げられる。なお,この演算結果は,もとの画素値を1/(2のΔ乗)倍して小数点以下を切り捨てた値と一致する。また,二乗誤差最小化の規範に基づき,量子化の考え方を利用して,Nビット信号における2N 種類の画素値を「2の(N−Δ)乗」種類の画素値で近似する方法もある。 FIG. 1 shows a configuration example of an image coding apparatus according to an embodiment of the present invention. The flow of the encoding process will be described with reference to FIG. First, the image encoding device 1 inputs an image signal (N-bit signal) to be encoded. The bit depth conversion unit 10 receives this image signal (N-bit signal) and converts it into an N-Δ bit signal by bit depth conversion processing. Here, Δ is an integer satisfying 1 ≦ Δ ≦ N. As the bit depth conversion processing, there is a method of shifting each pixel value to the right by Δ bits. Note that this calculation result matches the value obtained by multiplying the original pixel value by 1 / (2 to the power of Δ) and truncating the decimal part. There is also a method of approximating 2 N types of pixel values in an N-bit signal with “2 (N−Δ)” types of pixel values based on the norm of square error minimization and using the concept of quantization. is there.

ビット深度変換処理の出力として得られたN−Δビット信号が,本手法における構造成分である。そこで,構造成分であるN−Δビット信号に対して,波形符号化処理部11は波形符号化処理を行い,符号化ストリームを出力する。波形符号化処理としては,H.264/AVC準拠の符号化方式を用いる。なお,本発明は,波形符号化処理をH.264/AVCに限定するものではなく,例えば,JPEG,JPEG2000,MPEG−2といった方法を用いることも可能である。   The N-Δ bit signal obtained as the output of the bit depth conversion process is a structural component in this method. Therefore, the waveform encoding processing unit 11 performs waveform encoding processing on the N-Δ bit signal which is a structural component, and outputs an encoded stream. As the waveform encoding process, H.264 has been described. H.264 / AVC-compliant encoding scheme is used. In the present invention, the waveform encoding process is H.264. For example, methods such as JPEG, JPEG2000, and MPEG-2 can be used.

次に,復号処理部12は,波形符号化処理の出力として得られた符号化ストリームに対して,H.264/AVCが規定する復号処理を行い,復号信号を得る。符号化方式としてH.264/AVC以外の方法(JPEG,JPEG2000,MPEG−2等)を用いた場合には,対応する復号処理を行う。   Next, the decoding processing unit 12 applies H.264 to the encoded stream obtained as the output of the waveform encoding process. A decoding process defined by H.264 / AVC is performed to obtain a decoded signal. As an encoding method, H.264 is used. When a method other than H.264 / AVC (JPEG, JPEG2000, MPEG-2, etc.) is used, a corresponding decoding process is performed.

逆ビット深度変換部13は,復号処理の出力として得られた復号信号(N−Δビット信号)に対して,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る。   The inverse bit depth conversion unit 13 performs an inverse bit depth conversion process on the decoded signal (N-Δ bit signal) obtained as an output of the decoding process, and obtains a decoded signal of a structural component as an N bit signal.

差分信号生成部14は,原信号と構造成分の復号信号(Nビット信号)との差分信号を算出する。この差分信号が,本手法におけるテクスチャ成分となる。テクスチャ分析処理部15は,テクスチャ成分に対して,テクスチャ分析処理を行い,復号時のテクスチャ合成において必要となる情報として,以下の2種類のヒストグラムを抽出する。一つが,差分信号のヒストグラムである。もう一つが,差分信号に対するSteerable pyramid 変換〔参考文献1参照〕により得られる変換係数に対するヒストグラムである。
〔参考文献1〕:E. P. Simoncelli and W. T. Freeman, “The Steerable Pyramid: A Flexible Architecture for Multi-Scale Derivative Computation ”,IEEE Int'l Conf. on Image Processing. Washington DC, October 1995 .
Steerable pyramid 変換は,方向性フィルタバンクの一種であり,方向数と分解レベルにより出力が規定される。原信号を2J ×2J 画素として,方向数Mと分解レベルJmax のSteerable pyramid 変換を行う場合,第j分解レベル(0≦j≦Jmax −1)においては,M種類の方向成分を有し,各方向成分が2J-J ×2J-j 個の変換係数を有する。なお,最上位の分解レベルj=Jmax においては,方向成分に関する分割はなく,2J-Jmax×2J-Jmax個の変換係数を有する。また,上記とは別に,高周波成分として,2J ×2J 個の変換係数を有する。
The difference signal generation unit 14 calculates a difference signal between the original signal and the decoded signal (N-bit signal) of the structural component. This difference signal becomes a texture component in this method. The texture analysis processing unit 15 performs texture analysis processing on the texture components, and extracts the following two types of histograms as information necessary for texture synthesis at the time of decoding. One is a difference signal histogram. The other is a histogram for transform coefficients obtained by Steerable pyramid transform (see Reference 1) for differential signals.
[Reference 1]: EP Simoncelli and WT Freeman, “The Steerable Pyramid: A Flexible Architecture for Multi-Scale Derivative Computation”, IEEE Int'l Conf. On Image Processing. Washington DC, October 1995.
Steerable pyramid transform is a kind of directional filter bank, and its output is defined by the number of directions and the decomposition level. When Steerable pyramid transformation with the number of directions M and decomposition level J max is performed with the original signal as 2 J × 2 J pixels, M types of direction components are used at the jth decomposition level (0 ≦ j ≦ J max −1). Each directional component has 2 JJ × 2 Jj conversion coefficients. At the highest decomposition level j = J max , there is no division with respect to the direction component, and 2 J−Jmax × 2 J−Jmax conversion coefficients. In addition to the above, 2 J × 2 J conversion coefficients are provided as high frequency components.

また,変換係数は実数値で表現されているため,分解レベル毎の各方向成分を予め与えられた量子化幅Kで量子化し,量子化後の変換係数に対するヒストグラムをテクスチャ分析情報とする。   Further, since the transform coefficient is expressed by a real value, each direction component for each decomposition level is quantized with a predetermined quantization width K, and a histogram for the quantized transform coefficient is used as texture analysis information.

例として,図2に,M=2, Jmax =1とした場合のsteerable pyramid 変換の分析フィルタの構成例を示す。高域通過フィルタ21および低域通過フィルタ22の入力は,画像信号(差分信号)である。この分析フィルタは,入力された画像信号に対して,指定されたレベル分解および方向分解を行い,高域成分,低域成分としてのフィルタ係数を算出する。高域通過フィルタ21から,高域通過フィルタの係数が出力され,第一方向成分通過フィルタ231から低域通過フィルタ+第一方向成分通過フィルタの係数が出力され,第二方向成分通過フィルタ232から低域通過フィルタ+第一方向成分通過フィルタの係数が出力され,低域通過フィルタ233とダウンサンプリング部234から,低域通過フィルタ+ダウンサンプリング後の係数が出力される。 As an example, FIG. 2 shows a configuration example of an analysis filter for steerable pyramid conversion when M = 2 and J max = 1. The input of the high-pass filter 21 and the low-pass filter 22 is an image signal (difference signal). This analysis filter performs specified level decomposition and direction decomposition on the input image signal, and calculates filter coefficients as high-frequency components and low-frequency components. The high-pass filter 21 outputs a high-pass filter coefficient, the first-direction component pass filter 231 outputs a low-pass filter + first-direction component pass filter coefficient, and the second-direction component pass filter 232 The coefficient of the low-pass filter + first-direction component pass filter is output, and the low-pass filter + downsampled coefficient is output from the low-pass filter 233 and the downsampling unit 234.

分解レベルを増やす場合には,ダウンサンプリング部234の出力するダウンサンプリング後の信号に対して,破線で囲んだ部分23の処理を再帰的に繰り返す。   When increasing the decomposition level, the processing of the portion 23 surrounded by the broken line is recursively repeated for the downsampled signal output from the downsampling unit 234.

図3は,画像符号化装置の他の構成例を示す。図3に示す画像符号化装置1−1では,図1に示す画像符号化装置1に対して,差分信号生成部14とテクスチャ分析処理部15との間に,ビット深度制限処理部16が設けられている。他の構成部分は,図1に示す画像符号化装置1と同様である。ビット深度制限処理部16は,差分信号の下位δビットを抽出し,テクスチャ分析処理の対象をδビット信号に制限する。この場合,δはΔと同一の値とすることもできるが,Δとは独立に設定することも可能である。このδをビット深度制限パラメータと呼ぶ。   FIG. 3 shows another configuration example of the image encoding device. In the image encoding device 1-1 illustrated in FIG. 3, a bit depth restriction processing unit 16 is provided between the difference signal generation unit 14 and the texture analysis processing unit 15 with respect to the image encoding device 1 illustrated in FIG. 1. It has been. Other components are the same as those of the image encoding device 1 shown in FIG. The bit depth restriction processing unit 16 extracts the lower δ bits of the difference signal and restricts the target of texture analysis processing to the δ bit signal. In this case, δ can be the same value as Δ, but can be set independently of Δ. This δ is called a bit depth limit parameter.

ここで,ヒストグラムの表現方法について整理する。ヒストグラムをhB [i](i=0,1,…,B−1)と表した場合,hB [i]は,対象となる信号値がiとなるサンプルの個数を格納する。このとき,Bをヒストグラムのbin数と呼び,hB [i]を第ibinの頻度値と呼ぶ。 Here, the histogram representation methods are organized. When the histogram is expressed as h B [i] (i = 0, 1,..., B−1), h B [i] stores the number of samples whose target signal value is i. At this time, B is called the bin number of the histogram, and h B [i] is called the frequency value of the i-th bin.

前記のように,テクスチャ合成処理の対象のビット深度を制限することで,前記差分信号は「2のδ乗」種類の画素値に制限される。このとき,対応するヒストグラムに格納されるのは,「2のδ乗」種類の画素値となり,ヒストグラムのbin数を2N+1 から「2のδ乗」に抑えることができる。この結果,ビット制限前に比べて,同ヒストグラムを表現する情報量を低減することが可能となる。 As described above, by limiting the bit depth of the texture synthesis target, the difference signal is limited to “2 to the δth power” type of pixel value. At this time, pixel values of the “2 to the δth power” type are stored in the corresponding histogram, and the bin number of the histogram can be suppressed from 2 N + 1 to “2 to the δth power”. As a result, it is possible to reduce the amount of information expressing the histogram compared to before the bit restriction.

Steerable pyramid 変換の変換係数に対するヒストグラムに対しても,ビット深度制限パラメータδに基づき,ヒストグラムのbin数を制限する。具体的には,ビット深度制限パラメータδが小さくなるにつれて,ヒストグラムのbin数を小さく設定する。これは,変換前の信号のビット深度に応じて,変換係数に必要なビット深度も変化することを考慮すると,変換係数のヒストグラムのbin数を常に一定に保つことは,δが小さな場合,変換係数に対して冗長な表現を与える可能性があるためである。   Also for the histogram for the transform coefficient of the Steerable pyramid transform, the number of bins of the histogram is limited based on the bit depth limit parameter δ. Specifically, the bin number of the histogram is set to be smaller as the bit depth restriction parameter δ is smaller. In consideration of the fact that the bit depth required for the transform coefficient also changes according to the bit depth of the signal before the conversion, keeping the number of bins in the histogram of the transform coefficient is always constant when δ is small. This is because a redundant expression may be given to the coefficient.

Steerable pyramid 変換における第j分解レベル(0 ≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数に対するヒストグラムをLx (j,m) [i](i=0,…,22(J-j)−1)〔ここで,下添字XはBδ(δは下添字)の代わりの表記,以下同様〕とする。なお,前述の通り,最上位の分解レベルj=Jmax においては,方向成分に関する分割はなく,m=0に対応するヒストグラムに限定される。また,上記とは別に,高周波成分として,2J ×2J 個の変換係数を有するため,この高周波成分を格納するヒストグラムを,HJ [i](i=0,…,22J−1)とする。 A histogram for the transformation coefficient of the m-th (m = 0, 1,..., M−1) direction component at the j-th decomposition level (0 ≦ j ≦ J max −1) in the Steerable pyramid transformation is expressed as L x (j, m) [ i] (i = 0,..., 2 2 (Jj) −1) [where subscript X is a notation instead of Bδ (δ is a subscript), and so on). As described above, at the highest decomposition level j = J max , there is no division related to the direction component, and it is limited to the histogram corresponding to m = 0. In addition to the above, since there are 2 J × 2 J conversion coefficients as high-frequency components, a histogram for storing these high-frequency components is represented as H J [i] (i = 0,..., 2 2J −1). And

第j分解レベル(0≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数に対するヒストグラムをLx (j,m) [i](i=0,…,22(J-j)−1)とすることは,実数値で表現された変換係数をBδ種類の離散値で近似することになる。この離散化の際,用いる量子化幅をqj,m ,第j分解レベル(0≦j≦Jmax −1)における第m(m=0,1,…,M−1)方向成分の変換係数cj,m [k](k=0,…,22(J-j)−1)とすると,この離散化に伴う近似誤差Ex (j,m) は,次式のように表される。 A histogram for transform coefficients of m-th (m = 0, 1,..., M−1) direction components at the j-th decomposition level (0 ≦ j ≦ J max −1) is expressed as L x (j, m) [i] (i = 0,..., 2 2 (Jj) −1) means that the conversion coefficient expressed by a real value is approximated by Bδ types of discrete values. In this discretization, the quantization width to be used is q j, m , and the m-th (m = 0, 1,..., M−1) direction component conversion at the j-th decomposition level (0 ≦ j ≦ J max −1). Assuming that the coefficient c j, m [k] (k = 0,..., 2 2 (Jj) −1), the approximation error Ex (j, m) accompanying this discretization is expressed as follows: .

Figure 2011254215
Figure 2011254215

この式中,「L字型の記号」と「左右反転L字型の記号」で挟まれる値xは,実数xに対する少数点以下の切捨てを意味する。また,高周波成分に対する近似誤差を,便宜上,以下のように表す。 In this equation, the value x sandwiched between the “L-shaped symbol” and the “left-right inverted L-shaped symbol” means rounding off the decimal point with respect to the real number x. In addition, the approximation error for high frequency components is expressed as follows for convenience.

Figure 2011254215
Figure 2011254215

なお,ここで用いたm=Mは方向成分を同定するためではなく,高周波成分を表すインデックスとして用いている。 Note that m = M used here is not used to identify a direction component but as an index representing a high-frequency component.

全分解レベルの全方向成分に対する近似誤差の和として,次式を定義する。   The following equation is defined as the sum of approximation errors for the omnidirectional components at all resolution levels.

Figure 2011254215
Figure 2011254215

bin数の増加に対して,近似誤差和Etotal (Bδ,δ)は単調減少となる。そこで,bin数の設定の際には,式(1)に対する閾値Tを設定し,bin数の候補となる値を複数用意し,同候補に含まれる値の中で次式を満たす最大の値をbin数とする。 As the number of bins increases, the approximate error sum E total (Bδ, δ) decreases monotonously. Therefore, when setting the number of bins, a threshold value T for the formula (1) is set, a plurality of values as candidates for the number of bins are prepared, and the maximum value satisfying the following formula among the values included in the candidates is set. Is the number of bins.

total (Bδ,δ)≦T
図4は,画像符号化装置の他の構成例を示す。図4に示す画像符号化装置1−2では,図1に示す画像符号化装置1に対して,テクスチャ分析処理部15の後に,ビット深度制限処理部17が設けられている。他の構成部分は,図1に示す画像符号化装置1と同様である。ビット深度制限処理部17は,テクスチャ分析処理部15の出力をδビット信号に制限する。δビット信号に制限することにより,テクスチャ分析処理による符号化データの符号量をさらに圧縮することができる。
E total (Bδ, δ) ≦ T
FIG. 4 shows another configuration example of the image encoding device. In the image encoding device 1-2 illustrated in FIG. 4, a bit depth restriction processing unit 17 is provided after the texture analysis processing unit 15 with respect to the image encoding device 1 illustrated in FIG. 1. Other components are the same as those of the image encoding device 1 shown in FIG. The bit depth restriction processing unit 17 restricts the output of the texture analysis processing unit 15 to a δ bit signal. By limiting to the δ-bit signal, it is possible to further compress the code amount of the encoded data by the texture analysis process.

また,図5は,画像符号化装置のさらに他の構成例を示す。図5に示す画像符号化装置1−3では,ビットシフト処理部101が,入力したNビットの画像信号から上位N−Δビットの画像信号(Δ>0)を抽出する。波形符号化処理部102は,N−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを出力する。   FIG. 5 shows still another configuration example of the image encoding device. In the image encoding device 1-3 illustrated in FIG. 5, the bit shift processing unit 101 extracts an upper N-Δ bit image signal (Δ> 0) from the input N-bit image signal. The waveform encoding processing unit 102 performs an encoding process based on the waveform encoding on the N-Δ bit image signal and outputs encoded data.

一方,下位ビット抽出処理部103は,入力したNビットの画像信号から下位Δビットの画像信号を抽出し,テクスチャ分析処理部104は,下位Δビットの画像信号に対するテクスチャ分析により,下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成する。これらの波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームとして統合する。   On the other hand, the low-order bit extraction processing unit 103 extracts a low-order Δbit image signal from the input N-bit image signal, and the texture analysis processing unit 104 performs low-order Δbit image signal analysis by texture analysis on the low-order Δbit image signal. Coded data of texture analysis information expressing an image signal by a histogram of pixel values and a histogram group of transform filter coefficients is generated. The encoded data by these waveform encoding processes and the encoded data by texture analysis are integrated as an encoded stream.

以上のように,ビット深度変換処理として,ビットシフトを用いる場合には,図5に示す形式で,図1,図3,図4の符号化処理が実現できる。図5の構成の利点は,テクスチャ分析処理と波形符号化処理を並列に処理できる点にある。このため,図1,図3,図4に示す符号化処理では,波形符号化処理・復号処理が完了するまで,テクスチャ合成処理が実行できないのに対して,図5の構成では,両者を並列に処理できるため,並列処理可能な環境では,処理速度の向上が期待できる。   As described above, when bit shift is used as the bit depth conversion processing, the encoding processing shown in FIGS. 1, 3, and 4 can be realized in the format shown in FIG. The advantage of the configuration of FIG. 5 is that the texture analysis process and the waveform encoding process can be processed in parallel. Therefore, in the encoding process shown in FIGS. 1, 3 and 4, the texture synthesis process cannot be executed until the waveform encoding process / decoding process is completed. Therefore, the processing speed can be improved in an environment where parallel processing is possible.

復号処理について,図6を用いて説明する。図6は,画像復号装置の構成例を示す。画像復号装置3は,テクスチャ合成処理部30と,復号処理部31と,逆ビット深度変換部32と,復号信号生成部33とを備える。   Decoding processing will be described with reference to FIG. FIG. 6 shows a configuration example of the image decoding apparatus. The image decoding device 3 includes a texture synthesis processing unit 30, a decoding processing unit 31, an inverse bit depth conversion unit 32, and a decoded signal generation unit 33.

復号処理では,2種類の符号化情報を入力とする。まず,波形符号化処理の出力として得られた符号化ストリームに対して,復号処理部31は,対応する復号処理を行い,復号信号を得る。復号処理の出力として得られた復号信号(N−Δビット信号)に対して,逆ビット深度変換部32は,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る。   In the decoding process, two types of encoded information are input. First, the decoding processing unit 31 performs a corresponding decoding process on the encoded stream obtained as the output of the waveform encoding process to obtain a decoded signal. The inverse bit depth conversion unit 32 performs an inverse bit depth conversion process on the decoded signal (N-Δ bit signal) obtained as an output of the decoding process, and obtains a decoded signal of a structural component as an N bit signal.

次に,テクスチャ合成処理部30は,テクスチャ分析情報を入力として,以下のテクスチャ合成の方法に基づき,テクスチャ情報を復号する。符号化処理において,図3,図4に示すようなビット深度制限処理が加わっている場合には,復号されるテクスチャ情報は,δビットに制限されている。   Next, the texture synthesis processing unit 30 receives the texture analysis information and decodes the texture information based on the following texture synthesis method. In the encoding process, when the bit depth limiting process as shown in FIGS. 3 and 4 is added, the texture information to be decoded is limited to δ bits.

テクスチャ合成の方法は,非特許文献1の方法を使用する。この方法では,テクスチャ合成処理の入力として,Steerable pyramid と呼ぶ方向性フィルタバンクの出力として得られた係数のヒストグラムを用いる。同方法の概要を以下に示す。   The method of Non-Patent Document 1 is used as the texture synthesis method. In this method, a histogram of coefficients obtained as an output of a directional filter bank called Steerable pyramid is used as an input for texture synthesis processing. The outline of this method is shown below.

同方法の入力は,適当な初期画像(上記非特許文献1では,白色雑音画像),および目標とするテクスチャ画像(以後,目標テクスチャ画像と呼ぶ)に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンドのヒストグラムとする。サブバンド分解には,Steerable pyramid を用いる。テクスチャ合成の出力として得られる画像を合成画像と呼ぶ。なお,以下の処理の開始時点では,合成画像は上記の初期画像で初期化されている。   The input of the method includes an appropriate initial image (white noise image in Non-Patent Document 1), a pixel value histogram for a target texture image (hereinafter referred to as a target texture image), and each of the two images. Is a histogram of each subband. Steerable pyramid is used for subband decomposition. An image obtained as an output of texture synthesis is called a synthesized image. Note that, at the start of the following processing, the composite image is initialized with the initial image.

〔テクスチャ合成の方法〕
(1)処理対象画像の初期画像としての白色雑音画像,および目標テクスチャ画像に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンド毎の変換係数のヒストグラム(サブバンドヒストグラムと呼ぶ)を入力する。
[Texture synthesis method]
(1) A white noise image as an initial image of the processing target image, pixel value histograms for the target texture image, and a histogram of conversion coefficients for each subband (referred to as a subband histogram) for both images are input. To do.

(2)合成画像(最初は初期画像)の画素値ヒストグラム,目標テクスチャ画像の画素値ヒストグラムをもとに,合成画像の画素値ヒストグラムを目標テクスチャ画像のそれに近づける。   (2) Based on the pixel value histogram of the composite image (initially the initial image) and the pixel value histogram of the target texture image, the pixel value histogram of the composite image is brought close to that of the target texture image.

(3)上記(2)で得られた合成画像の画素値ヒストグラムを用いて,合成画像を生成する。   (3) A composite image is generated using the pixel value histogram of the composite image obtained in (2) above.

(4)上記(3)で得られた合成画像を入力として,同画像に対する方向性フィルタバンクの順変換を行い,変換係数を算出する。各サブバンド毎に変換係数のヒストグラムを生成する。   (4) Using the composite image obtained in (3) above as an input, the directional filter bank is forward-converted with respect to the image and a conversion coefficient is calculated. A histogram of conversion coefficients is generated for each subband.

(5)合成画像および目標テクスチャ画像の両画像のサブバンドヒストグラムを入力として,合成画像の各サブバンドのヒストグラムを目標テクスチャ画像の同一帯域のサブバンドのヒストグラムに近づける。   (5) Using the subband histograms of both the composite image and the target texture image as input, the histogram of each subband of the composite image is brought close to the subband histogram of the same band of the target texture image.

(6)上記(5)で修正した合成画像のサブバンド係数を入力として,方向性フィルタバンクの逆変換を行い,合成画像を出力する。   (6) Using the subband coefficient of the composite image corrected in (5) above as an input, the directional filter bank is inversely transformed and a composite image is output.

(7)上記(2)〜(6)の処理を一定回数,繰り返す。   (7) The processes (2) to (6) are repeated a certain number of times.

テクスチャ合成においてサブバンド係数を得る手法としては,例えばwavelet のような上記以外のフィルタバンクの適用も検討されている。本発明におけるテクスチャ特徴量の予測機構は,上記の方向性フィルタバンクに限らず,それ以外のフィルタバンクに対しても同様に適用することができる。   As a technique for obtaining subband coefficients in texture synthesis, application of a filter bank other than the above, such as wavelet, is also being studied. The texture feature amount prediction mechanism according to the present invention is not limited to the above-described directional filter bank, and can be similarly applied to other filter banks.

例として,図7に,M=2, Jmax =1とした場合のsteerable pyramid 変換の合成フィルタの構成例を示す。この合成フィルタは,入力されたフィルタ係数から画像信号を合成する。高域合成フィルタ42は,図2に示す高域通過フィルタ21が出力したフィルタ係数を入力し,画像信号を合成する。第一方向成分合成フィルタ401は,図2に示す第一方向成分通過フィルタ231が出力した低域通過フィルタと第一方向成分通過フィルタの係数を入力する。第二方向成分合成フィルタ402は,図2に示す第二方向成分通過フィルタ232が出力した低域通過フィルタと第二方向成分通過フィルタの係数を入力する。アップサンプリング部403は,図2に示すダウンサンプリング部234が出力した低域通過フィルタとダウンサンプリング後の係数を入力してアップサンプリングし,低域成分合成フィルタ404はアップサンプリング後の係数から画像信号を合成する。低域合成フィルタ41は,第一方向成分合成フィルタ401,第二方向成分合成フィルタ402,低域成分合成フィルタ404の出力を合成する。高域合成フィルタ42および低域合成フィルタ41の出力から,最終的な差分信号の画像信号が合成される。 As an example, FIG. 7 shows a configuration example of a synthesis filter for a steerable pyramid transformation when M = 2 and J max = 1. This synthesis filter synthesizes an image signal from the input filter coefficients. The high-frequency synthesis filter 42 receives the filter coefficient output from the high-pass filter 21 shown in FIG. 2 and synthesizes an image signal. The first direction component synthesis filter 401 receives the coefficients of the low-pass filter and the first direction component pass filter output from the first direction component pass filter 231 shown in FIG. The second direction component synthesis filter 402 receives the coefficients of the low-pass filter and the second direction component pass filter output from the second direction component pass filter 232 shown in FIG. The up-sampling unit 403 receives the low-pass filter output from the down-sampling unit 234 shown in FIG. 2 and the down-sampled coefficient and performs up-sampling, and the low-frequency component synthesis filter 404 calculates the image signal from the up-sampled coefficient. Is synthesized. The low frequency synthesis filter 41 synthesizes the outputs of the first direction component synthesis filter 401, the second direction component synthesis filter 402, and the low frequency component synthesis filter 404. From the outputs of the high-frequency synthesis filter 42 and the low-frequency synthesis filter 41, the final differential image signal is synthesized.

分解レベルを増やす場合には,破線で囲んだ部分40の処理を,再帰的に繰り返す。   When increasing the decomposition level, the process of the portion 40 enclosed by the broken line is recursively repeated.

図8に示す画像復号装置3−1は,図5に示す画像符号化装置1−3に対応する復号処理を行う復号装置である。図8に示す画像復号装置3−1では,図6の画像復号装置3における逆ビット深度変換部32として,逆ビットシフト処理部34が用いられている。逆ビットシフト処理部34は,復号処理部31が復号したN−Δビット信号を,Δビット分だけ逆ビットシフトすることにより,Nビット信号に変換する。復号信号生成部33は,このNビット信号と,テクスチャ合成処理部30の出力であるΔビット信号とを加算し,Nビット信号の復号画像を生成する。   An image decoding device 3-1 illustrated in FIG. 8 is a decoding device that performs a decoding process corresponding to the image encoding device 1-3 illustrated in FIG. In the image decoding device 3-1 shown in FIG. 8, an inverse bit shift processing unit 34 is used as the inverse bit depth conversion unit 32 in the image decoding device 3 of FIG. 6. The inverse bit shift processing unit 34 converts the N−Δ bit signal decoded by the decoding processing unit 31 into an N bit signal by performing reverse bit shift by Δ bits. The decoded signal generation unit 33 adds the N-bit signal and the Δ-bit signal output from the texture synthesis processing unit 30 to generate a decoded image of the N-bit signal.

以下,本実施形態の具体的な処理の流れについて説明する。   Hereinafter, a specific processing flow of the present embodiment will be described.

〔フローチャート(符号化処理)〕
図9は,図3に示す画像符号化装置1−1の処理フローチャートである。他の実施形態についても同様に処理できる。
[Flowchart (encoding process)]
FIG. 9 is a processing flowchart of the image encoding device 1-1 shown in FIG. Other embodiments can be similarly processed.

(1)画像信号(Nビット信号)を入力とし,同信号に含まれる2N 種類の画素値を「2の(N−Δ)乗」種類の画素値に割り当て,N−Δビットの信号として出力する(ステップS10)。 (1) An image signal (N-bit signal) is input, and 2 N types of pixel values included in the signal are assigned to “2 to the (N−Δ) power” type of pixel value, and the signal is an N−Δ bit signal. Output (step S10).

(2)N−Δビットの信号を入力として,予め定められた符号化方法に従い,波形符号化処理を行い,その符号化データを出力する。波形符号化処理としては,例えば,H.264/AVCの標準規格に準拠した符号化方法がある(ステップS11)。   (2) An N-Δ bit signal is input, waveform encoding processing is performed according to a predetermined encoding method, and the encoded data is output. Examples of the waveform encoding process include H.264. There is an encoding method compliant with the H.264 / AVC standard (step S11).

(3)上記(2)で生成された符号化データを復号し,N−Δビットの信号としての復号信号を得る(ステップS12)。   (3) The encoded data generated in (2) above is decoded to obtain a decoded signal as an N-Δ bit signal (step S12).

(4)N−Δビットの復号信号を入力として,同信号に含まれる「2の(N−Δ)乗」種類の画素値を2N 種類の画素値に割り当てる逆ビット深度変換の処理を行い,Nビットの復号信号として出力する(ステップS13)。 (4) An N-Δ bit decoded signal is input, and an inverse bit depth conversion process is performed in which “2 to the (N−Δ) power” type pixel value included in the signal is assigned to 2 N type pixel values. , N-bit decoded signals are output (step S13).

(5)上記(4)で生成した逆ビット深度変換後の復号信号と原信号との差分を算出し,差分信号として出力する(ステップS14)。   (5) The difference between the decoded signal after inverse bit depth conversion generated in (4) above and the original signal is calculated and output as a difference signal (step S14).

(6)同差分信号を入力として,ビット深度をδビットに制限し,δビット信号として出力する(ステップS15)。   (6) The same differential signal is input, the bit depth is limited to δ bits, and output as a δ bit signal (step S15).

(7)上記(6)で生成したδビット信号を入力として,テクスチャ分析処理を行い,画素値のヒストグラム,方向性フィルタバンクの各バンド毎のフィルタ係数のヒストグラムを出力する(ステップS16)。このステップS16の処理を「テクスチャ分析処理」と呼ぶ。   (7) The texture analysis process is performed using the δ bit signal generated in (6) above as an input, and a histogram of pixel values and a histogram of filter coefficients for each band of the directional filter bank are output (step S16). The processing in step S16 is referred to as “texture analysis processing”.

〔フローチャート(テクスチャ分析処理)〕
図10は,テクスチャ分析処理(ステップS16)の詳細な処理フローチャートである。
[Flowchart (texture analysis processing)]
FIG. 10 is a detailed process flowchart of the texture analysis process (step S16).

(1)入力信号を読み込み,入力信号の画素値のヒストグラムを出力する(ステップS161)。   (1) The input signal is read and a histogram of pixel values of the input signal is output (step S161).

(2) Steerable pyramid変換を規定するパラメータ方向数M,分解レベルJmax を読み込む(ステップS162)。 (2) The parameter direction number M that defines the Steerable pyramid transformation and the decomposition level J max are read (step S162).

(3)入力信号に対して,方向数M,分解レベルJmax で定まるSteerable pyramid 変換を行い,変換係数を出力する(ステップS163)。 (3) Steerable pyramid conversion determined by the number of directions M and the decomposition level J max is performed on the input signal, and a conversion coefficient is output (step S163).

(4)高周波成分に属する2J ×2J 個の変換係数に対してヒストグラムを求め,HJ [i](i=0,…,22J−1)として出力する(ステップS164)。 (4) A histogram is obtained for 2 J × 2 J conversion coefficients belonging to the high frequency component, and output as H J [i] (i = 0,..., 2 2J −1) (step S164).

(5)j=0,1,…,Jmax −1に対して,以下の処理を繰り返す(ステップS165〜S170)。 (5) The following processing is repeated for j = 0, 1,..., J max −1 (steps S165 to S170).

(6)m=0,1,…,M−1に対して,以下の処理を繰り返す(ステップS166〜S168)。   (6) The following processing is repeated for m = 0, 1,..., M−1 (steps S166 to S168).

(7)第j分解レベルにおける第m方向成分に属する22(J-j)個の変換係数に対するヒストグラムを求め,Lx (j,m) [i](i=0,…,22(J-j)−1)として出力する(ステップS166)。 (7) A histogram for 2 2 (Jj) transform coefficients belonging to the mth direction component at the jth decomposition level is obtained, and L x (j, m) [i] (i = 0,..., 2 2 (Jj) -1) (step S166).

(8)最上位の分解レベルj=Jmax に属する「2の2(J−Jmax )乗」個の変換係数に対するヒストグラムを求め,Lx Y [i](i=0,…,2の2(J−Jmax )乗−1)として出力する。なお,ここでYは(Jmax ,0)である。最上位の分解レベルでは,方向成分に関する分割はなく,m=0に対応するヒストグラムに限定される(ステップS171)。 (8) A histogram for “2 to the power of 2 (J−J max )” belonging to the highest decomposition level j = J max is obtained, and L x Y [i] (i = 0,. 2 (J−J max ) -1). Here, Y is (J max , 0). At the highest decomposition level, there is no division related to the direction component, and it is limited to the histogram corresponding to m = 0 (step S171).

〔フローチャート(復号処理)〕
図11は,図6に示す画像復号装置3の処理フローチャートである。他の実施形態についても同様に処理できる。
[Flowchart (decoding process)]
FIG. 11 is a processing flowchart of the image decoding device 3 shown in FIG. Other embodiments can be similarly processed.

(1)波形符号化処理の出力として得られた符号化データを入力として,波形符号化処理に対応する復号処理を行い,復号信号を出力する(ステップS20)。   (1) The encoded data obtained as an output of the waveform encoding process is input, a decoding process corresponding to the waveform encoding process is performed, and a decoded signal is output (step S20).

(2)復号処理の出力として得られた復号信号(N−Δビット信号)を入力として,逆ビット深度変換処理を行い,Nビット信号としての構造成分の復号信号を得る(ステップS21)。   (2) Using the decoded signal (N-Δ bit signal) obtained as an output of the decoding process as an input, inverse bit depth conversion processing is performed to obtain a decoded signal of the structural component as an N-bit signal (step S21).

(3)テクスチャ分析情報を入力として,テクスチャ合成処理を行い,復号されたテクスチャ信号を出力する(ステップS22)。この処理の詳細については,図12を用いて後述する。   (3) Using the texture analysis information as an input, texture synthesis processing is performed and a decoded texture signal is output (step S22). Details of this processing will be described later with reference to FIG.

(4)Nビット信号としての構造成分の復号信号,復号されたテクスチャ信号を入力として,二つの信号を加算し,加算後の信号を復号信号として出力する(ステップS23)。   (4) The decoded signal of the structural component as an N-bit signal and the decoded texture signal are input, the two signals are added, and the signal after addition is output as a decoded signal (step S23).

〔フローチャート(テクスチャ合成処理)〕
図12は,テクスチャ合成処理(ステップS22)の詳細な処理フローチャートである。
[Flowchart (texture synthesis processing)]
FIG. 12 is a detailed process flowchart of the texture synthesis process (step S22).

テクスチャ合成処理では,Steerable pyramid 変換の変換係数のヒストグラムを入力として,サブバンド分解には,Steerable pyramid を用いる。テクスチャ合成の出力として得られる画像を合成画像と呼ぶ。なお,以下の処理の開始時点では,合成画像は上記の初期画像で初期化されている。   In the texture synthesis process, the histogram of the Steerable pyramid transform is input, and Steerable pyramid is used for subband decomposition. An image obtained as an output of texture synthesis is called a synthesized image. Note that, at the start of the following processing, the composite image is initialized with the initial image.

(1)入力として,処理対象画像の初期画像としての白色雑音画像,および目標とするテクスチャ画像(以後,目標テクスチャ画像と呼ぶ)に対する各々の画素値ヒストグラム,前記両画像に対する各々の各サブバンドのヒストグラムを読み込む。このヒストグラムをサブバンドヒストグラムと呼ぶ(ステップS221)。   (1) As input, a white noise image as an initial image of a processing target image, each pixel value histogram for a target texture image (hereinafter referred to as a target texture image), each subband for both images Read the histogram. This histogram is called a subband histogram (step S221).

(2)合成画像の画素値ヒストグラム,目標テクスチャ画像の画素値ヒストグラムを入力として,合成画像の画素値ヒストグラムを目標テクスチャ画像のそれに近づける処理を行い,処理後の合成画像の画素値ヒストグラムを出力する(ステップS222)。   (2) The pixel value histogram of the composite image and the pixel value histogram of the target texture image are input, the pixel value histogram of the composite image is approximated to that of the target texture image, and the pixel value histogram of the composite image after processing is output (Step S222).

(3)上記(2)で得られた合成画像の画素値ヒストグラムを用いて,処理対象画像の画素値を修正し,合成画像を生成する(ステップS223)。   (3) Using the pixel value histogram of the composite image obtained in (2) above, the pixel value of the processing target image is corrected and a composite image is generated (step S223).

(4)上記(3)で得られた合成画像を入力として,同画像に対する方向性フィルタバンクの順変換を行い,変換係数を算出する(ステップS224)。   (4) Using the composite image obtained in (3) above as an input, the directional filter bank is forward-converted with respect to the image and a conversion coefficient is calculated (step S224).

(5)各サブバンドの変換係数を入力として,同変換係数のヒストグラムを出力する(ステップS225)。   (5) Using the conversion coefficient of each subband as an input, a histogram of the conversion coefficient is output (step S225).

(6)合成画像と目標テクスチャ画像の両画像のサブバンドヒストグラムを入力として,合成画像の各サブバンドのヒストグラムを目標テクスチャ画像の同一帯域のサブバンドのヒストグラムに近づける処理を行い,処理後のヒストグラムを出力する(ステップS226)。   (6) Using the subband histograms of both the composite image and the target texture image as input, the histogram of each subband of the composite image is approximated to the subband histogram of the same band of the target texture image, and the processed histogram Is output (step S226).

(7)上記(6)で得られたサブバンドのヒストグラムを用いて,変換係数の値を修正し,修正後の値を生成する(ステップS227)。   (7) Using the subband histogram obtained in (6) above, the value of the transform coefficient is corrected to generate a corrected value (step S227).

(8)上記(7)で修正した合成画像のサブバンド係数を入力として,方向性フィルタバンクの逆変換を行い,合成画像を出力する(ステップS228)。   (8) Using the subband coefficient of the composite image corrected in (7) above as an input, the directional filter bank is inversely transformed and a composite image is output (step S228).

(9)以上の処理を一定回数,繰り返す(ステップS222〜S229)。   (9) The above process is repeated a predetermined number of times (steps S222 to S229).

以上説明した画像符号化および画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The image encoding and image decoding processes described above can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network. .

1 画像符号化装置
10 ビット深度変換部
11 波形符号化処理部
12 復号処理部
13 逆ビット深度変換部
14 差分信号生成部
15 テクスチャ分析処理部
16,17 ビット深度制限処理部
3 画像復号装置
30 テクスチャ合成処理部
31 復号処理部
32 逆ビット深度変換部
33 復号信号生成部
34 逆ビットシフト処理部
DESCRIPTION OF SYMBOLS 1 Image encoding apparatus 10 Bit depth conversion part 11 Waveform encoding process part 12 Decoding process part 13 Inverse bit depth conversion part 14 Differential signal generation part 15 Texture analysis process part 16, 17 Bit depth restriction | limiting process part 3 Image decoding apparatus 30 Texture Compositing processing unit 31 Decoding processing unit 32 Inverse bit depth conversion unit 33 Decoded signal generation unit 34 Inverse bit shift processing unit

Claims (10)

Nビットの画像信号を入力し,N−Δビット信号(Δ>0)にビット深度変換する過程と,
ビット深度変換後のN−Δビット信号の画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理過程と,
前記符号化データを復号する過程と,
前記復号されたN−Δビット信号の復号信号を逆ビット深度変換し,Nビットの復号信号を生成する過程と,
入力した前記Nビットの画像信号と,前記逆ビット深度変換後のNビットの復号信号との差分信号を算出する過程と,
前記差分信号に対するテクスチャ分析により,前記差分信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理過程と,
符号化ストリームとして,前記波形符号化処理過程による符号化データと前記テクスチャ分析処理過程による符号化データを符号化ストリームに統合する過程とを有する
ことを特徴とする画像符号化方法。
A process of inputting an N-bit image signal and converting the bit depth into an N-Δ bit signal (Δ>0);
A waveform coding process for performing coding processing based on waveform coding on the image signal of the N-Δ bit signal after bit depth conversion, and generating coded data;
Decoding the encoded data;
A process of inverse bit depth converting the decoded signal of the decoded N-Δ bit signal to generate an N-bit decoded signal;
Calculating a difference signal between the input N-bit image signal and the N-bit decoded signal after the inverse bit depth conversion;
A texture analysis process for generating encoded data of texture analysis information in which the difference signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis on the difference signal;
An image encoding method comprising: as an encoded stream, a process of integrating the encoded data by the waveform encoding process and the encoded data by the texture analysis process into an encoded stream.
請求項1記載の画像符号化方法において,
前記差分信号に対して,ビット深度の制限を行うビット深度制限処理過程を有し,
前記テクスチャ分析処理過程では,ビット深度の制限された差分信号に対するテクスチャ分析により符号化データを生成する
ことを特徴とする画像符号化方法。
The image encoding method according to claim 1,
A bit depth limiting process for limiting the bit depth of the differential signal;
In the texture analysis process, encoded data is generated by texture analysis for a differential signal with a limited bit depth.
請求項2記載の画像符号化方法において,
前記差分信号に対するビット深度の制限量に応じて,前記テクスチャ分析で得られるヒストグラムの表現精度を制御する
ことを特徴とする画像符号化方法。
The image encoding method according to claim 2, wherein
An image coding method, wherein the accuracy of representing a histogram obtained by the texture analysis is controlled according to a bit depth limit amount for the difference signal.
入力したNビットの画像信号からビットシフトにより上位N−Δビットの画像信号(Δ>0)を抽出する過程と,
抽出したN−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理過程と,
前記Nビットの画像信号から下位Δビットの画像信号を抽出する過程と,
前記下位Δビットの画像信号に対するテクスチャ分析により,前記下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理過程と,
符号化ストリームとして,前記波形符号化処理過程による符号化データと前記テクスチャ分析処理過程による符号化データを符号化ストリームに統合する過程とを有する
ことを特徴とする画像符号化方法。
A process of extracting an upper N-Δ bit image signal (Δ> 0) by bit shift from the input N-bit image signal;
A waveform coding process for performing coding processing based on waveform coding on the extracted N-Δ bit image signal and generating coded data;
Extracting a lower Δbit image signal from the N bit image signal;
A texture analysis process for generating encoded data of texture analysis information in which the lower Δbit image signal is represented by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis of the lower Δbit image signal;
An image encoding method comprising: as an encoded stream, a process of integrating the encoded data by the waveform encoding process and the encoded data by the texture analysis process into an encoded stream.
波形符号化処理による符号化データを入力として,復号処理により,復号信号を生成する過程と,
前記復号信号に対して,逆ビット深度変換またはビットシフトにより符号化前の原信号と同じビット深度をもつ信号として復元する過程と,
テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号する過程と,
前記原信号と同じビット深度をもつ信号として復元した信号と,前記残差信号を復号した信号の2つの信号を統合することで,復号信号を生成する過程とを有する
ことを特徴とする画像復号方法。
A process of generating a decoded signal by the decoding process using the encoded data by the waveform encoding process as input;
Restoring the decoded signal as a signal having the same bit depth as the original signal before encoding by inverse bit depth conversion or bit shift;
The process of decoding the residual signal that could not be expressed by the waveform encoding process by the texture synthesis process using the encoded data from the texture analysis as input,
A process of generating a decoded signal by integrating two signals of a signal restored as a signal having the same bit depth as the original signal and a signal obtained by decoding the residual signal Method.
Nビットの画像信号を入力し,N−Δビット信号(Δ>0)に変換するビット深度変換部と,
ビット深度変換後のN−Δビット信号の画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理部と,
前記符号化データを復号する復号処理部と,
前記復号処理部の出力であるN−Δビット信号の復号信号を逆ビット深度変換し,Nビットの復号信号を生成する逆ビット深度変換部と,
入力した前記Nビットの画像信号と,前記逆ビット深度変換後のNビットの復号信号との差分信号を算出する差分信号生成部と,
前記差分信号または前記差分信号のビット深度を制限した差分信号に対するテクスチャ分析により,前記差分信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理部とを備え,
符号化ストリームとして,波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームに統合する
ことを特徴とする画像符号化装置。
A bit depth conversion unit that inputs an N-bit image signal and converts it into an N-Δ bit signal (Δ>0);
A waveform encoding processing unit that performs encoding processing based on waveform encoding on the image signal of the N-Δ bit signal after bit depth conversion, and generates encoded data;
A decoding processor for decoding the encoded data;
An inverse bit depth conversion unit that performs an inverse bit depth conversion on the decoded signal of the N-Δ bit signal that is an output of the decoding processing unit, and generates an N bit decoded signal;
A difference signal generation unit for calculating a difference signal between the input N-bit image signal and the N-bit decoded signal after the inverse bit depth conversion;
Texture analysis for generating encoded data of texture analysis information expressing the difference signal by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis on the difference signal or a difference signal with a limited bit depth of the difference signal A processing unit,
An image encoding device, wherein encoded data obtained by waveform encoding processing and encoded data obtained by texture analysis are integrated into an encoded stream as an encoded stream.
入力したNビットの画像信号から上位N−Δビットの画像信号(Δ>0)を抽出するビットシフト処理部と,
前記N−Δビットの画像信号に対して,波形符号化に基づく符号化処理を行い,符号化データを生成する波形符号化処理部と,
前記Nビットの画像信号から下位Δビットの画像信号を抽出する下位ビット抽出処理部と,
前記下位Δビットの画像信号に対するテクスチャ分析により,前記下位Δビットの画像信号を画素値のヒストグラムおよび変換フィルタ係数のヒストグラム群により表現したテクスチャ分析情報の符号化データを生成するテクスチャ分析処理部とを備え,
符号化ストリームとして,波形符号化処理による符号化データとテクスチャ分析による符号化データを符号化ストリームに統合する
ことを特徴とする画像符号化装置。
A bit shift processing unit for extracting an upper N-Δ bit image signal (Δ> 0) from the input N-bit image signal;
A waveform encoding processing unit that performs encoding processing based on waveform encoding on the N-Δ bit image signal, and generates encoded data;
A lower bit extraction processing unit for extracting a lower Δbit image signal from the N bit image signal;
A texture analysis processing unit that generates encoded data of texture analysis information in which the lower Δbit image signal is expressed by a histogram of pixel values and a histogram group of transform filter coefficients by texture analysis of the lower Δbit image signal; Prepared,
An image encoding device, wherein encoded data obtained by waveform encoding processing and encoded data obtained by texture analysis are integrated into an encoded stream as an encoded stream.
波形符号化処理による符号化データを入力として,復号処理により,復号信号を生成する復号処理部と,
前記復号信号に対して,逆ビット深度変換またはビットシフトにより符号化前の原信号と同じビット深度をもつ信号として復元する逆ビットシフト変換部と,
テクスチャ分析による符号化データを入力として,テクスチャ合成処理により,波形符号化処理で表現しきれなかった残差信号を復号するテクスチャ合成処理部と,
前記原信号と同じビット深度をもつ信号として復元した信号と,前記残差信号を復号した信号の2つの信号を統合することで,復号信号を生成する復号信号生成部とを備える
ことを特徴とする画像復号装置。
A decoding processing unit that receives encoded data obtained by waveform encoding processing as input and generates a decoded signal by decoding processing;
An inverse bit shift conversion unit that restores the decoded signal as a signal having the same bit depth as the original signal before encoding by inverse bit depth conversion or bit shift;
A texture synthesis processing unit that receives encoded data by texture analysis and decodes a residual signal that cannot be expressed by waveform coding processing by texture synthesis processing;
A decoded signal generating unit that generates a decoded signal by integrating two signals of a signal restored as a signal having the same bit depth as the original signal and a signal obtained by decoding the residual signal, An image decoding device.
請求項1から請求項4までのいずれか1項に記載の画像符号化方法をコンピュータに実行させるための画像符号化プログラム。   An image encoding program for causing a computer to execute the image encoding method according to any one of claims 1 to 4. 請求項5記載の画像復号方法をコンピュータに実行させるための画像復号プログラム。   An image decoding program for causing a computer to execute the image decoding method according to claim 5.
JP2010125764A 2010-06-01 2010-06-01 Image coding method, image coding apparatus, and image coding program Expired - Fee Related JP5351093B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010125764A JP5351093B2 (en) 2010-06-01 2010-06-01 Image coding method, image coding apparatus, and image coding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010125764A JP5351093B2 (en) 2010-06-01 2010-06-01 Image coding method, image coding apparatus, and image coding program

Publications (2)

Publication Number Publication Date
JP2011254215A true JP2011254215A (en) 2011-12-15
JP5351093B2 JP5351093B2 (en) 2013-11-27

Family

ID=45417804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010125764A Expired - Fee Related JP5351093B2 (en) 2010-06-01 2010-06-01 Image coding method, image coding apparatus, and image coding program

Country Status (1)

Country Link
JP (1) JP5351093B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002315004A (en) * 2001-04-09 2002-10-25 Ntt Docomo Inc Image-encoding method and device, image-decoding method and device, and image processing system
JP2003534734A (en) * 2000-05-25 2003-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Bit plane dependent signal compression method
JP2007243942A (en) * 2006-02-24 2007-09-20 Sharp Corp Encoding method and decoding method of image data, and codec system
WO2008066025A1 (en) * 2006-11-27 2008-06-05 Panasonic Corporation Image encoding apparatus and image decoding part
JP2009049627A (en) * 2007-08-17 2009-03-05 Nippon Telegr & Teleph Corp <Ntt> Method of encoding scalable image, decoding method, encoder, decoder, program thereof, and recording medium thereof
WO2009091625A1 (en) * 2008-01-16 2009-07-23 Sony Corporation Video coding system using texture analysis and synthesis in a scalable coding framework
WO2009091080A1 (en) * 2008-01-18 2009-07-23 Sharp Kabushiki Kaisha Methods, device, program and media for texture synthesis for video coding with side information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534734A (en) * 2000-05-25 2003-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Bit plane dependent signal compression method
JP2002315004A (en) * 2001-04-09 2002-10-25 Ntt Docomo Inc Image-encoding method and device, image-decoding method and device, and image processing system
JP2007243942A (en) * 2006-02-24 2007-09-20 Sharp Corp Encoding method and decoding method of image data, and codec system
WO2008066025A1 (en) * 2006-11-27 2008-06-05 Panasonic Corporation Image encoding apparatus and image decoding part
JP2009049627A (en) * 2007-08-17 2009-03-05 Nippon Telegr & Teleph Corp <Ntt> Method of encoding scalable image, decoding method, encoder, decoder, program thereof, and recording medium thereof
WO2009091625A1 (en) * 2008-01-16 2009-07-23 Sony Corporation Video coding system using texture analysis and synthesis in a scalable coding framework
WO2009091080A1 (en) * 2008-01-18 2009-07-23 Sharp Kabushiki Kaisha Methods, device, program and media for texture synthesis for video coding with side information

Also Published As

Publication number Publication date
JP5351093B2 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
AU711488B2 (en) Hybrid waveform and model-based encoding and decoding of image signals
US8223837B2 (en) Learning-based image compression
US7653248B1 (en) Compression for holographic data and imagery
CN109996073B (en) Image compression method, system, readable storage medium and computer equipment
JP2007518367A (en) Data compression using matching tracking
RU2335803C2 (en) Method and device for frame-accurate encoding of residual movement based on superabundant basic transformation to increase video image condensation
Arora et al. A comprehensive review of image compression techniques
Kabir et al. Edge-based transformation and entropy coding for lossless image compression
Chen et al. A new image codec paradigm for human and machine uses
CN117956185A (en) Image feature processing method, image encoding method, image decoding method and device
US8989278B2 (en) Method and device for coding a multi dimensional digital signal comprising original samples to form coded stream
JP5351094B2 (en) Image coding method, image coding apparatus, and image coding program
JP4690371B2 (en) Scalable image encoding method, decoding method, encoding device, decoding device, program thereof and recording medium thereof
JP5351093B2 (en) Image coding method, image coding apparatus, and image coding program
CN113079377B (en) Training method for depth image/video compression network
KR20240025629A (en) Video compression using optical flow
Gray et al. Image compression and tree-structured vector quantization
Kumari et al. Image quality estimation by entropy and redundancy calculation for various wavelet families
Annalakshmi Lossy image compression techniques
Chen et al. A two-part predictive coder for multitask signal compression
JP4748113B2 (en) Learning device, learning method, program, and recording medium
JP4255071B2 (en) Pixel value selection type encoding device and decoding device of interest
Ho et al. A variable-rate image coding scheme with vector quantization and clustering interpolation
JP4000589B2 (en) Decoding device, decoding method, program, and recording medium
Basha et al. A robust approach for qualitative compression in JPEG 2000 standard

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130822

R150 Certificate of patent or registration of utility model

Ref document number: 5351093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees