JP4478480B2 - Video encoding apparatus and method - Google Patents
Video encoding apparatus and method Download PDFInfo
- Publication number
- JP4478480B2 JP4478480B2 JP2004048173A JP2004048173A JP4478480B2 JP 4478480 B2 JP4478480 B2 JP 4478480B2 JP 2004048173 A JP2004048173 A JP 2004048173A JP 2004048173 A JP2004048173 A JP 2004048173A JP 4478480 B2 JP4478480 B2 JP 4478480B2
- Authority
- JP
- Japan
- Prior art keywords
- encoding
- input image
- variance
- coding
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 75
- 238000012545 processing Methods 0.000 claims description 37
- 230000000007 visual effect Effects 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 35
- 230000035945 sensitivity Effects 0.000 claims description 29
- 238000013139 quantization Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 18
- 238000012821 model calculation Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 12
- 239000006185 dispersion Substances 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000011045 prefiltration Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 5
- 238000006731 degradation reaction Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、動画像を所定単位で符号化する動画像符号化において、量子化処理における重み付けパラメータを用いて、入力画像を所定の目標符号量に符号化する動画像符号化装置及びその方法に関するものである。 The present invention relates to a moving image encoding apparatus and method for encoding an input image to a predetermined target code amount using a weighting parameter in quantization processing in moving image encoding for encoding a moving image in a predetermined unit. Is.
近年のデジタル信号処理技術の飛躍的な進歩により、従来ならば困難であった動画像の蓄積メディアへの記録や伝送路を介した動画像の伝送が行われている。この場合に、動画像を構成する各々のピクチャは、圧縮符号化処理が施されデータ量が大幅に削減されている。この圧縮符号化処理として、代表的な手法の一つに、例えば、MPEG(Moving Picture Experts Group)方式がある。 Due to dramatic progress in digital signal processing technology in recent years, recording of moving images on storage media and transmission of moving images via transmission paths, which have been difficult in the past, have been performed. In this case, each picture constituting the moving image is subjected to compression encoding processing, and the data amount is greatly reduced. As a typical compression coding process, for example, there is an MPEG (Moving Picture Experts Group) system.
MPEG方式に準拠して、動画像中の一連のピクチャを一定のビット・レートという条件下で圧縮符号化する場合には、動画像中のシーンやピクチャの空間周波数特性、及び量子化スケール(Qスケール)値に応じて符号量が大きく異なる。このような符号化特性をもつ圧縮符号化装置を実現する上で、符号化歪みを最小限にするための重要な技術が符号量制御である。 When compressing and encoding a series of pictures in a moving picture under a condition of a constant bit rate in accordance with the MPEG system, the spatial frequency characteristics of the scenes and pictures in the moving picture and the quantization scale (Q The amount of code varies greatly depending on the (scale) value. An important technique for minimizing coding distortion in realizing a compression coding apparatus having such coding characteristics is code amount control.
符号量制御を実現するためのアルゴリズムについては、これまで数多く提案されてきている。その中でも、MPEG−2符号化方式の標準化の過程で提案されたTM5(Test Model 5(Test Model Editing Commitee: "Test Model 5", ISO/IEC JTC/SC29/WG11/N0400(Apr.1993)))で使用されているアルゴリズム(以下、TM5:特許文献1)は良く知られているものの一つである。
Many algorithms for realizing the code amount control have been proposed so far. Among them, TM5 (Test Model Editing Commitee: "
<従来技術1>
TM5では、次の3つのステップ(ステップ1〜3)から構成され、GOP(Group of Pictures)毎にビット・レートが一定になるように、Q(量子化(quantization))スケールを制御している。
<
TM5 is composed of the following three steps (
[ステップ1:ビット割当]:GOP内の残り符号量から、次に符号化するピクチャの目標符号量を算出する。 [Step 1: Bit allocation]: The target code amount of the picture to be encoded next is calculated from the remaining code amount in the GOP.
[ステップ2:符号量制御]:ステップ1で算出した目標符号量から仮想バッファの状態に応じて、Qスケールを算出する。
[Step 2: Code amount control]: The Q scale is calculated from the target code amount calculated in
[ステップ3:Qスケールの調整]:マクロブロックの空間アクティビチィに基づいて、最終的なQスケールを決定する。 [Step 3: Adjustment of Q scale]: The final Q scale is determined based on the spatial activity of the macroblock.
前記3つのステップの内、符号化歪みに最も影響の大きいステップ1の詳細な処理を次に説明する。
Of the three steps, detailed processing of
[ステップ1:ビット割当]
今、図14に示す通りに、現GOP内の10番目のピクチャP3(Pピクチャ)の符号化に先立ち、ピクチャP3の目標符号量を算出するものとする。ステップ1の処理は、次式で表される。
[Step 1: Bit allocation]
Now, as shown in FIG. 14, the target code amount of the picture P3 is calculated prior to the encoding of the tenth picture P3 (P picture) in the current GOP. The process of
但し、Rgopは現GOPに対して割り当てられる符号量、Ni、Np及びNbはそれぞれI、P及びBピクチャの現GOPにおける残りのピクチャ数、bits_rateは目標ビット・レート、picture_rateはピクチャ・レートを表す。更には、I、P及びBピクチャ毎に、符号化結果からピクチャの複雑度Xi、Xp及びXbを次式で算出する。 Where R gop is the code amount allocated to the current GOP, N i , N p, and N b are the number of remaining pictures in the current GOP of I, P, and B pictures, bits_rate is the target bit rate, and picture_rate is the picture -Represents the rate. Further, for each of the I, P, and B pictures, the picture complexity X i , X p, and X b is calculated from the encoding result by the following equation.
但し、Ri、Rp及びRbは、それぞれI、P及びBピクチャを符号化して得られる符号量、Qi、Qp及びQbはそれぞれI、P及びBピクチャ内のすべてのマクロブロックに対するQスケールの平均値である。式(1)及び式(2)から、次式を用いて、I、P及びBピクチャそれぞれについて目標符号量Ti、Tp及びTbを算出する。 Where R i , R p and R b are code amounts obtained by encoding I, P and B pictures, respectively, and Q i , Q p and Q b are all macroblocks in the I, P and B pictures, respectively. Is the average value of the Q scale. From the equations (1) and (2), the target code amounts T i , T p and T b are calculated for the I, P and B pictures, respectively, using the following equations.
但し、Kp=1.0及びKb=1.4である。
以上の処理から算出したピクチャP3の目標符号量Tpに基づき、ステップ2以降において、Qスケールを算出する。
However, K p = 1.0 and K b = 1.4.
Based on the target code amount T p of the picture P3 calculated from the above processing, the Q scale is calculated in
<従来技術2>
プリフィルタを用いる符号量制御手法として、特許文献1として、「動画像符号化におけるプリフィルタ制御方法及び装置」がある。この手法によれば、符号化部の前段にあるプリフィルタであるLPF(以下、プリフィルタLPF)によって、符号化部に入力される各ピクチャの空間周波数を制御することで、量子化歪みを低減している。
<
As a code amount control method using a prefilter,
プリフィルタLPFの制御には、図15に示すバランス関数なるものを定義し、量子化歪みと画像鮮鋭度劣化との整合を取る。図15の2本の曲線は、以下の2つの関数F1及びF2にそれぞれ相当する。 For the control of the prefilter LPF, a balance function shown in FIG. 15 is defined to match the quantization distortion and the image sharpness deterioration. The two curves in FIG. 15 correspond to the following two functions F1 and F2, respectively.
F1(動き量、フィルタ係数、Qスケール、符号量)
F2(フィルタ係数、Qスケール)
関数F1及びF2の交差点をバランス点と称して、この点において符号量と画質の整合が最も優れているQスケールとプリフィルタLPFのフィルタ係数が得られるとしている。
F1 (motion amount, filter coefficient, Q scale, code amount)
F2 (filter coefficient, Q scale)
The intersection of the functions F1 and F2 is referred to as a balance point. At this point, the Q scale and the filter coefficient of the pre-filter LPF with the best matching of the code amount and the image quality are obtained.
<従来技術3>
同様に、プリフィルタを用いる符号量制御手法のもう一つの従来技術として、特許文献2として、「動画像符号化方法」が提案されている。
<
Similarly,
この手法によれば、まず、符号化難易度Yを、以下の通りI、P及びBピクチャ毎に関数Fを使用して算出する。 According to this method, first, the encoding difficulty level Y is calculated using the function F for each of the I, P, and B pictures as follows.
Y= F(累積符号量,平均Qスケール)
次に、I、P及びBそれぞれについて算出した符号化難易度Yi、Yp及びYbからフィルタ係数パラメータZを次式から算出する。
Y = F (cumulative code amount, average Q scale)
Next, the filter coefficient parameter Z is calculated from the following equations from the encoding difficulty levels Y i , Y p and Y b calculated for I, P and B, respectively.
式(4)により得られたフィルタ係数パラメータZの値に応じて、図16に示すグラフから実際のフィルタ係数Sを、予め設定してある所定値S0、S1あるいはS3から選択する。
即ち、各フィルタ係数Sに対応するフィルタ係数Zに幅をもたせることによって、急激なフィルタ係数Zの変化を回避している。
That is, by providing the filter coefficient Z corresponding to each filter coefficient S with a width, a sudden change in the filter coefficient Z is avoided.
しかしながら、非特許文献1で示される従来技術1のTM5には、次のような課題がある。
However, TM5 of
ステップ2及びステップ3において、最終的なQスケールを得る場合には、ピクチャの目標符号量と現マクロブロックまでのピクチャ内の符号量との乖離、及びマクロブロックの空間アクティビティのみを使用している。
In
即ち、TM5は、符号化対象となるピクチャの目標符号量が既に決定された後、実際に符号化処理を行いながら視覚特性を調整しようとするものである。よって、画質の定量的な劣化具合や人間の視覚特性が十分反映されていない課題がある。 That is, TM5 attempts to adjust the visual characteristics while actually performing the encoding process after the target code amount of the picture to be encoded has already been determined. Therefore, there is a problem that the degree of quantitative deterioration of image quality and human visual characteristics are not sufficiently reflected.
特許文献1で示される従来技術2は、プリフィルタLPFを用いることで、TM5の課題の解決を試みている。しかし、関数F1において、引数である動き量を算出するための大規模な回路が必要となる。また、関数F1及びF2の定義や図15で示したバランス点の算出方法については、何ら言及しておらず、プリフィルタLPFの制御方法及び効果が不明瞭である。
更に、特許文献2で示される従来技術3は、フィルタ係数を変更する際に、急激な変化を回避することで、従来技術2の課題の解決を試みている。しかし、単純に累積符号量と平均Qスケールの情報からのみ、フィルタ係数を予測しているにすぎないので、依然として画質の劣化具合や人間の視覚特性が考慮されているとは言い難い。
Furthermore, the
本発明は上記の課題に鑑みてなされたものであり、画質の劣化具合や人間の視覚特性を考慮して、割り当てられた目標符号量の条件下において符号量と符号化歪み量が最適な動画像符号化データを生成することができる動画像符号化装置及びその制御方法を提供することを目的とする。 The present invention has been made in view of the above problems, and in consideration of the degradation of image quality and human visual characteristics, a moving image with an optimal code amount and encoding distortion amount under the condition of the assigned target code amount. It is an object of the present invention to provide a moving image encoding apparatus capable of generating image encoded data and a control method thereof.
上記の目的を達成するための本発明による動画像符号化装置は以下の構成を備える。即ち、
動画像を所定単位で符号化する動画像符号化において、量子化処理における重み付けパラメータを用いて、入力画像を所定の目標符号量に符号化する動画像符号化装置であって
前記入力画像の分散を算出する分散算出手段と、
前記入力画像に対して、与えられたフィルタ特性によりフィルタ処理を行うフィルタ手段と、
前記フィルタ手段でフィルタ処理された入力画像に対して、量子化処理を行い、符号化する符号化手段と、
前記符号化手段が出力する符号化データに対して復号化処理を行う復号化手段と、
前記符号化手段への入力画像と前記復号化手段の出力である再構成画像から前記符号化手段によるブロック歪み量を検出する検出手段と、
前記符号化手段への入力画像の分散と前記符号化手段によって生じる符号化歪み量を用いて、前記符号化手段における符号量(R)と符号化歪み量(D)との関係であるR−Dモデルを規定する規定式を予め決定し、前記規定式より前記入力画像の目標符号量を算出するR−Dモデル算出手段と、
前記フィルタ手段によるフィルタ歪み量と、前記符号化手段によって生じる符号化歪み量と、前記入力画像の直前画像について前記検出手段で検出したブロック歪み量との加算演算から視覚感度を評価する視覚感度モデル算出手段と、
前記入力画像の目標符号量と、前記視覚感度モデル算出手段により算出された符号化歪み量と、前記分散算出手段により算出された分散とにより、前記符号化手段への入力画像の分散に対応するパラメータを算出するパラメータ算出手段と、
予め定めておいた複数のフィルタ係数の変化に応じた、前記フィルタ手段への入力画像と前記フィルタ手段からの出力画像との間の分散特性の中から、前記パラメータ算出手段により算出された前記符号化手段への入力画像の分散に対応するパラメータと、前記分散算出手段により算出された分散の関係に最も特定の近いフィルタ特性を選択するフィルタ特性算出手段と、
前記R−Dモデル算出手段により算出された目標符号量から前記量子化処理における重み付けパラメータを算出するR−Qモデル算出手段とを備え、
前記パラメータ算出手段は、前記フィルタ手段でフィルタ処理された入力画像の分散及び前記符号化手段によって生じる符号化歪み量を、前記入力画像の目標符号量が、前記規定式から得られる前記符号化手段の符号量と等しいことを拘束条件として、前記視覚感度を評価するための評価式が最大あるいは最小となるラグランジュ未定乗数法を用いて予め算出する。
In order to achieve the above object, a moving picture coding apparatus according to the present invention comprises the following arrangement. That is,
A moving image encoding apparatus for encoding an input image to a predetermined target code amount using a weighting parameter in quantization processing in moving image encoding for encoding a moving image in a predetermined unit, wherein the input image is distributed A variance calculating means for calculating
Filter means for performing a filtering process on the input image with a given filter characteristic;
Encoding means for performing quantization and encoding on the input image filtered by the filter means;
Decoding means for performing a decoding process on the encoded data output by the encoding means;
Detecting means for detecting a block distortion amount by the encoding means from an input image to the encoding means and a reconstructed image that is an output of the decoding means;
R−, which is the relationship between the code amount (R) and the coding distortion amount (D) in the coding means , using the variance of the input image to the coding means and the coding distortion amount generated by the coding means. An R-D model calculating unit that predetermines a defining formula that defines the D model and calculates a target code amount of the input image from the defining formula ;
A visual sensitivity model for evaluating visual sensitivity from an addition operation of a filter distortion amount generated by the filter means, an encoding distortion amount generated by the encoding means, and a block distortion amount detected by the detection means for an image immediately before the input image. A calculation means;
The input image target code amount , the coding distortion amount calculated by the visual sensitivity model calculating means, and the variance calculated by the variance calculating means correspond to the variance of the input image to the encoding means. Parameter calculating means for calculating the parameters;
The code calculated by the parameter calculation means from among dispersion characteristics between an input image to the filter means and an output image from the filter means in accordance with a change in a plurality of predetermined filter coefficients. A filter characteristic calculation unit that selects a parameter that corresponds to the variance of the input image to the conversion unit and a filter characteristic that is closest to the relationship of the variance calculated by the variance calculation unit;
RQ model calculation means for calculating a weighting parameter in the quantization process from the target code amount calculated by the RD model calculation means,
The parameter calculation unit is configured to obtain a variance of the input image filtered by the filter unit and an encoding distortion amount generated by the encoding unit, and a target code amount of the input image obtained from the prescribed expression. Is calculated in advance using a Lagrange undetermined multiplier method in which the evaluation formula for evaluating the visual sensitivity is maximized or minimized .
上記の目的を達成するための本発明による動画像符号化方法は以下の構成を備える。即ち、
動画像を所定単位で符号化する動画像符号化において、量子化処理における重み付けパラメータを用いて、入力画像を所定の目標符号量に符号化する動画像符号化方法であって、
前記入力画像の分散を算出する分散算出工程と、
前記入力画像に対して、与えられたフィルタ特性によりフィルタ処理を行うフィルタ工程と、
前記フィルタ工程でフィルタ処理された入力画像に対して、量子化処理を行い、符号化する符号化工程と、
前記符号化工程が出力する符号化データに対して復号化処理を行う復号化工程と、
前記符号化工程への入力画像と前記復号化工程の出力である再構成画像から前記符号化工程によるブロック歪み量を検出する検出工程と、
前記符号化工程への入力画像の分散と前記符号化工程によって生じる符号化歪み量を用いて、前記符号化工程における符号量(R)と符号化歪み量(D)との関係であるR−Dモデルを規定する規定式を予め決定し、前記規定式より前記入力画像の目標符号量を算出するR−Dモデル算出工程と、
前記フィルタ工程によるフィルタ歪み量と、前記符号化工程によって生じる符号化歪み量と、前記入力画像の直前画像について前記検出工程で検出したブロック歪み量との加算演算から視覚感度を評価する視覚感度モデル算出工程と、
前記入力画像の目標符号量と、前記視覚感度モデル算出工程により算出された符号化歪み量と、前記分散算出工程により算出された分散とにより、前記符号化工程への入力画像の分散に対応するパラメータを算出するパラメータ算出工程と、
予め定めておいた複数のフィルタ係数の変化に応じた、前記フィルタ工程への入力画像と前記フィルタ工程からの出力画像との間の分散特性の中から、前記パラメータ算出工程により算出された前記符号化工程への入力画像の分散に対応するパラメータと、前記分散算出工程により算出された分散の関係に最も特定の近いフィルタ特性を選択するフィルタ特性算出工程と、
前記R−Dモデル算出工程により算出された目標符号量から前記量子化処理における重み付けパラメータを算出するR−Qモデル算出工程とを備え、
前記パラメータ算出工程は、前記フィルタ工程でフィルタ処理された入力画像の分散及び前記符号化工程によって生じる符号化歪み量を、前記入力画像の目標符号量が、前記規定式から得られる前記符号化工程の符号量と等しいことを拘束条件として、前記視覚感度を評価するための評価式が最大あるいは最小となるラグランジュ未定乗数法を用いて予め算出する。
In order to achieve the above object, a moving picture coding method according to the present invention comprises the following arrangement. That is,
In moving picture coding for coding a moving picture in a predetermined unit, a moving picture coding method for coding an input picture to a predetermined target code amount using a weighting parameter in quantization processing,
A variance calculating step of calculating variance of the input image;
A filtering step for performing a filtering process on the input image with given filter characteristics;
An encoding step of performing quantization processing and encoding the input image filtered in the filtering step;
A decoding step of performing a decoding process on the encoded data output by the encoding step;
A detection step for detecting a block distortion amount due to the encoding step from an input image to the encoding step and a reconstructed image that is an output of the decoding step;
R−, which is the relationship between the coding amount (R) and the coding distortion amount (D) in the coding step , using the variance of the input image to the coding step and the coding distortion amount generated by the coding step. An R-D model calculating step of predetermining a defining formula for defining the D model , and calculating a target code amount of the input image from the defining formula ;
A visual sensitivity model for evaluating visual sensitivity from an addition operation of the filter distortion amount generated by the filtering step, the coding distortion amount generated by the encoding step, and the block distortion amount detected in the detection step for the image immediately before the input image. A calculation process;
A target code amount of the input image, and encoding distortion amount calculated by the visual sensitivity model calculation step, the dispersion and calculated by the variance calculation step, corresponding to the variance of the input image to the encoding step A parameter calculation step for calculating parameters;
The code calculated by the parameter calculation step from among dispersion characteristics between an input image to the filter step and an output image from the filter step according to a change in a plurality of predetermined filter coefficients. A filter characteristic calculation step of selecting a parameter corresponding to the variance of the input image to the conversion step and a filter characteristic closest to the relationship of the variance calculated by the variance calculation step;
An RQ model calculation step of calculating a weighting parameter in the quantization process from the target code amount calculated by the RD model calculation step,
In the encoding step, the parameter calculation step includes the variance of the input image filtered in the filtering step and the encoding distortion amount generated by the encoding step, and the target code amount of the input image is obtained from the prescribed expression. Is calculated in advance using a Lagrange undetermined multiplier method in which the evaluation formula for evaluating the visual sensitivity is maximized or minimized .
本発明によれば、画質の劣化具合や人間の視覚特性を考慮して、割り当てられた目標符号量の条件下において符号量と符号化歪み量が最適な動画像符号化データを生成することができる動画像符号化装置及びその方法を提供できる。 According to the present invention, it is possible to generate moving image encoded data in which the code amount and the coding distortion amount are optimum under the condition of the allocated target code amount in consideration of the degradation of image quality and human visual characteristics. A moving image encoding apparatus and method thereof that can be provided can be provided.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明では、符号化歪みを伴う不可逆符号化方式に適用した例を詳細に説明する。 In the present invention, an example applied to an irreversible encoding method with encoding distortion will be described in detail.
実施形態1においては、符号化方式を限定せずに、一般的な不可逆符号化方式に適用した例を示す。実施形態2においては、MPEG符号化方式に適用した例を示す。 In the first embodiment, an example in which the present invention is applied to a general irreversible encoding method without limiting the encoding method is shown. In the second embodiment, an example applied to the MPEG encoding method is shown.
<実施形態1>
図1は本発明の実施形態1の動画像符号化装置の構成を示すブロック図である。また、図2は本発明の実施形態1の動画像符号化装置が実行する処理を示すフローチャートである。
<
FIG. 1 is a block diagram showing a configuration of a moving picture coding apparatus according to
以下、図1及び図2を用いて、実施形態1の動画像符号化装置100の動作の詳細について説明する。
Hereinafter, the details of the operation of the moving
尚、動画像符号化装置における量子化処理の重み付けパラメータは、Qスケールであるとする。 It is assumed that the weighting parameter for the quantization process in the moving image coding apparatus is the Q scale.
図1に示すように、動画像符号化装置100は、大きく分けて、プリフィルタ部101、符号化部102、局所復号化部103及び符号量制御部104のブロックから構成される。また、これらの各ブロックは、ハードウェアで実現されても良いし、ブロックの一部あるいはすべてがソフトウェアとして、CPUやRAM、ROMを用いる制御によって実現されても良い。
As shown in FIG. 1, the moving
動画像符号化装置100の動作を説明するにあたり、現時点においては、図3に示すように、ピクチャI2までの符号化処理が完了しており、次に、ピクチャI3の符号化処理を行うものとする。
In explaining the operation of the moving
まず、図2のステップS200で、外部ブロック(不図示)からピクチャI3の目標符号量Rtが設定される。Rtの算出方法は、本発明に依存するものではなく、例えば、従来例で示されるCBR方式であれば、TM5のステップ1の処理に相当するものである。 First, at step S200 in FIG. 2, the target code amount R t of the picture I3 is set externally block (not shown). Method for calculating the R t is not dependent on the present invention, for example, if the CBR scheme shown in the conventional example, which corresponds to step 1 of the processing of TM5.
動画像符号化装置100では、符号化部102のQスケールを、設定された目標符号量Rtから直接算出するのではなく、目標符号量Rtから想定される符号化歪み量を、視覚感度モデル算出部107及びR−Dモデル算出部109を用いて、プリフィルタ部101と符号化部102に最適に分割する。
In the moving
ステップS201で、ピクチャI3の分散Siを、分散算出部105で算出する。分散Siの算出方法は、例えば、以下のように算出する。
座標(x,y)、ピクチャサイズをM×N画素、着目するピクチャの平均をAVEとした場合、ピクチャの分散Siは、次式で算出される。
In step S201, the variance S i of the picture I3 is calculated by the
When the coordinates (x, y), the picture size is M × N pixels, and the average of the picture of interest is AVE, the picture variance S i is calculated by the following equation.
次に、ステップS203〜204で用いる符号化部102のR−Dモデル(R−D規定式)及び視覚感度モデル(視覚感度評価式)について説明する。
Next, the RD model (RD definition formula) and the visual sensitivity model (visual sensitivity evaluation formula) of the
実施形態1において適用する符号化部102のR−DモデルRc(Sf,MSEc)は、次式を用いて算出する。
The RD model R c (S f , MSE c ) of the
ここで、Ic及びΘcは定数であり、Ic=1及びΘc=0.5の場合には、情報理論において、Rate Distortion理論として知られる符号量と符号化歪み量の関係を表す公知の式である。
Sfは、符号化部102の入力ピクチャの分散であり、プリフィルタ部101の出力ピクチャの分散に相当する。分散Sfは、実施形態1における動画像符号化装置100の入力ピクチャの分散Si及びプリフィルタ部101のフィルタ特性に応じて変化する変数である。
Here, I c and Θ c are constants, and when I c = 1 and Θ c = 0.5, in information theory, the relationship between the code amount known as the Rate Distortion theory and the coding distortion amount is represented. This is a known formula.
S f is the variance of the input picture of the
MSEcは、符号化部102によって生じる符号化歪み量である。MSEcは、符号化部102の入力ピクチャと、局所復号化部103の出力ピクチャとの差分二乗和に相当する変数である。
MSE c is a coding distortion amount generated by the
Ic及びΘiは、符号化部102の符号化方式に依存するパラメータとして定義する。実施形態1では、符号化部102の符号化方式を限定しない場合を想定しているので、Ic=1及びΘc=0.5を適用する。
I c and Θ i are defined as parameters depending on the encoding scheme of the
ここで、図4に、式(5)の特性を表す図として、Sf=2300、Ic=1及びΘc=0.5の場合の符号量Rcと符号化歪み量MSEcとの関係を示す。 Here, in FIG. 4, as a diagram representing the characteristic of the equation (5), the code amount R c and the coding distortion amount MSE c when S f = 2300, I c = 1 and Θ c = 0.5 are calculated. Show the relationship.
ステップS203で用いる視覚感度モデルHvs(Sf,MSEc)は、実施形態1では、次式として定義する。 The visual sensitivity model H vs (S f , MSE c ) used in step S203 is defined as the following expression in the first embodiment.
ここで、MSEfは、プリフィルタ部101において生じるフィルタ歪み量、Bcprevは直前ピクチャの符号化処理時にブロック歪み検出部106で検出したブロック歪み量、及びScprevは符号化部102の直前入力ピクチャの分散Sfである。
更に、式(6)中のフィルタ歪み量MSEfは、次式として定義する。
Here, MSE f is the amount of filter distortion generated in the
Further, the filter distortion amount MSE f in the equation (6) is defined as the following equation.
ここで、αはプリフィルタ部101のフィルタの種類に依存する定数である。
尚、式(5)〜式(7)で使用される変数及び定数の一覧を図5に示す。
Here, α is a constant depending on the type of filter of the
FIG. 5 shows a list of variables and constants used in the equations (5) to (7).
次に、実施形態1において使用する式(6)及び(7)の視覚感度モデルHvs(Sf,MSEc)の特徴を、以下に示す。 Next, the characteristics of the visual sensitivity model H vs (S f , MSE c ) of the equations (6) and (7) used in the first embodiment are shown below.
特徴1:符号化部102において生じる符号化歪み量MSEcのみならず、プリフィルタ部101で生じるフィルタ歪み量MSEf(Sf)を考慮することで、動画像符号化装置100全体の歪み量の評価が可能であり、高精度な画質の制御が可能である。
Feature 1: Considering not only the encoding distortion amount MSE c generated in the
特徴2:ブロック歪み量Bcpfevを評価量として追加することにより、人間の視覚感度に近い画質の評価が可能である。 Feature 2: By adding the block distortion amount B cpfev as an evaluation amount, it is possible to evaluate image quality close to human visual sensitivity.
式(6)及び式(7)を用いて、ステップS202で、動画像符号化装置100の入力ピクチャの分散Si、符号化部102の直前入力ピクチャの分散Scprev及び直前ピクチャのブロック歪み量Bcprevから、視覚感度モデルHvs(Sf,MSEc)を算出する。
Using equation (6) and equation (7), in step S202, the variance S i of the input picture of the
次に、ステップS203のパラメータ算出部108における分散Sf及び符号化歪み量MSEcの算出方法について説明する。
Next, a method for calculating the variance S f and the coding distortion amount MSE c in the
実施形態1においては、動画像符号化装置100に与えられたピクチャの目標符号量の拘束条件下で、ラグランジュ未定乗数法を用いて、二つの視覚感度モデルHvs(Sf,MSEc)及びR−DモデルRc(Sf,MSEc)の関係を最適する分散Sf及び符号化歪み量MSEcを算出する。
In the first embodiment, the two visual sensitivity models H vs (S f , MSE c ) and the Lagrange undetermined multiplier method are used under the constraint condition of the target code amount of the picture given to the
即ち、動画像符号化装置100に与えられたピクチャの目標符号量をRtとすれば、拘束条件式は、次式で表せる。
[拘束条件式]
That is, if the target code amount of the picture given in the moving
[Constrained conditional expression]
更に、未定乗数をλと定義すれば、 Furthermore, if the undetermined multiplier is defined as λ,
となる。
また、必要条件式として次式を定義する。
[必要条件式]
It becomes.
In addition, the following expression is defined as a necessary conditional expression.
[Required expression]
よって、式(10)及び式(8)から分散Sf及び符号化歪み量MSEcの最適解を算出するためには、ステップS203において、次式を演算する。 Therefore, in order to calculate the optimum solution of the variance S f and the coding distortion amount MSE c from the equations (10) and (8), the following equation is calculated in step S203.
但し、実施形態1においてはIc=1及びΘc=0.5である。
また、αはプリフィルタ部101を構成したフィルタの種類に依存する係数であり、動画像符号化装置100を構成した際に予め定める定数である。
However, in the first embodiment, I c = 1 and Θ c = 0.5.
Further, α is a coefficient depending on the type of the filter constituting the
次に、ステップS204で、フィルタ特性算出部110において、プリフィルタ部101のフィルタ特性を決定する。実施形態1においては、プリフィルタ部101の入力及び出力ピクチャの分散の変化を用いてフィルタ特性を選択する。
Next, in step S204, the filter
尚、入力ピクチャの分散SiはステップS201で、出力ピクチャの分散SfはステップS203で、算出済みである。 The input picture variance S i has been calculated in step S201, and the output picture variance S f has been calculated in step S203.
これら二つの分散Si及びSfの関係と、予め定めておいた複数のフィルタ係数の変化に応じた、プリフィルタ部101の入力及び出力ピクチャの分散特性の中から、最も特性の近いフィルタ係数を一つ選択する。
Among the dispersion characteristics of the input and output pictures of the
図6は、予め定めておいたフィルタ係数C1〜C5にそれぞれに対応する、プリフィルタ部101の入力及び出力ピクチャの分散特性を示す5つの曲線から、算出した分散Si及びSfの関係に最も近いフィルタ係数C2が選択されていることを示している。
FIG. 6 shows the relationship between the variances S i and S f calculated from five curves indicating the dispersion characteristics of the input and output pictures of the
プリフィルタ部101は、パラメータC1〜C5をフィルタ係数算出部110から受け取ることで、対応するフィルタ特性になるようにフィルタ係数を変更する。
The
ステップS205で、R−Dモデル算出部109において、式(11)から得られた符号化歪み量MSEc及び分散Sfを用いて、R−DモデルRc(Sf,MSEc)から符号化部102の目標符号量Rcを算出する。
In step S205, the RD
これは、式(5)のR−DモデルRc(Sf,MSEc)に、当該符号化歪み量MSEc及び分散Sfを代入することで算出する。 This is calculated by substituting the coding distortion amount MSE c and the variance S f into the RD model R c (S f , MSE c ) of the equation (5).
ステップS206で、ステップS205で算出した目標符号量Rcを用いて、符号化部102のQスケールを算出する。Qスケールの算出には、符号化部102のR−Qモデルを使用する。実施形態1においては、符号化部102のR−QモデルRQc(Rc,Sf)として、次の一次式で表現する。
In step S206, by using the target code amount R c calculated in step S205, and calculates the Q scale of the
ここで、RcはステップS205において算出した目標符号量Rcであり、SfはステップS203において算出した符号化部102の入力ピクチャの分散Sfである。
また、βcは定数であり、直前のピクチャにおいて使用したRc、Si及びQcの値を、式(12)に再度代入することで得る。但し、実施形態1においては、Qスケールを算出する精度を高めるために、次式を用いてステップS209で、R−QモデルRQc(Rc,Sf)を更新する。
Here, R c is the target code amount R c calculated in step S205, and S f is the variance S f of the input picture of the
Β c is a constant, and is obtained by substituting the values of R c , S i, and Q c used in the immediately preceding picture into Equation (12) again. However, in the first embodiment, in order to improve the accuracy of calculating the Q scale, the RQ model RQ c (R c , S f ) is updated in step S209 using the following equation.
但し、nはR−QモデルRQc(Rc,Sf)に反映させる過去のピクチャ数に相当する。
以上、ステップS200〜ステップS206までの処理が完了した後、ステップS207で、プリフィルタ部101及び符号化部102の処理を実行する。
However, n corresponds to the number of past pictures to be reflected in the RQ model RQ c (R c , S f ).
As described above, after the processing from step S200 to step S206 is completed, the processing of the
また、符号化部102の符号化処理と並行して、ステップS208ではブロック歪み検出部106で、ブロック歪み量Bcprevの検出を行う。ブロック歪み量Bcprevは、符号化部102の入力ピクチャと局所復号化部103の出力ピクチャを用いる。
In parallel with the encoding process of the
ここで、人間の視覚感度として、ブロック歪みに非常に敏感であることが知られている。このブロック歪みは、8×8画素の正方ブロック単位で直交変換及び量子化処理を施していることがその発生原因である。 Here, it is known that human visual sensitivity is very sensitive to block distortion. The cause of this block distortion is that orthogonal transformation and quantization processing are performed in units of square blocks of 8 × 8 pixels.
ブロック歪み量Bcprevの検出方法は、本発明には依存せずに自由に実装が可能であるが、たとえ同じピクチャに対してブロック歪みを検出したとしても、ブロック歪み量Bcprevは検出方法に依存して異なる。 The method for detecting the block distortion amount B cprev can be freely implemented without depending on the present invention. However, even if block distortion is detected for the same picture, the block distortion amount B cprev is used as the detection method. Depends on different.
しかし、その違いは、式(6)の視覚モデルHvs(Sf,MSEc)を考慮し、定数をBcprevに乗じれば良い。この定数は、ブロック歪み検出部106の検出方法が定まれば、実施形態1の動画像符号化装置100を構成した際には一意に決定される値である。
However, the difference may be obtained by taking into account the visual model H vs (S f , MSE c ) of Equation (6) and multiplying B cprev by a constant. This constant is a value that is uniquely determined when the moving
実施形態1においては、ブロック歪み検出部106の検出方法として、8×8ブロック境界の差分二乗和MSEblkとピクチャ全体の差分二乗和MSEallの比を使って算出する。 In the first embodiment, as a detection method of the block distortion detection unit 106, the calculation is performed using the ratio of the difference square sum MSE blk of the 8 × 8 block boundary and the difference square sum MSE all of the entire picture.
ここで、符号化部102の入力ピクチャの水平方向の画素数をx_size及び垂直方向の画素数をy_sizeとする。水平方向の座標がJ及び垂直方向の座標がIの、符号化部102の入力ピクチャの画素値をCIN(J,I)とし、同様に、局所復号化部103の出力ピクチャの画素値をCOUT(J,I)とすれば、ブロック歪み量Bcprevは、以下の(14)式で算出する。
Here, it is assumed that the number of pixels in the horizontal direction of the input picture of the
ここで、MSEallは,CIN(J,I)とCOU(J,I)とのピクチャ全体における差分二乗和であり、γはブロック歪み検出部106の検出方法に依存する定数である。
以上説明したように、実施形態1によれば、以上のステップS200〜ステップS209の処理を、動画像符号化処理装置100にピクチャを入力する毎に繰り返し行うことにより、画質の劣化具合や人間の視覚特性を考慮した、プリフィルタ部101及び符号化部102の制御を実現することができる。
Here, MSE all is the sum of squared differences in the entire picture of CIN (J, I) and COU (J, I), and γ is a constant that depends on the detection method of the block distortion detection unit 106.
As described above, according to the first embodiment, the above-described processing in steps S200 to S209 is repeatedly performed every time a picture is input to the moving image
よって、割り当てられた目標符号量の条件下において符号量と符号化歪み量が最適な符号化動画像データを得ることができる。 Therefore, it is possible to obtain encoded moving image data in which the code amount and the encoding distortion amount are optimal under the condition of the allocated target code amount.
<実施形態2>
実施形態2として、符号化部にMPEG−4符号化方式に適用した例を詳細に説明する。
<
As the second embodiment, an example in which the encoding unit is applied to the MPEG-4 encoding method will be described in detail.
図7は本発明の実施形態2の動画像符号化装置の構成を示すブロック図である。また、図8は本発明の実施形態2の動画像符号化装置が実行する処理を示すフローチャートである。 FIG. 7 is a block diagram showing the configuration of the moving picture coding apparatus according to the second embodiment of the present invention. FIG. 8 is a flowchart showing processing executed by the video encoding apparatus according to the second embodiment of the present invention.
ここで、図7の実施形態2の動画像符号化装置800を構成する各ブロックと、図1の実施形態1の動画像符号化装置100を構成する各ブロックとの相違点は、次の二つである。
Here, the difference between each block constituting the moving
ブロックの相違点1:図1のプリフィルタ部101が、図7のバターワースフィルタ部801に相当する。
Block Difference 1: The
ブロックの相違点2:図1の符号化部102が、図7のMPEG符号化部802に相当する。
Block Difference 2: The encoding
尚、符号量制御部804の内部ブロック構成は、図1の符号量制御部104の内部ブロック構成と同様である。
The internal block configuration of the code
また、MPEG符号化部802は、動き検出部(ME)805、DCT部806、量子化部(QTZ)807、可変長符号化部(VLC)808を有している。また、局所MPEG復号化部803は、動き補償部(MC)809、逆DCT部(IDCT)810、逆量子化部(IQTZ)811のブロックを有している。
Also, the
また、これらの各ブロックは、ハードウェアで実現されても良いし、ブロックの一部あるいはすべてがソフトウェアとして、CPUやRAM、ROMを用いる制御によって実現されても良い。 Each of these blocks may be realized by hardware, or a part or all of the blocks may be realized as software by control using a CPU, RAM, and ROM.
次に、図8の実施形態2の動画像符号化装置が実行する処理を示すフローチャートと、図1の実施形態1の動画像符号化装置100が実行する処理を示すフローチャートとの相違点は、次の二つである。
Next, the difference between the flowchart showing the process executed by the video encoding apparatus according to the second embodiment in FIG. 8 and the flowchart showing the process executed by the
処理の相違点1:図8のステップS904及び906の処理で用いるR−Dモデルが、図2のステップS203及び205で用いるR−Dモデルと異なる。 Process Difference 1: The RD model used in the processes in steps S904 and 906 in FIG. 8 is different from the RD model used in steps S203 and 205 in FIG.
処理の相違点2:図8のステップS905で行うフィルタ特性の選択方法が、図2のステップS204で行うフィルタ特性の選択方法と異なる。 Processing Difference 2: The filter characteristic selection method performed in step S905 in FIG. 8 is different from the filter characteristic selection method performed in step S204 in FIG.
以後、MPEG−4符号化方式における全体の処理の中で、実施形態2の動画像符号化装置800の処理が対応する部分について説明した後、前記2つの処理の相違点ついて、それぞれ詳細に説明する。
Hereinafter, in the overall processing in the MPEG-4 encoding method, the part corresponding to the processing of the moving
[全体の処理の中で対応する部分]
実施形態2では、図9に示すように、ストリーム全体を、複数のピクチャからなるシーケンスに分割する。符号量制御は、このシーケンスを一つの単位として行い、シーケンス単位で、それぞれ同一のビット・レートになるように符号化する。例えば、このシーケンスは、MPEG−4符号化方式のシンタックスにおいて、Group_of_VideoObjectPlane()に対応する。
[Corresponding part of the whole process]
In the second embodiment, as shown in FIG. 9, the entire stream is divided into a sequence composed of a plurality of pictures. In the code amount control, this sequence is performed as one unit, and encoding is performed so that each sequence has the same bit rate. For example, this sequence corresponds to Group_of_VideoObjectPlane () in the syntax of the MPEG-4 encoding system.
図10は、一つのシーケンスにおけるMPEG−4符号化方式の処理を示すフローチャートである。シーケンスを構成するピクチャの数及びシーケンスの目標符号量は、本発明には依存しない。 FIG. 10 is a flowchart showing the processing of the MPEG-4 encoding method in one sequence. The number of pictures constituting the sequence and the target code amount of the sequence do not depend on the present invention.
例えば、ステップS1000で、シーケンスの目標符号量が、従来技術の式(1)中のRgopに対応しているとする。この場合、ステップS1001で、シーケンスを構成する一つのピクチャの目標符号量Rtを算出するため、従来技術の式(2)及び(3)を用いることができる。 For example, in step S1000, it is assumed that the target code amount of the sequence corresponds to R gop in equation (1) of the prior art. In this case, in order to calculate the target code amount R t of one picture constituting the sequence in step S1001, the conventional equations (2) and (3) can be used.
シーケンスを構成する一つのピクチャの目標符号量Rtが算出された後、ステップS1002で、図8の処理を繰り返すことで、シーケンスを構成するすべてのピクチャの符号化を行う。
[処理の相違点1]
実施形態2においても、実施形態1と同様に、MPEG符号化部802のR−DモデルRc(Sf,MSEc)を定義する。尚、実施形態2の動画像符号化処理装置800が対象とするピクチャ・タイプはIピクチャ及びPピクチャの2つとする。
After the target code amount R t of one picture constituting the sequence is calculated, in step S1002, the processing of FIG. 8 is repeated to encode all the pictures constituting the sequence.
[Processing difference 1]
Also in the second embodiment, the RD model R c (S f , MSE c ) of the
式(5)のR−DモデルRc(Sf,MSEc)の2つの定数Ic及びΘcの値を、実施形態2のMPEG符号化部801の符号量Rcと符号化歪み量MSEcとの関係を表すように定義する。
The values of the two constants I c and Θ c of the RD model R c (S f , MSE c ) in Expression (5) are used as the code amount R c and the encoding distortion amount of the
MPEG−4符号化方式のPピクチャの符号化においては、ピクチャ内のみ情報を用いるIピクチャの符号化と異なり、隣り合うピクチャ間の相関を利用して差分演算を行う。 In the coding of a P picture in the MPEG-4 coding method, unlike the coding of an I picture that uses information only within a picture, a difference calculation is performed using the correlation between adjacent pictures.
この差分演算は、図7中の動き検出処理を行うME805及び動き補償処理を行うMC809のそれぞれ2つのブロックにより実現される。
This difference calculation is realized by two blocks of ME 805 for performing motion detection processing and
即ち、MPEG符号化部802の入力ピクチャが同一である場合でも、IピクチャあるいはPピクチャを符号化しているのかによって、直交変換処理を行うDCT806の入力ピクチャの分散が異なってしまい、MPEG符号化部802のR−DモデルRc(Sf,MSEc)を表現することができないという課題が生じる。
That is, even when the input picture of the
この課題を解決するためには、Iピクチャ及びPピクチャのいずれの符号化時においても、DCT806の入力ピクチャの分散Sfを算出して、それを式(5)中の分散Sfと定義すれば良い。但し、この場合には、新たに、ME805及びMC809の処理を考慮した分散モデルを新たに定義する必要がある。
In order to solve this problem, the variance S f of the input picture of the
そこで、実施形態2においては、ピクチャ・タイプに応じた二つのR−DモデルRc(Sf,MSEc)を定義する。 Therefore, in the second embodiment, two RD models R c (S f , MSE c ) corresponding to picture types are defined.
図11は、MPEG符号化部801のIピクチャにおけるR−DモデルRic(Sf,MSEc)の符号量Rcと符号化歪み量MSEcの関係を示した図である。
FIG. 11 is a diagram illustrating the relationship between the code amount R c of the RD model R ic (S f , MSE c ) and the encoding distortion amount MSE c in the I picture of the
図11中の「−▲−」で示される曲線は、式(5)中の二つの定数Ic及びΘcをそれぞれ、Ic=1及びΘc=0.5としたR−Dモデルに、「−■−」で示される曲線は、Ic=0.1及びΘc=0.25とした実施形態2のMPEG符号化部802のIピクチャに対応したIピクチャR−DモデルRic(Sf,MSEc)にそれぞれ対応する。更には、「−◆−」で示される曲線は、実際にMPEG−4符号化方式でIピクチャを符号化した場合の実測値を示している。
The curve indicated by “− ▲ −” in FIG. 11 is an RD model in which the two constants I c and Θ c in equation (5) are set to I c = 1 and Θ c = 0.5, respectively. , The curve indicated by “− ■ −” indicates that the I picture RD model R ic corresponding to the I picture of the
図11において、符号量Rcが0.5以上の領域において、実測値の曲線とIピクチャR−DモデルRic(Sf,MSEc)の曲線の間に大きな乖離が生じている。 In FIG. 11, in the region where the code amount R c is 0.5 or more, there is a large divergence between the measured value curve and the curve of the I picture RD model R ic (S f , MSE c ).
尚、符号量Rc=0.5に相当するビット・レートは、MPEG符号化部802の入力ピクチャの画像サイズがVGA、サブサンプル4−2−0及びフレーム・レート30fpsの場合に、6.6Mbpsという非常に高いビット・レートに相当する。
The bit rate corresponding to the code amount R c = 0.5 is 6. when the image size of the input picture of the
ここで、MPEG符号化部802において、このような高ビット・レートによる符号化を行った際には、視覚的に目立つ程度にブロック歪みが発生することは稀であり、そもそもバターワースフィルタ部801においてブロック歪みを緩和するようなプリフィルタ処理が必要とされない。
Here, when the
即ち、ステップS903〜ステップS906までのバターワースフィルタ部801のフィルタ特性を制御するための処理を省略することができる。
That is, the process for controlling the filter characteristics of the
よって、ステップS902で、動画像符号化装置800に与えられたピクチャの目標符号量が0.5bit/pixel以上の場合には、ステップS907へ分岐することとする。
Therefore, in step S902, if the target code amount of the picture given to the moving
一方、MPEG符号化部801のPピクチャに対応した、PピクチャR−DモデルRpc(Sf,MSEc)の符号量Rcと符号化歪み量MSEcの関係を図12に示す。
On the other hand, FIG. 12 shows the relationship between the coding amount R c and the coding distortion amount MSE c of the P picture RD model R pc (S f , MSE c ) corresponding to the P picture of the
PピクチャR−DモデルRpc(Sf,MSEc)は、図12中の「−■−」で示される曲線に対応し、式(5)中の二つの定数Ic及びΘcが、それぞれIc=0.15及びΘc=0.15である。また、「−▲−」は図11と同様のR−Dモデルに対応し、「−◆−」で示される曲線は、実際にMPEG−4符号化方式でPピクチャを符号化した場合の実測値を示している。 The P picture R-D model R pc (S f , MSE c ) corresponds to the curve indicated by “− ■ −” in FIG. 12, and the two constants I c and Θ c in the equation (5) are I c = 0.15 and Θ c = 0.15 respectively. “− ▲ −” corresponds to the RD model similar to FIG. 11, and the curve indicated by “− ◆ −” indicates the actual measurement when the P picture is actually encoded by the MPEG-4 encoding method. The value is shown.
図12において、IピクチャR−DモデルRic(Sf,MSEc)と同様に、符号量Rcが0.5以上の領域において実測値と大きく乖離を生じるが、この領域においてはPピクチャR−DモデルRpc(Sf,MSEc)を使用しない。 In FIG. 12, as with the I picture RD model R ic (S f , MSE c ), there is a large divergence from the actual measurement value in a region where the code amount R c is 0.5 or more. The RD model R pc (S f , MSE c ) is not used.
前記の通りにステップS904及び906が、図2に示す実施形態1のステップS203及びステップS205とそれぞれ異なる点は、実施形態1のR−DモデルRc(Sf,MSEc)の代わりに、ピクチャ・タイプに応じて、2つのIピクチャR−DモデルRic(Sf,MSEc)及びPピクチャR−DモデルRpc(Sf,MSEc)を使用する点のみである。
As described above, Steps S904 and 906 are different from Steps S203 and S205 of
よって、ステップS904及び906においては、実施形態1で示したステップS203及びステップS205の処理をピクチャ・タイプに応じて、式(5)の定数Ic及びΘcを前記の通り定義して行えば良い。 Therefore, in steps S904 and 906, if the processing of steps S203 and S205 shown in the first embodiment is defined according to the picture type, the constants I c and Θ c of equation (5) are defined as described above. good.
次に、ステップS905における処理について説明する。 Next, the process in step S905 will be described.
実施形態2の動画符号化装置800では、プリフィルタ部としてバターワース特性をもつバターワースフィルタ部801を用いる。
In the moving
バターワースフィルタは、最大平坦特性をもつことが知られており、周波数応答特性が次数により決定されることが特徴である。 The Butterworth filter is known to have a maximum flat characteristic, and the frequency response characteristic is determined by the order.
実施形態2においては、カットオフ周波数を固定とし、バターワースフィルタの次数を変化させることでバターワースフィルタ部801のフィルタ特性を変化させる。
In the second embodiment, the filter characteristic of the
次数を1から5まで変化させた場合のバターワースフィルタ部801の入力ピクチャの周波数Fiと当該フィルタ通過後の周波数Ffとの関係を表すグラフを図13に示す。
A graph showing the relationship between the frequency F i of the input picture of the
ステップS901で算出したバターワースフィルタ部801の入力ピクチャの分散Siと、ステップS904で得られたバターワースフィルタ部801の出力ピクチャの分散Sfの関係を用いて、予め定めておいた図13に示す次数に応じたバターワースフィルタ部801の周波数FiとFfの関係を表す曲線の中から、分散SiとSfの関係と、最も近い周波数FiとFfの関係を表す次数を選択すれば良い。
Using the relationship between the variance S i of the input picture of the
尚、次数0の場合には、バターワースフィルタの機能はオフになる。 If the order is 0, the Butterworth filter function is turned off.
以上説明したように、実施形態2によれば、MPEG−4符号化方式においても、実施形態1と同様の効果を得ることができる。 As described above, according to the second embodiment, the same effect as that of the first embodiment can be obtained even in the MPEG-4 encoding method.
以上説明したように、本発明によれば、プリフィルタ部及び符号化部から構成される動画像符号化装置において、画質の劣化具合や人間の視覚特性を考慮し、プリフィルタ部及び符号化部を制御することで、割り当てられた目標符号量の条件下において、符号量と符号化歪み量が最適な符号化動画像データを得ることができる。 As described above, according to the present invention, in the moving image encoding apparatus including the prefilter unit and the encoding unit, the prefilter unit and the encoding unit are considered in consideration of the degradation of image quality and human visual characteristics. By controlling the above, it is possible to obtain encoded moving image data in which the code amount and the encoding distortion amount are optimum under the condition of the assigned target code amount.
具体的には、動画像符号化装置に対して予め決定したピクチャの目標符号量を設定する。次に、動画像符号化装置への入力ピクチャの分散Siを算出する。直前のピクチャを符号化する際に、ブロック歪み量Bcprevを、符号化部の入力ピクチャと局所復号化部の出力ピクチャから予め算出しておく。 Specifically, a target code amount of a predetermined picture is set for the moving picture coding apparatus. Next, the variance S i of the input picture to the moving picture coding apparatus is calculated. When encoding the immediately preceding picture, the block distortion amount B cprev is calculated in advance from the input picture of the encoding unit and the output picture of the local decoding unit.
分散Siとブロック歪み量Bcprevから視覚感度モデルの評価式を決定する。 A visual sensitivity model evaluation formula is determined from the variance S i and the block distortion amount B cprev .
決定した視覚感度モデルの評価式及び符号化部の符号量と符号化歪み量の関係を規定する規定式(R−Dモデル)を用いて、プリフィルタ部の通過後のピクチャの分散Sf及び符号化部で発生する符号化歪み量MSEcを、入力ピクチャの目標符号量を拘束条件としたラグランジュ未定乗数法の解として算出する。 Using the determined evaluation formula of the visual sensitivity model and the defining formula (RD model) that defines the relationship between the coding amount of the coding unit and the coding distortion amount, the variance S f of the picture after passing through the pre-filter unit and The encoding distortion amount MSE c generated in the encoding unit is calculated as a solution of the Lagrange undetermined multiplier method with the target code amount of the input picture as a constraint condition.
分散Si及びSfをパラメータとして、プリフィルタ部のフィルタ特性を決定する。 The filter characteristics of the prefilter unit are determined using the variances S i and S f as parameters.
更には、符号化歪み量MSEcとR−Dモデルから符号化部の目標符号量Rcを決定する。 Furthermore, the target code amount R c of the encoding unit is determined from the encoding distortion amount MSE c and the RD model.
決定した目標符号量Rcを用いて、符号化部の符号量及び量子化処理の重み付けパラメータの関係を規定する規定式(R−Qモデル)から、量子化処理の重み付けパラメータを算出する。 Using the determined target code amount R c , a weighting parameter for the quantization process is calculated from a defining formula (RQ model) that defines the relationship between the code amount of the encoding unit and the weighting parameter for the quantization process.
尚、視覚感度モデルは、実施形態1で使用した式(6)の評価式に限定されるものではなく、符号化部のR−Dモデルの符号化歪み量MSEcに相当する変数と、プリフィルタ部の出力ピクチャの分散Sfを変数として含めば良い。 Note that the visual sensitivity model is not limited to the evaluation formula (6) used in the first embodiment, and a variable corresponding to the coding distortion amount MSE c of the RD model of the coding unit, The output picture variance S f of the filter unit may be included as a variable.
更には、R−Dモデルから得られる符号化部の目標符号量から、Qスケールを算出するR−Qモデルも式(12)に限定されないことは言うまでもない。 Furthermore, it goes without saying that the RQ model for calculating the Q scale from the target code amount of the encoding unit obtained from the RD model is not limited to the equation (12).
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.
100 動画像符号化装置
101 プリフィルタ部
102 符号化部
103 局所復号化部
104 符号量制御部
105 分散算出部
106 ブロック歪み検出部
107 視覚感度モデル算出部
108 パラメータ算出部
109 R−Dモデル算出部
110 フィルタ特性算出部
111 R−Qモデル算出部
DESCRIPTION OF
Claims (2)
前記入力画像の分散を算出する分散算出手段と、
前記入力画像に対して、与えられたフィルタ特性によりフィルタ処理を行うフィルタ手段と、
前記フィルタ手段でフィルタ処理された入力画像に対して、量子化処理を行い、符号化する符号化手段と、
前記符号化手段が出力する符号化データに対して復号化処理を行う復号化手段と、
前記符号化手段への入力画像と前記復号化手段の出力である再構成画像から前記符号化手段によるブロック歪み量を検出する検出手段と、
前記符号化手段への入力画像の分散と前記符号化手段によって生じる符号化歪み量を用いて、前記符号化手段における符号量(R)と符号化歪み量(D)との関係であるR−Dモデルを規定する規定式を予め決定し、前記規定式より前記入力画像の目標符号量を算出するR−Dモデル算出手段と、
前記フィルタ手段によるフィルタ歪み量と、前記符号化手段によって生じる符号化歪み量と、前記入力画像の直前画像について前記検出手段で検出したブロック歪み量との加算演算から視覚感度を評価する視覚感度モデル算出手段と、
前記入力画像の目標符号量と、前記視覚感度モデル算出手段により算出された符号化歪み量と、前記分散算出手段により算出された分散とにより、前記符号化手段への入力画像の分散に対応するパラメータを算出するパラメータ算出手段と、
予め定めておいた複数のフィルタ係数の変化に応じた、前記フィルタ手段への入力画像と前記フィルタ手段からの出力画像との間の分散特性の中から、前記パラメータ算出手段により算出された前記符号化手段への入力画像の分散に対応するパラメータと、前記分散算出手段により算出された分散の関係に最も特定の近いフィルタ特性を選択するフィルタ特性算出手段と、
前記R−Dモデル算出手段により算出された目標符号量から前記量子化処理における重み付けパラメータを算出するR−Qモデル算出手段とを備え、
前記パラメータ算出手段は、前記フィルタ手段でフィルタ処理された入力画像の分散及び前記符号化手段によって生じる符号化歪み量を、前記入力画像の目標符号量が、前記規定式から得られる前記符号化手段の符号量と等しいことを拘束条件として、前記視覚感度を評価するための評価式が最大あるいは最小となるラグランジュ未定乗数法を用いて予め算出する
ことを特徴とする動画像符号化装置。 A moving image encoding apparatus for encoding an input image to a predetermined target code amount using a weighting parameter in quantization processing in moving image encoding for encoding a moving image in a predetermined unit, wherein the input image is distributed A variance calculating means for calculating
Filter means for performing a filtering process on the input image with a given filter characteristic;
Encoding means for performing quantization and encoding on the input image filtered by the filter means;
Decoding means for performing a decoding process on the encoded data output by the encoding means;
Detecting means for detecting a block distortion amount by the encoding means from an input image to the encoding means and a reconstructed image that is an output of the decoding means;
R−, which is the relationship between the code amount (R) and the coding distortion amount (D) in the coding means , using the variance of the input image to the coding means and the coding distortion amount generated by the coding means. An R-D model calculating unit that predetermines a defining formula that defines the D model and calculates a target code amount of the input image from the defining formula ;
A visual sensitivity model for evaluating visual sensitivity from an addition operation of a filter distortion amount generated by the filter means, an encoding distortion amount generated by the encoding means, and a block distortion amount detected by the detection means for an image immediately before the input image. A calculation means;
The input image target code amount , the coding distortion amount calculated by the visual sensitivity model calculating means, and the variance calculated by the variance calculating means correspond to the variance of the input image to the encoding means. Parameter calculating means for calculating the parameters;
The code calculated by the parameter calculation means from among dispersion characteristics between an input image to the filter means and an output image from the filter means in accordance with a change in a plurality of predetermined filter coefficients. A filter characteristic calculation unit that selects a parameter that corresponds to the variance of the input image to the conversion unit and a filter characteristic that is closest to the relationship of the variance calculated by the variance calculation unit;
RQ model calculation means for calculating a weighting parameter in the quantization process from the target code amount calculated by the RD model calculation means,
The parameter calculation unit is configured to obtain a variance of the input image filtered by the filter unit and an encoding distortion amount generated by the encoding unit, and a target code amount of the input image obtained from the prescribed expression. A video encoding apparatus characterized in that, using a Lagrangian undetermined multiplier method that maximizes or minimizes the evaluation formula for evaluating the visual sensitivity, the moving picture coding apparatus is preliminarily calculated with a constraint that the amount of code is equal to the code amount .
前記入力画像の分散を算出する分散算出工程と、
前記入力画像に対して、与えられたフィルタ特性によりフィルタ処理を行うフィルタ工程と、
前記フィルタ工程でフィルタ処理された入力画像に対して、量子化処理を行い、符号化する符号化工程と、
前記符号化工程が出力する符号化データに対して復号化処理を行う復号化工程と、
前記符号化工程への入力画像と前記復号化工程の出力である再構成画像から前記符号化工程によるブロック歪み量を検出する検出工程と、
前記符号化工程への入力画像の分散と前記符号化工程によって生じる符号化歪み量を用いて、前記符号化工程における符号量(R)と符号化歪み量(D)との関係であるR−Dモデルを規定する規定式を予め決定し、前記規定式より前記入力画像の目標符号量を算出するR−Dモデル算出工程と、
前記フィルタ工程によるフィルタ歪み量と、前記符号化工程によって生じる符号化歪み量と、前記入力画像の直前画像について前記検出工程で検出したブロック歪み量との加算演算から視覚感度を評価する視覚感度モデル算出工程と、
前記入力画像の目標符号量と、前記視覚感度モデル算出工程により算出された符号化歪み量と、前記分散算出工程により算出された分散とにより、前記符号化工程への入力画像の分散に対応するパラメータを算出するパラメータ算出工程と、
予め定めておいた複数のフィルタ係数の変化に応じた、前記フィルタ工程への入力画像と前記フィルタ工程からの出力画像との間の分散特性の中から、前記パラメータ算出工程により算出された前記符号化工程への入力画像の分散に対応するパラメータと、前記分散算出工程により算出された分散の関係に最も特定の近いフィルタ特性を選択するフィルタ特性算出工程と、
前記R−Dモデル算出工程により算出された目標符号量から前記量子化処理における重み付けパラメータを算出するR−Qモデル算出工程とを備え、
前記パラメータ算出工程は、前記フィルタ工程でフィルタ処理された入力画像の分散及び前記符号化工程によって生じる符号化歪み量を、前記入力画像の目標符号量が、前記規定式から得られる前記符号化工程の符号量と等しいことを拘束条件として、前記視覚感度を評価するための評価式が最大あるいは最小となるラグランジュ未定乗数法を用いて予め算出する
ことを特徴とする動画像符号化方法。 In moving picture coding for coding a moving picture in a predetermined unit, a moving picture coding method for coding an input picture to a predetermined target code amount using a weighting parameter in quantization processing,
A variance calculating step of calculating variance of the input image;
A filtering step for performing a filtering process on the input image with given filter characteristics;
An encoding step of performing quantization processing and encoding the input image filtered in the filtering step;
A decoding step of performing a decoding process on the encoded data output by the encoding step;
A detection step for detecting a block distortion amount due to the encoding step from an input image to the encoding step and a reconstructed image that is an output of the decoding step;
R−, which is the relationship between the coding amount (R) and the coding distortion amount (D) in the coding step , using the variance of the input image to the coding step and the coding distortion amount generated by the coding step. An R-D model calculating step of predetermining a defining formula for defining the D model , and calculating a target code amount of the input image from the defining formula ;
A visual sensitivity model for evaluating visual sensitivity from an addition operation of the filter distortion amount generated by the filtering step, the coding distortion amount generated by the encoding step, and the block distortion amount detected in the detection step for the image immediately before the input image. A calculation process;
A target code amount of the input image, and encoding distortion amount calculated by the visual sensitivity model calculation step, the dispersion and calculated by the variance calculation step, corresponding to the variance of the input image to the encoding step A parameter calculation step for calculating parameters;
The code calculated by the parameter calculation step from among dispersion characteristics between an input image to the filter step and an output image from the filter step according to a change in a plurality of predetermined filter coefficients. A filter characteristic calculation step of selecting a parameter corresponding to the variance of the input image to the conversion step and a filter characteristic closest to the relationship of the variance calculated by the variance calculation step;
An RQ model calculation step of calculating a weighting parameter in the quantization process from the target code amount calculated by the RD model calculation step,
In the encoding step, the parameter calculation step includes the variance of the input image filtered in the filtering step and the encoding distortion amount generated by the encoding step, and the target code amount of the input image is obtained from the prescribed expression. A moving picture coding method characterized in that it is calculated in advance using a Lagrangian undetermined multiplier method in which the evaluation formula for evaluating the visual sensitivity is maximized or minimized, with the equality of the code amount as a constraint .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004048173A JP4478480B2 (en) | 2004-02-24 | 2004-02-24 | Video encoding apparatus and method |
US11/003,461 US20050123038A1 (en) | 2003-12-08 | 2004-12-06 | Moving image encoding apparatus and moving image encoding method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004048173A JP4478480B2 (en) | 2004-02-24 | 2004-02-24 | Video encoding apparatus and method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005244346A JP2005244346A (en) | 2005-09-08 |
JP2005244346A5 JP2005244346A5 (en) | 2007-04-12 |
JP4478480B2 true JP4478480B2 (en) | 2010-06-09 |
Family
ID=35025651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004048173A Expired - Lifetime JP4478480B2 (en) | 2003-12-08 | 2004-02-24 | Video encoding apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4478480B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4999865B2 (en) * | 2006-12-28 | 2012-08-15 | 日本電信電話株式会社 | VIDEO PROCESSING METHOD AND DEVICE, VIDEO PROCESSING PROGRAM, AND STORAGE MEDIUM CONTAINING THE PROGRAM |
-
2004
- 2004-02-24 JP JP2004048173A patent/JP4478480B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005244346A (en) | 2005-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4901772B2 (en) | Moving picture coding method and moving picture coding apparatus | |
US7023914B2 (en) | Video encoding apparatus and method | |
CN1960495B (en) | Picture coding device, picture coding method, and integated circuit apparatus | |
US7925108B2 (en) | Encoding device and dynamic image recording system having the encoding device | |
KR101339566B1 (en) | Motion vector selection | |
US20200275104A1 (en) | System and method for controlling video coding at frame level | |
JPH05252507A (en) | Motion video compression system using adaptive bit allocation and quantization | |
US11134250B2 (en) | System and method for controlling video coding within image frame | |
US7809198B2 (en) | Coding apparatus having rate control to prevent buffer breakdown | |
US7903734B2 (en) | Moving image decoding apparatus, moving image decoding method, image decoding method, and image decoding apparatus | |
JP4908943B2 (en) | Image coding apparatus and image coding method | |
US20050286628A1 (en) | Human visual system (HVS) filter in a discrete cosine transformator (DCT) | |
JP4023324B2 (en) | Watermark embedding and image compression unit | |
JP4478480B2 (en) | Video encoding apparatus and method | |
JP4253276B2 (en) | Image coding method | |
JP4165752B2 (en) | Secret data insertion method and secret data detection method for image data | |
JP3815665B2 (en) | Variable bit rate video encoding apparatus and recording medium | |
JP4534106B2 (en) | Video encoding system and method | |
JP2008301270A (en) | Moving image encoding device and moving image encoding method | |
JP3560958B2 (en) | Video coding control method and apparatus | |
US6404812B1 (en) | Method and apparatus for controlling video encoder output bit rate using progressive re-quantization | |
JP2008098980A (en) | Moving image encoding apparatus | |
JPH10108197A (en) | Image coder, image coding control method, and medium storing image coding control program | |
KR100911098B1 (en) | Apparatus and method for prediction of distortion in H.263 video coding | |
JP2008072608A (en) | Apparatus and method for encoding image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100308 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100315 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |