JP4681011B2 - Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program - Google Patents

Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program Download PDF

Info

Publication number
JP4681011B2
JP4681011B2 JP2008020324A JP2008020324A JP4681011B2 JP 4681011 B2 JP4681011 B2 JP 4681011B2 JP 2008020324 A JP2008020324 A JP 2008020324A JP 2008020324 A JP2008020324 A JP 2008020324A JP 4681011 B2 JP4681011 B2 JP 4681011B2
Authority
JP
Japan
Prior art keywords
spatial frequency
calculated
frequency component
component
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008020324A
Other languages
Japanese (ja)
Other versions
JP2009182763A (en
Inventor
幸浩 坂東
和也 早瀬
誠之 高村
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008020324A priority Critical patent/JP4681011B2/en
Publication of JP2009182763A publication Critical patent/JP2009182763A/en
Application granted granted Critical
Publication of JP4681011B2 publication Critical patent/JP4681011B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する動画像符号化方法およびその装置と、その動画像符号化方法の実現に用いられる動画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。   The present invention relates to a moving picture coding method and apparatus for coding a moving picture by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction, and the moving picture thereof. The present invention relates to a moving image encoding program used for realizing an encoding method and a computer-readable recording medium storing the program.

[二乗誤差規範のコスト関数を用いる符号化方式]
H.264では、イントラ予測および可変形状動き補償の導入に伴い、従来の標準化方式と比べて、予測モードの種類が増加している。このため、一定の主観画質を保持しつつ符号量を削減するには、適切な予測モードを選択する必要がある。H.264の参照ソフトウェアJM(非特許文献1参照)では、以下のR−Dコストを最小化する予測モードを選択している。なお、以下の表記において、「^X」(Xは文字)における記号^は、「X」の上に付く記号を示している。
[Encoding method using cost function of square error criterion]
H. In H.264, with the introduction of intra prediction and variable shape motion compensation, the types of prediction modes are increasing compared to the conventional standardized method. For this reason, in order to reduce the amount of codes while maintaining a constant subjective image quality, it is necessary to select an appropriate prediction mode. H. In the H.264 reference software JM (see Non-Patent Document 1), the following prediction mode that minimizes the RD cost is selected. In the following notation, the symbol ^ in “^ X” (where X is a letter) indicates a symbol attached to “X”.

Figure 0004681011
Figure 0004681011

ここで、Sは原信号、qは量子化パラメータ、mは予測モードを表す番号であり、^Sm,q は原信号Sに対して予測モードmを用いて予測し、量子化パラメータqを用いて量子化した場合の復号信号である。また、λはモード選択に用いるラグランジェの未定乗数である。さらに、D(S,^Sm,q )は次式に示す二乗誤差和である。 Here, S is an original signal, q is a quantization parameter, m is a number representing a prediction mode, ^ S m, q is predicted for the original signal S using the prediction mode m, and the quantization parameter q is It is a decoded signal when quantized by using. Further, λ is a Lagrange's undetermined multiplier used for mode selection. Further, D (S, ^ S m, q ) is a sum of square errors shown in the following equation.

Figure 0004681011
Figure 0004681011

また、SY ,SU ,SV はそれぞれ原信号のY,U,V成分であり、^SY m,q ,^SU m,q ,^SV m,q はそれぞれ復号信号のY,U,V成分である。また、x0 ,y0 はブロックの中で原点に最も近い位置の座標値である。 S Y , S U , and S V are Y, U, and V components of the original signal, respectively, and ^ S Y m, q , ^ S U m, q , and ^ S V m, q are Y of the decoded signal, respectively. , U and V components. Further, x 0 and y 0 are coordinate values at positions closest to the origin in the block.

H.264における復号信号の算出方法を以下に示す。なお、説明に用いる記号を下記の表にまとめる。   H. The calculation method of the decoded signal in H.264 is shown below. The symbols used for the explanation are summarized in the following table.

Figure 0004681011
Figure 0004681011

原信号Sに対して、モード番号mの予測方法を用いた場合の予測信号をPm とする。H.264の符号化処理では、モード番号mの予測方法を用いた場合の予測誤差信号Rm (=S−Pm )に対して、変換行列〜Φを用いた直交変換が次式のように施される。なお、以下の表記において、「〜X」(Xは文字)における記号〜は、「X」の上に付く記号を示している。 Let P m be the prediction signal when the prediction method of mode number m is used for the original signal S. H. In the H.264 encoding process, the orthogonal transformation using the transformation matrix to Φ is applied to the prediction error signal R m (= S−P m ) when the prediction method of the mode number m is used as follows: Is done. In the following notation, the symbol “˜X” (where X is a letter) indicates a symbol attached to “X”.

Figure 0004681011
Figure 0004681011

ここで、〜Φt は変換行列〜Φに対する転置行列を表す。なお、変換行列〜Φは次式で表される整数要素の直交行列である。 Here, ~ Φ t represents a transposed matrix for the transformation matrix ~ Φ. Note that the transformation matrix to Φ is an orthogonal matrix of integer elements expressed by the following equation.

Figure 0004681011
Figure 0004681011

次に、行列〜Φが非正規行列であるため、次に示すような行列の正規化に相当する処理を行う。   Next, since the matrices Φ are non-normal matrices, processing corresponding to matrix normalization as shown below is performed.

Figure 0004681011
Figure 0004681011

これは、式(3)において、〜Φの代わりに次式のΦを用いることにあたる。   This is equivalent to using Φ of the following expression instead of ˜Φ in the expression (3).

Figure 0004681011
Figure 0004681011

さらに、Cm に対して、量子化パラメータqを用いた量子化が次式のとおり施される。なお、H.264の参照ソフトウェアJMでは、正規化は量子化の中に組み込まれている。 Further, the quantization using the quantization parameter q is performed on C m as follows. H. In the H.264 reference software JM, normalization is built into quantization.

Figure 0004681011
Figure 0004681011

一方、H.264の復号処理では、Vに対して、次式のように逆量子化を施し、変換係数の復号値を得る。   On the other hand, H. In the H.264 decoding process, V is inversely quantized as in the following equation to obtain a decoded value of a transform coefficient.

Figure 0004681011
Figure 0004681011

次に、^Cm,q に対して、次式のように逆変換を施し、予測誤差の復号信号を得る。 Next, inverse transformation is applied to { circumflex over (C )} m, q as in the following equation to obtain a prediction error decoded signal.

Figure 0004681011
Figure 0004681011

最後に、次式により、符号化対象画像の復号信号を得る。   Finally, a decoded signal of the encoding target image is obtained by the following equation.

Figure 0004681011
Figure 0004681011
K.P.Lim and G.Sullivan and T.Wiegand, Text Description of Joint Model Reference Encoding Methods and Decoding Concealment Methods. Joint Video Team(JVT) of ISO/IEC MPEG and ITU-T VCEG, JVT-R95, Jan., 2006. http://ftp3.itu.ch/av-arch/jvt-site/2006_01_Bangkok/JVT-R095.zipKPLim and G. Sullivan and T. Wiegand, Text Description of Joint Model Reference Encoding Methods and Decoding Concealment Methods.Joint Video Team (JVT) of ISO / IEC MPEG and ITU-T VCEG, JVT-R95, Jan., 2006. http://ftp3.itu.ch/av-arch/jvt-site/2006_01_Bangkok/JVT-R095.zip

[主観画質を考慮した歪み量への重み付け]
前述の通り、H.264の参照ソフトウェアJMで用いられている主観画質の尺度は二乗誤差である。しかし、この二乗誤差は必ずしも、主観的な画質劣化を反映した歪み量ではない。例えば、高周波数成分の変化は低周波成分の変化に比べて、視覚的には検知されにくい。
[Weighting distortion amount considering subjective image quality]
As described above, H.P. The measure of subjective image quality used in the H.264 reference software JM is a square error. However, this square error is not necessarily a distortion amount reflecting subjective image quality degradation. For example, a change in a high frequency component is less visually detected than a change in a low frequency component.

しかし、こうした視覚特性を利用していない符号化器(例えば、JM)には、符号量の効率的な削減に関して、改良の余地が残る。   However, an encoder (for example, JM) that does not use such visual characteristics still has room for improvement in terms of efficient code amount reduction.

そこで、時空間周波数成分に対して視覚感度に差があることを利用する検討が要求されている。直交変換係数に対して、視覚感度に応じて空間周波数成分毎に歪み量の重み付けを行うことで、主観画質に対応した歪み量を定義する。さらに、時間方向の視覚感度も考慮して、前述の重み付けされた歪み量に対して、変移量に応じてさらに重み付けを行う。こうして時空間の視覚感度に基づき重み付けされた歪み量を符号化パラメータ選択のコスト関数において用いる必要がある。   In view of this, there is a demand for a study utilizing the difference in visual sensitivity with respect to spatio-temporal frequency components. A distortion amount corresponding to the subjective image quality is defined by weighting the distortion amount for each spatial frequency component in accordance with the visual sensitivity with respect to the orthogonal transform coefficient. Further, in consideration of the visual sensitivity in the time direction, the above-described weighted distortion amount is further weighted according to the shift amount. Thus, it is necessary to use a distortion amount weighted on the basis of spatio-temporal visual sensitivity in a cost function for selecting an encoding parameter.

量子化誤差信号に対する視覚感度に基づく重み付けについて、以下、説明する。本発明では、次式のR−Dコストを用いることを想定している。   The weighting based on the visual sensitivity for the quantization error signal will be described below. In the present invention, it is assumed that the RD cost of the following equation is used.

Figure 0004681011
Figure 0004681011

ここで、Cm はモード番号mを用いた場合の予測残差信号Rm に対する変換係数であり、^Cm,q はCm を量子化パラメータqで量子化・逆量子化して得られる変換係数の復号値である。このR−Dコストの計算に用いる歪み量として、以下の重み付け歪み量を用いる。 Here, C m is a transform coefficient for the prediction residual signal R m when the mode number m is used, and ^ C m, q is a transform obtained by quantizing and dequantizing C m with the quantization parameter q. This is the decoded value of the coefficient. The following weighted distortion amount is used as the distortion amount used for calculating the RD cost.

Figure 0004681011
Figure 0004681011

ここで、Cm s(i)[k,l](s=Y,U,V)はCm の要素であり、マクロブロック(Y成分の場合には16×16[画素],U,V成分の場合には8×8[画素])内のサブブロック(N×N[画素])のうち、ラスター走査においてi番目に走査されるサブブロックに含まれる変換係数である。また、^Cm,q s(i)[k,l](s=Y,U,V)は^Cm,q の要素であり、マクロブロック(Y成分の場合には16×16[画素],U,V成分の場合には8×8[画素])内のサブブロック(N×N[画素])のうち、ラスター走査においてi番目に走査されるサブブロックに含まれる復号変換係数である。 Here, C m s (i) [k, l] (s = Y, U, V) is an element of C m , and a macroblock (16 × 16 [pixel], U, V in the case of Y component) In the case of components, it is a conversion coefficient included in the i-th sub-block scanned in the raster scanning among the sub-blocks (N × N [pixels]) in 8 × 8 [pixels]). ^ C m, q s (i) [k, l] (s = Y, U, V) is an element of ^ C m, q , and a macroblock (16 × 16 [pixels in the case of Y component) ], U, and V components, the decoding transform coefficients included in the i-th sub-block scanned in the raster scan among the sub-blocks (N × N [pixels]) in 8 × 8 [pixels]). is there.

さらに、Wk,l s (s=Y,U,V)は1以下に設定される重み係数であり、以下では、感度係数と呼ぶ。式(12)において、Wk,l s を小さな値に設定することは、量子化歪み〜D(Cm ,^Cm,q )を小さく見積もることに相当する。 Further, W k, l s (s = Y, U, V) is a weighting coefficient set to 1 or less, and is hereinafter referred to as a sensitivity coefficient. In Expression (12), setting W k, l s to a small value corresponds to estimating the quantization distortion to D (C m , ^ C m, q ) to be small.

なお、直交変換の正規性より、Wk,l s =1(∀k,l;s=Y,U,V)とすれば、前述の重み付け歪み量は二乗誤差和と等価となる。 From the normality of orthogonal transformation, if W k, l s = 1 (∀k, l; s = Y, U, V), the above-described weighted distortion amount is equivalent to the square error sum.

主観画質に対応した歪み量を定義するには、空間周波数および時間周波数を考慮して、この感度係数Wk,l s (s=Y,U,V)を決定する必要がある。 In order to define the distortion amount corresponding to the subjective image quality, it is necessary to determine the sensitivity coefficient W k, l s (s = Y, U, V) in consideration of the spatial frequency and the temporal frequency.

しかしながら、従来技術では、この点について検討がなされていない。空間周波数および時間周波数が高いほど、感度係数Wk,l s の値を小さくする必要があるが、この点について検討がなされていないというのが実情である。 However, this point has not been studied in the prior art. The higher the spatial frequency and the temporal frequency, the smaller the value of the sensitivity coefficient W k, l s must be. However, the fact is that this point has not been studied.

さらに、この感度係数Wk,l s の決定にあたっては、空間周波数成分の方向および動きベクトルの方向を考慮する必要がある。 Further, in determining the sensitivity coefficient W k, l s , it is necessary to consider the direction of the spatial frequency component and the direction of the motion vector.

すなわち、ブロック内の空間周波数成分および動きベクトルに基づき求められる時空間周波数は、空間周波数成分の方向および動きベクトルの方向に依存したものとなる。これは、動きを認識できるのはエッジの変化方向と垂直な方向の動きであることによる。例えば、図13に示すように、垂直方向に変化するエッジが移動する場合、動きとして認識できるのは、動きベクトルの垂直方向成分に起因する方向のみとなる。   That is, the spatio-temporal frequency obtained based on the spatial frequency component and the motion vector in the block depends on the direction of the spatial frequency component and the direction of the motion vector. This is because the movement can be recognized by the movement in the direction perpendicular to the edge change direction. For example, as shown in FIG. 13, when an edge that changes in the vertical direction moves, only the direction caused by the vertical component of the motion vector can be recognized as a motion.

しかしながら、従来技術では、こうした方向を考慮したモデル化についても当然のことながら行われていない。このため、得られた重み付き歪み量が主観画質を正しく反映できないケースが発生する。   However, in the prior art, modeling considering such a direction is not naturally performed. For this reason, there is a case where the obtained weighted distortion amount cannot correctly reflect the subjective image quality.

本発明はかかる事情に鑑みてなされたものであって、動き補償によるフレーム間予測と直交変換を組み合わせたブロックベースの符号化方式(例えば、H.264)に対して、空間周波数成分の方向および動きベクトルの方向を考慮することにより時空間周波数を推定して、主観画質を適切に評価した符号化歪みの尺度を導入することを実現することで、符号化パラメータの選択に用いるコスト関数として、主観画質を反映したものを実現できるようにする新たな動画像符号化技術の提供を目的とする。   The present invention has been made in view of such circumstances, and is directed to a spatial frequency component direction and a block-based encoding scheme (for example, H.264) that combines inter-frame prediction based on motion compensation and orthogonal transformation. Estimating spatio-temporal frequency by considering the direction of the motion vector, and realizing the introduction of a measure of coding distortion that appropriately evaluates subjective image quality, The object is to provide a new moving picture coding technique that can realize what reflects subjective image quality.

本発明では、各ブロック内の歪み量に対して、時空間視覚感度関数に基づく重み付けを行う。この重み付けの係数の算出において、入力となるのは変換行列と変移量(動きベクトルのような画像信号の時間的な動きを示すもの)である。   In the present invention, the distortion amount in each block is weighted based on the spatiotemporal visual sensitivity function. In the calculation of the weighting coefficient, the input is a transformation matrix and a shift amount (indicating temporal motion of an image signal such as a motion vector).

なお、以下では、縦幅Hの画像を視距離rHにおいて観測する場合を考える。rを視距離パラメータと呼ぶ。また、以下では、表現を簡略化するために、Y,U,Vの区別を表す添え字を省略し、Y成分について議論する。なお、U,V成分についても以下と同様に議論できる。   In the following, a case where an image having a vertical width H is observed at a viewing distance rH is considered. r is called a viewing distance parameter. Also, in the following, in order to simplify the expression, the subscript indicating the distinction between Y, U, and V is omitted, and the Y component will be discussed. The U and V components can be discussed in the same manner as described below.

[i]感度係数の算出手法(その1)
変換行列Φ(N×N行列)の第k列ベクトル(N次元ベクトル)をφk とすると、同行列に対する基底画像は、
k,l (x,y)=φk [y]φl [x]t (0≦x,y≦N−1)
という式より得られる。なお、H.264の場合、Nとして取りうる値は4または8のいずれかである。ここで、φl t はφl の転置ベクトルである。
[I] Sensitivity coefficient calculation method (1)
When the k-th column vector (N-dimensional vector) of the transformation matrix Φ (N × N matrix) is φ k , the base image for the matrix is
f k, l (x, y) = φ k [y] φ l [x] t (0 ≦ x, y ≦ N−1)
It can be obtained from the formula H. In the case of H.264, the possible value for N is either 4 or 8. Here, φ l t is a transposed vector of φ l .

各基底画像fk,l (x,y)(0≦x,y≦N−1)に対して、次式に示すように、ゼロ埋めによりサイズを2倍に拡大する。このブロック拡大は、ブロックの不連続性に起因する空間周波数成分も考慮した空間周波数分析を行うためである。 For each base image f k, l (x, y) (0 ≦ x, y ≦ N−1), the size is doubled by zero padding as shown in the following equation. This block expansion is for performing a spatial frequency analysis in consideration of a spatial frequency component resulting from the discontinuity of the block.

Figure 0004681011
Figure 0004681011

ゼロ埋めの結果得られる〜fk,l (x,y)(x=0,..,2N−1;y=0,..,2N−1)を修正基底画像と呼ぶ。 ˜f k, l (x, y) (x = 0,..., 2N−1; y = 0,..., 2N−1) obtained as a result of zero padding is called a corrected base image.

修正基底画像に対して、次式に示す離散フーリエ変換を施し、フーリエ係数Fk,l (ux ,uy )(0≦ux ≦2N−1,0≦uy ≦2N−1)を得る。なお、以下ではN=2m とおく。ここで、jは虚数単位である。また、ux ,uy を空間周波数インデックスと呼ぶ。 The modified base image is subjected to a discrete Fourier transform represented by the following equation, and Fourier coefficients F k, l (u x , u y ) (0 ≦ u x ≦ 2N−1, 0 ≦ u y ≦ 2N−1) are obtained. obtain. In the following, it is assumed that N = 2 m . Here, j is an imaginary unit. U x and u y are referred to as spatial frequency indexes.

Figure 0004681011
Figure 0004681011

得られたフーリエ係数Fk,l (ux ,uy )(0≦ux ≦2N−1,0≦uy ≦2N−1)に対して、視覚感度に基づく以下の重み付けを行う。 The following weighting based on visual sensitivity is performed on the obtained Fourier coefficient F k, l (u x , u y ) (0 ≦ u x ≦ 2N−1, 0 ≦ u y ≦ 2N−1).

Figure 0004681011
Figure 0004681011

以下、〜Fk,l (ux ,uy ,ωx ,ωy )について、説明する。ここで、^g(η,ω)は視覚感度関数g(η,ω)に基づき設定される関数である。まず、視覚感度関数g(η,ω)について説明し、次に、g(η,ω)と^g(η,ω)の関係を示す。 Hereinafter, ~ F k, l (u x , u y , ω x , ω y ) will be described. Here, {circumflex over (g)} (η, ω) is a function set based on the visual sensitivity function g (η, ω). First, the visual sensitivity function g (η, ω) will be described, and then the relationship between g (η, ω) and ^ g (η, ω) will be shown.

視覚感度関数g(η,ω)は、次式の通りである。この関数形に従い、η,ωが大きくなると、視覚感度関数g(η,ω)は小さな値を示すことになる。   The visual sensitivity function g (η, ω) is as follows. When η and ω are increased according to this function form, the visual sensitivity function g (η, ω) indicates a small value.

Figure 0004681011
Figure 0004681011

ここで、a,b,c,dは視覚感度関数g(η,ω)の関数形を定めるパラメータ(以後、モデルパラメータと呼ぶ)であり、例えば、
(a,b,c,d)=(6.1, 7.31, 2, 45.9)
のような値が用いられる。
Here, a, b, c, and d are parameters (hereinafter referred to as model parameters) that define the function form of the visual sensitivity function g (η, ω).
(A, b, c, d) = (6.1, 7.31, 2, 45.9)
A value such as is used.

(イ)ηについて
ηは単位視野角内の明暗対の個数を表す空間周波数(cycle per degree)である。式(15)におけるηx ,ηy は各々、水平方向および垂直方向の空間周波数であり、
ηx =θ(r,H)ux /4N
ηy =θ(r,H)uy /4N
のように表される。
(A) η η is a spatial frequency (cycle per degree) representing the number of light-dark pairs within a unit viewing angle. In the equation (15), η x and η y are horizontal and vertical spatial frequencies, respectively.
η x = θ (r, H) u x / 4N
η y = θ (r, H) u y / 4N
It is expressed as

ここで、θ(r,H)は、縦幅Hの画像を視距離rHにおいて観測する場合の一画素あたりの角度(degree per pixel)であり、
θ(r,H)=(1/H)×arctan(1/r)×(180/π)[degrees/pixel]
という式により与えられる。
Here, θ (r, H) is an angle per pixel (degree per pixel) when an image having a vertical width H is observed at a viewing distance rH.
θ (r, H) = (1 / H) × arctan (1 / r) × (180 / π) [degrees / pixel]
Is given by the expression

(ロ)ωについて
ωは単位時間当たりの角度の変化量[degrees/sec]である。式(15)におけるωx ,ωy は各々、水平方向および垂直方向の単位時間当たりの角度の変化量である。
(B) About ω ω is an angle change per unit time [degrees / sec]. In equation (15), ω x and ω y are the amount of change in angle per unit time in the horizontal and vertical directions, respectively.

マクロブロックの変移量が(dx ,dy )と推定され、縦幅Hの画像を視距離rHにおいて観測する場合、水平方向および垂直方向の単位時間当たりの角度の変化量は、各々、
ωx =tan-1(fr x /rH)
ωy =tan-1(fr y /rH)
という式により与えられる。ここで、fr はフレームレートである。
When the macroblock displacement is estimated as (d x , d y ) and an image with a vertical width H is observed at a viewing distance rH, the amount of change in the angle per unit time in the horizontal direction and the vertical direction is
ω x = tan -1 (f r d x / rH)
ω y = tan -1 (f r d y / rH)
Is given by the expression Here, fr is a frame rate.

ここで、単位時間当たりのサイクル数(サイクルレート)の上限はフレームレート以下になることに注意すると、サイクルレートを表すωx ×ηx ,ωy ×ηy ([degrees/sec]×[cycles/degree]≡[cycles/sec])は、フレームレート以下の値に設定する必要がある。 Here, if it is noted that the upper limit of the number of cycles per unit time (cycle rate) is equal to or less than the frame rate, ω x × η x , ω y × η y ([degrees / sec] × [cycles / degree] ≡ [cycles / sec]) must be set to a value below the frame rate.

そこで、以下のようにサイクルレートとフレームレートの大小関係に応じて、g(η,ω)を修正した関数を^g(η,ω)として定義する。   Therefore, a function obtained by correcting g (η, ω) according to the magnitude relationship between the cycle rate and the frame rate is defined as ^ g (η, ω) as follows.

Figure 0004681011
Figure 0004681011

感度係数の算出手法(その1)では、フーリエ係数Fk,l (ux ,uy )と、フーリエ係数Fk,l (ux ,uy )に対して式(15)の重み付けを行った〜Fk,l (ux ,uy ,ωx ,ωy )とを使い、(k,l)基底に対する感度係数Wk,l Y (ωx ,ωy )を、次式の電力比として定義する。 In the sensitivity coefficient calculation method (part 1), the Fourier coefficient F k, l (u x , u y ) and the Fourier coefficient F k, l (u x , u y ) are weighted using equation (15). was ~F k, l (u x, u y, ω x, ω y) and uses, (k, l) sensitivity coefficient W k of the basis, l Y (ω x, ω y) , and the following equation power Define as a ratio.

Figure 0004681011
Figure 0004681011

なお、Wk,l U (ωx ,ωy ),Wk,l V (ωx ,ωy )についても同様に求めることができる。このとき、輝度成分と色差成分でモデルパラメータを変更することも可能である。 Note that W k, l Ux , ω y ) and W k, l Vx , ω y ) can be obtained in the same manner. At this time, it is also possible to change the model parameter with the luminance component and the color difference component.

このようにして決定される感度係数Wk,l s (ωx ,ωy )(s=Y,U,V)は、空間周波数および時間周波数が高いほど、その値が小さくなるので、主観画質に対応した歪み量を定義することができるようになる。 The sensitivity coefficient W k, l sx , ω y ) (s = Y, U, V) determined in this way becomes smaller as the spatial frequency and temporal frequency are higher. It becomes possible to define the amount of distortion corresponding to.

感度係数は、符号化対象画像とは独立に求めることが可能である。このため、符号化に先立ち、感度係数を求めることができる。この感度係数をルックアップテーブルに格納すれば、符号化時の感度係数算出のための演算は省略することができる。   The sensitivity coefficient can be obtained independently of the encoding target image. For this reason, the sensitivity coefficient can be obtained prior to encoding. If this sensitivity coefficient is stored in the lookup table, the calculation for calculating the sensitivity coefficient at the time of encoding can be omitted.

[ii]感度係数の算出手法(その2)
次に、別の感度係数の算出方法について説明する。
[Ii] Sensitivity coefficient calculation method (2)
Next, another method for calculating the sensitivity coefficient will be described.

感度係数の算出手法(その2)もまた、式(14)により得られるフーリエ係数に対して視覚感度に基づく重み付けを行うことになるが、感度係数の算出手法(その2)では、この重み付けについて、下記の参考文献に記載される
g(η)=(0.31+0.69η)exp(−0.29η) ・・・ 式(a)
という視覚感度関数を用いる。
In the sensitivity coefficient calculation method (part 2), the Fourier coefficient obtained by the equation (14) is also weighted based on visual sensitivity. In the sensitivity coefficient calculation method (part 2), the weighting is performed. G (η) = (0.31 + 0.69η) exp (−0.29η) (Equation (a))
The visual sensitivity function is used.

参考文献:K.N.Ngan, K.S.Leong, and H.Singh. Cosine transform coding incorp orating human visual system moodel. SPIE Fiber, pp.165-171, Sept . 1986.
ここで、ηは単位視野角内の明暗対の個数を表す空間周波数(cycle per degree)である。また、ηは一次元の空間周波数であることに注意する。
References: KNNgan, KSLeong, and H. Singh. Cosine transform coding incorp orating human visual system moodel. SPIE Fiber, pp.165-171, Sept. 1986.
Here, η is a spatial frequency (cycle per degree) representing the number of light-dark pairs within a unit viewing angle. Note that η is a one-dimensional spatial frequency.

このとき、ηと空間周波数インデックスu(ux またはuy のいずれか)とは、
η(u,r)=θ(r,H)u/4N ・・・ 式(b)
という関係にある。
At this time, the η and the spatial frequency index u (either u x or u y) is
η (u, r) = θ (r, H) u / 4N Expression (b)
There is a relationship.

なお、θ(r,H)は、縦幅Hの画像を視距離rHにおいて観測する場合の一画素あたりの角度(degree per pixel)であり、
θ(r,H)=(1/H)×arctan(1/r)×(180/π) ・・ 式(c)
という式により与えられる。ここで、rを視距離パラメータと呼ぶ。
Note that θ (r, H) is an angle per pixel (degree per pixel) when an image having a vertical width H is observed at a viewing distance rH.
θ (r, H) = (1 / H) × arctan (1 / r) × (180 / π) Equation (c)
Is given by the expression Here, r is called a viewing distance parameter.

式(b)および式(c)を式(a)に代入し、g(η)をu,rの関数として表したものを^g(u,r)とする。   The expression (b) and the expression (c) are substituted into the expression (a), and g (η) expressed as a function of u and r is denoted by g (u, r).

感度係数の算出手法(その2)では、この^g(u,r)を用いて、フーリエ係数Fk,l (ux ,uy )(0≦ux ≦2N−1,0≦uy ≦2N−1)に対して、以下の重み付けを行う。 In the sensitivity coefficient calculation method (part 2), this ^ g (u, r) is used to calculate the Fourier coefficient F k, l (u x , u y ) (0 ≦ u x ≦ 2N−1, 0 ≦ u y). For ≦ 2N−1), the following weighting is performed.

Figure 0004681011
Figure 0004681011

ここで、^g(ux ,rx )および^g(uy ,ry )は、各々、水平方向、垂直方向の重み関数となっている。なお、rx ,ry の導出方法については後述する。 Here, { circumflex over (g) } (u x , r x ) and { circumflex over (g) } (u y , r y ) are weighting functions in the horizontal direction and the vertical direction, respectively. In addition, r x, will be described later method of deriving the r y.

感度係数の算出手法(その2)では、フーリエ係数Fk,l (ux ,uy )と、フーリエ係数Fk,l (ux ,uy )に対して式(19)の重み付けを行った〜Fk,l (ux ,uy ,rx ,ry )とを使い、第(k,l)基底の成分に対する感度係数Wk,l Y (rx ,ry )を、次式の電力比として定義する。 In the sensitivity coefficient calculation method (part 2), the Fourier coefficient F k, l (u x , u y ) and the Fourier coefficient F k, l (u x , u y ) are weighted using equation (19). to F k, using a l (u x, u y, r x, r y) were, first (k, l) sensitivity coefficient of the basis of the components W k, l Y (r x , r y) the following It is defined as the power ratio of the equation.

Figure 0004681011
Figure 0004681011

感度係数は、符号化対象画像とは独立に求めることが可能である。このため、符号化に先立ち、感度係数を求めることができる。この感度係数をルックアップテーブルに格納すれば、符号化時の感度係数算出のための演算は省略することができる。   The sensitivity coefficient can be obtained independently of the encoding target image. For this reason, the sensitivity coefficient can be obtained prior to encoding. If this sensitivity coefficient is stored in the lookup table, the calculation for calculating the sensitivity coefficient at the time of encoding can be omitted.

次に、式(19)に記載する視距離パラメータrx ,ry の導出方法について説明する。 Next, a method for deriving the viewing distance parameters r x and r y described in Expression (19) will be described.

空間周波数に対する視覚感度は、時間軸方向の変化量に依存する。例えば、時間軸方向の大きな変化(高速なカメラパン・チルト、シーンチェンジなど)が発生したフレームでは、そのフレームの画質劣化に対する感度は低下する。このため、時間軸方向の大きな変化が発生したフレームに対しては、感度係数が小さな値になるように制御することで、さらなる符号量削減が期待できる。   The visual sensitivity with respect to the spatial frequency depends on the amount of change in the time axis direction. For example, in a frame in which a large change in the time axis direction (high-speed camera pan / tilt, scene change, etc.) has occurred, the sensitivity of the frame to image quality degradation decreases. For this reason, for a frame in which a large change in the time axis direction has occurred, a further reduction in code amount can be expected by controlling the sensitivity coefficient to be a small value.

ここでは、感度係数と視距離パラメータの関係に着目する。Wk,l (rx ,ry )がrx ,ry に対する減少関数であることが分かる。これは、〜Fk,l (ux ,uy ,rx ,ry )を構成する^g(u,r)がrに対する減少関数であることによる。 Here, attention is focused on the relationship between the sensitivity coefficient and the viewing distance parameter. It can be seen that W k, l (r x , r y ) is a decreasing function with respect to r x , r y . This is because {circumflex over (g) } (u, r) constituting ˜F k, l (u x , u y , r x , r y ) is a decreasing function with respect to r.

この感度係数の性質は、視距離とともに視覚感度が低下するという視覚特性に合致する。また、Wk,l (rx ,ry )は、
k,l (rx ,ry )≦1
という関係を満足する。これは、^g(u,r)が1以下の値をとることによる。
The nature of this sensitivity coefficient matches the visual characteristic that visual sensitivity decreases with viewing distance. W k, l (r x , r y ) is
W k, l (r x , r y ) ≦ 1
Satisfy the relationship. This is because ^ g (u, r) takes a value of 1 or less.

そこで、感度係数の算出手法(その2)では、感度係数の制御に視距離パラメータを用いる。この制御は、変移量(動きベクトルのような画像信号の時間的な動きを示すもの)の大きさに応じてマクロブロック毎に行うものとする。このとき用いる変移量d=(dx ,dy )は、変移量推定のブロックサイズを16×16として求めるものとする。 Therefore, in the sensitivity coefficient calculation method (part 2), the viewing distance parameter is used to control the sensitivity coefficient. This control is performed for each macro block in accordance with the magnitude of the shift amount (the one indicating the temporal movement of the image signal such as a motion vector). The shift amount d = (d x , d y ) used at this time is obtained with the block size of the shift amount estimation being 16 × 16.

そして、この求めた変移量dに応じて、視距離パラメータを次式のように適応的に変化させる。ここで、Aは閾値であり、r1 >r2 とする。 Then, the viewing distance parameter is adaptively changed as shown in the following equation in accordance with the obtained shift amount d. Here, A is a threshold value, and r 1 > r 2 .

Figure 0004681011
Figure 0004681011

この式(21)におけるrx およびry は、水平方向・垂直方向に対するパラメータとして独立に設定される。これは、視覚系の検知機能が空間的なエッジの方向に対して垂直な方向の動きにのみ反応することに基づいたものである。つまり、動きの水平方向成分は水平方向のエッジからなるテクスチャ領域では検知されず、同様に、動きの垂直方向成分は垂直方向のエッジからなるテクスチャ領域では検知されない。このため、感度係数の制御パラメータとしての視距離パラメータを水平方向・垂直方向の方向毎に設定するのである。 In this equation (21), r x and r y are independently set as parameters for the horizontal direction and the vertical direction. This is based on the fact that the detection function of the visual system reacts only to movement in a direction perpendicular to the spatial edge direction. That is, the horizontal component of motion is not detected in a texture region composed of horizontal edges, and similarly, the vertical component of motion is not detected in a texture region composed of vertical edges. For this reason, the viewing distance parameter as the control parameter for the sensitivity coefficient is set for each of the horizontal and vertical directions.

一方、本発明者は、下記に示す文献で、同様な手法に従って感度係数Wk,l s (ω)(s=Y,U,V)を決定する発明について開示した。 On the other hand, the present inventor disclosed an invention for determining the sensitivity coefficient W k, l s (ω) (s = Y, U, V) according to a similar technique in the following literature.

文献:坂東幸浩,早瀬和也,高村誠之,上倉一人,八島由幸,時空間視覚感度特性に 基づくH.264/AVCモード選択方法の検討 映像情報メディア学会2007 年次大会,7-4, 2007
しかしながら、この文献で開示した発明では、式(15)に記載した〜Fk,l (ux ,uy ,ωx ,ωy )に相当する〜Fk,l (u,v,ω)として、
〜Fk,l (u,v,ω)=Fk,l (u,v)^g(η,ω)
を用いるようにして、ηについて、ηx ,ηy という方向を区別することなく、
η=θ(r,H)(u2 +v2 1/2 /2N
という式に従って決定するとともに、ωについて、ωx ,ωy という方向を区別することなく、
ω=tan-1(fr (dx 2 +dy 2 1/2 /rH)
という式に従って決定するようにしている。
References: Yukihiro Bando, Kazuya Hayase, Masayuki Takamura, Hitoshi Uekura, Yoshiyuki Yashima, H. Based on spatio-temporal visual sensitivity characteristics. H.264 / AVC mode selection method The Institute of Image Information and Television Engineers 2007 Annual Conference, 7-4, 2007
However, in the invention disclosed in this document, ~ F k, l (u, v, ω) corresponding to ~ F k, l (u x , u y , ω x , ω y ) described in the equation (15). As
˜F k, l (u, v, ω) = F k, l (u, v) ^ g (η, ω)
Without any distinction between η x and η y for η,
η = θ (r, H) (u 2 + v 2 ) 1/2 / 2N
And without distinguishing the direction of ω x , ω y for ω,
ω = tan −1 (f r (d x 2 + d y 2 ) 1/2 / rH)
It is determined according to the formula.

このように、この文献で開示した発明では、空間周波数および時間周波数(変移量)を考慮する形で感度係数Wk,l s (ω)を決定するようにはしているものの、空間周波数成分の方向および変移量の方向を考慮して感度係数Wk,l s (ω)を決定するようにしている訳ではなく、改善の余地が残されていた。 As described above, in the invention disclosed in this document, the sensitivity coefficient W k, l s (ω) is determined in consideration of the spatial frequency and the time frequency (variation amount), but the spatial frequency component is determined. However, the sensitivity coefficient W k, l s (ω) is not determined in consideration of the direction and the amount of displacement, and there remains room for improvement.

すなわち、この文献で開示した発明では、空間周波数成分の方向および変移量の方向を考慮して感度係数Wk,l s (ω)を決定しておらず、そのため、画素単位の主観画質のみを担保するにすぎず、歪み量に対する過剰な重みの設定により復号画素の画質を劣化させるという問題がある。 That is, in the invention disclosed in this document, the sensitivity coefficient W k, l s (ω) is not determined in consideration of the direction of the spatial frequency component and the direction of the shift amount. There is a problem that the image quality of the decoded pixel is deteriorated only by securing the excessive weight with respect to the distortion amount.

そこで、本発明では、感度係数の算出手法(その1)で構成する場合には、^g(η,ω)をx方向とy方向とに分解する形で、〜Fk,l (ux ,uy ,ωx ,ωy )を式(15)のように定義するとともに、ηの方向を考慮すべくηx ,ηy というように分解して、これらのηx ,ηy をそれぞれ独立に、
ηx =θ(r,H)ux /4N
ηy =θ(r,H)uy /4N
というように定義し、さらに、ωの方向を考慮すべくωx ,ωy というように分解して、これらのωx ,ωy をそれぞれ独立に、
ωx =tan-1(fr x /rH)
ωy =tan-1(fr y /rH)
というように定義することで、空間周波数成分の方向および変移量の方向を考慮して感度係数Wk,l (ωx ,ωy )を決定するという構成を採ったのである。
Therefore, in the present invention, when the sensitivity coefficient calculation method (part 1) is used, ~ g (η, ω) is decomposed into the x direction and the y direction, and ~ F k, l (ux ) , U y , ω x , ω y ) are defined as in equation (15), and are decomposed into η x , η y in order to consider the direction of η, and these η x , η y are respectively Independently
η x = θ (r, H) u x / 4N
η y = θ (r, H) u y / 4N
Defined and so, further, in order to consider the direction of the omega omega x, decompose so as omega y, these omega x, omega y and independently,
ω x = tan -1 (f r d x / rH)
ω y = tan -1 (f r d y / rH)
In this way, the sensitivity coefficient W k, lx , ω y ) is determined in consideration of the direction of the spatial frequency component and the direction of the shift amount.

そして、本発明では、感度係数の算出手法(その2)で構成する場合には、g(η)を、
η(u,r)=θ(r,H)u/4N
θ(r,H)=(1/H)×arctan(1/r)×(180/π)
に従って、u,rの関数^g(u,r)に拡張して、この^g(u,r)をx方向とy方向とに分解する形で、〜Fk,l (ux ,uy ,rx ,ry )を式(19)のように定義することで、空間周波数成分の方向および変移量の方向を考慮して感度係数Wk,l (rx ,ry )を決定するという構成を採ったのである。
And in this invention, when it comprises with the calculation method (the 2) of a sensitivity coefficient, g ((eta)) is set to
η (u, r) = θ (r, H) u / 4N
θ (r, H) = (1 / H) × arctan (1 / r) × (180 / π)
Is extended to u, r function ^ g (u, r), and this ^ g (u, r) is decomposed into x-direction and y-direction, ~ F k, l (u x , u The sensitivity coefficient W k, l (r x , r y ) is determined in consideration of the direction of the spatial frequency component and the direction of the shift amount by defining y , r x , r y ) as in equation (19). The composition of doing is taken.

この構成に従って、本発明によれば、主観画質を適切に評価した符号化歪みの尺度を導入することができるようになり、これにより、符号化パラメータの選択に用いるコスト関数として、主観画質を反映したものを実現できるようになる。   In accordance with this configuration, according to the present invention, it is possible to introduce a measure of coding distortion that appropriately evaluates subjective image quality, thereby reflecting subjective image quality as a cost function used for coding parameter selection. Will be realized.

次に、本発明により構成される動画像符号化装置の構成について説明する。   Next, the configuration of the moving picture coding apparatus constructed according to the present invention will be described.

本発明の動画像符号化装置は、前述した感度係数の算出手法(その1)で構成される場合には、フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する構成を採るときに、(1)変換行列の基底画像の空間周波数成分を算出する第1の算出手段と、(2)符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する推定手段と、(3)第1の算出手段の算出した空間周波数成分の持つ空間周波数の水平成分と推定手段の推定した変移量の水平成分とに基づいて、水平方向の視覚感度関数を算出するとともに、第1の算出手段の算出した空間周波数成分の持つ空間周波数の垂直成分と推定手段の推定した変移量の垂直成分とに基づいて、垂直方向の視覚感度関数を算出する第2の算出手段と、(4)第2の算出手段の算出した水平方向および垂直方向の視覚感度関数に基づいて、第1の算出手段の算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、第1の算出手段の算出した各空間周波数成分の重要度を算出する第3の算出手段と、(5)第3の算出手段の算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する決定手段とを備えるように構成する。   When the moving picture coding apparatus according to the present invention is configured by the sensitivity coefficient calculation method (part 1) described above, the prediction error signal obtained by the inter-frame prediction is transformed by transform coding and quantization. When adopting a configuration for encoding a moving image by performing information compression, (1) a first calculation means for calculating a spatial frequency component of a base image of a transformation matrix, and (2) an image of an encoding target block Estimating means for estimating a shift amount indicating temporal movement of the signal; (3) a horizontal component of the spatial frequency of the spatial frequency component calculated by the first calculating means, and a horizontal component of the shift amount estimated by the estimating means; Based on the vertical direction based on the vertical component of the spatial frequency of the spatial frequency component calculated by the first calculation means and the vertical component of the displacement estimated by the estimation means. Direction A second calculating means for calculating a sensitivity function; and (4) weighting the spatial frequency component calculated by the first calculating means based on the visual sensitivity functions in the horizontal direction and the vertical direction calculated by the second calculating means. And (5) importance calculated by the third calculation means based on the weighted spatial frequency components, and (5) importance calculated by the third calculation means. And determining means for determining a parameter to be used for encoding the block to be encoded by evaluating the encoding cost by using the amount of encoding distortion weighted using.

また、本発明の動画像符号化装置は、前述した感度係数の算出手法(その2)で構成される場合には、フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する構成を採るときに、(1)変換行列の基底画像の空間周波数成分を算出する第1の算出手段と、(2)符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する推定手段と、(3)推定手段の推定した変移量の水平成分に基づいて、水平方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、第1の算出手段の算出した空間周波数成分の持つ空間周波数の水平成分とその決定した視距離パラメータとに基づいて、水平方向の視覚感度関数を算出するとともに、推定手段の推定した変移量の垂直成分に基づいて、垂直方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、第1の算出手段の算出した空間周波数成分の持つ空間周波数の垂直成分とその決定した視距離パラメータとに基づいて、垂直方向の視覚感度関数を算出する第2の算出手段と、(4)第2の算出手段の算出した水平方向および垂直方向の視覚感度関数に基づいて、第1の算出手段の算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、第1の算出手段の算出した各空間周波数成分の重要度を算出する第3の算出手段と、(5)第3の算出手段の算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する決定手段とを備えるように構成する。   In addition, when the moving picture coding apparatus according to the present invention is configured by the sensitivity coefficient calculation method (part 2) described above, transform coding and quantization are performed on a prediction error signal obtained by interframe prediction. (1) First calculation means for calculating a spatial frequency component of a base image of a transformation matrix, and (2) an encoding target block, when adopting a configuration for encoding a moving image by performing information compression by encoding , An estimation means for estimating a shift amount indicating temporal movement of the image signal, and (3) a view necessary for calculating a visual sensitivity function in the horizontal direction based on the horizontal component of the shift amount estimated by the estimation means. A distance parameter is determined, a visual sensitivity function in the horizontal direction is calculated based on the horizontal component of the spatial frequency of the spatial frequency component calculated by the first calculation means and the determined viewing distance parameter, and the estimation means of Based on the vertical component of the determined shift amount, a visual distance parameter necessary for calculating the visual sensitivity function in the vertical direction is determined, and the vertical component of the spatial frequency of the spatial frequency component calculated by the first calculation means And a second calculation means for calculating a visual sensitivity function in the vertical direction based on the determined visual distance parameter, and (4) based on the visual sensitivity functions in the horizontal direction and the vertical direction calculated by the second calculation means. The third calculation for weighting the spatial frequency component calculated by the first calculation means and calculating the importance of each spatial frequency component calculated by the first calculation means based on the weighted spatial frequency component And (5) an encoding cost is evaluated using an amount of encoding distortion weighted by using the importance calculated by the third calculating means, so that the parameter used for encoding the encoding target block is calculated. Configured to and a determination means for determining.

ここで、第3の算出手段は、重み付けした空間周波数成分の各空間周波数についての二乗和と、その重み付けをしない空間周波数成分の各空間周波数についての二乗和との比値を算出することで、第1の算出手段の算出した各空間周波数成分の重要度を算出することがある。   Here, the third calculation means calculates a ratio value of the sum of squares for each spatial frequency of the weighted spatial frequency component and the sum of squares for each spatial frequency of the spatial frequency component that is not weighted, The importance of each spatial frequency component calculated by the first calculation means may be calculated.

また、第1の算出手段は、基底画像の周辺にゼロ値を埋め込んだ修正基底画像を用いて空間周波数成分を算出することがある。   The first calculation unit may calculate a spatial frequency component using a corrected base image in which a zero value is embedded around the base image.

以上の各処理手段が動作することで実現される本発明の動画像符号化方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The moving image encoding method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on a suitable computer-readable recording medium. Alternatively, the present invention is realized by being provided via a network, installed when the present invention is carried out, and operating on a control means such as a CPU.

本発明では、動き補償によるフレーム間予測と直交変換を組み合わせたブロックベースの符号化方式に対して、空間周波数成分の方向および変移量の方向を考慮することにより時空間周波数を推定して、主観画質を適切に評価した符号化歪みの尺度を導入する。   The present invention estimates the spatio-temporal frequency by taking into account the direction of the spatial frequency component and the direction of the shift amount for the block-based coding method combining inter-frame prediction by motion compensation and orthogonal transform. Introduce a measure of coding distortion with appropriate evaluation of image quality.

これにより、本発明によれば、符号化パラメータの選択に用いるコスト関数として、主観画質を反映したものを実現できるようになることで、高能率の符号化を実現できるようになる。   Thus, according to the present invention, it is possible to realize a cost function that reflects subjective image quality as a cost function used for selecting an encoding parameter, thereby realizing highly efficient encoding.

以下、実施の形態に従って本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments.

最初に、感度係数の算出手法(その1)で構成される実施の形態に従って本発明を詳細に説明する。   First, the present invention will be described in detail according to an embodiment constituted by a sensitivity coefficient calculation method (part 1).

図1に、本発明の適用される動画像符号化装置1の装置構成を図示する。   FIG. 1 illustrates a device configuration of a moving image encoding device 1 to which the present invention is applied.

本発明の適用される動画像符号化装置1は、時空間視覚感度を考慮してH.264に従って動画像を符号化する処理を行うものであり、この図に示すように、符号化対象マクロブロックの符号化に用いる符号化パラメータを選択する符号化パラメータ選択部10と、符号化パラメータ選択部10の選択した符号化パラメータを使って符号化対象マクロブロックを符号化する符号化部20とを備える。   The moving image encoding apparatus 1 to which the present invention is applied is an H.264 image taking into account spatiotemporal visual sensitivity. H.264 encoding a moving image, and as shown in this figure, a coding parameter selection unit 10 that selects a coding parameter used for coding a coding target macroblock, and a coding parameter selection And an encoding unit 20 that encodes the encoding target macroblock using the encoding parameter selected by the unit 10.

図2〜図4に、符号化パラメータ選択部10の実行するフローチャートの一例を図示する。ここで、このフローチャートでは、符号化パラメータ選択部10が符号化パラメータとして最適な予測モードを選択することを想定している。   2 to 4 show examples of flowcharts executed by the encoding parameter selection unit 10. Here, in this flowchart, it is assumed that the encoding parameter selection unit 10 selects an optimal prediction mode as an encoding parameter.

符号化パラメータ選択部10は、符号化対象マクロブロックの符号化に用いる最適な予測モードを選択する場合には、図2のフローチャートに示すように、まず最初に、ステップS101で、予測モードの初期値(初期値となる予測モード)を設定する。   When selecting the optimal prediction mode used for encoding the encoding target macroblock, the encoding parameter selection unit 10 firstly sets the initial prediction mode in step S101 as shown in the flowchart of FIG. Set the value (prediction mode to be the initial value).

続いて、ステップS102で、最小コストを格納するレジスタ(以下、最小コストレジスタと称することがある)に対して大きな値を示す初期コストを格納するとともに、最適な予測モードを格納するレジスタ(以下、最適モードレジスタと称することがある)に対して意味のない値を格納することで、これらのレジスタを初期化する。   Subsequently, in step S102, an initial cost indicating a large value is stored in a register for storing a minimum cost (hereinafter also referred to as a minimum cost register), and a register for storing an optimal prediction mode (hereinafter, referred to as a minimum cost register). These registers are initialized by storing meaningless values for (sometimes referred to as optimal mode registers).

続いて、ステップS103で、符号化対象マクロブロックの変移量(前述した(dx ,dy ))を推定する。この推定方法については、外部より与えられるものとする。例えば、H.264の参照ソフトウェアJMが算出する動きベクトルを、以下で使用する変移量の推定値として用いることも可能である。あるいは、符号化対象マクロブロックと参照マクロブロックとの絶対値誤差和を最小化する規範に従って、推定変移量を算出することも可能である。 Subsequently, in step S103, the shift amount (the above-mentioned (d x , dy )) of the encoding target macro block is estimated. This estimation method is given from the outside. For example, H.M. It is also possible to use a motion vector calculated by the H.264 reference software JM as an estimated value of the shift amount used below. Alternatively, the estimated shift amount can be calculated according to a standard that minimizes the sum of absolute value errors between the encoding target macroblock and the reference macroblock.

続いて、ステップS104で、設定されている処理対象の予測モード、その予測モードによる予測ベクトル、量子化パラメータ、符号化対象フレーム信号、参照フレーム信号を入力として、その予測モードを用いて符号化する場合の符号量を算出する。具体的な算出方法は、H.264の参照ソフトウェアJMの方法に従う。   Subsequently, in step S104, the set prediction mode of the processing target, the prediction vector based on the prediction mode, the quantization parameter, the encoding target frame signal, and the reference frame signal are input, and encoding is performed using the prediction mode. The code amount in the case is calculated. The specific calculation method is as follows. According to the H.264 reference software JM method.

続いて、ステップS105で、最初に、ステップS103で推定した変移量に基づいて時空間視覚感度を考慮した重みを決定し、次に、設定されている処理対象の予測モード、その予測モードによる予測ベクトル、量子化パラメータ、符号化対象フレーム信号、参照フレーム信号を入力として、それらの入力信号とその決定した重みとに基づいて、その予測モードを用いて符号化する場合の重み付き歪み量を算出する。具体的な算出方法については、図3および図4のフローチャートで説明する。   Subsequently, in step S105, first, a weight considering the spatiotemporal visual sensitivity is determined based on the amount of transition estimated in step S103, and then, the prediction mode to be processed and the prediction based on the prediction mode are determined. Calculates the weighted distortion amount when encoding using the prediction mode based on the input signal and the determined weight based on the vector, quantization parameter, encoding target frame signal, and reference frame signal. To do. A specific calculation method will be described with reference to the flowcharts of FIGS.

続いて、ステップS106で、設定されている処理対象の予測モード、量子化パラメータを入力として、その予測モードを用いて符号化する場合の未定乗数を算出する。   Subsequently, in step S106, the prediction mode to be processed and the quantization parameter that have been set are input, and an undetermined multiplier for encoding using the prediction mode is calculated.

続いて、ステップS107で、ステップS104で算出した符号量と、ステップS105で算出した重み付き歪み量と、ステップS106で算出した未定乗数とに基づいて、式(11)で示されるR−Dコストを算出する。   Subsequently, in step S107, based on the code amount calculated in step S104, the weighted distortion amount calculated in step S105, and the undetermined multiplier calculated in step S106, the RD cost represented by Expression (11) is used. Is calculated.

続いて、ステップS108で、その算出したR−Dコストと最小コストレジスタに格納されているコストとを比較して、その算出したR−Dコストの方が最小コストレジスタに格納されているコストよりも小さいことを判断するときには、ステップS109に進んで、その算出したR−Dコストを最小コストレジスタに格納し、続くステップS110で、設定されている処理対象の予測モードの識別情報を最適モードレジスタに格納する。一方、ステップS108で、算出したR−Dコストの方が最小コストレジスタに格納されているコストよりも大きいことを判断するときには、このステップS109,110の処理を省略する。   Subsequently, in step S108, the calculated RD cost is compared with the cost stored in the minimum cost register, and the calculated RD cost is greater than the cost stored in the minimum cost register. If it is determined that the value is smaller, the process proceeds to step S109, where the calculated RD cost is stored in the minimum cost register, and in step S110, the identification information of the prediction mode to be processed is set in the optimum mode register. To store. On the other hand, when it is determined in step S108 that the calculated RD cost is higher than the cost stored in the minimum cost register, the processes in steps S109 and 110 are omitted.

続いて、ステップS111で、全ての予測モードについて処理したのか否かを判断して、全ての予測モードについて処理していないことを判断するときには、ステップS112に進んで、予め定められる順番に従って未処理の予測モードの中から予測モードを1つ選択することで処理対象の予測モードを更新してから、ステップS104の処理に戻る。   Subsequently, in step S111, it is determined whether or not processing has been performed for all prediction modes, and when it is determined that processing has not been performed for all prediction modes, the process proceeds to step S112, and unprocessed according to a predetermined order. After the prediction mode to be processed is updated by selecting one prediction mode from among the prediction modes, the process returns to step S104.

一方、ステップS112で、全ての予測モードについて処理したことを判断するときには、ステップS113に進んで、最適モードレジスタに格納されている予測モードを最適な予測モードとして出力して、処理を終了する。   On the other hand, when it is determined in step S112 that all the prediction modes have been processed, the process proceeds to step S113, the prediction mode stored in the optimum mode register is output as the optimum prediction mode, and the process ends.

次に、図3のフローチャートに従って、図2のフローチャートのステップS105で実行する重み付き歪み量の算出処理について説明する。   Next, according to the flowchart of FIG. 3, the weighted distortion amount calculation process executed in step S105 of the flowchart of FIG. 2 will be described.

この重み付き歪み量の算出処理は、式(12)の算出式を計算することで実行するものである。なお、以下のフローチャートでは、説明の便宜上、式(12)中に記載されるサブブロックiについての変換係数の総和処理については、マクロブロックの変換係数の総和処理に含まれるものとして省略している。   The calculation processing of the weighted distortion amount is executed by calculating the calculation formula of Formula (12). In the following flowchart, for convenience of explanation, the transformation coefficient summation process for sub-block i described in Expression (12) is omitted as being included in the macroblock transformation coefficient summation process. .

符号化パラメータ選択部10は、図2のフローチャートのステップS105の処理に入ると、図3のフローチャートに示すように、まず最初に、ステップS201で、式(12)中の^Cm,q s(i)[k,l](s=Y,U,V)で示される各変換係数を復号により求める。 When the encoding parameter selection unit 10 enters the process of step S105 in the flowchart of FIG. 2, first, as shown in the flowchart of FIG. 3, in step S201, ^ C m, q s in equation (12). (i) Each transform coefficient represented by [k, l] (s = Y, U, V) is obtained by decoding.

続いて、ステップS202で、図2のフローチャートのステップS103で推定した符号化対象マクロブロックの変移量(前述した(dx ,dy ))を読み込む。なお、この変移量は図4のフローチャートの実行にあたって必要となるものであり、この段階で読み込んでおく。 Subsequently, in step S202, the shift amount (the aforementioned (d x , dy )) of the encoding target macroblock estimated in step S103 of the flowchart of FIG. 2 is read. This amount of change is necessary for executing the flowchart of FIG. 4, and is read at this stage.

続いて、ステップS203で、変換係数の第k,l成分の値kについて指定するカウンタkを0に初期化し、変換係数の第k,l成分の値lについて指定するカウンタlを0に初期化し、さらに、レジスタSを0に初期化する。   Subsequently, in step S203, a counter k designated for the kth and lth component value k of the transform coefficient is initialized to 0, and a counter l designated for the kth and lth component value l of the transform coefficient is initialized to 0. Further, the register S is initialized to 0.

続いて、ステップS204で、式(12)中に記載される
|Cm s(i)[k,l]−^Cm,q s(i)[k,l]|2
ただし、s=Y,U,V
の算出式に従って、変換係数の第k,l成分の符号化歪みの歪み量を算出する。
Subsequently, in step S204, | C m s (i) [k, l] − ^ C m, q s (i) [k, l] | 2 described in equation (12)
However, s = Y, U, V
The amount of coding distortion of the kth and lth components of the transform coefficient is calculated according to

続いて、ステップS205で、式(12)中に記載される変換係数の第k,l成分の感度係数Wk,l s (s=Y,U,V)を設定する。具体的な設定方法については、図4のフローチャートで説明する。 Subsequently, in step S205, sensitivity coefficients W k, l s (s = Y, U, V) of the k-th and l-th components of the conversion coefficient described in Expression (12) are set. A specific setting method will be described with reference to the flowchart of FIG.

続いて、ステップS206で、ステップS204で算出した符号化歪みの歪み量に対して、ステップS205で設定した感度係数Wk,l s (s=Y,U,V)を乗ずることで、変換係数の第k,l成分についての重み付き歪み量を算出する。 Subsequently, in step S206, the transform coefficient is calculated by multiplying the amount of coding distortion calculated in step S204 by the sensitivity coefficient W k, l s (s = Y, U, V) set in step S205. The weighted distortion amount for the kth and lth components is calculated.

続いて、ステップS207で、ステップS206で算出した乗算値をレジスタSに加算する。   Subsequently, the multiplication value calculated in step S206 is added to the register S in step S207.

続いて、ステップS208で、変換係数の全成分について処理したのか否かを判断して、変換係数の全成分について処理していないことを判断するときには、ステップS209に進んで、変換係数の全成分を処理すべく、カウンタkあるいはカウンタlに1を加算してから、ステップS204の処理に戻る。   Subsequently, in step S208, it is determined whether or not all components of the transform coefficient have been processed, and when it is determined that all components of the transform coefficient have not been processed, the process proceeds to step S209, where all components of the transform coefficient are processed. 1 is added to the counter k or the counter l, and the process returns to step S204.

一方、ステップS208で、変換係数の全成分について処理したことを判断するときには、重み付き歪み量の算出処理を終了したことを判断して、ステップS210に進んで、レジスタSに格納されている重み付き歪み量を出力して、処理を終了する。   On the other hand, when it is determined in step S208 that all components of the transform coefficient have been processed, it is determined that the weighted distortion amount calculation processing has been completed, and the process proceeds to step S210 to store the weight stored in the register S. The attached distortion amount is output and the process is terminated.

次に、図4のフローチャートに従って、図3のフローチャートのステップS205で実行する感度係数Wk,l s の設定処理について説明する。 Next, the sensitivity coefficient W k, l s setting process executed in step S205 of the flowchart of FIG. 3 will be described with reference to the flowchart of FIG.

符号化パラメータ選択部10は、図3のフローチャートのステップS205の処理に入ることで、変換係数の第k,l成分の感度係数Wk,l s (s=Y,U,V)を設定する必要があると、図4のフローチャートに示すように、まず最初に、ステップS301で、図3のフローチャートのステップS202で読み込んだ符号化対象マクロブロックの変移量(前述した(dx ,dy ))を読み込む。続いて、ステップS302で、変換行列のサイズを読み込む。 The coding parameter selection unit 10 sets the sensitivity coefficient W k, l s (s = Y, U, V) of the k-th and l-th components of the transform coefficient by entering the process of step S205 in the flowchart of FIG. If necessary, as shown in the flowchart of FIG. 4, first, in step S301, the shift amount of the encoding target macroblock read in step S202 of the flowchart of FIG. 3 (the above-mentioned (d x , d y )). ). Subsequently, in step S302, the size of the transformation matrix is read.

続いて、ステップS303で、第k,l番目の基底画像(前述したfk,l (x,y))を算出し、続くステップS304で、その算出した基底画像に対してゼロを埋め込むことにより、基底画像の2倍のサイズを持つ修正基底画像を生成する。すなわち、式(13)で示される修正基底画像を生成するのである。 Subsequently, in step S303, the kth and lth base images (f k, l (x, y) described above) are calculated, and in step S304, zeros are embedded in the calculated base images. A modified base image having a size twice that of the base image is generated. That is, the modified base image represented by the equation (13) is generated.

続いて、ステップS305で、生成した修正基底画像に対して離散フーリエ変換を施すことで、空間周波数分析を行う。すなわち、生成した修正基底画像に対して式(14)で示される離散フーリエ変換を施すことで、フーリエ係数Fk,l (ux,y )を算出するのである。 Subsequently, in step S305, spatial frequency analysis is performed by performing discrete Fourier transform on the generated corrected base image. That is, the Fourier coefficient F k, l (u x, u y ) is calculated by applying the discrete Fourier transform expressed by the equation (14) to the generated corrected base image.

続いて、ステップS306で、式(16)で示される視覚感度関数g(η,ω)を読み込む。   Subsequently, in step S306, the visual sensitivity function g (η, ω) represented by the equation (16) is read.

続いて、ステップS307で、修正基底画像の空間周波数成分の第ux 成分の値ux について指定するカウンタuxを0に初期化し、修正基底画像の空間周波数成分の第uy 成分の値uy について指定するカウンタuyを0に初期化し、さらに、レジスタW1[k,l]を0に初期化し、レジスタW2[k,l]を0に初期化する。 Subsequently, in step S307, the counter ux specifying the values u x of the u x component of the spatial frequency component of the corrected base image is initialized to 0, the u y component values u y of the spatial frequency component of the modified base image Is initialized to 0, the register W1 [k, l] is initialized to 0, and the register W2 [k, l] is initialized to 0.

続いて、ステップS308−1で、修正基底画像の空間周波数成分の第ux 成分および変移量のdx に対して、視覚感度関数の対応する値を算出するとともに、ステップS308−2で、修正基底画像の空間周波数成分の第uy 成分および変移量のdy に対して、視覚感度関数の対応する値を算出する。 Then, in step S308-1, relative to the u x component and displacement amount of d x of the spatial frequency component of the modified base image, and calculates the corresponding value of visual sensitivity function, in step S308-2, modified respect to the first u y component and displacement amount of d y spatial frequency components of the base image, and calculates the corresponding value of visual sensitivity function.

すなわち、前述したように、
ηx =θ(r,H)ux /4N,ωx =tan-1(fr x /rH)
を求めて、視覚感度関数g(η,ω)に代入することで、視覚感度関数の対応する値であるg(ηx,ωx )を算出するとともに、
ηy =θ(r,H)uy /4N,ωy =tan-1(fr y /rH)
を求めて、視覚感度関数g(η,ω)に代入することで、視覚感度関数の対応する値であるg(ηy,ωy )を算出するのである。なお、g(ηx,ωx )、g(ηy,ωy )の算出にあたっては、式(17)を考慮することになる。
That is, as mentioned above,
η x = θ (r, H ) u x / 4N, ω x = tan -1 (f r d x / rH)
Is calculated and substituted into the visual sensitivity function g (η , ω) to calculate g (η x, ω x ) , which is the corresponding value of the visual sensitivity function,
η y = θ (r, H ) u y / 4N, ω y = tan -1 (f r d y / rH)
Is calculated and substituted into the visual sensitivity function g (η , ω) to calculate g (η y, ω y ) , which is a corresponding value of the visual sensitivity function. In calculating g (η x, ω x ) and g (η y, ω y ), equation (17) is considered.

続いて、ステップS309で、ステップS308−1,2で算出した視覚感度関数の算出値を修正基底画像の空間周波数成分の第ux,y 成分に乗ずる。すなわち、式(15)で示されるように、フーリエ係数Fk,l (ux,y )に対して、g(ηx,ωx )×g(ηy,ωy )を乗ずるのである。 Subsequently, in step S309, the multiplying calculation value of visual sensitivity function calculated in step S308-1,2 first u x of the spatial frequency component of the modified base image, the u y component. That is, as shown in equation (15), the Fourier coefficient F k, l (u x, u y) with respect to, is the multiplying g (η x, ω x) × g (η y, ω y) of .

続いて、ステップS310で、ステップS309で得た乗算値の2乗値を算出して、その算出値をレジスタW1[k,l]に加算する。すなわち、式(18)の分子の値を求めるべく、Fk,l (ux,y )×g(ηx,ωx )×g(ηy,ωy )の2乗値をレジスタW1[k,l]に加算するのである。 Subsequently, in step S310, the square value of the multiplication value obtained in step S309 is calculated, and the calculated value is added to the register W1 [k, l]. That is, the square value of F k, l (ux , u y ) × g (η x, ω x ) × g (η y, ω y ) is obtained in the register W1 in order to obtain the numerator value of the equation (18). It is added to [k, l].

続いて、ステップS311で、修正基底画像の空間周波数成分の第ux,y 成分の2乗値を算出して、その算出値をレジスタW2[k,l]に加算する。すなわち、式(18)の分母の値を求めるべく、Fk,l (ux,y )の2乗値をレジスタW2[k,l]に加算するのである。 Subsequently, in step S311, a square value of the u x and u y components of the spatial frequency component of the corrected base image is calculated, and the calculated value is added to the register W2 [k, l]. That is, the square value of F k, l (u x, u y ) is added to the register W2 [k, l] in order to obtain the value of the denominator of equation (18).

続いて、ステップS312で、修正基底画像の全空間周波数成分について処理したのか否かを判断して、変換係数の全空間周波数成分について処理していないことを判断するときには、ステップS313に進んで、修正基底画像の全空間周波数成分を処理すべく、カウンタuxあるいはカウンタuyに1を加算してから、ステップS308−1,2の処理に戻る。   Subsequently, in step S312, when it is determined whether or not all spatial frequency components of the modified base image have been processed, and when it is determined that all spatial frequency components of the transform coefficient have not been processed, the process proceeds to step S313. In order to process all the spatial frequency components of the corrected base image, 1 is added to the counter ux or the counter ui, and then the process returns to the processing of steps S308-1 and S308-2.

一方、ステップS312で、修正基底画像の全空間周波数成分について処理したことを判断するときには、ステップS314に進んで、レジスタW1[k,l]の値をレジスタW2[k,l]の値で割算することで感度係数Wk,l s を算出してそれを出力して、処理を終了する。 On the other hand, when it is determined in step S312 that all spatial frequency components of the corrected base image have been processed, the process proceeds to step S314, and the value of the register W1 [k, l] is divided by the value of the register W2 [k, l]. By calculating the sensitivity coefficient W k, l s and outputting it, the process is terminated.

このようにして、符号化パラメータ選択部10は、図2〜図4のフローチャートを実行することで、符号化対象マクロブロックの符号化に用いる最適な予測モードを時空間視覚感度を考慮して選択するように処理するのである。   In this way, the encoding parameter selection unit 10 selects the optimum prediction mode used for encoding the encoding target macroblock in consideration of the spatiotemporal visual sensitivity by executing the flowcharts of FIGS. It is processed like this.

以上に説明した処理を要約すると、以下の通りである。   The processing described above is summarized as follows.

(1)DCTのサイズを読み込む(N×Nとする)
(2)DCTの基底画像を算出する
(3)(2)の基底画像に対して、ゼロパディングにより、2N×2Nの画像を生成す る。ここで得られた画像を修正基底画像と呼ぶ。具体的な生成方法は、式(13 )に従う
(4)(3)の修正基底画像に対して、DFTを実施し、修正基底画像内の空間周波数 成分の分布を算出する。具体的な算出方法は、式(14)に従う
(5)視覚感度関数(CSF)を読み込む
(6)(4)の空間周波数分布を(5)のCSFで重み付けを行う。具体的な算出方法 は、式(15)に従う
(7)(6)で得られた重み付け後の空間周波数成分を、全空間周波数について和をと る
(8)(7)の処理で得られた各空間周波数成分に対する加重和を各空間周波数成分に 対する歪み量の重み付けに用いる
上記の(6)が本発明での新規の処理となる。具体的には、以下の通りである。
(1) Read the size of DCT (N × N)
(2) DCT base image is calculated (3) A 2N × 2N image is generated by zero padding for the base image of (2). The image obtained here is called a corrected base image. A specific generation method follows Formula (13): (4) DFT is performed on the modified base image of (3), and the distribution of spatial frequency components in the modified base image is calculated. A specific calculation method follows equation (14). (5) Read visual sensitivity function (CSF) (6) The spatial frequency distribution of (4) is weighted with the CSF of (5). The specific calculation method follows equation (15). The weighted spatial frequency components obtained in (7) and (6) are summed for all spatial frequencies. (8) Obtained by the processing in (7) The weighted sum for each spatial frequency component is used for weighting the amount of distortion for each spatial frequency component. (6) above is a novel process in the present invention. Specifically, it is as follows.

入力:各基底画像に対する空間周波数Fk,l [ux ,uy ](ux ,uy =0,1 ,... ,2N−1)、動きベクトルdx ,dy 、CSFg(η,ω)
出力:ブロックに対する重み
処理手順:
(1)動きベクトル(dx ,dy )を読み込む
(2)ux =0
(3)uy =0
(4)(ux ,dx )を引数とするCSF値g(ux ,dx )を算出
(5)(uy ,dy )を引数とするCSF値g(uy ,dy )を算出
(6)〜F[ux ,uy ]=F[ux ,uy ]g(ux ,dx )g(uy ,dy
(7)ux ++
(8)ux =2Nならば次へ。そうでなければ、(4)へ
(9)uy ++
(10)uy =2Nならば次へ。そうでなければ、(3)へ
(11)重み係数の算出W=|〜E|/|E|
ここで、|E|=ΣuxΣuyE[ux ][uy 2
|〜E|=ΣuxΣuy〜E[ux ][uy 2
図5〜図7に、図2〜図4のフローチャートを実行すべく構成される符号化パラメータ選択部10の装置構成を図示する。
Input: spatial frequency F k for each base image, l [u x, u y ] (u x, u y = 0,1, ..., 2N-1), the motion vector d x, d y, CSFg ( η , Ω)
Output: Weight for block Procedure:
(1) Read a motion vector (d x , d y ) (2) u x = 0
(3) u y = 0
(4) (u x, d x) is referred to as argument CSF value g (u x, d x) calculated (5) (u y, d y) CSF value g to an argument (u y, d y) (6) to F [u x , u y ] = F [u x , u y ] g (u x , d x ) g (u y , dy )
(7) u x ++
(8) If u x = 2N, go to the next. Otherwise, go to (4) (9) u y ++
(10) If u y = 2N, go to the next. Otherwise, go to (3) (11) Calculate weighting factor W = | ~ E | / | E |
Where | E | = Σ ux Σuy E [u x ] [u y ] 2
| ˜E | = Σ ux Σuy˜E [u x ] [u y ] 2
5 to 7 show the apparatus configuration of the coding parameter selection unit 10 configured to execute the flowcharts of FIGS. 2 to 4.

次に、これらの図5〜図7に従って、符号化パラメータ選択部10の装置構成について説明する。   Next, the apparatus configuration of the encoding parameter selection unit 10 will be described with reference to FIGS.

符号化パラメータ選択部10は、図2のフローチャートを実行するために、図5に示すように、符号化対象ブロックの変移量の推定値を格納する変移量記憶部101と、符号化対象ブロックの予測ベクトルを算出する予測ベクトル算出部102と、予測ベクトル算出部102の算出した予測ベクトルを格納する予測ベクトル記憶部103と、予測モードの初期値を設定する初期モード設定部104と、処理対象となる予測モードを設定するモード設定部105と、初期モード設定部104やモード設定部105の設定した予測モードを格納するモード記憶部106と、モード記憶部106の格納する予測モードで符号化した場合の符号量を算出する符号量算出部107と、符号量算出部107の算出した符号量を格納する符号量記憶部108と、モード記憶部106の格納する予測モードで符号化した場合の重み付き歪み量を算出する重み付き歪み量算出部109と、重み付き歪み量算出部109の算出した重み付き歪み量を格納する重み付き歪み量記憶部110と、モード記憶部106の格納する予測モードで符号化した場合の未定乗数を算出する未定乗数算出部111と、未定乗数算出部111の算出した未定乗数を格納する未定乗数記憶部112と、符号量と重み付き歪み量と未定乗数とに基づいて、モード記憶部106の格納する予測モードで符号化した場合のコストを算出するコスト算出部113と、コスト算出部113の算出したコストを格納するコスト記憶部114と、これまでに得た最小コストを格納する最小コスト記憶部115と、最小コスト記憶部115の格納する最小コストを参照しつつ、コスト算出部113の算出したコストがこれまでに得た最小コストであるのか否かを判定する最小コスト判定部116と、最適な予測モードを格納する最適モード記憶部117と、最小コスト判定部116が最小コストであることを判断したときに、モード記憶部106の格納する予測モードに従って最適モード記憶部117の格納する予測モードを更新する最適モード更新部118と、最小コスト判定部116が最小コストでないと判定したときには、直ちに予測モードの全てを処理したのか否かを判定し、最小コスト判定部116が最小コストであることを判定したときには、最適モード更新部118からの指示を受けて予測モードの全てを処理したのか否かを判定して、最終の予測モードでないことを判断するときには、モード設定部105に対して次の予測モードの設定を指示する最終モード判定部119と、最終モード判定部119が最終の予測モードであることを判断するときに、最適モード記憶部117の格納する予測モードを最適な予測モードとして出力する最適モード出力部120とを備える。   In order to execute the flowchart of FIG. 2, the encoding parameter selection unit 10, as illustrated in FIG. 5, includes a transition amount storage unit 101 that stores an estimated value of the transition amount of the encoding target block, and an encoding target block. A prediction vector calculation unit 102 that calculates a prediction vector; a prediction vector storage unit 103 that stores a prediction vector calculated by the prediction vector calculation unit 102; an initial mode setting unit 104 that sets an initial value of a prediction mode; A mode setting unit 105 that sets a prediction mode, a mode storage unit 106 that stores a prediction mode set by the initial mode setting unit 104 or the mode setting unit 105, and a prediction mode that is stored in the mode storage unit 106 The code amount calculation unit 107 that calculates the code amount of the code amount, and the code amount storage unit 108 that stores the code amount calculated by the code amount calculation unit 107 , A weighted distortion amount calculation unit 109 that calculates a weighted distortion amount when encoded in the prediction mode stored in the mode storage unit 106, and a weight that stores the weighted distortion amount calculated by the weighted distortion amount calculation unit 109 Attached distortion amount storage unit 110, an unknown multiplier calculation unit 111 that calculates an unknown multiplier when encoded in the prediction mode stored in the mode storage unit 106, and an unknown multiplier that stores the unknown multiplier calculated by the unknown multiplier calculation unit 111 Based on the storage unit 112, the code amount, the weighted distortion amount, and the undetermined multiplier, the cost calculation unit 113 that calculates the cost in the case of encoding in the prediction mode stored in the mode storage unit 106, and the cost calculation unit 113 The cost storage unit 114 that stores the calculated cost, the minimum cost storage unit 115 that stores the minimum cost obtained so far, and the minimum cost storage unit 115 A minimum cost determination unit 116 that determines whether the cost calculated by the cost calculation unit 113 is the minimum cost obtained so far, and an optimal mode storage unit that stores an optimal prediction mode 117, and an optimum mode update unit 118 that updates the prediction mode stored in the optimum mode storage unit 117 according to the prediction mode stored in the mode storage unit 106 when the minimum cost determination unit 116 determines that the cost is the minimum cost; When the minimum cost determination unit 116 determines that it is not the minimum cost, it immediately determines whether or not all of the prediction modes have been processed. When the minimum cost determination unit 116 determines that the minimum cost has been reached, the optimum mode update unit 118 In response to the instruction from, it is determined whether or not all of the prediction modes have been processed, and it is determined that it is not the final prediction mode. When determining, the final mode determination unit 119 that instructs the mode setting unit 105 to set the next prediction mode, and the optimal mode storage unit when determining that the final mode determination unit 119 is the final prediction mode. And an optimal mode output unit 120 that outputs the prediction mode stored in 117 as the optimal prediction mode.

符号化パラメータ選択部10は、この装置構成に従って、図2のフローチャートを実行するのである。   The encoding parameter selection unit 10 executes the flowchart of FIG. 2 according to this apparatus configuration.

図6に、図3のフローチャートを実行する重み付き歪み量算出部109の装置構成を図示する。   FIG. 6 illustrates an apparatus configuration of the weighted distortion amount calculation unit 109 that executes the flowchart of FIG. 3.

重み付き歪み量算出部109は、図3のフローチャートを実行するために、図6に示すように、変換係数を復号する変換係数復号部201と、変換係数復号部201の復号した変換係数を格納する復号変換係数記憶部202と、変換係数と復号変換係数記憶部202の格納する変換係数とに基づいて、変換係数の第k,l成分(k,lは更新されていく)の符号化歪みの歪み量を算出する歪み量算出部203と、歪み量算出部203の算出した歪み量を格納する歪み量記憶部204と、現在処理している変換係数の第k,l成分の値k,lを格納する変換係数インデックス記憶部205と、符号化対象マクロブロックの変移量の推定値を格納する変移量記憶部206と、修正基底画像に対して施される離散フーリエ変換により求められた修正基底画像の空間周波数成分を格納する基底画像DFT記憶部207と、変移量記憶部206の格納する変移量と基底画像DFT記憶部207の格納する修正基底画像の空間周波数成分とに基づいて、変換係数の第k,l成分の感度係数Wk,l を算出する感度係数算出部208と、感度係数算出部208の算出した感度係数を格納する感度係数記憶部209と、歪み量記憶部204の格納する歪み量と感度係数記憶部209の格納する感度係数とを乗算することで、重み付けの歪み量を算出する感度係数乗算部210と、感度係数乗算部210の算出した歪み量を格納する歪み量記憶部211と、歪み量記憶部211に順次格納されていく歪み量の総和を算出することで重み付き歪み量を算出する歪み量和算出部212とを備える。 The weighted distortion amount calculation unit 109 stores the transform coefficient decoding unit 201 that decodes the transform coefficient and the transform coefficient decoded by the transform coefficient decoding unit 201, as illustrated in FIG. 6, in order to execute the flowchart of FIG. Encoding distortion of the kth and lth components (k and l are updated) of the transform coefficient based on the decoded transform coefficient storage unit 202 to be performed and the transform coefficient and the transform coefficient stored in the decoded transform coefficient storage unit 202 A distortion amount calculation unit 203 that calculates the distortion amount of the distortion, a distortion amount storage unit 204 that stores the distortion amount calculated by the distortion amount calculation unit 203, and k, l component values k, The transform coefficient index storage unit 205 that stores l, the transition amount storage unit 206 that stores the estimated value of the transition amount of the encoding target macroblock, and the correction obtained by the discrete Fourier transform performed on the corrected base image Based on the base image DFT storage unit 207 storing the spatial frequency component of the bottom image, the shift amount stored in the shift amount storage unit 206, and the spatial frequency component of the modified base image stored in the base image DFT storage unit 207 A sensitivity coefficient calculation unit 208 that calculates the sensitivity coefficient W k, l of the k-th and l-th components of the coefficient, a sensitivity coefficient storage unit 209 that stores the sensitivity coefficient calculated by the sensitivity coefficient calculation unit 208, and a distortion amount storage unit 204 By multiplying the stored distortion amount by the sensitivity coefficient stored in the sensitivity coefficient storage unit 209, the sensitivity coefficient multiplication unit 210 that calculates the weighted distortion amount, and the distortion that stores the distortion amount calculated by the sensitivity coefficient multiplication unit 210. An amount storage unit 211; and a distortion amount sum calculation unit 212 that calculates a weighted distortion amount by calculating a sum of distortion amounts sequentially stored in the distortion amount storage unit 211.

重み付き歪み量算出部109は、この装置構成に従って、図3のフローチャートを実行するのである。   The weighted distortion amount calculation unit 109 executes the flowchart of FIG. 3 according to this device configuration.

図7に、図4のフローチャートを実行する感度係数算出部208の装置構成を図示する。   FIG. 7 illustrates an apparatus configuration of the sensitivity coefficient calculation unit 208 that executes the flowchart of FIG.

感度係数算出部208は、図4のフローチャートを実行するために、図7に示すように、符号化対象ブロックの変移量の推定値を格納する変移量記憶部301と、視覚感度関数を格納する視覚感度関数記憶部302と、変換行列を格納する変換行列記憶部303と、変換行列のサイズを格納する変換行列サイズ記憶部304と、変換行列記憶部303の格納する変換行列と変換行列サイズ記憶部304の格納する変換行列のサイズとに基づいて、第k,l番目の基底画像を算出する基底画像算出部305と、基底画像算出部305の算出した基底画像を格納する基底画像記憶部306と、基底画像記憶部306の格納する基底画像に基づいて修正基底画像を算出する修正基底画像算出部307と、修正基底画像算出部307の算出した修正基底画像を格納する修正基底画像記憶部308と、修正基底画像記憶部308の格納する修正基底画像に対して離散フーリエ変換を施すDFT処理部309と、DFT処理部309の得た修正基底画像の空間周波数成分を格納する空間周波数成分記憶部310と、現在処理している空間周波数のインデックス(ux,uy:更新されていく)を格納する空間周波数インデックス記憶部311と、視覚感度関数と変移量と空間周波数のインデックスとに基づいて、水平方向の視覚感度関数を算出する水平方向視覚感度関数算出部312と、水平方向視覚感度関数算出部312の算出した水平方向の視覚感度関数を格納する水平方向視覚感度関数記憶部313と、視覚感度関数と変移量と空間周波数のインデックスとに基づいて、垂直方向の視覚感度関数を算出する垂直方向視覚感度関数算出部314と、垂直方向視覚感度関数算出部314の算出した垂直方向の視覚感度関数を格納する垂直方向視覚感度関数記憶部315と、修正基底画像の空間周波数成分と水平方向の感度関数と垂直方向の感度関数とを乗算する乗算部316と、乗算部316の乗算値の2乗値を累積加算する2乗値累積加算部317と、修正基底画像の空間周波数成分の2乗値を累積加算する2乗値累積加算部318と、2乗値累積加算部317の累積加算値と2乗値累積加算部318の累積加算値とを除算する除算部319とを備える。   In order to execute the flowchart of FIG. 4, the sensitivity coefficient calculation unit 208 stores a shift amount storage unit 301 that stores an estimated value of the shift amount of the encoding target block and a visual sensitivity function, as shown in FIG. Visual sensitivity function storage unit 302, conversion matrix storage unit 303 for storing the conversion matrix, conversion matrix size storage unit 304 for storing the size of the conversion matrix, and conversion matrix and conversion matrix size storage stored in the conversion matrix storage unit 303 Based on the size of the transformation matrix stored in the unit 304, the base image calculation unit 305 that calculates the kth and lth base images, and the base image storage unit 306 that stores the base images calculated by the base image calculation unit 305 A corrected base image calculation unit 307 that calculates a corrected base image based on a base image stored in the base image storage unit 306, and a correction base calculated by the correction base image calculation unit 307. A modified base image storage unit 308 that stores images, a DFT processing unit 309 that performs a discrete Fourier transform on the modified base image stored in the modified base image storage unit 308, and a space of the modified base image obtained by the DFT processing unit 309 A spatial frequency component storage unit 310 that stores frequency components, a spatial frequency index storage unit 311 that stores an index (ux, uy: updated) of the spatial frequency currently being processed, a visual sensitivity function, and a shift amount A horizontal visual sensitivity function calculation unit 312 that calculates a horizontal visual sensitivity function based on the spatial frequency index, and a horizontal direction that stores the horizontal visual sensitivity function calculated by the horizontal visual sensitivity function calculation unit 312. Based on the visual sensitivity function storage unit 313, the visual sensitivity function, the shift amount, and the spatial frequency index, the visual sense in the vertical direction Vertical direction visual sensitivity function calculation unit 314 that calculates a function, vertical direction visual sensitivity function storage unit 315 that stores the vertical direction visual sensitivity function calculated by the vertical direction visual sensitivity function calculation unit 314, and the spatial frequency of the corrected base image A multiplication unit 316 that multiplies the component, the horizontal sensitivity function, and the vertical sensitivity function, a square value cumulative addition unit 317 that cumulatively adds the squares of the multiplication values of the multiplication unit 316, and a space of the corrected base image A square value cumulative addition unit 318 that cumulatively adds square values of frequency components; a division unit 319 that divides the cumulative addition value of the square value cumulative addition unit 317 and the cumulative addition value of the square value cumulative addition unit 318; Is provided.

感度係数算出部208は、この装置構成に従って、図4のフローチャートを実行するのである。   The sensitivity coefficient calculation unit 208 executes the flowchart of FIG. 4 according to this device configuration.

以上に説明した実施の形態では、符号化パラメータ選択部10が符号化パラメータとして最適な予測モードを選択することで説明したが、本発明は、予測モード以外の符号化パラメータを選択する場合にもそのまま適用できるものである。   In the embodiment described above, the encoding parameter selection unit 10 has been described as selecting the optimum prediction mode as the encoding parameter. However, the present invention is also applicable to the case of selecting an encoding parameter other than the prediction mode. It can be applied as it is.

例えば、符号化パラメータ選択部10が符号化パラメータとして最適な量子化パラメータを選択する場合には、符号化パラメータ選択部10は、図2のフローチャートに代えて、図8のフローチャートを実行することになる。   For example, when the encoding parameter selection unit 10 selects an optimal quantization parameter as the encoding parameter, the encoding parameter selection unit 10 executes the flowchart of FIG. 8 instead of the flowchart of FIG. Become.

すなわち、符号化パラメータ選択部10は、符号化対象マクロブロックの符号化に用いる最適な量子化パラメータを選択する場合には、図8のフローチャートに示すように、まず最初に、ステップS401で、量子化パラメータの初期値(初期値となる量子化パラメータ)を設定する。   That is, when selecting the optimal quantization parameter used for encoding the macroblock to be encoded, the encoding parameter selection unit 10 firstly, in step S401, the quantum parameter is selected as shown in the flowchart of FIG. The initial value of the quantization parameter (quantization parameter as the initial value) is set.

続いて、ステップS402で、最小コストを格納するレジスタ(最小コストレジスタ)に対して大きな値を示す初期コストを格納するとともに、最適な量子化パラメータを格納するレジスタ(以下、最適量子化パラメータレジスタと称することがある)に対して意味のない値を格納することで、これらのレジスタを初期化する。   Subsequently, in step S402, an initial cost indicating a large value is stored with respect to a register (minimum cost register) for storing a minimum cost, and a register for storing an optimal quantization parameter (hereinafter referred to as an optimal quantization parameter register). These registers are initialized by storing meaningless values.

続いて、ステップS403で、符号化対象マクロブロックの変移量(前述した(dx ,dy ))を推定する。 Subsequently, in step S403, the shift amount (the aforementioned (d x , dy )) of the encoding target macro block is estimated.

続いて、ステップS404で、設定されている量子化パラメータ、符号化に用いる予測モード、その予測モードによる予測ベクトル、符号化対象フレーム信号、参照フレーム信号を入力として、その量子化パラメータを用いて符号化する場合の符号量を算出する。   Subsequently, in step S404, the set quantization parameter, the prediction mode used for encoding, the prediction vector based on the prediction mode, the encoding target frame signal, and the reference frame signal are input, and the encoding is performed using the quantization parameter. The amount of code for conversion is calculated.

続いて、ステップS405で、最初に、ステップS403で推定した変移量に基づいて時空間視覚感度を考慮した重みを決定し、次に、設定されている量子化パラメータ、符号化に用いる予測モード、その予測モードによる予測ベクトル、符号化対象フレーム信号、参照フレーム信号を入力として、それらの入力信号とその決定した重みとに基づいて、その量子化パラメータを用いて符号化する場合の重み付き歪み量を算出する。具体的な算出方法については、図3および図4のフローチャートで説明した通りである。   Subsequently, in step S405, first, a weight considering the spatiotemporal visual sensitivity is determined based on the amount of transition estimated in step S403, and then the set quantization parameter, the prediction mode used for encoding, Weighted distortion amount when encoding using the prediction parameter, the encoding target frame signal, and the reference frame signal in the prediction mode, and encoding using the quantization parameter based on the input signal and the determined weight Is calculated. A specific calculation method is as described in the flowcharts of FIGS.

続いて、ステップS406で、設定されている量子化パラメータ、符号化に用いる予測モードを入力として、その量子化パラメータを用いて符号化する場合の未定乗数を算出する。   Subsequently, in step S406, the set quantization parameter and the prediction mode used for encoding are input, and an undetermined multiplier when encoding using the quantization parameter is calculated.

続いて、ステップS407で、ステップS404で算出した符号量と、ステップS405で算出した重み付き歪み量と、ステップS406で算出した未定乗数とに基づいて、式(11)で示されるR−Dコストを算出する。   Subsequently, in step S407, based on the code amount calculated in step S404, the weighted distortion amount calculated in step S405, and the undetermined multiplier calculated in step S406, the RD cost represented by Expression (11) is used. Is calculated.

続いて、ステップS408で、その算出したR−Dコストと最小コストレジスタに格納されているコストとを比較して、その算出したR−Dコストの方が最小コストレジスタに格納されているコストよりも小さいことを判断するときには、ステップS409に進んで、その算出したR−Dコストを最小コストレジスタに格納し、続くステップS410で、設定されている量子化パラメータを最適量子化パラメータレジスタに格納する。一方、ステップS408で、算出したR−Dコストの方が最小コストレジスタに格納されているコストよりも大きいことを判断するときには、このステップS409,410の処理を省略する。   Subsequently, in step S408, the calculated RD cost is compared with the cost stored in the minimum cost register, and the calculated RD cost is greater than the cost stored in the minimum cost register. If it is determined that the value is smaller, the process proceeds to step S409, where the calculated RD cost is stored in the minimum cost register, and in step S410, the set quantization parameter is stored in the optimum quantization parameter register. . On the other hand, when it is determined in step S408 that the calculated RD cost is higher than the cost stored in the minimum cost register, the processes in steps S409 and 410 are omitted.

続いて、ステップS411で、全ての量子化パラメータについて処理したのか否かを判断して、全ての量子化パラメータについて処理していないことを判断するときには、ステップS412に進んで、予め定められる順番に従って未処理の量子化パラメータの中から量子化パラメータを1つ選択することで処理対象の量子化パラメータを更新してから、ステップS404の処理に戻る。   Subsequently, in step S411, it is determined whether or not all the quantization parameters have been processed, and when it is determined that all the quantization parameters have not been processed, the process proceeds to step S412 in accordance with a predetermined order. After the quantization parameter to be processed is updated by selecting one quantization parameter from the unprocessed quantization parameters, the process returns to step S404.

一方、ステップS411で、全ての量子化パラメータについて処理したことを判断するときには、ステップS413に進んで、最適量子化パラメータレジスタに格納されている量子化パラメータを最適な量子化パラメータとして出力して、処理を終了する。   On the other hand, when it is determined in step S411 that all the quantization parameters have been processed, the process proceeds to step S413, and the quantization parameter stored in the optimum quantization parameter register is output as the optimum quantization parameter. The process ends.

図9に、図8のフローチャートを実行すべく構成される符号化パラメータ選択部10の装置構成を図示する。ここで、図5に示したものと同じものについては同一の記号で示してある。   FIG. 9 illustrates a device configuration of the encoding parameter selection unit 10 configured to execute the flowchart of FIG. Here, the same components as those shown in FIG. 5 are indicated by the same symbols.

この図9に示すように、符号化パラメータ選択部10は、図8のフローチャートを実行するために、前述の初期モード設定部104に代えて初期量子化パラメータ設定部404を備え、前述のモード設定部105に代えて量子化パラメータ設定部405を備え、前述のモード記憶部106に代えて量子化パラメータ記憶部406を備え、前述の最適モード記憶部117に代えて最適量子化パラメータ記憶部417を備え、前述の最適モード更新部118に代えて最適量子化パラメータ更新部418を備え、前述の最終モード判定部119に代えて最終量子化パラメータ判定部419を備え、前述の最適モード出力部120に代えて最適量子化パラメータ出力部420を備えることになる。   As shown in FIG. 9, the encoding parameter selection unit 10 includes an initial quantization parameter setting unit 404 instead of the above-described initial mode setting unit 104 in order to execute the flowchart of FIG. A quantization parameter setting unit 405 instead of the unit 105, a quantization parameter storage unit 406 instead of the mode storage unit 106, and an optimal quantization parameter storage unit 417 instead of the optimal mode storage unit 117. An optimal quantization parameter update unit 418 instead of the optimal mode update unit 118 described above, a final quantization parameter determination unit 419 instead of the final mode determination unit 119 described above, and the optimal mode output unit 120 described above. Instead, an optimum quantization parameter output unit 420 is provided.

次に、感度係数の算出手法(その2)で構成される場合について説明する。   Next, a case where the sensitivity coefficient calculation method (part 2) is used will be described.

感度係数の算出手法(その2)で構成される場合には、符号化パラメータ選択部10は、図4のフローチャートに代えて、図10および図11のフローチャートを実行することになる。   In the case of the sensitivity coefficient calculation method (part 2), the encoding parameter selection unit 10 executes the flowcharts of FIGS. 10 and 11 instead of the flowchart of FIG.

図10および図11のフローチャートと図4のフローチャートとの違いは、図10および図11のフローチャートでは、ステップS301で、符号化対象マクロブロックの変移量(前述した(dx ,dy ))を読み込むと、続くステップS301αで、変移量dx ,dy に対応する視距離パラメータrx ,ry を求めてから、ステップS302の処理に進むようにしている点である。 The difference between the flowcharts of FIGS. 10 and 11 and the flowchart of FIG. 4 is that, in the flowcharts of FIGS. 10 and 11, in step S301, the amount of change of the macroblock to be encoded (the aforementioned (d x , dy )) is changed. read When, in the subsequent step S301arufa, displacement amount d x, vision corresponding to d y distance parameter r x, from seeking r y, is that so that the process proceeds to step S302.

ここで、視距離パラメータrx ,ry を求め方は、前述した式(21)で説明した通りである。 Here, the method of obtaining the viewing distance parameters r x and r y is as described in the above-described equation (21).

そして、図10および図11のフローチャートでは、図4のフローチャートのステップS308−1に相当する処理を実行するステップS308α−1で、修正基底画像の空間周波数成分の第ux 成分および視距離パラメータのrx に対して、視覚感度関数の対応する値を算出し、図4のフローチャートのステップS308−2に相当する処理を実行するステップS308α−2で、修正基底画像の空間周波数成分の第uy 成分および視距離パラメータのry に対して、視覚感度関数の対応する値を算出するようにしている点である。 Then, in the flowchart of FIG. 10 and FIG. 11, in step S308α-1 for executing the processing corresponding to step S308-1 in the flowchart of FIG. 4, the first u x component and a viewing distance parameter of the spatial frequency component of the modified base image against r x, to calculate the corresponding value of visual sensitivity function, at step S308α-2 to perform the processing corresponding to step S308-2 in the flowchart of FIG. 4, first u y of the spatial frequency component of the modified base image The corresponding value of the visual sensitivity function is calculated for the component and the viewing distance parameter r y .

すなわち、ステップS308α−1では、前述したように、
η(ux ,rx )=θ(rx ,H)ux /4N
θ(rx ,H)=(1/H)×arctan(1/rx )×(180/π)
に従って、η(ux ,rx )を求めて、それを視覚感度関数g(η)に代入することで視覚感度関数の対応する値を算出し、ステップS308α−2では、前述したように、
η(uy ,ry )=θ(ry ,H)uy /4N
θ(ry ,H)=(1/H)×arctan(1/ry )×(180/π)
に従って、η(uy ,ry )を求めて、それを視覚感度関数g(η)に代入することで視覚感度関数の対応する値を算出するようにしている点である。
That is, in step S308α-1, as described above,
η (u x, r x) = θ (r x, H) u x / 4N
θ (r x , H) = (1 / H) × arctan (1 / r x ) × (180 / π)
Η (u x , r x ) is calculated and the corresponding value of the visual sensitivity function is calculated by substituting it into the visual sensitivity function g (η). In step S308α-2, as described above,
η (u y , r y ) = θ (r y , H) u y / 4N
θ (r y, H) = (1 / H) × arctan (1 / r y) × (180 / π)
Accordingly, η (u y , r y ) is obtained and substituted for the visual sensitivity function g (η) to calculate the corresponding value of the visual sensitivity function.

図12に、図10および図11のフローチャートを実行する感度係数算出部208の装置構成を図示する。   FIG. 12 illustrates a device configuration of the sensitivity coefficient calculation unit 208 that executes the flowcharts of FIGS. 10 and 11.

図12に示す感度係数算出部208と、図4のフローチャートを実行する図7に示す感度係数算出部208との違いは、図12に示す感度係数算出部208では、変移量記憶部301の記憶する変移量dx ,dy に対応する視距離パラメータrx ,ry を算出する視距離パラメータ算出部500を備えるようにして、水平方向視覚感度関数算出部312が、視覚感度関数と視距離パラメータ算出部500の算出した視距離パラメータrx と空間周波数のインデックスとに基づいて、水平方向の視覚感度関数を算出し、垂直方向視覚感度関数算出部314が、視覚感度関数と視距離パラメータ算出部500の算出した視距離パラメータry と空間周波数のインデックスとに基づいて、垂直方向の視覚感度関数を算出するようにしている点である。 The difference between the sensitivity coefficient calculation unit 208 shown in FIG. 12 and the sensitivity coefficient calculation unit 208 shown in FIG. 7 that executes the flowchart of FIG. 4 is that the sensitivity coefficient calculation unit 208 shown in FIG. to displacement amount d x, d viewing distance parameter corresponding to the y r x, so as to comprise a viewing distance parameter calculating section 500 for calculating a r y, the horizontal visual sensitivity function calculating section 312, the visual sensitivity function and viewing distance A visual sensitivity function in the horizontal direction is calculated based on the visual distance parameter r x calculated by the parameter calculation unit 500 and the spatial frequency index, and the vertical visual sensitivity function calculation unit 314 calculates the visual sensitivity function and the visual distance parameter. based on the index of the calculated viewing distance parameter r y and the spatial frequency parts 500, a point that is to calculate the visual sensitivity function in the vertical direction.

本発明は、フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する場合に適用できるものであり、本発明を適用することで、符号化パラメータの選択に用いるコスト関数として、主観画質を反映したものを実現できるようになることで、高能率の符号化を実現できるようになる。   The present invention can be applied to the case of encoding a moving image by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction, and the present invention is applied. As a result, the cost function used for selecting the encoding parameter can be realized by reflecting the subjective image quality, so that highly efficient encoding can be realized.

本発明の適用される動画像符号化装置の装置構成図である。It is an apparatus block diagram of the moving image encoding apparatus with which this invention is applied. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の装置構成図である。It is an apparatus block diagram of an encoding parameter selection part. 符号化パラメータ選択部の装置構成図である。It is an apparatus block diagram of an encoding parameter selection part. 符号化パラメータ選択部の装置構成図である。It is an apparatus block diagram of an encoding parameter selection part. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の装置構成図である。It is an apparatus block diagram of an encoding parameter selection part. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の実行するフローチャートである。It is a flowchart which an encoding parameter selection part performs. 符号化パラメータ選択部の装置構成図である。It is an apparatus block diagram of an encoding parameter selection part. 従来技術の持つ問題の説明図である。It is explanatory drawing of the problem which a prior art has.

符号の説明Explanation of symbols

301 変移量記憶部
302 視覚感度関数記憶部
303 変換行列記憶部
304 変換行列サイズ記憶部
305 基底画像算出部
306 基底画像記憶部
307 修正基底画像算出部
308 修正基底画像記憶部
309 DFT処理部
310 空間周波数成分記憶部
311 空間周波数インデックス記憶部
312 水平方向視覚感度関数算出部
313 水平方向視覚感度関数記憶部
314 垂直方向視覚感度関数算出部
315 垂直方向視覚感度関数記憶部
316 乗算部
317 2乗値累積加算部
318 2乗値累積加算部
319 除算部
301 Transition amount storage unit 302 Visual sensitivity function storage unit 303 Transformation matrix storage unit 304 Transformation matrix size storage unit 305 Base image calculation unit 306 Base image storage unit 307 Correction base image calculation unit 308 Correction base image storage unit 309 DFT processing unit 310 Space Frequency component storage unit 311 Spatial frequency index storage unit 312 Horizontal visual sensitivity function calculation unit 313 Horizontal visual sensitivity function storage unit 314 Vertical visual sensitivity function calculation unit 315 Vertical visual sensitivity function storage unit 316 Multiplication unit 317 Accumulated square value Adder 318 Square value cumulative adder 319 Divider

Claims (10)

フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する動画像符号化方法であって、
変換行列の基底画像の空間周波数成分を算出する過程と、
符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する過程と、
前記算出した空間周波数成分の持つ空間周波数の水平成分と前記推定した変移量の水平成分とに基づいて、水平方向の視覚感度関数を算出するとともに、前記算出した空間周波数成分の持つ空間周波数の垂直成分と前記推定した変移量の垂直成分とに基づいて、垂直方向の視覚感度関数を算出する過程と、
前記算出した水平方向および垂直方向の視覚感度関数に基づいて、前記算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、前記算出した各空間周波数成分の重要度を算出する過程と、
前記算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する過程とを備えることを、
特徴とする動画像符号化方法。
A video encoding method for encoding a video by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction,
Calculating the spatial frequency component of the base image of the transformation matrix;
For the encoding target block, a process of estimating a shift amount indicating temporal movement of the image signal,
Based on the horizontal component of the spatial frequency of the calculated spatial frequency component and the horizontal component of the estimated shift amount, a visual sensitivity function in the horizontal direction is calculated, and the vertical of the spatial frequency of the calculated spatial frequency component is calculated. Calculating a vertical visual sensitivity function based on the component and the vertical component of the estimated shift amount;
Based on the calculated horizontal and vertical visual sensitivity functions, the calculated spatial frequency component is weighted, and the importance of each calculated spatial frequency component is calculated based on the weighted spatial frequency component. Process,
A step of determining a parameter to be used for encoding a block to be encoded by evaluating a coding cost using a distortion amount of coding weighted using the calculated importance.
A moving image encoding method as a feature.
フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する動画像符号化方法であって、
変換行列の基底画像の空間周波数成分を算出する過程と、
符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する過程と、
前記推定した変移量の水平成分に基づいて、水平方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、前記算出した空間周波数成分の持つ空間周波数の水平成分とその決定した視距離パラメータとに基づいて、水平方向の視覚感度関数を算出するとともに、前記推定した変移量の垂直成分に基づいて、垂直方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、前記算出した空間周波数成分の持つ空間周波数の垂直成分とその決定した視距離パラメータとに基づいて、垂直方向の視覚感度関数を算出する過程と、
前記算出した水平方向および垂直方向の視覚感度関数に基づいて、前記算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、前記算出した各空間周波数成分の重要度を算出する過程と、
前記算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する過程とを備えることを、
特徴とする動画像符号化方法。
A video encoding method for encoding a video by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction,
Calculating the spatial frequency component of the base image of the transformation matrix;
For the encoding target block, a process of estimating a shift amount indicating temporal movement of the image signal,
Based on the estimated horizontal component of the shift amount, a viewing distance parameter necessary for calculating a visual sensitivity function in the horizontal direction is determined, and the horizontal component of the spatial frequency of the calculated spatial frequency component and the determined A visual sensitivity function in the horizontal direction is calculated based on the visual distance parameter, and a visual distance parameter necessary for calculating the visual sensitivity function in the vertical direction is determined based on the vertical component of the estimated shift amount. Calculating a vertical visual sensitivity function based on the vertical component of the spatial frequency of the calculated spatial frequency component and the determined viewing distance parameter;
Based on the calculated horizontal and vertical visual sensitivity functions, the calculated spatial frequency component is weighted, and the importance of each calculated spatial frequency component is calculated based on the weighted spatial frequency component. Process,
A step of determining a parameter to be used for encoding a block to be encoded by evaluating a coding cost using a distortion amount of coding weighted using the calculated importance.
A moving image encoding method as a feature.
請求項1又は2に記載の動画像符号化方法において、
前記重要度を算出する過程では、前記重み付けした空間周波数成分の各空間周波数についての二乗和と、その重み付けをしない空間周波数成分の各空間周波数についての二乗和との比値を算出することで、前記重要度を算出することを、
特徴とする動画像符号化方法。
In the moving image encoding method according to claim 1 or 2,
In the process of calculating the importance, by calculating a ratio value of the sum of squares for each spatial frequency of the weighted spatial frequency component and the sum of squares for each spatial frequency of the spatial frequency component not weighted, Calculating the importance,
A moving image encoding method as a feature.
請求項1ないし3のいずれか1項に記載の動画像符号化方法において、
前記基底画像の空間周波数成分を算出する過程では、基底画像の周辺にゼロ値を埋め込んだ修正基底画像を用いて空間周波数成分を算出することを、
特徴とする動画像符号化方法。
The moving image encoding method according to any one of claims 1 to 3,
In the process of calculating the spatial frequency component of the base image, calculating the spatial frequency component using a corrected base image in which a zero value is embedded around the base image,
A moving image encoding method as a feature.
フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する動画像符号化装置であって、
変換行列の基底画像の空間周波数成分を算出する手段と、
符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する手段と、
前記算出した空間周波数成分の持つ空間周波数の水平成分と前記推定した変移量の水平成分とに基づいて、水平方向の視覚感度関数を算出するとともに、前記算出した空間周波数成分の持つ空間周波数の垂直成分と前記推定した変移量の垂直成分とに基づいて、垂直方向の視覚感度関数を算出する手段と、
前記算出した水平方向および垂直方向の視覚感度関数に基づいて、前記算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、前記算出した各空間周波数成分の重要度を算出する手段と、
前記算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する手段とを備えることを、
特徴とする動画像符号化装置。
A video encoding device that encodes a video by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction,
Means for calculating a spatial frequency component of the base image of the transformation matrix;
Means for estimating a shift amount indicating temporal movement of the image signal for the encoding target block;
Based on the horizontal component of the spatial frequency of the calculated spatial frequency component and the horizontal component of the estimated shift amount, a visual sensitivity function in the horizontal direction is calculated, and the vertical of the spatial frequency of the calculated spatial frequency component is calculated. Means for calculating a visual sensitivity function in the vertical direction based on the component and the vertical component of the estimated shift amount;
Based on the calculated horizontal and vertical visual sensitivity functions, the calculated spatial frequency component is weighted, and the importance of each calculated spatial frequency component is calculated based on the weighted spatial frequency component. Means,
Means for evaluating a coding cost using a coding distortion weighted using the calculated importance to determine a parameter to be used for coding the block to be coded.
A moving image encoding device.
フレーム間予測により得られた予測誤差信号に対して、変換符号化および量子化による情報圧縮を行うことで動画像を符号化する動画像符号化装置であって、
変換行列の基底画像の空間周波数成分を算出する手段と、
符号化対象ブロックについて、画像信号の時間的な動きを示す変移量を推定する手段と、
前記推定した変移量の水平成分に基づいて、水平方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、前記算出した空間周波数成分の持つ空間周波数の水平成分とその決定した視距離パラメータとに基づいて、水平方向の視覚感度関数を算出するとともに、前記推定した変移量の垂直成分に基づいて、垂直方向の視覚感度関数を算出するのに必要な視距離パラメータを決定して、前記算出した空間周波数成分の持つ空間周波数の垂直成分とその決定した視距離パラメータとに基づいて、垂直方向の視覚感度関数を算出する手段と、
前記算出した水平方向および垂直方向の視覚感度関数に基づいて、前記算出した空間周波数成分を重み付けして、その重み付けした空間周波数成分に基づいて、前記算出した各空間周波数成分の重要度を算出する手段と、
前記算出した重要度を用いて重み付けされた符号化の歪み量を用いて符号化コストを評価することで、符号化対象ブロックの符号化に用いるパラメータを決定する手段とを備えることを、
特徴とする動画像符号化装置。
A video encoding device that encodes a video by performing information compression by transform coding and quantization on a prediction error signal obtained by inter-frame prediction,
Means for calculating a spatial frequency component of the base image of the transformation matrix;
Means for estimating a shift amount indicating temporal movement of the image signal for the encoding target block;
Based on the estimated horizontal component of the shift amount, a viewing distance parameter necessary for calculating a visual sensitivity function in the horizontal direction is determined, and the horizontal component of the spatial frequency of the calculated spatial frequency component and the determined A visual sensitivity function in the horizontal direction is calculated based on the visual distance parameter, and a visual distance parameter necessary for calculating the visual sensitivity function in the vertical direction is determined based on the vertical component of the estimated shift amount. Means for calculating a visual sensitivity function in the vertical direction based on the vertical component of the spatial frequency of the calculated spatial frequency component and the determined viewing distance parameter;
Based on the calculated horizontal and vertical visual sensitivity functions, the calculated spatial frequency component is weighted, and the importance of each calculated spatial frequency component is calculated based on the weighted spatial frequency component. Means,
Means for evaluating a coding cost using a coding distortion weighted using the calculated importance to determine a parameter to be used for coding the block to be coded.
A moving image encoding device.
請求項5又は6に記載の動画像符号化装置において、
前記重要度を算出する手段は、前記重み付けした空間周波数成分の各空間周波数についての二乗和と、その重み付けをしない空間周波数成分の各空間周波数についての二乗和との比値を算出することで、前記重要度を算出することを、
特徴とする動画像符号化装置。
In the moving image encoding device according to claim 5 or 6,
The means for calculating the importance degree calculates a ratio value of a sum of squares for each spatial frequency of the weighted spatial frequency component and a sum of squares for each spatial frequency of the spatial frequency component not weighted, Calculating the importance,
A moving image encoding device.
請求項5ないし7のいずれか1項に記載の動画像符号化装置において、
前記基底画像の空間周波数成分を算出する手段は、基底画像の周辺にゼロ値を埋め込んだ修正基底画像を用いて空間周波数成分を算出することを、
特徴とする動画像符号化装置。
In the moving image encoder according to any one of claims 5 to 7,
The means for calculating the spatial frequency component of the base image calculates the spatial frequency component using a corrected base image in which a zero value is embedded around the base image.
A moving image encoding device.
請求項1ないし4のいずれか1項に記載の動画像符号化方法をコンピュータに実行させるための動画像符号化プログラム。   A moving picture coding program for causing a computer to execute the moving picture coding method according to claim 1. 請求項1ないし4のいずれか1項に記載の動画像符号化方法をコンピュータに実行させるための動画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which a moving image encoding program for causing a computer to execute the moving image encoding method according to any one of claims 1 to 4 is recorded.
JP2008020324A 2008-01-31 2008-01-31 Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program Expired - Fee Related JP4681011B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008020324A JP4681011B2 (en) 2008-01-31 2008-01-31 Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008020324A JP4681011B2 (en) 2008-01-31 2008-01-31 Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2009182763A JP2009182763A (en) 2009-08-13
JP4681011B2 true JP4681011B2 (en) 2011-05-11

Family

ID=41036371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008020324A Expired - Fee Related JP4681011B2 (en) 2008-01-31 2008-01-31 Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4681011B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4819856B2 (en) * 2008-08-18 2011-11-24 日本電信電話株式会社 Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program
JP4819855B2 (en) * 2008-08-18 2011-11-24 日本電信電話株式会社 Moving picture quantization method, moving picture quantization apparatus, moving picture quantization program, and computer-readable recording medium recording the program
JP5349429B2 (en) * 2010-08-30 2013-11-20 Kddi株式会社 Code amount reduction apparatus and encoding apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05110868A (en) * 1991-10-15 1993-04-30 Oki Electric Ind Co Ltd Visual characteristic region conversion system
JPH06209467A (en) * 1993-01-08 1994-07-26 Mitsubishi Electric Corp Picture coding decoding device
JPH06284406A (en) * 1993-03-26 1994-10-07 Victor Co Of Japan Ltd Orthogonal transformation coder
JPH07107336A (en) * 1993-08-13 1995-04-21 Kokusai Denshin Denwa Co Ltd <Kdd> Visual weight quantizer
JPH10108187A (en) * 1996-09-06 1998-04-24 Thomson Multimedia Sa Quantization method for video coding
JP2007329780A (en) * 2006-06-09 2007-12-20 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for encoding moving image and recording medium recording the program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05110868A (en) * 1991-10-15 1993-04-30 Oki Electric Ind Co Ltd Visual characteristic region conversion system
JPH06209467A (en) * 1993-01-08 1994-07-26 Mitsubishi Electric Corp Picture coding decoding device
JPH06284406A (en) * 1993-03-26 1994-10-07 Victor Co Of Japan Ltd Orthogonal transformation coder
JPH07107336A (en) * 1993-08-13 1995-04-21 Kokusai Denshin Denwa Co Ltd <Kdd> Visual weight quantizer
JPH10108187A (en) * 1996-09-06 1998-04-24 Thomson Multimedia Sa Quantization method for video coding
JP2007329780A (en) * 2006-06-09 2007-12-20 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for encoding moving image and recording medium recording the program

Also Published As

Publication number Publication date
JP2009182763A (en) 2009-08-13

Similar Documents

Publication Publication Date Title
RU2693910C1 (en) Moving images encoding device, moving image decoding device, moving images encoding method and moving images decoding method
US9049457B2 (en) Pixel prediction for video coding
US11070839B2 (en) Hybrid video coding
JP4752631B2 (en) Image coding apparatus and image coding method
US8588301B2 (en) Image coding apparatus, control method therefor and computer program
JP4194479B2 (en) Image processing apparatus and method, computer program, and computer-readable storage medium
US20090028248A1 (en) Video Encoding Method and Decoding Method, Apparatuses Therefor, Programs Therefor, and Storage Media for Storing the Programs
WO2008035665A1 (en) Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program
JP5098081B2 (en) Image processing method and image processing apparatus
KR20120027145A (en) Image processing apparatus and method
WO2011061880A1 (en) Image encoder apparatus, image decoder apparatus, image encoding method, and image decoding method
JP2005532725A (en) Method and system for selecting interpolation filter type in video coding
WO2011013253A1 (en) Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device
JP4709187B2 (en) ENCODING PARAMETER DETERMINING METHOD, ENCODING PARAMETER DETERMINING DEVICE, ENCODING PARAMETER DETERMINING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP4709074B2 (en) Moving picture encoding method, apparatus, program thereof, and recording medium recording the program
JP4681011B2 (en) Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program
US8897585B2 (en) Prediction of pixels in image coding
JP4709179B2 (en) Encoding parameter selection method, encoding parameter selection device, encoding parameter selection program, and recording medium therefor
JP2006100871A (en) Coder, coding method, program of coding method, and recording medium with the program recorded thereon
WO2010035735A1 (en) Image processing device and method
JP2007096479A (en) Inter-layer prediction coding method and apparatus, inter-layer prediction decoding method and apparatus, and program for them, and recording medium
JP4820800B2 (en) Image coding method, image coding apparatus, and image coding program
JP4819856B2 (en) Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program
JP5513333B2 (en) Moving picture coding apparatus, moving picture coding method, and program
JP4697802B2 (en) Video predictive coding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110203

R150 Certificate of patent or registration of utility model

Ref document number: 4681011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees