JP2006279383A - Interhierarchy prediction coding method, apparatus thereof, interhierarchy prediction decoding method, apparatus thereof, interhierarchy prediction coding program, interhierarchy prediction decoding program and program recording medium thereof - Google Patents

Interhierarchy prediction coding method, apparatus thereof, interhierarchy prediction decoding method, apparatus thereof, interhierarchy prediction coding program, interhierarchy prediction decoding program and program recording medium thereof Download PDF

Info

Publication number
JP2006279383A
JP2006279383A JP2005093760A JP2005093760A JP2006279383A JP 2006279383 A JP2006279383 A JP 2006279383A JP 2005093760 A JP2005093760 A JP 2005093760A JP 2005093760 A JP2005093760 A JP 2005093760A JP 2006279383 A JP2006279383 A JP 2006279383A
Authority
JP
Japan
Prior art keywords
signal
filter coefficient
prediction
layer
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005093760A
Other languages
Japanese (ja)
Other versions
JP4295236B2 (en
Inventor
Yukihiro Bando
幸浩 坂東
Masayuki Takamura
誠之 高村
Kazuto Kamikura
一人 上倉
Yoshiyuki Yashima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005093760A priority Critical patent/JP4295236B2/en
Publication of JP2006279383A publication Critical patent/JP2006279383A/en
Application granted granted Critical
Publication of JP4295236B2 publication Critical patent/JP4295236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve image quality by adaptively changing a filter coefficient of an interpolation filter to be used for interhierarchy prediction in accordance with the local property of an image. <P>SOLUTION: In generating an interpolation signal as a prediction signal of a upper hierarchy from a lower hierarchy reference signal, a portion of signals already coded and decoded which is similar to a coding (decoding) target signal is extracted as a reference signal to be used for calculation of the filter coefficient. A filter coefficient adaptively changing depending on an input image is calculated by using the extracted reference signal. The calculated filter coefficient is applied for each block to execute coding/decoding processing. The space-time position of the reference signal is incorporated into coding information or decided based on a local decoding signal. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は,階層間予測を行う高能率画像信号符号化方法に関し,特に上位階層の予測信号として下位階層信号から補間フィルタを用いて補間信号を生成する際のフィルタ係数の推定精度を向上させ,画質の向上を可能にした階層間予測符号化/復号方法に関する。   The present invention relates to a high-efficiency image signal encoding method that performs inter-layer prediction, and in particular, improves the estimation accuracy of filter coefficients when an interpolation signal is generated from a lower-layer signal as an upper-layer prediction signal using an interpolation filter, The present invention relates to an inter-layer predictive encoding / decoding method capable of improving image quality.

近年,多様化するネットワーク環境・端末環境などに対応するためのスケーラブル符号化が注目を集めている。スケーラブル符号化では,画像信号を階層的に分割し,各階層毎に符号化が行われる。階層分割の方法としては,
(i)空間周波数に関する帯域分割,
(ii)時間周波数に関する帯域分割,
などがある。(i)としては,wavelet 分割(非特許文献1参照),(ii)としては,Motion Compensation Temporal Fitering (MCTF)(非特許文献2参照)が代表例である。
In recent years, scalable coding to deal with diversifying network environments and terminal environments has attracted attention. In scalable coding, an image signal is divided hierarchically and coding is performed for each layer. As a method of hierarchy division,
(I) Band division related to spatial frequency,
(Ii) Band division for time frequency,
and so on. Typical examples of (i) are wavelet division (see Non-Patent Document 1), and (ii) is Motion Compensation Temporal Fitering (MCTF) (see Non-Patent Document 2).

この場合,各階層を独立に符号化したのでは,符号化効率の向上は望めない。符号化効率向上を目的として,階層間の相関を利用した符号化方法が検討されている。具体的には,空間解像度の異なる2つの階層に対して,低い空間解像度の画像信号から高い空間解像度の画像信号を予測する階層間予測が行われる。   In this case, if each layer is encoded independently, the improvement in encoding efficiency cannot be expected. For the purpose of improving encoding efficiency, an encoding method using correlation between layers has been studied. Specifically, inter-layer prediction for predicting a high spatial resolution image signal from a low spatial resolution image signal is performed for two layers having different spatial resolutions.

下記の非特許文献3では,6タップの補間フィルタを用いて,低解像度の画像信号における半画素位置の画素値を補間し,高解像度の画像信号に対する予測信号としている。
“A theory for multiresolution signal decomposition: the wavelet representation ”,S.G.Mallat,IEEE Trans. Pattern Analysis and Machine Intelligence ,Vol.11,No.7,pp.674-693,July,1989. “Three-dimensional subband coding with motion compensation ”,J.R.Ohm ,IEEE Trans.Image Processing ,Vol.3 ,No.5,pp.559-571,Sept. ,1994. J.Reichel ,M.Wien and H.Schwarz,“Scalable Video Model 3.0”,ISO/IEC JTC1/SC29/WG11 doc. no. N6716 ,Palma ,October 2004.
In the following Non-Patent Document 3, a 6-tap interpolation filter is used to interpolate pixel values at half-pixel positions in a low resolution image signal to obtain a prediction signal for the high resolution image signal.
“A theory for multiresolution signal decomposition: the wavelet representation”, SGMallat, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.11, No.7, pp.674-693, July, 1989. “Three-dimensional subband coding with motion compensation”, JROhm, IEEE Trans.Image Processing, Vol.3, No.5, pp.559-571, Sept., 1994. J. Reichel, M. Wien and H. Schwarz, “Scalable Video Model 3.0”, ISO / IEC JTC1 / SC29 / WG11 doc. No. N6716, Palma, October 2004.

上述の従来法の問題は,補間フィルタの係数が固定されている点にある。一般的に,画像の統計的な性質は画像毎に異なる。また,画像の中でも局所的にみればその性質は異なる。このため,階層間予測の効率を向上させるためには,補間フィルタの構成を各画像の局所的な性質に応じて,適応的に変化させる必要がある。ただし,こうした適応処理ではフィルタを表現するための付加情報が増加するため,この付加情報をいかに少なく抑えるかが符号化効率向上の鍵となる。   The problem with the conventional method described above is that the coefficients of the interpolation filter are fixed. In general, the statistical properties of images vary from image to image. In addition, the properties are different if viewed locally in the image. For this reason, in order to improve the efficiency of inter-layer prediction, it is necessary to adaptively change the configuration of the interpolation filter according to the local properties of each image. However, since such additional processing increases additional information for expressing the filter, how to reduce the additional information is the key to improving the coding efficiency.

本発明はかかる事情に鑑みてなされたものであって,付加情報の増加を抑えつつ,画像の局所的な性質に応じて階層間予測における補間フィルタの適応的設計法を確立することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to establish an adaptive design method for an interpolation filter in inter-layer prediction according to the local properties of an image while suppressing an increase in additional information. To do.

本発明は,上記課題を解決するため,低い空間解像度の信号(下位階層信号)から高い空間解像度の信号(上位階層信号)を補間処理を用いて予測し符号化する動画像符号化において,上位階層の予測信号として下位階層信号から補間信号を生成する際,局所復号画像の時空間的な位置を指定し,指定された位置の信号を用いて,ブロック毎に補間画像生成のためのフィルタ係数を推定することを特徴とする。これにより,フィルタ係数の推定精度を向上させ,復号画像の画質を向上させることができるようになる。   In order to solve the above-described problem, the present invention provides a high-order video encoding method that predicts and encodes a high spatial resolution signal (upper layer signal) from a low spatial resolution signal (lower layer signal) using interpolation processing. When generating an interpolation signal from a lower layer signal as a layer prediction signal, specify the spatio-temporal position of the local decoded image, and use the signal at the specified position to generate a filter coefficient for generating the interpolation image for each block. Is estimated. Thereby, it is possible to improve the estimation accuracy of the filter coefficient and improve the image quality of the decoded image.

また,本発明は,上記動画像符号化において,参照する復号信号の時空間的な位置を同定する符号化パラメータを符号化情報の一部とすることを特徴とする。これにより,適応的なフィルタ係数を少ない演算量で算出することができる。   Further, the present invention is characterized in that, in the above moving picture coding, a coding parameter for identifying a spatio-temporal position of a decoded signal to be referred to is part of the coding information. Thereby, an adaptive filter coefficient can be calculated with a small amount of calculation.

また,本発明は,上記動画像符号化において,参照する復号信号の時空間的な位置を示す情報を局所復号信号に基づき決定することもできる。これにより,フィルタ係数の符号量の増加を抑えることができる。さらに,下位階層参照信号の量子化パラメータに応じて,フィルタ係数の推定処理の有無を適応的に切り替えることもできる。これにより,推定結果が信頼に足りる場合にだけ,上記算出されたフィルタ係数を用い,信頼に足りない場合には従来と同様なデフォルトのフィルタ係数を用いることができる。   Further, according to the present invention, in the moving image coding, information indicating a spatio-temporal position of a decoded signal to be referred to can be determined based on a local decoded signal. Thereby, an increase in the code amount of the filter coefficient can be suppressed. Furthermore, the presence or absence of filter coefficient estimation processing can be adaptively switched according to the quantization parameter of the lower layer reference signal. Thus, the calculated filter coefficient can be used only when the estimation result is reliable, and the default filter coefficient similar to the conventional one can be used when the estimation result is insufficient.

また,本発明は,低い空間解像度の信号から高い空間解像度の信号を補間処理を用いて予測した予測信号と予測残差信号を加算して復号信号を得る動画像復号において,時空間的な位置が指定された復号信号を用いて,ブロック毎に補間画像生成のためのフィルタ係数を推定することを特徴とする。   Further, the present invention provides a temporal and spatial position in moving picture decoding in which a decoded signal is obtained by adding a prediction signal obtained by interpolating a high spatial resolution signal from a low spatial resolution signal and a prediction residual signal. A filter coefficient for generating an interpolated image is estimated for each block using a decoded signal designated by.

また,本発明は,上記動画像復号において,参照する復号信号の時空間的な位置を同定する符号化パラメータを符号化情報より抽出することを特徴とする。   Further, the present invention is characterized in that, in the above moving picture decoding, a coding parameter for identifying a spatio-temporal position of a decoded signal to be referred to is extracted from coding information.

また,本発明は,上記動画像復号において,参照する復号信号の時空間的な位置を示す情報を復号信号に基づき決定することもできる。さらに,下位階層参照信号の量子化パラメータに応じて,フィルタ係数の推定処理の有無を適応的に切り替えることもできる。   Further, according to the present invention, in the moving image decoding, information indicating a spatio-temporal position of a reference decoded signal can be determined based on the decoded signal. Furthermore, the presence or absence of filter coefficient estimation processing can be adaptively switched according to the quantization parameter of the lower layer reference signal.

符号化時および復号時の処理の概要は,以下のとおりである。
(1)既に符号化され復号された信号のうち,符号化(復号)対象信号と類似する部分をフィルタ係数の算出に用いる参照信号として抽出する。
(2)抽出した参照信号を用いて,入力された画像によって適応的に変化するフィルタ係数を算出する。
(3)算出したフィルタ係数はブロック単位で適用して符号化・復号処理を行う。
The outline of processing at the time of encoding and decoding is as follows.
(1) A portion similar to an encoding (decoding) target signal is extracted as a reference signal used for calculation of a filter coefficient among already encoded and decoded signals.
(2) Using the extracted reference signal, filter coefficients that adaptively change according to the input image are calculated.
(3) The calculated filter coefficient is applied in block units to perform encoding / decoding processing.

以下では,第j階層の時刻tのフレーム内の座標[x,y]における画素値をfj (x,y,t)とし,fj (x,y,t)に対する復号信号をgj (x,y,t)とする。fj+1 (x,y,t)は,fj (x,y,t)の2倍の空間解像度となる。例えば,f0 (x,y,t)がQCIFサイズであれば,f1 (x,y,t)はCIFサイズとなる。 In the following, the coordinates [x, y] in the frame at time t of the j hierarchy to the pixel value at f j (x, y, t) and, f j (x, y, t) of the decoded signal for g j ( x, y, t). f j + 1 (x, y, t) has a spatial resolution twice that of f j (x, y, t). For example, if f 0 (x, y, t) is a QCIF size, f 1 (x, y, t) is a CIF size.

第j階層の信号から第j+1階層の信号への補間は方向毎に各々,次のようになる。ここでは,補間フィルタのタップ数をNとする。   Interpolation from the j-th layer signal to the j + 1-th layer signal is as follows for each direction. Here, the number of interpolation filter taps is N.

水平方向の補間:   Horizontal interpolation:

Figure 2006279383
垂直方向の補間:
Figure 2006279383
Vertical interpolation:

Figure 2006279383
斜め方向の補間:
Figure 2006279383
Diagonal interpolation:

Figure 2006279383
または,
Figure 2006279383
Or

Figure 2006279383
ここで,N/2および(N−1)/2を囲む記号は,floor functionであり,それぞれ実数N/2および(N−1)/2を越えない最大の整数を表す(以下,同様)。
Figure 2006279383
Here, symbols surrounding N / 2 and (N-1) / 2 are floor functions, which represent the maximum integers not exceeding real numbers N / 2 and (N-1) / 2, respectively (the same applies hereinafter). .

図1に水平方向の補間の例を示す。図1では,タップ数Nが4であり,第j+1階層の[2x+1,2y,t]の画素値を,第j階層の[x−1,y,t],[x,y,t],[x+1,y,t],[x+2,y,t]の画素値を用いて補間する例を示している。α-1〜α2 , フィルタ係数である。垂直方向,斜め方向の補間についても同様である。 FIG. 1 shows an example of horizontal interpolation. In FIG. 1, the number of taps N is 4, and the pixel values of [2x + 1, 2y, t] in the j + 1th layer are represented by [x-1, y, t], [x, y, t], In the example, interpolation is performed using pixel values of [x + 1, y, t] and [x + 2, y, t]. alpha -1 to? 2 is a filter coefficient. The same applies to interpolation in the vertical and oblique directions.

なお,fj+1 (x,y,t)を符号化対象信号とする場合,補間に用いる下位階層の信号fj (x’,y’,t)を下位階層参照信号と呼ぶ。 When f j + 1 (x, y, t) is an encoding target signal, the lower layer signal f j (x ′, y ′, t) used for interpolation is referred to as a lower layer reference signal.

本発明では,フィルタ係数を矩形領域(縦/横幅L)単位で適応的に変化させるため,各フィルタ係数をそのまま符号化したのでは,フィルタ係数を表現するための付加情報が増大する。そこで,フィルタ係数に関する付加情報を抑えるために,既に符号化処理の終えた局所復号信号を用いて,フィルタ係数を推定する方法を採用する。本発明は,推定したフィルタ係数の表現方法として,2つのモード(Implicit mode ,Explicit mode )を備える。この2つのモードについて,詳しくは後述する。   In the present invention, since filter coefficients are adaptively changed in units of rectangular areas (vertical / horizontal width L), if each filter coefficient is encoded as it is, additional information for expressing the filter coefficient increases. Therefore, in order to suppress additional information related to the filter coefficient, a method of estimating the filter coefficient using a local decoded signal that has already been encoded is adopted. The present invention has two modes (Implicit mode and Explicit mode) as a method of expressing the estimated filter coefficients. Details of these two modes will be described later.

[フィルタ係数の推定]
フィルタ係数の推定は,第j+1階層の第t0 フレームの復号信号における矩形領域(縦/横幅L)毎に行う。この矩形領域をフィルタ係数推定の参照領域と呼ぶ。また,参照領域の補間に用いる第j階層の復号信号における矩形領域(縦/横幅L/2)と参照領域を合わせて参照領域対と呼び,参照領域対に含まれる信号を参照信号と呼ぶ。図2に,これらの符号化対象信号と参照信号の関係を示す。
[Estimation of filter coefficients]
Estimation of the filter coefficients is performed for each rectangular region (length / width L) of the decoded signal of the t 0 th frame j + 1 hierarchy. This rectangular area is called a reference area for filter coefficient estimation. A rectangular area (vertical / horizontal width L / 2) in the decoded signal of the j-th layer used for interpolation of the reference area and the reference area are collectively referred to as a reference area pair, and a signal included in the reference area pair is referred to as a reference signal. FIG. 2 shows the relationship between these encoding target signals and reference signals.

第j階層の復号信号から第j+1階層の復号信号への補間は補間方向毎に各々,次のようになる。   Interpolation from the decoded signal of the jth layer to the decoded signal of the j + 1th layer is as follows for each interpolation direction.

水平方向の補間:   Horizontal interpolation:

Figure 2006279383
垂直方向の補間:
Figure 2006279383
Vertical interpolation:

Figure 2006279383
斜め方向の補間:
Figure 2006279383
Diagonal interpolation:

Figure 2006279383
または,
Figure 2006279383
Or

Figure 2006279383
第t0 フレームにおける左上角の座標を[x0 ,y0 ]とする参照領域に対して,補間による予測誤差は次のように表せる。
Figure 2006279383
For a reference region in which the coordinates of the upper left corner in the t 0th frame are [x 0 , y 0 ], the prediction error due to interpolation can be expressed as follows.

Figure 2006279383
この予測誤差を最小化するフィルタ係数αn (x0 ,y0 ,t0 ),βn (x0 ,y0 ,t0 ),γn (x0 ,y0 ,t0 ),ζn (x0 ,y0 ,t0 )は各々,以下の連立方程式を解くことで求まる。
Figure 2006279383
Filter coefficients α n (x 0 , y 0 , t 0 ), β n (x 0 , y 0 , t 0 ), γ n (x 0 , y 0 , t 0 ), ζ n that minimize this prediction error (X 0 , y 0 , t 0 ) can be obtained by solving the following simultaneous equations.

Figure 2006279383
αk (x0 ,y0 ,t0 )は,式(12)より得る以下の連立方程式の解として求まる(ただし,kは−[(N−1)/2を越えない最大の整数]から[N/2を越えない最大の整数]までの整数,以下同様)。
Figure 2006279383
α k (x 0 , y 0 , t 0 ) is obtained as a solution of the following simultaneous equations obtained from Equation (12) (where k is the maximum integer not exceeding − (N−1) / 2). Integer up to [maximum integer not exceeding N / 2], and so on).

Figure 2006279383
ここで,Rh (j) (k,n),Ch (j) (n)は,次の通りである。
Figure 2006279383
Here, R h (j) (k, n) and C h (j) (n) are as follows.

Figure 2006279383
βk (x0 ,y0 ,t0 )は,式(13)より得る以下の連立方程式の解として求まる。
Figure 2006279383
β k (x 0 , y 0 , t 0 ) is obtained as a solution of the following simultaneous equations obtained from equation (13).

Figure 2006279383
ここで,Rv (j) (k,n),Cv (j) (n)は,次の通りである。
Figure 2006279383
Here, R v (j) (k, n) and C v (j) (n) are as follows.

Figure 2006279383
γk (x0 ,y0 ,t0 )は,式(14)より得る以下の連立方程式の解として求まる。
Figure 2006279383
γ k (x 0 , y 0 , t 0 ) is obtained as a solution of the following simultaneous equations obtained from equation (14).

Figure 2006279383
ここで,Rdh (j) (k,n),Cdh (j) (n)は,次の通りである。なお,以下の^gj+1 (2x,2y+1,t0 )は,式(6)より求めた値を用いる。
Figure 2006279383
Here, R dh (j) (k, n) and C dh (j) (n) are as follows. The following ^ g j + 1 (2x, 2y + 1, t 0 ) uses the value obtained from equation (6).

Figure 2006279383
ζk (x0 ,y0 ,t0 )は,式(15)より得る以下の連立方程式の解として求まる。
Figure 2006279383
ζ k (x 0 , y 0 , t 0 ) is obtained as a solution of the following simultaneous equations obtained from equation (15).

Figure 2006279383
ここで,Rdv (j) (k,n),Cdv (j) (n)は,次の通りである。なお,以下の^gj+1 (2x+1,2y,t0 )は,式(5)より求めた値を用いる。
Figure 2006279383
Here, R dv (j) (k, n) and C dv (j) (n) are as follows. The following ^ g j + 1 (2x + 1, 2y, t 0 ) uses the value obtained from equation (5).

Figure 2006279383
[座標値の符号化]
上述の通り,フィルタ係数は,参照領域を指す座標値[x0 ,y0 ,t0 ]の関数となる。この座標値がフィルタ係数を表現する情報となる。本発明は,この座標値を符号化する方法として,以下の2つのモード(Implicit mode ,Explicit mode )を備える。
Figure 2006279383
[Coding of coordinate values]
As described above, the filter coefficient is a function of coordinate values [x 0 , y 0 , t 0 ] indicating the reference region. This coordinate value becomes information expressing the filter coefficient. The present invention comprises the following two modes (Implicit mode and Explicit mode) as a method of encoding the coordinate values.

(1)Explicit mode
Explicit mode は,座標値[x0 ,y0 ,t0 ]を符号化情報として復号側に伝送するモードである。座標値の具体的な推定方法は外部から与えられるものとする。座標値の推定方法の一例として,以下のコストを最小化する方法が挙げられる。
(1) Explicit mode
Explicit mode is a mode in which coordinate values [x 0 , y 0 , t 0 ] are transmitted to the decoding side as encoded information. The specific estimation method of coordinate values shall be given from the outside. As an example of the coordinate value estimation method, there is a method for minimizing the following costs.

[xo ,y0 ,t0 ]=minxr,yr,tr{Eh (xr ,yr ,tr
+Ev (xr ,yr ,tr
+Ed (xr ,yr ,tr )}
ここで,minxr,yr,tr{E}は,探索範囲を示すパラメータとして別途,Bx ,By ,Bt が与えられときに,−Bx <xr ≦Bx −1,−By <yr ≦By −1,−Bt <tr ≦Bt −1の範囲で,Eが最小となるxr ,yr ,tr を意味する。
[X o, y 0, t 0] = min xr, yr, tr {E h (x r, y r, t r)
+ E v (x r , y r , tr )
+ E d (x r , y r , tr )}
Here, min xr, yr, tr {E} is −B x <x r ≦ B x −1, −B when B x , B y , B t are separately given as parameters indicating the search range. y <y r ≦ B y -1 , in the range of -B t <t r ≦ B t -1, means a x r, y r, t r where E is minimized.

ただし,参照領域を用いたフィルタ係数の推定を行わずに,デフォルトで設定したフィルタ係数を用いる場合には,デフォルト係数を用いることを示す情報を伝送する。例えば,推定を行うか否かの識別ビットを付加する方法,あるいは,座標値[x0 ,y0 ,t0 ]として取り得ない値によりデフォルト係数を表す方法などがある。 However, when the filter coefficient set by default is used without estimating the filter coefficient using the reference region, information indicating that the default coefficient is used is transmitted. For example, there are a method of adding an identification bit indicating whether to perform estimation, or a method of expressing a default coefficient by a value that cannot be taken as a coordinate value [x 0 , y 0 , t 0 ].

なお,符号化対象を,第tフレームにおける左上角の座標を[x,y]とする縦/横幅がLの矩形領域とし,対応する参照領域を第t0 フレームにおける左上角の座標を[x0 ,y0 ]とする縦/横幅がLの矩形領域とした場合,変位量[x−x0 ,y−y0 ,t−t0 ]を符号化対象とすることも可能である。 Note that the encoding target is a rectangular area whose vertical / horizontal width is L, where the coordinates of the upper left corner in the t frame are [x, y], and the corresponding reference area is the coordinates of the upper left corner in the t 0 frame. 0, if the vertical / horizontal width to y 0] has a rectangular region of the L, and is also possible to make the displacement of [x-x 0, y- y 0, t-t 0] and encoded.

(2)Implicit mode
Implicit mode は,座標値[x0 ,y0 ,t0 ]を符号化情報として復号側に伝送しないモードである。符号化器/復号器で共有できる規則を用いて,復号器側でも符号化器と同一の座標値を再現することにより,座標値の情報の伝送を省略する。具体的な方法を以下に2つ示す。ただし,下位階層参照信号に対する量子化パラメータが閾値以上の値の場合,以下の方法は行わず,デフォルト係数を用いるものとする。これは,画質が極端に低い復号画像に対する類似度探索の結果は,符号化対象信号の類似度の推定値として信頼性に欠けるためである。以下では,下位階層参照信号を,第tc フレームにおける左上角の座標を[xc ,yc ]とする縦/横幅がL/2の矩形領域としている。
(2) Implicit mode
Implicit mode is a mode in which coordinate values [x 0 , y 0 , t 0 ] are not transmitted to the decoding side as encoded information. By using the rules that can be shared by the encoder / decoder, the decoder side reproduces the same coordinate value as the encoder, thereby omitting the transmission of the coordinate value information. Two specific methods are shown below. However, when the quantization parameter for the lower layer reference signal is a value equal to or greater than the threshold, the following method is not performed and the default coefficient is used. This is because the result of similarity search for a decoded image with extremely low image quality is not reliable as an estimated value of the similarity of the encoding target signal. In the following, the lower layer reference signal is a rectangular area having a vertical / horizontal width of L / 2 with the coordinates of the upper left corner in the t c frame being [x c , y c ].

〔方法1〕:符号化対象信号との類似度が最大となる復号信号中の領域を参照領域とする。類似度S(x0 ,y0 ,t0 )としては,符号化対象信号との相関係数を用いる。 [Method 1]: A region in the decoded signal having the maximum similarity to the encoding target signal is set as a reference region. As the similarity S (x 0 , y 0 , t 0 ), a correlation coefficient with the encoding target signal is used.

Figure 2006279383
ここで,xr ,yr ,tr の探索範囲を示すパラメータBx ,By ,Bt は,別途与えられる。maxxr,yr,trS(xr ,yr ,tr )は,−Bx <xr ≦Bx −1,−By <yr ≦By −1,−Bt <tr ≦Bt −1の範囲で,類似度Sが最大となるxr ,yr ,tr である。
Figure 2006279383
Here, x r, y r, t parameters B x indicating the search range of r, B y, B t are given separately. max xr, yr, tr S ( x r, y r, t r) is, -B x <x r ≦ B x -1, -B y <y r ≦ B y -1, -B t <t r ≦ in the range of B t -1, similarity S is maximum x r, y r, is t r.

ただし,類似度の最大値が閾値ΦS を下回る場合:
S(x0 ,y0 ,t0 )≦ΦS
参照領域を用いたフィルタ係数の推定は行わず,デフォルト係数を用いるものとする。
However, if the maximum similarity is below the threshold Φ S :
S (x 0 , y 0 , t 0 ) ≦ Φ S
Filter coefficients are not estimated using the reference region, but default coefficients are used.

〔方法2〕:符号化対象信号との距離が最小となる復号信号中の領域を参照領域とする。距離関数D(x0 ,y0 ,t0 )としては,符号化対象信号との二乗誤差和を用いる。 [Method 2]: A region in the decoded signal that minimizes the distance to the encoding target signal is set as a reference region. As the distance function D (x 0 , y 0 , t 0 ), the sum of square errors with the signal to be encoded is used.

Figure 2006279383
ここで,xr ,yr ,tr の探索範囲を示すパラメータBx ,By ,Bt は,別途与えられる。minxr,yr,trD(xr ,yr ,tr )は,−Bx <xr ≦Bx −1,−By <yr ≦By −1,−Bt <tr ≦Bt −1の範囲で,距離関数Dが最大となるxr ,yr ,tr である。
Figure 2006279383
Here, x r, y r, t parameters B x indicating the search range of r, B y, B t are given separately. min xr, yr, tr D ( x r, y r, t r) is, -B x <x r ≦ B x -1, -B y <y r ≦ B y -1, -B t <t r ≦ in the range of B t -1, the distance function D is maximum x r, y r, is t r.

なお,距離関数の最小値が閾値ΦD を上回る場合:
D(x0 ,y0 ,t0 )≧ΦD
参照領域を用いたフィルタ係数の推定は行わず,デフォルト係数を用いるものとする。
If the minimum value of the distance function exceeds the threshold Φ D :
D (x 0 , y 0 , t 0 ) ≧ Φ D
Filter coefficients are not estimated using the reference region, but default coefficients are used.

なお,Implicit mode およびExplicit mode の切り替えは,フレーム単位,あるいはシーケンス単位で行う。   Switching between Implicit mode and Explicit mode is performed in frame units or sequence units.

本発明により解像度の異なるフレーム間の予測を行う際,画像の局所的な性質に応じて,適応的に予測を行うことが可能となり,符号化効率の向上が見込める。また,本発明は二つのモードを与えることにより,符号化レートに応じた使い分けが可能である。このうち,Implicit mode は,低レートにおいてオーバヘッドの増加を抑えたい場合,特に有効である。また,Implicit mode は,量子化パラメータを用いて復号信号によるフィルタ係数推定のON/OFFを適応的に切り替えることが可能である。復号画像の画質劣化が大きくフィルタ係数推定の参照信号として信頼性に欠けると判断した場合には,フィルタ係数推定を行わないため,予測性能の低下を回避することができる。   According to the present invention, when performing prediction between frames having different resolutions, it is possible to perform adaptive prediction according to the local properties of an image, and an improvement in encoding efficiency can be expected. Further, the present invention can be selectively used according to the coding rate by providing two modes. Of these, the Implicit mode is particularly effective when it is desired to suppress an increase in overhead at a low rate. Further, the Implicit mode can adaptively switch ON / OFF of filter coefficient estimation based on a decoded signal using a quantization parameter. If it is determined that the image quality of the decoded image is large and the reliability is not sufficient as a reference signal for filter coefficient estimation, the filter coefficient estimation is not performed, so that a decrease in prediction performance can be avoided.

[符号化処理]
本発明の実施形態(Explicit mode )について図面を参照して説明する。図3は,本発明の実施の形態によるExplicit mode のときの符号化処理のフローチャートである。
[Encoding process]
An embodiment (Explicit mode) of the present invention will be described with reference to the drawings. FIG. 3 is a flowchart of the encoding process in the Explicit mode according to the embodiment of the present invention.

ステップS10では,フィルタ係数を復号画像から推定するか,それともデフォルトとして用意したデフォルト係数を使用するのかを選択する。選択の方法は,別途与えられるものとする。例えば,以下のような量子化パラメータを用いた方法を用いる。   In step S10, it is selected whether the filter coefficient is estimated from the decoded image or a default coefficient prepared as a default is used. The method of selection shall be given separately. For example, a method using the following quantization parameter is used.

第t0 フレームをL×Lの矩形領域に分割し,例えば図4に示すように,左上角の座標が(nL,nL),(nL,(n−1)L),((n−1)L,nL),((n−1)L,(n−1)L)となる矩形領域の量子化パラメータを各々Q0,0 ,Q0,-1,Q-1,0,Q-1,-1 とする。参照領域の座標値が[x0 ,y0 ]であるとき,閾値QTh,および量子化パラメータQ0,0 ,Q0,-1,Q-1,0,Q-1,-1 から算出される^Qを用いて,次のような適応処理を行う。 The t 0th frame is divided into L × L rectangular areas, and the coordinates of the upper left corner are (nL, nL), (nL, (n−1) L), ((n−1), for example, as shown in FIG. ) L, nL), ((n-1) L, (n-1) L), the quantization parameters of the rectangular regions are Q 0,0 , Q 0, -1 , Q −1 , Q −, respectively. 1, -1 . When the coordinate value of the reference area is [x 0 , y 0 ], it is calculated from the threshold value Q Th and the quantization parameters Q 0,0 , Q 0, −1 , Q −1,0 , Q −1, −1. The following adaptive processing is performed using ^ Q.

(i)^Q<QThであれば,上述のフィルタ係数算出処理により求めたフィルタ係数を用いて,アップサンプリングを行う。 (I) If ^ Q < QTh , upsampling is performed using the filter coefficient obtained by the filter coefficient calculation process described above.

(ii)^Q≧QThであれば,予めデフォルトとして用意したフィルタ係数を用いて,アップサンプリングを行う。 (Ii) If ^ Q ≧ QTh , upsampling is performed using filter coefficients prepared in advance as defaults.

なお,^Qは次式の通り求まる。   Note that ^ Q is obtained as follows.

Figure 2006279383
フィルタ係数としてデフォルト係数を用いる場合,ステップS11へ進み,デフォルト係数を読み込み,その後,ステップS16へ進む。
Figure 2006279383
When the default coefficient is used as the filter coefficient, the process proceeds to step S11, the default coefficient is read, and then the process proceeds to step S16.

フィルタ係数を復号画像から推定する場合,ステップS12へ進み,符号化対象信号および参照信号を入力として,フィルタ係数を算出するための参照領域の座標値を推定する処理を行い,同座標値を出力する。なお,座標値の推定方法は別途与えられるものとする。   When the filter coefficient is estimated from the decoded image, the process proceeds to step S12, the encoding target signal and the reference signal are input, the process of estimating the coordinate value of the reference area for calculating the filter coefficient is performed, and the coordinate value is output To do. The coordinate value estimation method is assumed to be given separately.

次に,ステップS13では,参照領域,同領域を指す座標値を入力として,各方向毎の自己相関を算出する処理を行い,各方向毎の自己相関を出力する。具体的な算出方法は,式(17),式(20),式(23),式(26)に従う。また,ステップS14では,符号化対象信号,参照領域,同領域を指す座標値を入力として,各方向毎の相互相関を算出する処理を行い,各方向毎の相互相関を出力する。具体的な算出方法は,式(18),式(21),式(24),式(27)に従う。   Next, in step S13, a process of calculating autocorrelation for each direction is performed by inputting the reference area and the coordinate value indicating the same area, and the autocorrelation for each direction is output. A specific calculation method follows Formula (17), Formula (20), Formula (23), and Formula (26). In step S14, a process for calculating the cross-correlation for each direction is performed by inputting the encoding target signal, the reference area, and the coordinate value indicating the area, and the cross-correlation for each direction is output. A specific calculation method follows equations (18), (21), (24), and (27).

その後,ステップS15では,各方向毎の自己相関および相互相関を入力として,アップサンプリングによる予測誤差を最小とするフィルタ係数を解とする連立方程式を解く処理を行い,求めた解を出力する。連立方程式は,具体的には,式(16),式(19),式(22),式(25)となる。また,同方程式の具体的な解法は,ガウス・ザイデル法のような適当な方法が外部から与えられるものとする。   Thereafter, in step S15, the autocorrelation and the cross-correlation for each direction are input, a process for solving simultaneous equations with a filter coefficient that minimizes the prediction error due to upsampling is performed, and the obtained solution is output. Specifically, the simultaneous equations are expressed by the following equations (16), (19), (22), and (25). In addition, a specific method such as the Gauss-Seidel method is given from the outside as a specific solution of the equation.

ステップS16では,下位階層参照信号,フィルタ係数を入力とし,アップサンプリング処理を行い,同処理後の信号を出力する。   In step S16, the lower layer reference signal and the filter coefficient are input, upsampling processing is performed, and a signal after the processing is output.

ステップS17では,ステップS16で出力されるアップサンプリング処理後の信号,符号化対象信号を入力として,両者の差分信号(予測残差信号)を生成する処理を行い,同差分信号を出力する。   In step S17, the signal after the upsampling process output in step S16 and the encoding target signal are input, a process of generating a difference signal (prediction residual signal) of both is performed, and the difference signal is output.

ステップS18では,すべてのブロックに対して処理を終えたかどうかを判定し,すべてのブロックについて処理が終えるまで,ステップS10〜S17の処理を繰り返す。   In step S18, it is determined whether or not the processing has been completed for all the blocks, and the processing in steps S10 to S17 is repeated until the processing is completed for all the blocks.

続いて,本発明の実施形態(Implicit mode )について図面を参照して説明する。図5は,本発明の実施の形態によるImplicit mode のときの符号化処理のフローチャートである。   Next, an embodiment (Implicit mode) of the present invention will be described with reference to the drawings. FIG. 5 is a flowchart of the encoding process in the Implicit mode according to the embodiment of the present invention.

まず,ステップS20では,下位階層参照信号の符号化に用いた量子化パラメータを入力とし,同パラメータが閾値以上であるか否かの判定を行い,閾値以上である場合,真値を出力し,そうでなければ,偽値を出力する。真値を出力した場合,ステップS24へ制御を以降し,デフォルトとして用意したデフォルト係数を使用するアップサンプリング処理へと進む。一方,偽値を出力した場合,ステップS21以降の判定処理に進む。   First, in step S20, the quantization parameter used for encoding the lower layer reference signal is input, it is determined whether or not the parameter is equal to or greater than a threshold value, and if it is equal to or greater than the threshold value, a true value is output. Otherwise, a false value is output. When the true value is output, the control proceeds to step S24, and the process proceeds to an upsampling process using a default coefficient prepared as a default. On the other hand, if a false value is output, the process proceeds to the determination process after step S21.

ステップS21では,下位階層参照信号および参照信号を入力として,フィルタ係数の算出に用いる参照領域の座標値を推定する処理を行い,同座標値,および最大類似度を出力する。同座標値としては,式(28)で与えられる類似度を最大にする参照領域を探索するものとする。   In step S21, the lower layer reference signal and the reference signal are input, a process of estimating the coordinate value of the reference region used for calculating the filter coefficient is performed, and the coordinate value and the maximum similarity are output. As the coordinate value, a reference area that maximizes the similarity given by Expression (28) is searched.

ステップS22では,ステップS21で出力された参照領域の座標値,最大類似度をレジスタに格納する。次に,ステップS23では,ステップS22で格納された最大類似度をレジスタより読み込み,同最大類似度が閾値以下であるか否かの判定を行い,閾値以下である場合,真値を出力し,そうでなければ,偽値を出力する。真値を出力した場合,ステップS24へ制御を移行し,デフォルトとして用意したデフォルト係数を使用するアップサンプリング処理へと進む。一方,偽値を出力した場合,ステップS25以降の,復号画像から推定したフィルタ係数を使用するアップサンプリング処理へと進む。   In step S22, the coordinate value and the maximum similarity of the reference area output in step S21 are stored in a register. Next, in step S23, the maximum similarity stored in step S22 is read from the register, it is determined whether or not the maximum similarity is equal to or less than a threshold value, and if it is equal to or less than the threshold value, a true value is output; Otherwise, a false value is output. If a true value is output, control is transferred to step S24, and the process proceeds to an upsampling process using a default coefficient prepared as a default. On the other hand, when a false value is output, the process proceeds to an upsampling process using a filter coefficient estimated from the decoded image in step S25 and subsequent steps.

ステップS24以降の処理は,図3のステップS11以降の処理と同様である。   The processing after step S24 is the same as the processing after step S11 in FIG.

最後に,ステップS30では,すべてのブロックに対して処理を終えたかどうかを判定し,すべてのブロックについて処理が終えるまで,ステップS20〜S29の処理を繰り返す。   Finally, in step S30, it is determined whether or not processing has been completed for all blocks, and the processing in steps S20 to S29 is repeated until processing is completed for all blocks.

図6に符号化装置(Explicit mode )のブロック図を示す。なお,図6では,主に本発明に関係する部分だけを示しており,予測残差信号の符号化やその符号化信号を復号する処理部分などは,従来の技術をそのまま用いることができるので省略している。後述する図7も同様である。   FIG. 6 shows a block diagram of the encoding device (Explicit mode). FIG. 6 shows only the part mainly related to the present invention, and the conventional technique can be used as it is for the encoding of the prediction residual signal and the processing part for decoding the encoded signal. Omitted. The same applies to FIG. 7 described later.

符号化対象信号は,符号化対象信号記憶部101に記憶される。フィルタ係数算出方法選択部102は,符号化対象信号記憶部101から読み出した符号化対象信号を入力として,フィルタ係数を復号画像から推定するか,それともデフォルトとして用意したデフォルト係数を使用するのかを選択する。選択の方法は,別途与えられるものとする。   The encoding target signal is stored in the encoding target signal storage unit 101. The filter coefficient calculation method selection unit 102 receives the encoding target signal read from the encoding target signal storage unit 101 and selects whether to estimate the filter coefficient from the decoded image or to use the default coefficient prepared as a default. To do. The method of selection shall be given separately.

デフォルト係数記憶部103には,あらかじめデフォルト係数が格納されており,フィルタ係数算出方法選択部102によってデフォルト係数の使用が選択された場合,デフォルト係数記憶部103から読み出されたフィルタ係数が,フィルタ係数記憶部114に書き出される。   The default coefficient is stored in advance in the default coefficient storage unit 103. When the use of the default coefficient is selected by the filter coefficient calculation method selection unit 102, the filter coefficient read from the default coefficient storage unit 103 is It is written in the coefficient storage unit 114.

フィルタ係数を復号画像から推定する場合,参照領域座標推定部104は,符号化対象信号記憶部101から読み出した符号化対象信号を入力として,参照領域を推定する処理を行い,参照領域を同定する座標値を参照領域座標記憶部105に書き込む。また,同座標値を符号化情報として出力する。   When estimating the filter coefficient from the decoded image, the reference region coordinate estimation unit 104 receives the encoding target signal read from the encoding target signal storage unit 101 and performs processing for estimating the reference region to identify the reference region. The coordinate value is written in the reference area coordinate storage unit 105. Also, the same coordinate value is output as encoded information.

参照信号記憶部106は,参照領域座標記憶部105から読み出した参照領域の座標値を入力とし,同座標値に対応する信号を復号信号記憶部107から読み出し,その信号を参照信号として記憶する。   The reference signal storage unit 106 receives the coordinate value of the reference area read from the reference area coordinate storage unit 105, reads a signal corresponding to the coordinate value from the decoded signal storage unit 107, and stores the signal as a reference signal.

フィルタ係数算出部108は,符号化対象信号記憶部101から読み出した符号化対象信号,参照信号記憶部106から読み出した参照信号を入力として,以下の3つの処理を行い,フィルタ係数を出力する。   The filter coefficient calculation unit 108 receives the encoding target signal read from the encoding target signal storage unit 101 and the reference signal read from the reference signal storage unit 106, performs the following three processes, and outputs a filter coefficient.

自己相関算出部109は,参照信号記憶部106から読み出した参照信号を入力とし,方向毎の自己相関を算出する処理を行い,算出結果を自己相関記憶部110に書き出す。具体的な算出方法は,式(17),式(20),式(23),式(26)に従う。   The autocorrelation calculation unit 109 receives the reference signal read from the reference signal storage unit 106, performs a process of calculating autocorrelation for each direction, and writes the calculation result to the autocorrelation storage unit 110. A specific calculation method follows Formula (17), Formula (20), Formula (23), and Formula (26).

また,相互相関算出部111は,符号化対象信号および参照信号記憶部106から読み出した参照信号を入力とし,方向毎の相互相関を算出する処理を行い,算出結果を相互相関記憶部112に書き出す。具体的な算出方法は,式(18),式(21),式(24),式(27)に従う。   Further, the cross-correlation calculation unit 111 receives the encoding target signal and the reference signal read from the reference signal storage unit 106, performs a process of calculating the cross-correlation for each direction, and writes the calculation result to the cross-correlation storage unit 112. . A specific calculation method follows equations (18), (21), (24), and (27).

連立方程式求解部113は,自己相関記憶部110および相互相関記憶部112から読み出した自己相関,相互相関を入力として,予測誤差を最小とするフィルタ係数を解とする連立方程式を解く処理を行い,求めた解をフィルタ係数記憶部114に書き出す。連立方程式は,具体的には,式(16),式(19),式(22),式(25)となる。また,同方程式の具体的な解法は,ガウス・ザイデル法のような適当な方法が外部から与えられるものとする。   The simultaneous equation solving unit 113 performs a process of solving simultaneous equations using the autocorrelation and the cross correlation read from the autocorrelation storage unit 110 and the cross correlation storage unit 112 as inputs and using a filter coefficient that minimizes the prediction error as a solution. The obtained solution is written in the filter coefficient storage unit 114. Specifically, the simultaneous equations are expressed by the following equations (16), (19), (22), and (25). In addition, a specific method such as the Gauss-Seidel method is given from the outside as a specific solution of the equation.

アップサンプリング信号生成部115は,フィルタ係数記憶部114から読み出したフィルタ係数,復号信号記憶部107から読み出した下位階層参照信号の復号信号を入力として,アップサンプリング処理を行い,符号化対象信号に対するアップサンプリング信号をアップサンプリング信号記憶部116に書き出す。具体的なアップサンプリング処理は,式(1),式(2),式(3),式(4)に従う。   The up-sampling signal generation unit 115 receives the filter coefficient read from the filter coefficient storage unit 114 and the decoded signal of the lower layer reference signal read from the decoded signal storage unit 107, performs up-sampling processing, and performs up-sampling on the encoding target signal. The sampling signal is written to the upsampling signal storage unit 116. A specific upsampling process follows Formula (1), Formula (2), Formula (3), and Formula (4).

予測残差信号算出部117は,符号化対象信号およびアップサンプリング信号記憶部116から読み出したアップサンプリング信号を入力として,両者の差分信号(予測残差信号)を生成する処理を行い,同残差信号を出力する。   The prediction residual signal calculation unit 117 receives the encoding target signal and the upsampling signal read from the upsampling signal storage unit 116 and performs processing for generating a difference signal (prediction residual signal) between them. Output a signal.

図7に符号化装置(Implicit mode )のブロック図を示す。   FIG. 7 shows a block diagram of an encoding device (Implicit mode).

符号化対象信号記憶部201は,図6の符号化対象信号記憶部101と同様に,符号化対象信号を記憶する。フィルタ係数算出方法第一判定部202は,量子化パラメータ記憶部203から読み出した下位階層参照信号に対する量子化パラメータを入力として,同パラメータが閾値より大きいか否か判定する処理を行い,真偽値を出力する。出力が真値の場合(同パラメータが閾値より大きい場合),デフォルト係数を読み出す処理に移る。一方,出力が偽値の場合,フィルタ係数算出方法第二判定部204による次の判定処理に移る。   The encoding target signal storage unit 201 stores the encoding target signal, similarly to the encoding target signal storage unit 101 of FIG. The filter coefficient calculation method first determination unit 202 receives the quantization parameter for the lower layer reference signal read from the quantization parameter storage unit 203, performs a process of determining whether or not the parameter is larger than a threshold, Is output. When the output is a true value (when the parameter is larger than the threshold value), the process moves to a process of reading a default coefficient. On the other hand, when the output is a false value, the process proceeds to the next determination process by the filter coefficient calculation method second determination unit 204.

フィルタ係数算出方法第二判定部204は,参照領域座標推定部205,最大類似度記憶部206,フィルタ係数算出方法判定部208,閾値記憶部209からなる。   The filter coefficient calculation method second determination unit 204 includes a reference area coordinate estimation unit 205, a maximum similarity storage unit 206, a filter coefficient calculation method determination unit 208, and a threshold storage unit 209.

参照領域座標推定部205は,符号化対象信号を入力として,参照領域を推定する処理を行い,参照領域を同定する座標値を参照領域座標記憶部207に書き込む。また,この推定時には類似度を最大にする領域を求めており,その際,求まった類似度の最大値を最大類似度記憶部206に書き込む。   The reference area coordinate estimation unit 205 receives the encoding target signal as input, performs a process for estimating the reference area, and writes a coordinate value for identifying the reference area in the reference area coordinate storage unit 207. In addition, an area for maximizing the similarity is obtained at the time of estimation, and the maximum value of the obtained similarity is written in the maximum similarity storage unit 206 at that time.

フィルタ係数算出方法判定部208は,最大類似度記憶部206から読み出した最大類似度,および閾値記憶部209から読み出した閾値を入力とし,最大類似度が閾値より大きいか否か判定する処理を行い,真偽値を出力する。出力が偽値の場合,デフォルト係数を読み出す処理に移る。一方,出力が真値の場合,フィルタ係数を算出する処理に移る。このとき,参照領域座標記憶部207から読み出した参照領域の座標値を入力とし,同座標値に対応する信号を復号信号記憶部211から読み出し,参照信号記憶部212に書き出す。   The filter coefficient calculation method determination unit 208 receives the maximum similarity read from the maximum similarity storage unit 206 and the threshold read from the threshold storage unit 209, and performs a process of determining whether the maximum similarity is greater than the threshold. , Output a boolean value. If the output is a false value, the process moves to reading the default coefficient. On the other hand, if the output is a true value, the process proceeds to processing for calculating the filter coefficient. At this time, the coordinate value of the reference area read from the reference area coordinate storage unit 207 is input, and a signal corresponding to the coordinate value is read from the decoded signal storage unit 211 and written to the reference signal storage unit 212.

デフォルト係数記憶部210およびフィルタ係数算出部213以降の処理は,Explicit mode における図6のデフォルト係数記憶部103およびフィルタ係数算出部108以降の処理と同じである。   The processes after the default coefficient storage unit 210 and the filter coefficient calculation unit 213 are the same as the processes after the default coefficient storage unit 103 and the filter coefficient calculation unit 108 in FIG. 6 in the Explicit mode.

[復号処理]
本発明の実施形態(Explicit mode )について図面を参照して説明する。図8は,本発明の実施の形態によるExplicit mode のときの復号処理のフローチャートである。
[Decryption process]
An embodiment (Explicit mode) of the present invention will be described with reference to the drawings. FIG. 8 is a flowchart of the decrypting process in the Explicit mode according to the embodiment of the present invention.

ステップS40では,符号化情報を入力とし,符号化情報に含まれる情報を解析し,フィルタ係数を復号信号から推定するか,それともデフォルトとして用意したデフォルト係数を使用するのか判別し,判別結果を出力する。なお,判別結果がフィルタ係数を復号信号から推定することを示した場合には,併せて参照領域を指す座標値を符号化情報より抽出し,出力する。   In step S40, the encoded information is input, the information included in the encoded information is analyzed, it is determined whether the filter coefficient is estimated from the decoded signal, or the default coefficient prepared as a default is used, and the determination result is output. To do. When the determination result indicates that the filter coefficient is estimated from the decoded signal, the coordinate value indicating the reference area is extracted from the encoded information and output.

フィルタ係数としてデフォルト係数を用いる場合,ステップS41へ進み,デフォルト係数を読み込み,その後,ステップS46へ進む。   When the default coefficient is used as the filter coefficient, the process proceeds to step S41, the default coefficient is read, and then the process proceeds to step S46.

フィルタ係数を復号画像から推定する場合,ステップS42へ進み,符号化情報に含まれる参照領域を指す座標値を入力とし,同座標値が指す参照信号を読み込み,同参照信号を出力する。以降のステップS43〜S46の処理は,図3のステップS13〜S16の処理と同様である。   When the filter coefficient is estimated from the decoded image, the process proceeds to step S42, where the coordinate value indicating the reference area included in the encoded information is input, the reference signal indicated by the coordinate value is read, and the reference signal is output. The subsequent steps S43 to S46 are the same as the steps S13 to S16 in FIG.

ステップS47では,ステップS46で出力されるアップサンプリング信号,同アップサンプリング信号と符号化対象信号との差分信号(予測残差信号)に対する復号信号を入力として,両者を加算する処理を行い,符号化対象信号の復号信号を出力する。   In step S47, the up-sampling signal output in step S46 and the decoded signal for the difference signal (predictive residual signal) between the up-sampling signal and the signal to be encoded are input, and both are added and encoded. A decoded signal of the target signal is output.

ステップS48では,すべてのブロックに対して処理を終えたかどうかを判定し,すべてのブロックについて処理が終えるまで,ステップS40〜S47の処理を繰り返す。   In step S48, it is determined whether or not processing has been completed for all blocks, and the processing in steps S40 to S47 is repeated until processing is completed for all blocks.

本発明の実施形態(Implicit mode )について図面を参照して説明する。図9は,本発明の実施の形態によるImplicit mode のときの復号処理のフローチャートである。   An embodiment (Implicit mode) of the present invention will be described with reference to the drawings. FIG. 9 is a flowchart of a decoding process in the Implicit mode according to the embodiment of the present invention.

ステップS50では,符号化情報に含まれる下位階層参照信号の符号化に用いた量子化パラメータを入力とし,同パラメータが閾値以上であるか否かの判定を行い,閾値以上である場合,真値を出力し,そうでなければ,偽値を出力する。真値を出力した場合,ステップS54へ進みデフォルトとして用意したデフォルト係数を使用するアップサンプリング処理へと進む。一方,偽値を出力した場合,ステップS51以降の2つ目の判定処理に進む。   In step S50, the quantization parameter used for encoding the lower layer reference signal included in the encoding information is input, and it is determined whether or not the parameter is equal to or greater than a threshold value. Is output, otherwise a false value is output. When the true value is output, the process proceeds to step S54 and proceeds to an upsampling process using a default coefficient prepared as a default. On the other hand, if a false value is output, the process proceeds to a second determination process after step S51.

以降のステップS51〜S58の処理は,図5のステップS21〜S28の処理と同様である。ステップS59の処理は,図8のステップS47の処理と同様である。最後にステップS60では,すべてのブロックに対して処理を終えたかどうかを判定し,すべてのブロックについて処理が終えるまで,ステップS50〜S59の処理を繰り返す。   The subsequent steps S51 to S58 are the same as the steps S21 to S28 in FIG. The process in step S59 is the same as the process in step S47 in FIG. Finally, in step S60, it is determined whether or not processing has been completed for all blocks, and the processing in steps S50 to S59 is repeated until processing is completed for all blocks.

図10に復号装置(Explicit mode )のブロック図を示す。   FIG. 10 shows a block diagram of the decryption device (Explicit mode).

符号化情報解析部300は,符号化情報を入力とし,符号化情報中のヘッダ情報,予測残差信号の復号信号を解析し,各々,ヘッダ情報記憶部301,予測残差信号記憶部318に書き出す。ここで,ヘッダ情報には,デフォルト係数を使用するか否かを示す判別情報,および,デフォルト係数を使用しない場合に限り参照領域の座標値情報が含まれる。予測残差信号とは,下位階層参照信号のアップサンプリングにより生成した予測信号と符号化対象信号との差分信号である。   The encoded information analysis unit 300 receives the encoded information, analyzes header information in the encoded information, and a decoded signal of the prediction residual signal, and stores them in the header information storage unit 301 and the prediction residual signal storage unit 318, respectively. Write out. Here, the header information includes discrimination information indicating whether or not to use a default coefficient, and coordinate value information of the reference area only when the default coefficient is not used. A prediction residual signal is a difference signal between a prediction signal generated by upsampling a lower layer reference signal and a signal to be encoded.

フィルタ選択部302は,ヘッダ情報記憶部301から読み出したヘッダ情報中の判別情報を入力とし,同判別情報に応じてデフォルト係数を使用する処理,あるいは,フィルタ係数を推定する処理のいずれかに分岐する。   The filter selection unit 302 receives the discrimination information in the header information read from the header information storage unit 301 as an input, and branches to either a process that uses a default coefficient or a process that estimates a filter coefficient according to the discrimination information. To do.

参照信号記憶部306〜アップサンプリング信号記憶部316の機能は,図6の参照信号記憶部106〜アップサンプリング信号記憶部116の機能と同様である。   The functions of the reference signal storage unit 306 to the upsampling signal storage unit 316 are the same as the functions of the reference signal storage unit 106 to the upsampling signal storage unit 116 of FIG.

復号信号生成部317は,アップサンプリング信号記憶部316から読み出したアップサンプリング信号および予測残差信号記憶部318から読み出した予測残差信号の復号信号を入力として,両者を加算する処理を行い,符号化対象信号の復号信号を出力する。また,出力された復号信号は復号信号記憶部307へも書き出される。   The decoded signal generation unit 317 performs processing of adding both of the upsampling signal read from the upsampling signal storage unit 316 and the decoded signal of the prediction residual signal read from the prediction residual signal storage unit 318 as input. The decoded signal of the signal to be converted is output. The output decoded signal is also written to the decoded signal storage unit 307.

図11に復号装置(Implicit mode )のブロック図を示す。   FIG. 11 shows a block diagram of the decoding device (Implicit mode).

符号化情報解析部400は,符号化情報を入力とし,符号化情報中のヘッダ情報,予測残差信号の復号信号を解析し,各々,ヘッダ情報記憶部401,予測残差信号記憶部423に書き出す。ここで,ヘッダ情報には,下位階層参照信号の量子化パラメータが含まれる。予測残差信号とは下位階層参照信号のアップサンプリングにより生成した予測信号と符号化対象信号との差分信号である。   The encoded information analysis unit 400 receives the encoded information, analyzes header information in the encoded information and a decoded signal of the prediction residual signal, and stores them in the header information storage unit 401 and the prediction residual signal storage unit 423, respectively. Write out. Here, the header information includes the quantization parameter of the lower layer reference signal. A prediction residual signal is a difference signal between a prediction signal generated by upsampling a lower layer reference signal and a signal to be encoded.

フィルタ係数算出方法第一判定部402は,量子化パラメータ閾値記憶部403から読み出した閾値,ヘッダ情報記憶部401から読み出した下位階層参照信号に対する量子化パラメータを入力として,同パラメータが閾値より大きいか否か判定する処理を行い,真偽値を出力する。出力が真値の場合(同パラメータが閾値より大きい場合),デフォルト係数を読み出す処理に移る。一方,出力が偽値の場合,フィルタ係数算出方法第二判定部404の判定処理に移る。   The filter coefficient calculation method first determination unit 402 receives the threshold value read from the quantization parameter threshold value storage unit 403 and the quantization parameter for the lower layer reference signal read from the header information storage unit 401 as input. Processing to determine whether or not, and outputs a truth value. When the output is a true value (when the parameter is larger than the threshold value), the process moves to a process of reading a default coefficient. On the other hand, if the output is a false value, the process proceeds to the determination process of the filter coefficient calculation method second determination unit 404.

フィルタ係数算出方法第二判定部404〜アップサンプリング信号記憶部421の機能は,図7のフィルタ係数算出方法第二判定部204〜アップサンプリング信号記憶部221の機能と同様である。   The functions of the filter coefficient calculation method second determination unit 404 to the upsampling signal storage unit 421 are the same as the functions of the filter coefficient calculation method second determination unit 204 to the upsampling signal storage unit 221 of FIG.

復号信号生成部422は,アップサンプリング信号記憶部421から読み出したアップサンプリング信号および予測残差信号記憶部423から読み出した予測残差信号の復号信号を入力として,両者を加算する処理を行い,符号化対象信号の復号信号を出力する。また,出力された復号信号は復号信号記憶部411へも書き出される。   The decoded signal generation unit 422 receives the upsampling signal read from the upsampling signal storage unit 421 and the decoded signal of the prediction residual signal read from the prediction residual signal storage unit 423 as inputs, and adds the both. The decoded signal of the signal to be converted is output. The output decoded signal is also written to the decoded signal storage unit 411.

以上説明した符号化処理および復号処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The encoding process and the decoding process described above can be realized by a computer and a software program, and the program can be provided by being recorded on a computer-readable recording medium or provided via a network. is there.

水平方向の補間を説明する図である。It is a figure explaining the interpolation of a horizontal direction. 符号化対象信号と参照信号の関係を示す図である。It is a figure which shows the relationship between an encoding target signal and a reference signal. Explicit mode のときの符号化処理のフローチャートである。It is a flowchart of the encoding process at the time of Explicit mode. フィルタ係数算出方法を選択する処理を説明するための図である。It is a figure for demonstrating the process which selects the filter coefficient calculation method. Implicit mode のときの符号化処理のフローチャートである。It is a flowchart of the encoding process at the time of Implicit mode. 符号化装置(Explicit mode )のブロック図である。It is a block diagram of an encoding device (Explicit mode). 符号化装置(Implicit mode )のブロック図である。It is a block diagram of an encoding device (Implicit mode). Explicit mode のときの復号処理のフローチャートである。It is a flowchart of the decoding process at the time of Explicit mode. Implicit mode のときの復号処理のフローチャートである。It is a flowchart of the decoding process at the time of Implicit mode. 復号装置(Explicit mode )のブロック図である。It is a block diagram of a decoding apparatus (Explicit mode). 復号装置(Implicit mode )のブロック図である。It is a block diagram of a decoding apparatus (Implicit mode).

符号の説明Explanation of symbols

101,201 符号化対象信号記憶部
102 フィルタ係数算出方法選択部
103,210,303,410 デフォルト係数記憶部
104,205,405 参照領域座標推定部
105,207,305,407 参照領域座標記憶部
106,212,306,412 参照信号記憶部
107,211,307,411 復号信号記憶部
108,213,308,413 フィルタ係数算出部
109,214,309,414 自己相関算出部
110,215,310,415 自己相関記憶部
111,216,311,416 相互相関算出部
112,217,312,417 相互相関記憶部
113,218,313,418 連立方程式求解部
114,219,314,419 フィルタ係数記憶部
115,220,315,420 アップサンプリング信号生成部
116,221,316,421 アップサンプリング信号記憶部
117,222 予測残差信号算出部
202,402 フィルタ係数算出方法第一判定部
203 量子化パラメータ記憶部
204,404 フィルタ係数算出方法第二判定部
206,406 最大類似度記憶部
209,409 閾値記憶部
208,408 フィルタ係数算出方法判定部
300,400 符号化情報解析部
301,401 ヘッダ情報記憶部
302 フィルタ選択部
304 参照領域座標読み込み部
318,423 予測残差信号記憶部
403 量子化パラメータ閾値記憶部
101, 201 Encoding target signal storage unit 102 Filter coefficient calculation method selection unit 103, 210, 303, 410 Default coefficient storage unit 104, 205, 405 Reference region coordinate estimation unit 105, 207, 305, 407 Reference region coordinate storage unit 106 , 212, 306, 412 Reference signal storage unit 107, 211, 307, 411 Decoded signal storage unit 108, 213, 308, 413 Filter coefficient calculation unit 109, 214, 309, 414 Autocorrelation calculation unit 110, 215, 310, 415 Autocorrelation storage unit 111, 216, 311, 416 Cross correlation calculation unit 112, 217, 312, 417 Cross correlation storage unit 113, 218, 313, 418 Simultaneous equation solving unit 114, 219, 314, 419 Filter coefficient storage unit 115, 220,315,420 up Sampling signal generation unit 116, 221, 316, 421 upsampling signal storage unit 117, 222 prediction residual signal calculation unit 202, 402 filter coefficient calculation method first determination unit 203 quantization parameter storage unit 204, 404 filter coefficient calculation method Two determination units 206, 406 Maximum similarity storage unit 209, 409 Threshold storage unit 208, 408 Filter coefficient calculation method determination unit 300, 400 Encoding information analysis unit 301, 401 Header information storage unit 302 Filter selection unit 304 Reference area coordinate reading 318, 423 Prediction residual signal storage unit 403 Quantization parameter threshold storage unit

Claims (14)

低い空間解像度の下位階層信号から高い空間解像度の上位階層信号を補間処理を用いて予測し符号化する動画像符号化方法において,
上位階層の予測信号として下位階層参照信号から補間信号を生成する際に,過去に符号化および復号した局所復号画像の時空間的な位置を指定するステップと,
指定された位置の参照信号を用いて所定のブロック毎に補間画像生成のための前記局所復号画像における上位階層の予測信号の予測誤差を最小化するフィルタ係数を算出するステップと,
算出したフィルタ係数に基づき,下位階層参照信号の復号信号を入力としてアップサンプリング処理を行い,上位階層の符号化対象信号に対するアップサンプリング信号を出力するステップと,
前記符号化対象信号と前記アップサンプリング信号との差分から予測残差信号を生成し出力するステップとを有する
ことを特徴とする階層間予測符号化方法。
In a video encoding method for predicting and encoding a higher spatial resolution upper layer signal from a lower spatial resolution lower layer signal using interpolation processing,
Designating a spatio-temporal position of a locally decoded image previously encoded and decoded when generating an interpolation signal from a lower layer reference signal as a higher layer prediction signal;
Calculating a filter coefficient that minimizes a prediction error of an upper layer prediction signal in the local decoded image for generating an interpolated image for each predetermined block using a reference signal at a specified position;
Performing an upsampling process on the basis of the calculated filter coefficient and inputting a decoded signal of a lower layer reference signal as an input, and outputting an upsampling signal for an upper layer encoding target signal;
And a step of generating and outputting a prediction residual signal from the difference between the encoding target signal and the up-sampling signal.
請求項1記載の階層間予測符号化方法において,
前記フィルタ係数の算出時に参照する局所復号画像の時空間的な位置を同定する符号化パラメータを,符号化情報の一部として出力する
ことを特徴とする階層間予測符号化方法。
The inter-layer predictive encoding method according to claim 1,
An inter-layer predictive encoding method characterized in that an encoding parameter for identifying a spatio-temporal position of a locally decoded image to be referred to when calculating the filter coefficient is output as a part of encoding information.
請求項1記載の階層間予測符号化方法において,
前記フィルタ係数の算出時に参照する局所復号画像の時空間的な位置を示す情報を局所復号信号に基づき決定する
ことを特徴とする階層間予測符号化方法。
The inter-layer predictive encoding method according to claim 1,
Information indicating a spatio-temporal position of a local decoded image referred to when calculating the filter coefficient is determined based on a local decoded signal.
請求項3記載の階層間予測符号化方法において,
前記下位階層参照信号の量子化パラメータに応じて,前記フィルタ係数の算出により推定されたフィルタ係数を用いてアップサンプリング処理を行うか,あらかじめデフォルトとして定められたフィルタ係数を用いてアップサンプリング処理を行うかを適応的に切り替える
ことを特徴とする階層間予測符号化方法。
In the inter-layer prediction encoding method according to claim 3,
Depending on the quantization parameter of the lower layer reference signal, an upsampling process is performed using the filter coefficient estimated by the calculation of the filter coefficient, or an upsampling process is performed using a filter coefficient determined as a default in advance. An inter-layer predictive coding method characterized by adaptively switching between.
低い空間解像度の下位階層信号から高い空間解像度の上位階層信号を補間処理を用いて予測し符号化する動画像符号化装置において,
上位階層の予測信号として下位階層参照信号から補間信号を生成する際に,過去に符号化および復号した局所復号画像の時空間的な位置を指定する手段と,
指定された位置の参照信号を用いて所定のブロック毎に補間画像生成のための前記局所復号画像における上位階層の予測信号の予測誤差を最小化するフィルタ係数を算出する手段と,
算出したフィルタ係数に基づき,下位階層参照信号の復号信号を入力としてアップサンプリング処理を行い,上位階層の符号化対象信号に対するアップサンプリング信号を出力する手段と,
前記符号化対象信号と前記アップサンプリング信号との差分から予測残差信号を生成し出力する手段とを備える
ことを特徴とする階層間予測符号化装置。
In a video encoding apparatus that predicts and encodes a higher spatial resolution upper layer signal from a lower spatial resolution lower layer signal using interpolation processing,
Means for designating a spatio-temporal position of a locally decoded image encoded and decoded in the past when generating an interpolation signal from a lower layer reference signal as an upper layer prediction signal;
Means for calculating a filter coefficient for minimizing a prediction error of an upper layer prediction signal in the local decoded image for generating an interpolated image for each predetermined block using a reference signal at a specified position;
Based on the calculated filter coefficient, a means for performing an upsampling process using a decoded signal of a lower layer reference signal as an input, and outputting an upsampling signal for an upper layer encoding target signal;
An inter-layer prediction encoding apparatus comprising: means for generating and outputting a prediction residual signal from a difference between the encoding target signal and the upsampling signal.
低い空間解像度の下位階層信号から高い空間解像度の上位階層信号を補間処理を用いて予測した予測信号と予測残差信号とを加算して復号画像信号を得る動画像復号方法において,
上位階層の予測信号として下位階層参照信号から補間信号を生成する際に,過去に復号した局所復号画像の時空間的な位置を指定するステップと,
指定された位置の参照信号を用いて所定のブロック毎に補間画像生成のための前記局所復号画像における上位階層の予測信号の予測誤差を最小化するフィルタ係数を算出するステップと,
算出したフィルタ係数に基づき,下位階層参照信号の復号信号を入力としてアップサンプリング処理を行い,上位階層の復号対象信号に対するアップサンプリング信号を出力するステップと,
符号化情報から復号した予測残差信号と前記アップサンプリング信号とを加算し上位階層の復号画像信号を生成し出力するステップとを有する
ことを特徴とする階層間予測復号方法。
In a moving picture decoding method for obtaining a decoded image signal by adding a prediction signal obtained by interpolating a higher layer signal having a higher spatial resolution from a lower layer signal having a lower spatial resolution using an interpolation process, and a prediction residual signal,
Designating a spatio-temporal position of a locally decoded image decoded in the past when generating an interpolation signal from a lower layer reference signal as an upper layer prediction signal;
Calculating a filter coefficient that minimizes a prediction error of an upper layer prediction signal in the local decoded image for generating an interpolated image for each predetermined block using a reference signal at a specified position;
Performing an upsampling process on the basis of the calculated filter coefficient, using the decoded signal of the lower layer reference signal as an input, and outputting an upsampling signal for the upper layer decoding target signal;
An inter-layer predictive decoding method comprising: adding a prediction residual signal decoded from encoded information and the upsampling signal to generate and output a decoded image signal of an upper layer.
請求項6記載の階層間予測復号方法において,
前記フィルタ係数の算出時に参照する局所復号画像の時空間的な位置を同定する符号化パラメータを,符号化情報から抽出する
ことを特徴とする階層間予測復号方法。
The inter-layer predictive decoding method according to claim 6,
An inter-layer predictive decoding method, characterized in that an encoding parameter for identifying a spatio-temporal position of a locally decoded image referred to when calculating the filter coefficient is extracted from encoding information.
請求項6記載の階層間予測復号方法において,
前記フィルタ係数の算出時に参照する局所復号画像の時空間的な位置を示す情報を局所復号信号に基づき決定する
ことを特徴とする階層間予測復号方法。
The inter-layer predictive decoding method according to claim 6,
Information indicating a spatio-temporal position of a local decoded image referred to when calculating the filter coefficient is determined based on a local decoded signal.
請求項8記載の階層間予測復号方法において,
前記下位階層参照信号の量子化パラメータに応じて,前記フィルタ係数の算出により推定されたフィルタ係数を用いてアップサンプリング処理を行うか,あらかじめデフォルトとして定められたフィルタ係数を用いてアップサンプリング処理を行うかを適応的に切り替える
ことを特徴とする階層間予測復号方法。
The inter-layer predictive decoding method according to claim 8,
Depending on the quantization parameter of the lower layer reference signal, an upsampling process is performed using the filter coefficient estimated by the calculation of the filter coefficient, or an upsampling process is performed using a filter coefficient determined as a default in advance. An inter-layer predictive decoding method characterized by adaptively switching between.
低い空間解像度の下位階層信号から高い空間解像度の上位階層信号を補間処理を用いて予測した予測信号と予測残差信号とを加算して復号画像信号を得る動画像復号装置において,
上位階層の予測信号として下位階層参照信号から補間信号を生成する際に,過去に復号した局所復号画像の時空間的な位置を指定する手段と,
指定された位置の参照信号を用いて所定のブロック毎に補間画像生成のための前記局所復号画像における上位階層の予測信号の予測誤差を最小化するフィルタ係数を算出する手段と,
算出したフィルタ係数に基づき,下位階層参照信号の復号信号を入力としてアップサンプリング処理を行い,上位階層の復号対象信号に対するアップサンプリング信号を出力する手段と,
符号化情報から復号した予測残差信号と前記アップサンプリング信号とを加算し上位階層の復号画像信号を生成し出力する手段とを備える
ことを特徴とする階層間予測復号装置。
In a moving picture decoding apparatus that obtains a decoded image signal by adding a prediction signal obtained by interpolating an upper layer signal having a high spatial resolution from a lower layer signal having a low spatial resolution using an interpolation process, and a prediction residual signal,
Means for designating a spatio-temporal position of a locally decoded image decoded in the past when generating an interpolation signal from a lower layer reference signal as an upper layer prediction signal;
Means for calculating a filter coefficient for minimizing a prediction error of an upper layer prediction signal in the local decoded image for generating an interpolated image for each predetermined block using a reference signal at a specified position;
Based on the calculated filter coefficient, a means for performing upsampling processing with the decoded signal of the lower layer reference signal as input, and outputting an upsampling signal for the upper layer decoding target signal;
An inter-layer prediction decoding apparatus comprising: means for adding a prediction residual signal decoded from encoded information and the up-sampling signal to generate and output a decoded image signal of an upper layer.
請求項1から請求項4までのいずれかに記載の階層間予測符号化方法をコンピュータに実行させるための階層間予測符号化プログラム。   An inter-layer prediction encoding program for causing a computer to execute the inter-layer prediction encoding method according to any one of claims 1 to 4. 請求項6から請求項9までのいずれかに記載の階層間予測復号方法をコンピュータに実行させるための階層間予測復号プログラム。   An inter-layer predictive decoding program for causing a computer to execute the inter-layer predictive decoding method according to any one of claims 6 to 9. 請求項1から請求項4までのいずれかに記載の階層間予測符号化方法をコンピュータに実行させるための階層間予測符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which an inter-layer prediction encoding program for causing a computer to execute the inter-layer prediction encoding method according to any one of claims 1 to 4 is recorded. 請求項6から請求項9までのいずれかに記載の階層間予測復号方法をコンピュータに実行させるための階層間予測復号プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which an inter-layer predictive decoding program for causing a computer to execute the inter-layer predictive decoding method according to any one of claims 6 to 9 is recorded.
JP2005093760A 2005-03-29 2005-03-29 Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof Active JP4295236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005093760A JP4295236B2 (en) 2005-03-29 2005-03-29 Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005093760A JP4295236B2 (en) 2005-03-29 2005-03-29 Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof

Publications (2)

Publication Number Publication Date
JP2006279383A true JP2006279383A (en) 2006-10-12
JP4295236B2 JP4295236B2 (en) 2009-07-15

Family

ID=37213680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005093760A Active JP4295236B2 (en) 2005-03-29 2005-03-29 Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof

Country Status (1)

Country Link
JP (1) JP4295236B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009087952A1 (en) * 2008-01-04 2009-07-16 Sharp Kabushiki Kaisha Methods and apparatus for inter-layer image prediction parameter determination
JP2011135460A (en) * 2009-12-25 2011-07-07 Kddi R & D Laboratories Inc Moving image encoding apparatus and moving image decoding apparatus
JP2011524708A (en) * 2008-06-19 2011-09-01 トムソン ライセンシング Method for determining a filter for interpolating one or more pixels of a frame
JP2011228974A (en) * 2010-04-21 2011-11-10 Nippon Hoso Kyokai <Nhk> Image encoder, image decoder and program
JP2011234316A (en) * 2010-04-30 2011-11-17 Nippon Hoso Kyokai <Nhk> Image encoding apparatus, image decoding apparatus and program
WO2013133639A1 (en) * 2012-03-09 2013-09-12 엘지전자 주식회사 Inter-layer prediction method and apparatus using same
WO2014069889A1 (en) * 2012-10-30 2014-05-08 엘지전자 주식회사 Image decoding method and apparatus using same
WO2014088306A2 (en) * 2012-12-04 2014-06-12 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method and device using said method
WO2014088316A2 (en) * 2012-12-04 2014-06-12 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method, and apparatus using same
WO2014148070A1 (en) * 2013-03-19 2014-09-25 ソニー株式会社 Image processing device and image processing method
JP2015534781A (en) * 2012-09-28 2015-12-03 ヴィド スケール インコーポレイテッド Adaptive upsampling of multi-layer video coding

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8175158B2 (en) 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
WO2009087952A1 (en) * 2008-01-04 2009-07-16 Sharp Kabushiki Kaisha Methods and apparatus for inter-layer image prediction parameter determination
JP2011524708A (en) * 2008-06-19 2011-09-01 トムソン ライセンシング Method for determining a filter for interpolating one or more pixels of a frame
US8804833B2 (en) 2008-06-19 2014-08-12 Thomson Licensing Method for determining a filter for interpolating one or more pixels of a frame
JP2011135460A (en) * 2009-12-25 2011-07-07 Kddi R & D Laboratories Inc Moving image encoding apparatus and moving image decoding apparatus
US8780995B2 (en) 2009-12-25 2014-07-15 Kddi R&D Laboratories Inc. Video encoding apparatus and video decoding apparatus
JP2011228974A (en) * 2010-04-21 2011-11-10 Nippon Hoso Kyokai <Nhk> Image encoder, image decoder and program
JP2011234316A (en) * 2010-04-30 2011-11-17 Nippon Hoso Kyokai <Nhk> Image encoding apparatus, image decoding apparatus and program
WO2013133639A1 (en) * 2012-03-09 2013-09-12 엘지전자 주식회사 Inter-layer prediction method and apparatus using same
JP2015534781A (en) * 2012-09-28 2015-12-03 ヴィド スケール インコーポレイテッド Adaptive upsampling of multi-layer video coding
US10218971B2 (en) 2012-09-28 2019-02-26 Vid Scale, Inc. Adaptive upsampling for multi-layer video coding
WO2014069889A1 (en) * 2012-10-30 2014-05-08 엘지전자 주식회사 Image decoding method and apparatus using same
WO2014088306A2 (en) * 2012-12-04 2014-06-12 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method and device using said method
WO2014088306A3 (en) * 2012-12-04 2014-10-23 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method and device using said method
WO2014088316A3 (en) * 2012-12-04 2014-10-23 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method, and apparatus using same
WO2014088316A2 (en) * 2012-12-04 2014-06-12 인텔렉추얼 디스커버리 주식회사 Video encoding and decoding method, and apparatus using same
WO2014148070A1 (en) * 2013-03-19 2014-09-25 ソニー株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JP4295236B2 (en) 2009-07-15

Similar Documents

Publication Publication Date Title
JP4295236B2 (en) Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof
CN103647972B (en) Moving picture decoding method and moving picture encoding method
JP7171770B2 (en) Memory access windowing and padding for motion vector refinement and motion compensation
JP3768507B2 (en) Motion estimation using orthogonal transform-domain block matching
EP1274254B1 (en) Video coding device and video decoding device with a motion compensated interframe prediction
KR100714698B1 (en) Enhanced motion estimation method, video encoding method and apparatus using the same
US20230140112A1 (en) Method and apparatus for video signal processing using sub-block based motion compensation
TW201739252A (en) Method and apparatus of video coding with affine motion compensation
KR102527169B1 (en) Limited memory access window for motion vector refinement
CN113612994A (en) Method and device for video coding and decoding with affine motion compensation
US8290058B2 (en) Method and device for coding and decoding
JP5216710B2 (en) Decryption processing method
JP2006521048A (en) Method and apparatus for encoding and decoding an image sequence by motion / texture decomposition and wavelet encoding
JPH1155667A (en) Image coder, image decoder, and recording medium recorded with image coded data
KR20100019537A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
CN111479110B (en) Fast affine motion estimation method for H.266/VVC
JP2007028034A (en) Scalable encoding method and device, scalable decoding method and device and these program and their recording media
CN112602326A (en) Motion vector prediction method and device and coder-decoder
KR20060131796A (en) Moving picture encoding method and device, and moving picture decoding method and device
KR101910286B1 (en) Method for encording 360-degree video, recording medium and apparatus for performing the method
JP5512696B2 (en) Method and apparatus for predicting and encoding motion parameters of video picture sequences
JP4490351B2 (en) Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor
JP2009049627A (en) Method of encoding scalable image, decoding method, encoder, decoder, program thereof, and recording medium thereof
US20080117983A1 (en) Method And Device For Densifying A Motion Field
Naman et al. Flexible synthesis of video frames based on motion hints

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090409

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140417

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350