JP4199712B2 - Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program - Google Patents
Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program Download PDFInfo
- Publication number
- JP4199712B2 JP4199712B2 JP2004237860A JP2004237860A JP4199712B2 JP 4199712 B2 JP4199712 B2 JP 4199712B2 JP 2004237860 A JP2004237860 A JP 2004237860A JP 2004237860 A JP2004237860 A JP 2004237860A JP 4199712 B2 JP4199712 B2 JP 4199712B2
- Authority
- JP
- Japan
- Prior art keywords
- quantization error
- decoded video
- signal
- video
- prediction mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、複数の予測モードの中から符号化対象ブロックの予測モードを決定して符号化を行う映像符号化方式で用いられたり、その映像符号化方式により符号化された映像を復号する映像復号方式で用いられる復号映像の量子化誤差低減方法及びその装置と、その量子化誤差低減方法の実現に用いられる復号映像の量子化誤差低減プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。 The present invention is used in a video encoding system that performs encoding by determining a prediction mode of an encoding target block from among a plurality of prediction modes, or a video that decodes video encoded by the video encoding system Decoding video quantization error reduction method and apparatus used in decoding method, decoded video quantization error reduction program used for realizing quantization error reduction method, and computer-readable recording medium recording the program About.
現在、主流となっている動画像符号化方式の多くは、画像を複数のブロックに分割し、ブロック単位で動き補償予測やDCTや量子化などの符号化処理を行っている。 Currently, most of the mainstream video coding systems divide an image into a plurality of blocks and perform coding processing such as motion compensation prediction, DCT, and quantization in units of blocks.
一般に動画像符号化方式では、符号化ビットレートが低下すると、量子化誤差が大きくなり符号化雑音が増加する。また、ブロック単位での符号化処理により、ブロック境界の画素変化が不連続となりブロック歪が発生する。 In general, in the moving picture coding system, when the coding bit rate is lowered, the quantization error increases and coding noise increases. In addition, due to the encoding process in units of blocks, the pixel change at the block boundary becomes discontinuous and block distortion occurs.
そこで、復号画像に対し、このブロック歪などの符号化雑音を取り除くため、後処理方法が多数提案されている。これらの方法の多くは、基本的にブロック境界の連続性に着目した方法であり、大きく分けて、
(i)ブロック境界の連続性を拘束条件としたDCT係数の修正
(ii)ブロック境界の連続性を維持するようなフィルタリング
という2つの方法に分類できる。
Therefore, many post-processing methods have been proposed in order to remove coding noise such as block distortion from the decoded image. Many of these methods are basically methods that focus on the continuity of block boundaries.
(I) Correction of DCT coefficient with block boundary continuity as a constraint condition (ii) Filtering to maintain block boundary continuity can be classified into two methods.
まず、“ブロック境界の連続性を拘束条件としたDCT係数の修正方法(以下、DCT係数修正方法と称する)”について説明する。 First, a “DCT coefficient correction method with the block boundary continuity as a constraint (hereinafter referred to as a DCT coefficient correction method)” will be described.
原画像に無いブロック歪が発生するのは、量子化誤差による影響である。このため、ブロック境界での連続性を拘束条件とし、DCT係数を修正することで量子化誤差を低減する。下記の非特許文献1に、その一例を示す。 The occurrence of block distortion that does not exist in the original image is caused by the quantization error. For this reason, the continuity at the block boundary is used as a constraint, and the quantization error is reduced by correcting the DCT coefficient. The following non-patent document 1 shows an example.
この非特許文献1に記載される方法では、ブロック境界に低域通過フィルタをかけ、DCT係数の修正方向を決定する。DCT係数の修正幅は、量子化ステップサイズの大きさにより決定する。 In the method described in Non-Patent Document 1, a low-pass filter is applied to the block boundary to determine the correction direction of the DCT coefficient. The correction width of the DCT coefficient is determined by the size of the quantization step size.
図6に、その手順を示す。この処理フローに示すように、その手順は、
1.ブロック境界にフィルタをかける(ステップ100)
2.フィルタ後の信号にDCTを施す(ステップ110)
3.フィルタ前後で、各DCT係数がどのように変化したかを調べる(ステップ12 0)
4.フィルタ前のDCT係数について、各DCT係数の変化方向に対し、量子化ステ ップサイズに応じて修正する(ステップ130)
5.修正したDCT係数に逆DCTを施す(ステップ140)
を繰り返すことで構成される。
FIG. 6 shows the procedure. As shown in this process flow, the procedure is:
1. Filter block boundaries (step 100)
2. DCT is applied to the filtered signal (step 110).
3. It is examined how each DCT coefficient has changed before and after the filter (step 120).
4). The DCT coefficients before the filter are corrected according to the quantization step size with respect to the direction of change of each DCT coefficient (step 130).
5. Inverse DCT is applied to the corrected DCT coefficient (step 140).
It is composed by repeating.
この処理をDCT係数が収束するまで繰り返すことで(ステップ150)、量子化誤差を低減できる。この方法では、処理対象がDCT係数であるため、ブロック内の画素に対して作用する。 By repeating this process until the DCT coefficients converge (step 150), the quantization error can be reduced. In this method, since the processing target is a DCT coefficient, it acts on the pixels in the block.
次に、“ブロック境界のエッジを除去するブロック歪除去フィルタ”について説明する。 Next, the “block distortion removing filter for removing the edge of the block boundary” will be described.
この方法は、DCT係数を修正して歪を小さくするのではなくて、ブロック境界のエッジを低域通過フィルタにより除去する方法である。しかし、単純にブロック境界にフィルタをかけるだけでは、必ずしもブロック歪を除去できない。強いフィルタをかけた場合には、ブロック歪は小さくなるものの、画面全体がぼけ、画質が劣化する。一方、弱いフィルタでは、ブロック歪を除去できない。 In this method, the DCT coefficient is not corrected to reduce the distortion, but the edge of the block boundary is removed by a low-pass filter. However, it is not always possible to remove block distortion by simply filtering the block boundaries. When a strong filter is applied, the block distortion is reduced, but the entire screen is blurred and the image quality is deteriorated. On the other hand, a weak filter cannot remove block distortion.
そこで、ITU-T H.264(以下、H.264 と称する。非特許文献2参照)では、隣接するブロックの符号化モードの差異と、ブロック境界近辺画素の変化量とから、ブロック歪の強度を推定してフィルタの強さを切り替えている。 Therefore, in ITU-T H.264 (hereinafter referred to as H.264, see Non-Patent Document 2), the intensity of block distortion is determined from the difference in the coding mode of adjacent blocks and the amount of change in pixels near the block boundary. Is used to switch the strength of the filter.
図7に、その手順を示す。この処理フローに示すように、その手順は、
1.隣接ブロックの符号化モード情報を収集する(ステップ200)
2.符号化モードの差異からブロック境界強度を算出する(ステップ210)
3.量子化パラメータから変化量の閾値を算出する(ステップ220)
4.ブロック境界近辺画素の変化量と閾値とを比較し、変化量が閾値以上の場合には 、処理を終了する(ステップ230)
5.変化量が閾値以上でない場合には、ブロック境界強度からフィルタを選択する( ステップ240)
6.復号信号に対し、選択したフィルタをかける(ステップ250)
ことで構成される。
FIG. 7 shows the procedure. As shown in this process flow, the procedure is:
1. Collect coding mode information of neighboring blocks (step 200).
2. The block boundary strength is calculated from the difference in coding mode (step 210).
3. A change threshold is calculated from the quantization parameter (step 220).
4). The change amount of the pixel in the vicinity of the block boundary is compared with the threshold value, and if the change amount is equal to or greater than the threshold value, the process is terminated (step 230).
5. If the change amount is not greater than or equal to the threshold, a filter is selected from the block boundary strength (step 240).
6). The selected filter is applied to the decoded signal (step 250).
Consists of.
本来、ブロック歪除去フィルタは、量子化誤差の低減ではなく、ブロック歪による視覚的な妨害を除去する目的であるが、H.264 で採用された方式のように適応的にフィルタリングを行うことで、SN比が向上する。 Originally, the purpose of the block distortion removal filter is not to reduce the quantization error, but to eliminate visual interference caused by block distortion, but by adaptively performing filtering like the method adopted in H.264. , The SN ratio is improved.
このように、DCT係数を修正することや、ブロック境界に適応的なフィルタをかけることで、量子化誤差を低減できる。
従来技術では、ブロック境界の連続性を利用し、DCT係数を修正する方法や、エッジ強度や符号化モードの違いなどを考慮して適応的にフィルタを切り替える方法により、量子化誤差の低減が可能である。 In the prior art, quantization error can be reduced by using the continuity of the block boundary and correcting the DCT coefficient, or by adaptively switching the filter in consideration of differences in edge strength and coding mode. It is.
しかし、これらの従来技術には、それぞれ課題が存在する。以下に、各方法の課題について述べる。 However, each of these conventional techniques has problems. The problems of each method are described below.
最初に、DCT係数修正方法の課題について説明する。 First, the problem of the DCT coefficient correction method will be described.
DCT係数修正方法では、DCT係数修正を反復して行う。しかし、この反復をDCT係数が収束するまで繰り返していたのでは、過剰に処理を行う可能性があり、これから、画質が劣化する可能性がある。 In the DCT coefficient correction method, DCT coefficient correction is repeatedly performed. However, if this iteration is repeated until the DCT coefficient converges, there is a possibility of excessive processing, and there is a possibility that the image quality will deteriorate.
次に、ブロック歪除去フィルタの課題について説明する。 Next, the problem of the block distortion removal filter will be described.
ブロック歪除去フィルタでは、ブロック歪が発生しやすい符号化条件およびブロック境界近辺画素の変化量に応じてフィルタ強度を制御している。しかし、このブロック歪量の推定は必ずしも正確ではないため、画像によっては過度にぼける可能性がある。つまり、入力信号や符号化条件によっては、ブロック歪除去フィルタにより画質が劣化する可能性がある。特に、ビットレートが高い場合は、その傾向が強くなる。 In the block distortion removal filter, the filter strength is controlled in accordance with the coding conditions in which block distortion is likely to occur and the amount of change in pixels near the block boundary. However, since the estimation of the block distortion amount is not always accurate, it may be excessively blurred depending on the image. That is, depending on the input signal and encoding conditions, the image quality may be degraded by the block distortion removal filter. This tendency is particularly strong when the bit rate is high.
本発明はかかる事情に鑑みてなされたものであって、複数の予測モードの中から符号化対象ブロックの予測モードを決定して符号化するという構成を採る映像符号化方式で映像の復号を行う際や、その映像符号化方式で符号化された映像を復号するという構成を採る映像復号方式で映像の復号を行う際に、復号映像の量子化誤差の大きさを推定できるようにして、それに基づいて復号信号を補正できるようにすることで、復号映像の量子化誤差を低減できるようにする新たな技術の提供を目的とする。 The present invention has been made in view of such circumstances, and decodes a video by a video encoding method that employs a configuration in which a prediction mode of a block to be encoded is determined from a plurality of prediction modes and encoded. In addition, when decoding video with a video decoding scheme that employs a configuration of decoding video encoded with that video encoding scheme, the magnitude of the quantization error of the decoded video can be estimated, An object of the present invention is to provide a new technique that can reduce a quantization error of a decoded video by making it possible to correct a decoded signal based on the above.
従来技術では、ブロック境界の連続性を拘束条件として量子化誤差を低減するため、必要以上に映像を修正する可能性がある。 In the prior art, since the quantization error is reduced with the continuity of the block boundary as a constraint, there is a possibility that the video is corrected more than necessary.
そこで、本発明では、復号側で、符号化時に使用した予測モード探索方法と同一の方法を用いて予測モードの再探索を行い、その再探索結果から量子化誤差の大きさを推定し、復号映像を補正する。 Therefore, in the present invention, the decoding side re-searches the prediction mode using the same method as the prediction mode search method used at the time of encoding, estimates the size of the quantization error from the re-search result, and performs decoding. Correct the image.
H.264 をはじめとする映像符号化方式では、符号化済みフレームまたは同一フレーム内の符号化済み信号から符号化対象ブロックの予測を行い、符号化効率を向上させている。特に、H.264 では、フレーム内符号化を行う際、符号化対象ブロックの既符号化近傍ブロックの情報から予測信号を生成し、予測残差信号を符号化している。複数の予測モードが用意されているので、符号化時に、予測残差信号電力と、予測モードのオーバヘッド符号量(予測モードを示すためのコードの符号量)とから最もコストが低い予測モードを決定し、符号化処理を行う。 In video encoding schemes such as H.264, encoding target blocks are predicted from encoded frames or encoded signals in the same frame to improve encoding efficiency. In particular, in H.264, when intra-frame encoding is performed, a prediction signal is generated from information of an already-encoded block of an encoding target block, and a prediction residual signal is encoded. Since multiple prediction modes are prepared, the prediction mode with the lowest cost is determined from the prediction residual signal power and the overhead code amount of the prediction mode (code amount of code for indicating the prediction mode) at the time of encoding. Then, the encoding process is performed.
復号映像による予測モードの再探索結果と符号化時の予測モードとが異なる場合、それは、復号映像に含まれる量子化誤差による影響である。したがって、符号化時の予測モードと再探索結果の予測モードとが異なる場合、量子化誤差を推定できる。 When the re-search result of the prediction mode by the decoded video is different from the prediction mode at the time of encoding, it is an influence due to the quantization error included in the decoded video. Therefore, when the prediction mode at the time of encoding and the prediction mode of the re-search result are different, the quantization error can be estimated.
今、ブロックサイズがN×Nの映像信号を、N×N次元のベクトルと考える。原信号ベクトルを<S>、予測信号ベクトルを<Pa >、予測残差信号ベクトルを<Da >、符号化済み予測残差信号ベクトルを<D'a>、量子化誤差ベクトルを<E>とすると、復号信号ベクトル<S' >は、
<S' >=<D'a>+<Pa >
=(<Da >+<E>)+<Pa >
=(<Da >+<Pa >)+<E>
=<S>+<E>
という式で表される。
Now, a video signal having a block size of N × N is considered as an N × N-dimensional vector. The original signal vector is <S>, the prediction signal vector is <Pa>, the prediction residual signal vector is <Da>, the encoded prediction residual signal vector is <D'a>, and the quantization error vector is <E>. Then, the decoded signal vector <S ′> is
<S '> = <D'a> + <Pa>
= (<Da> + <E>) + <Pa>
= (<Da> + <Pa>) + <E>
= <S> + <E>
It is expressed by the formula.
このように、復号信号ベクトル<S' >は、原信号ベクトル<S>と量子化誤差ベクトル<E>との和で表現できる。つまり、復号信号ベクトル<S' >は、量子化誤差ベクトル<E>だけ移動したといえる。 As described above, the decoded signal vector <S ′> can be expressed by the sum of the original signal vector <S> and the quantization error vector <E>. That is, it can be said that the decoded signal vector <S ′> has moved by the quantization error vector <E>.
図1に、2次元画素空間での例を示す。図中の破線は予測モードが切り替わる境界線であり、符号化時の予測モードをa、再探索時の予測モードをbとしている。 FIG. 1 shows an example in a two-dimensional pixel space. The broken line in the figure is a boundary line where the prediction mode is switched, and the prediction mode at the time of encoding is a, and the prediction mode at the time of re-search is b.
再探索により予測モードが変化した理由は、原信号ベクトル<S>が、量子化誤差ベクトル<E>により領域aから領域bへ移動したためである。このことから、量子化誤差ベクトル<E>は、予測モードaの代表点である予測信号ベクトル<Pa >と予測モードbの代表点である予測信号ベクトル<Pb >との差分ベクトル(予測信号差分ベクトル<Pab>)を含むと考えられる。 The reason that the prediction mode is changed by the re-search is that the original signal vector <S> is moved from the region a to the region b by the quantization error vector <E>. Therefore, the quantization error vector <E> is a difference vector (prediction signal difference) between the prediction signal vector <Pa> that is the representative point of the prediction mode a and the prediction signal vector <Pb> that is the representative point of the prediction mode b. Vector <Pab>).
本発明では、この量子化誤差ベクトル<E>の予測信号差分ベクトル<Pab>方向の成分を算出し、復号信号ベクトル<S' >の補正信号ベクトル<C>を求める。 In the present invention, a component in the direction of the prediction signal difference vector <Pab> of the quantization error vector <E> is calculated to obtain a correction signal vector <C> of the decoded signal vector <S ′>.
図2に、本発明の手順を示す。この処理フローに示すように、本発明では、
1.符号化時の予測モード情報を抽出する(ステップ10)
2.復号処理を行い復号信号ベクトル<S' >を生成する(ステップ11)
3.復号信号ベクトル<S' >に対し予測モードの再探索を行う(ステップ12)
4.予測モード情報の変更を確認し、変更が無い場合は処理を終了する(ステップ1 3)
5.予測モード情報の変更がある場合には、補正信号ベクトル<C>を算出する(ス テップ14)
6.復号信号ベクトル<S' >に、補正信号ベクトル<C>を加算する(ステップ1 5)
という手順を実行する。
FIG. 2 shows the procedure of the present invention. As shown in this processing flow, in the present invention,
1. Extraction of prediction mode information at the time of encoding (step 10)
2. Decoding processing is performed to generate a decoded signal vector <S ′> (step 11).
3. The prediction mode is searched again for the decoded signal vector <S ′> (step 12).
4). The change of the prediction mode information is confirmed, and if there is no change, the process is terminated (step 13).
5. If there is a change in the prediction mode information, a correction signal vector <C> is calculated (step 14).
6). The corrected signal vector <C> is added to the decoded signal vector <S ′> (step 15).
Execute the procedure.
ここで、補正信号ベクトル<C>は、予測信号差分ベクトル<Pab>と補正係数αとの積とする。 Here, the correction signal vector <C> is a product of the prediction signal difference vector <Pab> and the correction coefficient α.
この補正係数αについては、予め定数を決めておく方法や、復号信号から両予測モードの境界線までの距離に応じて算出する方法などがある。さらに、この補正係数αを調整することで、補正の強弱を変えることが可能である。 The correction coefficient α includes a method of determining a constant in advance and a method of calculating according to the distance from the decoded signal to the boundary line of both prediction modes. Further, by adjusting the correction coefficient α, it is possible to change the strength of the correction.
補正後の復号信号ベクトル<S''>は、
<S''>=<S' >+α×<Pab>
の式に従って求められる。
The decoded signal vector <S ″> after correction is
<S ″> = <S ′> + α × <Pab>
It is calculated according to the following formula.
以上に説明したように、本発明の復号映像の量子化誤差低減装置は、複数の予測モードの中から符号化対象ブロックの予測モードを決定して符号化を行う映像符号化方式で用いられたり、その映像符号化方式により符号化された映像を復号する映像復号方式で用いられるときにあって、(イ)復号信号を生成する際に、符号化の際に用いられた方法と同じ方法で予測モードを再探索する再探索手段と、(ロ)符号化に用いられた予測モードと再探索手段の探索した予測モードとを比較する比較手段と、(ハ)比較手段により予測モードの変化したことが検出される場合に、両予測モードの予測信号の差分を求めて、その求めた差分信号と補正係数との積に従って補正信号を生成する生成手段と、(ニ)生成手段の生成した補正信号を復号信号に加算することで、復号映像の量子化誤差を低減させる加算手段とを備えるように構成する。 As described above, the decoded video quantization error reduction apparatus of the present invention can be used in a video encoding system that performs encoding by determining a prediction mode of an encoding target block from a plurality of prediction modes. When used in a video decoding system that decodes video encoded by the video encoding system, and (a) when generating a decoded signal, the same method as that used for encoding is used. Re-search means for re-searching the prediction mode; (b) comparison means for comparing the prediction mode used for encoding with the prediction mode searched by the re-search means; and (c) the prediction mode is changed by the comparison means. If it is detected, by obtaining a difference of the prediction signal of the two prediction modes, and generating means for generating a compensation signal in accordance with the product of the difference signal obtained as the correction coefficient, generation of (d) generating means Corrected signal is decoded signal By adding, configured to an adding means for reducing the quantization error of the decoded video.
この構成を採るときにあって、生成手段は、予め定めた補正係数を用いて補正信号を生成したり、復号信号から両予測モードの境界までの距離に応じて変化させる補正係数を用いて補正信号を生成することがある。 In the case employing this arrangement, generation means uses or generates a correction signal by using the correction coefficient which defines Me pre, a correction coefficient which varies with the distance from the decoded signal to the boundary of the two prediction modes A correction signal may be generated.
そして、生成手段は、復号信号から両予測モードの境界までの距離に応じて変化させる補正係数を用いる場合に、予測モードのオーバヘッド符号量を考慮した符号化コストを用いて、その距離に応じた補正係数を算出することがある。 Then, when using a correction coefficient that changes according to the distance from the decoded signal to the boundary between the two prediction modes, the generation unit uses the encoding cost considering the overhead code amount of the prediction mode and uses the correction cost according to the distance. A correction coefficient may be calculated.
以上の各処理手段が動作することで実現される本発明の復号映像の量子化誤差低減方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。 The decoding video quantization error reduction method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program. This computer program is provided by being recorded on an appropriate recording medium. The present invention is realized by being provided via a network, installed when the present invention is implemented, and operating on a control means such as a CPU.
本発明によれば、複数の予測モードの中から符号化対象ブロックの予測モードを決定して符号化するという構成を採る映像符号化方式で映像の復号を行う際や、その映像符号化方式で符号化された映像を復号するという構成を採る映像復号方式で映像の復号を行う際に、復号映像の量子化誤差の大きさを推定できるようになり、それに基づいて復号信号を補正できるようになるので、復号映像の量子化誤差を低減できるようになる。 According to the present invention, when decoding a video with a video encoding scheme that adopts a configuration in which a prediction mode of a block to be encoded is determined from among a plurality of prediction modes and performing encoding, When decoding video using a video decoding method that decodes the encoded video, the quantization error of the decoded video can be estimated, and the decoded signal can be corrected based on that. Therefore, the quantization error of the decoded video can be reduced.
次に、実施の形態に従って本発明を詳細に説明する。 Next, the present invention will be described in detail according to embodiments.
図3に、本発明を具備する映像符号化装置1の一実施形態例を図示する。 FIG. 3 shows an example of an embodiment of a video encoding apparatus 1 comprising the present invention.
この図に示すように、本発明を具備する映像符号化装置1は、符号化データ復号部10と、予測信号生成部11と、メモリ12と、復号映像生成部13と、予測モード探索部14と、補正信号生成部15と、補正復号映像生成部16とを備える。ここで、図中に示す破線で囲まれた部分は、従来通りの復号処理を行う部分である。
As shown in this figure, a video encoding apparatus 1 comprising the present invention includes an encoded
符号化データ復号部10は、図示しない符号化機構により符号化された符号化データを入力として、その符号化データから、予測残差信号(図1に示した予測残差信号ベクトル<D'a>)と、予測モード情報(図1に示した予測モード情報a)とを復号する。
The encoded
予測信号生成部11は、符号化データ復号部10から与えられる予測モード情報aを使い、メモリ12に格納される符号化済みの復号映像から、予測信号(図1に示した予測信号ベクトル<Pa >)を生成する。
The prediction
復号映像生成部13は、符号化データ復号部10から与えられる予測残差信号と、予測信号生成部11の生成した予測信号とを加算することで復号映像(図1に示した復号信号ベクトル<S' >)を生成して、メモリ12に格納する。
The decoded
予測モード探索部14は、復号映像生成部13の生成した復号映像と、メモリ12に格納される符号化済みの復号映像とから、予測モード情報(図1に示した予測モード情報b)を再探索する。
The prediction
補正信号生成部15は、符号化データ復号部10から与えられる符号化時の予測モード情報aと、予測モード探索部14の再探索した予測モード情報bと、その予測モード情報aにおける予測信号(図1に示した予測信号ベクトル<Pa >)と、その予測モード情報bにおける予測信号(図1に示した予測信号ベクトル<Pb >)とから、補正信号(図1に示した補正信号ベクトル<C>)を生成する。
The correction
補正復号映像生成部16は、復号映像生成部13の生成した復号映像と、補正信号生成部15の生成した補正信号とを加算することで量子化誤差の低減された復号映像(図1に示した復号信号ベクトル<S''>)を生成する。
The corrected decoded
このように構成される本発明を具備する映像符号化装置1では、予測モード探索部14は、復号映像生成部13の生成した復号映像と、メモリ12に格納される符号化済みの復号映像とから、予測モード情報bを再探索する。
In the video encoding device 1 having the present invention configured as described above, the prediction
この再探索結果を受けて、補正信号生成部15は、符号化データ復号部10から与えられる符号化時の予測モード情報aと、予測モード探索部14の再探索した予測モード情報bとが一致するのか否かをチェックして、一致しないことを判断するときには、量子化誤差が存在することを判断して、その2つの予測モード情報a,bにおける予測信号の差分に基づいて補正信号を生成する。
In response to the re-search result, the correction
この補正信号の生成を受けて、補正復号映像生成部16は、復号映像生成部13の生成した復号映像と、補正信号生成部15の生成した補正信号とを加算することで量子化誤差の低減された復号映像を生成して、それを出力する。
In response to the generation of the correction signal, the corrected decoded
このようにして、本発明を具備する映像符号化装置1では、復号映像を予測信号差分ベクトルにより補正することで、量子化誤差を低減できるようになる。 In this manner, the video encoding apparatus 1 including the present invention can reduce the quantization error by correcting the decoded video with the prediction signal difference vector.
なお、上記の説明では予測モードとしているが、これは、予測信号の生成に必要な情報の意味である。したがって、動き補償付きフレーム間予測符号化の場合、予測モード情報は、動きベクトル、参照フレーム番号など、予測信号の生成に必要な情報全てを指す。そして、予測モード変更の有無は、これら情報の全てについて比較する。 In the above description, the prediction mode is used, which means information necessary for generating a prediction signal. Therefore, in the case of inter-frame prediction encoding with motion compensation, the prediction mode information indicates all information necessary for generating a prediction signal, such as a motion vector and a reference frame number. And the presence or absence of a prediction mode change is compared about all these information.
また、本発明は、復号側での後処理だけでなく、H.264 のブロック除去フィルタと同様、符号化側・復号側双方で、復号信号をメモリに蓄積する直前に処理を行うことも可能である。 In addition to post-processing on the decoding side, the present invention can perform processing immediately before storing the decoded signal in the memory on both the encoding side and the decoding side, similar to the H.264 block removal filter. It is.
次に、具体的な実施例に従って本発明を詳細に説明する。 Next, the present invention will be described in detail according to specific examples.
本実施例では、複数の予測モードを利用可能なフレーム内符号化方式を前提とする。予測ブロックサイズは固定とし、予測モード情報は予測モード番号のみとする。 In this embodiment, an intra-frame coding scheme that can use a plurality of prediction modes is assumed. The prediction block size is fixed, and the prediction mode information is only the prediction mode number.
予測モード選択は、各予測モードiのオーバヘッド符号量gi (予測モードiのオーバヘッドコストとなる)を考慮し、
ji =|<Di >|2 +gi
=|(<S>−<Pi >)|2 +gi
<Di > : 予測残差信号ベクトル
<S> : 原信号ベクトル
<Pi > : 予測信号ベクトル
という式に従って各予測モードの符号化コストji を算出して、最も符号化コストの低い予測モードを選択することで行う。
Prediction mode selection, taking into account the overhead code quantity g i (a overhead costs of the prediction mode i) of each prediction mode i,
j i = | <D i > | 2 + g i
= | (<S> − <P i >) | 2 + g i
<D i >: Prediction residual signal vector
<S>: Original signal vector
<P i >: This is performed by calculating the coding cost j i of each prediction mode according to the equation of the prediction signal vector and selecting the prediction mode with the lowest coding cost.
ここで、ベクトルの長さ|Di |については、下式に示すL2ノルムで計算する。 Here, the vector length | D i | is calculated by the L2 norm shown in the following equation.
図4に、本実施例の手順を示す。この処理フローに示すように、本実施例では、
1.符号化時の予測モード番号を抽出する(ステップ20)
2.復号処理を行い復号信号ベクトル<S' >を生成する(ステップ21)
3.復号信号ベクトル<S' >に対しフレーム内予測モードの再探索を行う(ステッ プ22)
4.予測モード番号の変更を確認し、変更が無い場合は処理を終了する(ステップ2 3)
5.予測モード番号の変更がある場合には、補正信号ベクトル<C>を算出する(ス テップ24)
6.復号信号ベクトル<S' >に、補正信号ベクトル<C>を加算する(ステップ2 5)
という手順を実行する。
FIG. 4 shows the procedure of this embodiment. As shown in this processing flow, in this embodiment,
1. A prediction mode number at the time of encoding is extracted (step 20).
2. Decoding processing is performed to generate a decoded signal vector <S ′> (step 21).
3. The intra-frame prediction mode is searched again for the decoded signal vector <S ′> (step 22).
4). The change of the prediction mode number is confirmed, and if there is no change, the process is terminated (step 23).
5. When the prediction mode number is changed, a correction signal vector <C> is calculated (step 24).
6). The corrected signal vector <C> is added to the decoded signal vector <S ′> (step 25).
Execute the procedure.
このとき、補正信号ベクトル<C>は、予測信号差分ベクトル<Pab>と補正係数αとの積で求める。 At this time, the correction signal vector <C> is obtained as a product of the prediction signal difference vector <Pab> and the correction coefficient α.
その結果、補正後の復号信号ベクトル<S''>は、
<S''>=<S' >+α×<Pab>
となり、本実施例では、この補正後の復号信号ベクトル<S''>を出力する。
As a result, the corrected decoded signal vector <S ″> is
<S ″> = <S ′> + α × <Pab>
Thus, in this embodiment, the corrected decoded signal vector <S ″> is output.
補正係数αについては、予め定数を決めておく方法を用いることでもよいが、次に説明するように、復号信号から両予測モードの境界線までの距離に応じて算出する方法を用いることでもよい。 For the correction coefficient α, a method of determining a constant in advance may be used, but as described below, a method of calculating according to the distance from the decoded signal to the boundary line of both prediction modes may be used. .
符号化時の予測モード番号aのオーバーヘッドコストをga 、再探索時の予測モード番号bのオーバーヘッドコストをgb とするならば、図5に示すように、復号信号ベクトル<S' >に、α0 ×<Pab>を加えることで、両予測モードの境界線上に移動させることを仮定する。 If the overhead cost of the prediction mode number a at the time of encoding is g a and the overhead cost of the prediction mode number b at the time of re-search is g b , the decoded signal vector <S ′> is represented as shown in FIG. alpha 0 × the addition of <Pab>, it is assumed that moving on to the border of the two prediction modes.
このとき、境界線上での符号化コストは、両予測モードで等しくなることから、
|<D''a >|2 +ga =|<D''b >|2 +gb
となる。
At this time, since the coding cost on the boundary line is equal in both prediction modes,
| <D ″ a> | 2 + g a = | <D ″ b> | 2 + g b
It becomes.
ここで、図5から分かるように、<D''a >,<D''b >と、両予測モードの境界線上に移動されたときの復号信号ベクトル<S''>(=<S' >+α0 ×<Pab>)との間には、
<D''a >=<S''>−<Pa >
<D''b >=<S''>−<Pb >
が成立することから、
−2<D'a>・<Pab>−(2α0 +1)|<Pab>|2 −gb +ga =0
ただし、“・”はベクトルの内積
となる。
Here, as can be seen from FIG. 5, <D ″ a>, <D ″ b> and the decoded signal vector <S ″> (= <S ′) when moved on the boundary line between both prediction modes. > + Α 0 × <Pab>)
<D''a> = <S''>-<Pa>
<D ″ b> = <S ″> − <Pb>
From the fact that
−2 <D′ a> · <Pab> − (2α 0 +1) | <Pab> | 2 −g b + g a = 0
However, “·” is an inner product of vectors.
これから、α0 は、
α0 ={ga −gb −|<Pab>|2 −2<D'a>・<Pab>}/2|<Pab>|2
となる。
From now on, α 0 is
α 0 = {g a -g b - | <Pab> | 2 -2 <D'a> · <Pab>} / 2 | <Pab> | 2
It becomes.
一般に、原信号は予測モード間の境界線上よりも予測信号に近い場所に位置していることが多いことから、補正係数は、1よりも大きな値を示すβを使い、α=β×α0 と設定することが好ましい。ここで、β=2とした場合、復号信号ベクトル<S' >から両予測モードの境界線までの距離の2倍の補正量となる。 In general, since the original signal is often located closer to the prediction signal than on the boundary between prediction modes, β indicating a value larger than 1 is used as the correction coefficient, and α = β × α 0. Is preferably set. Here, when β = 2, the correction amount is twice the distance from the decoded signal vector <S ′> to the boundary line of both prediction modes.
本実施例では、予測ブロックサイズを固定としたが、可変でもかまわない。ブロックサイズが変化すると画素空間の次元数が変化するだけである。また、異なるブロックサイズで補正を行う場合は、より大きいブロックサイズ、すなわち、より次元数が高い画素空間で補正を行えばよい。また、フレーム内予測符号化を前提としたが、フレーム間符号化方式でも、予測モード情報を動き補償モードや動きベクトルなど予測信号生成に必要な情報に置き換えることで、同様に処理が可能となる。 In this embodiment, the prediction block size is fixed, but it may be variable. As the block size changes, the dimensionality of the pixel space only changes. When correction is performed with different block sizes, correction may be performed in a larger block size, that is, in a pixel space with a higher number of dimensions. In addition, although intra-frame prediction coding is assumed, even in the inter-frame coding method, processing can be similarly performed by replacing prediction mode information with information necessary for prediction signal generation such as motion compensation mode and motion vector. .
本発明は、複数の予測モードの中から符号化対象ブロックの予測モードを決定して符号化を行う映像符号化装置に利用可能である。そして、その映像符号化装置により符号化された映像を復号する映像復号装置に利用可能である。 The present invention can be used for a video encoding apparatus that performs encoding by determining a prediction mode of an encoding target block from among a plurality of prediction modes. The present invention can be used in a video decoding device that decodes video encoded by the video encoding device.
1 映像符号化装置
10 符号化データ復号部
11 予測信号生成部
12 メモリ
13 復号映像生成部
14 予測モード探索部
15 補正信号生成部
16 補正復号映像生成部
DESCRIPTION OF SYMBOLS 1
Claims (10)
復号信号を生成する際に、符号化の際に用いられた方法と同じ方法で予測モードを再探索する過程と、
符号化に用いられた予測モードと再探索結果の予測モードとを比較する過程と、
予測モードが変化した場合に、両予測モードの予測信号の差分を求めて、その求めた差分信号と補正係数との積に従って補正信号を生成する過程と、
上記補正信号を復号信号に加算する過程とを備えることを、
特徴とする復号映像の量子化誤差低減方法。 Used in video coding schemes that perform coding by determining the prediction mode of the encoding target block from multiple prediction modes, or used in video decoding schemes that decode video coded by the video coding scheme A method for reducing quantization error of decoded video,
Re-searching the prediction mode in the same manner as used for encoding when generating the decoded signal;
Comparing the prediction mode used for encoding with the prediction mode of the re-search results;
If the prediction mode is changed, we calculate the difference between the prediction signal of the two prediction modes, and generating a compensation signal in accordance with the product of the difference signal obtained correction coefficient,
Adding the correction signal to the decoded signal,
A feature of a method for reducing a quantization error of a decoded video.
上記生成する過程では、予め定めた補正係数を用いて補正信号を生成することを、
特徴とする復号映像の量子化誤差低減方法。 The method for reducing a quantization error of decoded video according to claim 1 ,
In the generation process, generating a correction signal using a predetermined correction coefficient,
A feature of a method for reducing a quantization error of a decoded video.
上記生成する過程では、復号信号から両予測モードの境界までの距離に応じて変化させる補正係数を用いて補正信号を生成することを、
特徴とする復号映像の量子化誤差低減方法。 The method for reducing a quantization error of decoded video according to claim 1 ,
In the generation process, generating a correction signal using a correction coefficient that changes according to the distance from the decoded signal to the boundary between both prediction modes,
A feature of a method for reducing a quantization error of a decoded video.
上記生成する過程では、予測モードのオーバヘッド符号量を考慮した符号化コストを用いて上記距離に応じた補正係数を算出することを、
特徴とする復号映像の量子化誤差低減方法。 The quantization error reduction method for decoded video according to claim 3 ,
In the process of generating, calculating a correction coefficient according to the distance using an encoding cost considering the overhead code amount of the prediction mode,
A feature of a method for reducing a quantization error of a decoded video.
復号信号を生成する際に、符号化の際に用いられた方法と同じ方法で予測モードを再探索する手段と、
符号化に用いられた予測モードと再探索結果の予測モードとを比較する手段と、
予測モードが変化した場合に、両予測モードの予測信号の差分を求めて、その求めた差分信号と補正係数との積に従って補正信号を生成する手段と、
上記補正信号を復号信号に加算する手段とを備えることを、
特徴とする復号映像の量子化誤差低減装置。 Used in video coding schemes that perform coding by determining the prediction mode of the encoding target block from multiple prediction modes, or used in video decoding schemes that decode video coded by the video coding scheme A decoding error reduction apparatus for decoded video,
Means for re-searching the prediction mode in the same way as the method used for encoding when generating the decoded signal;
Means for comparing the prediction mode used for encoding with the prediction mode of the re-search result;
If the prediction mode is changed, it calculates the difference between the prediction signal of the two prediction modes, means for generating a compensation signal in accordance with the product of the difference signal obtained correction coefficient,
Means for adding the correction signal to the decoded signal;
A feature of an apparatus for reducing quantization error of decoded video.
上記生成する手段は、予め定めた補正係数を用いて補正信号を生成することを、
特徴とする復号映像の量子化誤差低減装置。 The quantization error reduction apparatus for decoded video according to claim 5 ,
The generating means generates a correction signal using a predetermined correction coefficient,
A feature of an apparatus for reducing quantization error of decoded video.
上記生成する手段は、復号信号から両予測モードの境界までの距離に応じて変化させる補正係数を用いて補正信号を生成することを、
特徴とする復号映像の量子化誤差低減装置。 The quantization error reduction apparatus for decoded video according to claim 5 ,
The generating means generates the correction signal using a correction coefficient that changes in accordance with the distance from the decoded signal to the boundary between both prediction modes.
A feature of an apparatus for reducing quantization error of decoded video.
上記生成する手段は、予測モードのオーバヘッド符号量を考慮した符号化コストを用いて上記距離に応じた補正係数を算出することを、
特徴とする復号映像の量子化誤差低減装置。 The decoded video quantization error reduction device according to claim 7 ,
The generating means calculates a correction coefficient corresponding to the distance using an encoding cost considering the overhead code amount of the prediction mode.
A feature of an apparatus for reducing quantization error of decoded video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004237860A JP4199712B2 (en) | 2004-08-18 | 2004-08-18 | Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004237860A JP4199712B2 (en) | 2004-08-18 | 2004-08-18 | Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006060341A JP2006060341A (en) | 2006-03-02 |
JP4199712B2 true JP4199712B2 (en) | 2008-12-17 |
Family
ID=36107484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004237860A Expired - Fee Related JP4199712B2 (en) | 2004-08-18 | 2004-08-18 | Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4199712B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008155835A1 (en) * | 2007-06-20 | 2008-12-24 | Fujitsu Limited | Decoder, decoding method, and program |
JP6069009B2 (en) * | 2013-02-13 | 2017-01-25 | 日本放送協会 | Image decoding apparatus and image decoding program |
JP6179183B2 (en) * | 2013-05-15 | 2017-08-16 | 富士通株式会社 | Information processing apparatus, program, and image processing method |
-
2004
- 2004-08-18 JP JP2004237860A patent/JP4199712B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006060341A (en) | 2006-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102192778B1 (en) | Video motion compensation apparatus and method with selectable interpolation filter | |
US7805016B2 (en) | Decoding apparatus and decoding method | |
US7120197B2 (en) | Motion compensation loop with filtering | |
US20090238283A1 (en) | Method and apparatus for encoding and decoding image | |
JP5594841B2 (en) | Image encoding apparatus and image decoding apparatus | |
JP2008283303A (en) | Image encoding device, and image encoding method | |
JP2008167449A (en) | Method and apparatus for encoding/decoding image | |
JP6961115B2 (en) | Image decoding device, image decoding method and program | |
US9736490B2 (en) | Apparatus and method of compressing and restoring image using filter information | |
EP1613091B1 (en) | Intra-frame prediction for high-pass temporal-filtered frames in wavelet video coding | |
JP2005318297A (en) | Method and device for encoding/decoding dynamic image | |
JP4785678B2 (en) | Image coding apparatus and image coding method | |
JP4199712B2 (en) | Decoded video quantization error reduction method and apparatus, decoded video quantization error reduction program used for realizing the quantization error reduction method, and computer-readable recording medium storing the program | |
JP2022069450A (en) | Image decoding device, image decoding method, and program | |
JP4528255B2 (en) | Video decoding apparatus and video decoding program | |
CN112262579B (en) | Intra-frame sharpening and/or de-ringing filter for video coding based on bit stream flags | |
JP4695115B2 (en) | Moving picture coding method, moving picture coding apparatus, moving picture coding program, and computer-readable recording medium recording the program | |
WO2011105230A1 (en) | Filter coefficient encoding device, filter coefficient decoding device, video encoding device, video decoding device, and data structure | |
JP2007221208A (en) | Method and device for encoding moving picture | |
TW202038612A (en) | Image encoding device, image encoding method, image decoding device, and image decoding method | |
JP7324899B2 (en) | Image decoding device, image decoding method and program | |
US20230059035A1 (en) | Efficient encoding of film grain noise | |
JP7034363B2 (en) | Image decoder, image decoding method and program | |
JP7083971B1 (en) | Image decoder, image decoding method and program | |
JP7061737B1 (en) | Image decoder, image decoding method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080729 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080825 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080930 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081003 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4199712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 3 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121010 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121010 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131010 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |