JP2011234070A - Image coding apparatus, image coding method and program - Google Patents

Image coding apparatus, image coding method and program Download PDF

Info

Publication number
JP2011234070A
JP2011234070A JP2010101736A JP2010101736A JP2011234070A JP 2011234070 A JP2011234070 A JP 2011234070A JP 2010101736 A JP2010101736 A JP 2010101736A JP 2010101736 A JP2010101736 A JP 2010101736A JP 2011234070 A JP2011234070 A JP 2011234070A
Authority
JP
Japan
Prior art keywords
block
prediction
pixel
encoding
quantization parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010101736A
Other languages
Japanese (ja)
Other versions
JP5488168B2 (en
Inventor
Kazuhiro Wake
一博 和気
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010101736A priority Critical patent/JP5488168B2/en
Publication of JP2011234070A publication Critical patent/JP2011234070A/en
Application granted granted Critical
Publication of JP5488168B2 publication Critical patent/JP5488168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an adaptive quantization technique capable of preventing propagation within a screen of an error generated in intra-prediction in a method called intra-prediction coding.SOLUTION: An image coding apparatus codes an input image using intra-prediction coding. The image coding apparatus comprises a saturation calculation section 130 for calculating saturation in a block to be coded; a DC calculation section 131 for calculating a DC value of a difference block calculated by performing a difference calculation between the block to be coded and a prediction block corresponding to the block to be coded; and a quantization parameter determination section 103 for determining a quantization parameter of a target block from the block saturation, the DC value of the difference block, and the picture quantization parameter determined in advance.

Description

本発明は、高能率符号化技術に関するものである。より詳しくは、動画像のH.264符号化において、イントラ予測で発生した誤差が、以降のマクロブロックに伝播することを防ぐことができる適応量子化技術に関するものである。   The present invention relates to a high-efficiency encoding technique. More specifically, H.264 of moving images. The present invention relates to an adaptive quantization technique that can prevent an error generated in intra prediction from being propagated to subsequent macroblocks in H.264 encoding.

近年、AV情報のデジタル化が進み、映像信号をデジタル化して取り扱うことのできる機器が広く普及しつつある。映像信号は膨大な情報を有するので、記録容量や伝送効率を考慮して情報量を削減しつつ符号化することが一般的である。映像信号の符号化技術として、H.264という国際規格が定められており、実験結果によると、H.264規格は他の既存の符号化技術に比べ、約2倍の圧縮効率をもたらす。従って、H.264規格はレコーダ記録、インターネットストリーミング等に非常に適した符号化方式である。   In recent years, digitalization of AV information has progressed and devices capable of digitizing and handling video signals are becoming widespread. Since a video signal has a large amount of information, it is common to encode while reducing the amount of information in consideration of recording capacity and transmission efficiency. As a video signal encoding technique, H.264 is used. An international standard called H.264 has been established. The H.264 standard provides approximately twice the compression efficiency compared to other existing coding technologies. Therefore, H.I. The H.264 standard is an encoding method that is very suitable for recorder recording, Internet streaming, and the like.

H.264では、画像中の空間的な冗長性を減少することで符号化効率を向上させるイントラ予測と、連続するピクチャ間に存在する時間的な冗長性を利用して符号化効率を向上させる動き補償が導入されている。イントラ予測により符号化されるピクチャをIピクチャ、動き補償により符号化されるピクチャをPピクチャ、またはBピクチャと呼ぶ。イントラ予測に基づく、典型的な動画像圧縮符号化装置の全体構成例を図6に示す。動画像圧縮符号化装置は、入力部300、差分演算部301、画像データを周波数領域に変換する変換部302、変換部302で得られた変換係数をあらかじめ定められた量子化パラメータで量子化する量子化部304、量子化された変換係数をエントロピー符号化するエントロピー符号化部305、可変ビットレートの圧縮画像データを伝送レートにあわせて伝送路に供給するための出力部306、ローカルデコーダ310およびイントラ予測モード検出部307を備える。   H. In H.264, intra prediction that improves coding efficiency by reducing spatial redundancy in an image, and motion compensation that improves coding efficiency using temporal redundancy existing between consecutive pictures Has been introduced. A picture coded by intra prediction is called an I picture, and a picture coded by motion compensation is called a P picture or a B picture. FIG. 6 shows an example of the overall configuration of a typical moving image compression encoding apparatus based on intra prediction. The moving image compression encoding apparatus includes an input unit 300, a difference calculation unit 301, a conversion unit 302 that converts image data into a frequency domain, and a conversion coefficient obtained by the conversion unit 302 is quantized with a predetermined quantization parameter. A quantization unit 304; an entropy coding unit 305 that entropy-encodes the quantized transform coefficient; an output unit 306 for supplying compressed image data having a variable bit rate to a transmission line according to a transmission rate; a local decoder 310; An intra prediction mode detection unit 307 is provided.

イントラ予測は、符号化対象ブロックの情報量を大幅に削減することができ、圧縮効率を向上させることができる有効な方法である。しかしながら、低ビットレートの動画像圧縮符号化において、任意のマクロブロックで発生した誤差が、画面内に伝播するという課題がある。イントラ予測符号化において、符号化対象ブロックとイントラ予測ブロックとの差分演算によって得られる予測誤差ブロックが符号化対象となる。すなわち、復号処理において、再生マクロブロックは、イントラ予測ブロックと予測誤差ブロックを加算することで得られる。低ビットレートで、予測誤差ブロックに含まれる情報を再現できるほどQp_MBが小さくならない場合、イントラ予測ブロックに加算すべき残差信号が0になってしまい、再生画像はイントラ予測ブロックそのものになってしまう。この現象は以降のマクロブロックに対しても発生し視覚的に大きな劣化となってしまう。特に、この問題は色差信号において顕著なものとなる。   Intra prediction is an effective method that can significantly reduce the amount of information of a block to be encoded and can improve compression efficiency. However, there is a problem that an error generated in an arbitrary macro block is propagated in a screen in moving image compression encoding at a low bit rate. In intra-prediction encoding, a prediction error block obtained by a difference calculation between an encoding target block and an intra prediction block is an encoding target. That is, in the decoding process, a reproduction macroblock is obtained by adding an intra prediction block and a prediction error block. If Qp_MB is not small enough to reproduce the information included in the prediction error block at a low bit rate, the residual signal to be added to the intra prediction block becomes 0, and the reproduced image becomes the intra prediction block itself. . This phenomenon also occurs for the subsequent macroblocks, resulting in a large visual deterioration. In particular, this problem becomes significant in the color difference signal.

図7、図8、図9、図10、および図11を用いて、イントラ予測誤差が画面内を伝播する様子について説明する。図7において、符号化対象画像400は、白い背景の中に赤色のオブジェクトがある画像である。符号化対象画像400は、スライス401、402、403、および404に分けられる。符号化対象画像400中には赤色のオブジェクト410が存在する。図7において、スライス402とスライス403の境界には、マクロブロック420、430、および440が位置している。マクロブロック420はオブジェクト410のみから構成される。マクロブロック430、および440は、背景のみから構成される。各マクロブロックのCr、およびCb成分の原画状態における画素値を図8に示す。図8(a)において画素500はマクロブロック420のCr成分の画素値である。図8(b)において画素501はマクロブロック420のCb成分の画素値である。図8(c)において画素502はマクロブロック430のCr成分の画素値である。図8(d)において画素503はマクロブロック430のCb成分の画素値である。図8(e)において画素504はマクロブロック440のCr成分の画素値である。図8(f)において画素505はマクロブロック440のCb成分の画素値である。マクロブロック420、430、および440は、この順番で符号化が行われる。   The manner in which the intra prediction error propagates in the screen will be described with reference to FIGS. 7, 8, 9, 10, and 11. In FIG. 7, an encoding target image 400 is an image in which a red object is present on a white background. The encoding target image 400 is divided into slices 401, 402, 403, and 404. A red object 410 exists in the encoding target image 400. In FIG. 7, macroblocks 420, 430, and 440 are located at the boundary between the slice 402 and the slice 403. The macro block 420 includes only the object 410. Macroblocks 430 and 440 are composed only of the background. FIG. 8 shows pixel values in the original picture state of the Cr and Cb components of each macroblock. In FIG. 8A, the pixel 500 is the pixel value of the Cr component of the macroblock 420. In FIG. 8B, the pixel 501 is the pixel value of the Cb component of the macroblock 420. In FIG. 8C, the pixel 502 is a pixel value of the Cr component of the macro block 430. In FIG. 8D, the pixel 503 is the pixel value of the Cb component of the macroblock 430. In FIG. 8E, a pixel 504 is a pixel value of the Cr component of the macro block 440. In FIG. 8F, the pixel 505 is the pixel value of the Cb component of the macroblock 440. Macroblocks 420, 430, and 440 are encoded in this order.

図9、図10を用いて、マクロブロック430の符号化について、特にCr成分に着目して説明する。図9において、画素510は、マクロブロック430のCr成分の画素を示している。周辺画素511は、イントラ予測に用いる周辺画素を示しており、これは、マクロブロック420の再生画素である。マクロブロック430は、スライス402とスライス403の境界に位置するため、色差のイントラ予測モードとして予測モード0(DC予測)と予測モード1(水平予測)のみが使用可能である。図10(a)に、マクロブロック画素510と周辺画素511を2次元的に表現したものを、それぞれ画素波形431、画素波形425として示しており、画素波形431、画素波形425の画素値はそれぞれ、10ビット表現で512、576である。縦軸は画素値、横軸はマクロブロック内の水平位置を示している。図10(b)に、最適予測モードが0(DC予測)に選択された時の予測ブロック画素波形432を示す。図10(c)に、マクロブロック画素波形431と、イントラ予測ブロック画素波形432との差分演算によって得られる予測誤差ブロック画素波形433を示す。この予測誤差ブロック画素波形433が符号化の対象となるが、低ビットレートにおいて量子化パラメータが大きくなると、図10(d)に示すように、予測誤差ブロック画素波形433の情報量が量子化により失われ0になってしまい、復号される予測誤差ブロック画素波形434も0になる。この場合、マクロブロック画素波形431の復号画素波形は、予測ブロック画素波形432となる。図10(e)に、マクロブロック画素波形431の復号画素波形435を示す。同図より、マクロブロック画素波形431は、原画状態では背景であった部分(画素波形436)にオブジェクト410の画素が拡散されていることが分かる。   With reference to FIGS. 9 and 10, the encoding of the macroblock 430 will be described with a particular focus on the Cr component. In FIG. 9, a pixel 510 indicates a Cr component pixel of the macroblock 430. A peripheral pixel 511 indicates a peripheral pixel used for intra prediction, and is a reproduction pixel of the macroblock 420. Since the macroblock 430 is located at the boundary between the slice 402 and the slice 403, only the prediction mode 0 (DC prediction) and the prediction mode 1 (horizontal prediction) can be used as the color difference intra prediction modes. FIG. 10A shows a two-dimensional representation of the macroblock pixel 510 and the peripheral pixel 511 as a pixel waveform 431 and a pixel waveform 425, respectively. The pixel values of the pixel waveform 431 and the pixel waveform 425 are respectively shown. 512 and 576 in 10-bit representation. The vertical axis represents the pixel value, and the horizontal axis represents the horizontal position within the macroblock. FIG. 10B shows a predicted block pixel waveform 432 when the optimum prediction mode is selected as 0 (DC prediction). FIG. 10C shows a prediction error block pixel waveform 433 obtained by calculating a difference between the macroblock pixel waveform 431 and the intra prediction block pixel waveform 432. The prediction error block pixel waveform 433 is a target of encoding. When the quantization parameter increases at a low bit rate, the information amount of the prediction error block pixel waveform 433 is quantized as shown in FIG. The lost prediction error block pixel waveform 434 becomes 0. In this case, the decoded pixel waveform of the macroblock pixel waveform 431 is the predicted block pixel waveform 432. FIG. 10E shows a decoded pixel waveform 435 of the macroblock pixel waveform 431. From the figure, it can be seen that in the macroblock pixel waveform 431, the pixels of the object 410 are diffused in the portion (pixel waveform 436) that was the background in the original image state.

続いて、図11を用いて、マクロブロック440の符号化について、マクロブロック430と同様にCr成分に着目して説明する。図11(a)において、画素波形441は、マクロブロック440のCr成分の画素を示している。マクロブロック440においても、スライス402とスライス403の境界に位置するため、予測モード0と1のみが使用可能である。そのため、マクロブロック440のイントラ予測に用いる周辺画素は、マクロブロック430の再生画素であり、これは、図10(e)で説明した画素波形435である。図11(b)に、最適予測モードが0(DC予測)に選択された時の予測ブロック画素波形442を示す。図11(c)に、マクロブロック画素波形441と、イントラ予測ブロック画素波形442との差分演算によって得られる予測誤差ブロック画素波形443を示す。この予測誤差ブロック画素波形443が符号化の対象となるが、低ビットレートにおいて量子化パラメータが大きくなると、図11(d)に示すように、予測誤差ブロック画素波形443が量子化により失われ0になってしまい、復号される予測誤差ブロック画素波形444も0になる。この場合、マクロブロック画素波形441の復号画素波形は、予測ブロック画素波形442となる。図11(e)に、マクロブロック画素波形441の復号画素波形445を示す。同図より、マクロブロック画素波形441の、原画状態では背景であった部分(画素波形446)にオブジェクト410の画素が拡散されていることが分かる。マクロブロック440以降のマクロブロックにおいても、上述したように、予測誤差ブロック画素の情報量が量子化により0となるため、マクロブロック420に含まれるオブジェクト410の画素が伝播されていくことになる。   Next, with reference to FIG. 11, the encoding of the macroblock 440 will be described focusing on the Cr component in the same manner as the macroblock 430. In FIG. 11A, a pixel waveform 441 indicates a Cr component pixel of the macroblock 440. Since the macroblock 440 is located at the boundary between the slice 402 and the slice 403, only the prediction modes 0 and 1 can be used. Therefore, the peripheral pixels used for the intra prediction of the macroblock 440 are the reproduced pixels of the macroblock 430, which is the pixel waveform 435 described with reference to FIG. FIG. 11B shows a prediction block pixel waveform 442 when the optimum prediction mode is selected as 0 (DC prediction). FIG. 11C shows a prediction error block pixel waveform 443 obtained by calculating a difference between the macroblock pixel waveform 441 and the intra prediction block pixel waveform 442. This prediction error block pixel waveform 443 is an object to be encoded. However, when the quantization parameter increases at a low bit rate, the prediction error block pixel waveform 443 is lost due to quantization as shown in FIG. Therefore, the decoded prediction error block pixel waveform 444 is also zero. In this case, the decoded pixel waveform of the macroblock pixel waveform 441 is a predicted block pixel waveform 442. FIG. 11E shows a decoded pixel waveform 445 of the macroblock pixel waveform 441. From the figure, it can be seen that the pixels of the object 410 are diffused in the portion of the macroblock pixel waveform 441 that was the background in the original image state (pixel waveform 446). Also in the macroblocks after the macroblock 440, as described above, the information amount of the prediction error block pixels becomes 0 due to quantization, so that the pixels of the object 410 included in the macroblock 420 are propagated.

この主観的に望ましくないイントラ予測誤差の画面内伝播の根本的な原因は、量子化パラメータが大きくなることで、予測誤差ブロックの情報が量子化により失われて0になり、イントラ予測ブロックの形状がそのまま符号化対象ブロックの復号ブロックとなることである。   The root cause of intra-screen propagation of this subjectively undesirable intra prediction error is that the quantization parameter becomes large, so that the information of the prediction error block is lost due to quantization and becomes 0, and the shape of the intra prediction block Becomes a decoding block of the encoding target block as it is.

特許文献1では、上記の課題を回避するために、輝度信号が平坦な領域では色差信号の歪が検知しやすいことから、輝度信号が平坦なマクロブロックにおいて、同一マクロブロック内の色差信号の量子化パラメータを相対的に小さくすることで、イントラ予測誤差の画面内伝播を回避する方法を提案している。   In Patent Document 1, in order to avoid the above problem, distortion of the color difference signal is easily detected in a region where the luminance signal is flat. Therefore, in the macro block where the luminance signal is flat, the quantum difference of the color difference signal in the same macro block is detected. We propose a method to avoid intra prediction propagation of intra prediction errors by making the optimization parameter relatively small.

特開平2−105791号公報JP-A-2-105791

しかしながら、上記従来の技術は、輝度信号が平坦なマクロブロックに対してイントラ予測誤差の画面内伝播を回避することができるものの、輝度信号が平坦でないブロックに対しては適用できないという課題がある。輝度信号が平坦でないブロックにおいても、イントラ予測誤差伝播が発生する場合があるのに対して、上記従来の技術は、そのような場合に対応することができない。   However, although the above-described conventional technique can avoid intra prediction error propagation in a screen for a macroblock with a flat luminance signal, there is a problem that it cannot be applied to a block with a non-flat luminance signal. Intra prediction error propagation may occur even in a block where the luminance signal is not flat, whereas the conventional technique cannot cope with such a case.

上記従来の課題を解決するために、本発明の画像符号化装置は、イントラ予測符号化を用いて入力画像を符号化する画像符号化装置であって、符号化対象ブロックの視覚感度を検出する視覚感度検出部と、前記符号化対象ブロックと、前記符号化対象ブロックに対応する予測ブロックとの変移を検出する予測変移検出部と、前記視覚感度と、前記変移と、あらかじめ設定したピクチャ量子化パラメータとにより、前記符号化対象ブロックの量子化パラメータを決定する量子化パラメータ決定部と、を備える。   In order to solve the above-described conventional problems, an image encoding device according to the present invention is an image encoding device that encodes an input image using intra prediction encoding, and detects the visual sensitivity of an encoding target block. A visual sensitivity detector, a prediction transition detector for detecting a transition between the encoding target block and a prediction block corresponding to the encoding target block, the visual sensitivity, the transition, and a preset picture quantization A quantization parameter determining unit that determines a quantization parameter of the encoding target block according to the parameter.

本発明の画像符号化装置によれば、符号化対象ブロックの視覚感度、変移、およびピクチャ量子化パラメータから、イントラ予測誤差の画面内伝播が発生する度合いを検出し、画面内伝播が発生すると判断されたブロックに対し、量子化パラメータを相対的に小さくすることで、イントラ予測誤差の画面内伝播を防ぐことができ、主観画質を向上することができる。   According to the image coding apparatus of the present invention, the degree of intra prediction propagation of intra prediction error is detected from the visual sensitivity, transition, and picture quantization parameter of the encoding target block, and it is determined that intra screen propagation occurs. By making the quantization parameter relatively small with respect to the generated block, it is possible to prevent intra prediction error propagation in the screen, and to improve the subjective image quality.

実施の形態1に係る適応処理装置が組み込まれた動画像圧縮符号化装置の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a moving image compression coding apparatus in which an adaptive processing apparatus according to Embodiment 1 is incorporated. 実施の形態1におけるイントラ予測処理過程でのマクロブロックの画素値変化を示す図The figure which shows the pixel value change of the macroblock in the intra prediction process in Embodiment 1. 実施の形態1におけるイントラ予測処理過程での他のマクロブロックの画素値変化を示す図The figure which shows the pixel value change of the other macroblock in the intra prediction process in Embodiment 1. 実施の形態1における輝度信号に対する9種類のイントラ予測についての説明図Explanatory drawing about nine types of intra prediction with respect to the luminance signal in Embodiment 1. 実施の形態1における色差信号に対する4種類のイントラ予測についての説明図Explanatory drawing about 4 types of intra prediction with respect to the color difference signal in Embodiment 1 従来の画像符号化装置の全体の構成を示すブロック図The block diagram which shows the whole structure of the conventional image coding apparatus. 符号化対象画像を示す図The figure which shows the encoding object picture 実施の形態1におけるマクロブロックのCr成分、Cb成分の画素値を示す図The figure which shows the pixel value of Cr component of the macroblock in Embodiment 1, and Cb component 対象マクロブロックとイントラ予測に用いる周辺画素の位置関係を示す図The figure which shows the positional relationship of the surrounding pixel used for object macroblock and intra prediction 従来のイントラ予測処理過程でのマクロブロックの画素値変化を示す図The figure which shows the pixel value change of the macroblock in the process of the conventional intra prediction process 従来のイントラ予測処理過程での他のマクロブロックの画素値変化を示す図The figure which shows the pixel value change of the other macroblock in the process of the conventional intra prediction process

以下、実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(実施の形態1)
図1、図2、および図3を参照して、実施の形態1に係る画像符号化装置について説明する。
(Embodiment 1)
With reference to FIG. 1, FIG. 2, and FIG. 3, the image coding apparatus according to Embodiment 1 will be described.

図1は、実施の形態1における動きベクトル検出装置を含む動画像圧縮符号化装置全体の構成を概念的に表すブロック図である。動画像圧縮符号化装置は、入力部100、差分演算部101、画像データを周波数領域に変換する変換部102、変換部102で得られた変換係数をあらかじめ定められた量子化パラメータで量子化する量子化部104、量子化された変換係数をエントロピー符号化するエントロピー符号化部105、可変ビットレートの圧縮画像データを伝送レートにあわせて伝送路に供給するための出力部106、ローカルデコーダ110、イントラ予測モード検出部107、彩度算出部130、DC算出部131、および量子化パラメータ決定部103を備える。   FIG. 1 is a block diagram conceptually showing the overall configuration of a moving picture compression encoding apparatus including a motion vector detection apparatus in the first embodiment. The moving image compression encoding apparatus includes an input unit 100, a difference calculation unit 101, a conversion unit 102 that converts image data into a frequency domain, and a conversion coefficient obtained by the conversion unit 102 is quantized with a predetermined quantization parameter. A quantization unit 104; an entropy encoding unit 105 that entropy-encodes the quantized transform coefficient; an output unit 106 for supplying compressed image data having a variable bit rate to a transmission line according to a transmission rate; a local decoder 110; An intra prediction mode detection unit 107, a saturation calculation unit 130, a DC calculation unit 131, and a quantization parameter determination unit 103 are provided.

量子化部104は、変換係数に対し、量子化ステップで除算した結果を整数値に丸める処理を行う。H.264ではQpと呼ばれるパラメータから量子化ステップを導出する。Qpの値が大きくなると量子化ステップが大きくなり、符号化に必要なビット数が減少する。逆にQpの値が小さくなると量子化ステップが小さくなり、符号化に必要なビット数が増加する。したがって、Qpの値を変化させることによって、符号化対象画像での発生符号量を、記録媒体や伝送媒体に応じた所定の符号量内に抑えることができる。なお、Qpの値は0から51までの値をとることができ、Qpが6小さくなると、量子化ステップが1/2になる特性がある。   The quantization unit 104 performs a process of rounding the result obtained by dividing the transform coefficient by the quantization step to an integer value. H. In H.264, a quantization step is derived from a parameter called Qp. As the value of Qp increases, the quantization step increases and the number of bits required for encoding decreases. On the contrary, when the value of Qp becomes small, the quantization step becomes small and the number of bits necessary for encoding increases. Therefore, by changing the value of Qp, the generated code amount in the encoding target image can be suppressed within a predetermined code amount corresponding to the recording medium or the transmission medium. The value of Qp can take a value from 0 to 51. When Qp is reduced by 6, there is a characteristic that the quantization step is halved.

差分演算部101は画像データ120とイントラ予測画像121の差分値を計算する。イントラ予測画像121は、すでに符号化された画像を復号化し、イントラ予測モードをもとにイントラ予測を行うことによって得られる。これは、画像符号化に対応するローカルデコーダ110によって行われる。   The difference calculation unit 101 calculates a difference value between the image data 120 and the intra predicted image 121. The intra prediction image 121 is obtained by decoding an already encoded image and performing intra prediction based on the intra prediction mode. This is performed by the local decoder 110 corresponding to image coding.

ローカルデコーダ110は、符号化手順を逆に行う。すなわち、ローカルデコーダ110は、逆量子化部111と、逆変換部112とによって復号化された差分データに、バッファ114とイントラ予測部115で生成されたイントラ予測画像を加算する加算演算部113とで構成され、復号側で得られるものと同様の画像を生成する。   The local decoder 110 performs the encoding procedure in reverse. That is, the local decoder 110 adds the intra prediction image generated by the buffer 114 and the intra prediction unit 115 to the difference data decoded by the inverse quantization unit 111 and the inverse transform unit 112, and an addition calculation unit 113. The same image as that obtained on the decoding side is generated.

なお、イントラ予測符号化では、対象となる画像のイントラ予測画像は、対象となる画像と復号化した画像(バッファ114に蓄積された復号化画像で、参照画像に相当)との間でのイントラ予測に基づいて、対応する復号化した画像の画像データから生成される。   In intra prediction encoding, an intra prediction image of a target image is an intra between the target image and a decoded image (a decoded image stored in the buffer 114 and corresponding to a reference image). Based on the prediction, it is generated from the image data of the corresponding decoded image.

イントラ予測モード検出部107は、入力された画像データ120と、ローカルデコーダ内のバッファ114より入力された、符号化済みのイントラ予測モード検出対象画像との空間的な相関を利用して、最適なイントラ予測モードを検出する。通常、イントラ予測はブロック単位で行われる。すなわち、復号化した画像で、対象となる画像のブロックと最も相関が高いイントラ予測ブロックを生成する予測モードが、最適な予測モードとして検出される。イントラ予測モード検出部107と、最適イントラ予測モードに対応して復号化した画像からイントラ予測画像を生成するイントラ予測部115がエンコーダに組み込まれている。   The intra prediction mode detection unit 107 uses the spatial correlation between the input image data 120 and the encoded intra prediction mode detection target image input from the buffer 114 in the local decoder, to optimize the prediction. Intra prediction mode is detected. Usually, intra prediction is performed in units of blocks. That is, a prediction mode that generates an intra prediction block having the highest correlation with a block of a target image in the decoded image is detected as an optimal prediction mode. An intra prediction mode detection unit 107 and an intra prediction unit 115 that generates an intra prediction image from an image decoded in accordance with the optimal intra prediction mode are incorporated in the encoder.

彩度算出部130は、マクロブロック単位に分割された画像データ120のCrおよびCbブロックそれぞれに対して、彩度を算出する。   The saturation calculation unit 130 calculates the saturation for each of the Cr and Cb blocks of the image data 120 divided into macroblock units.

DC算出部131は、入力されたイントラ予測誤差ブロック内のCrおよびCbブロックそれぞれに対して、Cr成分、およびCb成分のDC値がイントラ予測によってどの程度変動したかを示す値を算出する。   The DC calculation unit 131 calculates a value indicating how much the DC value of the Cr component and the Cb component has fluctuated due to the intra prediction for each of the Cr and Cb blocks in the input intra prediction error block.

量子化パラメータ決定部103は、彩度算出部130が算出した彩度、DC算出部131が算出した値、及びQp_picより、当該マクロブロックにおいてイントラ予測誤差伝播が発生するか否かを判断し、マクロブロックに対する量子化パラメータを決定する。   The quantization parameter determination unit 103 determines whether intra prediction error propagation occurs in the macroblock based on the saturation calculated by the saturation calculation unit 130, the value calculated by the DC calculation unit 131, and Qp_pic. Determine the quantization parameters for the macroblock.

次に図1に示す動画像圧縮符号化装置の動作について説明する。図1において、まず、入力部100より入力された画像データ120はマクロブロック(縦16画素×横16画素)単位に分割される。以降マクロブロック単位で符号化処理が行われる。マクロブロックに分割された画像データに対して、差分演算部101でイントラ予測画像121と差分演算が行われる。   Next, the operation of the moving image compression encoding apparatus shown in FIG. 1 will be described. In FIG. 1, first, the image data 120 input from the input unit 100 is divided into macroblocks (vertical 16 pixels × horizontal 16 pixels). Thereafter, encoding processing is performed in units of macroblocks. The difference calculation unit 101 performs a difference calculation with the intra predicted image 121 on the image data divided into macro blocks.

差分演算された差分データは変換部102で直交変換され、量子化部104で量子化される。量子化部104では、量子化パラメータ決定部103で決定された量子化パラメータを用いて量子化処理が行われる。量子化された差分データの直交変換係数は、エントロピー符号化部105でエントロピー符号化され、出力部106よりビットストリームとして出力される。また、量子化された差分データの直交変換係数は、逆量子化部111で逆量子化され、逆変換部112で逆直交変換され差分データとして復号化される。なお、このときの差分データはデータ量削減のための量子化によって非可逆処理が行われているので元の差分データではない。   The difference data subjected to the difference calculation is orthogonally transformed by the transform unit 102 and quantized by the quantization unit 104. The quantization unit 104 performs a quantization process using the quantization parameter determined by the quantization parameter determination unit 103. The orthogonal transform coefficient of the quantized difference data is entropy encoded by the entropy encoding unit 105 and output as a bit stream from the output unit 106. Further, the orthogonal transform coefficient of the quantized difference data is inversely quantized by the inverse quantization unit 111, inversely orthogonally transformed by the inverse transform unit 112, and decoded as difference data. Note that the difference data at this time is not the original difference data because irreversible processing is performed by quantization for reducing the amount of data.

復号化された差分データは、加算演算部113によって、イントラ予測部115でイントラ予測されたイントラ予測画像に加算される。加算された画像はエンコーダ内のローカルデコード画像として、後のイントラ予測モード検出やイントラ予測の参照画像としてバッファ114へ一時的に蓄積される。イントラ予測モード検出部107は、これからイントラ予測モードを検出しようとするマクロブロックに分割された画像データとバッファ114に蓄積された参照画像との間でイントラ予測モードを算出する。   The decoded difference data is added by the addition operation unit 113 to the intra predicted image that has been intra predicted by the intra prediction unit 115. The added image is temporarily stored in the buffer 114 as a local decoded image in the encoder as a reference image for later intra prediction mode detection or intra prediction. The intra prediction mode detection unit 107 calculates an intra prediction mode between the image data divided into macroblocks from which the intra prediction mode is to be detected and the reference image stored in the buffer 114.

イントラ予測モードの算出は、以下のようにして求められる。例えば、対象ブロックに対して、全9モードの方式で生成された予測ブロックとの間でブロックマッチングし、ブロック間の差分絶対値和を求め、その差分絶対値和が最小となったときの予測モードが、対象ブロックにおける最適予測モードに決定される。イントラ予測モード検出部107で算出された最適イントラ予測モードは、イントラ予測部115へ供給される。イントラ予測部115において、バッファ114に蓄積された参照画像より、最適イントラ予測モードに応じた周辺画素を用いてイントラ予測画像が生成される。   The intra prediction mode is calculated as follows. For example, block matching is performed between the target block and a prediction block generated by all 9 modes, and the difference absolute value sum between the blocks is obtained, and the prediction when the difference absolute value sum is minimized The mode is determined as the optimum prediction mode in the target block. The optimal intra prediction mode calculated by the intra prediction mode detection unit 107 is supplied to the intra prediction unit 115. In the intra prediction unit 115, an intra predicted image is generated from the reference images stored in the buffer 114 using peripheral pixels corresponding to the optimal intra prediction mode.

イントラ予測モード検出部107におけるイントラ予測モードの算出方法について、より詳細に説明する。H.264において、各マクロブロックにおけるイントラ予測は、輝度信号に対し異なるブロックサイズを用いて行うことができる。個々のイントラ予測モードは、イントラ予測のブロックサイズである16×16、8×8、4×4画素の合計3種類のブロックに対して決定することができる。以降、イントラ予測のブロックサイズを8×8として説明を行う。   The calculation method of the intra prediction mode in the intra prediction mode detection unit 107 will be described in more detail. H. In H.264, intra prediction in each macroblock can be performed using different block sizes for the luminance signal. Individual intra prediction modes can be determined for a total of three types of blocks of 16 × 16, 8 × 8, and 4 × 4 pixels, which are block sizes for intra prediction. Hereinafter, description will be made assuming that the block size of intra prediction is 8 × 8.

まず、輝度信号に対するイントラ予測について説明する。図4は、イントラ予測に用いる9つのイントラ予測モードを示す図である。画素A〜Yはイントラ予測に用いる符号化済みの周辺画素である。各8×8ブロックの候補となるイントラ予測モードには、予測方向に対応した9つの種類があり、この中から一つを選択して符号化を行う。   First, intra prediction for a luminance signal will be described. FIG. 4 is a diagram illustrating nine intra prediction modes used for intra prediction. Pixels A to Y are encoded peripheral pixels used for intra prediction. There are nine types of intra prediction modes that are candidates for each 8 × 8 block, corresponding to the prediction direction, and one of these is selected for encoding.

図4において、モード0は「垂直予測」と定義され、予測対象である8×8ブロックの上部に隣接する符号化済みブロックの画素A〜Hの輝度を、それぞれ垂直下方の画素の輝度から換算して、差分の絶対値和を求め、輝度の絶対差分値和を算出する。すなわち、画素Aの下方にある8画素の輝度から画素Aの輝度をそれぞれ減算し、画素Bの下方にある8画素の輝度から画素Bの輝度をそれぞれ減算する。同様に、画素C、画素D、画素E、画素F、画素G、および画素Hの下方にある各8画素の輝度から、それぞれ画素C、画素D、画素E、画素F、画素G、および画素Hの輝度を減算する。このように減算結果として得られた輝度の絶対差分値和が、予測対象の8×8ブロックの予測モード0の予測誤差となる。   In FIG. 4, mode 0 is defined as “vertical prediction”, and the luminance of pixels A to H of the encoded block adjacent to the upper part of the 8 × 8 block to be predicted is converted from the luminance of the pixel below vertically. Then, an absolute value sum of differences is obtained, and an absolute difference sum of luminance is calculated. That is, the brightness of pixel A is subtracted from the brightness of 8 pixels below pixel A, and the brightness of pixel B is subtracted from the brightness of 8 pixels below pixel B. Similarly, from the luminance of each of the eight pixels below the pixel C, pixel D, pixel E, pixel F, pixel G, and pixel H, the pixel C, pixel D, pixel E, pixel F, pixel G, and pixel, respectively. The luminance of H is subtracted. Thus, the sum of absolute difference values of luminance obtained as a subtraction result becomes a prediction error in prediction mode 0 of the 8 × 8 block to be predicted.

次に、モード1は「水平予測」と定義され、予測対象ブロックの左部に隣接する符号化済みの画素Q〜Xの輝度を、それぞれ水平方向の画素の輝度から減算して、差分の絶対値和を求め、輝度の絶対差分値和を算出する。この減算結果として得られた輝度の絶対差分値和が、予測対象ブロックの予測モード1の予測誤差となる。   Next, mode 1 is defined as “horizontal prediction”, and the luminance of the encoded pixels Q to X adjacent to the left part of the prediction target block is subtracted from the luminance of the pixels in the horizontal direction to calculate the absolute difference. A value sum is obtained, and an absolute difference value sum of luminance is calculated. The sum of absolute difference values of luminance obtained as a result of this subtraction becomes a prediction error in prediction mode 1 of the prediction target block.

次に、モード2は「DC予測」と定義され、予測対象ブロックの上部と左部に隣接する符号化済みの画素A〜H、および画素Q〜Xの輝度の平均値を、予測ブロック内の各画素の輝度から減算して、差分の絶対値和を求め、輝度の差分の絶対値和を算出する。この減算結果として得られた輝度の絶対差分値和が、予測対象ブロックの予測モード2の予測誤差となる。   Next, mode 2 is defined as “DC prediction”, and the average values of the luminances of the encoded pixels A to H and the pixels Q to X adjacent to the upper and left parts of the prediction target block are set in the prediction block. By subtracting from the luminance of each pixel, the absolute value sum of the differences is obtained, and the absolute value sum of the luminance differences is calculated. The sum of absolute difference values of luminance obtained as a result of this subtraction becomes a prediction error in prediction mode 2 of the prediction target block.

以降、モード3〜8に対しても同様の処理を行い、各モードにおける予測誤差を算出する。予測誤差算出後、9つのモードの中で、最も予測誤差の小さいモードを、予測対象ブロックの輝度信号に対する最適予測モードに決定する。   Thereafter, the same processing is performed for the modes 3 to 8, and the prediction error in each mode is calculated. After calculating the prediction error, the mode with the smallest prediction error among the nine modes is determined as the optimum prediction mode for the luminance signal of the prediction target block.

続いて、色差信号に対するイントラ予測について説明する。色差信号に対して、1つのマクロブロックに対し1つのイントラ予測モードが設定される。本発明では、説明の都合上、色差信号に対するイントラ予測のブロックサイズを8×8として説明を行う。図5は、イントラ予測に用いる4つのイントラ予測モードを示す図である。画素A〜H、Q〜Yは符号化済みの周辺画素であり、イントラ予測を行う際に使用される。各8×8ブロックの候補となるイントラ予測モードには、予測方向に対応した4つの種類があり、この中から一つを選択して符号化を行う。   Next, intra prediction for color difference signals will be described. For the color difference signal, one intra prediction mode is set for one macroblock. In the present invention, for convenience of explanation, the block size for intra prediction for color difference signals is assumed to be 8 × 8. FIG. 5 is a diagram illustrating four intra prediction modes used for intra prediction. Pixels A to H and Q to Y are encoded peripheral pixels and are used when performing intra prediction. There are four types of intra prediction modes that are candidates for each 8 × 8 block, corresponding to the prediction direction, and one of these is selected for encoding.

図5において、モード0は「DC予測」と定義され、予測対象ブロックに隣接する符号化済みの画素A〜Hと画素Q〜Xの色差の平均値を、予測ブロック内の各画素の色差から減算して、差分の絶対値和を求め、色差の差分の絶対値和を算出する。この減算結果として得られた色差の絶対差分値和が、予測対象ブロックの予測モード0の予測誤差となる。   In FIG. 5, mode 0 is defined as “DC prediction”, and the average value of the color differences between the encoded pixels A to H and the pixels Q to X adjacent to the prediction target block is calculated from the color difference of each pixel in the prediction block. Subtraction is performed to obtain the sum of absolute values of differences, and the sum of absolute values of differences of color differences is calculated. The absolute difference value sum of the color differences obtained as a result of this subtraction becomes a prediction error in the prediction mode 0 of the prediction target block.

次に、モード1は「水平予測」と定義され、予測対象である8×8ブロックの左部に隣接する符号化済みブロックの画素Q〜Xの色差を、それぞれ水平右方の画素の色差から換算して、差分の絶対値和を求め、色差の絶対差分値和を算出する。すなわち、画素Qの右方にある8画素の色差から画素Qの色差をそれぞれ減算し、画素Rの右方にある8画素の色差から画素Rの色差をそれぞれ減算する。同様に、画素S、画素T、画素U、画素V、画素W、および画素Xの右方にある各8画素の色差から、それぞれ画素S、画素T、画素U、画素V、画素W、および画素Xの色差を減算する。このように減算結果として得られた色差の絶対差分値和が、予測対象の8×8ブロックの予測モード1の予測誤差となる。   Next, mode 1 is defined as “horizontal prediction”, and the color difference between the pixels Q to X of the encoded block adjacent to the left part of the 8 × 8 block to be predicted is determined from the color difference between the pixels on the right side of the horizontal. Conversion is performed to obtain an absolute value sum of differences, and an absolute difference value sum of color differences is calculated. That is, the color difference of the pixel Q is subtracted from the color difference of 8 pixels on the right side of the pixel Q, and the color difference of the pixel R is subtracted from the color difference of 8 pixels on the right side of the pixel R. Similarly, pixel S, pixel T, pixel U, pixel V, pixel W and pixel S, pixel T, pixel U, pixel V, pixel W, and pixel X are obtained from the color difference of each of the eight pixels. The color difference of the pixel X is subtracted. The sum of absolute difference values of the color differences obtained as a result of the subtraction in this way becomes a prediction error in the prediction mode 1 of the 8 × 8 block to be predicted.

モード2は「垂直予測」と定義され、予測対象である8×8ブロックの上部に隣接する符号化済みブロックの画素A〜Hの色差を、それぞれ垂直下方の画素の色差から換算して、差分の絶対値を求め、色差の絶対差分値和を算出する。この減算結果として得られた色差の絶対差分値和が、予測対象ブロックの予測モード2の予測誤差となる。   Mode 2 is defined as “vertical prediction”, and the color difference between the pixels A to H of the encoded block adjacent to the upper part of the 8 × 8 block to be predicted is converted from the color difference of the pixel below vertically, and the difference Is obtained, and the sum of the absolute difference values of the color differences is calculated. The absolute difference value sum of the color differences obtained as a result of this subtraction becomes the prediction error in the prediction mode 2 of the prediction target block.

次に、モード3は「平面予測」と定義され、予測対象ブロックに隣接する符号化済みの画素A〜H、画素Q〜X、および画素Yの色差から算出した予測値を、予測ブロック内の各画素の色差から減算して、差分の絶対値和を求め、色差の差分の絶対値和を算出する。この減算結果として得られた色差の絶対差分値和が、予測対象ブロックの予測モード3の予測誤差となる。   Next, mode 3 is defined as “planar prediction”, and the prediction value calculated from the color difference between the encoded pixels A to H, the pixels Q to X, and the pixel Y adjacent to the prediction target block is set in the prediction block. The absolute value sum of the differences is obtained by subtracting from the color difference of each pixel, and the absolute value sum of the difference of the color differences is calculated. The absolute difference value sum of the color differences obtained as a result of this subtraction becomes the prediction error in the prediction mode 3 of the prediction target block.

予測誤差算出後、4つのモードの中で、最も予測誤差の小さいモードを、予測対象ブロックの色差信号に対する最適予測モードに決定する。   After calculating the prediction error, the mode with the smallest prediction error among the four modes is determined as the optimum prediction mode for the color difference signal of the prediction target block.

イントラ予測部115は、イントラ予測モード検出部107によるイントラ予測モード検出結果に基づいて、決定された予測モードに基づく予測が行われる。そして、予測されたブロックから得られる予測誤差ブロックに含まれる情報は、変換部102において、変換係数に変換される。変換方式としては、2次元DCT(離散コサイン変換)が用いられる。得られた変換係数は量子化部104において、あらかじめ定められた量子化パラメータで量子化され、最後にエントロピー符号化部105において、エントロピー符号化が行われる。なお、イントラ予測モード検出部107で検出された予測モードは、イントラ予測に用いられると共に、エントロピー符号化部105を経て、圧縮画像データに組み込まれて出力部106より出力される。   The intra prediction unit 115 performs prediction based on the determined prediction mode based on the intra prediction mode detection result by the intra prediction mode detection unit 107. Information included in the prediction error block obtained from the predicted block is converted into a conversion coefficient in the conversion unit 102. As a conversion method, two-dimensional DCT (discrete cosine transform) is used. The obtained transform coefficient is quantized by a quantization unit 104 with a predetermined quantization parameter, and finally entropy coding unit 105 performs entropy coding. Note that the prediction mode detected by the intra prediction mode detection unit 107 is used for intra prediction, is incorporated into compressed image data via the entropy encoding unit 105, and is output from the output unit 106.

本実施の形態における核となる技術は、イントラ予測の誤差伝播が発生するブロックを検出し、当該ブロックの量子化パラメータを小さくし再現性を高めることにある。そのために、本実施の形態において、量子化部104で直交変換された差分データを量子化するときの量子化パラメータが、当該ブロックの彩度、予測誤差ブロックのDC値、画像全体に設定された量子化パラメータによって決定されることを特徴としている。   The core technology in the present embodiment is to detect a block in which intra-propagation error propagation occurs, to reduce the quantization parameter of the block, and to improve reproducibility. Therefore, in this embodiment, the quantization parameter when quantizing the difference data orthogonally transformed by the quantization unit 104 is set for the saturation of the block, the DC value of the prediction error block, and the entire image. It is determined by the quantization parameter.

まず、彩度検出部130の動作について説明する。入力されたマクロブロック内のCrおよびCbブロックそれぞれに対して、彩度Sat_Cr、およびSat_Cbを次式で定義する。なお、本実施の形態におけるCrおよびCbブロックサイズは縦8画素×横8画素とする。   First, the operation of the saturation detection unit 130 will be described. Saturation Sat_Cr and Sat_Cb are defined by the following equations for Cr and Cb blocks in the input macroblock, respectively. Note that the Cr and Cb block sizes in the present embodiment are 8 vertical pixels × 8 horizontal pixels.

Sat_Cr=(Σ|Pix_Cr(j,i)−GrayLevel|)/64
Sat_Cb=(Σ|Pix_Cb(j,i)−GrayLevel|)/64
上式において、Pix_Cr(j,i)はCrブロック内の画素値を示す。jおよびiはブロック内の画素位置を示しており、ブロック左上がj=0、i=0、ブロック右下がj=7、i=7である。GrayLevelは、無彩色の画素値を示し、10ビット表現(0〜1023)されている場合、GrayLevel=512となる。Sat_Cr、およびSat_CbはCr成分、およびCb成分が無彩色であるGrayLevelに対し、どの程度離れているかを定量化したものであり、この値が大きいと彩度が高いことを示し、逆に値が小さいと彩度が低いことを示している。
Sat_Cr = (Σ | Pix_Cr (j, i) −GrayLevel |) / 64
Sat_Cb = (Σ | Pix_Cb (j, i) −GrayLevel |) / 64
In the above equation, Pix_Cr (j, i) represents a pixel value in the Cr block. j and i indicate pixel positions in the block. The upper left of the block is j = 0, i = 0, the lower right of the block is j = 7, and i = 7. GrayLevel indicates an achromatic pixel value, and when 10-bit representation (0 to 1023) is performed, GrayLevel = 512. Sat_Cr and Sat_Cb are quantified how far the Cr component and Cb component are away from Gray Level, which is an achromatic color. If this value is large, it indicates that the saturation is high, and conversely the value is Small values indicate low saturation.

続いて、DC算出部131の動作について説明する。入力されたイントラ予測誤差ブロック内のCrおよびCbブロックそれぞれに対して、diff_DC_Cr、およびdiff_DC_Cbを次式で定義する。   Next, the operation of the DC calculation unit 131 will be described. For each of the Cr and Cb blocks in the input intra prediction error block, diff_DC_Cr and diff_DC_Cb are defined by the following equations.

diff_DC_Cr=(Σ|diff_Cr(j,i)|)/64
diff_DC_Cb=(Σ|diff_Cb(j,i)|)/64
上式において、diff_Cr(j,i)は、イントラ予測誤差Crブロック内の画素値を示す。jおよびiはブロック内の画素位置を示しており、ブロック左上がj=0、i=0、ブロック右下がj=7、i=7である。diff_DC_Cr、diff_DC_CbはCr成分、およびCb成分のDC値がイントラ予測によってどの程度変動したかを定量化したものであり、この値が大きいとイントラ予測による誤差が大きい、逆にこの値が小さいとイントラ予測による誤差が小さいことを示している。
diff_DC_Cr = (Σ | diff_Cr (j, i) |) / 64
diff_DC_Cb = (Σ | diff_Cb (j, i) |) / 64
In the above equation, diff_Cr (j, i) represents a pixel value in the intra prediction error Cr block. j and i indicate pixel positions in the block. The upper left of the block is j = 0, i = 0, the lower right of the block is j = 7, and i = 7. diff_DC_Cr and diff_DC_Cb quantify how much the DC value of the Cr component and the Cb component fluctuates due to intra prediction. When this value is large, an error due to intra prediction is large. It shows that the error due to prediction is small.

量子化パラメータ決定部103は、入力された彩度Sat_Cr、Sat_Cb、イントラ予測誤差ブロックのDC値diff_DC_Cr、diff_DC_Cb、およびQp_picより、以下の3つの条件が同時に成立するときに、当該マクロブロックにおいてイントラ予測誤差伝播が発生すると判断する。   The quantization parameter determination unit 103 performs intra prediction in the macroblock when the following three conditions are simultaneously satisfied from the input saturation Sat_Cr, Sat_Cb, the DC value diff_DC_Cr, diff_DC_Cb, and Qp_pic of the intra prediction error block. It is determined that error propagation occurs.

(1)Sat_Cr≦thr_Sat、かつSat_Cb≦thr_Sat
(2)diff_DC_Cr>thr_diff_DC、あるいは diff_DC_Cb>thr_diff_DC
(3)Qp_pic>thr_Qp
イントラ予測誤差伝播が発生すると判断されたマクロブロックに対する量子化パラメータQp_MBを、以下に設定する。
(1) Sat_Cr ≦ thr_Sat and Sat_Cb ≦ thr_Sat
(2) diff_DC_Cr> thr_diff_DC or diff_DC_Cb> thr_diff_DC
(3) Qp_pic> thr_Qp
A quantization parameter Qp_MB for a macroblock determined to cause intra prediction error propagation is set as follows.

Qp_MB=Qp_pic−Qp_ofs
ここで、thr_Sat、thr_diff_DCはあらかじめ定めた閾値、Qp_ofsはあらかじめ定めたオフセット値である。
Qp_MB = Qp_pic-Qp_ofs
Here, thr_Sat and thr_diff_DC are predetermined threshold values, and Qp_ofs is a predetermined offset value.

従来例の説明で用いた図7のテスト画像を使って、本実施の形態の核となる彩度検出、DC検出、および量子化パラメータ決定手段を具体的に説明する。   Using the test image of FIG. 7 used in the description of the conventional example, the saturation detection, DC detection, and quantization parameter determination means that are the core of the present embodiment will be specifically described.

図2、図3を用いて、本実施の形態における、マクロブロック430の符号化について説明する。なお、ピクチャ400に設定された量子化パラメータQp_pic=30とする。様々なテスト画像を用いて検討した結果、本実施の形態では、量子化パラメータ決定部103におけるイントラ予測誤差伝播検出に関する閾値を、それぞれ、thr_Sat=16、thr_diff_DC=32、thr_Qp=26、Qp_ofs=6に設定する。   The encoding of the macroblock 430 in the present embodiment will be described using FIG. 2 and FIG. Note that the quantization parameter Qp_pic = 30 set in the picture 400 is set. As a result of examination using various test images, in the present embodiment, the thresholds related to intra prediction error propagation detection in the quantization parameter determination unit 103 are thr_Sat = 16, thr_diff_DC = 32, thr_Qp = 26, Qp_ofs = 6, respectively. Set to.

まず、彩度算出部130はマクロブロック430の彩度Sat_Cr、およびSat_Cbを算出する。GrayLevel=512であるから、図8に示したマクロブロック430のCr、Cb成分の画素値より、Sat_Cr=(64×|512−512|)/64=0、Sat_Cb=(64×|512−512|)/64=0となる。   First, the saturation calculation unit 130 calculates the saturation Sat_Cr and Sat_Cb of the macroblock 430. Since GrayLevel = 512, Sat_Cr = (64 × | 512−512 |) / 64 = 0, Sat_Cb = (64 × | 512−512) from the pixel values of the Cr and Cb components of the macroblock 430 shown in FIG. |) / 64 = 0.

次に、DC算出部131はイントラ予測誤差ブロックのDC値diff_DC_Cr、diff_DC_Cbを算出する。マクロブロック430のイントラ予測に用いる周辺画素は、直前のマクロブロック420の再生画素である。マクロブロック420のCr、Cb成分が劣化なく再生されたとして、図2(a)に、マクロブロック430に対応するCr成分のイントラ予測ブロックの画素値を、図2(b)に、Cb成分のイントラ予測ブロックの画素値を示す。同図より、diff_DC_Cr=(64×|576−512|)/64=64、diff_DC_Cb=(64×|512−512|)/64=0となる。   Next, the DC calculation unit 131 calculates DC values diff_DC_Cr and diff_DC_Cb of the intra prediction error block. The peripheral pixels used for the intra prediction of the macroblock 430 are reproduction pixels of the immediately preceding macroblock 420. Assuming that the Cr and Cb components of the macroblock 420 are reproduced without deterioration, the pixel values of the intra prediction block of the Cr component corresponding to the macroblock 430 are shown in FIG. 2A, and the Cb component of FIG. The pixel value of an intra prediction block is shown. From the drawing, diff_DC_Cr = (64 × | 576−512 |) / 64 = 64 and diff_DC_Cb = (64 × | 512−512 |) / 64 = 0.

このとき、マクロブロック430は前述のイントラ予測誤差伝播発生の3つの条件を同時に満たしているため、当該マクロブロックにはQp_MB=30−6=24が設定される。このときの画素値の変化を、Cr成分に着目して説明する。   At this time, since the macroblock 430 satisfies the above three conditions for intra prediction error propagation simultaneously, Qp_MB = 30−6 = 24 is set in the macroblock. The change in the pixel value at this time will be described by focusing on the Cr component.

図2(c)において、画素波形231は、マクロブロック430のCr成分の画素を示している。周辺画素波形225は、イントラ予測に用いる周辺画素を示しており、これは、マクロブロック420の再生画素である。図2(d)に、最適予測モードが0(DC予測)に選択された時の予測ブロック画素波形232を示す。図2(e)に、マクロブロック画素波形231と、イントラ予測ブロック画素波形232との差分演算によって得られる予測誤差ブロック画素波形233を示す。この予測誤差ブロック画素波形233が符号化の対象となる。マクロブロック430は、量子化パラメータ決定部103においてイントラ予測誤差伝播ブロックと判断され、Qp_MBは24に設定される。H.264において、Qpが6小さくなると量子化ステップが1/2になる。Qp=30では64以下のデータは量子化により0となるが、Qp=24とすると量子化ステップが1/2になるため、32より大きいデータを復元することができる。これにより、図2(f)で示すように、従来例では量子化で失われていた予測誤差ブロックの情報を復元することができる(画素波形234)。図2(g)に、マクロブロック画素波形231の復号画素波形235を示す。従来例ではイントラ予測ブロックの形状がそのまま現れ、原画状態では背景であった部分にオブジェクト410の画素が拡散されていた。これに対し、本実施の形態では、原画状態での背景が再現され、オブジェクト410の画素の拡散を抑制していることがわかる。   In FIG. 2C, the pixel waveform 231 indicates the Cr component pixel of the macroblock 430. A peripheral pixel waveform 225 indicates peripheral pixels used for intra prediction, which are reproduced pixels of the macroblock 420. FIG. 2D shows a prediction block pixel waveform 232 when the optimum prediction mode is selected as 0 (DC prediction). FIG. 2E shows a prediction error block pixel waveform 233 obtained by calculating a difference between the macroblock pixel waveform 231 and the intra prediction block pixel waveform 232. This prediction error block pixel waveform 233 is an encoding target. The macro block 430 is determined to be an intra prediction error propagation block by the quantization parameter determination unit 103, and Qp_MB is set to 24. H. In H.264, when Qp is reduced by 6, the quantization step is halved. When Qp = 30, the data of 64 or less becomes 0 by quantization, but when Qp = 24, the quantization step is halved, so that data larger than 32 can be restored. As a result, as shown in FIG. 2 (f), it is possible to restore the information of the prediction error block that has been lost due to quantization in the conventional example (pixel waveform 234). FIG. 2G shows a decoded pixel waveform 235 of the macroblock pixel waveform 231. In the conventional example, the shape of the intra-prediction block appears as it is, and the pixels of the object 410 are diffused in the portion that was the background in the original image state. On the other hand, in the present embodiment, it can be seen that the background in the original image state is reproduced and diffusion of pixels of the object 410 is suppressed.

続いて、本実施の形態における、マクロブロック440の符号化について説明する。   Subsequently, encoding of the macroblock 440 in the present embodiment will be described.

まず、マクロブロック440の彩度Sat_Cr、およびSat_Cbを算出する。GrayLevel=512であるから、図8に示した、マクロブロック440のCr、Cb成分の画素値より、Sat_Cr=(64×|512−512|)/64=0、Sat_Cb=(64×|512−512|)/64=0となる。次に、イントラ予測誤差ブロックのDC値diff_DC_Cr、diff_DC_Cbを算出する。マクロブロック440のイントラ予測に用いる周辺画素は、直前のマクロブロック430の再生画素であり、これは、図2(g)で説明した画素波形235である。図3(a)、(b)に、マクロブロック440に対応するイントラ予測ブロックの画素値を、Cr成分、Cb成分それぞれについて示す。同図より、diff_DC_Cr=(64×|512−512|)/64=0、diff_DC_Cb=(64×|512−512|)/64=0となる。このとき、マクロブロック440は前述のイントラ予測誤差伝播発生の3つの条件を同時に満たしていないため、当該マクロブロックにはQpの補正は行われず、Qp_MB=30が設定される。このときの画素値の変化を、Cr成分に着目して説明する。   First, the saturation Sat_Cr and Sat_Cb of the macroblock 440 are calculated. Since GrayLevel = 512, Sat_Cr = (64 × | 512−512 |) / 64 = 0, Sat_Cb = (64 × | 512−) from the pixel values of the Cr and Cb components of the macroblock 440 shown in FIG. 512 |) / 64 = 0. Next, DC values diff_DC_Cr and diff_DC_Cb of the intra prediction error block are calculated. The peripheral pixels used for the intra prediction of the macroblock 440 are the reproduced pixels of the immediately preceding macroblock 430, which is the pixel waveform 235 described with reference to FIG. 3A and 3B show the pixel values of the intra prediction block corresponding to the macro block 440 for the Cr component and the Cb component, respectively. From the drawing, diff_DC_Cr = (64 × | 512−512 |) / 64 = 0 and diff_DC_Cb = (64 × | 512−512 |) / 64 = 0. At this time, since the macroblock 440 does not satisfy the above three conditions for the occurrence of intra prediction error propagation at the same time, Qp correction is not performed on the macroblock, and Qp_MB = 30 is set. The change in the pixel value at this time will be described by focusing on the Cr component.

図3(c)において、画素波形241は、マクロブロック440のCr成分の画素を示している。周辺画素は、マクロブロック430の再生画素であり、これは、図2(g)で説明した画素波形235である。図3(d)に、最適予測モードが0(DC予測)に選択された時のイントラ予測ブロック画素波形242を示す。図3(e)に、マクロブロック画素波形241と、イントラ予測ブロック画素波形242との差分演算によって得られる予測誤差ブロック画素波形243を示す。この予測誤差ブロック画素波形243が符号化の対象となるが、予測誤差は0のため、量子化処理を行っても0となり、図3(f)に示すように復元差分ブロックの画素波形244も0となる。図3(g)に、マクロブロック画素波形241の復号画素波形245を示す。従来例では、原画状態では背景であった部分にオブジェクト410の画素が拡散されていた。これに対し、本実施の形態においては、原画状態での背景が再現され、オブジェクト410の画素の拡散を抑制していることがわかる。   In FIG. 3C, the pixel waveform 241 indicates the Cr component pixel of the macroblock 440. The peripheral pixels are reproduction pixels of the macro block 430, which is the pixel waveform 235 described with reference to FIG. FIG. 3D shows an intra prediction block pixel waveform 242 when the optimum prediction mode is selected as 0 (DC prediction). FIG. 3E shows a prediction error block pixel waveform 243 obtained by calculating a difference between the macroblock pixel waveform 241 and the intra prediction block pixel waveform 242. This prediction error block pixel waveform 243 is a target of encoding, but since the prediction error is 0, it becomes 0 even if quantization processing is performed, and the pixel waveform 244 of the restored difference block is also shown in FIG. 0. FIG. 3G shows a decoded pixel waveform 245 of the macroblock pixel waveform 241. In the conventional example, the pixels of the object 410 are diffused in the portion that was the background in the original image state. On the other hand, in the present embodiment, it can be seen that the background in the original image state is reproduced and the diffusion of the pixels of the object 410 is suppressed.

以上より、本実施の形態においては、対象マクロブロックの色差成分に対して検出した彩度、イントラ予測誤差のDC値、およびピクチャ量子化パラメータより、対象マクロブロックのイントラ予測誤差伝播の発生度合いを検出して、その発生度合いにより、対象マクロブロックの量子化パラメータを制御することで、主観的に望ましくないイントラ予測誤差の画面内伝播を抑制することができる。   As described above, in the present embodiment, the degree of occurrence of intra prediction error propagation of the target macroblock is determined from the saturation detected for the color difference component of the target macroblock, the DC value of the intra prediction error, and the picture quantization parameter. By detecting and controlling the quantization parameter of the target macroblock according to the degree of occurrence, it is possible to suppress intra-screen propagation of intra prediction errors that are subjectively undesirable.

なお、本実施の形態において、視覚感度として彩度を用いたが、本発明はこれに限定されない。例えば、輝度を視覚感度として用いても構わない。また、対象マクロブロックの彩度検出、DC値検出、および量子化パラメータ決定をソフトウェアで実現してもよい。   In the present embodiment, saturation is used as visual sensitivity, but the present invention is not limited to this. For example, luminance may be used as visual sensitivity. Further, the saturation detection, DC value detection, and quantization parameter determination of the target macroblock may be realized by software.

本実施の形態における動画像圧縮符号化装置は、H.264符号化において、イントラ予測誤差の画面内伝播を抑制し、主観画質をあげることができるため、同方式を採用したAV機器、およびノンリニア編集機で動作するソフトエンコーダなどに有用である。特に、インターネットストリーミング等の低ビットレート符号化での適応処理に利用できる。   The moving image compression coding apparatus according to the present embodiment is the same as that of H.264. In the H.264 coding, intra prediction error propagation in a screen can be suppressed and subjective image quality can be improved. Therefore, it is useful for AV equipment adopting the same method, a soft encoder that operates on a nonlinear editing machine, and the like. In particular, it can be used for adaptive processing in low bit rate encoding such as Internet streaming.

100、300 入力部
101、301 差分演算部
102、302 変換部
103 量子化パラメータ決定部
104、304 量子化部
105、305 エントロピー符号化部
106、306 出力部
107、307 イントラ予測モード検出部
110、310 ローカルデコーダ
111、311 逆量子化部
112、312 逆変換部
113、313 加算演算部
114、314 バッファ
115、315 イントラ予測部
120、320 入力画像
121、321 イントラ予測画像
130 彩度算出部
131 DC算出部
225、231、232、233、234、235、241、242、243、244、245、425、431、432、433、434、435、436、441、442、443、444、445、446 画素波形
400 符号化対象画像
401、402、403、404 スライス
410 オブジェクト
420、430、440 マクロブロック
500、501、502、503、504、505 マクロブロック内画素
510 符号化対象ブロック
511 イントラ予測に用いる周辺画素
100, 300 Input unit 101, 301 Difference calculation unit 102, 302 Transform unit 103 Quantization parameter determination unit 104, 304 Quantization unit 105, 305 Entropy encoding unit 106, 306 Output unit 107, 307 Intra prediction mode detection unit 110, 310 Local decoder 111, 311 Inverse quantization unit 112, 312 Inverse transformation unit 113, 313 Addition operation unit 114, 314 Buffer 115, 315 Intra prediction unit 120, 320 Input image 121, 321 Intra prediction image 130 Saturation calculation unit 131 DC Calculation unit 225, 231, 232, 233, 234, 235, 241, 242, 243, 244, 245, 425, 431, 432, 433, 434, 435, 436, 441, 442, 443, 444, 445, 446 pixels Waveform 4 Peripheral pixels used for 0 coded picture 401, 402, 403, 404 slice 410 objects 420,430,440 macroblock 500,501,502,503,504,505 macroblock pixel 510 the encoding target block 511 intraprediction

Claims (5)

イントラ予測符号化を用いて入力画像を符号化する画像符号化装置であって、
符号化対象ブロックの視覚感度を検出する視覚感度検出部と、
前記符号化対象ブロックと、前記符号化対象ブロックに対応する予測ブロックとの変移を検出する予測変移検出部と、
前記視覚感度と、前記変移と、あらかじめ設定したピクチャ量子化パラメータとにより、前記符号化対象ブロックの量子化パラメータを決定する量子化パラメータ決定部と、
を備える画像符号化装置。
An image encoding device that encodes an input image using intra prediction encoding,
A visual sensitivity detector that detects the visual sensitivity of the encoding target block;
A prediction transition detector that detects a transition between the encoding target block and a prediction block corresponding to the encoding target block;
A quantization parameter determining unit that determines a quantization parameter of the encoding target block based on the visual sensitivity, the transition, and a preset picture quantization parameter;
An image encoding device comprising:
前記視覚感度検出部は、
前記符号化対象ブロックの彩度を検出し、
前記予測変移検出部は、
前記符号化対象ブロックと前記予測ブロックとの差分演算を行い、算出した差分ブロックに対しブロックDC値を算出する
請求項1記載の画像符号化装置。
The visual sensitivity detector
Detecting the saturation of the encoding target block;
The predictive transition detector is
The image coding apparatus according to claim 1, wherein a difference operation between the encoding target block and the prediction block is performed, and a block DC value is calculated for the calculated difference block.
前記量子化パラメータ決定部は、
前記視覚感度検出部で検出した前記彩度が所定の第一の閾値より小さく、かつ、前記予測変移検出部で検出した前記ブロックDC値が所定の第二の閾値より大きく、かつ前記あらかじめ設定したピクチャ量子化パラメータが所定の第三の閾値より大きいとき、前記符号化対象マクロブロックの量子化パラメータを、前記ピクチャ量子化パラメータより小さくする
請求項2記載の画像符号化装置。
The quantization parameter determination unit
The saturation detected by the visual sensitivity detector is smaller than a predetermined first threshold, and the block DC value detected by the predictive transition detector is larger than a predetermined second threshold, and is set in advance. The image encoding device according to claim 2, wherein when the picture quantization parameter is larger than a predetermined third threshold, the quantization parameter of the encoding target macroblock is made smaller than the picture quantization parameter.
イントラ予測符号化を用いて入力画像を符号化する画像符号化方法であって、
符号化対象ブロックの視覚感度を検出する視覚感度検出ステップと、
前記符号化対象ブロックと、前記符号化対象ブロックに対応する予測ブロックとの変移を検出する予測変移検出ステップと、
前記視覚感度と、前記変移と、あらかじめ設定したピクチャ量子化パラメータとにより、前記符号化対象ブロックの量子化パラメータを決定する量子化パラメータ決定ステップと、
を含む画像符号化方法。
An image encoding method for encoding an input image using intra prediction encoding,
A visual sensitivity detection step for detecting the visual sensitivity of the block to be encoded;
A prediction transition detection step of detecting a transition between the encoding target block and a prediction block corresponding to the encoding target block;
A quantization parameter determining step for determining a quantization parameter of the encoding target block based on the visual sensitivity, the transition, and a preset picture quantization parameter;
An image encoding method including:
イントラ予測符号化を用いて入力画像を符号化する画像符号化方法をコンピュータに実行させるためのプログラムであって、
符号化対象ブロックの視覚感度を検出する視覚感度検出ステップと、
前記符号化対象ブロックと、前記符号化対象ブロックに対応する予測ブロックとの変移を検出する予測変移検出ステップと、
前記視覚感度と、前記変移と、あらかじめ設定したピクチャ量子化パラメータとにより、前記符号化対象ブロックの量子化パラメータを決定する量子化パラメータ決定ステップと、
を含むプログラム。
A program for causing a computer to execute an image encoding method for encoding an input image using intra prediction encoding,
A visual sensitivity detection step for detecting the visual sensitivity of the block to be encoded;
A prediction transition detection step of detecting a transition between the encoding target block and a prediction block corresponding to the encoding target block;
A quantization parameter determining step for determining a quantization parameter of the encoding target block based on the visual sensitivity, the transition, and a preset picture quantization parameter;
Including programs.
JP2010101736A 2010-04-27 2010-04-27 Image encoding device Active JP5488168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010101736A JP5488168B2 (en) 2010-04-27 2010-04-27 Image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010101736A JP5488168B2 (en) 2010-04-27 2010-04-27 Image encoding device

Publications (2)

Publication Number Publication Date
JP2011234070A true JP2011234070A (en) 2011-11-17
JP5488168B2 JP5488168B2 (en) 2014-05-14

Family

ID=45322959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010101736A Active JP5488168B2 (en) 2010-04-27 2010-04-27 Image encoding device

Country Status (1)

Country Link
JP (1) JP5488168B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107302699A (en) * 2011-11-25 2017-10-27 英孚布瑞智有限私人贸易公司 For the method to colourity image decoding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323312A (en) * 2004-05-11 2005-11-17 Nippon Hoso Kyokai <Nhk> Quantization control apparatus, method and program therefor, and adaptive quantization and encoding apparatus
JP2007067469A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program
JP2007074050A (en) * 2005-09-05 2007-03-22 Sony Corp Coding apparatus, coding method, program for coding method, and recording medium for recording program for coding method
JP2007243515A (en) * 2006-03-08 2007-09-20 Nippon Hoso Kyokai <Nhk> Color image signal encoding apparatus
JP2008252176A (en) * 2007-03-29 2008-10-16 Toshiba Corp Motion picture encoder and encoding method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323312A (en) * 2004-05-11 2005-11-17 Nippon Hoso Kyokai <Nhk> Quantization control apparatus, method and program therefor, and adaptive quantization and encoding apparatus
JP2007067469A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program
JP2007074050A (en) * 2005-09-05 2007-03-22 Sony Corp Coding apparatus, coding method, program for coding method, and recording medium for recording program for coding method
JP2007243515A (en) * 2006-03-08 2007-09-20 Nippon Hoso Kyokai <Nhk> Color image signal encoding apparatus
JP2008252176A (en) * 2007-03-29 2008-10-16 Toshiba Corp Motion picture encoder and encoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107302699A (en) * 2011-11-25 2017-10-27 英孚布瑞智有限私人贸易公司 For the method to colourity image decoding
CN107302699B (en) * 2011-11-25 2020-09-11 英孚布瑞智有限私人贸易公司 Method for decoding chrominance image

Also Published As

Publication number Publication date
JP5488168B2 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
KR100716999B1 (en) Method for intra prediction using the symmetry of video, method and apparatus for encoding and decoding video using the same
US8165195B2 (en) Method of and apparatus for video intraprediction encoding/decoding
US9414086B2 (en) Partial frame utilization in video codecs
KR100677552B1 (en) Method and Apparatus for loop filtering
EP1773071A2 (en) Method of and apparatus for lossless video encoding and decoding
US20080069211A1 (en) Apparatus and method for encoding moving picture
US9438905B2 (en) LM mode with uniform bit-width multipliers
JP7343669B2 (en) Method and apparatus for color conversion in VVC
KR101621854B1 (en) Tsm rate-distortion optimizing method, encoding method and device using the same, and apparatus for processing picture
US8903184B2 (en) Image-encoding method, image-encoding device, and computer-readable recording medium storing image-encoding program
US20060098881A1 (en) Method and apparatus for encoding and decoding image data
US20130114706A1 (en) Method and apparatus for processing components of an image
JP2015533461A (en) Optimization techniques including rate distortion optimizer and simultaneous optimization of multiple color components
JP2007521740A (en) How to find zeros in the transformation domain early
JP2009290463A (en) Encoding/decoding device, encoding/decoding method, and program
JP4383240B2 (en) Intra-screen predictive coding apparatus, method thereof and program thereof
JP2007013298A (en) Image coding apparatus
JP2007134755A (en) Moving picture encoder and image recording and reproducing device
JP2008219205A (en) Picture information encoder and picture information encoding method
JP5178616B2 (en) Scene change detection device and video recording device
JP2014075652A (en) Image encoder, and image encoding method
KR101138736B1 (en) Encoder and method for selecting candidate mode types
JP5488168B2 (en) Image encoding device
KR20170058870A (en) Method and apparatus for encoding/dicoding a video with non linear mapping
JP2006295734A (en) Re-encoding apparatus, re-encoding method, and re-encoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130326

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131114

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20140107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R151 Written notification of patent or utility model registration

Ref document number: 5488168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151