JP4942208B2 - Encoder - Google Patents

Encoder Download PDF

Info

Publication number
JP4942208B2
JP4942208B2 JP2008040983A JP2008040983A JP4942208B2 JP 4942208 B2 JP4942208 B2 JP 4942208B2 JP 2008040983 A JP2008040983 A JP 2008040983A JP 2008040983 A JP2008040983 A JP 2008040983A JP 4942208 B2 JP4942208 B2 JP 4942208B2
Authority
JP
Japan
Prior art keywords
block
quantization
blocks
value
control sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008040983A
Other languages
Japanese (ja)
Other versions
JP2009200871A5 (en
JP2009200871A (en
Inventor
文貴 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008040983A priority Critical patent/JP4942208B2/en
Priority to US12/256,971 priority patent/US8363719B2/en
Priority to CN2008101735122A priority patent/CN101426135B/en
Publication of JP2009200871A publication Critical patent/JP2009200871A/en
Publication of JP2009200871A5 publication Critical patent/JP2009200871A5/ja
Application granted granted Critical
Publication of JP4942208B2 publication Critical patent/JP4942208B2/en
Priority to US13/736,418 priority patent/US9241159B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、動画像を符号化する符号化装置に関し、例えばMPEG(Moving Pictures of Experts Group)やH.264/AVC(Advanced Video Coding)等の、画像を複数のブロックに分割して符号化する符号化装置に関する。   The present invention relates to an encoding apparatus that encodes a moving image, and encodes an image by dividing the image into a plurality of blocks, such as MPEG (Moving Pictures of Experts Group) and H.264 / AVC (Advanced Video Coding). The present invention relates to an encoding device.

近年のマルティメディアの発展に伴い、様々な動画像圧縮符号化方式が提案されている。その代表的なものに、MPEG−1,2,4やH.264といったものがある。これらの圧縮符号化の処理は、動画像に含まれる原画像(画像)をブロックと呼ばれる所定の領域に分割し、このブロックを単位にして、動き補償予測及びDCT変換処理などの符号化処理を施すものである。動き補償予測を行う場合、既に符号化済みの画像データを局所復号化して得られた画像を参照画像とすることから、復号化処理が必要となる。   Along with the development of multimedia in recent years, various video compression encoding methods have been proposed. Typical examples are MPEG-1, 2, 4 and H.264. There is something like H.264. In these compression encoding processes, an original image (image) included in a moving image is divided into predetermined regions called blocks, and encoding processing such as motion compensation prediction and DCT conversion processing is performed in units of blocks. It is something to apply. When performing motion compensation prediction, an image obtained by local decoding of already encoded image data is used as a reference image, and thus decoding processing is necessary.

また、MPEG方式に準拠して画像の圧縮符号化を行う場合、その符号量は、画像自体の特性である空間周波数特性、シーン及び量子化スケール値に応じて大きく異なる場合が多い。このような符号化特性を有する符号化装置を実現する上で良好な画質の復号画像を得ることができるようにするための重要な技術が、符号量制御である。   In addition, when image compression encoding is performed in accordance with the MPEG system, the amount of codes often varies greatly depending on the spatial frequency characteristics, scenes, and quantization scale values that are characteristics of the images themselves. An important technique for making it possible to obtain a decoded image with good image quality in realizing an encoding apparatus having such encoding characteristics is code amount control.

符号量制御アルゴリズムの一つとして、TM5(Test Model 5)が一般的に使用されている。TM5による符号量制御アルゴリズムは、以下に説明する3つのステップから構成され、GOP(Group Of Picture)毎にビットレートが一定になるように、符号量が制御される。   TM5 (Test Model 5) is generally used as one of the code amount control algorithms. The code amount control algorithm based on TM5 is composed of the following three steps, and the code amount is controlled so that the bit rate is constant for each GOP (Group Of Picture).

(ステップ1)
今から符号化を行うピクチャの目標符号量を決定する。現在のGOPにおいて利用可能な符号量Rgopが、以下の式(1)式により演算される。即ち、
Rgop = (ni+np+nb)×(bits_rate/picture_rate)・・・(1)
ここで、ni,np,nbは、それぞれI、P及びBピクチャの現GOPにおける残りのピクチャ数を示す。bits_rateは目標ビットレートを示す。picture_rateはピクチャレートを示す。
(Step 1)
The target code amount of the picture to be encoded from now is determined. The code amount Rgop that can be used in the current GOP is calculated by the following equation (1). That is,
Rgop = (ni + np + nb) x (bits_rate / picture_rate) (1)
Here, ni, np, and nb indicate the number of remaining pictures in the current GOP of I, P, and B pictures, respectively. bits_rate indicates the target bit rate. picture_rate indicates the picture rate.

更に、I,P及びBピクチャ毎に符号化結果からピクチャの複雑度コンプレキシティ(Complexity)Xi,
Xp,Xbを以下の式(2)で求める。すなわち、
Xi=Ri×Qi
Xp=Rp×Qp・・・(2)
Xb=Rb×Qb
ここで、Ri、Rp及びRbはそれぞれI、P及びBピクチャを符号化した結果得られる符号量を示す。Qi、Qp及びQbはそれぞれ、I、P、Bピクチャ内の全マクロブロックにおけるQスケールの平均値である。式(1)及び式(2)から、I、P及びBピクチャのそれぞれについての目標符号量Ti、Tp及びTbを、以下の(3)式で求めることができる。即ち、
Ti=max{(Rgop/(1+((Np×Xp)/(Xi×Kp))+((Nb×Xb)/(Xi×Kb)))),(bit_rate/(8×picture_rate))}
Tp=max{(Rgop/(Np+(Nb×Kp×Xb)/(Kb×Xp))),(bit_rate/(8×picture_rate))} ・・・(3)
Tb=max{(Rgop/(Nb+(Np×Kb×Xp)/(Kp×Xb))),(bit_rate/(8×picture_rate))}
ただし、Np及びNbは、現GOP内のそれぞれP及びBピクチャの残りの枚数を示す。定数Kp=1.0及びKb=1.4である。
Further, for each of the I, P and B pictures, the picture complexity complexity Xi,
Xp and Xb are obtained by the following equation (2). That is,
Xi = Ri × Qi
Xp = Rp × Qp (2)
Xb = Rb × Qb
Here, Ri, Rp, and Rb indicate code amounts obtained as a result of encoding I, P, and B pictures, respectively. Qi, Qp, and Qb are average values of the Q scale in all macroblocks in the I, P, and B pictures, respectively. From the equations (1) and (2), the target code amounts Ti, Tp, and Tb for each of the I, P, and B pictures can be obtained by the following equation (3). That is,
Ti = max {(Rgop / (1 + ((Np × Xp) / (Xi × Kp)) + ((Nb × Xb) / (Xi × Kb)))), (bit_rate / (8 × picture_rate))}
Tp = max {(Rgop / (Np + (Nb × Kp × Xb) / (Kb × Xp))), (bit_rate / (8 × picture_rate))} (3)
Tb = max {(Rgop / (Nb + (Np × Kb × Xp) / (Kp × Xb))), (bit_rate / (8 × picture_rate))}
Np and Nb indicate the remaining number of P and B pictures in the current GOP, respectively. The constants Kp = 1.0 and Kb = 1.4.

(ステップ2)
I、P及びBピクチャ毎に3つの仮想バッファを使用し、式(3)で求めた目標符号量と発生符号量との差分を管理する。仮想バッファのデータ蓄積量をフィードバックし、そのデータ蓄積量に基づいて実際の発生符号量が目標符号量に近づくように、次に符号化するマクロブロックについてQスケールの参照値が設定される。例えば、現在のピクチャタイプがPピクチャの場合には、目標符号量と発生符号量との差分は、以下の式(4)に従う演算処理により求めることができる。即ち、
p,j=dp,0+Bp,j-1-((Tp×(j-1))/MB_cnt) ・・・(4)
ここで、添字jはピクチャ内のマクロブロックの番号を示す。dp,0は仮想バッファの初期フルネスを示す。Bp,jはj番目のマクロブロックまでの総符号量を示す。MB_cntはピクチャ内のマクロブロック数を示す。
(Step 2)
Three virtual buffers are used for each of the I, P, and B pictures, and the difference between the target code amount obtained by Expression (3) and the generated code amount is managed. The data accumulation amount of the virtual buffer is fed back, and the reference value of the Q scale is set for the macroblock to be encoded next so that the actual generated code amount approaches the target code amount based on the data accumulation amount. For example, when the current picture type is a P picture, the difference between the target code amount and the generated code amount can be obtained by arithmetic processing according to the following equation (4). That is,
d p, j = d p, 0 + B p, j-1 -((Tp × (j-1)) / MB_cnt) (4)
Here, the subscript j indicates the number of the macroblock in the picture. d p, 0 indicates the initial fullness of the virtual buffer. B p, j represents the total code amount up to the j-th macroblock. MB_cnt indicates the number of macroblocks in the picture.

次に、dp,j(以後、djと記載する)を用いて、j番目のマクロブロックにおけるQスケールの参照値を求めると、
j= (dj×31)/r・・・(5)
ここで、
r=2×bits_rate/picture_rate・・・(6)
である。
Next, using d p, j (hereinafter referred to as d j ), the reference value of the Q scale in the j-th macroblock is obtained.
Q j = (d j × 31) / r (5)
here,
r = 2 × bits_rate / picture_rate (6)
It is.

(ステップ3)
視覚特性、即ち、復号画像の画質が良好になるように、符号化対象のマクロブロックの空間アクティビティに基づいて、量子化スケールを最終的に決定する。即ち、
ACTj=1+min(vblk1,vblk2,……,vblk8)・・・(7)
式(7)で、vblk1〜vblk4はフレーム構造のマクロブロックにおける8×8のサブブロックにおける空間アクティビティを示す。vblk5〜vblk8はフィールド構造のマクロブロックにおける8×8のサブブロックの空間アクティビティを示す。ここで、空間アクティビチィvblkは、次の式(8)及び式(9)に従い、
vblk=Σ(Pi-Pbar)2・・・(8)
Pbar=(1/64 )×ΣPi・・・(9)
により求めることができる。ここで、Piはi番目のマクロブロックにおける画素値であり、式(8)、(9)中のΣはi=1〜64の演算である。
(Step 3)
The quantization scale is finally determined based on the spatial activity of the macroblock to be encoded so that the visual characteristics, that is, the image quality of the decoded image is improved. That is,
ACT j = 1 + min (vblk 1 , vblk 2 , ..., vblk 8 ) ... (7)
In Expression (7), vblk 1 to vblk 4 indicate spatial activities in 8 × 8 sub-blocks in a macroblock having a frame structure. vblk 5 to vblk 8 indicate spatial activities of 8 × 8 sub-blocks in the field-structured macroblock. Here, the space activity vblk is in accordance with the following equations (8) and (9):
vblk = Σ (P i -Pbar) 2 (8)
Pbar = (1/64) × ΣP i (9)
It can ask for. Here, P i is a pixel value in the i-th macroblock, and Σ in equations (8) and (9) is an operation of i = 1 to 64.

次に、式(7)で求めたアクティビティACTjを下記の式(10)に従い正規化する。即ち、
N_ACTj=(2*ACTj+AVG_ACT)/(ACTj+2*AVG_ACT)・・・(10)
ここで、AVG_ACTは以前に符号化したピクチャにおけるACTjの参照値である。最終的な量子化スケール(Qスケール値)MQUANTjは、
MQUANTj=Qj×N_ACTj・・・(11)
で求められる。
Next, the activity ACT j obtained by the equation (7) is normalized according to the following equation (10). That is,
N_ACT j = (2 * ACT j + AVG_ACT) / (ACT j + 2 * AVG_ACT) (10)
Here, AVG_ACT is a reference value of ACT j in a previously encoded picture. The final quantization scale (Q scale value) MQUANT j is
MQUANT j = Q j × N_ACT j (11)
Is required.

以上のTM5アルゴリズムによれば、ステップ1の処理によりIピクチャに対して多くの符号量を割り当て、ピクチャ内においては視覚的に劣化の目立ちやすい平坦部(空間アクティビティが低い部分)に符号量が多く配分される。即ち、予め定めたビットレート内で、画質の劣化を抑えた符号量制御と量子化制御を行うことが可能となる。   According to the above TM5 algorithm, a large amount of code is allocated to the I picture by the processing in step 1, and the amount of code is large in a flat portion (a portion where spatial activity is low) that tends to visually deteriorate in the picture. Distributed. That is, it is possible to perform code amount control and quantization control while suppressing deterioration in image quality within a predetermined bit rate.

また、TM5と同様に画像の特徴に応じて量子化制御を行う手法は、他にも提案されている(例えば、特許文献1参照)。
特開平11−196417号公報
In addition, another technique for performing quantization control according to the image characteristics as in TM5 has been proposed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 11-196417

TM5方式は、マクロブロック単位で特徴を抽出し、その特徴に基づいて量子化パラメータを変化させる適応量子化を行うことで、予め定められた目標符号量になるような量子化制御を行っている。   The TM5 system performs quantization control so as to obtain a predetermined target code amount by extracting features in units of macroblocks and performing adaptive quantization that changes the quantization parameter based on the features. .

また、特許文献1では、複雑度が大きく量子化パラメータを上げるブロックの数が少ない場合、発生符号量が増大するにもかかわらず複雑度が高いブロックの劣化が目立つので、適応量子化を行わないという制御を行っている。複雑度が小さく量子化パラメータを下げるブロックが多い場合も、同様である。しかし、このアルゴリズムでは、フレーム間で適応量子化の有無が生じるので、画質がばたつく問題があった。   Further, in Patent Document 1, when the number of blocks with high complexity and a high quantization parameter is small, deterioration of blocks with high complexity is conspicuous despite the increase in the amount of generated codes, so adaptive quantization is not performed. Control is performed. The same applies when there are many blocks with low complexity and low quantization parameters. However, this algorithm has a problem in that the image quality fluctuates because of the presence or absence of adaptive quantization between frames.

また、量子化パラメータを下げるブロックが多い画像でも、ブロックの持つ特徴によっては平坦部のように量子化パラメータを下げても符号量が増大しないブロックも存在する。本来、適応量子化を行うべき画像に対して適応量子化を適用していない。   Further, even in an image having many blocks for which the quantization parameter is lowered, there is a block in which the code amount does not increase even if the quantization parameter is lowered, such as a flat portion, depending on the characteristics of the block. Originally, adaptive quantization is not applied to an image to be subjected to adaptive quantization.

本発明は、上述した問題点に鑑みたものであり、符号化画像の劣化度合いとブロックが持つ特徴を考慮した適応量子化を行うことで、画質劣化を抑えることを可能にした符号化装置を提案することを目的とする。   The present invention has been made in view of the above-described problems, and an encoding apparatus capable of suppressing image quality deterioration by performing adaptive quantization in consideration of the degree of deterioration of an encoded image and the characteristics of a block. The purpose is to propose.

本発明に係る符号化装置は、複数のブロックに分割された入力画像データをブロック単位で直交変換し、変換係数データを出力する変換手段と、前記変換手段から出力される前記変換係数データを量子化パラメータに従ってブロック単位で量子化する量子化手段と、前記複数のブロックから視覚的劣化が目立ちやすい所定の特徴を有するブロックを抽出し、画面内での抽出ブロック数を出力する特徴抽出手段と、前記特徴抽出手段により抽出されるブロックの特徴毎に制御感度を設定し、当該制御感度に従ってブロック毎に前記量子化パラメータを決定する量子化制御手段とを具備し、前記特徴抽出手段は、前記所定の特徴を有するブロックとして、平坦部を有するブロックと、エッジ部又は肌色部を有するブロックとを抽出し、前記量子化制御手段は、前記特徴抽出手段により抽出される前記エッジ部又は前記肌色部を有するブロックについては、その抽出されたブロック数に応じて前記制御感度の値を変化させ、前記平坦部を有するブロックについては、その抽出されたブロック数に応じて前記制御感度の値を大きく変化させないようにすることを特徴とする。 An encoding apparatus according to the present invention includes: transforming means for orthogonally transforming input image data divided into a plurality of blocks in units of blocks, and outputting transform coefficient data; and quantizing the transform coefficient data output from the transform means. Quantization means for performing quantization in block units according to the quantization parameter; and feature extraction means for extracting a block having a predetermined feature that is easily noticeable from the plurality of blocks, and outputting the number of extracted blocks in the screen; the set control sensitivity for each feature of the block extracted by the feature extraction means, comprising a quantization control means for determining the quantization parameter for each block in accordance with the control sensitivity, the feature extracting means, the predetermined as a block having the features of, and extracted the block having a flat portion, and a block having an edge portion or the skin color portion, the quantization Control means, for a block having the edge portion or the skin color portion is extracted by the feature extraction means changes the value of the control sensitivity according to the number of blocks thereof extracted, the block having the flat portion Is characterized in that the value of the control sensitivity is not significantly changed in accordance with the number of extracted blocks .

本発明によれば、視覚的劣化が目立ちやすいブロックとして抽出するブロック数に応じて量子化パラメータを決定するので、同じ発生符号量でも、視覚的劣化の目立ちやすいブロックに対する画質を改善できる。   According to the present invention, since the quantization parameter is determined in accordance with the number of blocks extracted as blocks that are visually noticeable, even with the same generated code amount, it is possible to improve the image quality of blocks that are visually noticeable.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は,本発明に係る符号化装置の一実施例の概略構成ブロック図を示す。図2は、特徴抽出部の概略構成ブロック図を示し、図3、図4は、その動作説明図である。   FIG. 1 shows a schematic block diagram of an embodiment of an encoding apparatus according to the present invention. FIG. 2 shows a schematic block diagram of the feature extraction unit, and FIGS. 3 and 4 are explanatory diagrams of its operation.

入力画像データ100は、所定サイズのマクロブロック単位の画像データからなる。ブロックサイズは、符号化方式により決定され、例えばMPEGでは16x16画素又は8x8画素等である。ここでは、マクロブロックのサイズは16x16画素であるとする。   The input image data 100 is composed of image data in units of macroblocks having a predetermined size. The block size is determined by the encoding method, and is, for example, 16 × 16 pixels or 8 × 8 pixels in MPEG. Here, it is assumed that the size of the macroblock is 16 × 16 pixels.

並べ替え部101は、入力画像データ100を符号化ピクチャタイプに応じたフレーム順に並び替えて、変換符号化のためのブロック単位で画像データを出力する。減算器102は、符号化ピクチャ対タイプがフレーム内符号化(イントラ符号化)方式の場合、並べ替え部101からの画像データをそのまま直交変換部103に出力する。フレーム間符号化(インター符号化)方式の場合、減算器102は、並べ替え部101からの画像データから参照画像からの予測データを減算し、得られる差分画像データを直交変換部103に出力する。   The rearrangement unit 101 rearranges the input image data 100 in the frame order corresponding to the encoded picture type, and outputs the image data in units of blocks for transform encoding. The subtracter 102 outputs the image data from the rearrangement unit 101 to the orthogonal transformation unit 103 as it is when the encoded picture pair type is an intra-frame coding (intra coding) method. In the case of the inter-frame coding (inter-coding) method, the subtracter 102 subtracts the prediction data from the reference image from the image data from the rearrangement unit 101, and outputs the obtained difference image data to the orthogonal transformation unit 103. .

直交変換部103は、減算器102の出力データ(画像データ又は差分画像データ)を直交変換し、変換係数データを量子化部104に出力する。量子化部104は、直交変換部103からの変換係数データを量子化制御部112からの量子化スケールに従って量子化する。   The orthogonal transform unit 103 performs orthogonal transform on the output data (image data or difference image data) of the subtractor 102 and outputs transform coefficient data to the quantization unit 104. The quantization unit 104 quantizes the transform coefficient data from the orthogonal transform unit 103 according to the quantization scale from the quantization control unit 112.

可変長符号化部110は、量子化部104からの量子化された変換係数データを可変長符号化する。可変長符号化部110は、可変長符号化で得られた符号データに、後述する動き補償のための動きベクトルデータ等を多重化し、バッファ114に供給する。バッファ114は、可変長符号化部110からのデータを一時蓄積し、順次、出力端子116に読み出す。   The variable length coding unit 110 performs variable length coding on the quantized transform coefficient data from the quantization unit 104. The variable length encoding unit 110 multiplexes motion vector data for motion compensation described later on code data obtained by variable length encoding and supplies the multiplexed data to the buffer 114. The buffer 114 temporarily stores the data from the variable length encoding unit 110 and sequentially reads the data to the output terminal 116.

逆量子化部105は、量子化部104の出力データを逆量子化し、逆直交変換部106は、逆量子化部105の出力データを逆直交変換する。加算器108は、イントラ符号化の場合、逆直交変換部106の出力データをそのまま出力し、インター符号化の場合、先の復号化で得られた予測データを加算する。予測データの加算により、差分画像データから画像データが復元される。加算器108の出力データが、ローカルで復号化された画像データに相当する。   The inverse quantization unit 105 inversely quantizes the output data from the quantization unit 104, and the inverse orthogonal transform unit 106 performs inverse orthogonal transform on the output data from the inverse quantization unit 105. The adder 108 outputs the output data of the inverse orthogonal transform unit 106 as it is in the case of intra coding, and adds the prediction data obtained in the previous decoding in the case of inter coding. By adding the prediction data, the image data is restored from the difference image data. The output data of the adder 108 corresponds to locally decoded image data.

ビデオバッファ109は、加算器108から出力される局所復号化画像データを複数フレーム分記憶する。動き予測動き補償部107は、並べ替え部101からの現在の画像とビデオバッファ109に記憶される参照画像とを比較して動きを予測し、動き補償された予測画像データを算出する。動き予測動き補償部107は、算出した予測画像データを減算器102及び加算器108に出力し、予測画像データの動きベクトル情報を可変長符号化部110に出力する。   The video buffer 109 stores the locally decoded image data output from the adder 108 for a plurality of frames. The motion prediction motion compensation unit 107 compares the current image from the rearrangement unit 101 with the reference image stored in the video buffer 109 to predict motion, and calculates motion compensated predicted image data. The motion prediction motion compensation unit 107 outputs the calculated predicted image data to the subtractor 102 and the adder 108, and outputs motion vector information of the predicted image data to the variable length encoding unit 110.

符号量制御部111は、バッファ114の蓄積データ量等を参照して、フレーム発生符号量を取得する。符号量制御部111は、バッファ114からのフレーム発生符号量、及び特徴抽出部113からの特徴量に従い、目標符号量を決定する。より具体的には、GOP内の各ピクチャに対する割り当てビット量を、割り当て対象ピクチャを含めGOP内でまだ符号化されていないピクチャに対するビット量を基に配分する。この配分をGOP内の符号化ピクチャ順に繰り返し、ピクチャごとにピクチャ目標符号量を設定する。   The code amount control unit 111 refers to the accumulated data amount in the buffer 114 and acquires the frame generation code amount. The code amount control unit 111 determines a target code amount according to the frame generation code amount from the buffer 114 and the feature amount from the feature extraction unit 113. More specifically, the allocated bit amount for each picture in the GOP is distributed based on the bit amount for a picture that has not yet been encoded in the GOP including the allocation target picture. This distribution is repeated in the order of the encoded pictures in the GOP, and a picture target code amount is set for each picture.

量子化制御部112はバッファ114から、可変長符号化部110から出力されるマクロブロック単位の発生符号量(ブロック発生符号量)を取得する。量子化制御部112は、ブロック発生符号量、符号量制御部111からの目標符号量、及び特徴抽出部113からのアクティビティに従い、量子化パラメータを決定する。より具体的には、各ピクチャに対する目標符号量と実際の発生符号量とを一致させるため、ブロック発生符号量から量子化スケールの参照値を決定する。そして、量子化スケールの参照値に対して特徴抽出部113で算出するアクティビティを基に式(11)を用いて、量子化部104で使用する量子化パラメータを決定する。このアクティビティが小さい値であれば、量子化パラメータを小さくすることでより多くの符号量が割り当てられるようになる。   The quantization control unit 112 acquires the generated code amount (block generated code amount) in units of macroblocks output from the variable length encoding unit 110 from the buffer 114. The quantization control unit 112 determines the quantization parameter according to the block generation code amount, the target code amount from the code amount control unit 111, and the activity from the feature extraction unit 113. More specifically, in order to match the target code amount for each picture with the actual generated code amount, the reference value of the quantization scale is determined from the block generated code amount. Based on the activity calculated by the feature extraction unit 113 with respect to the reference value of the quantization scale, the quantization parameter used by the quantization unit 104 is determined using Equation (11). If this activity is a small value, a larger amount of code can be allocated by reducing the quantization parameter.

以上の動作は、背景技術で述べたステップ1〜3に相当する。   The above operation corresponds to Steps 1 to 3 described in the background art.

図2は、特徴抽出部113の概略構成ブロック図を示す。平坦検出部201は、並べ替え部101からのマクロブロック単位の画像データから平坦部の程度(レベル)を検出する。同様に、エッジ検出部202は、並べ替え部101からの画像データからエッジの程度(レベル)を検出する。肌色検出部203は、並べ替え部101からの画像データから肌色の程度(レベル)を検出する。図3は、検出部201,202,203の検出特性、又はレベル化の関数を示す。図3(aは、平坦検出部201に対するレベル化特性を示す。図3(b)はエッジ検出部202に対するレベル化特性を示す。図3(c)は肌色検出部203に対するレベル化特性を示す。 FIG. 2 shows a schematic block diagram of the feature extraction unit 113. The flatness detection unit 201 detects the degree (level) of the flat part from the image data in units of macroblocks from the rearrangement unit 101. Similarly, the edge detection unit 202 detects the degree (level) of the edge from the image data from the rearrangement unit 101. The skin color detection unit 203 detects the level (level) of the skin color from the image data from the rearrangement unit 101. FIG. 3 shows the detection characteristics or leveling functions of the detection units 201, 202, and 203. 3 (a) shows the level of characteristics for flat detection unit 201. FIG. 3B shows leveling characteristics for the edge detection unit 202. FIG. 3C shows leveling characteristics for the skin color detection unit 203.

平坦検出部201は、マクロブロックの画像データに対して分散を算出し、その分散値が閾値th1F以下であればレベルを1とし、閾値th2F以上であれば無限大とする。閾値th1Fから閾値th2Fの範囲では、(th1F,1)と(th2F,pre_avg)を結ぶ関数からレベルを算出する。pre_avgは、1フレーム前に符号化したピクチャにおけるアクティビティの平均値である。   The flatness detection unit 201 calculates the variance for the image data of the macroblock, and sets the level to 1 if the variance is less than or equal to the threshold th1F, and infinite if the variance is greater than or equal to the threshold th2F. In the range from the threshold th1F to the threshold th2F, the level is calculated from a function connecting (th1F, 1) and (th2F, pre_avg). pre_avg is an average value of activities in a picture encoded one frame before.

エッジ検出部202は、16x16画素の画像データをさらに8x8画素のサブブロックに分割し、サブブロック毎に分散を算出する。得られた分散の最大値と最小値の差分を算出し、その差分値が閾値th2E以上であればレベルを1とし、閾値th1E以下であれば無限大とする。閾値th1Eから閾値th2Eの範囲では、(th1E,pre_avg)と(th2E,1)を結ぶ関数からレベルを算出する。   The edge detection unit 202 further divides the 16 × 16 pixel image data into 8 × 8 pixel sub-blocks, and calculates a variance for each sub-block. The difference between the maximum value and the minimum value of the obtained variance is calculated. If the difference value is equal to or greater than the threshold th2E, the level is set to 1, and if the difference value is equal to or less than the threshold th1E, the level is set to infinity. In the range from the threshold th1E to the threshold th2E, the level is calculated from the function connecting (th1E, pre_avg) and (th2E, 1).

肌色検出部203は、マクロブロックの画像データに対して輝度成分と色差成分から肌色である画素をカウントする。その画素数が閾値th2S以上であればレベルを1とし、閾値th1S以下であれば無限大とする。閾値th1Sから閾値th2Sの範囲では、(th1S,pre_avg)と(th2S,1)を結ぶ関数からレベルを算出する。   The flesh color detection unit 203 counts pixels that are flesh color from the luminance component and the color difference component in the macroblock image data. If the number of pixels is equal to or greater than the threshold th2S, the level is set to 1. If the number of pixels is equal to or less than the threshold th1S, the level is set to infinity. In the range from the threshold th1S to the threshold th2S, the level is calculated from the function connecting (th1S, pre_avg) and (th2S, 1).

最小値検出部204は、各検出部201,202,203で算出されたレベルの中の最小値を検出し、正規化部205に出力する。各検出部201,202,203で算出されたレベルが全て無限大の場合、最小値検出部204は、ブロックの分散値を出力する。   The minimum value detection unit 204 detects the minimum value among the levels calculated by the detection units 201, 202, and 203 and outputs the minimum value to the normalization unit 205. When the levels calculated by the detection units 201, 202, and 203 are all infinite, the minimum value detection unit 204 outputs the variance value of the block.

正規化部205は、最小値検出部204からの正規化前アクティビティに対して所定の制御感度(リアクションパラメータ)を用いて正規化アクティビティを算出する。制御感度は検出する特徴毎に設定可能である。本実施例では、検出部201,202,203に対応して、平坦部用の制御感度206、エッジ部用制御感度207及び肌色部用制御感度208が用意されている。制御感度とは、量子化パラメータの大小を決定するパラメータであり、制御感度が大きければ量子化パラメータより小さくするように作用する。   The normalization unit 205 calculates a normalization activity using a predetermined control sensitivity (reaction parameter) for the pre-normalization activity from the minimum value detection unit 204. The control sensitivity can be set for each feature to be detected. In this embodiment, a flat portion control sensitivity 206, an edge portion control sensitivity 207, and a flesh color portion control sensitivity 208 are prepared corresponding to the detection units 201, 202, and 203. The control sensitivity is a parameter that determines the magnitude of the quantization parameter. If the control sensitivity is large, the control sensitivity acts to be smaller than the quantization parameter.

積算部209は、各検出部201,202,203で検出したマクロブロック数を種類別にカウントし、それぞれの抽出ブロック数を量子化制御部112に供給する。図4及び図5を参照して、各制御感度と積算部209の関係を説明する。   The accumulating unit 209 counts the number of macroblocks detected by the detecting units 201, 202, and 203 for each type, and supplies the number of extracted blocks to the quantization control unit 112. With reference to FIG.4 and FIG.5, the relationship between each control sensitivity and the integrating | accumulating part 209 is demonstrated.

図4は、特徴割合の異なる説明用の画像例を示す。図4(a)は、特徴抽出を行った場合に、画面内の平坦部が20%、エッジ部が20%、肌色部が20%の画像である。図4(b)は、平坦部が30%、エッジ部が20%、肌色部が40%の画像である。どの種類にも属さないマクロブロックはその他のカテゴリーに入るものとする。人間の頬の様に肌色であり平坦でもあるものは平坦部に属し、顔の輪郭の様に肌色でありエッジでもあるものはエッジ部に属するようにする。   FIG. 4 shows example images for explanation with different feature ratios. FIG. 4A shows an image in which the flat portion in the screen is 20%, the edge portion is 20%, and the skin color portion is 20% when feature extraction is performed. FIG. 4B shows an image in which the flat portion is 30%, the edge portion is 20%, and the skin color portion is 40%. Macroblocks that do not belong to any type shall fall into other categories. Those that are flesh-colored and flat like a human cheek belong to the flat part, and those that are flesh-colored and edge like a face outline belong to the edge part.

図5は、画面内で検出されたマクロブロックの個数と制御感度の関係を図式化したものである。図5(a)は、平坦部用の制御感度であり、横軸が平坦部の検出個数、縦軸が制御感度を示す。図5(b)はエッジ部用の制御感度を示す。図5(c)は肌色部用の制御感度を示す。   FIG. 5 schematically shows the relationship between the number of macroblocks detected in the screen and the control sensitivity. FIG. 5A shows the control sensitivity for the flat portion, where the horizontal axis indicates the number of detected flat portions, and the vertical axis indicates the control sensitivity. FIG. 5B shows the control sensitivity for the edge portion. FIG. 5C shows the control sensitivity for the skin color portion.

平坦部では、量子化パラメータを変化させることで画質が変動するが、符号量はあまり変動しない。つまり、図4(a)に示す画像例と、図4(b)に示す画像例に同じ量子化パラメータを適用した場合、平坦部全体の符号量は大きく変わらない。そこで、本実施例では、図5(a)に示すように、平坦部に対する制御感度を検出個数に応じて大きく変化させないようにする。   In the flat portion, the image quality varies by changing the quantization parameter, but the code amount does not vary much. That is, when the same quantization parameter is applied to the image example shown in FIG. 4A and the image example shown in FIG. 4B, the code amount of the entire flat portion does not change significantly. Therefore, in this embodiment, as shown in FIG. 5A, the control sensitivity for the flat portion is not changed greatly according to the number of detections.

一方、エッジ部と肌色部では、量子化パラメータを変化させることで画質が変動するが、符号量も大きく変動する。エッジ部の量子化パラメータを下げることでモスキートノイズを低減することが可能だが、その分、発生符号量が増大する。また、同じように肌色部の量子化パラメータを下げることで顔の劣化を低減できるが、その分、発生符号量が増大する。エッジや肌色のブロックを多く検出し過ぎると、エッジや肌色ブロックに多くの符号量が割り当てられ、高周波を含むブロックへの割り当て符号量が減ってしまう。高周波を含むブロックは多少荒く量子化を行っても視覚的劣化は目立ちにくいとされている。しかし、割り当てる符号量が少なすぎると、高周波を含むブロックにおいて画質が大幅に低下してしまう。また、画像全体の符号量も増大してしまうので、予め定めたレートより高くなってしまう。   On the other hand, in the edge portion and the flesh color portion, the image quality fluctuates by changing the quantization parameter, but the code amount also fluctuates greatly. Although it is possible to reduce mosquito noise by lowering the quantization parameter of the edge portion, the amount of generated code increases accordingly. Similarly, it is possible to reduce the deterioration of the face by lowering the quantization parameter of the flesh color part, but the amount of generated code increases accordingly. If too many edges and flesh-color blocks are detected, a large amount of code is assigned to the edges and flesh-color blocks, and the amount of code assigned to blocks including high frequencies is reduced. Blocks containing high frequencies are somewhat rough, and visual degradation is considered to be inconspicuous even when quantized. However, if the amount of codes to be allocated is too small, the image quality is greatly reduced in blocks including high frequencies. Moreover, since the code amount of the entire image also increases, it becomes higher than a predetermined rate.

本実施例では、エッジ部と肌色部に対して検出個数に応じて制御感度を変化させる。図5(b),(c)に示すように、エッジ部又は肌色部として検出したマクロブロック数が少なければ、制御感度を大きくし、これにより量子化パラメータを大きく下げるようにする。エッジ部又は肌色部として検出したマクロブロック数が多ければ、制御感度を小さくし、これにより量子化パラメータの下げ過ぎを抑制する。図5(b),(c)は同じ傾向の曲線を示しているが、このカーブは任意に設定可能である。   In this embodiment, the control sensitivity is changed according to the number of detections for the edge portion and the skin color portion. As shown in FIGS. 5B and 5C, if the number of macroblocks detected as an edge portion or a flesh color portion is small, the control sensitivity is increased, thereby greatly reducing the quantization parameter. If the number of macroblocks detected as an edge portion or a skin color portion is large, the control sensitivity is reduced, thereby suppressing the quantization parameter from being lowered excessively. 5B and 5C show curves having the same tendency, but these curves can be set arbitrarily.

図4(a)に示す画像例と、図4(b)に示す画像例では、エッジ部の検出数に違いがないので、どちらも大き目の制御感度を用いて量子化パラメータを決定する。一方、肌色部については、図4(a)に示す画像例と比べて図4(b)に示す画像例に対する検出数が多い。そのため、図4(a)に示す画像例に対しては大きめの制御感度を採用し、図4(b)に示す画像例に対しては小さ目の制御感度を採用して、それぞれ量子化パラメータを決定する。   In the image example shown in FIG. 4A and the image example shown in FIG. 4B, there is no difference in the number of detected edge portions, and therefore the quantization parameter is determined using a large control sensitivity. On the other hand, the number of detections for the skin color portion is larger for the image example shown in FIG. 4B than for the image example shown in FIG. Therefore, a larger control sensitivity is adopted for the image example shown in FIG. 4A, and a smaller control sensitivity is adopted for the image example shown in FIG. decide.

各検出部の検出方法はここで説明した方法に限ったものではなく、検出を行うための要素となる分散は、周波数変換などで代用可能である。また、検出する種類として、この実施例では、平坦部、エッジ部及び肌色部を挙げたが、この他の種類を構成要素としてもよい。その種類が平坦部のように量子化パラメータを変動させても符号量があまり変動しないものであれば、平坦部と同様の制御を採用する。量子化パラメータを変動させると符号量が大きく変動するものであれば、エッジ部や肌色部と同じ制御を採用する。   The detection method of each detection unit is not limited to the method described here, and dispersion serving as an element for performing detection can be substituted by frequency conversion or the like. Moreover, although the flat part, the edge part, and the skin color part were mentioned as a kind to detect in this Example, it is good also considering this other kind as a component. If the type is a flat part and the code amount does not change much even if the quantization parameter is changed, the same control as that for the flat part is adopted. If the code amount changes greatly when the quantization parameter is changed, the same control as that of the edge portion and the skin color portion is adopted.

尚、上述した実施例における各処理は、ハードウエア、ソフトウエア又はこれらの複合により実現されうることは明らかである。ソフトウエアを構成するプログラムの一部又は全部は、HDD、光ディスク、フラッシュメモリ等の不揮発性記録媒体に格納される。このような記録媒体に記録されるソフトウエアをコンピュータに読み込むことで、本発明に必要な機能を実現できることは明らかである。   It should be noted that each processing in the above-described embodiment can be realized by hardware, software, or a combination thereof. Part or all of the program constituting the software is stored in a nonvolatile recording medium such as an HDD, an optical disk, or a flash memory. It is clear that the functions necessary for the present invention can be realized by reading the software recorded on such a recording medium into a computer.

また、本発明を構成するソフトウエアを、伝送媒体を介して遠隔のコンピュータに伝送してもよい。伝送媒体は、例えば、インターネット等のネットワーク(通信網)や、電話回線等の通信回線(通信線)のように、情報を伝送する機能を有する媒体である。   Further, the software constituting the present invention may be transmitted to a remote computer via a transmission medium. The transmission medium is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

プログラムは、上述した機能の一部を実現するものであっても良い。さらに、上述した機能をコンピュータに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may realize a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer, what is called a difference file (difference program) may be sufficient.

本発明の実施例について図面を参照して詳述してきたが、具体的な構成はこの実施例に限られるものではなく、本発明の要旨を逸脱しない範囲の構成も本発明の技術的範囲に含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and a configuration within the scope of the present invention is also within the technical scope of the present invention. included.

本発明の一実施例の概略構成ブロック図である。It is a schematic block diagram of one Example of this invention. 特徴抽出部の概略構成ブロック図である。It is a schematic block diagram of a feature extraction unit. 特徴抽出部におけるレベル化の説明図である。It is explanatory drawing of the leveling in a feature extraction part. 特徴割合の異なる説明用画像例である。It is an example of an explanatory image with a different feature ratio. 特徴の検出個数と制御感度の関係を説明する図である。It is a figure explaining the relationship between the detected number of features and control sensitivity.

符号の説明Explanation of symbols

100・・・入力画像信号
101・・・並べ替え部
102・・・減算器
103・・・直交変換部
104・・・量子化部
105・・・逆量子化部
106・・・逆直交変換部
107・・・動き予測動き補償部
108・・・加算器
109・・・ビデオバッファ(フレームメモリ)
110・・・可変長符号化部
111・・・符号量制御部
112・・・量子化制御部
113・・・特徴抽出部
114・・・バッファ
116・・・出力端子
DESCRIPTION OF SYMBOLS 100 ... Input image signal 101 ... Rearrangement part 102 ... Subtractor 103 ... Orthogonal transformation part 104 ... Quantization part 105 ... Inverse quantization part 106 ... Inverse orthogonal transformation part 107 ... motion prediction motion compensation unit 108 ... adder 109 ... video buffer (frame memory)
110: Variable length encoding unit 111: Code amount control unit 112 ... Quantization control unit 113 ... Feature extraction unit 114 ... Buffer 116 ... Output terminal

Claims (5)

複数のブロックに分割された入力画像データをブロック単位で直交変換し、変換係数データを出力する変換手段と、
前記変換手段から出力される前記変換係数データを量子化パラメータに従ってブロック単位で量子化する量子化手段と、
前記複数のブロックから視覚的劣化が目立ちやすい所定の特徴を有するブロックを抽出し、画面内での抽出ブロック数を出力する特徴抽出手段と、
前記特徴抽出手段により抽出されるブロックの特徴毎に制御感度を設定し、当該制御感度に従ってブロック毎に前記量子化パラメータを決定する量子化制御手段
とを具備し、
前記特徴抽出手段は、前記所定の特徴を有するブロックとして、平坦部を有するブロックと、エッジ部又は肌色部を有するブロックとを抽出し、
前記量子化制御手段は、前記特徴抽出手段により抽出される前記エッジ部又は前記肌色部を有するブロックについては、その抽出されたブロック数に応じて前記制御感度の値を変化させ、前記平坦部を有するブロックについては、その抽出されたブロック数に応じて前記制御感度の値を大きく変化させないようにする
ことを特徴とする符号化装置。
Transform means for orthogonally transforming input image data divided into a plurality of blocks in units of blocks and outputting transform coefficient data;
Quantization means for quantizing the transform coefficient data output from the transform means in block units according to a quantization parameter;
A feature extraction means for extracting a block having a predetermined feature that is prominent in visual deterioration from the plurality of blocks, and outputting the number of extracted blocks in the screen;
Setting a control sensitivity for each feature of the block extracted by the feature extraction means, and comprising a quantization control means for determining the quantization parameter for each block according to the control sensitivity,
The feature extraction unit extracts a block having a flat portion and a block having an edge portion or a skin color portion as the block having the predetermined feature,
For the block having the edge portion or the flesh color portion extracted by the feature extraction portion, the quantization control means changes the value of the control sensitivity according to the number of extracted blocks , and the flat portion is changed. An encoding apparatus, wherein the control sensitivity value is not changed greatly according to the number of extracted blocks .
前記特徴抽出手段は、前記所定の特徴を有するブロックとして、エッジ部を有するブロックを抽出し、
前記量子化制御手段は、エッジ部に係る前記抽出ブロック数が閾値よりも少ない場合、エッジ部に対して設定される前記制御感度の値を大きく変化させて前記量子化パラメータを下げるようにし、エッジ部に係る前記抽出ブロック数が前記閾値以上である場合、エッジ部に対して設定される前記制御感度の値を小さく変化させて前記量子化パラメータの下げ過ぎを抑制する
ことを特徴とする請求項1に記載の符号化装置。
The feature extraction means extracts a block having an edge as a block having the predetermined feature,
When the number of extracted blocks related to the edge portion is less than a threshold value, the quantization control means greatly changes the value of the control sensitivity set for the edge portion so as to lower the quantization parameter. When the number of extracted blocks related to a part is equal to or greater than the threshold value, the control sensitivity value set for the edge part is changed to a small value to suppress an excessive decrease in the quantization parameter. The encoding device according to 1.
前記特徴抽出手段は、前記所定の特徴を有するブロックとして、肌色部を有するブロックを抽出し、
前記量子化制御手段は、肌色部に係る前記抽出ブロック数が閾値よりも少ない場合、肌色部に対して設定される前記制御感度の値を大きく変化させて前記量子化パラメータを下げるようにし、肌色部に係る前記抽出ブロック数が前記閾値以上である場合、肌色部に対して設定される前記制御感度の値を小さく変化させて前記量子化パラメータの下げ過ぎを抑制する
ことを特徴とする請求項1に記載の符号化装置。
The feature extraction unit extracts a block having a flesh color part as the block having the predetermined feature,
When the number of extracted blocks related to the skin color portion is less than a threshold value, the quantization control means greatly changes the value of the control sensitivity set for the skin color portion to lower the quantization parameter, and the skin color The excessive reduction of the quantization parameter is suppressed by changing the value of the control sensitivity set for the skin color portion to be small when the number of extracted blocks related to the portion is equal to or greater than the threshold value. The encoding device according to 1.
前記特徴抽出手段は、前記所定の特徴を有するブロックとして、平坦部、エッジ部及び肌色部を有するブロックをそれぞれ抽出し、
前記量子化制御手段は、エッジ部と肌色部に対してそれぞれ設定される前記制御感度については、前記特徴抽出手段からの前記抽出ブロック数に応じてその値を変化させ、平坦部に対して設定される前記制御感度については、前記特徴抽出手段からの前記抽出ブロック数にかかわらず一定の値にする
ことを特徴とする請求項1に記載の符号化装置。
The feature extraction means extracts blocks having a flat portion, an edge portion, and a skin color portion, respectively, as the blocks having the predetermined feature,
The quantization control means changes the value of the control sensitivity set for each of the edge portion and the skin color portion according to the number of extracted blocks from the feature extraction means, and sets it for the flat portion. The encoding device according to claim 1, wherein the control sensitivity is set to a constant value regardless of the number of extracted blocks from the feature extraction unit .
前記制御感度は、前記量子化パラメータを決定する際に参照する正規化アクティビティを算出するためのリアクションパラメータであることを特徴とする請求項に記載の符号化装置。 The encoding apparatus according to claim 1 , wherein the control sensitivity is a reaction parameter for calculating a normalized activity that is referred to when the quantization parameter is determined .
JP2008040983A 2007-10-29 2008-02-22 Encoder Expired - Fee Related JP4942208B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008040983A JP4942208B2 (en) 2008-02-22 2008-02-22 Encoder
US12/256,971 US8363719B2 (en) 2007-10-29 2008-10-23 Encoding apparatus, method of controlling thereof, and computer program
CN2008101735122A CN101426135B (en) 2007-10-29 2008-10-29 Encoding apparatus, method of controlling thereof
US13/736,418 US9241159B2 (en) 2007-10-29 2013-01-08 Encoding apparatus, method of controlling thereof, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008040983A JP4942208B2 (en) 2008-02-22 2008-02-22 Encoder

Publications (3)

Publication Number Publication Date
JP2009200871A JP2009200871A (en) 2009-09-03
JP2009200871A5 JP2009200871A5 (en) 2011-03-31
JP4942208B2 true JP4942208B2 (en) 2012-05-30

Family

ID=41143886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008040983A Expired - Fee Related JP4942208B2 (en) 2007-10-29 2008-02-22 Encoder

Country Status (1)

Country Link
JP (1) JP4942208B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5618128B2 (en) * 2010-02-22 2014-11-05 ソニー株式会社 Encoding apparatus, encoding method, and program
JP6226578B2 (en) * 2013-06-13 2017-11-08 キヤノン株式会社 Image coding apparatus, image coding method, and program
JP6265724B2 (en) * 2013-12-11 2018-01-24 キヤノン株式会社 Image coding apparatus, image coding method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3152765B2 (en) * 1991-10-31 2001-04-03 株式会社東芝 Image coding device
JPH05316359A (en) * 1992-05-14 1993-11-26 Fujitsu Ltd Picture data coder
JPH10285596A (en) * 1997-04-09 1998-10-23 Sony Corp Image encoding device and method and computer readable recording medium recording program for image encoding control
JP4392782B2 (en) * 2001-08-21 2010-01-06 Kddi株式会社 Quantization control method in low-rate video coding
JP4427713B2 (en) * 2003-09-03 2010-03-10 ソニー株式会社 Encoding apparatus and encoding method, imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2009200871A (en) 2009-09-03

Similar Documents

Publication Publication Date Title
US9241159B2 (en) Encoding apparatus, method of controlling thereof, and computer program
JP3748717B2 (en) Video encoding device
JP4901772B2 (en) Moving picture coding method and moving picture coding apparatus
JP5174958B2 (en) Method and system for simultaneous optimization of video coder and decoder
JP2013102471A (en) Enhanced image/video quality through artifact evaluation
US11190775B2 (en) System and method for reducing video coding fluctuation
US20200275104A1 (en) System and method for controlling video coding at frame level
US9014268B2 (en) Video encoder and its decoder
US11134250B2 (en) System and method for controlling video coding within image frame
JP5618128B2 (en) Encoding apparatus, encoding method, and program
JP5078837B2 (en) Encoding apparatus, encoding apparatus control method, and computer program
JP4942208B2 (en) Encoder
JP6946979B2 (en) Video coding device, video coding method, and video coding program
JPH07203430A (en) Image coding device
JP5295089B2 (en) Image encoding device
KR100584422B1 (en) Method and device for compressing image data
JP4936557B2 (en) Encoder
JP4857243B2 (en) Image encoding apparatus, control method therefor, and computer program
JP5585271B2 (en) Video encoding device
JP5006763B2 (en) Image encoding apparatus, control method therefor, and computer program
KR101583870B1 (en) Image encoding system, image decoding system and providing method thereof
JP2007300557A (en) Image encoding device and image encoding method
JP2008153802A (en) Moving picture encoding device and moving picture encoding program
JP2007020216A (en) Encoding apparatus, encoding method, filtering apparatus and filtering method
KR20150096353A (en) Image encoding system, image decoding system and providing method thereof

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

R151 Written notification of patent or utility model registration

Ref document number: 4942208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees