JP2006032999A - Image decoding device and image decoding method - Google Patents

Image decoding device and image decoding method Download PDF

Info

Publication number
JP2006032999A
JP2006032999A JP2004204097A JP2004204097A JP2006032999A JP 2006032999 A JP2006032999 A JP 2006032999A JP 2004204097 A JP2004204097 A JP 2004204097A JP 2004204097 A JP2004204097 A JP 2004204097A JP 2006032999 A JP2006032999 A JP 2006032999A
Authority
JP
Japan
Prior art keywords
block
filter strength
edge
filter
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004204097A
Other languages
Japanese (ja)
Inventor
Hiroyuki Okada
浩行 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004204097A priority Critical patent/JP2006032999A/en
Publication of JP2006032999A publication Critical patent/JP2006032999A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image decoding device capable of performing filtering adapted to the characteristics of an image, and acquiring a decoded image having properly reduced noises while preventing the blur due to the filter. <P>SOLUTION: A noise reducing filter unit 112 decodes image frames encoded per block to reduce noises generated in the decoded images. A block classifying unit 109 classifies the blocks in accordance with the state of an edge extracted from the decoded image by an edge extracting unit 108. A quantization parameter operating unit 110 divides the image frames into predetermined process units, and executes a predetermined operation for the quantization parameter of encoded data of the blocks in the predetermined process units to calculate the state of the quantization parameter in each process unit. A filter control unit 111 controls filtering by the noise reducing filter unit 112 in conformity with a classification result for each block and the state of the quantization parameter in each predetermined process unit of the image frame to which the block belongs to. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像復号装置及び画像復号方法に関し、より詳細には、画像通信,画像記録等で利用される画像符号化データを復号する際に、復号画像に発生するブロックひずみとモスキート雑音を低減する画像復号装置及び画像復号方法に関する。   The present invention relates to an image decoding apparatus and an image decoding method, and more specifically, to reduce block distortion and mosquito noise generated in a decoded image when decoding encoded image data used in image communication, image recording, and the like. The present invention relates to an image decoding apparatus and an image decoding method.

近年、広帯域の通信手段や、大容量の記録メディアの普及に伴い、動画像データの利用が盛んになっている。動画像データはデータ量が膨大であるので、通信手段の広帯域化や記録メディアの大容量化が進んでいるとはいえ、動画像データを利用するためには、符号化によるデータ量の圧縮が必要不可欠となっている。   In recent years, with the widespread use of broadband communication means and large-capacity recording media, the use of moving image data has become active. Since the amount of moving image data is enormous, the bandwidth of communication means and the capacity of recording media are increasing, but in order to use moving image data, compression of the amount of data by encoding is necessary. It is indispensable.

動画像の符号化方式としては、国際標準であるMPEG−2やMPEG−4などが知られている。これらは画像の統計的な性質を利用して、その画像に含まれる冗長性を取り除くことにより、情報量の削減を行っている。具体的には、画像フレームを基本処理単位であるブロックに分割してブロック単位で符号化を行う動き補償予測と離散コサイン変換(DCT)を組合せたハイブリッド符号化方式である。   As a moving picture encoding method, international standards such as MPEG-2 and MPEG-4 are known. These use the statistical properties of an image to reduce the amount of information by removing redundancy contained in the image. Specifically, it is a hybrid coding scheme that combines motion compensated prediction in which an image frame is divided into blocks that are basic processing units and coding is performed in units of blocks, and discrete cosine transform (DCT).

一方、上述のごとき符号化方式を用いた符号化画像を復号して得られた復号画像には、圧縮による符号化雑音として、ブロックひずみとモスキート雑音が発生して画質を劣化させる。したがって、画像復号装置側でこれらを低減するポストフィルタを実施して画質の改善を行っている。   On the other hand, in the decoded image obtained by decoding the encoded image using the encoding method as described above, block distortion and mosquito noise are generated as encoding noise due to compression, thereby degrading the image quality. Therefore, post-filters that reduce these are implemented on the image decoding apparatus side to improve image quality.

また、静止画像符号化方式であるJPEGも上記の動画像符号化方式と同様に画像フレームのブロック単位でDCTを実施している。そのため、符号化雑音としてブロックひずみとモスキート雑音が発生する。一方、圧縮効率を向上させたJPEG2000では、DCTの代わりに離散ウェーブレット変換(DWT)を用いているが、この変換において発生する量子化雑音の折返し成分が原因でモスキート雑音と同様のリンギング雑音が発生する。また、JPEG2000でもJPEGのブロック分割と同様にタイル分割してDWTを実施した場合にはタイル間境界が見えて、ブロックひずみと同様の画質劣化が生じる。したがって、静止画像の場合でも画像復号装置側でこれらを低減するポストフィルタを実施して画質の改善を行っている。   Also, JPEG, which is a still image coding method, performs DCT on a block basis of an image frame in the same manner as the above moving image coding method. Therefore, block distortion and mosquito noise are generated as coding noise. On the other hand, JPEG2000 with improved compression efficiency uses discrete wavelet transform (DWT) instead of DCT, but ringing noise similar to mosquito noise occurs due to aliasing components of quantization noise generated in this transform. To do. Also, in JPEG2000, when tile division is performed and DWT is performed in the same manner as JPEG block division, a boundary between tiles is seen, and image quality degradation similar to block distortion occurs. Therefore, even in the case of a still image, the image decoding apparatus side implements a post filter for reducing these to improve the image quality.

このような画像復号装置においては、ポストフィルタによる画質のぼけ等の劣化を防止しながらブロックひずみ及びモスキート雑音のみを低減することが課題となる。   In such an image decoding apparatus, it is a problem to reduce only block distortion and mosquito noise while preventing deterioration such as image quality blur due to a post filter.

図12は、従来技術による画像復号装置の構成例を示すブロック図である。
以下、図12を参照して、動き補償予測と2次元直交変換を用いた場合の従来技術による画像復号装置について説明する。図12において、1201は可変長復号部、1202は逆量子化部、1203は逆直交変換部、1204は加算器、1205はフレームメモリ部、1206は動き補償予測部、1207はスイッチ、1208はフィルタ制御部、1209は雑音低減フィルタ部を示しており、ここで説明する画像復号装置はこれらの構成要素によって構成される。
FIG. 12 is a block diagram illustrating a configuration example of an image decoding device according to the related art.
Hereinafter, with reference to FIG. 12, a conventional image decoding apparatus using motion compensation prediction and two-dimensional orthogonal transform will be described. In FIG. 12, 1201 is a variable length decoding unit, 1202 is an inverse quantization unit, 1203 is an inverse orthogonal transform unit, 1204 is an adder, 1205 is a frame memory unit, 1206 is a motion compensation prediction unit, 1207 is a switch, and 1208 is a filter. A control unit 1209 indicates a noise reduction filter unit, and an image decoding apparatus described here is configured by these components.

可変長復号部1201に、符号化情報である符号化ビットストリームが入力される。符号化ビットストリームは、動画像符号化装置により生成した画像の直交変換係数やピクチャタイプ(Iピクチャ/Pピクチャ/Bピクチャ)等のヘッダ情報、符号化の状態を表す符号化モード、即ち、符号化実施の有無や動きベクトルや予測符号化モードであるフレーム内(イントラ)符号化/フレーム間予測(インター)符号化の情報などが可変長符号化され、多重化されたものである。   An encoded bit stream that is encoded information is input to the variable length decoding unit 1201. The encoded bit stream includes header information such as an orthogonal transform coefficient and picture type (I picture / P picture / B picture) of an image generated by a moving image encoding apparatus, and an encoding mode indicating an encoding state, that is, an encoding Information on the presence / absence of encoding, motion vectors, and intra-frame (intra) encoding / inter-frame prediction (inter) encoding, which are prediction encoding modes, are variable-length encoded and multiplexed.

可変長復号部1201では、符号化ビットストリームを復号して量子化された直交変換係数や動きベクトル、イントラ符号化/インター符号化などの符号化モード情報を得る。逆量子化部1202では、量子化された直交変換係数に逆量子化を実施して直交変換係数を得て、これを逆直交変換部1203で2次元逆直交変換して差分画像を得る。   The variable length decoding unit 1201 obtains coding mode information such as orthogonal transform coefficients, motion vectors, and intra coding / inter coding obtained by decoding and quantizing the coded bit stream. The inverse quantization unit 1202 performs inverse quantization on the quantized orthogonal transform coefficients to obtain orthogonal transform coefficients, and the inverse orthogonal transform unit 1203 performs two-dimensional inverse orthogonal transform to obtain a difference image.

予測符号化モード1210がインター符号化であるときは、スイッチ1207の出力が動き補償予測部1206の出力となるようにして、差分画像を加算器1204でフレームメモリ部1205に蓄積された前フレームの復号画像に基づき、動き補償予測部1206からの動き補償予測値と加算して、フレームメモリ部1205に現フレームの復号画像を蓄積する。   When the predictive coding mode 1210 is inter coding, the difference image is stored in the frame memory unit 1205 by the adder 1204 so that the output of the switch 1207 becomes the output of the motion compensation prediction unit 1206. Based on the decoded image, the motion compensated prediction value from the motion compensation prediction unit 1206 is added to accumulate the decoded image of the current frame in the frame memory unit 1205.

また、ブロックがイントラ符号化である場合は、スイッチ1207が動き補償予測部1206と切断され、逆直交変換部1203からの出力に加算されるものがないので結果的に逆直交変換部1203の出力がそのままフレームメモリ部1205に復号画像として蓄積されることになる。   When the block is intra-coded, the switch 1207 is disconnected from the motion compensation prediction unit 1206 and nothing is added to the output from the inverse orthogonal transform unit 1203. As a result, the output of the inverse orthogonal transform unit 1203 Is stored as a decoded image in the frame memory unit 1205 as it is.

フィルタ制御部1208では、量子化スケール1211の大きさにより、適応的にフィルタを制御する。雑音低減フィルタ部1209では、加算器1204からの出力である現フレームの復号画像に対して、フィルタ制御部1208からの制御情報1212に従いフィルタ係数やタップ数を切替えて、ブロックひずみ及びモスキート雑音を低減するポストフィルタを適応的に施し、雑音を低減した復号画像を出力する。   The filter control unit 1208 adaptively controls the filter according to the size of the quantization scale 1211. The noise reduction filter unit 1209 reduces block distortion and mosquito noise by switching the filter coefficient and the number of taps according to the control information 1212 from the filter control unit 1208 for the decoded image of the current frame output from the adder 1204. A post filter is adaptively applied to output a decoded image with reduced noise.

また、動きの大きな画像に対して符号量を減らすために量子化ステップを大きくとった場合に発生するブロックひずみを低減するとともに画像の輪郭がぼけるのを防止して、表示画質を向上させることを目的とした画像復号装置が提案されている(例えば、特許文献1を参照)。   In addition, it reduces the block distortion that occurs when a large quantization step is used to reduce the amount of code for an image with a large amount of motion, and improves the display image quality by preventing the outline of the image from being blurred. An intended image decoding apparatus has been proposed (see, for example, Patent Document 1).

特許文献1に記載の技術によれば、フィルタ制御部1208で量子化パラメータに基づいてフィルタを制御するため、量子化精度が高い部分へのローパスフィルタの作用をなくし、ブロックひずみの存在しない部分にはローパスフィルタが作用しない。一方、量子化精度が低い部分にはブロックひずみが存在するので、ローパスフィルタが作用するようにしている。また、量子化パラメータからブロックひずみやモスキート雑音の発生を予測し、雑音の発生しない部分に対しては輪郭強調フィルタを作用させて、画質改善を行っている。
特開2003−18600号公報
According to the technique described in Patent Document 1, since the filter control unit 1208 controls the filter based on the quantization parameter, the low-pass filter is not applied to the portion with high quantization accuracy, and the block distortion does not exist. Has no low-pass filter. On the other hand, since block distortion exists in a portion where the quantization accuracy is low, a low-pass filter acts. Also, the occurrence of block distortion and mosquito noise is predicted from the quantization parameter, and an image enhancement is performed by applying a contour enhancement filter to a portion where no noise is generated.
JP 2003-18600 A

しかしながら、特許文献1に記載の技術では、量子化パラメータの大きさのみをフィルタの制御に使用している。したがって、画像の特性が異なるエッジ,テクスチャ、平坦部分を判別せずにフィルタリングを実施するので、ポストフィルタによる画像のぼけ、或いは雑音を適切に低減できないという問題がある。   However, in the technique described in Patent Document 1, only the magnitude of the quantization parameter is used for controlling the filter. Therefore, since filtering is performed without discriminating edges, textures, and flat portions having different image characteristics, there is a problem that image blur due to a post filter or noise cannot be reduced appropriately.

また、フィルタを作用させるブロックの予測符号化モード(イントラ符号化と非イントラ符号化)やピクチャタイプ(I,P,Bピクチャ)という各種の情報も利用しないので、画像の特性に応じてきめ細やかなフィルタリングを実施できない。   In addition, since various kinds of information such as a prediction coding mode (intra coding and non-intra coding) and a picture type (I, P, B picture) of a block on which a filter is applied are not used, it is fine-tuned according to the characteristics of an image. Cannot perform proper filtering.

さらには画質は、各画像フレームの総符号量やDCT係数符号量と動きベクトル符号量とそれ以外の符号量の割合により大きく変化するにも関わらず、これらの情報をフィルタの制御に利用していない。したがって、適切な雑音低減は望めない。   Furthermore, although the image quality varies greatly depending on the ratio of the total code amount of each image frame, the DCT coefficient code amount, the motion vector code amount, and other code amounts, such information is used for filter control. Absent. Therefore, appropriate noise reduction cannot be expected.

また、特許文献1に記載の技術は、画像フレームに局所的なフィルタブロックを設定し、その中に含まれる各画素の量子化パラメータ値に、画素数を加重することでフィルタブロックの平均量子化値を算出している。しかしながら、この方法ではフィルタブロックが局所的であるため、フィルタブロック単位で平均量子化値が変化するのでフィルタ後の画像に違和感を生じる。しかも、量子化パラメータはマクロブロック毎に得られるのにも関わらず、前述のように画素数を加重した平均を求めているので、フィルタ制御の指針である平均量子化値の算出のための処理量が大きいという欠点がある。   In addition, the technique described in Patent Literature 1 sets a local filter block in an image frame, and weights the number of pixels to the quantization parameter value of each pixel included therein, thereby averaging the filter block average quantization The value is calculated. However, in this method, since the filter block is local, the average quantization value changes in units of filter block, so that the image after filtering becomes uncomfortable. In addition, although the quantization parameter is obtained for each macroblock, the average obtained by weighting the number of pixels is obtained as described above, so the process for calculating the average quantization value, which is a guideline for filter control, is obtained. There is a disadvantage that the amount is large.

本発明は、上述のごとき実情に鑑みてなされたものであり、画像符号化データを復号する際に、画像の特性に適合したフィルタリングが行え、適切にブロックひずみやモスキート雑音が低減された復号画像を得ることが可能な、画像復号装置及び画像復号方法を提供することにある。   The present invention has been made in view of the above circumstances, and when decoding encoded image data, filtering suitable for the characteristics of the image can be performed, and a decoded image in which block distortion and mosquito noise are appropriately reduced. Is to provide an image decoding apparatus and an image decoding method.

本発明は、上述のごとき課題を解決するために、以下の各技術手段によって構成される。
第1の技術手段は、画像復号装置において、ブロック毎に符号化された画像フレームを復号し、復号画像に発生する雑音を低減する雑音低減フィルタ手段と、前記復号画像からエッジを抽出するエッジ抽出手段と、該エッジ抽出手段で抽出したエッジの状態によりブロックを分類するブロック分類手段と、画像フレームを所定の処理単位に分割し、その処理単位において前記ブロックの符号化データの量子化パラメータに対して所定の演算を実施して、各処理単位における量子化パラメータの状態を算出する量子化パラメータ演算手段と、前記ブロック毎の分類結果とそのブロックが属する前記画像フレームの所定の処理単位における量子化パラメータの状態に従い前記雑音低減フィルタ手段によるフィルタリングを制御するフィルタ制御手段とを備えることを特徴としたものである。
In order to solve the above-described problems, the present invention is constituted by the following technical means.
In the image decoding apparatus, the first technical means decodes an image frame encoded for each block, reduces noise generated in the decoded image, and edge extraction extracts an edge from the decoded image. Means, a block classification means for classifying blocks according to the edge state extracted by the edge extraction means, and an image frame is divided into predetermined processing units, and for the quantization parameter of the encoded data of the block in the processing units Quantization parameter calculation means for calculating a quantization parameter state in each processing unit by performing a predetermined calculation, and a quantization result in the predetermined processing unit of the classification result for each block and the image frame to which the block belongs Filter control means for controlling filtering by the noise reduction filter means according to the state of the parameter It is obtained by further comprising a and.

第2の技術手段は、第1の技術手段において、前記雑音低減フィルタ手段は、前記復号画像のブロックひずみを低減するブロックひずみ低減手段と、前記復号画像のモスキート雑音を低減するモスキート雑音低減手段とを有することを特徴としたものである。   According to a second technical means, in the first technical means, the noise reduction filter means includes block distortion reduction means for reducing block distortion of the decoded image, and mosquito noise reduction means for reducing mosquito noise in the decoded image. It is characterized by having.

第3の技術手段は、第1又は第2の技術手段において、前記エッジ抽出手段は、前記復号画像を微分処理する微分処理手段と、該微分処理手段の出力に基づき復号画像のエッジ部分を判定するエッジ判定手段とを有することを特徴としたものである。   According to a third technical means, in the first or second technical means, the edge extracting means determines a differential processing means for differentiating the decoded image, and determines an edge portion of the decoded image based on an output of the differential processing means. And an edge determination means.

第4の技術手段は、第3の技術手段において、前記エッジ判定手段は、前記微分処理手段の出力を所定のしきい値と比較し、画素毎にエッジと非エッジとを判定することを特徴としたものである。   According to a fourth technical means, in the third technical means, the edge determination means compares the output of the differentiation processing means with a predetermined threshold value, and determines an edge and a non-edge for each pixel. It is what.

第5の技術手段は、第1乃至第4のいずれかの技術手段において、前記ブロック分類手段は、エッジと判定された画素を前記ブロック毎に数える計数手段を有し、エッジ画素数が所定のしきい値以上の場合に、ブロックをエッジブロックと分類し、所定のしきい値より小さい場合には、ブロックを非エッジブロックと分類することを特徴としたものである。   According to a fifth technical means, in any one of the first to fourth technical means, the block classification means has a counting means for counting pixels determined to be edges for each block, and the number of edge pixels is a predetermined number. A block is classified as an edge block when it is equal to or greater than a threshold value, and a block is classified as a non-edge block when it is smaller than a predetermined threshold value.

第6の技術手段は、第1乃至第5のいずれかの技術手段において、前記ブロック分類手段は、エッジブロックと分類されたブロックに対し、エッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点を数え、変化点数が所定のしきい値以上の場合に、そのブロックをテクスチャブロックと分類し、所定のしきい値より小さい場合には、そのブロックを有意エッジブロックと分類することを特徴としたものである。   According to a sixth technical means, in any one of the first to fifth technical means, the block classification unit is configured to perform edge-pixel to non-edge pixel and non-edge pixel to edge pixel for blocks classified as edge blocks. When the number of change points is counted and the number of change points is equal to or greater than a predetermined threshold, the block is classified as a texture block, and when it is smaller than the predetermined threshold, the block is classified as a significant edge block. It is a feature.

第7の技術手段は、第1乃至第6のいずれかの技術手段において、前記量子化パラメータ演算手段は、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロック毎の量子化スケールを加算して量子化スケールの平均値を算出し、これを各処理単位における量子化パラメータの状態とすることを特徴としたものである。   A seventh technical means is any one of the first to sixth technical means, wherein the quantization parameter calculation means uses a unit obtained by dividing an image frame in a band shape composed of a plurality of blocks as a processing unit. The average value of the quantization scale is calculated by adding the quantization scale for each block, and this is used as the state of the quantization parameter in each processing unit.

第8の技術手段は、第1乃至第6のいずれかの技術手段において、前記量子化パラメータ演算手段は、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロックの予測符号化モード別に、ブロック毎の量子化スケールを加算してフレーム内符号化と非フレーム内符号化で別々に量子化スケールの平均値を算出して、これを各処理単位におけるフレーム内符号化と非フレーム内符号化の量子化パラメータの状態とすることを特徴としたものである。   According to an eighth technical means, in any one of the first to sixth technical means, the quantization parameter calculating means uses a unit obtained by dividing an image frame in a band shape composed of a plurality of blocks as a processing unit. In each block predictive coding mode, add the quantization scale for each block and calculate the average value of the quantization scale separately for intra-frame coding and non-frame coding. This is characterized in that the quantization parameter states of intra-frame coding and non-frame coding are set.

第9の技術手段は、第1乃至第8のいずれかの技術手段において、前記処理単位は、画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位とし、スライス、或いはビデオパケット、或いはグループオブブロックとすることを特徴としたものである。   According to a ninth technical means, in any one of the first to eighth technical means, the processing unit is an encoding unit composed of two or more macroblocks capable of independently decoding an image in an image frame, Alternatively, it is a video packet or a group of blocks.

第10の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   A tenth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and this block is controlled to be filtered with the second filter strength.

第11の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   An eleventh technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. When the filter strength is determined and the classification result for each block is a non-edge block, only the block boundary pixels of this block are filtered with the first filter strength, and the block classification result is the edge block. In the case of, the second filter strength is determined such that filtering stronger than the first filter strength is performed, and control is performed so that all pixels in the block are filtered with the second filter strength. It is characterized by that.

第12の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がテクスチャブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果が有意エッジブロックの場合は、前記第二のフィルタ強度より強いフィルタリングが実施されるような第三のフィルタ強度を決定し、このブロック内すべての画素が第三のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   A twelfth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. When the filter strength is determined, and the classification result for each block is a non-edge block, only the block boundary pixels of this block are filtered with the first filter strength, and the block classification result is the texture block. The second filter strength is determined such that filtering stronger than the first filter strength is performed, and all pixels in the block are filtered with the second filter strength, If the block classification result is a significant edge block, filtering that is stronger than the second filter strength is performed. Determining a third filter strength, the block all the pixels in which the filtering by the third filter strength is characterized by controlling so as implemented.

第13の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ブロックの予測符号化モードがフレーム内符号化の場合は、非フレーム内符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   In a thirteenth technical means according to any one of the first to ninth technical means, the filter control means is configured to determine a first value based on an average value of a quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, the filtering is performed on the block with the second filter strength, and the predictive coding mode of the block is an intraframe code. In the case of encoding, the first filter strength or the second filter strength is set so that the filter strength is stronger than that of non-frame coding. Filtering by changing the strength is obtained by and controls as implemented.

第14の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ピクチャタイプが双方向予測符号化の場合はフレーム内符号化及びフレーム間順方向予測符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   A fourteenth technical means according to any one of the first to ninth technical means, wherein the filter control means is based on an average value of a quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, If the second filter strength is determined such that filtering stronger than the first filter strength is performed, the block is filtered with the second filter strength, and the picture type is bi-predictive coding Is the first filter strength or the previous filter strength to be stronger than the intraframe coding and interframe forward prediction coding. Filtering by changing the second filter strength is obtained by and controls as implemented.

第15の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   A fifteenth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the second filter strength is determined based on the total code amount of each frame. One filter strength or the second filter strength is changed and controlled to be filtered. That.

第16の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   A sixteenth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the second filter strength is determined based on the total code amount of each frame. One filter strength and the second filter strength are changed and controlled to be filtered. .

第17の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   A seventeenth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the DCT coefficient code amount and motion vector in each frame are determined. Based on the code amount and the ratio of the other code amounts, the first filter strength or the second filter strength is changed to Rutaringu is obtained by and controls as implemented.

第18の技術手段は、第1乃至第9のいずれかの技術手段において、前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   The eighteenth technical means is the first technical means according to any one of the first to ninth technical means, wherein the filter control means is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the DCT coefficient code amount and motion vector in each frame are determined. The first filter strength and the second filter strength are changed on the basis of the code amount and the ratio of the other code amounts to change the filter strength. Taringu is obtained by and controls as implemented.

第19の技術手段は、画像復号方法において、ブロック毎に符号化された画像フレームを復号し、復号画像に発生する雑音を低減する雑音低減フィルタステップと、前記復号画像からエッジを抽出するエッジ抽出ステップと、該エッジ抽出ステップで抽出したエッジの状態によりブロックを分類するブロック分類ステップと、画像フレームを所定の処理単位に分割し、その処理単位において前記ブロックの符号化データの量子化パラメータに対して所定の演算を実施して、各処理単位における量子化パラメータの状態を算出する量子化パラメータ演算ステップと、前記ブロック毎の分類結果とそのブロックが属する前記画像フレームの所定の処理単位における量子化パラメータの状態に従い前記雑音低減フィルタステップによるフィルタリングを制御するフィルタ制御ステップとを含んでなることを特徴としたものである。   According to a nineteenth technical means, in the image decoding method, a noise reduction filter step for decoding an image frame encoded for each block and reducing noise generated in the decoded image, and edge extraction for extracting an edge from the decoded image A block classification step for classifying blocks according to the edge state extracted in the edge extraction step, and dividing the image frame into predetermined processing units, and for the quantization parameter of the encoded data of the block in the processing unit A quantization parameter calculation step for calculating a quantization parameter state in each processing unit by performing a predetermined calculation, and a quantization result in the predetermined processing unit of the classification result for each block and the image frame to which the block belongs Filtering by the noise reduction filter step according to the parameter state Is obtained is characterized by comprising a filter control step of controlling.

第20の技術手段は、第19の技術手段において、前記雑音低減フィルタステップは、前記復号画像のブロックひずみを低減するブロックひずみ低減ステップと、前記復号画像のモスキート雑音を低減するモスキート雑音低減ステップとを有することを特徴としたものである。   In a twentieth technical means according to the nineteenth technical means, the noise reduction filter step comprises: a block distortion reduction step for reducing block distortion of the decoded image; and a mosquito noise reduction step for reducing mosquito noise in the decoded image. It is characterized by having.

第21の技術手段は、第19又は第20の技術手段において、前記エッジ抽出ステップは、前記復号画像を微分処理する微分処理ステップと、該微分処理ステップの出力に基づき復号画像のエッジ部分を判定するエッジ判定ステップとを有することを特徴としたものである。   In a twenty-first technical means, in the nineteenth or twentieth technical means, the edge extracting step determines a differential processing step for performing differential processing on the decoded image, and determines an edge portion of the decoded image based on an output of the differential processing step. And an edge determination step.

第22の技術手段は、第21の技術手段において、前記エッジ判定ステップは、前記微分処理ステップの出力を所定のしきい値と比較し、画素毎にエッジと非エッジとを判定することを特徴としたものである。   According to a twenty-second technical means, in the twenty-first technical means, the edge determining step compares an output of the differentiation processing step with a predetermined threshold value and determines an edge and a non-edge for each pixel. It is what.

第23の技術手段は、第19乃至第22のいずれかの技術手段において、前記ブロック分類ステップは、エッジと判定された画素を前記ブロック毎に数える計数ステップを有し、エッジ画素数が所定のしきい値以上の場合に、ブロックをエッジブロックと分類し、所定のしきい値より小さい場合には、ブロックを非エッジブロックと分類することを特徴としたものである。   According to a twenty-third technical means, in any one of the nineteenth to twenty-second technical means, the block classification step includes a counting step for counting pixels determined to be edges for each block, and the number of edge pixels is a predetermined number. A block is classified as an edge block when it is equal to or greater than a threshold value, and a block is classified as a non-edge block when it is smaller than a predetermined threshold value.

第24の技術手段は、第19乃至第23のいずれかの技術手段において、前記ブロック分類ステップは、エッジブロックと分類されたブロックに対し、エッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点を数え、変化点数が所定のしきい値以上の場合に、そのブロックをテクスチャブロックと分類し、所定のしきい値より小さい場合には、そのブロックを有意エッジブロックと分類することを特徴としたものである。   In a twenty-fourth technical means according to any one of the nineteenth to twenty-third technical means, in the block classification step, for the blocks classified as edge blocks, edge pixels to non-edge pixels and non-edge pixels to edge pixels When the number of change points is counted and the number of change points is equal to or greater than a predetermined threshold, the block is classified as a texture block, and when it is smaller than the predetermined threshold, the block is classified as a significant edge block. It is a feature.

第25の技術手段は、第19乃至第24のいずれかの技術手段において、前記量子化パラメータ演算ステップは、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロック毎の量子化スケールを加算して量子化スケールの平均値を算出し、これを各処理単位における量子化パラメータの状態とすることを特徴としたものである。   In a twenty-fifth technical means according to any one of the nineteenth to twenty-fourth technical means, the quantization parameter calculation step uses a unit obtained by dividing an image frame into strips composed of a plurality of blocks as a processing unit. The average value of the quantization scale is calculated by adding the quantization scale for each block, and this is used as the state of the quantization parameter in each processing unit.

第26の技術手段は、第19乃至第24のいずれかの技術手段において、前記量子化パラメータ演算ステップは、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロックの予測符号化モード別に、ブロック毎の量子化スケールを加算してフレーム内符号化と非フレーム内符号化で別々に量子化スケールの平均値を算出して、これを各処理単位におけるフレーム内符号化と非フレーム内符号化の量子化パラメータの状態とすることを特徴としたものである。   According to a twenty-sixth technical means, in the technical means according to any one of the nineteenth to twenty-fourth technical means, the quantization parameter calculating step uses a unit obtained by dividing an image frame into strips composed of a plurality of blocks as a processing unit. In each block predictive coding mode, add the quantization scale for each block and calculate the average value of the quantization scale separately for intra-frame coding and non-frame coding. This is characterized in that the quantization parameter states of intra-frame coding and non-frame coding are set.

第27の技術手段は、第19乃至第26のいずれかの技術手段において、前記処理単位は、画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位とし、スライス、或いはビデオパケット、或いはグループオブブロックとすることを特徴としたものである。   According to a twenty-seventh technical means, in any one of the nineteenth to twenty-sixth technical means, the processing unit is an encoding unit composed of two or more macroblocks capable of independently decoding an image in an image frame, Alternatively, it is a video packet or a group of blocks.

第28の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   In a twenty-eighth technical means according to any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and this block is controlled to be filtered with the second filter strength.

第29の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   According to a twenty-ninth technical means, in the technical means according to any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. When the filter strength is determined and the classification result for each block is a non-edge block, only the block boundary pixels of this block are filtered with the first filter strength, and the block classification result is the edge block. In the case of, the second filter strength is determined such that filtering stronger than the first filter strength is performed, and control is performed so that all pixels in the block are filtered with the second filter strength. It is characterized by that.

第30の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がテクスチャブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果が有意エッジブロックの場合は、前記第二のフィルタ強度より強いフィルタリングが実施されるような第三のフィルタ強度を決定し、このブロック内すべての画素が第三のフィルタ強度でフィルタリングが実施されるように制御することを特徴としたものである。   A thirtieth technical means is the method according to any one of the nineteenth to twenty-seventh technical means, wherein the filter control step is based on a magnitude of an average value of a quantization scale calculated for each of the predetermined processing units. When the filter strength is determined, and the classification result for each block is a non-edge block, only the block boundary pixels of this block are filtered with the first filter strength, and the block classification result is the texture block. The second filter strength is determined such that filtering stronger than the first filter strength is performed, and all pixels in the block are filtered with the second filter strength, If the block classification result is a significant edge block, filtering that is stronger than the second filter strength is performed. Determine a so that a third filter strength, the block all the pixels in which the filtering by the third filter strength is characterized by controlling so as implemented.

第31の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ブロックの予測符号化モードがフレーム内符号化の場合は、非フレーム内符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   According to a thirty-first technical means, in any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, the filtering is performed on the block with the second filter strength, and the predictive coding mode of the block is an intraframe code. In the case of conversion, the first filter strength or the second filter strength is set so that the filter strength is stronger than that of non-intraframe coding. Filtering by changing the filter strength is obtained by and controls as implemented.

第32の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ピクチャタイプが双方向予測符号化の場合はフレーム内符号化及びフレーム間順方向予測符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   According to a thirty-second technical means, in any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, If the second filter strength is determined such that filtering stronger than the first filter strength is performed, the block is filtered with the second filter strength, and the picture type is bi-predictive coding The first filter strength to be stronger than intra-frame coding and inter-frame forward prediction coding, There is obtained by and controls as filtered by changing the second filter strength is performed.

第33の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   In a thirty-third technical means, in any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the second filter strength is determined based on the total code amount of each frame. One filter strength or the second filter strength is changed to control so that filtering is performed. It is intended.

第34の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   In a thirty-fourth technical means according to any one of the nineteenth to twenty-seventh technical means, the filter control step is based on a magnitude of an average value of a quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, A second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the second filter strength is determined based on the total code amount of each frame. The control is performed so that filtering is performed by changing one filter strength and the second filter strength. Than it is.

第35の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   In a thirty-fifth technical means according to any one of the nineteenth to twenty-seventh technical means, the filter control step is based on a magnitude of an average value of a quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the DCT coefficient code amount and motion vector in each frame are determined. The first filter strength or the second filter strength is changed based on the code amount and the ratio of the other code amounts. Is obtained by control means controls so filtering is carried out.

第36の技術手段は、第19乃至第27のいずれかの技術手段において、前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴としたものである。   In a thirty-sixth technical means according to any one of the nineteenth to twenty-seventh technical means, the filter control step is based on the average value of the quantization scale calculated for each of the predetermined processing units. Filter strength is determined, and if the classification result for each block is a non-edge block, the block is filtered with a first filter strength. If the classification result of the block is an edge block, The second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength, and the DCT coefficient code amount and motion vector in each frame are determined. The first filter strength and the second filter strength are changed based on the code amount and the ratio of the other code amounts. Is obtained by control means controls so filtering is performed Te.

本発明によれば、画像符号化データを復号する際に、ブロック毎のエッジの状態による分類結果、所定の処理単位で算出した量子化パラメータの状態、及び各種の符号化情報などを基に、フィルタを適応的に制御するので、画像の特性に適合したフィルタリングが行え、フィルタによる画像のぼけを防止しつつ、適切にブロックひずみやモスキート雑音が低減された復号画像を得ることができる。   According to the present invention, when decoding the encoded image data, based on the classification result by the edge state for each block, the state of the quantization parameter calculated in a predetermined processing unit, and various types of encoding information, Since the filter is adaptively controlled, filtering suitable for the characteristics of the image can be performed, and a decoded image in which block distortion and mosquito noise are appropriately reduced can be obtained while preventing image blur due to the filter.

図1は、本発明の一実施形態に係る画像復号装置の一構成例のブロック図である。図1において、101は可変長復号部、102は逆量子化部、103は逆直交変換部、104は加算器、105はフレームメモリ部、106は動き補償予測部、107はスイッチ、108はエッジ抽出部、109はブロック分類部、110は量子化パラメータ演算部、111はフィルタ制御部、112は雑音低減フィルタ部を示している。また、図1において、113,114,115,116,117,118は、それぞれ、予測符号化モード,ブロック分類結果,量子化スケール,量子化スケール平均値,ピクチャタイプ,フィルタパラメータの伝送経路を表しているが、以下の説明では、これらの参照番号を単に伝送される情報そのもの(例えば113を予測符号化モード)として説明する。   FIG. 1 is a block diagram of a configuration example of an image decoding apparatus according to an embodiment of the present invention. In FIG. 1, 101 is a variable length decoding unit, 102 is an inverse quantization unit, 103 is an inverse orthogonal transform unit, 104 is an adder, 105 is a frame memory unit, 106 is a motion compensation prediction unit, 107 is a switch, and 108 is an edge. An extraction unit, 109 is a block classification unit, 110 is a quantization parameter calculation unit, 111 is a filter control unit, and 112 is a noise reduction filter unit. In FIG. 1, reference numerals 113, 114, 115, 116, 117, and 118 denote transmission paths of the predictive coding mode, block classification result, quantization scale, quantization scale average value, picture type, and filter parameter, respectively. However, in the following description, these reference numbers are described as simply transmitted information itself (for example, 113 is a predictive coding mode).

本発明に係る画像復号装置は、後述する雑音低減フィルタ手段,エッジ抽出手段,ブロック分類手段,量子化パラメータ演算手段,フィルタ制御手段を少なくとも備えるものとする。本発明に係る画像復号処理では、復号画像の雑音低減の際、量子化パラメータの大きさのみをフィルタの制御に使用するのではなく、ブロック毎のエッジの状態による分類結果、所定の処理単位で算出した量子化パラメータの状態、及び各種の符号化情報などを基に、フィルタを適応的に制御する。例えば、画像の特性が異なるエッジ,テクスチャ,平坦部分を判別してフィルタリングを実施する。   The image decoding apparatus according to the present invention includes at least noise reduction filter means, edge extraction means, block classification means, quantization parameter calculation means, and filter control means described later. In the image decoding processing according to the present invention, when the noise of the decoded image is reduced, not only the size of the quantization parameter is used for the filter control, but the classification result based on the edge state for each block, in a predetermined processing unit. The filter is adaptively controlled based on the calculated quantization parameter state and various types of encoding information. For example, filtering is performed by discriminating edges, textures, and flat portions having different image characteristics.

以下、本発明の一実施形態に係る画像復号装置が、エッジ抽出手段で構成されるエッジ抽出部108、ブロック分類手段で構成されるブロック分類部109、量子化パラメータ演算手段で構成される量子化パラメータ演算部110、フィルタ制御手段で構成されるフィルタ制御部111、及び雑音低減フィルタ手段で構成される雑音低減フィルタ部112に加え、可変長復号部101、逆量子化部102、逆直交変換部103、加算器104、フレームメモリ部105、動き補償予測部106、及びスイッチ107をその構成要素とする例を中心に、各部について説明する。また、本発明に係る画像復号方法についての説明は、以下に説明する画像復号装置における処理手順で代用する。   Hereinafter, an image decoding apparatus according to an embodiment of the present invention includes an edge extraction unit 108 configured by an edge extraction unit, a block classification unit 109 configured by a block classification unit, and a quantization configured by a quantization parameter calculation unit. In addition to the parameter calculation unit 110, the filter control unit 111 configured by the filter control unit, and the noise reduction filter unit 112 configured by the noise reduction filter unit, the variable length decoding unit 101, the inverse quantization unit 102, and the inverse orthogonal transform unit Each unit will be described focusing on an example in which 103, an adder 104, a frame memory unit 105, a motion compensation prediction unit 106, and a switch 107 are used as its constituent elements. The description of the image decoding method according to the present invention is substituted by a processing procedure in the image decoding apparatus described below.

<可変長復号>
可変長復号部101は、入力された符号化ビットストリームを可変長復号する手段により構成される。可変長復号部101には、画像符号化装置により画像に対して離散コサイン変換(DCT)を実施して当該DCT係数を量子化した量子化DCT係数、イントラ符号化/インター符号化の情報である予測符号化モード、量子化の大きさを示すパラメータである量子化スケールと量子化マトリクス、動きベクトル、符号化実施の有無の情報等を可変長符号化して多重化された符号化ビットストリームを生成したもの、例えば国際標準であるMPEG−2規格(ISO/IEC 13818−2)に従う符号化ビットストリームが入力される。そして、ここで可変長復号を行うことで、ブロック毎に量子化されたDCT係数、イントラ符号化/インター符号化の情報(予測符号化モード)、量子化スケール、動きベクトル、符号化実施の有無の情報等の符号化情報を得る。
<Variable length decoding>
The variable length decoding unit 101 is configured by means for variable length decoding the input encoded bitstream. The variable length decoding unit 101 includes information on quantized DCT coefficients obtained by performing discrete cosine transform (DCT) on an image by an image coding apparatus and quantizing the DCT coefficients, and intra coding / inter coding information. Predictive coding mode, quantization scale, which is a parameter indicating the size of quantization, quantization matrix, motion vector, encoding information, etc. For example, an encoded bit stream according to the MPEG-2 standard (ISO / IEC 13818-2) which is an international standard is input. Then, by performing variable-length decoding here, DCT coefficients quantized for each block, intra coding / inter coding information (predictive coding mode), quantization scale, motion vector, presence / absence of coding execution Encoding information such as the above information is obtained.

<逆量子化>
逆量子化部102は、可変長復号部101に接続されており、量子化された直交変換係数を逆量子化する手段で構成される。逆量子化部102では、可変長復号部101で得られた量子化されたDCT係数を量子化スケールと量子化マトリクスに従い逆量子化して逆量子化されたDCT係数を得る。
<Inverse quantization>
The inverse quantization unit 102 is connected to the variable length decoding unit 101, and includes means for inversely quantizing the quantized orthogonal transform coefficient. In the inverse quantization unit 102, the quantized DCT coefficient obtained by the variable length decoding unit 101 is inversely quantized according to the quantization scale and the quantization matrix to obtain the inversely quantized DCT coefficient.

<逆直交変換>
逆直交変換部103は、逆量子化部102に接続されており、直交変換係数を2次元逆直交変換して差分画像を求める手段で構成される。逆直交変換部103は、逆量子化されたDCT係数に2次元逆DCTを実施して差分画像を得る。
<Inverse orthogonal transform>
The inverse orthogonal transform unit 103 is connected to the inverse quantization unit 102 and includes means for obtaining a difference image by performing two-dimensional inverse orthogonal transform on the orthogonal transform coefficient. The inverse orthogonal transform unit 103 performs a two-dimensional inverse DCT on the inversely quantized DCT coefficient to obtain a difference image.

<加算>
加算器104は、逆直交変換部103とスイッチ107に接続されており、逆直交変換部103で得られた差分画像と動き補償予測値とを加算する手段で構成され、加算によって復号画像を求める。加算器104では、ブロックがインター符号化であった場合はフレームメモリ部105に蓄積された前フレームの復号画像からブロックの動きベクトルに基づき算出された動き補償予測値、或いはそのブロックがイントラ符号化であった場合はスイッチ107により動き補償予測値をゼロとするような出力とを切替え、逆直交変換部103で得られた差分画像を加算して復号画像を得る。
<Addition>
The adder 104 is connected to the inverse orthogonal transform unit 103 and the switch 107, and is configured by means for adding the difference image obtained by the inverse orthogonal transform unit 103 and the motion compensated prediction value, and obtains a decoded image by addition. . In the adder 104, when the block is inter-coded, the motion compensated prediction value calculated based on the motion vector of the block from the decoded image of the previous frame stored in the frame memory unit 105, or the block is intra-coded. , The switch 107 switches the output so that the motion compensation prediction value is zero, and the difference image obtained by the inverse orthogonal transform unit 103 is added to obtain a decoded image.

<復号画像蓄積>
フレームメモリ部105は、加算器104に接続されており、加算器104で得られた復号画像を蓄積する手段で構成されていればよい。
<Decoded image storage>
The frame memory unit 105 is connected to the adder 104 and may be configured by means for accumulating the decoded image obtained by the adder 104.

<動き補償予測>
動き補償予測部106は、可変長復号部101とフレームメモリ部105に接続されており、動き補償予測値を出力する手段で構成される。動き補償予測部106では、フレームメモリ部105の前フレームの復号画像と可変長復号部101からの情報である動きベクトルに基づき、動き補償予測値を求める。
<Motion compensation prediction>
The motion compensation prediction unit 106 is connected to the variable length decoding unit 101 and the frame memory unit 105, and includes means for outputting a motion compensation prediction value. The motion compensation prediction unit 106 obtains a motion compensation prediction value based on the decoded image of the previous frame in the frame memory unit 105 and the motion vector that is information from the variable length decoding unit 101.

<切替え>
スイッチ107は、可変長復号部101と動き補償予測部106に接続されており、動き補償予測値の出力を切替える手段で構成される。スイッチ107は、可変長復号部101で復号された予測符号化モード113の情報に従い、加算器104への入力を切替える。加算器104からの出力はフレームメモリ部105に出力されるとともに、雑音低減フィルタ部112にも出力される。
<Switching>
The switch 107 is connected to the variable length decoding unit 101 and the motion compensation prediction unit 106, and is configured by means for switching the output of the motion compensation prediction value. The switch 107 switches the input to the adder 104 according to the information of the predictive coding mode 113 decoded by the variable length decoding unit 101. The output from the adder 104 is output to the frame memory unit 105 and also to the noise reduction filter unit 112.

<エッジ抽出>
エッジ抽出部108は、フレームメモリ部105に接続されており、復号画像から画像のエッジ部分を抽出するエッジ抽出手段により構成される。エッジ抽出手段は、復号画像を微分処理する微分処理手段と、微分処理手段の出力に基づき復号画像のエッジ部分を判定するエッジ判定手段とを有することが好ましい。さらに、エッジ判定手段は、微分処理手段の出力を所定のしきい値と比較し、画素毎にエッジと非エッジとを判定する手段とすることが好ましい。
<Edge extraction>
The edge extraction unit 108 is connected to the frame memory unit 105 and includes edge extraction means for extracting an edge portion of the image from the decoded image. The edge extraction means preferably includes differentiation processing means for differentiating the decoded image and edge determination means for determining the edge portion of the decoded image based on the output of the differentiation processing means. Further, it is preferable that the edge determination means is a means for comparing the output of the differentiation processing means with a predetermined threshold value and determining an edge and a non-edge for each pixel.

図2は、図1の画像復号装置におけるエッジ抽出部の構成例を説明するための図で、図3は、図2のエッジ抽出部における微分処理部での微分処理を説明するための図である。図2及び図3において、201は微分処理手段で構成される微分処理部、202はエッジ判定手段で構成されるエッジ判定部、301は3×3画素のウィンドウ内の復号画像の輝度値を示している。   2 is a diagram for explaining a configuration example of the edge extraction unit in the image decoding apparatus of FIG. 1, and FIG. 3 is a diagram for explaining differentiation processing in the differentiation processing unit in the edge extraction unit of FIG. is there. 2 and 3, 201 is a differentiation processing unit composed of differentiation processing means, 202 is an edge determination unit composed of edge determination means, and 301 is a luminance value of a decoded image in a 3 × 3 pixel window. ing.

エッジ抽出部108は、フレームメモリ部105に接続された微分処理部201と、微分処理部201に接続されたエッジ判定部202とで構成するとよい。微分処理部201は、フレームメモリ部105から入力した復号画像を微分処理する。エッジ判定部202は、微分処理部201による微分処理結果に基づいてエッジ画素を判定する。   The edge extraction unit 108 may be configured by a differential processing unit 201 connected to the frame memory unit 105 and an edge determination unit 202 connected to the differential processing unit 201. The differential processing unit 201 performs differential processing on the decoded image input from the frame memory unit 105. The edge determination unit 202 determines an edge pixel based on the differentiation processing result by the differentiation processing unit 201.

ここで上述のごとく構成されたエッジ抽出部108の動作を説明する。
微分処理部201は、フレームメモリ部105に蓄積されている復号画像に対して、Sobelオペレータを用いて微分処理を施し、微分画像を作成する。このオペレータにより得られる微分値Gi,jは、図3において3×3画素のウィンドウ内の復号画像の輝度値をA〜Iとしたとき、下式(1)で表される。
Here, the operation of the edge extraction unit configured as described above will be described.
The differential processing unit 201 performs differential processing on the decoded image stored in the frame memory unit 105 using a Sobel operator to create a differential image. The differential value Gi, j obtained by this operator is expressed by the following expression (1) when the luminance values of the decoded image in the 3 × 3 pixel window in FIG.

Gi,j=|A+2B+C−G−2H−I|
+|A+2D+G−C−2F−I| … (1)
Gi, j = | A + 2B + CG-2H-I |
+ | A + 2D + G-C-2F-I | (1)

エッジ判定部202では、前記微分画像からエッジを抽出するため下式(2)のように、所定のしきい値THgでしきい値処理して、2値のエッジ画像を得る。下式(2)において、Gi,jは微分画像を表し、Ei,jはエッジ画像を表す。また、Ei,j=1である画素をエッジ画素と定義する。   The edge determination unit 202 obtains a binary edge image by performing threshold processing with a predetermined threshold THg as shown in the following equation (2) in order to extract an edge from the differential image. In the following equation (2), Gi, j represents a differential image, and Ei, j represents an edge image. A pixel where Ei, j = 1 is defined as an edge pixel.

Gi,j≧THgのとき Ei,j=1
Gi,j<THgのとき Ei,j=0 … (2)
When Gi, j ≧ THg, Ei, j = 1
When Gi, j <THg, Ei, j = 0 (2)

<ブロック分類>
ブロック分類部109は、エッジ抽出部108に接続されており、エッジ画像の属性を判定してブロックを分類するブロック分類手段で構成される。ブロック分類手段は、エッジ抽出手段で抽出したエッジの状態によりブロックを分類する手段であればよい。
<Block classification>
The block classification unit 109 is connected to the edge extraction unit 108 and includes block classification means for determining the attribute of the edge image and classifying the block. The block classification means may be any means that classifies blocks according to the edge state extracted by the edge extraction means.

また、他の好ましい形態として、ブロック分類手段は、エッジと判定された画素をブロック毎に数える計数手段を備えるとよい。そして、ブロック分類手段は、エッジ画素数が所定のしきい値以上の場合に、ブロックをエッジブロックと分類し、所定のしきい値より小さい場合には、ブロックを非エッジブロックと分類する。   As another preferred mode, the block classification unit may include a counting unit that counts pixels determined to be edges for each block. The block classifying unit classifies the block as an edge block when the number of edge pixels is equal to or greater than a predetermined threshold value, and classifies the block as a non-edge block when the number is smaller than the predetermined threshold value.

また、他の好ましい形態として、ブロック分類手段は、エッジブロックと分類されたブロックに対し、エッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点を数え、変化点数が所定のしきい値以上の場合に、そのブロックをテクスチャブロックと分類し、所定のしきい値より小さい場合には、そのブロックを有意エッジブロックと分類する。この形態は、上述したエッジブロックと非エッジブロックとの分類後に採用してもよい。   As another preferred mode, the block classification means counts the change points of edge pixels to non-edge pixels and non-edge pixels to edge pixels for blocks classified as edge blocks, and the number of change points is a predetermined threshold. If it is greater than or equal to the value, the block is classified as a texture block, and if it is less than a predetermined threshold, the block is classified as a significant edge block. This form may be employed after the above-described classification of edge blocks and non-edge blocks.

図4は、図1の画像復号装置におけるブロック分類部で分類される、有意エッジブロックとテクスチャブロックとを説明するための図である。図4(A)において401はエッジブロックの例を示し、図4(B)において402はエッジブロックの他の例を示している。図4を参照して、上述した、ブロック分類部109の好ましい形態を説明する。   FIG. 4 is a diagram for explaining significant edge blocks and texture blocks classified by the block classification unit in the image decoding apparatus of FIG. 1. In FIG. 4A, 401 indicates an example of an edge block, and in FIG. 4B, 402 indicates another example of an edge block. With reference to FIG. 4, the preferable form of the block classification | category part 109 mentioned above is demonstrated.

ブロック分類部109では、前記エッジ画像を用いて復号画像のブロックを、有意エッジ,テクスチャ,非エッジの3種類のブロックに分類する。この処理は、まずエッジ画像をブロック毎に調べ、ブロック内のエッジ画素が所定のしきい値THfより少ないものを非エッジブロックと分類する。次に、所定のしきい値THf以上のエッジ画素を含むエッジブロックに対し、横方向及び縦方向でエッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点数を数える。そして、縦・横方向の変化点数を合計し、その値をエッジブロックのエッジ変化点数とする。ここで、エッジ変化点数が少なければエッジ画素が集中している、即ち、明確なエッジをもつと判断できる。一方、エッジ変化点数が多ければきめ細かなランダムな模様をもつテクスチャと判断できる。   The block classification unit 109 classifies the blocks of the decoded image into three types of blocks of significant edge, texture, and non-edge using the edge image. In this process, the edge image is first examined for each block, and those having fewer edge pixels than the predetermined threshold THf are classified as non-edge blocks. Next, the number of change points from the edge pixel to the non-edge pixel and from the non-edge pixel to the edge pixel is counted in the horizontal direction and the vertical direction with respect to the edge block including the edge pixel equal to or greater than the predetermined threshold THf. Then, the number of change points in the vertical and horizontal directions is summed, and the value is set as the number of edge change points of the edge block. Here, if the number of edge change points is small, it can be determined that the edge pixels are concentrated, that is, it has a clear edge. On the other hand, if the number of edge change points is large, it can be determined that the texture has a fine random pattern.

したがって、この特徴を利用してエッジブロックを有意エッジブロックとテクスチャブロックに分類できる。即ち、各エッジブロックにおけるエッジ変化点数をVk,lとしたとき、下式(3)で示すように、しきい値THvを用いてテクスチャブロックと有意エッジブロックに分類する。   Therefore, edge blocks can be classified into significant edge blocks and texture blocks using this feature. That is, when the number of edge change points in each edge block is Vk, l, the threshold value THv is used to classify the block into a texture block and a significant edge block as shown in the following equation (3).

Vk,l≧THvのとき、テクスチャブロック
Vk,l<THvのとき、有意エッジブロック … (3)
When Vk, l ≧ THv, texture block When Vk, l <THv, significant edge block (3)

エッジブロック401,402で例示するエッジブロックにおいて、●で示す画素403はエッジ画素であり、○で示す画素404は非エッジ画素である。ここで、エッジブロック401のエッジ変化点数は32、エッジブロック402のエッジ変化点数は71となる。しきい値THvを60とすると、エッジブロック401は有意エッジブロック、エッジブロック402はテクスチャブロックと分類できる。また、エッジ変化点数を縦方向のみ、或いは横方向のみで算出してもよい。   In the edge blocks exemplified by the edge blocks 401 and 402, the pixel 403 indicated by ● is an edge pixel, and the pixel 404 indicated by ○ is a non-edge pixel. Here, the number of edge change points of the edge block 401 is 32, and the number of edge change points of the edge block 402 is 71. If the threshold value THv is 60, the edge block 401 can be classified as a significant edge block, and the edge block 402 can be classified as a texture block. The number of edge change points may be calculated only in the vertical direction or only in the horizontal direction.

以上のように、ブロック分類部109からブロック分類結果114として、ブロック毎に有意エッジブロック,テクスチャブロック,非エッジブロックの3種類うちいずれかを示す情報が出力される。これにより、モスキート雑音とブロックひずみに適した雑音低減処理の制御が可能となる。即ち、エッジブロック(有意エッジブロック、テクスチャブロック)にはブロック内部にモスキート雑音が発生するので、この分類結果を用いることでブロック内の全画素にフィルタリングを実施する制御が可能となる。一方、非エッジブロックにはブロック内部にモスキート雑音が発生しないのでブロック境界のみがフィルタリングされればよく、この分類結果を用いてブロックひずみ低減に適したフィルタリング制御が可能となる。また、処理量軽減の観点からエッジ変化点を求めないでブロックの分類結果を、エッジブロックと非エッジブロックの2つに分類してもよい。   As described above, the block classification unit 109 outputs information indicating any one of the three types of significant edge blocks, texture blocks, and non-edge blocks for each block as the block classification result 114. This makes it possible to control noise reduction processing suitable for mosquito noise and block distortion. That is, since mosquito noise is generated inside the edge block (significant edge block, texture block), it is possible to control filtering on all pixels in the block by using this classification result. On the other hand, since no mosquito noise is generated in the non-edge block, only the block boundary needs to be filtered, and filtering control suitable for block distortion reduction can be performed using this classification result. Further, from the viewpoint of reducing the processing amount, the block classification result may be classified into two, that is, an edge block and a non-edge block without obtaining an edge change point.

<量子化パラメータ演算>
量子化パラメータ演算部110は、可変長復号部101に接続されており、量子化スケールから量子化パラメータの状態を算出する手段で構成される。この手段は、これに限らず次の量子化パラメータ演算手段であればよい。即ち、量子化パラメータ演算手段は、画像フレームを所定の処理単位に分割し、その処理単位においてブロックの符号化データの量子化パラメータに対して所定の演算を実施して、各処理単位における量子化パラメータの状態を算出する。
<Quantization parameter calculation>
The quantization parameter calculation unit 110 is connected to the variable length decoding unit 101 and includes means for calculating the state of the quantization parameter from the quantization scale. This means is not limited to this and may be any of the following quantization parameter calculation means. That is, the quantization parameter calculation means divides the image frame into predetermined processing units, performs predetermined calculation on the quantization parameter of the encoded data of the block in the processing unit, and performs quantization in each processing unit. Calculate the parameter state.

他の好ましい形態として、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位としてもよい。そして、量子化パラメータ演算手段は、その処理単位内でブロック毎の量子化スケールを加算して量子化スケールの平均値を算出し、これを各処理単位における量子化パラメータの状態とする。   As another preferred embodiment, a unit obtained by dividing an image frame into strips composed of a plurality of blocks may be used as a processing unit. Then, the quantization parameter calculation means adds the quantization scale for each block within the processing unit to calculate the average value of the quantization scale, and sets this as the state of the quantization parameter in each processing unit.

画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とする他の好ましい形態として、量子化パラメータ演算手段は、その処理単位内でブロックの予測符号化モード別に、ブロック毎の量子化スケールを加算してフレーム内(イントラ)符号化と非フレーム内(非イントラ)符号化で別々に量子化スケールの平均値を算出するとよい。そして、量子化パラメータ演算手段は、算出したものを各処理単位におけるフレーム内(イントラ)符号化と非フレーム内(非イントラ)符号化の量子化パラメータの状態とする。   As another preferred mode in which a unit obtained by dividing an image frame into strips composed of a plurality of blocks is used as a processing unit, the quantization parameter calculation means performs quantization for each block for each prediction coding mode of the block within the processing unit. It is preferable to calculate the average value of the quantization scale separately for intra-frame (intra) coding and non-frame (non-intra) coding by adding the scales. Then, the quantization parameter calculating means sets the calculated parameters as the quantization parameter states of intra-frame (intra) encoding and non-intra-frame (non-intra) encoding in each processing unit.

また、処理単位に関する好ましい形態としては、画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位とし、スライス、或いはビデオパケット、或いはグループオブブロック(GOB)とするとよい。この形態にあっては、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とする形態と併用可能である。   Further, as a preferable form relating to the processing unit, it is preferable to use a coding unit composed of two or more macroblocks that can independently decode an image in an image frame, and a slice, a video packet, or a group of blocks (GOB). In this form, it is possible to use in combination with a form in which an image frame is divided into strips composed of a plurality of blocks and used as a processing unit.

図5は、図1の画像復号装置における量子化パラメータ演算部の構成例を説明するための図で、図6は、図5の量子化パラメータ演算部における処理単位の分割を説明するための図で、図7は、図5の量子化パラメータ演算部における処理単位の分割、特にMPEG−4のビデオパケットに係る処理単位の分割を説明するための図である。   5 is a diagram for explaining a configuration example of a quantization parameter calculation unit in the image decoding apparatus of FIG. 1, and FIG. 6 is a diagram for explaining division of processing units in the quantization parameter calculation unit of FIG. FIG. 7 is a diagram for explaining division of processing units in the quantization parameter calculation unit of FIG. 5, particularly division of processing units relating to MPEG-4 video packets.

図5乃至図7を参照して、上述した、量子化パラメータ演算部110の好ましい形態を説明する。図5において、501は処理単位分割部、502は量子化スケール加算部、503は量子化スケール平均値算出部を示しており、量子化パラメータ演算部110はこれらの構成要素により構成されるものとして説明する。また、図6及び図7において、601,701は画像フレームの例を示している。   With reference to FIG. 5 thru | or FIG. 7, the preferable form of the quantization parameter calculating part 110 mentioned above is demonstrated. In FIG. 5, reference numeral 501 denotes a processing unit division unit, 502 denotes a quantization scale addition unit, 503 denotes a quantization scale average value calculation unit, and the quantization parameter calculation unit 110 is configured by these components. explain. 6 and 7, reference numerals 601 and 701 denote examples of image frames.

量子化パラメータ演算部110は、処理単位分割部501、量子化スケール加算部502、及び量子化スケール平均値算出部503で構成される。   The quantization parameter calculation unit 110 includes a processing unit division unit 501, a quantization scale addition unit 502, and a quantization scale average value calculation unit 503.

処理単位分割部501は、可変長復号部101に接続されており、量子化パラメータの状態を算出するために画像フレームを処理単位に分割する。量子化スケール加算部502は、処理単位分割部501と可変長復号部101に接続されており、処理単位内でブロックの予測符号化モード113に従い量子化スケールを加算する。量子化スケール平均値算出部503は、量子化スケール加算部502に接続されており、処理単位内での量子化スケールの平均値を算出する。   The processing unit dividing unit 501 is connected to the variable length decoding unit 101 and divides an image frame into processing units in order to calculate the quantization parameter state. The quantization scale addition unit 502 is connected to the processing unit division unit 501 and the variable length decoding unit 101, and adds the quantization scale according to the block predictive coding mode 113 within the processing unit. The quantization scale average value calculation unit 503 is connected to the quantization scale addition unit 502 and calculates the average value of the quantization scale within the processing unit.

処理単位分割部501では、画質を表す指針である量子化スケールの状態を求める単位に画像フレームを分割する部分であり、画像フレームにおいて大局的でなく、かつ局所的過ぎないことが重要である。即ち、この処理単位を画像フレーム全体とするとフレーム全体で一様でない画像、例えば、ある部分は平坦で情報量が少ないが、別の部分は細かなテクスチャがあり多くの情報量をもつような画像に対しては、画像の部分毎に正確な量子化スケールの状態を把握することはできない。一方、局所的過ぎると、例えば、1マクロブロック(MB)毎では、フィルタ制御部111で決定されるフィルタ強度がマクロブロック単位で変動し、それによりフィルタリングを行うとマクロブロック単位で画質が変動する可能性があるので、好ましくない。したがって、画像フレームを横方向に分割して複数のブロックで構成する処理単位が望ましい。   The processing unit division unit 501 is a part that divides an image frame into units for obtaining a quantization scale state that is a guideline representing image quality, and it is important that the image frame is not global and is not too local. That is, if this processing unit is the entire image frame, an image that is not uniform throughout the entire frame, for example, an image in which one part is flat and has a small amount of information but another part has a fine texture and a large amount of information. On the other hand, it is impossible to grasp an accurate quantization scale state for each part of an image. On the other hand, if it is too local, for example, for each macroblock (MB), the filter strength determined by the filter control unit 111 fluctuates in units of macroblocks, so that when filtering is performed, the image quality fluctuates in units of macroblocks. This is not preferable because there is a possibility. Therefore, a processing unit configured by dividing an image frame in a horizontal direction and including a plurality of blocks is desirable.

本構成例では、図6に示すように画像フレーム601を16ライン幅のマクロブロックの帯で分割したスライスを処理単位とする(例えば、図6のスライス602、スライス603、スライス606)。但し、1マクロブロックで構成するスライス604は局所的過ぎるので、この場合は次のスライス605と融合したものを1つの処理単位として扱う。即ち、処理単位は、2マクロブロック以上で構成することになる。   In this configuration example, as shown in FIG. 6, a slice obtained by dividing an image frame 601 by a macroblock band having a line width of 16 lines is used as a processing unit (for example, slice 602, slice 603, slice 606 in FIG. 6). However, since the slice 604 composed of one macroblock is too local, in this case, the one merged with the next slice 605 is handled as one processing unit. That is, the processing unit is composed of two or more macroblocks.

また、本処理単位は、図7に示すMPEG−4の画像フレーム(VOP)701におけるビデオパケット702,ビデオパケット703,ビデオパケット704に合わせ、画像フレームの右端に達した場合は1行下の左端に連続してもよい。ここで重要なことは、本処理単位を画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位、即ちスライスやビデオパケットやグループオブブロック(GOB)等の大きさにすることである。これは、一般的にこれらの符号化単位内では同一の符号化条件を用いて符号化するので、画質が均一である。したがって、雑音低減フィルタもこの符号化単位内で頻繁に変動しないことが望ましいため、本処理単位で量子化スケールの状態を求めることとする。   Further, this processing unit is set to the video packet 702, video packet 703, and video packet 704 in the MPEG-4 image frame (VOP) 701 shown in FIG. It may be continuous. What is important here is that this processing unit is an encoding unit composed of two or more macroblocks that can independently decode an image by an image frame, that is, a size of a slice, a video packet, a group of blocks (GOB), or the like. It is to be. In general, encoding is performed using the same encoding condition in these encoding units, so that the image quality is uniform. Therefore, since it is desirable that the noise reduction filter does not fluctuate frequently within this encoding unit, the state of the quantization scale is obtained in this processing unit.

量子化スケール加算部502は、処理単位分割部501で分割した処理単位毎に、可変長復号部101からの出力である予測符号化モード113別に量子化スケールの値を加算する。即ち、各処理単位において予測符号化モード113に従って、イントラ符号化のマクロブロックと非イントラ符号化のマクロブロックについて、それぞれの量子化スケールの値を加算する。また、イントラ符号化のマクロブロック数と非イントラ符号化のマクロブロック数も求めておく。   The quantization scale addition unit 502 adds the quantization scale value for each prediction encoding mode 113 that is an output from the variable length decoding unit 101 for each processing unit divided by the processing unit division unit 501. That is, according to the predictive coding mode 113 in each processing unit, the values of the respective quantization scales are added to the intra-coded macroblock and the non-intracoded macroblock. In addition, the number of intra-coded macro blocks and the number of non-intra-coded macro blocks are also obtained.

量子化スケール平均値算出部503では、量子化スケール加算部502で求めた量子化スケールの値を加算結果からイントラ符号化のマクロブロックと非イントラ符号化のマクロブロックの量子化スケールの平均値を算出する。その値は、量子化スケール平均値116として出力される。   The quantization scale average value calculation unit 503 obtains the quantization scale average value of the intra-coded macroblock and the non-intra-coded macroblock from the addition result of the quantization scale value obtained by the quantization scale adding unit 502. calculate. The value is output as the quantization scale average value 116.

また、処理量軽減の観点から予測符号化モード113によらず、処理単位内で全量子化スケールの平均値を算出してもよい。また、ITU−T勧告H.264、H.263、H.261等における量子化ステップサイズは、本構成例における量子化スケールと同等の扱いが可能である。   Further, from the viewpoint of reducing the processing amount, the average value of all quantization scales may be calculated within the processing unit regardless of the predictive coding mode 113. In addition, ITU-T recommendation H.264. H.264, H.C. 263, H.M. The quantization step size in H.261 or the like can be handled in the same way as the quantization scale in this configuration example.

<フィルタ制御>
フィルタ制御部111は、可変長復号部101とブロック分類部109と量子化パラメータ演算部110に接続されており、フィルタの動作を制御するフィルタ制御手段で構成される。このフィルタ制御手段は、ブロック毎の分類結果とそのブロックが属する画像フレームの所定の処理単位における量子化パラメータの状態に従い、雑音低減フィルタ手段によるフィルタリング、即ち雑音低減フィルタ部112におけるフィルタリングを制御する。
<Filter control>
The filter control unit 111 is connected to the variable length decoding unit 101, the block classification unit 109, and the quantization parameter calculation unit 110, and includes filter control means for controlling the operation of the filter. The filter control means controls filtering by the noise reduction filter means, that is, filtering in the noise reduction filter unit 112, according to the classification result for each block and the state of the quantization parameter in a predetermined processing unit of the image frame to which the block belongs.

フィルタ制御手段は、第一,第二の2つのフィルタ強度、或いは第三も加えた3つのフィルタ強度で雑音低減フィルタ部112を制御することが好ましい。そして、この第一のフィルタ強度は、フィルタ制御手段が、所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき決定するとよい。第二のフィルタ強度及びその第一のフィルタ強度との関係や制御方法については、次に説明する様々な形態(I〜VII)のいずれか、或いはそれらの組み合わせを採用することが好ましい。   The filter control means preferably controls the noise reduction filter unit 112 with the first and second two filter intensities or the three filter intensities including the third. The first filter strength may be determined based on the average value of the quantization scale calculated by the filter control unit for each predetermined processing unit. Regarding the relationship between the second filter strength and the first filter strength and the control method, it is preferable to employ any one of various modes (I to VII) described below or a combination thereof.

[I.非エッジブロック/エッジブロック別の制御a]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御する。
[I. Control by non-edge block / edge block a]
If the classification result for each block is a non-edge block, the filter control means controls the block so that filtering is performed with the first filter strength. When the block classification result is an edge block, a second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength. To control.

[II.非エッジブロック/エッジブロック別の制御b]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御する。
[II. Control by non-edge block / edge block b]
When the classification result for each block is a non-edge block, the filter control means performs control so that only the block boundary pixel of this block is filtered with the first filter strength. In addition, when the block classification result is an edge block, the second filter strength is determined such that filtering stronger than the first filter strength is performed, and all pixels in this block are filtered with the second filter strength. Is controlled to be implemented.

[III.非エッジブロック/テクスチャブロック/有意エッジブロック別の制御]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がテクスチャブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御する。さらに、ブロックの分類結果が有意エッジブロックの場合は、第二のフィルタ強度より強いフィルタリングが実施されるような第三のフィルタ強度を決定し、このブロック内すべての画素が第三のフィルタ強度でフィルタリングが実施されるように制御する。
[III. Control by non-edge block / texture block / significant edge block]
When the classification result for each block is a non-edge block, the filter control means performs control so that only the block boundary pixel of this block is filtered with the first filter strength. If the block classification result is a texture block, the second filter strength is determined such that filtering stronger than the first filter strength is performed, and all pixels in this block are filtered with the second filter strength. Is controlled to be implemented. In addition, if the block classification result is a significant edge block, a third filter strength is determined such that filtering higher than the second filter strength is performed, and all pixels in this block have the third filter strength. Control so that filtering is performed.

[IV.非エッジブロック/エッジブロック別・イントラ/非イントラ別の制御]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御する。さらに、ブロックの予測符号化モードがフレーム内(イントラ)符号化の場合は、非フレーム内(非イントラ)符号化よりも強いフィルタ強度になるように第一のフィルタ強度或いは第二のフィルタ強度を変更してフィルタリングが実施されるように制御する。
[IV. Control by non-edge block / edge block / intra / non-intra]
If the classification result for each block is a non-edge block, the filter control means controls the block so that filtering is performed with the first filter strength. When the block classification result is an edge block, a second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength. To control. Further, when the block predictive coding mode is intra-frame (intra) coding, the first filter strength or the second filter strength is set so that the filter strength is stronger than non-frame (non-intra) coding. Change and control so that filtering is performed.

[V.非エッジブロック/エッジブロック別・B/I/Pピクチャ別の制御]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御する。さらに、ピクチャタイプが双方向予測符号化(Bピクチャ)の場合は、フレーム内符号化(Iピクチャ)及びフレーム間順方向予測符号化(Pピクチャ)よりも強いフィルタ強度になるように第一のフィルタ強度或いは第二のフィルタ強度を変更してフィルタリングが実施されるように制御する。
[V. Control by non-edge block / edge block / B / I / P picture]
If the classification result for each block is a non-edge block, the filter control means controls the block so that filtering is performed with the first filter strength. When the block classification result is an edge block, a second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength. To control. Furthermore, when the picture type is bidirectional predictive coding (B picture), the first filter strength is set to be stronger than in intraframe coding (I picture) and interframe forward predictive coding (P picture). Control is performed so that filtering is performed by changing the filter strength or the second filter strength.

[VI.非エッジブロック/エッジブロック別・フレーム総符号量別の制御]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御する。さらに、各フレームの総符号量に基づき第一のフィルタ強度或いは第二のフィルタ強度を変更してフィルタリングが実施されるように制御する。また、フィルタ制御手段は、フィルタ強度のいずれかを変更するのではなく、第一のフィルタ強度及び第二のフィルタ強度の双方を変更するようにしてもよい。
[VI. Control by non-edge block / edge block / total code amount]
If the classification result for each block is a non-edge block, the filter control means controls the block so that filtering is performed with the first filter strength. When the block classification result is an edge block, a second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength. To control. Further, control is performed such that filtering is performed by changing the first filter strength or the second filter strength based on the total code amount of each frame. Further, the filter control means may change both the first filter strength and the second filter strength instead of changing either of the filter strengths.

[VII.非エッジブロック/エッジブロック別・DCT係数等の符号量別の制御]
フィルタ制御手段は、ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるように制御する。また、ブロックの分類結果がエッジブロックの場合は、第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御する。さらに、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて、第一のフィルタ強度或いは第二のフィルタ強度を変更してフィルタリングが実施されるように制御する。また、フィルタ制御手段は、フィルタ強度のいずれかを変更するのではなく、第一のフィルタ強度及び第二のフィルタ強度の双方を変更するようにしてもよい。
[VII. Control by non-edge block / edge block / code amount such as DCT coefficient]
If the classification result for each block is a non-edge block, the filter control means controls the block so that filtering is performed with the first filter strength. When the block classification result is an edge block, a second filter strength is determined such that filtering stronger than the first filter strength is performed, and filtering is performed on the block with the second filter strength. To control. Furthermore, based on the ratio of the DCT coefficient code amount, motion vector code amount, and other code amount in each frame, control is performed so that filtering is performed by changing the first filter strength or the second filter strength. . Further, the filter control means may change both the first filter strength and the second filter strength instead of changing either of the filter strengths.

以下、上述したI〜VIIの形態を組み合わせた例を挙げて説明するが、個々の形態についての詳細はその説明を流用すれば理解可能である。この形態におけるフィルタ制御部111は、ブロック分類結果114,量子化スケール平均値116,予測符号化モード113,ピクチャタイプ117に基づきフィルタ強度を決定し、ブロック毎のフィルタリングを制御する。   Hereinafter, although the example which combined the form of I-VII mentioned above is given and demonstrated, the detail about each form is understandable if the description is diverted. The filter control unit 111 in this embodiment determines the filter strength based on the block classification result 114, the quantization scale average value 116, the predictive coding mode 113, and the picture type 117, and controls filtering for each block.

図8は、図1の画像復号装置におけるフィルタ制御部によりブロック毎のフィルタ強度を決定する処理の流れを説明するためのフロー図で、図9は、図8の処理において決定される、量子化スケール平均値とフィルタ強度の関係を示した図である。図8を参照した説明において、特に説明がない場合はブロック単位での処理を意味するものとする。また、図9において、901,902はフィルタ強度ラインの例を示している。   8 is a flowchart for explaining the flow of processing for determining the filter strength for each block by the filter control unit in the image decoding apparatus of FIG. 1, and FIG. 9 is a quantization determined in the processing of FIG. It is the figure which showed the relationship between a scale average value and filter strength. In the description with reference to FIG. 8, if there is no particular description, it means processing in units of blocks. In FIG. 9, reference numerals 901 and 902 denote examples of filter strength lines.

フィルタ制御部111は、まず、フィルタ対象のブロックが非イントラ符号化か否かを判定する(ステップS1)。ここでの判定処理は、予測符号化モード113を基に判定し、非イントラ符号化の場合には処理がステップS2に進み、そうでない場合には処理がステップS3に進む。   The filter control unit 111 first determines whether the block to be filtered is non-intra coding (step S1). The determination process here is determined based on the predictive coding mode 113. If non-intra coding, the process proceeds to step S2, and if not, the process proceeds to step S3.

ステップS2では、非イントラ符号化の場合のフィルタ強度を決定する。図9で示す、量子化スケール平均値116とフィルタ強度の関係では、量子化スケール平均値が大きくなるほどフィルタ強度が強くなっているのが分かる。これを基に量子化スケール平均値116に対するフィルタ強度を、非イントラ符号化のフィルタ強度ライン901から求める。   In step S2, the filter strength for non-intra coding is determined. In the relationship between the quantization scale average value 116 and the filter strength shown in FIG. 9, it can be seen that the filter strength increases as the quantization scale average value increases. Based on this, the filter strength for the quantization scale average value 116 is obtained from the filter strength line 901 for non-intra coding.

ステップS3では、イントラ符号化の場合のフィルタ強度を決定する。この場合は、図9に示すイントラ符号化のフィルタ強度ライン902を基に、フィルタ強度を求める。これは、イントラ符号化の場合は非イントラ符号化よりも一般的に高圧縮が施され画質が劣化するので、非イントラ符号化と同じ量子化スケール平均値でも強いフィルタが実施されるように設定しておく。なお、フィルタ強度ライン901及びフィルタ強度ライン902は、直線でなく曲線であってもよく、また、適当なオフセットをもたせてもよい。   In step S3, the filter strength in the case of intra coding is determined. In this case, the filter strength is obtained based on the intra-encoded filter strength line 902 shown in FIG. This is because, in the case of intra coding, generally higher compression is applied and image quality deteriorates than in non-intra coding, so that a strong filter is executed even with the same quantization scale average value as in non-intra coding. Keep it. Note that the filter intensity line 901 and the filter intensity line 902 may be curved instead of a straight line, and may have an appropriate offset.

ステップS2,S3に続いて、フィルタ制御部111は、フィルタ対象のブロックが非エッジブロックか否かを判定する(ステップS4)。ここでの判定処理は、ブロック分類結果114を基に判定し、非エッジブロックの場合には処理がステップS8に進み、そうでない場合には処理がステップS5に進む。   Subsequent to steps S2 and S3, the filter control unit 111 determines whether or not the block to be filtered is a non-edge block (step S4). The determination process here is based on the block classification result 114. If it is a non-edge block, the process proceeds to step S8, and if not, the process proceeds to step S5.

ステップS5は、フィルタ対象のブロックがテクスチャブロックか否かの判定処理である。ここでの判定処理は、ブロック分類結果114を基に判定し、テクスチャブロックの場合には処理がステップS6に進み、そうでない場合には処理がステップS7に進む。   Step S5 is a process for determining whether or not the block to be filtered is a texture block. The determination process here is determined based on the block classification result 114. If it is a texture block, the process proceeds to step S6, and if not, the process proceeds to step S7.

ステップS6では、テクスチャブロックの場合のフィルタ強度を決定する。ここでは、ステップS2或いはステップS3で決定したフィルタ強度に対し、所定の値α(α>0)を加算して新たなフィルタ強度とする。このようにすることで、非エッジブロックよりも強いフィルタリングが実施されるようにする。これは、テクスチャ部分とはいえモスキート雑音が非エッジ部分よりも多く発生する可能性があり、効果的に雑音を低減するためである。   In step S6, the filter strength for the texture block is determined. Here, a predetermined value α (α> 0) is added to the filter strength determined in step S2 or step S3 to obtain a new filter strength. By doing in this way, filtering stronger than a non-edge block is implemented. This is because mosquito noise may occur more in the texture portion than in the non-edge portion, and the noise is effectively reduced.

ステップS7では、有意エッジブロックの場合のフィルタ強度を決定する。ここでは、ステップS2或いはステップS3で決定したフィルタ強度に対し、β>αの関係をもつ所定の値β(β>0)を加算して新たなフィルタ強度とする。このようにすることで、非エッジブロック及びテクスチャブロックよりも強いフィルタリングが実施されるようにする。これは、明確なエッジをもつ部分には多くのモスキート雑音が発生する可能性があり、より効果的に雑音を低減するためである。   In step S7, the filter strength for the significant edge block is determined. Here, a predetermined value β (β> 0) having a relationship of β> α is added to the filter strength determined in step S2 or step S3 to obtain a new filter strength. By doing so, filtering stronger than non-edge blocks and texture blocks is performed. This is because a lot of mosquito noise may occur in a portion having a clear edge, and the noise is more effectively reduced.

ステップS8は、フィルタ対象のブロックのピクチャタイプがBピクチャか否かの判定処理である。ここでの判定処理は、ピクチャタイプ117を基に判定し、Bピクチャの場合には処理がステップS9に進み、そうでない場合には処理がステップS10に進む。   Step S8 is processing for determining whether or not the picture type of the block to be filtered is a B picture. The determination process here is based on the picture type 117. If it is a B picture, the process proceeds to step S9. If not, the process proceeds to step S10.

ステップS9では、フィルタ対象ブロックがBピクチャに属する場合のフィルタ強度を決定する。ここでは、ステップS8までの処理によって決定したフィルタ強度に対し、所定の値γ(γ>0)を加算して新たなフィルタ強度とする。このようにすることで、Iピクチャ及びPピクチャよりも、一般的に高圧縮され画質が劣化するBピクチャに対して強いフィルタリングを実施し、効果的に雑音を低減するようにする。   In step S9, the filter strength when the filter target block belongs to the B picture is determined. Here, a predetermined value γ (γ> 0) is added to the filter strength determined by the processing up to step S8 to obtain a new filter strength. By doing so, stronger filtering is performed on a B picture, which is generally highly compressed and deteriorated in image quality, compared to an I picture and a P picture, and noise is effectively reduced.

ステップS10では、ステップS9までの処理で得られたフィルタ強度とブロック分類結果をフィルタパラメータ118として、雑音低減フィルタ部112に出力して処理を終了する。   In step S10, the filter strength and the block classification result obtained in the processes up to step S9 are output to the noise reduction filter unit 112 as the filter parameters 118, and the process ends.

<雑音低減フィルタ>
雑音低減フィルタ部112は、加算器104と前述のフィルタ制御部111に接続されており、フィルタ制御部111による制御に基づいて、復号画像にフィルタを施し雑音を低減する手段で構成される。この手段は、ブロック毎に符号化された画像フレームを復号し、復号画像に発生する雑音を低減する雑音低減フィルタ手段であればよいが、前述のフィルタ制御手段によってその制御がなされる。
<Noise reduction filter>
The noise reduction filter unit 112 is connected to the adder 104 and the above-described filter control unit 111, and includes a unit that filters the decoded image to reduce noise based on the control by the filter control unit 111. This means may be any noise reduction filter means that decodes an image frame encoded for each block and reduces noise generated in the decoded image, and is controlled by the above-described filter control means.

また、この雑音低減フィルタ手段は、復号画像のブロックひずみを低減するブロックひずみ低減手段と、復号画像のモスキート雑音を低減するモスキート雑音低減手段とを有することが好ましい。   The noise reduction filter means preferably includes block distortion reduction means for reducing block distortion of a decoded image and mosquito noise reduction means for reducing mosquito noise of the decoded image.

図10及び図11は、図1の画像復号装置における雑音低減フィルタ部の動作を説明するための図で、図10はエッジブロック及び非エッジブロックにおけるフィルタリングの対象となる画素を説明するための図、図11は雑音低減フィルタの例を説明するための図である。図10(A)において1001はエッジブロック(テクスチャブロック及び有意エッジブロック)の例を示し、図10(B)において1002は非エッジブロックの例を示し、図11において1101は雑音低減フィルタの例としての非線形フィルタの例を示している。また、図10では、エッジブロック及び非エッジブロックにおけるフィルタリングの対象となる画素とならない画素とを示すため、●でフィルタリング対象画素を、○で非フィルタリング対象画素を示している。   10 and 11 are diagrams for explaining the operation of the noise reduction filter unit in the image decoding apparatus of FIG. 1, and FIG. 10 is a diagram for explaining pixels to be filtered in edge blocks and non-edge blocks. FIG. 11 is a diagram for explaining an example of the noise reduction filter. 10A shows an example of an edge block (texture block and significant edge block), FIG. 10B shows an example of a non-edge block, and 1101 shows an example of a noise reduction filter in FIG. An example of the non-linear filter is shown. Further, in FIG. 10, in order to indicate the pixels that are not the filtering target pixels in the edge block and the non-edge block, the filtering target pixel is indicated by ●, and the non-filtering target pixel is indicated by ○.

雑音低減フィルタ部112では、加算器104からの出力である復号画像に対し、フィルタ制御部111で決定したフィルタパラメータ118を基に、雑音を低減するためのフィルタリングを実施する。   The noise reduction filter unit 112 performs filtering for reducing noise on the decoded image output from the adder 104 based on the filter parameter 118 determined by the filter control unit 111.

図10で●で例示するようなフィルタリング対象画素に対してのみ、フィルタパラメータ118のフィルタ強度で雑音低減フィルタが実施される。非フィルタリング対象画素にはフィルタリングを行わず、そのままの値を出力する。具体的な動作は、次のとおりである。   The noise reduction filter is executed only with the filter intensity of the filter parameter 118 only for the pixel to be filtered as exemplified by ● in FIG. A non-filtering target pixel is not subjected to filtering, and the value is output as it is. The specific operation is as follows.

図10(A)で例示したように、フィルタパラメータ118がエッジブロック(テクスチャブロック及び有意エッジブロック)の場合、モスキート雑音を低減するためにブロック内の全画素に対して、フィルタパラメータ118のフィルタ強度に従いフィルタリングを実施する。一方、図10(B)で例示したように、フィルタパラメータ118が非エッジブロックの場合、ブロックひずみを低減するためにブロック内の境界画素に対して、フィルタパラメータ118のフィルタ強度に従いフィルタリングを実施する。したがって、エッジブロックと非エッジブロック毎にそれぞれの雑音に適したフィルタリングが実施されるので、無駄なフィルタリングを防止しつつモスキート雑音とブロックひずみの双方の雑音が低減できる。   As illustrated in FIG. 10A, when the filter parameter 118 is an edge block (texture block and significant edge block), the filter strength of the filter parameter 118 is applied to all pixels in the block in order to reduce mosquito noise. Perform filtering according to On the other hand, as illustrated in FIG. 10B, when the filter parameter 118 is a non-edge block, filtering is performed on the boundary pixels in the block according to the filter strength of the filter parameter 118 in order to reduce block distortion. . Therefore, since filtering suitable for each noise is performed for each edge block and non-edge block, both mosquito noise and block distortion noise can be reduced while preventing unnecessary filtering.

また、本構成例では、雑音低減フィルタとして非線形フィルタを用いる。これは、図11に示すようにフィルタリング対象画素を注目画素Xi,jとして、それを中心とした3×3画素のウィンドウを設定し、下式(4)により出力画素Yi,jを得て、Xi,jと置き換える。ここで、εはフィルタパラメータ118のフィルタ強度である。   In this configuration example, a nonlinear filter is used as the noise reduction filter. As shown in FIG. 11, a pixel to be filtered is set as a pixel of interest Xi, j, a 3 × 3 pixel window is set around the pixel, and an output pixel Yi, j is obtained by the following equation (4). Replace with Xi, j. Here, ε is the filter strength of the filter parameter 118.

Figure 2006032999
Figure 2006032999

上述のごとき処理により、フィルタパラメータ118に基づき復号画像の適応的なフィルタリングが可能となる。復号画像はエッジの状態等により適切に雑音が低減されており、これを雑音低減フィルタ部112の出力とする。   Through the processing as described above, adaptive filtering of the decoded image can be performed based on the filter parameter 118. The decoded image is appropriately reduced in noise depending on the edge state and the like, and this is used as the output of the noise reduction filter unit 112.

なお、本実施例では、式(4)のような非線形フィルタを用いたが、メディアンフィルタや平滑化フィルタなど、従来提案されている様々な手法が使用可能である。したがって、ここでは特に限定しない。   In the present embodiment, a nonlinear filter such as Expression (4) is used, but various conventionally proposed methods such as a median filter and a smoothing filter can be used. Therefore, there is no particular limitation here.

以上、本発明の各実施形態について説明したが、本発明に係る画像復号装置及び画像復号方法は、上述した各実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々の変更を加えうることは勿論である。   The embodiments of the present invention have been described above. However, the image decoding apparatus and the image decoding method according to the present invention are not limited to the above-described embodiments, and are within the scope not departing from the gist of the present invention. Of course, various changes can be made.

本発明の一実施形態に係る画像復号装置の一構成例のブロック図である。It is a block diagram of the example of 1 structure of the image decoding apparatus which concerns on one Embodiment of this invention. 図1の画像復号装置におけるエッジ抽出部の構成例を説明するための図である。It is a figure for demonstrating the structural example of the edge extraction part in the image decoding apparatus of FIG. 図2のエッジ抽出部における微分処理部での微分処理を説明するための図である。It is a figure for demonstrating the differentiation process in the differentiation process part in the edge extraction part of FIG. 図1の画像復号装置におけるブロック分類部で分類される、有意エッジブロックとテクスチャブロックとを説明するための図である。It is a figure for demonstrating the significant edge block and texture block classified by the block classification | category part in the image decoding apparatus of FIG. 図1の画像復号装置における量子化パラメータ演算部の構成例を説明するための図である。It is a figure for demonstrating the structural example of the quantization parameter calculating part in the image decoding apparatus of FIG. 図5の量子化パラメータ演算部における処理単位の分割を説明するための図である。It is a figure for demonstrating the division | segmentation of the processing unit in the quantization parameter calculating part of FIG. 図5の量子化パラメータ演算部における処理単位の分割、特にMPEG−4のビデオパケットに係る処理単位の分割を説明するための図である。FIG. 6 is a diagram for explaining division of a processing unit in the quantization parameter calculation unit of FIG. 5, particularly division of a processing unit related to an MPEG-4 video packet. 図1の画像復号装置におけるフィルタ制御部によりブロック毎のフィルタ強度を決定する処理の流れを説明するためのフロー図である。It is a flowchart for demonstrating the flow of the process which determines the filter strength for every block by the filter control part in the image decoding apparatus of FIG. 図8の処理において決定される、量子化スケール平均値とフィルタ強度の関係を示した図である。It is the figure which showed the relationship between the quantization scale average value and filter strength which are determined in the process of FIG. 図1の画像復号装置における雑音低減フィルタ部の動作を説明するための図で、エッジブロック及び非エッジブロックにおけるフィルタリングの対象となる画素を説明するための図である。It is a figure for demonstrating operation | movement of the noise reduction filter part in the image decoding apparatus of FIG. 1, and is a figure for demonstrating the pixel used as the object of filtering in an edge block and a non-edge block. 図1の画像復号装置における雑音低減フィルタ部の動作を説明するための図で、雑音低減フィルタの例を説明するための図である。It is a figure for demonstrating the operation | movement of the noise reduction filter part in the image decoding apparatus of FIG. 1, and is a figure for demonstrating the example of a noise reduction filter. 従来技術による画像復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image decoding apparatus by a prior art.

符号の説明Explanation of symbols

101…可変長復号部、102…逆量子化部、103…逆直交変換部、104…加算器、105…フレームメモリ部、106…動き補償予測部、107…スイッチ、108…エッジ抽出部、109…ブロック分類部、110…量子化パラメータ演算部、111…フィルタ制御部、112…雑音低減フィルタ部、113…予測符号化モード、114…ブロック分類結果、115…量子化スケール、116…量子化スケール平均値、117…ピクチャタイプ、118…フィルタパラメータ、201…微分処理部、202…エッジ判定部、501…処理単位分割部、502…量子化スケール加算部、503…量子化スケール平均値算出部。 DESCRIPTION OF SYMBOLS 101 ... Variable length decoding part, 102 ... Inverse quantization part, 103 ... Inverse orthogonal transformation part, 104 ... Adder, 105 ... Frame memory part, 106 ... Motion compensation prediction part, 107 ... Switch, 108 ... Edge extraction part, 109 ... Block classification unit, 110 ... Quantization parameter calculation unit, 111 ... Filter control unit, 112 ... Noise reduction filter unit, 113 ... Predictive coding mode, 114 ... Block classification result, 115 ... Quantization scale, 116 ... Quantization scale Average value, 117... Picture type, 118... Filter parameter, 201 .. differentiation processing unit, 202... Edge determination unit, 501 .. processing unit division unit, 502 .. quantization scale addition unit, 503.

Claims (36)

ブロック毎に符号化された画像フレームを復号し、復号画像に発生する雑音を低減する雑音低減フィルタ手段と、前記復号画像からエッジを抽出するエッジ抽出手段と、該エッジ抽出手段で抽出したエッジの状態によりブロックを分類するブロック分類手段と、画像フレームを所定の処理単位に分割し、その処理単位において前記ブロックの符号化データの量子化パラメータに対して所定の演算を実施して、各処理単位における量子化パラメータの状態を算出する量子化パラメータ演算手段と、前記ブロック毎の分類結果とそのブロックが属する前記画像フレームの所定の処理単位における量子化パラメータの状態に従い前記雑音低減フィルタ手段によるフィルタリングを制御するフィルタ制御手段とを備えることを特徴とする画像復号装置。   A noise reduction filter unit that decodes an image frame encoded for each block and reduces noise generated in the decoded image, an edge extraction unit that extracts an edge from the decoded image, and an edge extracted by the edge extraction unit Block classification means for classifying blocks according to the state, and dividing the image frame into predetermined processing units, performing predetermined operations on the quantization parameters of the encoded data of the blocks in the processing units, and each processing unit A quantization parameter calculation means for calculating a quantization parameter state in the filtering unit, and filtering by the noise reduction filter means according to a classification result for each block and a quantization parameter state in a predetermined processing unit of the image frame to which the block belongs. An image decoding apparatus comprising: a filter control means for controlling 前記雑音低減フィルタ手段は、前記復号画像のブロックひずみを低減するブロックひずみ低減手段と、前記復号画像のモスキート雑音を低減するモスキート雑音低減手段とを有することを特徴とする請求項1に記載の画像復号装置。   2. The image according to claim 1, wherein the noise reduction filter means includes block distortion reduction means for reducing block distortion of the decoded image and mosquito noise reduction means for reducing mosquito noise of the decoded image. Decoding device. 前記エッジ抽出手段は、前記復号画像を微分処理する微分処理手段と、該微分処理手段の出力に基づき復号画像のエッジ部分を判定するエッジ判定手段とを有することを特徴とする請求項1又は2に記載の画像復号装置。   3. The edge extraction means comprises: differentiation processing means for differentiating the decoded image; and edge determination means for determining an edge portion of the decoded image based on an output of the differentiation processing means. The image decoding apparatus described in 1. 前記エッジ判定手段は、前記微分処理手段の出力を所定のしきい値と比較し、画素毎にエッジと非エッジとを判定することを特徴とする請求項3に記載の画像復号装置。   4. The image decoding apparatus according to claim 3, wherein the edge determination unit compares the output of the differentiation processing unit with a predetermined threshold value and determines an edge and a non-edge for each pixel. 前記ブロック分類手段は、エッジと判定された画素を前記ブロック毎に数える計数手段を有し、エッジ画素数が所定のしきい値以上の場合に、ブロックをエッジブロックと分類し、所定のしきい値より小さい場合には、ブロックを非エッジブロックと分類することを特徴とする請求項1乃至4のいずれか1項に記載の画像復号装置。   The block classification means includes a counting means for counting pixels determined to be edges for each block, and when the number of edge pixels is equal to or greater than a predetermined threshold, the block is classified as an edge block, and has a predetermined threshold. The image decoding device according to claim 1, wherein when the value is smaller than the value, the block is classified as a non-edge block. 前記ブロック分類手段は、エッジブロックと分類されたブロックに対し、エッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点を数え、変化点数が所定のしきい値以上の場合に、そのブロックをテクスチャブロックと分類し、所定のしきい値より小さい場合には、そのブロックを有意エッジブロックと分類することを特徴とする請求項1乃至5のいずれか1項に記載の画像復号装置。   The block classification means counts the change point of the edge pixel from the edge pixel to the non-edge pixel and the non-edge pixel to the edge pixel with respect to the block classified as the edge block. 6. The image decoding device according to claim 1, wherein the block is classified as a texture block, and if the block is smaller than a predetermined threshold, the block is classified as a significant edge block. 前記量子化パラメータ演算手段は、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロック毎の量子化スケールを加算して量子化スケールの平均値を算出し、これを各処理単位における量子化パラメータの状態とすることを特徴とする請求項1乃至6のいずれか1項に記載の画像復号装置。   The quantization parameter calculation means calculates a mean value of the quantization scale by adding a quantization scale for each block within a processing unit obtained by dividing an image frame into strips composed of a plurality of blocks. The image decoding apparatus according to any one of claims 1 to 6, wherein this is set as a state of a quantization parameter in each processing unit. 前記量子化パラメータ演算手段は、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロックの予測符号化モード別に、ブロック毎の量子化スケールを加算してフレーム内符号化と非フレーム内符号化で別々に量子化スケールの平均値を算出して、これを各処理単位におけるフレーム内符号化と非フレーム内符号化の量子化パラメータの状態とすることを特徴とする請求項1乃至6のいずれか1項に記載の画像復号装置。   The quantization parameter calculation means uses a unit obtained by dividing an image frame in a band composed of a plurality of blocks as a processing unit, and adds a quantization scale for each block for each prediction coding mode of the block within the processing unit. The average value of the quantization scale is calculated separately for intra-frame coding and non-frame coding, and this is set as the state of quantization parameters for intra-frame coding and non-frame coding in each processing unit. The image decoding apparatus according to claim 1, wherein the image decoding apparatus is characterized in that 前記処理単位は、画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位とし、スライス、或いはビデオパケット、或いはグループオブブロックとすることを特徴とする請求項1乃至8のいずれか1項に記載の画像復号装置。   9. The processing unit is a coding unit composed of two or more macroblocks that can independently decode an image in an image frame, and is a slice, a video packet, or a group of blocks. The image decoding device according to any one of the above. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The image decoding apparatus according to claim 1, wherein the image decoding apparatus determines and controls the block so that filtering is performed with the second filter strength. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, Only the block boundary pixels of this block are filtered with the first filter strength, and when the block classification result is an edge block, the filtering that is stronger than the first filter strength is performed. The image decoding according to any one of claims 1 to 9, wherein a second filter strength is determined and control is performed so that all pixels in the block are filtered with the second filter strength. apparatus. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がテクスチャブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果が有意エッジブロックの場合は、前記第二のフィルタ強度より強いフィルタリングが実施されるような第三のフィルタ強度を決定し、このブロック内すべての画素が第三のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, Only the block boundary pixels of this block are filtered with the first filter strength, and when the block classification result is a texture block, the filtering that is stronger than the first filter strength is performed. A second filter strength is determined so that all pixels in this block are filtered with the second filter strength, and if the block classification result is a significant edge block, it is stronger than the second filter strength. Determine the third filter strength at which filtering will be performed, and all pixels in this block will The image decoding apparatus according to any one of claims 1 to 9 filtered by the filter strength and controls as implemented. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ブロックの予測符号化モードがフレーム内符号化の場合は、非フレーム内符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is filtered with the second filter strength, and if the prediction coding mode of the block is intraframe coding, the filter strength is higher than that of non-frame coding. Control the filtering to be performed by changing the first filter strength or the second filter strength. The image decoding apparatus according to any one of claims 1 to 9, symptom. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ピクチャタイプが双方向予測符号化の場合はフレーム内符号化及びフレーム間順方向予測符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is filtered with the second filter strength, and if the picture type is bi-directional predictive coding, the filter strength is stronger than intra-frame coding and inter-frame forward predictive coding. As described above, filtering is performed by changing the first filter strength or the second filter strength. The image decoding apparatus according to any one of claims 1 to 9, characterized in that Gosuru. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. And filtering is performed by changing the first filter strength or the second filter strength based on the total code amount of each frame. The image decoding device according to claim 1, wherein the image decoding device is controlled so as to perform the control. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. And the filtering is performed by changing the first filter strength and the second filter strength based on the total code amount of each frame. The image decoding device according to claim 1, wherein the image decoding device is controlled so as to perform the control. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is subjected to filtering with the second filter strength, and the first filter strength based on the ratio of the DCT coefficient code amount, the motion vector code amount, and the other code amount in each frame, Alternatively, control is performed such that filtering is performed by changing the second filter strength. The image decoding apparatus according to any one of Itaru 9. 前記フィルタ制御手段は、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項1乃至9のいずれか1項に記載の画像復号装置。   The filter control means determines the first filter strength based on the average value of the quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is subjected to filtering with the second filter strength, and the first filter strength based on the ratio of the DCT coefficient code amount, the motion vector code amount, and the other code amount in each frame, And controlling to change the second filter strength so that filtering is performed. The image decoding apparatus according to any one of 9. ブロック毎に符号化された画像フレームを復号し、復号画像に発生する雑音を低減する雑音低減フィルタステップと、前記復号画像からエッジを抽出するエッジ抽出ステップと、該エッジ抽出ステップで抽出したエッジの状態によりブロックを分類するブロック分類ステップと、画像フレームを所定の処理単位に分割し、その処理単位において前記ブロックの符号化データの量子化パラメータに対して所定の演算を実施して、各処理単位における量子化パラメータの状態を算出する量子化パラメータ演算ステップと、前記ブロック毎の分類結果とそのブロックが属する前記画像フレームの所定の処理単位における量子化パラメータの状態に従い前記雑音低減フィルタステップによるフィルタリングを制御するフィルタ制御ステップとを含んでなることを特徴とする画像復号方法。   A noise reduction filter step for decoding an image frame encoded for each block and reducing noise generated in the decoded image; an edge extraction step for extracting an edge from the decoded image; and an edge extracted in the edge extraction step A block classification step for classifying the blocks according to the state, and dividing the image frame into predetermined processing units, and performing a predetermined operation on the quantization parameter of the encoded data of the block in the processing units, A quantization parameter calculation step for calculating a quantization parameter state in step (b), filtering by the noise reduction filter step according to a classification result for each block and a quantization parameter state in a predetermined processing unit of the image frame to which the block belongs Including a filter control step to control Image decoding method comprising Rukoto. 前記雑音低減フィルタステップは、前記復号画像のブロックひずみを低減するブロックひずみ低減ステップと、前記復号画像のモスキート雑音を低減するモスキート雑音低減ステップとを有することを特徴とする請求項19に記載の画像復号方法。   The image according to claim 19, wherein the noise reduction filter step includes a block distortion reduction step of reducing block distortion of the decoded image, and a mosquito noise reduction step of reducing mosquito noise of the decoded image. Decryption method. 前記エッジ抽出ステップは、前記復号画像を微分処理する微分処理ステップと、該微分処理ステップの出力に基づき復号画像のエッジ部分を判定するエッジ判定ステップとを有することを特徴とする請求項19又は20に記載の画像復号方法。   21. The edge extraction step includes a differentiation processing step for differentiating the decoded image, and an edge determination step for determining an edge portion of the decoded image based on an output of the differentiation processing step. The image decoding method described in 1. 前記エッジ判定ステップは、前記微分処理ステップの出力を所定のしきい値と比較し、画素毎にエッジと非エッジとを判定することを特徴とする請求項21に記載の画像復号方法。   The image decoding method according to claim 21, wherein the edge determination step compares an output of the differentiation processing step with a predetermined threshold value and determines an edge and a non-edge for each pixel. 前記ブロック分類ステップは、エッジと判定された画素を前記ブロック毎に数える計数ステップを有し、エッジ画素数が所定のしきい値以上の場合に、ブロックをエッジブロックと分類し、所定のしきい値より小さい場合には、ブロックを非エッジブロックと分類することを特徴とする請求項19乃至22のいずれか1項に記載の画像復号方法。   The block classification step includes a counting step of counting pixels determined to be edges for each block, and when the number of edge pixels is equal to or greater than a predetermined threshold, the block is classified as an edge block, and a predetermined threshold is set. The image decoding method according to any one of claims 19 to 22, wherein if the value is smaller than the value, the block is classified as a non-edge block. 前記ブロック分類ステップは、エッジブロックと分類されたブロックに対し、エッジ画素から非エッジ画素、及び非エッジ画素からエッジ画素の変化点を数え、変化点数が所定のしきい値以上の場合に、そのブロックをテクスチャブロックと分類し、所定のしきい値より小さい場合には、そのブロックを有意エッジブロックと分類することを特徴とする請求項19乃至23のいずれか1項に記載の画像復号方法。   The block classification step counts change points of edge pixels to non-edge pixels and non-edge pixels to edge pixels for blocks classified as edge blocks, and when the number of change points is equal to or greater than a predetermined threshold, The image decoding method according to any one of claims 19 to 23, wherein a block is classified as a texture block, and if the block is smaller than a predetermined threshold, the block is classified as a significant edge block. 前記量子化パラメータ演算ステップは、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロック毎の量子化スケールを加算して量子化スケールの平均値を算出し、これを各処理単位における量子化パラメータの状態とすることを特徴とする請求項19乃至24のいずれか1項に記載の画像復号方法。   In the quantization parameter calculation step, a processing unit is obtained by dividing an image frame into strips composed of a plurality of blocks, and an average value of the quantization scale is calculated by adding the quantization scale for each block within the processing unit. The image decoding method according to any one of claims 19 to 24, wherein the state is a quantization parameter state in each processing unit. 前記量子化パラメータ演算ステップは、画像フレームを複数のブロックで構成する帯状に分割したものを処理単位とし、その処理単位内でブロックの予測符号化モード別に、ブロック毎の量子化スケールを加算してフレーム内符号化と非フレーム内符号化で別々に量子化スケールの平均値を算出して、これを各処理単位におけるフレーム内符号化と非フレーム内符号化の量子化パラメータの状態とすることを特徴とする請求項19乃至24のいずれか1項に記載の画像復号方法。   In the quantization parameter calculation step, an image frame is divided into strips composed of a plurality of blocks as a processing unit, and a quantization scale for each block is added for each prediction encoding mode of the block within the processing unit. The average value of the quantization scale is calculated separately for intra-frame coding and non-frame coding, and this is set as the state of quantization parameters for intra-frame coding and non-frame coding in each processing unit. 25. The image decoding method according to any one of claims 19 to 24, wherein: 前記処理単位は、画像フレームで独立に画像を復号できる2つ以上のマクロブロックで構成する符号化単位とし、スライス、或いはビデオパケット、或いはグループオブブロックとすることを特徴とする請求項19乃至26のいずれか1項に記載の画像復号方法。   27. The processing unit is a coding unit composed of two or more macroblocks capable of independently decoding an image in an image frame, and is a slice, a video packet, or a group of blocks. The image decoding method according to any one of the above. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The image decoding method according to any one of claims 19 to 27, wherein the determination is performed and the block is controlled so as to be filtered with the second filter strength. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, Only the block boundary pixels of this block are filtered with the first filter strength, and when the block classification result is an edge block, the filtering that is stronger than the first filter strength is performed. 28. Image decoding according to any one of claims 19 to 27, characterized in that a second filter strength is determined and all pixels in the block are controlled to be filtered with the second filter strength. Method. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックのブロック境界画素のみが第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がテクスチャブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロック内すべての画素が第二のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果が有意エッジブロックの場合は、前記第二のフィルタ強度より強いフィルタリングが実施されるような第三のフィルタ強度を決定し、このブロック内すべての画素が第三のフィルタ強度でフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, Only the block boundary pixels of this block are filtered with the first filter strength, and when the block classification result is a texture block, the filtering that is stronger than the first filter strength is performed. A second filter strength is determined so that all pixels in this block are filtered with the second filter strength, and if the block classification result is a significant edge block, it is stronger than the second filter strength. Determine the third filter strength at which filtering will be performed and all pixels in this block will Image decoding method according to any one of claims 19 to 27 and controls so that filtering is performed in three of the filter strength. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ブロックの予測符号化モードがフレーム内符号化の場合は、非フレーム内符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is filtered with the second filter strength, and if the prediction coding mode of the block is intraframe coding, the filter strength is higher than that of non-frame coding. Change the first filter strength or the second filter strength to control the filtering. Image decoding method according to any one of claims 19 to 27, characterized in. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、ピクチャタイプが双方向予測符号化の場合はフレーム内符号化及びフレーム間順方向予測符号化よりも強いフィルタ強度になるように前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is filtered with the second filter strength, and if the picture type is bi-directional predictive coding, the filter strength is stronger than intra-frame coding and inter-frame forward predictive coding. As described above, filtering is performed by changing the first filter strength or the second filter strength. Image decoding method according to any one of claims 19 to 27 and controlling the. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. And filtering is performed by changing the first filter strength or the second filter strength based on the total code amount of each frame. The image decoding method according to any one of claims 19 to 27, wherein control is performed so that 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームの総符号量に基づき前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. And the filtering is performed by changing the first filter strength and the second filter strength based on the total code amount of each frame. The image decoding method according to any one of claims 19 to 27, wherein control is performed so that 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、或いは前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is subjected to filtering with the second filter strength, and the first filter strength based on the ratio of the DCT coefficient code amount, the motion vector code amount, and the other code amount in each frame, Alternatively, control is performed so that filtering is performed by changing the second filter strength. Image decoding method according to any one of 19 to 27. 前記フィルタ制御ステップは、前記所定の処理単位毎に算出された量子化スケールの平均値の大きさに基づき第一のフィルタ強度を決定し、前記ブロック毎の分類結果が非エッジブロックの場合は、このブロックを第一のフィルタ強度でフィルタリングが実施されるようにし、前記ブロックの分類結果がエッジブロックの場合は、前記第一のフィルタ強度より強いフィルタリングが実施されるような第二のフィルタ強度を決定し、このブロックを第二のフィルタ強度でフィルタリングが実施されるようにし、各フレームにおけるDCT係数符号量、動きベクトル符号量、それ以外の符号量の割合に基づいて前記第一のフィルタ強度、及び前記第二のフィルタ強度を変更してフィルタリングが実施されるように制御することを特徴とする請求項19乃至27のいずれか1項に記載の画像復号方法。   The filter control step determines a first filter strength based on an average value of a quantization scale calculated for each predetermined processing unit, and when the classification result for each block is a non-edge block, This block is filtered with the first filter strength, and when the block classification result is an edge block, the second filter strength is set such that filtering stronger than the first filter strength is performed. The block is subjected to filtering with the second filter strength, and the first filter strength based on the ratio of the DCT coefficient code amount, the motion vector code amount, and the other code amount in each frame, And controlling to change the second filter strength so that filtering is performed. Image decoding method according to any one of 9 to 27.
JP2004204097A 2004-07-12 2004-07-12 Image decoding device and image decoding method Pending JP2006032999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004204097A JP2006032999A (en) 2004-07-12 2004-07-12 Image decoding device and image decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004204097A JP2006032999A (en) 2004-07-12 2004-07-12 Image decoding device and image decoding method

Publications (1)

Publication Number Publication Date
JP2006032999A true JP2006032999A (en) 2006-02-02

Family

ID=35898884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004204097A Pending JP2006032999A (en) 2004-07-12 2004-07-12 Image decoding device and image decoding method

Country Status (1)

Country Link
JP (1) JP2006032999A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028489A (en) * 2005-07-21 2007-02-01 Noritsu Koki Co Ltd Image processing apparatus and image processing program
JP2010239333A (en) * 2009-03-31 2010-10-21 Hitachi Ltd Compressed image noise removing device, and reproducing device
JP2010258760A (en) * 2009-04-24 2010-11-11 Sharp Corp Video display device, and operation method of video display device
WO2011083713A1 (en) * 2010-01-06 2011-07-14 ソニー株式会社 Device and method for processing image
JP2011223338A (en) * 2010-04-09 2011-11-04 Sony Corp Image processing device and method
WO2012008602A1 (en) * 2010-07-16 2012-01-19 シャープ株式会社 Video processing device, video processing method, video processing program, and memory medium
JP2012227572A (en) * 2011-04-14 2012-11-15 Kyocera Document Solutions Inc Image processor and image forming device
CN103141106A (en) * 2010-09-30 2013-06-05 三菱电机株式会社 Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
JP2013522956A (en) * 2010-03-09 2013-06-13 トムソン ライセンシング Method and apparatus for classification-based loop filter
JPWO2011158657A1 (en) * 2010-06-17 2013-08-19 シャープ株式会社 Image filter device, decoding device, encoding device, and data structure
KR101457398B1 (en) * 2011-06-28 2014-11-04 삼성전자주식회사 Method and apparatus for video encoding with adjusting offsets based on pixel classification, method and apparatus for video decoding with adjusting offsets based on pixel classification
KR101547041B1 (en) 2011-01-12 2015-08-24 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, and image decoding method
CN110891177A (en) * 2018-09-07 2020-03-17 腾讯科技(深圳)有限公司 Denoising processing method, device and machine equipment in video denoising and video transcoding
CN111200734A (en) * 2018-11-19 2020-05-26 浙江宇视科技有限公司 Video coding method and device

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028489A (en) * 2005-07-21 2007-02-01 Noritsu Koki Co Ltd Image processing apparatus and image processing program
JP2010239333A (en) * 2009-03-31 2010-10-21 Hitachi Ltd Compressed image noise removing device, and reproducing device
JP2010258760A (en) * 2009-04-24 2010-11-11 Sharp Corp Video display device, and operation method of video display device
WO2011083713A1 (en) * 2010-01-06 2011-07-14 ソニー株式会社 Device and method for processing image
JP2011142423A (en) * 2010-01-06 2011-07-21 Sony Corp Image processing apparatus and method
JP2013522956A (en) * 2010-03-09 2013-06-13 トムソン ライセンシング Method and apparatus for classification-based loop filter
CN102884790A (en) * 2010-04-09 2013-01-16 索尼公司 Image processing device and method
US8923642B2 (en) 2010-04-09 2014-12-30 Sony Corporation Image processing device and method
JP2011223338A (en) * 2010-04-09 2011-11-04 Sony Corp Image processing device and method
JP2017085674A (en) * 2010-06-17 2017-05-18 シャープ株式会社 Image filter device, decoder, encoder and data structure
JPWO2011158657A1 (en) * 2010-06-17 2013-08-19 シャープ株式会社 Image filter device, decoding device, encoding device, and data structure
JP2012023683A (en) * 2010-07-16 2012-02-02 Sharp Corp Video processor, video processing method, video processing program and memory medium
WO2012008602A1 (en) * 2010-07-16 2012-01-19 シャープ株式会社 Video processing device, video processing method, video processing program, and memory medium
US8737465B2 (en) 2010-07-16 2014-05-27 Sharp Kabushiki Kaisha Video processing device, video processing method, video processing program, and storage medium
CN105744274B (en) * 2010-09-30 2019-02-01 三菱电机株式会社 Dynamic image encoding device and method, moving image decoding apparatus and method
TWI566588B (en) * 2010-09-30 2017-01-11 三菱電機股份有限公司 Image encoding device, image decoding device, image encoding method, image decoding method and data structure
JP5503747B2 (en) * 2010-09-30 2014-05-28 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
US10291939B2 (en) 2010-09-30 2019-05-14 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US10244264B2 (en) 2010-09-30 2019-03-26 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US10244233B2 (en) 2010-09-30 2019-03-26 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US10237551B2 (en) 2010-09-30 2019-03-19 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
CN105516723A (en) * 2010-09-30 2016-04-20 三菱电机株式会社 Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
CN105744274A (en) * 2010-09-30 2016-07-06 三菱电机株式会社 Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US10237550B2 (en) 2010-09-30 2019-03-19 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
CN105516723B (en) * 2010-09-30 2018-07-27 三菱电机株式会社 Dynamic image encoding device and method, moving image decoding apparatus and method
CN103141106A (en) * 2010-09-30 2013-06-05 三菱电机株式会社 Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
KR20160087925A (en) * 2011-01-12 2016-07-22 미쓰비시덴키 가부시키가이샤 Recording medium
KR101547041B1 (en) 2011-01-12 2015-08-24 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, and image decoding method
KR101609490B1 (en) 2011-01-12 2016-04-05 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, and image decoding method
KR20160038081A (en) * 2011-01-12 2016-04-06 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, image decoding method and recording medium
KR101678351B1 (en) 2011-01-12 2016-11-21 미쓰비시덴키 가부시키가이샤 Recording medium
KR20160038082A (en) * 2011-01-12 2016-04-06 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, image decoding method and recording medium
KR101643528B1 (en) 2011-01-12 2016-07-27 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, image decoding method and recording medium
KR101643121B1 (en) 2011-01-12 2016-07-26 미쓰비시덴키 가부시키가이샤 Image encoding device, image decoding device, image encoding method, image decoding method and recording medium
JP2012227572A (en) * 2011-04-14 2012-11-15 Kyocera Document Solutions Inc Image processor and image forming device
KR101457398B1 (en) * 2011-06-28 2014-11-04 삼성전자주식회사 Method and apparatus for video encoding with adjusting offsets based on pixel classification, method and apparatus for video decoding with adjusting offsets based on pixel classification
US10038911B2 (en) 2011-06-28 2018-07-31 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9426482B2 (en) 2011-06-28 2016-08-23 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9426483B2 (en) 2011-06-28 2016-08-23 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9462288B2 (en) 2011-06-28 2016-10-04 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9438921B2 (en) 2011-06-28 2016-09-06 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9438922B2 (en) 2011-06-28 2016-09-06 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US10542273B2 (en) 2011-06-28 2020-01-21 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
CN110891177A (en) * 2018-09-07 2020-03-17 腾讯科技(深圳)有限公司 Denoising processing method, device and machine equipment in video denoising and video transcoding
CN110891177B (en) * 2018-09-07 2023-03-21 腾讯科技(深圳)有限公司 Denoising processing method, device and machine equipment in video denoising and video transcoding
CN111200734A (en) * 2018-11-19 2020-05-26 浙江宇视科技有限公司 Video coding method and device
CN111200734B (en) * 2018-11-19 2022-03-11 浙江宇视科技有限公司 Video coding method and device
US11838507B2 (en) 2018-11-19 2023-12-05 Zhejiang Uniview Technologies Co., Ltd. Video encoding method and apparatus, electronic device, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP5174958B2 (en) Method and system for simultaneous optimization of video coder and decoder
US8311097B2 (en) Image processing method for adaptive spatial-temporal resolution frame
JP5413191B2 (en) Moving picture encoding method and apparatus, and moving picture decoding apparatus
CN100373950C (en) Adaptive de-blocking filtering apparatus and method for MPEG video decoder
TWI555342B (en) Method of removing deblocking artifacts
US8577168B2 (en) System and method for in-loop deblocking in scalable video coding
KR101441175B1 (en) Method and apparatus for banding artifact detection
KR100335055B1 (en) Method of removal block effect and ringing effect of compressed video signal
JP2006519565A (en) Video encoding
JP2007536828A (en) Image enhancement method and apparatus for low bit rate video compression
EP1500197A2 (en) Chroma deblocking filter
WO2006041305A1 (en) Deblocking filter
JP2006032999A (en) Image decoding device and image decoding method
WO2005122588A1 (en) Method for chroma deblocking
KR101223780B1 (en) Compressed image noise removal device and reproduction device
JP4277530B2 (en) Image processing apparatus and encoding apparatus and methods thereof
KR101247024B1 (en) Method of motion estimation and compensation using in-loop preprocessing filtering
JP3710464B2 (en) Filter device
KR100885441B1 (en) Filtering method for block boundary region
KR20060091436A (en) The method for filtering a residual signal to improve performance in the standard coding mode of motion picture
JP2010068538A (en) Image-decoding method and image-decoding device
KR100687845B1 (en) Filtering method for pixel of image
Choi et al. Simple and efficient deblocking algorithm for H. 264/AVC decoder
KR100917207B1 (en) Filtering method for block boundary region
JP2006157084A (en) Image coding apparatus, image coding method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060912

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090623