JP5627507B2 - Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program - Google Patents

Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program Download PDF

Info

Publication number
JP5627507B2
JP5627507B2 JP2011039287A JP2011039287A JP5627507B2 JP 5627507 B2 JP5627507 B2 JP 5627507B2 JP 2011039287 A JP2011039287 A JP 2011039287A JP 2011039287 A JP2011039287 A JP 2011039287A JP 5627507 B2 JP5627507 B2 JP 5627507B2
Authority
JP
Japan
Prior art keywords
types
adaptive filter
image
regions
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011039287A
Other languages
Japanese (ja)
Other versions
JP2012161063A (en
Inventor
知伸 吉野
知伸 吉野
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011039287A priority Critical patent/JP5627507B2/en
Publication of JP2012161063A publication Critical patent/JP2012161063A/en
Application granted granted Critical
Publication of JP5627507B2 publication Critical patent/JP5627507B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラムに関する。   The present invention relates to a video encoding device, a video decoding device, a video encoding method, a video decoding method, and a program.

従来、映像圧縮符号化処理において、符号化済み画像に対してフィルタ処理を行うことで、画質を改善する手法が提案されている(例えば、非特許文献1、2、3参照)。   Conventionally, in video compression encoding processing, a technique for improving image quality by performing filter processing on an encoded image has been proposed (for example, see Non-Patent Documents 1, 2, and 3).

非特許文献1には、映像圧縮符号化の標準規格が示されている。この規格では、圧縮符号化により生じるブロック境界の劣化を低減するフィルタ処理を適用することが可能である。   Non-Patent Document 1 discloses a standard for video compression coding. In this standard, it is possible to apply a filter process that reduces deterioration of block boundaries caused by compression encoding.

非特許文献2には、符号化劣化を復元するフィルタを、フレームごとに適応的に更新する手法が示されている。この手法では、画面全体を対象として、フィルタ係数が算出される。   Non-Patent Document 2 discloses a method of adaptively updating a filter for restoring coding degradation for each frame. In this method, filter coefficients are calculated for the entire screen.

非特許文献3には、符号化劣化を復元するフィルタについて、画面を予め定められた2つの固定矩形の領域に分割し、領域ごとに適応的にフィルタ係数を算出する手法が示されている。   Non-Patent Document 3 discloses a technique of dividing a screen into two predetermined fixed rectangular areas and adaptively calculating filter coefficients for each area for a filter that restores encoding degradation.

Joint Video Team(JVT) of ISO/IEC MPEG and ITU-T VCEG, "Text of ISO/IEC 14496-10 Advanced Video Coding," July 2004.Joint Video Team (JVT) of ISO / IEC MPEG and ITU-T VCEG, "Text of ISO / IEC 14496-10 Advanced Video Coding," July 2004. D.-H. Kim, H.-Y. Oh, O. Urhan, S. Erturk and T.-G. Chang, "Optimal Post-Process/In-Loop Filtering for Improved Video Compression Performance," IEEE Trans. on Consumer Electronics, Vol.53, No.4, 2007.D.-H. Kim, H.-Y. Oh, O. Urhan, S. Erturk and T.-G. Chang, "Optimal Post-Process / In-Loop Filtering for Improved Video Compression Performance," IEEE Trans. Consumer Electronics, Vol.53, No.4, 2007. I. Lim, D. Park and C. Kim, "A Loop Filter with Segmentation Mode in Video Coding," ICIP, pp.2073-2076, 2010.I. Lim, D. Park and C. Kim, "A Loop Filter with Segmentation Mode in Video Coding," ICIP, pp. 2073-2076, 2010.

ところが、非特許文献1に示されている規格では、ブロック境界のみにしか上述のフィルタ処理を適用しないため、フィルタ処理による画質改善の効果を十分に得ることは困難であった。   However, in the standard shown in Non-Patent Document 1, since the above-described filter processing is applied only to the block boundary, it is difficult to obtain a sufficient image quality improvement effect by the filter processing.

また、非特許文献2に示されている手法では、画面全体に対して適応的なフィルタ処理が行われる。このため、フィルタ処理で用いられるフィルタ係数は、画面全体に対して平均的に適しているに過ぎず、局所的な最適性には乏しいため、フィルタ処理による画質改善の効果は限定的であった。   In the method disclosed in Non-Patent Document 2, adaptive filter processing is performed on the entire screen. For this reason, the filter coefficients used in the filter process are only suitable for the entire screen on average, and the local optimum is poor, so the effect of improving the image quality by the filter process was limited. .

また、非特許文献3に示されている手法では、分割した領域ごとに適応的なフィルタ処理が行われる。ところが、領域の形状が予め定められた2つの矩形で固定されているため、フィルタの適応性が絵柄に十分には追従できない場合があった。そこで、領域の数を増加することが考えられるが、この場合、処理量が著しく増加してしまうという問題があった。   In the method disclosed in Non-Patent Document 3, adaptive filter processing is performed for each divided region. However, since the shape of the region is fixed by two predetermined rectangles, the adaptability of the filter may not sufficiently follow the pattern. Therefore, it is conceivable to increase the number of areas. In this case, however, there is a problem that the processing amount is remarkably increased.

そこで、本発明は、上述の課題に鑑みてなされたものであり、圧縮符号化性能を改善できる動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described problems, and provides a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, and a program that can improve compression encoding performance. The purpose is to provide.

本発明は、上記の課題を解決するために、以下の事項を提案している。   The present invention proposes the following matters in order to solve the above problems.

(1) 本発明は、符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化装置(例えば、図1の動画像符号化装置AAや後述の動画像符号化装置CCに相当)であって、符号化する画像(例えば、図1の原画像aに相当)の特徴量に基づいて、当該画像を複数種類(例えば、後述のN種類に相当)の領域に分割する特徴量解析手段(例えば、図2の特徴量解析部5や図5の特徴量解析部5Aに相当)と、前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求めるフィルタ係数算出手段(例えば、図1のフィルタ係数算出部6に相当)と、前記複数種類の領域のそれぞれごとに、前記フィルタ係数算出手段により求められた適応フィルタ係数を用いて、局所復号画像(例えば、図1のローカルデコード画像iに相当)に対してフィルタ処理を行う適応フィルタ処理手段(例えば、図1の適応フィルタ処理部7に相当)と、前記フィルタ係数算出手段により求められた全ての適応フィルタ係数(例えば、図1のN種類の適応フィルタ係数jに相当)と、当該全ての適応フィルタ係数のうち前記適応フィルタ処理手段で用いられたものを前記領域ごとに示すフィルタ適用情報(例えば、後述のフィルタ適用情報に相当)と、を含む符号化データ(例えば、図1の符号化データcに相当)を生成する符号化データ生成手段(例えば、図1のエントロピー符号化部4に相当)と、を備えることを特徴とする動画像符号化装置を提案している。   (1) The present invention allows a moving image coding apparatus (for example, a moving image coding apparatus AA in FIG. 1 or a later-described moving picture coding apparatus that permits adaptive filter processing and controls filter processing for each filter processing unit block in the coding process. A video encoding device CC), and based on the feature quantity of the image to be encoded (for example, corresponding to the original image a in FIG. 1), the image is classified into a plurality of types (for example, N types described later). ) For the feature quantity analyzing means (e.g., equivalent to the feature quantity analysis unit 5 in FIG. 2 or the feature quantity analysis unit 5A in FIG. 5) and adaptive filter coefficients for each of the plurality of types of areas. Using the filter coefficient calculation means to be obtained (for example, equivalent to the filter coefficient calculation unit 6 in FIG. 1) and the adaptive filter coefficients obtained by the filter coefficient calculation means for each of the plurality of types of regions, Adaptive filter processing means (for example, equivalent to the adaptive filter processing section 7 in FIG. 1) for performing filter processing on (for example, equivalent to the local decoded image i in FIG. 1), and all of the filter coefficient calculation means obtained by the filter coefficient calculation means Filter application information (e.g., corresponding to N types of adaptive filter coefficients j in FIG. 1) and filter application information (for each region) that is used by the adaptive filter processing means among all the adaptive filter coefficients. For example, the encoded data generating means (for example, the entropy encoding unit 4 in FIG. 1) generates encoded data (for example, corresponding to the encoded data c in FIG. 1). A video encoding apparatus characterized by comprising:

この発明によれば、符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化装置に、特徴量解析手段、フィルタ係数算出手段、適応フィルタ処理手段、および符号化データ生成手段を設けた。そして、特徴量解析手段により、符号化する画像の特徴量に基づいて画像を複数種類の領域に分割し、フィルタ係数算出手段により、複数種類の領域のそれぞれに対して適応フィルタ係数を求めることとした。また、適応フィルタ処理手段により、複数種類の領域のそれぞれごとに、フィルタ係数算出手段により求められた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行うこととした。また、符号化データ生成手段により、フィルタ係数算出手段により求められた全ての適応フィルタ係数と、これら全ての適応フィルタ係数のうち適応フィルタ処理手段で用いられたものを領域ごとに示すフィルタ適用情報と、を含む符号化データを生成することとした。   According to the present invention, in a moving image encoding apparatus that allows adaptive filter processing and controls filter processing for each filter processing unit block in encoding processing, a feature amount analyzing unit, a filter coefficient calculating unit, an adaptive filter processing unit And an encoded data generating means. Then, the feature amount analysis means divides the image into a plurality of types of regions based on the feature amount of the image to be encoded, and the filter coefficient calculation means obtains adaptive filter coefficients for each of the plurality of types of regions. did. Further, the adaptive filter processing means performs the filtering process on the locally decoded image using the adaptive filter coefficient obtained by the filter coefficient calculation means for each of the plurality of types of regions. Further, all the adaptive filter coefficients obtained by the filter coefficient calculating means by the encoded data generating means, and filter application information indicating, for each region, those used by the adaptive filter processing means among all the adaptive filter coefficients; The encoded data including is generated.

このため、(1)の動画像符号化装置は、符号化する画像の特徴量に基づいて、画像を複数種類の領域に分割し、領域ごとに適応フィルタ係数を求めることができる。したがって、絵柄に応じて画像を分割し、絵柄に適した適応フィルタ係数を分割した領域ごとに求めることができる。よって、処理量の増加を抑制しつつ絵柄に追従できる適応フィルタ係数を求めることができ、圧縮符号化性能を改善することができる。   For this reason, the moving image encoding apparatus of (1) can divide an image into a plurality of types of regions based on the feature amount of the image to be encoded, and obtain an adaptive filter coefficient for each region. Therefore, it is possible to divide the image according to the design and obtain the adaptive filter coefficient suitable for the design for each divided region. Therefore, an adaptive filter coefficient that can follow the pattern while suppressing an increase in the processing amount can be obtained, and the compression encoding performance can be improved.

(2) 本発明は、(1)の動画像符号化装置について、前記特徴量解析手段は、符号化する画像(例えば、図1の原画像aに相当)を、予め定められた複数(例えば、後述のM個に相当)の領域に分割し、前記複数の領域のそれぞれについて、特徴解析により特徴量を求め、前記特徴量を複数種類(例えば、後述のN種類に相当)に分類し、同一種類に分類した特徴量に対応する領域同士を、同一種類の領域として分類し、分類した複数種類の領域に、前記画像を分割することを特徴とする動画像符号化装置を提案している。   (2) In the moving image encoding apparatus according to (1), the feature amount analyzing unit generates a plurality of predetermined images (for example, corresponding to the original image a in FIG. 1) to be encoded (for example, , Each of the plurality of regions is obtained by feature analysis, and the feature amount is classified into a plurality of types (for example, equivalent to N types described later), Proposing a moving picture coding apparatus characterized by classifying areas corresponding to feature quantities classified into the same type as areas of the same type and dividing the image into a plurality of types of classified areas. .

この発明によれば、特徴量解析手段により、符号化する画像を、予め定められた複数の領域に分割し、複数の領域のそれぞれについて、特徴解析により特徴量を求め、特徴量を複数種類に分類することとした。そして、同一種類に分類した特徴量に対応する領域同士を、同一種類の領域として分類し、分類した複数種類の領域に、画像を分割することとした。   According to the present invention, the feature amount analyzing means divides the image to be encoded into a plurality of predetermined regions, the feature amount is obtained by feature analysis for each of the plurality of regions, and the feature amounts are classified into a plurality of types. It was decided to classify. Then, the regions corresponding to the feature quantities classified into the same type are classified as the same type of region, and the image is divided into a plurality of classified regions.

このため、(2)の動画像符号化装置は、符号化する画像を、特徴量に基づいて複数種類の領域に分割することができる。   For this reason, the moving image encoding apparatus of (2) can divide the image to be encoded into a plurality of types of regions based on the feature amount.

(3) 本発明は、(2)の動画像符号化装置について、前記特徴量解析手段は、前記予め定められた複数(例えば、後述のM個に相当)の領域のそれぞれごとに、前記特徴量としてエッジ強度を求めるエッジ強度算出手段(例えば、図2のエッジ強度算出部51に相当)と、前記エッジ強度算出手段により求められたエッジ強度を、複数種類の閾値(例えば、後述の(N−1)種類の閾値に相当)を用いて複数種類(例えば、後述のN種類に相当)に分類するエッジ強度閾値処理手段(例えば、図2のエッジ強度閾値処理部52に相当)と、前記エッジ強度分類手段による分類結果に基づいて、前記画像を複数種類(例えば、後述のN種類に相当)に分類するエッジ強度ベース分割領域生成手段(例えば、図2のエッジ強度ベース分割領域生成部53に相当)と、を備えることを特徴とする動画像符号化装置を提案している。   (3) The present invention relates to the moving picture encoding apparatus according to (2), wherein the feature amount analyzing means performs the feature for each of the plurality of predetermined regions (for example, corresponding to M described later). Edge strength calculating means for obtaining edge strength as a quantity (for example, equivalent to the edge strength calculating section 51 in FIG. 2), and edge strength obtained by the edge strength calculating means are represented by a plurality of threshold values (for example, (N -1) edge strength threshold processing means (e.g., equivalent to the edge strength threshold processing unit 52 in FIG. 2) that classifies into a plurality of types (e.g., equivalent to N types described later) using Edge strength base divided region generating means (for example, edge strength base divided region in FIG. 2) for classifying the image into a plurality of types (for example, equivalent to N types described later) based on the classification result by the edge strength classifying unit. And equivalent) to the generating section 53, have proposed a moving picture coding apparatus comprising: a.

この発明によれば、特徴量解析手段に、エッジ強度算出手段、エッジ強度閾値処理手段、およびエッジ強度ベース分割領域生成手段を設けた。そして、エッジ強度算出手段により、予め定められた複数の領域のそれぞれごとに、特徴量としてエッジ強度を求めることとした。また、エッジ強度閾値処理手段により、エッジ強度算出手段により求められたエッジ強度を、複数種類の閾値を用いて複数種類に分類することとした。また、エッジ強度ベース分割領域生成手段により、エッジ強度分類手段による分類結果に基づいて、画像を複数種類に分類することとした。   According to the present invention, the feature amount analyzing means is provided with edge strength calculating means, edge strength threshold processing means, and edge strength base divided region generating means. Then, the edge strength is calculated as a feature amount for each of a plurality of predetermined regions by the edge strength calculation means. Also, the edge strength threshold processing means classifies the edge strength obtained by the edge strength calculation means into a plurality of types using a plurality of types of threshold values. In addition, the image is classified into a plurality of types based on the classification result by the edge strength classification unit by the edge strength base divided region generation unit.

このため、(3)の動画像符号化装置は、特徴量としてエッジ強度を用いて、符号化する画像を複数種類の領域に分割することができる。   For this reason, the moving image encoding apparatus of (3) can divide the image to be encoded into a plurality of types of regions using the edge intensity as the feature amount.

(4) 本発明は、(2)の動画像符号化装置について、前記特徴量解析手段は、前記予め定められた複数(例えば、後述のM個に相当)の領域のそれぞれごとに、前記特徴量として画素値の複雑さを求める複雑度合い算出手段(例えば、図5の複雑度合い算出部54に相当)と、前記複雑度合い算出手段により求められた画素値の複雑さを、複数種類の閾値(例えば、後述の(N−1)種類の閾値に相当)を用いて複数種類(例えば、後述のN種類に相当)に分類する複雑度合い閾値処理手段(例えば、図5の複雑度合い閾値処理部55に相当)と、前記複雑度合い閾値処理手段による分類結果に基づいて、前記画像を複数種類(例えば、後述のN種類に相当)に分類する複雑度合いベース分割領域生成手段(例えば、図5の複雑度合いベース分割領域生成部56に相当)と、を備えることを特徴とする動画像符号化装置を提案している。   (4) In the moving image encoding apparatus according to (2), the feature amount analyzing unit may include the feature for each of the plurality of predetermined regions (for example, corresponding to M described later). Complexity calculation means for obtaining the complexity of pixel values as quantities (for example, equivalent to the complexity degree calculation unit 54 in FIG. 5), and the complexity of pixel values obtained by the complexity degree calculation means are represented by a plurality of threshold values ( For example, complexity level threshold processing means (for example, complexity level threshold processing unit 55 in FIG. 5) classifies into a plurality of types (for example, corresponding to N types described later) using (N-1) threshold levels described later). And a degree-of-complexity-based divided region generation means (for example, the complexity shown in FIG. 5) that classifies the image into a plurality of types (for example, equivalent to N types described later) based on the classification result by the complexity level threshold processing means. Degree Proposes a video encoding device, characterized in that it comprises a corresponding) to scan the divided area generator 56.

この発明によれば、特徴量解析手段に、複雑度合い算出手段、複雑度合い閾値処理手段、および複雑度合いベース分割領域生成手段を設けた。そして、複雑度合い算出手段により、予め定められた複数の領域のそれぞれごとに、特徴量として画素値の複雑さを求めることとした。また、複雑度合い閾値処理手段により、複雑度合い算出手段により求められた画素値の複雑さを、複数種類の閾値を用いて複数種類に分類することとした。また、複雑度合いベース分割領域生成手段により、複雑度合い閾値処理手段による分類結果に基づいて、画像を複数種類に分類することとした。   According to this invention, the feature amount analyzing means is provided with a complexity degree calculating means, a complexity degree threshold processing means, and a complexity degree base divided region generating means. Then, the complexity of the pixel value is obtained as a feature amount for each of a plurality of predetermined regions by the complexity degree calculation means. Further, the complexity degree threshold value processing means classifies the complexity of the pixel values obtained by the complexity degree calculation means into a plurality of types using a plurality of types of threshold values. Further, the image is classified into a plurality of types based on the classification result by the complexity degree threshold processing means by the complexity degree based divided region generating means.

このため、(4)の動画像符号化装置は、特徴量として画素値の複雑さを用いて、符号化する画像を複数種類の領域に分割することができる。   For this reason, the moving image encoding apparatus of (4) can divide the image to be encoded into a plurality of types of regions using the complexity of the pixel value as the feature amount.

(5) 本発明は、(2)の動画像符号化装置について、前記特徴量解析手段は、前記予め定められた複数(例えば、後述のM個に相当)の領域のそれぞれごとに、前記特徴量としてエッジ方向を求めるエッジ方向算出手段(例えば、図6のエッジ方向算出部57に相当)と、前記エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値(例えば、後述の(N−1)種類の閾値に相当)を用いて複数種類(例えば、後述のN種類に相当)に分類するエッジ方向閾値処理手段(例えば、図6のエッジ方向閾値処理部58に相当)と、前記エッジ方向閾値処理手段による分類結果に基づいて、前記画像を複数種類(例えば、後述のN種類に相当)に分類するエッジ方向ベース分割領域生成手段(例えば、図6のエッジ方向ベース分割領域生成部59に相当)と、を備えることを特徴とする動画像符号化装置を提案している。   (5) The present invention relates to the moving picture encoding apparatus according to (2), wherein the feature amount analyzing unit performs the feature for each of the plurality of predetermined regions (for example, equivalent to M described later). Edge direction calculation means for obtaining the edge direction as a quantity (for example, equivalent to the edge direction calculation unit 57 in FIG. 6) and the edge direction obtained by the edge direction calculation means are represented by a plurality of threshold values (for example, (N -1) edge direction threshold processing means (e.g., equivalent to the edge direction threshold processing unit 58 in FIG. 6) that classifies into a plurality of types (e.g., equivalent to N types described later) using Edge direction base divided region generating means (for example, edge direction base divided in FIG. 6) for classifying the image into a plurality of types (for example, equivalent to N types described later) based on the classification result by the edge direction threshold processing means. Have proposed that corresponds to the frequency generator 59), the moving picture coding apparatus comprising: a.

この発明によれば、特徴量解析手段に、エッジ方向算出手段、エッジ方向閾値処理手段、およびエッジ方向ベース分割領域生成手段を設けた。そして、エッジ方向算出手段により、予め定められた複数の領域のそれぞれごとに、特徴量としてエッジ方向を求めることとした。また、エッジ方向閾値処理手段により、エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類することとした。また、エッジ方向ベース分割領域生成手段により、エッジ方向閾値処理手段による分類結果に基づいて、画像を複数種類に分類することとした。   According to the present invention, the feature quantity analyzing means includes an edge direction calculating means, an edge direction threshold processing means, and an edge direction base divided region generating means. Then, the edge direction is calculated as the feature amount for each of a plurality of predetermined regions by the edge direction calculating means. Further, the edge direction threshold processing means classifies the edge direction obtained by the edge direction calculation means into a plurality of types using a plurality of types of threshold values. Further, the edge direction base divided region generating means classifies the images into a plurality of types based on the classification result by the edge direction threshold processing means.

このため、(5)の動画像符号化装置は、特徴量としてエッジ方向を用いて、符号化する画像を複数種類の領域に分割することができる。   For this reason, the moving image encoding apparatus of (5) can divide the image to be encoded into a plurality of types of regions using the edge direction as the feature quantity.

(6) 本発明は、(3)または(4)の動画像符号化装置について、前記特徴量解析手段は、前記予め定められた複数(例えば、後述のM個に相当)の領域のそれぞれごとに、前記特徴量としてエッジ方向を求めるエッジ方向算出手段(例えば、図6のエッジ方向算出部57に相当)と、前記エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値(例えば、後述の(N−1)種類の閾値に相当)を用いて複数種類(例えば、後述のN種類に相当)に分類するエッジ方向閾値処理手段(例えば、図6のエッジ方向閾値処理部58に相当)と、前記エッジ方向閾値処理手段による分類結果に基づいて、前記画像を複数種類(例えば、後述のN種類に相当)に分類するエッジ方向ベース分割領域生成手段(例えば、図6のエッジ方向ベース分割領域生成部59に相当)と、をさらに備えることを特徴とする動画像符号化装置を提案している。   (6) In the moving image encoding device according to (3) or (4), the present invention is characterized in that the feature amount analyzing unit is configured to each of the predetermined plurality of areas (for example, equivalent to M described later). In addition, an edge direction calculation unit (for example, equivalent to the edge direction calculation unit 57 in FIG. 6) that obtains an edge direction as the feature amount, and an edge direction obtained by the edge direction calculation unit are represented by a plurality of threshold values (for example, Edge direction threshold value processing means (e.g., equivalent to the edge direction threshold value processing unit 58 in FIG. 6) that classifies into a plurality of types (e.g., equivalent to N types described below) using (N-1) threshold values described later). ) And edge direction base divided region generating means for classifying the image into a plurality of types (for example, equivalent to N types described later) based on the classification result by the edge direction threshold processing means (for example, the edge direction in FIG. 6). And corresponds to the base divided area generation unit 59), it has proposed a moving picture coding apparatus further comprising a.

この発明によれば、特徴量解析手段にさらに、エッジ方向算出手段、エッジ方向閾値処理手段、およびエッジ方向ベース分割領域生成手段を設けた。そして、エッジ方向算出手段により、予め定められた複数の領域のそれぞれごとに、特徴量としてエッジ方向を求めることとした。また、エッジ方向閾値処理手段により、エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類することとした。また、エッジ方向ベース分割領域生成手段により、エッジ方向閾値処理手段による分類結果に基づいて、画像を複数種類に分類することとした。   According to the present invention, the feature amount analyzing means is further provided with an edge direction calculating means, an edge direction threshold processing means, and an edge direction base divided region generating means. Then, the edge direction is calculated as the feature amount for each of a plurality of predetermined regions by the edge direction calculating means. Further, the edge direction threshold processing means classifies the edge direction obtained by the edge direction calculation means into a plurality of types using a plurality of types of threshold values. Further, the edge direction base divided region generating means classifies the images into a plurality of types based on the classification result by the edge direction threshold processing means.

このため、(6)の動画像符号化装置は、特徴量として、エッジ強度とエッジ方向とを組み合わせて用いたり、画素値の複雑さとエッジ方向とを組み合わせて用いたりすることができる。したがって、エッジ強度と、画素値の複雑さと、エッジ方向と、のいずれか1つを特徴量として用いる場合と比べて、絵柄により適した領域に画像を分割して、絵柄により適した適応フィルタ係数を分割した領域ごとに求めることができる。   For this reason, the moving picture encoding apparatus of (6) can use the edge strength and the edge direction in combination as the feature amount, or can use the complexity of the pixel value and the edge direction in combination. Therefore, compared with the case where any one of the edge strength, the complexity of the pixel value, and the edge direction is used as the feature amount, the image is divided into regions more suitable for the design, and the adaptive filter coefficient more suitable for the design Can be obtained for each divided region.

(7) 本発明は、(1)〜(6)のいずれかの動画像符号化装置について、前記符号化データ生成手段は、各フレームに対する設定値として、当該フレームにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数(例えば、図1のN種類の適応フィルタ係数jに相当)と、当該フレームにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数の種類数(例えば、後述のN種類に相当)と、当該フレームにおける前記フィルタ適用情報と、を含む符号化データ構造の符号化データを生成することを特徴とする動画像符号化装置を提案している。   (7) In the moving image encoding device according to any one of (1) to (6), the encoded data generation unit uses the adaptive filter processing unit in the frame as a set value for each frame. Adaptive filter coefficients (for example, corresponding to N types of adaptive filter coefficients j in FIG. 1) and the number of types of adaptive filter coefficients used by the adaptive filter processing means in the frame (for example, corresponding to N types described later) ) And the filter application information in the frame, a moving image encoding apparatus is proposed that generates encoded data having an encoded data structure.

この発明によれば、符号化データ生成手段は、各フレームに対する設定値として、フレームにおいて適応フィルタ処理手段で用いられた適応フィルタ係数と、フレームにおいて適応フィルタ処理手段で用いられた適応フィルタ係数の種類数と、フレームにおけるフィルタ適用情報と、を含む符号化データ構造の符号化データを生成することとした。   According to the present invention, the encoded data generating means uses, as setting values for each frame, the adaptive filter coefficients used in the adaptive filter processing means in the frame and the types of adaptive filter coefficients used in the adaptive filter processing means in the frame. The encoded data having the encoded data structure including the number and the filter application information in the frame is generated.

このため、(7)の動画像符号化装置は、適用された適応フィルタ係数と、適用された適応フィルタ係数の種類の数と、フィルタ適用情報と、を各フレームに対する設定値として含む符号化データ構造の符号化データを生成することができる。   For this reason, the moving image encoding apparatus according to (7) includes encoded data including the applied adaptive filter coefficients, the number of types of applied adaptive filter coefficients, and filter application information as setting values for each frame. Structured encoded data can be generated.

(8) 本発明は、(1)〜(7)のいずれかの動画像符号化装置について、前記符号化データ生成手段は、前記フィルタ適用情報として、前記複数種類の領域のそれぞれにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数のみを表す識別情報(例えば、後述の各領域におけるフィルタ処理に用いられた適応フィルタ係数のインデックス番号に相当)を用いて、前記符号化データを生成することを特徴とする動画像符号化装置を提案している。   (8) In the moving image encoding device according to any one of (1) to (7), the encoded data generation unit may use the adaptive filter in each of the plurality of types of regions as the filter application information. Generating the encoded data using identification information (for example, corresponding to an index number of an adaptive filter coefficient used for filter processing in each region described later) representing only the adaptive filter coefficient used by the processing means; A featured video encoding device has been proposed.

この発明によれば、符号化データ生成手段は、フィルタ適用情報として、複数種類の領域のそれぞれにおいて適応フィルタ処理手段で用いられた適応フィルタ係数のみを表す識別情報を用いて、符号化データを生成することとした。   According to the present invention, the encoded data generating means generates encoded data using the identification information representing only the adaptive filter coefficients used by the adaptive filter processing means in each of a plurality of types of regions as the filter application information. It was decided to.

このため、(8)の動画像符号化装置は、符号化データに、複数種類の領域のそれぞれにおいて適用された適応フィルタ係数のみを表す識別情報を含めることができる。   For this reason, the moving image encoding device of (8) can include identification information representing only adaptive filter coefficients applied to each of a plurality of types of regions in encoded data.

(9) 本発明は、(1)〜(7)のいずれかの動画像符号化装置について、前記符号化データ生成手段は、前記フィルタ適用情報として、前記フィルタ係数算出手段により求められた全ての適応フィルタ係数のそれぞれごとに前記複数種類の領域のそれぞれにおいて前記適応フィルタ処理手段で用いられたか否かを表す適否フラグ情報(例えば、後述のN種類の適応フィルタ係数jのそれぞれの適否を示すN個の適否フラグ情報に相当)を用いて、前記符号化データを生成することを特徴とする動画像符号化装置を提案している。   (9) The present invention provides the moving image encoding device according to any one of (1) to (7), wherein the encoded data generation means includes all the filter coefficient calculation means obtained as the filter application information. Appropriate flag information indicating whether or not each of the plurality of types of regions has been used by the adaptive filter processing means for each of the adaptive filter coefficients (for example, N indicating the suitability of each of N types of adaptive filter coefficients j described later) In other words, a moving picture coding apparatus is proposed that generates the coded data using a corresponding flag information.

この発明によれば、符号化データ生成手段は、フィルタ適用情報として、フィルタ係数算出手段により求められた全ての適応フィルタ係数のそれぞれごとに複数種類の領域のそれぞれにおいて適応フィルタ処理手段で用いられたか否かを表す適否フラグ情報を用いて、符号化データを生成することとした。   According to the present invention, the encoded data generation means is used by the adaptive filter processing means in each of a plurality of types of areas for each of all the adaptive filter coefficients obtained by the filter coefficient calculation means as filter application information. The encoded data is generated using the propriety flag information indicating whether or not.

このため、(9)の動画像符号化装置は、符号化データに、フィルタ係数算出手段により求められた全ての適応フィルタ係数のそれぞれごとに複数種類の領域のそれぞれにおいて適用されたか否かを表す適否フラグ情報を含めることができる。   For this reason, the moving image encoding apparatus of (9) indicates whether or not the encoded data is applied to each of a plurality of types of regions for each of all the adaptive filter coefficients obtained by the filter coefficient calculating means. Suitability flag information can be included.

(10) 本発明は、(1)〜(9)のいずれかの動画像符号化装置において生成された符号化データ(例えば、図1の原画像aに相当)を復号する動画像復号装置について、前記符号化データを復号して、前記フィルタ係数算出手段により求められた全ての適応フィルタ係数と、前記フィルタ適用情報と、を求める復号手段(例えば、図4のエントロピー復号部110に相当)と、前記復号手段により求められた前記全ての適応フィルタ係数および前記フィルタ適用情報に基づいて、復号画像(例えば、図4のフィルタ前復号画像Eに相当)に対してフィルタ処理を行うフィルタ処理手段(例えば、図4のフィルタ処理部112に相当)と、を備えることを特徴とする動画像復号装置を提案している。   (10) The present invention relates to a moving picture decoding apparatus that decodes encoded data (e.g., corresponding to the original picture a in FIG. 1) generated by the moving picture encoding apparatus according to any one of (1) to (9). Decoding means (for example, equivalent to the entropy decoding unit 110 in FIG. 4) that decodes the encoded data and obtains all adaptive filter coefficients obtained by the filter coefficient calculating means and the filter application information; Filter processing means for performing filter processing on a decoded image (for example, equivalent to the pre-filter decoded image E in FIG. 4) based on all the adaptive filter coefficients obtained by the decoding means and the filter application information ( For example, a moving picture decoding apparatus is proposed, which is characterized in that it corresponds to the filter processing unit 112 in FIG.

この発明によれば、動画像復号装置に、復号手段およびフィルタ処理手段を設けた。そして、復号手段により、符号化データを復号して、フィルタ係数算出手段により求められた全ての適応フィルタ係数と、フィルタ適用情報と、を求めることとした。また、フィルタ処理手段により、復号手段により求められた全ての適応フィルタ係数およびフィルタ適用情報に基づいて、復号画像に対してフィルタ処理を行うこととした。   According to the present invention, the moving picture decoding apparatus is provided with the decoding means and the filter processing means. Then, the encoded data is decoded by the decoding means, and all the adaptive filter coefficients obtained by the filter coefficient calculating means and the filter application information are obtained. Further, the filter processing means performs the filter processing on the decoded image based on all the adaptive filter coefficients and the filter application information obtained by the decoding means.

このため、(10)の動画像復号装置は、適応フィルタ処理手段によりフィルタ処理が行われた領域ごとに、同一の適応フィルタ係数を用いて、復号画像に対してフィルタ処理を行うことができる。   For this reason, the moving image decoding apparatus of (10) can perform the filtering process on the decoded image using the same adaptive filter coefficient for each area subjected to the filtering process by the adaptive filter processing unit.

(11) 本発明は、符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化方法であって、符号化する画像(例えば、図1の原画像aに相当)の特徴量に基づいて、当該画像を複数種類(例えば、後述のN種類に相当)の領域に分割する第1のステップ(例えば、図3のステップS1〜S4に相当)と、前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求める第2のステップ(例えば、図3のステップS5に相当)と、前記複数種類の領域のそれぞれごとに、前記第2のステップにおいて求めた適応フィルタ係数を用いて、局所復号画像(例えば、図1のローカルデコード画像iに相当)に対してフィルタ処理を行う第3のステップ(例えば、図3のステップS6に相当)と、前記第2のステップにおいて求めた全ての適応フィルタ係数(例えば、図1のN種類の適応フィルタ係数jに相当)と、当該全ての適応フィルタ係数のうち前記第3のステップにおいて用いたものを前記領域ごとに示すフィルタ適用情報(例えば、後述のフィルタ適用情報に相当)と、を含む符号化データ(例えば、図1の符号化データcに相当)を生成する第4のステップ(例えば、図1のエントロピー符号化部4により符号化データcを生成する手順に相当)と、を備えることを特徴とする動画像符号化方法を提案している。   (11) The present invention is a moving image encoding method that permits adaptive filter processing and controls filter processing for each filter processing unit block in encoding processing, and is an image to be encoded (for example, the original image in FIG. 1). A first step (for example, corresponding to steps S1 to S4 in FIG. 3) that divides the image into a plurality of types (for example, corresponding to N types described later) based on the feature amount of the image a) In each of the plurality of types of regions, a second step (for example, corresponding to step S5 in FIG. 3) for obtaining an adaptive filter coefficient, and each of the plurality of types of regions in the second step A third step (for example, the step of FIG. 3) for performing a filtering process on the locally decoded image (for example, the local decoded image i of FIG. 1) using the obtained adaptive filter coefficient 6), all the adaptive filter coefficients obtained in the second step (for example, equivalent to N types of adaptive filter coefficients j in FIG. 1), and the third step among all the adaptive filter coefficients. And 4th to generate encoded data (for example, equivalent to encoded data c in FIG. 1) including filter application information (for example, equivalent to filter application information to be described later) used for each region. And a step (e.g., corresponding to a procedure for generating encoded data c by the entropy encoding unit 4 in FIG. 1).

この発明によれば、まず、符号化する画像の特徴量に基づいて、画像を複数種類の領域に分割し、複数種類の領域のそれぞれに対して、適応フィルタ係数を求める。次に、複数種類の領域のそれぞれごとに、上述の求めた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う。次に、上述の求めた全ての適応フィルタ係数と、これら全ての適応フィルタ係数のうち上述のフィルタ処理において用いたものを領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する。これによれば、上述した効果と同様の効果を奏することができる。   According to the present invention, first, based on the feature amount of the image to be encoded, the image is divided into a plurality of types of regions, and adaptive filter coefficients are obtained for each of the plurality of types of regions. Next, a filter process is performed on the locally decoded image using the obtained adaptive filter coefficient for each of a plurality of types of regions. Next, encoded data including all the adaptive filter coefficients obtained as described above and filter application information indicating, for each region, the one used in the above-described filter processing among all the adaptive filter coefficients is generated. According to this, an effect similar to the effect mentioned above can be produced.

(12) 本発明は、符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化方法を、コンピュータに実行させるためにプログラムであって、符号化する画像(例えば、図1の原画像aに相当)の特徴量に基づいて、当該画像を複数種類(例えば、後述のN種類に相当)の領域に分割する第1のステップ(例えば、図3のステップS1〜S4に相当)と、前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求める第2のステップ(例えば、図3のステップS5に相当)と、前記複数種類の領域のそれぞれごとに、前記第2のステップにおいて求めた適応フィルタ係数を用いて、局所復号画像(例えば、図1のローカルデコード画像iに相当)に対してフィルタ処理を行う第3のステップ(例えば、図3のステップS6に相当)と、前記第2のステップにおいて求めた全ての適応フィルタ係数(例えば、図1のN種類の適応フィルタ係数jに相当)と、当該全ての適応フィルタ係数のうち前記第3のステップにおいて用いたものを前記領域ごとに示すフィルタ適用情報(例えば、後述のフィルタ適用情報に相当)と、を含む符号化データ(例えば、図1の符号化データcに相当)を生成する第4のステップ(例えば、図1のエントロピー符号化部4により符号化データcを生成する手順に相当)と、をコンピュータに実行させるためのプログラムを提案している。   (12) The present invention is a program for causing a computer to execute a moving image encoding method that allows adaptive filter processing and controls filter processing for each filter processing unit block in encoding processing, A first step (for example, FIG. 3) that divides the image into a plurality of types (for example, N types to be described later) based on the feature amount of the image to be performed (for example, the original image a in FIG. 1). For each of the plurality of types of regions), a second step for obtaining an adaptive filter coefficient (for example, corresponding to step S5 in FIG. 3), and each of the plurality of types of regions. Each time, a filtering process is performed on a locally decoded image (for example, the local decoded image i in FIG. 1) using the adaptive filter coefficient obtained in the second step. A third step to be performed (for example, corresponding to step S6 in FIG. 3), all the adaptive filter coefficients obtained in the second step (for example, corresponding to N types of adaptive filter coefficients j in FIG. 1), and Encoded data (for example, the code shown in FIG. 1) including filter application information (for example, equivalent to filter application information described later) indicating, for each region, all adaptive filter coefficients used in the third step. A program for causing a computer to execute a fourth step (equivalent to a procedure for generating encoded data c by the entropy encoding unit 4 in FIG. 1), Yes.

この発明によれば、プログラムをコンピュータに実行させることで、まず、符号化する画像の特徴量に基づいて、画像を複数種類の領域に分割し、複数種類の領域のそれぞれに対して、適応フィルタ係数を求める。次に、複数種類の領域のそれぞれごとに、上述の求めた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う。次に、上述の求めた全ての適応フィルタ係数と、これら全ての適応フィルタ係数のうち上述のフィルタ処理において用いたものを領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する。これによれば、上述した効果と同様の効果を奏することができる。   According to the present invention, by causing a computer to execute a program, first, an image is divided into a plurality of types of regions based on the feature amount of the image to be encoded, and an adaptive filter is applied to each of the plurality of types of regions. Find the coefficient. Next, a filter process is performed on the locally decoded image using the obtained adaptive filter coefficient for each of a plurality of types of regions. Next, encoded data including all the adaptive filter coefficients obtained as described above and filter application information indicating, for each region, the one used in the above-described filter processing among all the adaptive filter coefficients is generated. According to this, an effect similar to the effect mentioned above can be produced.

本発明によれば、処理量の増加を抑制しつつ絵柄に追従できる適応フィルタ係数を求めることができ、圧縮符号化性能を改善することができる。   ADVANTAGE OF THE INVENTION According to this invention, the adaptive filter coefficient which can follow a design, suppressing the increase in a processing amount can be calculated | required, and compression encoding performance can be improved.

本発明の第1実施形態に係る動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which concerns on 1st Embodiment of this invention. 前記動画像符号化装置が備える特徴量解析部の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value analysis part with which the said moving image encoder is provided. 前記動画像符号化装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the said moving image encoder. 本発明の第1実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る動画像符号化装置が備える特徴量解析部の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value analysis part with which the moving image encoder which concerns on 2nd Embodiment of this invention is provided. 本発明の第3実施形態に係る動画像符号化装置が備える特徴量解析部の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value analysis part with which the moving image encoder which concerns on 3rd Embodiment of this invention is provided.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組合せを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the constituent elements in the following embodiments can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Accordingly, the description of the following embodiments does not limit the contents of the invention described in the claims.

<第1実施形態>
[動画像符号化装置AAの構成]
図1は、本発明の第1実施形態に係る動画像符号化装置AAの構成を示すブロック図である。動画像符号化装置AAは、予測値生成部1、DCT/量子化部2、逆DCT/逆量子化部3、エントロピー符号化部4、特徴量解析部5、フィルタ係数算出部6、適応フィルタ処理部7、およびローカルメモリ8を備え、符号化制御単位(マクロブロック単位)で符号化を行う。
<First Embodiment>
[Configuration of Moving Image Encoding Device AA]
FIG. 1 is a block diagram showing a configuration of a video encoding apparatus AA according to the first embodiment of the present invention. The moving image coding apparatus AA includes a prediction value generation unit 1, a DCT / quantization unit 2, an inverse DCT / inverse quantization unit 3, an entropy coding unit 4, a feature amount analysis unit 5, a filter coefficient calculation unit 6, an adaptive filter A processing unit 7 and a local memory 8 are provided, and encoding is performed in encoding control units (macroblock units).

予測値生成部1は、原画像aと、ローカルメモリ8から供給される符号化済み画像dと、を入力とする。この予測値生成部1は、最も高い符号化性能が期待される予測方法に基づいて、予測値eを生成し、出力する。なお、予測方法としては、例えばイントラ予測やインター予測を用いることができる。   The predicted value generation unit 1 receives the original image a and the encoded image d supplied from the local memory 8 as inputs. The predicted value generation unit 1 generates and outputs a predicted value e based on a prediction method in which the highest encoding performance is expected. As a prediction method, for example, intra prediction or inter prediction can be used.

DCT/量子化部2は、原画像aと予測値eとの差分を入力とする。このDCT/量子化部2は、入力される信号に対してDCT処理および量子化処理を施し、量子化されたDCT係数(残差信号)fとして出力する。   The DCT / quantization unit 2 receives the difference between the original image a and the predicted value e as input. The DCT / quantization unit 2 performs DCT processing and quantization processing on the input signal, and outputs the result as a quantized DCT coefficient (residual signal) f.

逆DCT/逆量子化部3は、量子化されたDCT係数(残差信号)fを入力とする。この逆DCT/逆量子化部3は、入力される信号に対して逆量子化処理および逆DCT処理を施し、逆DCTされた画素信号gとして出力する。   The inverse DCT / inverse quantization unit 3 receives the quantized DCT coefficient (residual signal) f as an input. The inverse DCT / inverse quantization unit 3 performs an inverse quantization process and an inverse DCT process on an input signal, and outputs it as a pixel signal g subjected to inverse DCT.

特徴量解析部5は、原画像aと、制御パラメータbと、を入力とする。制御パラメータbには、領域分割数N(Nは、N≧2を満たす整数)と、(N−1)種類の閾値と、が含まれる。この特徴量解析部5は、図2を用いて後述する構成を備えており、原画像aをN種類の領域に分割する。そして、領域分割数Nと、N種類の領域のそれぞれの形状といった情報を含む領域情報と、を含んで構成される領域分割情報hを出力する。   The feature amount analysis unit 5 receives the original image a and the control parameter b. The control parameter b includes the area division number N (N is an integer satisfying N ≧ 2) and (N−1) types of thresholds. The feature amount analysis unit 5 has a configuration described later with reference to FIG. 2, and divides the original image a into N types of regions. Then, region division information h configured to include the region division number N and region information including information such as the shapes of the N types of regions is output.

図2は、特徴量解析部5の構成を示すブロック図である。特徴量解析部5は、エッジ強度算出部51、エッジ強度閾値処理部52、およびエッジ強度ベース分割領域生成部53を備える。   FIG. 2 is a block diagram illustrating a configuration of the feature amount analysis unit 5. The feature quantity analysis unit 5 includes an edge strength calculation unit 51, an edge strength threshold processing unit 52, and an edge strength base divided region generation unit 53.

エッジ強度算出部51は、原画像aをM個(Mは、M≧Nを満たす整数)の領域に分割し、M個の領域のそれぞれについて、絵柄に関する特徴量として、エッジ強度を算出する。具体的には、M個の領域のそれぞれにおいて、領域内の画素ごとのエッジ強度を算出し、算出したエッジ強度の二乗平均値を算出して、この領域におけるエッジ強度とする。なお、画素ごとのエッジ強度を求める手法としては、例えばSobelフィルタやラプラシアンフィルタを用いる手法を適用することができる。   The edge strength calculation unit 51 divides the original image a into M regions (M is an integer satisfying M ≧ N), and calculates the edge strength as a feature amount for the pattern for each of the M regions. Specifically, in each of the M regions, the edge strength for each pixel in the region is calculated, and the root mean square value of the calculated edge strength is calculated as the edge strength in this region. As a method for obtaining the edge strength for each pixel, for example, a method using a Sobel filter or a Laplacian filter can be applied.

エッジ強度閾値処理部52は、エッジ強度算出部51により算出されたM個の領域のそれぞれにおけるエッジ強度を、(N−1)種類の閾値を用いてN種類に分類する。   The edge strength threshold processing unit 52 classifies the edge strengths in each of the M regions calculated by the edge strength calculation unit 51 into N types using (N−1) types of thresholds.

エッジ強度ベース分割領域生成部53は、エッジ強度閾値処理部52による分類結果に基づいて、同一種類に分類されたエッジ強度に対応する領域同士を、同一種類の領域として分類する。これによれば、エッジ強度閾値処理部52による分類結果に基づいて、原画像aがN種類の領域に分割されることとなる。   Based on the classification result by the edge strength threshold processing unit 52, the edge strength base divided region generation unit 53 classifies the regions corresponding to the edge strength classified into the same type as the same type region. According to this, based on the classification result by the edge intensity threshold processing unit 52, the original image a is divided into N types of regions.

図1に戻って、フィルタ係数算出部6は、原画像aと、領域分割情報hと、ローカルデコード画像iと、を入力とする。ここで、ローカルデコード画像iとは、予測値eと、逆DCTされた画素信号gと、の和を取ったもののことであり、局所復号画像のことである。このフィルタ係数算出部6は、領域分割情報hに従って、N種類の領域のそれぞれに対して、各領域内で原画像aとローカルデコード画像iとの二乗誤差が最小となる適応フィルタ係数を算出し、N種類の適応フィルタ係数jを出力する。   Returning to FIG. 1, the filter coefficient calculation unit 6 receives the original image a, the area division information h, and the local decoded image i. Here, the local decoded image i is a sum of the predicted value e and the inverse DCT pixel signal g, and is a locally decoded image. The filter coefficient calculation unit 6 calculates an adaptive filter coefficient that minimizes the square error between the original image a and the local decoded image i in each region for each of the N types of regions according to the region division information h. , N types of adaptive filter coefficients j are output.

適応フィルタ処理部7は、領域分割情報hと、ローカルデコード画像iと、N種類の適応フィルタ係数jと、を入力とする。この適応フィルタ処理部7は、フィルタ処理単位ブロックごとに、N種類の適応フィルタ係数jの中から1つを選択する。これによれば、原画像aを分割するN種類の領域のそれぞれに対して、N種類の適応フィルタ係数jのうち1つずつが割り当てられることとなる。そして、適応フィルタ処理部7は、N種類の領域のそれぞれごとに、割り当てた1つの適応フィルタ係数を用いて、ローカルデコード画像iに対してフィルタ処理を行う。そして、フィルタ処理されたローカルデコード画像、すなわち符号化済み画像dと、N種類の適応フィルタ係数jに関する適否情報kと、を出力する。なお、適否情報kとは、N種類の領域のそれぞれにおいてフィルタ処理を行う際に用いた適応フィルタ係数についての情報のことである。   The adaptive filter processing unit 7 receives the region division information h, the local decoded image i, and N types of adaptive filter coefficients j. The adaptive filter processing unit 7 selects one of N types of adaptive filter coefficients j for each filter processing unit block. According to this, one of N types of adaptive filter coefficients j is assigned to each of the N types of regions into which the original image a is divided. Then, the adaptive filter processing unit 7 performs filter processing on the local decoded image i using one assigned adaptive filter coefficient for each of the N types of regions. Then, the filtered local decoded image, that is, the encoded image d, and the suitability information k regarding the N types of adaptive filter coefficients j are output. The suitability information k is information on the adaptive filter coefficient used when performing the filtering process in each of the N types of regions.

ローカルメモリ8は、符号化済み画像dを入力とする。このローカルメモリ8は、符号化済み画像dを蓄積し、適宜、予測値生成部1に供給する。   The local memory 8 receives the encoded image d. The local memory 8 stores the encoded image d and supplies it to the predicted value generation unit 1 as appropriate.

エントロピー符号化部4は、量子化されたDCT係数(残差信号)fと、N種類の適応フィルタ係数jと、適否情報kと、を入力とする。このエントロピー符号化部4は、入力される信号に対してエントロピー符号化を行い、符号化データcとして出力する。この符号化データcには、フレームごとに、このフレームにおいてフィルタ処理に用いられたN種類の適応フィルタ係数jと、このフレームにおいてフレーム処理に用いられた適応フィルタ係数jの種類数Nと、このフレームにおけるフィルタ適用情報と、を含む符号化データ構造で情報が記述される。ここで、フィルタ適用情報とは、N種類の領域のそれぞれにおいてフィルタ処理に用いられた適応フィルタ係数を示す情報のことであるが、本実施形態においては特に、N種類の領域のそれぞれにおいてフィルタ処理に用いられた適応フィルタ係数のみを表す情報のことであり、各領域におけるフィルタ処理に用いられた適応フィルタ係数のインデックス番号が記述されたものを示す。   The entropy encoding unit 4 receives the quantized DCT coefficient (residual signal) f, N types of adaptive filter coefficients j, and suitability information k. The entropy encoding unit 4 performs entropy encoding on the input signal and outputs the encoded data c. The encoded data c includes, for each frame, N types of adaptive filter coefficients j used for filter processing in this frame, the number N of types of adaptive filter coefficients j used for frame processing in this frame, Information is described in an encoded data structure including filter application information in a frame. Here, the filter application information is information indicating the adaptive filter coefficient used for the filter processing in each of the N types of regions. In the present embodiment, in particular, the filter processing is performed in each of the N types of regions. This is information that represents only the adaptive filter coefficient used in the above, and indicates the index number of the adaptive filter coefficient used for the filter processing in each region.

[動画像符号化装置AAの動作]
図3は、特徴量解析部5、フィルタ係数算出部6、および適応フィルタ処理部7の動作を示すフローチャートである。なお、後述のステップS1〜S4の処理については、ループ内フィルタ処理の際に行われる。
[Operation of Moving Image Encoding Device AA]
FIG. 3 is a flowchart showing operations of the feature amount analysis unit 5, the filter coefficient calculation unit 6, and the adaptive filter processing unit 7. Note that the processing of steps S1 to S4 described later is performed during the in-loop filter processing.

ステップS1において、動画像符号化装置AAは、特徴量解析部5により、原画像aをM個の領域に分割し、ステップS2に処理を移す。   In step S1, the moving image encoding device AA divides the original image a into M regions by the feature amount analysis unit 5, and moves the process to step S2.

ステップS2において、動画像符号化装置AAは、特徴量解析部5により、M個の領域のそれぞれについてエッジ強度を算出し、ステップS3に処理を移す。   In step S2, the moving image coding apparatus AA calculates edge strength for each of the M regions by the feature amount analysis unit 5, and moves the process to step S3.

ステップS3において、動画像符号化装置AAは、特徴量解析部5により、M個の領域のそれぞれにおけるエッジ強度を、(N−1)種類の閾値を用いてN種類に分類し、ステップS4に処理を移す。   In step S3, the moving image encoding device AA uses the feature amount analysis unit 5 to classify the edge strengths in each of the M regions into N types using (N−1) types of thresholds, and in step S4. Move processing.

ステップS4において、動画像符号化装置AAは、特徴量解析部5により、ステップS3におけるエッジ強度の分類結果に基づいて、同一種類に分類したエッジ強度に対応する領域同士を、同一種類の領域として分類し、ステップS5に処理を移す。これによれば、ステップS3におけるエッジ強度の分類結果に基づいて、原画像aがN種類の領域に分割されることとなる。   In step S4, the moving image encoding device AA uses the feature amount analysis unit 5 to set regions corresponding to the edge strengths classified into the same type based on the edge strength classification result in step S3 as regions of the same type. Classify and move to step S5. According to this, the original image a is divided into N types of regions based on the edge strength classification result in step S3.

ステップS5において、動画像符号化装置AAは、フィルタ係数算出部6により、N種類の領域のそれぞれに対して、適応フィルタ係数を算出し、ステップS6に処理を移す。   In step S5, the moving image encoding device AA calculates adaptive filter coefficients for each of the N types of regions by the filter coefficient calculation unit 6, and moves the process to step S6.

ステップS6において、動画像符号化装置AAは、適応フィルタ処理部7により、N種類の領域のそれぞれごとに、ステップS5において算出した適応フィルタ係数を用いてフィルタ処理を行い、特徴量解析部5、フィルタ係数算出部6、および適応フィルタ処理部7による処理を終了する。   In step S6, the moving image encoding device AA performs the filter process using the adaptive filter coefficient calculated in step S5 for each of the N types of regions by the adaptive filter processing unit 7, and the feature amount analyzing unit 5, The processing by the filter coefficient calculation unit 6 and the adaptive filter processing unit 7 ends.

[動画像復号装置BBの構成]
図4は、本発明の第1実施形態に係る動画像復号装置BBの構成を示すブロック図である。動画像復号装置BBは、エントロピー復号部110、予測値生成部111、フィルタ処理部112、およびメモリ113を備え、動画像符号化装置AAにおいて生成された符号化データcを復号する。
[Configuration of Video Decoding Device BB]
FIG. 4 is a block diagram showing the configuration of the video decoding device BB according to the first embodiment of the present invention. The video decoding device BB includes an entropy decoding unit 110, a predicted value generation unit 111, a filter processing unit 112, and a memory 113, and decodes encoded data c generated in the video encoding device AA.

エントロピー復号部110は、符号化データcを入力とする。このエントロピー復号部110は、符号化データ構造に従って符号化データcに記述されている内容を解析し、エントロピー復号する。そして、エントロピー復号の結果として得られる、予測情報Bおよび残差信号Cを出力する。   The entropy decoding unit 110 receives the encoded data c. The entropy decoding unit 110 analyzes the content described in the encoded data c according to the encoded data structure, and performs entropy decoding. Then, prediction information B and residual signal C obtained as a result of entropy decoding are output.

予測値生成部111は、メモリ113から供給されるフィルタ処理された復号済み画像Aと、予測情報Bと、を入力とする。この予測値生成部111は、予測情報Bに基づいて予測方法を決定し、決定した予測方法により、フィルタ処理された復号済み画像Aを用いて予測値Dを生成し、予測値Dを出力する。   The predicted value generation unit 111 receives the filtered decoded image A supplied from the memory 113 and the prediction information B as inputs. The prediction value generation unit 111 determines a prediction method based on the prediction information B, generates a prediction value D using the decoded image A that has been filtered by the determined prediction method, and outputs the prediction value D. .

フィルタ処理部112は、符号化データcと、フィルタ前復号画像Eと、を入力とする。ここで、フィルタ前復号画像Eとは、残差信号Cと予測値Dとの和を取ったもののことである。このフィルタ処理部112は、符号化データcに含まれる適応フィルタ係数および適否情報に従って、フィルタ前復号画像Eに対してフィルタ処理を行って、フィルタ処理された復号済み画像Aを出力する。   The filter processing unit 112 receives the encoded data c and the pre-filter decoded image E as inputs. Here, the pre-filter decoded image E is a sum of the residual signal C and the predicted value D. The filter processing unit 112 performs a filtering process on the pre-filtered decoded image E according to the adaptive filter coefficient and the suitability information included in the encoded data c, and outputs a decoded image A that has been subjected to the filtering process.

メモリ113は、フィルタ処理された復号済み画像Aを入力とする。このメモリ113は、フィルタ処理された復号済み画像Aを蓄積し、未復号ブロックの復号処理を行う際に適宜、予測値生成部111に供給する。   The memory 113 receives the decoded image A that has been filtered. The memory 113 accumulates the filtered decoded image A, and supplies it to the predicted value generation unit 111 as appropriate when performing decoding processing on undecoded blocks.

以上の動画像符号化装置AAによれば、原画像aのエッジ強度に基づいて、原画像aをN種類の領域に分割し、領域ごとに適応フィルタ係数を求める。このため、絵柄に応じて原画像aを分割し、絵柄に適した適応フィルタ係数を分割した領域ごとに求めることができる。したがって、処理量の増加を抑制しつつ絵柄に追従できる適応フィルタ係数を求めることができ、圧縮符号化性能を改善することができる。なお、HD(High Definition)解像度の映像に対して、上述の領域分割数Nを「2」に設定した場合には、H.264に対して15%程度の符号量を削減することができ、上述の非特許文献2に示されている手法を行った場合に対して2%程度の符号量を削減できる場合がある。   According to the above moving image coding apparatus AA, based on the edge strength of the original image a, the original image a is divided into N types of regions, and adaptive filter coefficients are obtained for each region. For this reason, the original image a can be divided according to the design, and adaptive filter coefficients suitable for the design can be obtained for each divided region. Therefore, an adaptive filter coefficient that can follow the pattern while suppressing an increase in the processing amount can be obtained, and the compression coding performance can be improved. When the above-mentioned area division number N is set to “2” for an HD (High Definition) resolution video, The code amount can be reduced by about 15% with respect to H.264, and the code amount can be reduced by about 2% compared to the case where the technique disclosed in Non-Patent Document 2 described above is performed.

また、動画像符号化装置AAは、フレームごとに、このフレームにおいてフィルタ処理に用いられたN種類の適応フィルタ係数jと、このフレームにおいてフレーム処理に用いられた適応フィルタ係数jの種類数Nと、このフレームにおけるフィルタ適用情報と、を含む符号化データ構造の符号化データcを生成することができる。   In addition, for each frame, the moving picture coding apparatus AA includes N types of adaptive filter coefficients j used for the filter processing in this frame, and the number N of types of adaptive filter coefficients j used for the frame processing in this frame. The encoded data c having the encoded data structure including the filter application information in this frame can be generated.

なお、動画像符号化装置AAは、符号化データcに、フィルタ適用情報として、N種類の領域のそれぞれにおいてフィルタ処理に用いられた適応フィルタ係数のインデックス番号が記述される。このため、符号化データcには、N種類の領域のそれぞれにおいてフィルタ処理に用いられた適応フィルタ係数のみを表す情報が記述され、用いられていない適応フィルタ係数を表す情報については記述されないこととなる。   Note that the moving image encoding device AA describes the index number of the adaptive filter coefficient used for the filter processing in each of the N types of regions as the filter application information in the encoded data c. For this reason, in the encoded data c, information representing only adaptive filter coefficients used for the filter processing in each of the N types of regions is described, and information representing adaptive filter coefficients not being used is not described. Become.

以上の動画像復号装置BBによれば、適応フィルタ処理部7でフィルタ処理が行われた領域ごとに、すなわちN種類の領域ごとに、同一の適応フィルタ係数を用いて、フィルタ前復号画像Eに対してフィルタ処理を行うことができる。   According to the above moving image decoding apparatus BB, the same adaptive filter coefficient is used for each region subjected to the filter processing by the adaptive filter processing unit 7, that is, for each of N types of regions, to the pre-filter decoded image E. Filter processing can be performed on the filter.

<第2実施形態>
[動画像符号化装置CCの構成]
本発明の第2実施形態に係る動画像符号化装置CCについて、以下に説明する。動画像符号化装置CCは、図1に示した本発明の第1実施形態に係る動画像符号化装置AAとは、特徴量解析部5の代わりに特徴量解析部5Aを備える点が異なる。なお、動画像符号化装置CCにおいて、動画像符号化装置AAと同一構成要件については、同一符号を付し、その説明を省略する。
Second Embodiment
[Configuration of Video Encoding Device CC]
The video encoding device CC according to the second embodiment of the present invention will be described below. The moving image encoding device CC is different from the moving image encoding device AA according to the first embodiment of the present invention shown in FIG. 1 in that a feature amount analyzing unit 5A is provided instead of the feature amount analyzing unit 5. In the video encoding device CC, the same components as those of the video encoding device AA are denoted by the same reference numerals, and the description thereof is omitted.

図5は、特徴量解析部5Aの構成を示すブロック図である。特徴量解析部5Aは、複雑度合い算出部54、複雑度合い閾値処理部55、および複雑度合いベース分割領域生成部56を備える。   FIG. 5 is a block diagram illustrating a configuration of the feature amount analysis unit 5A. The feature amount analysis unit 5A includes a complexity degree calculation unit 54, a complexity degree threshold processing unit 55, and a complexity degree base divided region generation unit 56.

複雑度合い算出部54は、原画像aをM個の領域に分割し、M個の領域のそれぞれについて、絵柄に関する特徴量として、画素値の複雑さを算出する。具体的には、M個の領域のそれぞれにおいて、領域内における画素値について複雑さを算出し、この領域における定量的な画素値の複雑さとする。なお、画素値の複雑さを評価する手法としては、例えば画素値の分散値やアクティビティを用いる手法を適用することができる。   The degree-of-complexity calculation unit 54 divides the original image a into M areas, and calculates the complexity of the pixel value as a feature amount related to the pattern for each of the M areas. Specifically, in each of the M areas, the complexity of the pixel values in the area is calculated, and the quantitative pixel value complexity in this area is obtained. As a method for evaluating the complexity of the pixel value, for example, a method using a dispersion value of pixel values or an activity can be applied.

複雑度合い閾値処理部55は、複雑度合い算出部54により算出されたM個の領域のそれぞれにおける画素値の複雑さを、(N−1)種類の閾値を用いてN種類に分類する。   The complexity degree threshold processing unit 55 classifies the complexity of the pixel value in each of the M areas calculated by the complexity degree calculation unit 54 into N types using (N−1) types of thresholds.

複雑度合いベース分割領域生成部56は、複雑度合い閾値処理部55による分類結果に基づいて、同一種類に分類された画素値の複雑さに対応する領域同士を、同一種類の領域として分類する。これによれば、複雑度合い閾値処理部55による分類結果に基づいて、原画像aがN種類の領域に分割されることとなる。   Based on the classification result by the complexity degree threshold processing unit 55, the complexity degree-based divided area generation unit 56 classifies areas corresponding to the complexity of pixel values classified into the same type as areas of the same type. According to this, the original image a is divided into N types of regions based on the classification result by the complexity degree threshold processing unit 55.

以上の動画像符号化装置CCにおいて生成された符号化データcは、図4に示した本発明の第1実施形態に係る動画像復号装置BBにおいて復号することができる。   The encoded data c generated by the above moving image encoding device CC can be decoded by the moving image decoding device BB according to the first embodiment of the present invention shown in FIG.

以上の動画像符号化装置CCによれば、原画像aの画素値の複雑さに基づいて、原画像aをN種類の領域に分割し、領域ごとに適応フィルタ係数を求める。このため、動画像符号化装置AAが奏することのできる効果と同様の効果を奏することができる。   According to the above moving picture coding device CC, the original image a is divided into N types of regions based on the complexity of the pixel values of the original image a, and adaptive filter coefficients are obtained for each region. For this reason, the effect similar to the effect which the moving image encoder AA can show | play can be show | played.

<第3実施形態>
[動画像符号化装置DDの構成]
本発明の第3実施形態に係る動画像符号化装置DDについて、以下に説明する。動画像符号化装置DDは、図1に示した本発明の第1実施形態に係る動画像符号化装置AAとは、特徴量解析部5の代わりに特徴量解析部5Bを備える点が異なる。なお、動画像符号化装置DDにおいて、動画像符号化装置AAと同一構成要件については、同一符号を付し、その説明を省略する。
<Third Embodiment>
[Configuration of Moving Image Encoding Device DD]
A video encoding device DD according to the third embodiment of the present invention will be described below. The moving image encoding device DD is different from the moving image encoding device AA according to the first embodiment of the present invention shown in FIG. 1 in that a feature amount analyzing unit 5B is provided instead of the feature amount analyzing unit 5. Note that in the video encoding device DD, the same components as those of the video encoding device AA are denoted by the same reference numerals, and the description thereof is omitted.

図6は、特徴量解析部5Bの構成を示すブロック図である。特徴量解析部5Bは、エッジ方向算出部57、エッジ方向閾値処理部58、およびエッジ方向ベース分割領域生成部59を備える。   FIG. 6 is a block diagram illustrating a configuration of the feature amount analysis unit 5B. The feature amount analysis unit 5B includes an edge direction calculation unit 57, an edge direction threshold processing unit 58, and an edge direction base divided region generation unit 59.

エッジ方向算出部57は、原画像aをM個の領域に分割し、M個の領域のそれぞれについて、絵柄に関する特徴量として、エッジ方向を算出する。   The edge direction calculation unit 57 divides the original image a into M areas, and calculates an edge direction as a feature amount related to a pattern for each of the M areas.

具体的には、まず、M個の領域のそれぞれにおいて、水平方向、垂直方向、および水平方向または垂直方向に対して任意の角度の方向について、領域内の画素ごとのエッジ強度を算出する。なお、特定の方向について領域内の画素ごとにエッジ強度を算出する手法としては、例えばSobelフィルタを用いる手法を適用することができる。次に、M個の領域内の画素ごとに、算出したエッジ強度の絶対値が最大となる方向を求め、求めた方向をその画素のエッジ方向とする。   Specifically, first, in each of the M regions, the edge strength for each pixel in the region is calculated in the horizontal direction, the vertical direction, and the direction at an arbitrary angle with respect to the horizontal direction or the vertical direction. As a method for calculating the edge strength for each pixel in the region in a specific direction, for example, a method using a Sobel filter can be applied. Next, for each pixel in the M regions, a direction in which the absolute value of the calculated edge intensity is maximum is obtained, and the obtained direction is set as the edge direction of the pixel.

次に、各画素のエッジ方向を用いて、例えば以下の第1手法や第2手法により、M個の領域のそれぞれのエッジ方向を求める。第1手法では、領域内の各画素のエッジ方向を集計し、集計数が最も多いエッジ方向を、この領域のエッジ方向とする。第2手法では、エッジ方向ごとに領域内の各画素のエッジ強度を合計し、合計値が最も大きいエッジ方向を、この領域のエッジ方向とする。   Next, using the edge direction of each pixel, the edge directions of the M areas are obtained by, for example, the following first method and second method. In the first method, the edge directions of each pixel in the region are totaled, and the edge direction having the largest number of totals is set as the edge direction of this region. In the second method, the edge strength of each pixel in the region is summed for each edge direction, and the edge direction having the largest total value is set as the edge direction of this region.

エッジ方向閾値処理部58は、エッジ方向算出部57により算出されたM個の領域のそれぞれのエッジ方向を、(N−1)種類の閾値を用いてN種類に分類する。   The edge direction threshold value processing unit 58 classifies each edge direction of the M areas calculated by the edge direction calculation unit 57 into N types using (N−1) types of threshold values.

エッジ方向ベース分割領域生成部59は、エッジ方向閾値処理部58による分類結果に基づいて、同一種類に分類されたエッジ方向に対応する領域同士を、同一種類の領域として分類する。これによれば、エッジ方向閾値処理部58による分類結果に基づいて、原画像aがN種類の領域に分割されることとなる。   Based on the classification result by the edge direction threshold processing unit 58, the edge direction base divided region generation unit 59 classifies the regions corresponding to the edge direction classified into the same type as the same type region. According to this, based on the classification result by the edge direction threshold value processing unit 58, the original image a is divided into N types of regions.

以上の動画像符号化装置DDにおいて生成された符号化データcは、図4に示した本発明の第1実施形態に係る動画像復号装置BBにおいて復号することができる。   The encoded data c generated by the above moving image encoding device DD can be decoded by the moving image decoding device BB according to the first embodiment of the present invention shown in FIG.

以上の動画像符号化装置DDによれば、原画像aのエッジ方向に基づいて、原画像aをN種類の領域に分割し、領域ごとに適応フィルタ係数を求める。このため、動画像符号化装置AAが奏することのできる効果と同様の効果を奏することができる。   According to the above moving picture coding apparatus DD, based on the edge direction of the original image a, the original image a is divided into N types of regions, and adaptive filter coefficients are obtained for each region. For this reason, the effect similar to the effect which the moving image encoder AA can show | play can be show | played.

<第4実施形態>
[動画像符号化装置EEの構成]
本発明の第4実施形態に係る動画像符号化装置EEについて、以下に説明する。動画像符号化装置EEは、図1に示した本発明の第1実施形態に係る動画像符号化装置AAとは、特徴量解析部5に加えて特徴量解析部5Bを備える点が異なる。なお、動画像符号化装置EEにおいて、動画像符号化装置AAと同一構成要件については、同一符号を付し、その説明を省略する。
<Fourth embodiment>
[Configuration of Video Encoding Device EE]
A video encoding device EE according to the fourth embodiment of the present invention will be described below. The moving image encoder EE differs from the moving image encoder AA according to the first embodiment of the present invention shown in FIG. 1 in that it includes a feature amount analyzer 5B in addition to the feature amount analyzer 5. In the video encoding device EE, the same components as those of the video encoding device AA are denoted by the same reference numerals, and the description thereof is omitted.

動画像符号化装置EEは、特徴量解析部5および特徴量解析部5Bの双方を備える。このため、原画像aを、特徴量解析部5によりP種類(Pは、P≧2を満たす整数)に分割するとともに、特徴量解析部5BによりQ種類(Qは、Q≧2を満たす整数)に分割することができる。これによれば、原画像aは、P×Q種類の領域に分割されることとなる。   The moving image encoding device EE includes both a feature amount analysis unit 5 and a feature amount analysis unit 5B. Therefore, the original image a is divided into P types (P is an integer satisfying P ≧ 2) by the feature amount analysis unit 5 and Q types (Q is an integer satisfying Q ≧ 2) by the feature amount analysis unit 5B. ). According to this, the original image a is divided into P × Q types of regions.

以上の動画像符号化装置EEにおいて生成された符号化データcは、図4に示した本発明の第1実施形態に係る動画像復号装置BBにおいて復号することができる。   The encoded data c generated by the above moving image encoding device EE can be decoded by the moving image decoding device BB according to the first embodiment of the present invention shown in FIG.

以上の動画像符号化装置EEによれば、原画像aのエッジ強度およびエッジ方向に基づいて、原画像aをP×Q種類の領域に分割し、領域ごとに適応フィルタ係数を求める。このため、動画像符号化装置AAが奏することのできる効果と同様の効果を奏することができる。   According to the above moving image encoding apparatus EE, based on the edge strength and edge direction of the original image a, the original image a is divided into P × Q types of regions, and adaptive filter coefficients are obtained for each region. For this reason, the effect similar to the effect which the moving image encoder AA can show | play can be show | played.

また、動画像符号化装置EEによれば、原画像aの分割を、原画像aのエッジ強度だけでなく、原画像aのエッジ方向も用いて行う。このため、原画像aのエッジ強度だけを用いて原画像aを分割する動画像符号化装置AAと比べて、絵柄により適した領域に原画像aを分割して、絵柄により適した適応フィルタ係数を分割した領域ごとに求めることができる。したがって、動画像符号化装置AAと比べて、符号量をさらに削減できる場合がある。具体的には、HD(High Definition)解像度の映像に対して、上述のPおよびQを「2」に設定した場合には、上述の非特許文献2に示されている手法を行った場合に対して3%程度の符号量を削減することができる場合がある。   Further, according to the moving image encoding device EE, the original image a is divided using not only the edge strength of the original image a but also the edge direction of the original image a. For this reason, compared with the moving image coding apparatus AA that divides the original image a using only the edge strength of the original image a, the adaptive filter coefficient more suitable for the design is obtained by dividing the original image a into a region more suitable for the design. Can be obtained for each divided region. Therefore, there are cases where the code amount can be further reduced as compared with the moving picture coding apparatus AA. Specifically, when the above-described P and Q are set to “2” for an HD (High Definition) resolution video, the method shown in Non-Patent Document 2 described above is performed. On the other hand, a code amount of about 3% may be reduced.

なお、本発明の動画像符号化装置AA、CC、DD、EEの処理や、動画像復号装置BBの処理を、コンピュータ読み取り可能な記録媒体に記憶し、記録媒体に記録されたプログラムを動画像符号化装置AA、CC、DD、EEや、動画像復号装置BBに読み込ませ、実行することによって、本発明を実現できる。   The processing of the moving image encoding devices AA, CC, DD, and EE of the present invention and the processing of the moving image decoding device BB are stored in a computer-readable recording medium, and the program recorded on the recording medium is stored as a moving image. The present invention can be realized by causing the encoding devices AA, CC, DD, EE, and the video decoding device BB to read and execute them.

また、上述のプログラムは、このプログラムを記憶装置などに格納した動画像符号化装置AA、CC、DD、EEや動画像復号装置BBから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The above-described program is transmitted from the moving image encoding devices AA, CC, DD, EE and the moving image decoding device BB storing the program in a storage device or the like via a transmission medium or in a transmission medium. May be transmitted to other computer systems. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上述のプログラムは、上述の機能の一部を実現するためのものであってもよい。さらに、上述の機能を動画像符号化装置AA、CC、DD、EEや動画像復号装置BBにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the above-described program may be for realizing a part of the above-described function. Further, even a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the moving image encoding devices AA, CC, DD, EE and the moving image decoding device BB. Good.

以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design that does not depart from the gist of the present invention.

例えば、上述の第4実施形態では、特徴量解析部5および特徴量解析部5Bの双方を動画像符号化装置に設けた場合ついて説明したが、これに限らず、特徴量解析部5Aおよび特徴量解析部5Bの双方を動画像符号化装置に設けてもよい。   For example, in the above-described fourth embodiment, the case where both the feature amount analysis unit 5 and the feature amount analysis unit 5B are provided in the moving image encoding apparatus has been described. However, the present invention is not limited to this, and the feature amount analysis unit 5A and the feature amount are provided. Both of the quantity analysis units 5B may be provided in the moving picture encoding device.

また、上述の各実施形態では、適応フィルタ処理部7は、フィルタ処理単位ブロックごとに、N種類の適応フィルタ係数jの中から1つを選択するものとした。しかし、これに限らず、例えば、フィルタ処理単位ブロックごとに、N種類の適応フィルタ係数jのそれぞれの適否を制御してもよい。これによれば、原画像aを分割するN種類の領域のそれぞれに対して、複数の適応フィルタ係数を割り当てることができ、割り当てることのできる適応フィルタ係数の組合せは、N種類の領域のそれぞれごとに2のN乗通り存在することとなる。また、符号化データcに記述されるフィルタ適用情報とは、適応フィルタ係数のインデックス番号が記述されたもののことではなく、N種類の適応フィルタ係数jのそれぞれの適否を示すN個の適否フラグ情報が記述されたもののこととなる。適否フラグ情報とは、N種類の領域のそれぞれごとにN個ずつ存在するフラグ情報のことであって、N種類の適応フィルタ係数jのそれぞれごとに各領域におけるフィルタ処理の際に用いられたか否かを表すフラグ情報のことである。このため、符号化データcには、N種類の領域のそれぞれにおいてフィルタ処理に用いられた適応フィルタ係数だけでなく、用いられていない適応フィルタ係数を表す情報についても記述されることとなる。   In each of the above-described embodiments, the adaptive filter processing unit 7 selects one of N types of adaptive filter coefficients j for each filter processing unit block. However, the present invention is not limited to this. For example, the adequacy of each of the N types of adaptive filter coefficients j may be controlled for each filter processing unit block. According to this, a plurality of adaptive filter coefficients can be assigned to each of the N types of regions that divide the original image a, and the combinations of adaptive filter coefficients that can be assigned are for each of the N types of regions. There are 2 to the Nth power. In addition, the filter application information described in the encoded data c is not information that describes the index number of the adaptive filter coefficient, but N pieces of appropriateness flag information that indicates the appropriateness of each of the N types of adaptive filter coefficients j. Will be described. The adequacy flag information is N pieces of flag information for each of the N types of regions, and is used in the filtering process in each region for each of the N types of adaptive filter coefficients j. It is the flag information that represents. For this reason, in the encoded data c, not only the adaptive filter coefficients used for the filter processing in each of the N types of regions, but also information representing adaptive filter coefficients that are not used is described.

また、上述の各実施形態では、フレームごとに、エントロピー符号化部4により符号化データcに種々の情報が記述されるものとしたが、これに限らず、例えばスライスごとに記述されるものとしてもよい。   Further, in each of the above-described embodiments, various information is described in the encoded data c by the entropy encoding unit 4 for each frame. However, the present invention is not limited to this. For example, it is described for each slice. Also good.

また、上述の各実施形態において、領域分割数Nや上述のM、P、Qは、それぞれ、固定値であってもよいし、フレームごとやスライスごとに設定される可変値であってもよい。   Further, in each of the above-described embodiments, the area division number N and the above-described M, P, and Q may each be a fixed value, or may be a variable value set for each frame or each slice. .

AA、CC、DD、EE・・・動画像符号化装置
BB・・・動画像復号装置
1・・・予測値生成部
2・・・DCT/量子化部
3・・・逆DCT/逆量子化部
4・・・エントロピー符号化部
5、5A、5B・・・特徴量解析部
51・・・エッジ強度算出部
52・・・エッジ強度閾値処理部
53・・・エッジ強度ベース分割領域生成部
54・・・複雑度合い算出部
55・・・複雑度合い閾値処理部
56・・・複雑度合いベース分割領域生成部
57・・・エッジ方向算出部
58・・・エッジ方向閾値処理部
59・・・エッジ方向ベース分割領域生成部
6・・・フィルタ係数算出部
7・・・適応フィルタ処理部
8・・・ローカルメモリ
110・・・エントロピー復号部
111・・・予測値生成部
112・・・フィルタ処理部
113・・・メモリ
AA, CC, DD, EE ... moving picture coding device BB ... moving picture decoding device 1 ... predicted value generation unit 2 ... DCT / quantization unit 3 ... inverse DCT / inverse quantization Unit 4... Entropy encoding unit 5, 5A, 5B... Feature amount analysis unit 51... Edge strength calculation unit 52... Edge strength threshold processing unit 53. ... complexity degree calculation unit 55 ... complexity degree threshold processing unit 56 ... complexity degree base divided region generation unit 57 ... edge direction calculation unit 58 ... edge direction threshold processing unit 59 ... edge direction Base division region generation unit 6 ... filter coefficient calculation unit 7 ... adaptive filter processing unit 8 ... local memory 110 ... entropy decoding unit 111 ... predicted value generation unit 112 ... filter processing unit 113・ ・·memory

Claims (9)

符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化装置であって、
符号化する画像の特徴量に基づいて、当該画像を複数種類の領域に分割する特徴量解析手段と、
前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求めるフィルタ係数算出手段と、
前記複数種類の領域のそれぞれごとに、前記フィルタ係数算出手段により求められた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う適応フィルタ処理手段と、
前記フィルタ係数算出手段により求められた全ての適応フィルタ係数と、当該全ての適応フィルタ係数のうち前記適応フィルタ処理手段で用いられたものを前記領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する符号化データ生成手段と、を備え、
前記特徴量解析手段は、
予め定められた複数の領域のそれぞれごとに、前記特徴量としてエッジ方向を求めるエッジ方向算出手段と、
前記エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類するエッジ方向閾値処理手段と、
前記エッジ方向閾値処理手段による分類結果に基づいて、前記画像を複数種類に分類するエッジ方向ベース分割領域生成手段と、を備え、
前記エッジ方向ベース分割領域生成手段による分類結果に基づいて、前記画像を複数種類に分割することを特徴とする動画像符号化装置。
In the encoding process, a moving image encoding apparatus that permits adaptive filter processing and controls filter processing for each filter processing unit block,
A feature amount analyzing means for dividing the image into a plurality of types of regions based on the feature amount of the image to be encoded;
Filter coefficient calculating means for obtaining an adaptive filter coefficient for each of the plurality of types of regions;
Adaptive filter processing means for performing filter processing on a local decoded image using the adaptive filter coefficient obtained by the filter coefficient calculation means for each of the plurality of types of regions;
Encoded data including all adaptive filter coefficients obtained by the filter coefficient calculation means, and filter application information indicating, for each of the areas, all adaptive filter coefficients used by the adaptive filter processing means. Encoded data generation means for generating
The feature amount analyzing means includes:
Edge direction calculating means for obtaining an edge direction as the feature amount for each of a plurality of predetermined regions;
Edge direction threshold processing means for classifying the edge direction obtained by the edge direction calculating means into a plurality of types using a plurality of types of thresholds;
An edge direction base divided region generating means for classifying the image into a plurality of types based on a classification result by the edge direction threshold processing means,
A moving image encoding apparatus, wherein the image is divided into a plurality of types based on a classification result by the edge direction base divided region generation means.
請求項1に記載の動画像符号化装置において、
前記特徴量解析手段は、
前記予め定められた複数の領域のそれぞれごとに、前記特徴量としてエッジ強度を求めるエッジ強度算出手段と、
前記エッジ強度算出手段により求められたエッジ強度を、複数種類の閾値を用いて複数種類に分類するエッジ強度閾値処理手段と、
前記エッジ強度閾値処理手段による分類結果に基づいて、前記画像を複数種類に分類するエッジ強度ベース分割領域生成手段と、を備えることを特徴とする動画像符号化装置。
The moving image encoding device according to claim 1,
The feature amount analyzing means includes:
Edge strength calculating means for obtaining edge strength as the feature amount for each of the plurality of predetermined regions;
Edge strength threshold processing means for classifying the edge strength obtained by the edge strength calculation means into a plurality of types using a plurality of types of thresholds;
A moving picture coding apparatus comprising: an edge strength base divided region generating unit that classifies the image into a plurality of types based on a classification result by the edge strength threshold processing unit.
請求項1に記載の動画像符号化装置において、
前記特徴量解析手段は、
前記予め定められた複数の領域のそれぞれごとに、前記特徴量として画素値の複雑さを求める複雑度合い算出手段と、
前記複雑度合い算出手段により求められた画素値の複雑さを、複数種類の閾値を用いて複数種類に分類する複雑度合い閾値処理手段と、
前記複雑度合い閾値処理手段による分類結果に基づいて、前記画像を複数種類に分類する複雑度合いベース分割領域生成手段と、を備えることを特徴とする動画像符号化装置。
The moving image encoding device according to claim 1,
The feature amount analyzing means includes:
A degree-of-complexity calculating means for determining the complexity of a pixel value as the feature amount for each of the plurality of predetermined regions;
Complexity threshold processing means for classifying the complexity of the pixel value obtained by the complexity calculating means into a plurality of types using a plurality of types of thresholds;
A moving picture coding apparatus comprising: a complexity degree base divided region generating means for classifying the image into a plurality of types based on a classification result by the complexity degree threshold processing means.
請求項1から3のいずれかに記載の動画像符号化装置において、
前記符号化データ生成手段は、各フレームに対する設定値として、当該フレームにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数と、当該フレームにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数の種類数と、当該フレームにおける前記フィルタ適用情報と、を含む符号化データ構造の符号化データを生成することを特徴とする動画像符号化装置。
In the moving image encoder according to any one of claims 1 to 3,
The encoded data generating means uses, as setting values for each frame, the adaptive filter coefficients used in the adaptive filter processing means in the frame and the number of types of adaptive filter coefficients used in the adaptive filter processing means in the frame. And encoded data having an encoded data structure including the filter application information in the frame.
請求項1から4のいずれかに記載の動画像符号化装置において、
前記符号化データ生成手段は、前記フィルタ適用情報として、前記複数種類の領域のそれぞれにおいて前記適応フィルタ処理手段で用いられた適応フィルタ係数のみを表す識別情報を用いて、前記符号化データを生成することを特徴とする動画像符号化装置。
In the moving image encoding device according to any one of claims 1 to 4,
The encoded data generation means generates the encoded data using identification information representing only adaptive filter coefficients used by the adaptive filter processing means in each of the plurality of types of regions as the filter application information. A moving picture coding apparatus characterized by the above.
請求項1から4のいずれかに記載の動画像符号化装置において、
前記符号化データ生成手段は、前記フィルタ適用情報として、前記フィルタ係数算出手段により求められた全ての適応フィルタ係数のそれぞれごとに前記複数種類の領域のそれぞれにおいて前記適応フィルタ処理手段で用いられたか否かを表す適否フラグ情報を用いて、前記符号化データを生成することを特徴とする動画像符号化装置。
In the moving image encoding device according to any one of claims 1 to 4,
Whether the encoded data generation means is used as the filter application information by the adaptive filter processing means in each of the plurality of types of areas for each of all the adaptive filter coefficients obtained by the filter coefficient calculation means. A moving picture encoding apparatus, wherein the encoded data is generated using propriety flag information representing the above.
動画像符号化装置および動画像復号装置を備える動画像システムであって、
前記動画像符号化装置は、
符号化する画像の特徴量に基づいて、当該画像を複数種類の領域に分割する特徴量解析手段と、
前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求めるフィルタ係数算出手段と、
前記複数種類の領域のそれぞれごとに、前記フィルタ係数算出手段により求められた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う適応フィルタ処理手段と、
前記フィルタ係数算出手段により求められた全ての適応フィルタ係数と、当該全ての適応フィルタ係数のうち前記適応フィルタ処理手段で用いられたものを前記領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する符号化データ生成手段と、を備え、
前記特徴量解析手段は、
予め定められた複数の領域のそれぞれごとに、前記特徴量としてエッジ方向を求めるエッジ方向算出手段と、
前記エッジ方向算出手段により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類するエッジ方向閾値処理手段と、
前記エッジ方向閾値処理手段による分類結果に基づいて、前記画像を複数種類に分類するエッジ方向ベース分割領域生成手段と、を備え、
前記エッジ方向ベース分割領域生成手段による分類結果に基づいて、前記画像を複数種類に分割し、
前記動画像復号装置は、
前記符号化データを復号して、前記フィルタ係数算出手段により求められた全ての適応フィルタ係数と、前記フィルタ適用情報と、を求める復号手段と、
前記復号手段により求められた前記全ての適応フィルタ係数および前記フィルタ適用情報に基づいて、復号画像に対してフィルタ処理を行うフィルタ処理手段と、を備えることを特徴とする動画像システム。
A video system comprising a video encoding device and a video decoding device,
The moving image encoding device is:
A feature amount analyzing means for dividing the image into a plurality of types of regions based on the feature amount of the image to be encoded;
Filter coefficient calculating means for obtaining an adaptive filter coefficient for each of the plurality of types of regions;
Adaptive filter processing means for performing filter processing on a local decoded image using the adaptive filter coefficient obtained by the filter coefficient calculation means for each of the plurality of types of regions;
Encoded data including all adaptive filter coefficients obtained by the filter coefficient calculation means, and filter application information indicating, for each of the areas, all adaptive filter coefficients used by the adaptive filter processing means. Encoded data generation means for generating
The feature amount analyzing means includes:
Edge direction calculating means for obtaining an edge direction as the feature amount for each of a plurality of predetermined regions;
Edge direction threshold processing means for classifying the edge direction obtained by the edge direction calculating means into a plurality of types using a plurality of types of thresholds;
An edge direction base divided region generating means for classifying the image into a plurality of types based on a classification result by the edge direction threshold processing means,
Based on the classification result by the edge direction base divided region generation means, the image is divided into a plurality of types,
The moving picture decoding device comprises:
Decoding means for decoding the encoded data to obtain all adaptive filter coefficients obtained by the filter coefficient calculating means and the filter application information;
A moving image system comprising: filter processing means for performing filter processing on a decoded image based on all the adaptive filter coefficients and the filter application information obtained by the decoding means .
符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化方法であって、
符号化する画像の特徴量に基づいて、当該画像を複数種類の領域に分割する第1のステップと、
前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求める第2のステップと、
前記複数種類の領域のそれぞれごとに、前記第2のステップにおいて求めた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う第3のステップと、
前記第2のステップにおいて求めた全ての適応フィルタ係数と、当該全ての適応フィルタ係数のうち前記第3のステップにおいて用いたものを前記領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する第4のステップと、を備え、
前記第1のステップでは、
予め定められた複数の領域のそれぞれごとに、前記特徴量としてエッジ方向を求める第1の手順と、
前記第1の手順により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類する第2の手順と、
前記第2の手順による分類結果に基づいて、前記画像を複数種類に分類する第3の手順と、を行い、
前記第3の手順による分類結果に基づいて、前記画像を複数種類に分割することを特徴とする動画像符号化方法。
In the encoding process, a moving image encoding method that allows adaptive filter processing and controls the filter processing for each filter processing unit block,
A first step of dividing the image into a plurality of types of regions based on the feature amount of the image to be encoded;
A second step of obtaining an adaptive filter coefficient for each of the plurality of types of regions;
A third step of performing filtering on the locally decoded image using the adaptive filter coefficient obtained in the second step for each of the plurality of types of regions;
Generating encoded data including all adaptive filter coefficients obtained in the second step, and filter application information indicating, for each of the areas, all adaptive filter coefficients used in the third step. And a fourth step,
In the first step,
A first procedure for obtaining an edge direction as the feature amount for each of a plurality of predetermined regions;
A second procedure for classifying the edge directions obtained by the first procedure into a plurality of types using a plurality of types of threshold values;
Performing a third procedure for classifying the image into a plurality of types based on the classification result of the second procedure,
A moving image encoding method, wherein the image is divided into a plurality of types based on a classification result obtained by the third procedure.
符号化処理において、適応フィルタ処理を許容し、フィルタ処理単位ブロックごとにフィルタ処理を制御する動画像符号化方法を、コンピュータに実行させるためにプログラムであって、
符号化する画像の特徴量に基づいて、当該画像を複数種類の領域に分割する第1のステップと、
前記複数種類の領域のそれぞれに対して、適応フィルタ係数を求める第2のステップと、
前記複数種類の領域のそれぞれごとに、前記第2のステップにおいて求めた適応フィルタ係数を用いて、局所復号画像に対してフィルタ処理を行う第3のステップと、
前記第2のステップにおいて求めた全ての適応フィルタ係数と、当該全ての適応フィルタ係数のうち前記第3のステップにおいて用いたものを前記領域ごとに示すフィルタ適用情報と、を含む符号化データを生成する第4のステップと、をコンピュータに実行させ、
前記第1のステップでは、
予め定められた複数の領域のそれぞれごとに、前記特徴量としてエッジ方向を求める第1の手順と、
前記第1の手順により求められたエッジ方向を、複数種類の閾値を用いて複数種類に分類する第2の手順と、
前記第2の手順による分類結果に基づいて、前記画像を複数種類に分類する第3の手順と、を行い、
前記第3の手順による分類結果に基づいて、前記画像を複数種類に分割するためのプログラム。
In the encoding process, a program for causing a computer to execute a moving image encoding method that allows adaptive filter processing and controls filter processing for each filter processing unit block,
A first step of dividing the image into a plurality of types of regions based on the feature amount of the image to be encoded;
A second step of obtaining an adaptive filter coefficient for each of the plurality of types of regions;
A third step of performing filtering on the locally decoded image using the adaptive filter coefficient obtained in the second step for each of the plurality of types of regions;
Generating encoded data including all adaptive filter coefficients obtained in the second step, and filter application information indicating, for each of the areas, all adaptive filter coefficients used in the third step. And causing the computer to execute a fourth step of:
In the first step,
A first procedure for obtaining an edge direction as the feature amount for each of a plurality of predetermined regions;
A second procedure for classifying the edge directions obtained by the first procedure into a plurality of types using a plurality of types of threshold values;
Performing a third procedure for classifying the image into a plurality of types based on the classification result of the second procedure,
A program for dividing the image into a plurality of types based on the classification result according to the third procedure.
JP2011039287A 2011-01-12 2011-02-25 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program Expired - Fee Related JP5627507B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011039287A JP5627507B2 (en) 2011-01-12 2011-02-25 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011003807 2011-01-12
JP2011003807 2011-01-12
JP2011039287A JP5627507B2 (en) 2011-01-12 2011-02-25 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program

Publications (2)

Publication Number Publication Date
JP2012161063A JP2012161063A (en) 2012-08-23
JP5627507B2 true JP5627507B2 (en) 2014-11-19

Family

ID=46841198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011039287A Expired - Fee Related JP5627507B2 (en) 2011-01-12 2011-02-25 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program

Country Status (1)

Country Link
JP (1) JP5627507B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6087739B2 (en) * 2013-06-07 2017-03-01 Kddi株式会社 Moving picture coding apparatus, moving picture decoding apparatus, moving picture system, moving picture coding method, moving picture decoding method, and program
JP6289055B2 (en) * 2013-11-27 2018-03-07 三菱電機株式会社 Video encoding apparatus and video decoding apparatus
WO2018105579A1 (en) * 2016-12-09 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding device, decoding device, encoding method, and decoding method
JP7208889B2 (en) * 2017-03-09 2023-01-19 株式会社半導体エネルギー研究所 broadcasting system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2009006404A (en) * 2006-12-18 2009-06-23 Koninkl Philips Electronics Nv Image compression and decompression.
EP1944974A1 (en) * 2007-01-09 2008-07-16 Matsushita Electric Industrial Co., Ltd. Position dependent post-filter hints
EP2252063A4 (en) * 2008-03-07 2012-09-12 Toshiba Kk Dynamic image encoding/decoding device
WO2009133844A1 (en) * 2008-04-30 2009-11-05 株式会社 東芝 Video encoding and decoding method and device equipped with edge-referenced filtering function
EP2161936A1 (en) * 2008-09-04 2010-03-10 Panasonic Corporation Locally adaptive filters for video coding controlled by local correlation data
WO2010146771A1 (en) * 2009-06-19 2010-12-23 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
US8995776B2 (en) * 2010-06-17 2015-03-31 Sharp Kabushiki Kaisha Image filter device, decoding apparatus, encoding apparatus, and data structure

Also Published As

Publication number Publication date
JP2012161063A (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP6335365B2 (en) Decoding device
KR101530244B1 (en) Method and device for providing compensation offsets for a set of reconstructed samples of an image
CN116233423A (en) Loop filtering method based on self-adaptive pixel classification reference
JP5542680B2 (en) Image processing apparatus, method and program, moving picture encoding apparatus, method and program, moving picture decoding apparatus, method and program, and encoding / decoding system and method
JP4533081B2 (en) Image encoding apparatus and method
CN109792541A (en) Deringing filter device for video coding
US20110069752A1 (en) Moving image encoding/decoding method and apparatus with filtering function considering edges
EP3560204A1 (en) Deringing filter for video coding
TW201412120A (en) Method of removing deblocking artifacts
KR20210044760A (en) Method and apparatus for video encoding/decoding using image analysis
JP2015027022A (en) Video encoder, video coding method, and program
JP5627507B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program
JP2024506213A (en) Encoding/decoding method, apparatus and device thereof
KR102632984B1 (en) Image processing device and image processing method
KR102550503B1 (en) Encoding device, decoding device, and program
KR20170058870A (en) Method and apparatus for encoding/dicoding a video with non linear mapping
JP6171584B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP2018110313A (en) Moving image encoding device, moving image encoding method, computer program for moving image encoding, moving image decoding device, moving image decoding method, and computer program for moving image decoding
JP5814191B2 (en) Deblocking processing method, deblocking processing apparatus, program, and recording medium
JP2017073602A (en) Moving image coding apparatus, moving image coding method, and computer program for moving image coding
US20210377523A1 (en) Encoding device, encoding method, decoding device, and decoding method
WO2013145174A1 (en) Video encoding method, video decoding method, video encoding device, and video decoding device
JP7474772B2 (en) Encoding device, decoding device, and program
JP5728330B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program
JP2019047277A (en) Image processing apparatus, program and method, and video encoder, video decoder, and video processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140930

R150 Certificate of patent or registration of utility model

Ref document number: 5627507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees