JP2014099672A - Decoder, encoder, and data structure - Google Patents
Decoder, encoder, and data structure Download PDFInfo
- Publication number
- JP2014099672A JP2014099672A JP2011051527A JP2011051527A JP2014099672A JP 2014099672 A JP2014099672 A JP 2014099672A JP 2011051527 A JP2011051527 A JP 2011051527A JP 2011051527 A JP2011051527 A JP 2011051527A JP 2014099672 A JP2014099672 A JP 2014099672A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- flag
- information
- color difference
- filter coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像のフィルタリングを行う画像フィルタ装置を備えている符号化装置、および、復号装置に関する。また、そのような復号装置によって復号される符号化データのデータ構造に関する。 The present invention relates to an encoding device and an decoding device including an image filter device that performs image filtering. The present invention also relates to a data structure of encoded data decoded by such a decoding device.
動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置(符号化装置)、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置(復号装置)が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG−4.AVCがある。 In order to efficiently transmit or record a moving image, a moving image encoding device (encoding device) that generates encoded data by encoding the moving image, and decoding by decoding the encoded data A video decoding device (decoding device) that generates an image is used. As a specific moving picture encoding method, for example, H.264 is used. H.264 / MPEG-4. There is AVC.
この符号化方式においては、入力画像を1つの輝度成分(輝度成分Y)および2つの色差成分(それぞれ色差成分Cr、色差成分Cb)に分割して符号化/復号処理が行われる。 In this encoding method, an input image is divided into one luminance component (luminance component Y) and two color difference components (color difference component Cr and color difference component Cb, respectively), and encoding / decoding processing is performed.
通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像と入力画像との差分データが符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)と呼ばれる方法が知られている。 Usually, a predicted image is generated based on a local decoded image obtained by encoding / decoding an input image, and difference data between the predicted image and the input image is encoded. As methods for generating a predicted image, methods called inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are known.
また、復号画像または復号画像に対してブロックノイズ低減処理を施して得られる画像に対して、適応的に設定されたフィルタ係数群を用いたフィルタ処理を施すことによって、ノイズが低減された復号画像を生成する適応的ループフィルタ(Adaptive Loop Filter)(以下単に「適応フィルタ」とも呼ぶ)と呼ばれる技術がある。上記適応フィルタに用いられるフィルタ係数群は、符号化対象画像と、復号画像に対して上記適応フィルタを施して得られるフィルタ済復号画像との2乗誤差を最小にするように適応的に決定されたものである。 In addition, the decoded image or the image obtained by subjecting the decoded image to block noise reduction processing is subjected to filter processing using adaptively set filter coefficient groups, whereby the decoded image is reduced in noise. There is a technique called an adaptive loop filter (hereinafter also referred to simply as “adaptive filter”). The filter coefficient group used for the adaptive filter is adaptively determined so as to minimize the square error between the encoding target image and the filtered decoded image obtained by applying the adaptive filter to the decoded image. It is a thing.
適応フィルタにおいても、輝度成分と色差成分に対してフィルタ処理の有無およびフィルタ係数群が独立に決定される。どの色差成分にフィルタ処理が施されるかはフラグによって決定される。色差成分のフィルタをオフとする場合、色差成分Cb、色差成分Crの何れかにフィルタ処理が施される場合、色差成分Cb、色差成分Crの両方にフィルタ処理が施される場合がある。色差成分Cb、色差成分Crの両方にフィルタ処理が施される場合、色差成分Cbと色差成分Crは同一のフィルタ係数群によって処理される。 Also in the adaptive filter, the presence / absence of filter processing and the filter coefficient group are independently determined for the luminance component and the color difference component. Which color difference component is subjected to filtering is determined by a flag. When the filter for the color difference component is turned off, the filter process may be applied to both the color difference component Cb and the color difference component Cr when the filter process is applied to either the color difference component Cb or the color difference component Cr. When filter processing is applied to both the color difference component Cb and the color difference component Cr, the color difference component Cb and the color difference component Cr are processed by the same filter coefficient group.
このような適応フィルタを備えた符号化装置および復号装置は、フィルタ済復号画像を参照して予測画像を生成することにより、予測精度および符号化効率の向上を図ることができる。 An encoding device and a decoding device including such an adaptive filter can improve prediction accuracy and encoding efficiency by generating a prediction image with reference to the filtered decoded image.
しかしながら、符号化対象画像の色差成分Crおよび色差成分Cbに施す適応的フィルタ処理は、同一のフィルタ係数群が用いられる。そのため、色差成分Crおよび色差成分Cbには効果的なフィルタ処理がされず、符号化効率が向上しないという問題が有していた。 However, the same filter coefficient group is used for adaptive filter processing applied to the color difference component Cr and the color difference component Cb of the encoding target image. For this reason, the color difference component Cr and the color difference component Cb are not effectively filtered, and there is a problem that the encoding efficiency is not improved.
本発明は、上記の問題に鑑み、発明者によって得られた知見に基づいてなされたものであり、その目的は、色差成分Crおよび色差成分Cbに対して個別のフィルタ係数群を生成することで、各色差成分に効果的なフィルタ処理を施し、符号化効率を向上させることのできる画像フィルタ装置、並びに、そのような画像フィルタ装置を備える復号装置および符号化装置を実現することにある。 The present invention has been made on the basis of the knowledge obtained by the inventor in view of the above-described problems, and an object thereof is to generate individual filter coefficient groups for the color difference component Cr and the color difference component Cb. Another object of the present invention is to realize an image filter device that can perform effective filter processing on each color difference component and improve encoding efficiency, and a decoding device and an encoding device including such an image filter device.
上記の問題を解決するために、本発明の第1の構成に係る動画像復号装置は、複数の色成分を備える画像を復号する動画像復号装置であって、フィルタ処理を行う色成分を指定する情報および、フィルタ係数群を復号するフィルタ情報復号手段と、前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする。 In order to solve the above problem, the moving picture decoding apparatus according to the first configuration of the present invention is a moving picture decoding apparatus that decodes an image having a plurality of color components, and specifies a color component to be subjected to filter processing. And filter information decoding means for decoding the filter coefficient group, and information specifying the filter coefficient group and the color component decoded by the filter information decoding means, to filter each color component to be processed And filtering means for performing processing.
また、前記フィルタ情報復号手段は、ある色成分のフィルタ係数群の少なくとも1つのフィルタ係数を、既に復号された他の色成分のフィルタ係数群のフィルタ係数と、符号化データから復号した値との加算値又は減算値により復号することを特徴とする。 Further, the filter information decoding means includes at least one filter coefficient of a filter coefficient group of a certain color component, a filter coefficient of a filter coefficient group of another color component that has already been decoded, and a value decoded from the encoded data. Decoding is performed using an addition value or a subtraction value.
また、前記フィルタ情報復号手段は、複数の色成分に対するフィルタ処理に用いるフィルタ係数群を復号し、既に復号した他の色成分のフィルタ係数群を用いずに復号する1つの独立フィルタ係数群と、既に復号した他の色成分のフィルタ係数群を用いて復号する1つ以上の従属フィルタ係数群を復号し、独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを復号し、さらに前記フィルタ手段は、前記割り当てフラグに応じて導出されたフィルタ係数群を用いてフィルタ処理を行うことを特徴とする。 Further, the filter information decoding means decodes a filter coefficient group used for filter processing for a plurality of color components, and decodes without using filter coefficient groups of other color components that have already been decoded, and Decoding one or more dependent filter coefficient groups to be decoded using filter coefficient groups of other color components that have already been decoded, decoding an assignment flag indicating a color component to be filtered using an independent filter coefficient group, and The filter means performs filter processing using a filter coefficient group derived according to the allocation flag.
また、本発明の第2の構成に係る動画像復号装置は、複数の色成分を備える入力画像を復号する動画像復号装置であって、入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする。 The moving picture decoding apparatus according to the second configuration of the present invention is a moving picture decoding apparatus that decodes an input image having a plurality of color components, and includes a filter in each of a plurality of unit regions that constitute the input image. Filter information decoding means for decoding filter on / off information including one or more on / off flags that specify whether or not to perform processing, and a filter coefficient group, and color components for each unit region with reference to the filter on / off information And filtering means for performing the filtering process.
また、前記フィルタオンオフ情報のうち、1つのオンオフフラグを参照して、前記入力画像の2つ以上の色成分の同一位置に存在する前記単位領域のオンオフを定めることで、前記2つ以上の色成分のフィルタ処理を共通に制御することを特徴とする。 The two or more colors may be determined by determining on / off of the unit region existing at the same position of two or more color components of the input image with reference to one on / off flag in the filter on / off information. The filter processing of components is controlled in common.
また、前記フィルタ情報復号手段は、前記フィルタオンオフ情報に含まれるオンオフフラグが特定の色成分のオンオフフラグとして用いるか、又は、複数の色成分に共通のオンオフフラグとして用いるかを選択する選択フラグを復号することを特徴とする。 Further, the filter information decoding means may select a selection flag for selecting whether the on / off flag included in the filter on / off information is used as an on / off flag for a specific color component or as a common on / off flag for a plurality of color components. It is characterized by decoding.
また、前記色成分は、少なくとも輝度成分と色差成分とから構成され、前記フィルタ情報復号手段は、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのフィルタオンオフフラグが、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを復号することを特徴とする。 The color component includes at least a luminance component and a color difference component, and the filter information decoding unit includes, as the selection flag, one filter on / off flag included in the filter on / off information as an on / off flag of the luminance component. It is characterized by decoding a flag that selects whether to use or as a common on / off flag for a luminance component and a color difference component.
また、前記フィルタ情報復号手段は、輝度成分のみにオンオフフラグを用いる制御パターン1か、輝度成分と色差成分で共通のオンオフフラグを用いる制御パターン2か、複数の色差成分での共通のオンオフフラグを用いる制御パターン3か、輝度成分と複数の色差成分で独立のオンオフフラグを用いる制御パターン4の少なくとも1つを示す選択モードを復号し、前記選択モードが制御パターン1又は制御パターン2を示す場合には1つのオンオフフラグを復号し、前記選択モードが制御パターン2を示す場合には2つのオンオフフラグを復号し、選択モードが制御パターン4を示す場合には3つのオンオフフラグを復号することを特徴とする。 Further, the filter information decoding means outputs a control pattern 1 using an on / off flag only for a luminance component, a control pattern 2 using a common on / off flag for a luminance component and a color difference component, or a common on / off flag for a plurality of color difference components. When a selection mode indicating at least one of the control pattern 3 to be used or at least one of the control pattern 4 using an independent on / off flag with a luminance component and a plurality of color difference components is decoded, and the selection mode indicates the control pattern 1 or the control pattern 2 Decodes one on / off flag, decodes two on / off flags when the selection mode indicates control pattern 2, and decodes three on / off flags when the selection mode indicates control pattern 4 And
また、本発明の第1の構成に係る動画像符号化装置は、複数の色成分を備える画像を符号化する符号化装置であって、フィルタ処理を行う色成分を指定する情報と、フィルタ処理に用いるフィルタ係数群を決定と、フィルタパラメータとして符号化されるフィルタ情報を決定するフィルタ情報決定手段と、前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、フィルタ情報を符号化する可変長符号化手段を備えることを特徴とする。 In addition, the moving image encoding apparatus according to the first configuration of the present invention is an encoding apparatus that encodes an image having a plurality of color components, the information specifying the color component to be filtered, and the filter processing A filter information group for determining the filter information to be encoded as a filter parameter, and for each color component to be processed using the filter coefficient group determined by the filter information determination unit Filter means for performing filter processing and variable length encoding means for encoding filter information are provided.
また、前記フィルタ情報決定手段は、少なくとも1つのフィルタ情報の要素が、決定された1つのフィルタ係数群のフィルタ係数と、他の色成分のフィルタ係数群のフィルタ係数との差分値により決定することを特徴とする。 The filter information determining means determines at least one element of filter information based on a difference value between the determined filter coefficient of one filter coefficient group and the filter coefficient of another color component filter coefficient group. It is characterized by.
また、前記フィルタ情報決定手段は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群と、他の色成分のフィルタ係数群を用いて符号化するフィルタ係数群を決定し、さらに独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを決定し、さらに、前記可変長符号化手段は、割り当てフラグを符号化することを特徴とする。 In addition, the filter information determination means includes one independent filter coefficient group that is encoded without using filter coefficient groups of other color components, and a filter coefficient group that is encoded using filter coefficient groups of other color components. In addition, an allocation flag indicating a color component to be filtered is determined using an independent filter coefficient group, and the variable length encoding unit encodes the allocation flag.
また、本発明の第2の構成に係る動画像符号化装置は、複数の色成分を備える入力画像を符号化する動画像符号化装置であって、入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と符号化するフィルタ情報を決定するフィルタ情報決定手段と、前記フィルタオンオフ情報とフィルタ係数群を参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、フィルタオンオフ情報とフィルタ情報を含むフィルタパラメータを符号化する可変長符号化手段を備えることを特徴とする。 The moving image encoding apparatus according to the second configuration of the present invention is a moving image encoding apparatus that encodes an input image having a plurality of color components, and each of a plurality of unit regions that constitute the input image. The filter on / off information for specifying whether or not to perform the filter processing, the filter information determining means for determining the filter coefficient group used for the filter processing and the filter information to be encoded, and the filter on / off information and the filter coefficient group. Filter means for performing filter processing for each unit region, and variable length coding means for coding filter parameters including filter on / off information and filter information.
また、前記動画像符号化装置は、2つ以上の色成分を備える画像を符号化する動画像符号化装置であって、2つ以上の色成分の同一位置に存在する前記単位領域のオンオフを定める共通のオンオフフラグを決定するフィルタ情報決定手段を備えることを特徴とする。 The moving image encoding device is a moving image encoding device that encodes an image having two or more color components, and is configured to turn on and off the unit area existing at the same position of the two or more color components. Filter information determining means for determining a common on / off flag to be determined is provided.
また、前記フィルタ情報決定手段は、既に符号化された前記フィルタオンオフ情報を、特定の色成分のオンオフフラグとして用いるか、又は、複数の色成分に共通のオンオフフラグとして用いるかを選択する選択フラグを決定することを特徴とする。 In addition, the filter information determination unit selects whether to use the already-encoded filter on / off information as an on / off flag for a specific color component or as an on / off flag common to a plurality of color components. It is characterized by determining.
また、前記色成分は、少なくとも輝度成分と色差成分とから構成され、前記フィルタ情報決定手段は、既に復号された前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを決定することを特徴とする。 The color component includes at least a luminance component and a color difference component, and the filter information determination unit uses the already decoded filter on / off information as an on / off flag of the luminance component, or the luminance component and the color difference. A flag for selecting whether to use as a common on / off flag for components is determined.
また、前記フィルタ情報決定手段は、輝度成分のみにオンオフフラグを用いる制御パターン1か、輝度成分と色差成分で共通のオンオフフラグを用いる制御パターン2か、複数の色差成分での共通のオンオフフラグを用いる制御パターン3か、輝度成分と複数の色差成分で独立の独立オンオフフラグを用いる制御パターン4の少なくとも1つを示す選択モードを決定し、選択モードが制御パターン1若しくは制御パターン2を示す場合には1つのオンオフフラグを決定し、選択モードが制御パターン2を示す場合には2つのオンオフフラグを決定し、選択モードが制御パターン4を示す場合には3つのオンオフフラグを決定することを特徴とする。 In addition, the filter information determination unit may output a control pattern 1 using an on / off flag only for the luminance component, a control pattern 2 using a common on / off flag for the luminance component and the color difference component, or a common on / off flag for a plurality of color difference components. When the selection mode indicating at least one of the control pattern 3 to be used or at least one of the control pattern 4 using the independent on / off flag with the luminance component and the plurality of color difference components is determined, and the selection mode indicates the control pattern 1 or the control pattern 2 Determines one on / off flag, determines two on / off flags when the selection mode indicates the control pattern 2, and determines three on / off flags when the selection mode indicates the control pattern 4. To do.
また、本発明の第1の構成に係る符号化データのデータ構造は、フィルタ処理を行う色成分を指定する情報および、フィルタ係数群を復号するフィルタ情報復号手段と、前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられる前記色成分を指定する情報およびフィルタ係数群を含んでいることを特徴とする。 Further, the data structure of the encoded data according to the first configuration of the present invention includes information specifying a color component to be subjected to filter processing, filter information decoding means for decoding a filter coefficient group, and decoding by the filter information decoding means. A plurality of filter means for performing a filtering process on each color component to be processed using the filter coefficient group and the information for designating the color component. The data structure of the encoded data used for the filtering process of the image having the color components includes information specifying the color components used by the filter means and a filter coefficient group.
また、本発明の第2の構成に係る符号化データのデータ構造は、入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられるフィルタオンオフ情報とフィルタ係数群を含んでいることを特徴とする。 In addition, the data structure of the encoded data according to the second configuration of the present invention includes a filter including one or more on / off flags that specify whether or not to perform filter processing in each of a plurality of unit regions constituting the input image. A moving image comprising: filter information decoding means for decoding on / off information and a filter coefficient group; and filter means for performing color component filtering processing for each unit region with reference to the filter on / off information. A data structure of encoded data used for filter processing of an image having a plurality of color components referred to by a decoding device, comprising filter on / off information and a filter coefficient group used by the filter means And
本発明の動画像復号装置および動画像符号化装置によれば、複数の色差成分を備える画像に対して異なるフィルタ係数群を用いることができるため、色差成分間で共通のフィルタ係数群を用いる場合に比べ、色差成分の画質を向上させることができる。さらに少なくとも1つの色差成分のフィルタ係数群を、他の色差成分のフィルタ係数群の差分値として符号化することにより、フィルタ係数群の符号量を低減することができる。 According to the moving picture decoding apparatus and the moving picture encoding apparatus of the present invention, different filter coefficient groups can be used for an image having a plurality of color difference components. Compared to the above, the image quality of the color difference component can be improved. Further, by encoding the filter coefficient group of at least one color difference component as a difference value of the filter coefficient group of other color difference components, the code amount of the filter coefficient group can be reduced.
[実施形態1]
以下では、本発明の第1の実施形態について図1〜図13、図25を参照して説明する。なお、本実施形態に係る復号装置は、符号化データから動画像を復号するものである。したがって、以下では、これを「動画像復号装置」と呼称する。また、本実施形態に係る符号化装置は、動画像を符号化することによって符号化データを生成するものである。したがって、以下では、これを「動画像符号化装置」と呼ぶ。
[Embodiment 1]
Below, the 1st Embodiment of this invention is described with reference to FIGS. 1-13 and FIG. Note that the decoding apparatus according to the present embodiment decodes a moving image from encoded data. Therefore, hereinafter, this is referred to as “moving image decoding apparatus”. In addition, the encoding device according to the present embodiment generates encoded data by encoding a moving image. Therefore, in the following, this is referred to as a “video encoding device”.
ただし、本発明の第1の実施形態は、適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴は複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、復号装置一般および符号化装置一般に適用できるものである。
(符号化データ#1の構成)
However, the scope of application of the first embodiment of the present invention is not limited to this. That is, as will be apparent from the following description, the features of the present invention can be realized without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
(Configuration of encoded data # 1)
本実施形態に係る動画像復号装置1の説明に先立ち、本実施形態に係る動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成について、図1を参照して説明する。符号化データ#1は、シーケンスレイヤ、GOP(Group Of Pictures)レイヤ、ピクチャレイヤ、スライスレイヤ、および、最大符号化単位(LCU:Largest Coding Unit)レイヤからなる階層構造を有している。 Prior to the description of the video decoding device 1 according to the present embodiment, the configuration of the encoded data # 1 generated by the video encoding device 2 according to the present embodiment and decoded by the video decoding device 1 will be described with reference to FIG. Will be described with reference to FIG. The encoded data # 1 has a hierarchical structure including a sequence layer, a GOP (Group Of Pictures) layer, a picture layer, a slice layer, and a maximum coding unit (LCU) layer.
符号化データ#1におけるピクチャレイヤ以下の階層の構造を図1に示す。図1(a)〜(f)は、それぞれ、ピクチャレイヤP、スライスレイヤS、LCUレイヤLCU、LCUに含まれるリーフCU(図1(d)ではCULと表記)、インター予測(画面間予測)パーティションについての予測情報PIであるインター予測情報PI_Inter、イントラ予測(画面内予測)パーティションについての予測情報PIであるイントラ予測情報PI_Intraの構造を示す図である。 The hierarchical structure below the picture layer in the encoded data # 1 is shown in FIG. FIGS. 1A to 1F are a picture layer P, a slice layer S, an LCU layer LCU, a leaf CU included in the LCU (denoted as CUL in FIG. 1D), and inter prediction (inter-screen prediction), respectively. It is a figure which shows the structure of inter prediction information PI_Inter which is the prediction information PI about a partition, and intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
(ピクチャレイヤ)
ピクチャレイヤPは、処理対象のピクチャである対象ピクチャを復号するために動画像復号装置1が参照するデータの集合である。ピクチャレイヤPは、図1(a)に示すように、ピクチャヘッダPH、および、スライスレイヤS1〜SNsを含んでいる(NsはピクチャレイヤPに含まれるスライスレイヤの総数)。
(Picture layer)
The picture layer P is a set of data that is referenced by the video decoding device 1 in order to decode a target picture that is a processing target picture. As shown in FIG. 1A, the picture layer P includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slice layers included in the picture layer P).
ピクチャヘッダPHには、対象ピクチャの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれている。例えば、動画像符号化装置2が符号化の際に用いた可変長符号化のモードを示す符号化モード情報(entropy_coding_mode_flag)は、ピクチャヘッダPHに含まれる符号化パラメータの一例である。 The picture header PH includes a coding parameter group that is referred to by the video decoding device 1 in order to determine a decoding method of the target picture. For example, the encoding mode information (entropy_coding_mode_flag) indicating the variable length encoding mode used in encoding by the moving image encoding device 2 is an example of an encoding parameter included in the picture header PH.
(スライスレイヤ)
ピクチャレイヤPに含まれる各スライスレイヤSは、処理対象のスライスである対象スライスを復号するために動画像復号装置1が参照するデータの集合である。スライスレイヤSは、図1(b)に示すように、スライスヘッダSH、および、LCUレイヤLCU1〜LCUNc(NcはスライスSに含まれるLCUの総数)を含んでいる。
(Slice layer)
Each slice layer S included in the picture layer P is a set of data referred to by the video decoding device 1 in order to decode a target slice that is a slice to be processed. As shown in FIG. 1B, the slice layer S includes a slice header SH and LCU layers LCU1 to LUNc (Nc is the total number of LCUs included in the slice S).
スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。 The slice header SH includes an encoding parameter group that is referred to by the video decoding device 1 in order to determine a decoding method of the target slice. Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。 As slice types that can be specified by the slice type specification information, (1) I slice that uses only intra prediction at the time of encoding, (2) P slice that uses unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.
また、スライスヘッダSHには、動画像復号装置1の備える適応フィルタによって参照されるフィルタパラメータFPが含まれる。なお、フィルタパラメータFPの構成については、後述するためここでは説明を省略する。 The slice header SH includes a filter parameter FP that is referred to by an adaptive filter provided in the video decoding device 1. The configuration of the filter parameter FP will be described later and will not be described here.
(LCUレイヤ)
スライスレイヤSに含まれる各LCUレイヤLCUは、処理対象のLCUである対象LCUを復号するために動画像復号装置1が参照するデータの集合である。
(LCU layer)
Each LCU layer LCU included in the slice layer S is a set of data that the video decoding device 1 refers to in order to decode the target LCU that is the processing target LCU.
LCUレイヤLCUは、当該LCUを階層的に4分木分割することにより得られる複数の符号化単位(CU:Coding Unit)より構成される。換言すれば、LCUレイヤLCUは、複数のCUを再帰的に含む階層構造のうち、最上位にあたる符号化単位である。LCUレイヤLCUに含まれる各CUは、図1(c)に示すように、CUヘッダCUH、および、当該CUを4分木分割することにより得られる複数のCUを再帰的に含む階層構造を有している。 The LCU layer LCU is configured by a plurality of coding units (CU: Coding Units) obtained by hierarchically dividing the LCU into a quadtree. In other words, the LCU layer LCU is a coding unit corresponding to the highest level in a hierarchical structure that recursively includes a plurality of CUs. As shown in FIG. 1C, each CU included in the LCU layer LCU has a hierarchical structure that recursively includes a CU header CUH and a plurality of CUs obtained by dividing the CU into quadtrees. doing.
LCUを除く各CUのサイズは、当該CUが直接に属するCU(すなわち、当該CUの1階層上位のCU)のサイズの縦横とも半分であり、各CUのとり得るサイズは、符号化データ#1のシーケンスパラメータセットSPSに含まれる、LCUのサイズおよび階層深度(hierarchical depth)に依存する。例えば、LCUのサイズが128×128画素であって、最大階層深度が5である場合には、当該LCU以下の階層におけるCUは、5種類のサイズ、すなわち、128×128画素、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。また、それ以上分割されないCUをリーフCUと呼ぶことにする。 The size of each CU excluding the LCU is half the size of the CU to which the CU directly belongs (that is, the CU one layer higher than the CU), and the size that each CU can take is encoded data # 1. Depending on the size and hierarchical depth of the LCU included in the sequence parameter set SPS. For example, when the size of the LCU is 128 × 128 pixels and the maximum hierarchical depth is 5, the CUs in the hierarchical level below the LCU have five sizes, that is, 128 × 128 pixels and 64 × 64 pixels. , 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels. A CU that is not further divided is called a leaf CU.
(CUヘッダ)
CUヘッダCUHには、対象CUの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図1(c)に示すように、対象CUをさらに下位のCUへ4分割するか否かを指定するCU分割フラグSP_CUが含まれる。CU分割フラグSP_CUが0である場合、すなわち、それ以上CUが分割されない場合、当該CUはリーフCUである。
(CU header)
The CU header CUH includes a coding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target CU. Specifically, as shown in FIG. 1C, a CU division flag SP_CU for specifying whether or not the target CU is further divided into four subordinate CUs is included. When the CU division flag SP_CU is 0, that is, when the CU is not further divided, the CU is a leaf CU.
(リーフCU)
それ以上分割されないCU(CUのリーフ)は予測単位(PU:Prediction Unit)、および、変換単位(TU:Transform Unit)として取り扱われる。
(Leaf CU)
A CU (CU leaf) that is not further divided is handled as a prediction unit (PU: Prediction Unit) and a transform unit (TU: Transform Unit).
図1(d)に示すように、リーフCU(図1(d)においてはCULと表記)は、(1)動画像復号装置1により予測画像を生成する際に参照されるPU情報PUI、および、(2)動画像復号装置1により残差データを復号する際に参照されるTU情報TUIを含んでいる。 As shown in FIG. 1 (d), the leaf CU (denoted as CUL in FIG. 1 (d)) includes (1) PU information PUI that is referred to when the moving image decoding apparatus 1 generates a predicted image, and (2) The TU information TUI that is referred to when the residual data is decoded by the moving picture decoding apparatus 1 is included.
スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象のリーフにスキップモードが適用されている場合、そのリーフCUにおけるPU情報PUI、および、TU情報TUIは省略される。なお、スキップフラグSKIPは、Iスライスでは省略される。 The skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU. When the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target leaf, PU information PUI and TU information TUI in the leaf CU are omitted. Note that the skip flag SKIP is omitted for the I slice.
PU情報PUIは、図1(d)に示すように、スキップフラグSKIP、予測タイプ情報PT、および、予測情報PIを含んでいる。予測タイプ情報PTは、対象リーフCU(対象PU)についての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。予測情報PIは、予測タイプ情報PTが何れの予測方法を指定するのかに応じて、イントラ予測情報PI_Intra、または、インター予測情報PI_Interより構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。 As shown in FIG. 1D, the PU information PUI includes a skip flag SKIP, prediction type information PT, and prediction information PI. The prediction type information PT is information that specifies whether intra prediction or inter prediction is used as a predicted image generation method for the target leaf CU (target PU). The prediction information PI includes intra prediction information PI_Intra or inter prediction information PI_Inter depending on which prediction method is specified by the prediction type information PT. Hereinafter, a PU to which intra prediction is applied is also referred to as an intra PU, and a PU to which inter prediction is applied is also referred to as an inter PU.
PU情報PUIには、対象PUに含まれる各パーティションの形状、サイズ、および、対象PU内での位置を指定する情報が含まれる。ここで、パーティションとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測画像の生成は、パーティションを単位として行われる。 The PU information PUI includes information designating the shape and size of each partition included in the target PU and the position in the target PU. Here, the partition is one or a plurality of non-overlapping areas constituting the target leaf CU, and the generation of the predicted image is performed in units of partitions.
TU情報TUIは、図1(d)に示すように、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(tu_qp_delta)、対象リーフCU(対象TU)の各ブロックへの分割パターンを指定するTU分割情報SP_TU、および、量子化予測残差QD1〜QDNT(NTは、対象TUに含まれるブロックの総数)を含んでいる。 As shown in FIG. 1D, the TU information TUI specifies a quantization parameter difference Δqp (tu_qp_delta) that specifies the magnitude of the quantization step, and a division pattern for each block of the target leaf CU (target TU). It includes TU partition information SP_TU and quantized prediction residuals QD1 to QDNT (NT is the total number of blocks included in the target TU).
量子化パラメータ差分Δqpは、対象TUにおける量子化パラメータqpと、そのTUの直前に符号化されたTUにおける量子化パラメータqp’との差分qp−qp’である。 The quantization parameter difference Δqp is a difference qp−qp ′ between the quantization parameter qp in the target TU and the quantization parameter qp ′ in the TU encoded immediately before the TU.
TU分割情報SP_TUは、具体的には、対象TUに含まれる各ブロックの形状、サイズ、および、対象TU内での位置を指定する情報である。各TUは、例えば、64×64画素から2×2画素までのサイズをとり得る。ここで、ブロックとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測残差の符号化・復号は、ブロックを単位として行われる。 Specifically, the TU partition information SP_TU is information that specifies the shape and size of each block included in the target TU, and the position in the target TU. Each TU can be, for example, a size from 64 × 64 pixels to 2 × 2 pixels. Here, the block is one or a plurality of non-overlapping areas constituting the target leaf CU, and encoding / decoding of the prediction residual is performed in units of blocks.
各量子化予測残差QDは、動画像符号化装置2が以下の処理1〜3を、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。処理1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する。処理2:処理1にて得られたDCT係数を量子化する。処理3:処理2にて量子化されたDCT係数を可変長符号化する。上述した量子化パラメータqpは、動画像符号化装置2がDCT係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。 Each quantized prediction residual QD is encoded data generated by the video encoding device 2 performing the following processes 1 to 3 on a target block that is a processing target block. Process 1: DCT transform (Discrete Cosine Transform) is performed on the prediction residual obtained by subtracting the prediction image from the encoding target image. Process 2: The DCT coefficient obtained in Process 1 is quantized. Process 3: The DCT coefficient quantized in Process 2 is variable length encoded. The quantization parameter qp described above represents the magnitude of the quantization step QP used when the moving picture coding apparatus 2 quantizes the DCT coefficient (QP = 2 qp / 6 ).
(インター予測情報PI_Inter)
インター予測情報PI_Interは、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。図1(e)に示すように、インター予測情報PI_Interは、対象PUの各パーティションへの分割パターンを指定するインターPU分割情報SP_Inter、および、各パーティションについてのインター予測パラメータPP_Inter1〜PP_InterNe(Neは、対象PUに含まれるインター予測パーティションの総数)を含んでいる。
(Inter prediction information PI_Inter)
The inter prediction information PI_Inter includes a coding parameter that is referred to when the video decoding device 1 generates an inter prediction image by inter prediction. As shown in FIG. 1 (e), the inter prediction information PI_Inter includes inter PU partition information SP_Inter that specifies a partition pattern of the target PU into each partition, and inter prediction parameters PP_Inter1 to PP_InterNe (Ne for each partition). The total number of inter prediction partitions included in the target PU).
インターPU分割情報SP_Interは、具体的には、対象PU(インターPU)に含まれる各インター予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。 Specifically, the inter-PU partition information SP_Inter is information that specifies the shape and size of each inter prediction partition included in the target PU (inter PU) and the position in the target PU.
インターPUは、2N×2N画素、2N×N画素、N×2N画素、およびN×N画素の4つの対称的分割(symmetric splittings)、並びに、2N×nU画素、2N×nD画素、nL×2N画素、およびnR×2N画素の4つの非対称的分割(asymmetric splittings)により、合計8種類のパーティションに分割することが可能である。ここで、Nの具体的な値は、当該PUが属するCUのサイズによって規定され、nU、nD、nL、および、nRの具体的な値は、Nの値に応じて定められる。例えば、128×128画素のインターPUは、128×128画素、128×64画素、64×128画素、64×64画素、128×32画素、128×96画素、32×128画素、および、96×128画素のインター予測パーティションへ分割することが可能である。 The inter PU is composed of 4 symmetric splittings of 2N × 2N pixels, 2N × N pixels, N × 2N pixels, and N × N pixels, and 2N × nU pixels, 2N × nD pixels, nL × 2N With a pixel and four asymmetric splittings of nR × 2N pixels, it can be divided into a total of 8 partitions. Here, the specific value of N is defined by the size of the CU to which the PU belongs, and the specific values of nU, nD, nL, and nR are determined according to the value of N. For example, an inter PU of 128 × 128 pixels is 128 × 128 pixels, 128 × 64 pixels, 64 × 128 pixels, 64 × 64 pixels, 128 × 32 pixels, 128 × 96 pixels, 32 × 128 pixels, and 96 × It is possible to divide into 128-pixel inter prediction partitions.
(インター予測パラメータPP_Inter)
インター予測パラメータPP_Interは、図1(e)に示すように、参照画像インデックスRIと、推定動きベクトルインデックスPMVIと、動きベクトル残差MVDとを含んでいる。
(Inter prediction parameter PP_Inter)
As illustrated in FIG. 1E, the inter prediction parameter PP_Inter includes a reference image index RI, an estimated motion vector index PMVI, and a motion vector residual MVD.
動きベクトル残差MVDは、動画像符号化装置2が以下の処理4〜6を実行することによって生成した符号化データである。処理4:符号化/復号化済みの局所復号画像(より正確には、符号化/復号化済みの局所復号画像に対してデブロック処理および適応的フィルタ処理を施すことによって得られる画像)を選択し、選択した符号化/復号化済みの局所復号画像(以下「参照画像」とも呼称)を参照して対象パーティションに対する動きベクトルmvを導出する。処理5:推定方法を選択し、選択した推定方法を用いて対象パーティションに割り付ける動きベクトルmvの推定値(以下「推定動きベクトル」とも呼称)pmvを導出する。処理6:処理4にて導出した動きベクトルmvから処理5にて導出した推定動きベクトルpmvを減算した動きベクトル残差MVDを符号化する。 The motion vector residual MVD is encoded data generated by the moving image encoding device 2 executing the following processes 4 to 6. Process 4: Select an encoded / decoded locally decoded image (more precisely, an image obtained by performing deblocking processing and adaptive filtering on the encoded / decoded local decoded image) The motion vector mv for the target partition is derived with reference to the selected encoded / decoded local decoded image (hereinafter also referred to as “reference image”). Process 5: An estimation method is selected, and an estimated value (hereinafter also referred to as “estimated motion vector”) pmv of the motion vector mv assigned to the target partition is derived using the selected estimation method. Process 6: The motion vector residual MVD obtained by subtracting the estimated motion vector pmv derived in Process 5 from the motion vector mv derived in Process 4 is encoded.
参照画像インデックスRIは、処理4にて選択した符号化/復号化済みの局所復号画像(参照画像)を指定するものであり、上述した推定動きベクトルインデックスPMVIは、処理5にて選択した推定方法を指定するものである。処理5にて選択可能な推定方法としては、(1)符号化/復号化中の局所復号画像(より正確には、符号化/復号化中の局所復号画像における復号済みの領域に対してデブロック処理および適応的フィルタ処理を施すことによって得られる画像)において、対象パーティションに隣接するパーティション(以下「隣接パーティション」とも呼称する)に割り付けられた動きベクトルのメジアンを推定動きベクトルpmvとする方法や、(2)符号化/復号化済みの局所復号画像において、対象パーティションと同じ位置を占めるパーティション(しばしば「コロケートパーティション」と呼称される)に割り付けられた動きベクトルを推定動きベクトルpmvとする方法などが挙げられる。 The reference image index RI designates the locally decoded image (reference image) that has been encoded / decoded selected in the process 4. The estimated motion vector index PMVI described above is the estimation method selected in the process 5. Is specified. The estimation methods that can be selected in the processing 5 include: (1) a locally decoded image being encoded / decoded (more precisely, a region that has already been decoded in a locally decoded image being encoded / decoded). In an image obtained by performing block processing and adaptive filter processing), a median of a motion vector allocated to a partition adjacent to the target partition (hereinafter also referred to as “adjacent partition”) is used as an estimated motion vector pmv. (2) In a locally decoded image that has been encoded / decoded, a motion vector assigned to a partition (often referred to as a “collocated partition”) occupying the same position as the target partition is used as an estimated motion vector pmv, etc. Is mentioned.
なお、単方向予測を行うパーティションに関する予測パラメータPPには、図1(e)に示すように、参照画像インデックスRI、推定動きベクトルインデックスPMVI、および、動きベクトル残差MVDがそれぞれ1つずつ含まれているが、双方向予測(重み付き予測)を行うパーティションに関する予測パラメータPPには、2つの参照画像インデックスRI1およびRI2、2つの推定動きベクトルインデックスPMVI1およびPMVI2、並びに、2つの動きベクトル残差MVD1およびMVD2が含まれる。 In addition, as shown in FIG. 1E, the prediction parameter PP related to the partition for which unidirectional prediction is performed includes one reference image index RI, estimated motion vector index PMVI, and one motion vector residual MVD. However, the prediction parameters PP related to the partition performing bi-directional prediction (weighted prediction) include two reference image indexes RI1 and RI2, two estimated motion vector indexes PMVI1 and PMVI2, and two motion vector residuals MVD1. And MVD2.
(イントラ予測情報PI_Intra)
イントラ予測情報PI_Intraは、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。図1(f)に示すように、イントラ予測情報PI_Intraは、対象PU(イントラPU)の各パーティションへの分割パターンを指定するイントラPU分割情報SP_Intra、および、各パーティションについてのイントラ予測パラメータPP_Intra1〜PP_IntraNa(Naは、対象PUに含まれるイントラ予測パーティションの総数)を含んでいる。
(Intra prediction information PI_Intra)
The intra prediction information PI_Intra includes an encoding parameter that is referred to when the video decoding device 1 generates an intra predicted image by intra prediction. As shown in FIG. 1 (f), the intra prediction information PI_Intra includes intra PU partition information SP_Intra that specifies a partition pattern of the target PU (intra PU) into each partition, and intra prediction parameters PP_Intra1 to PP_IntraNa for each partition. (Na is the total number of intra prediction partitions included in the target PU).
イントラPU分割情報SP_Intraは、具体的には、対象PUに含まれる各イントラ予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。イントラPU分割情報SP_Intraには、対象PUをパーティションに分割するか否かを指定するイントラ分割フラグ(intra_split_flag)が含まれている。イントラ分割フラグが1であれば、対象PUは、4つのパーティションへと対称的に分割され、イントラ分割フラグが0であれば、対象PUは、分割されることなく、対象PU自身が1つのパーティションとして取り扱われる。したがって、対象PUのサイズを2N×2N画素とすると、イントラ予測パーティションは、2N×2N画素(分割なし)、および、N×N画素(4分割)の何れかのサイズを取り得る(ここで、N=2n、nは1以上の任意の整数)。例えば、128×128画素のイントラPUは、128×128画素、および、64×64画素のイントラ予測パーティションへ分割することが可能である。 Specifically, the intra-PU partition information SP_Intra is information that specifies the shape and size of each intra-predicted partition included in the target PU, and the position in the target PU. The intra PU split information SP_Intra includes an intra split flag (intra_split_flag) that specifies whether or not the target PU is split into partitions. If the intra partition flag is 1, the target PU is divided symmetrically into four partitions. If the intra partition flag is 0, the target PU is not divided and the target PU itself is one partition. Are treated as Therefore, if the size of the target PU is 2N × 2N pixels, the intra prediction partition can take any of 2N × 2N pixels (no division) and N × N pixels (four divisions) (where, N = 2 n , n is an arbitrary integer of 1 or more). For example, a 128 × 128 pixel intra PU can be divided into 128 × 128 pixel and 64 × 64 pixel intra prediction partitions.
(イントラ予測パラメータPP_Intra)
イントラ予測パラメータPP_Intraは、図1(f)に示すように、推定フラグMPM、および、残余予測モードインデックスRIPMを含んでいる。イントラ予測パラメータPP_Intraは、各パーティションについてのイントラ予測方法(予測モード)を指定するためのパラメータである。
(Intra prediction parameter PP_Intra)
The intra prediction parameter PP_Intra includes an estimation flag MPM and a residual prediction mode index RIPM as shown in FIG. The intra prediction parameter PP_Intra is a parameter for designating an intra prediction method (prediction mode) for each partition.
推定フラグMPMは、処理対象である対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて推定された予測モードと当該対象パーティションについての予測モードとが同じであるか否かを示すフラグである。ここで、対象パーティションの周辺のパーティションの例としては、対象パーティションの上辺に隣接するパーティション、および、対象パーティションの左辺に隣接するパーティション等が挙げられる。 The estimation flag MPM is a flag indicating whether or not the prediction mode estimated based on the prediction mode allocated to the peripheral partition of the target partition that is the processing target is the same as the prediction mode for the target partition. . Here, examples of partitions around the target partition include a partition adjacent to the upper side of the target partition and a partition adjacent to the left side of the target partition.
残余予測モードインデックスRIPMは、推定された予測モードと対象パーティションについての予測モードとが異なる場合に、イントラ予測パラメータPP_Intraに含められるインデックスであり、当該対象パーティションに割り付けられる予測モードを指定するためのインデックスである。 The residual prediction mode index RIPM is an index included in the intra prediction parameter PP_Intra when the estimated prediction mode and the prediction mode for the target partition are different, and is an index for designating a prediction mode assigned to the target partition. It is.
(フィルタパラメータFP)
上述のように、スライスヘッダSHには、動画像復号装置1の備える適応フィルタが参照するフィルタパラメータFPが含まれる。図1(g)に、フィルタパラメータFPのデータ構造を示す。図1(g)に示すように、フィルタパラメータFPには、フィルタオンオフ情報、輝度フィルタ情報、色差フィルタ情報が含まれる。
(Filter parameter FP)
As described above, the slice header SH includes the filter parameter FP that is referred to by the adaptive filter included in the video decoding device 1. FIG. 1G shows the data structure of the filter parameter FP. As shown in FIG. 1G, the filter parameter FP includes filter on / off information, luminance filter information, and color difference filter information.
フィルタオンオフ情報には、(1)対象スライスに含まれる分割領域を指定するための領域指定情報、および(2)分割領域毎にフィルタ処理のオンオフを指定するオンオフ情報が含まれる。 The filter on / off information includes (1) area designation information for designating a divided area included in the target slice, and (2) on / off information for designating on / off of the filter process for each divided area.
輝度フィルタ情報には、輝度フィルタ係数情報が含まれ、色差フィルタ情報には、色差成分に対するフィルタ処理を行うか否かを切り替える色差フィルタモードalf_chroma_idcと色差フィルタ係数情報が含まれる。色差フィルタ係数情報には、色差成分のタップ数alf_length_chroma_minus5_div2と色差フィルタ係数群が含まれる。フィルタ係数群には、(1)フィルタ係数a0〜aNT-1(NTは、フィルタ係数群に含まれるフィルタ係数の総数)、および、(2)オフセットoが含まれる。 The luminance filter information includes luminance filter coefficient information, and the chrominance filter information includes chrominance filter mode alf_chroma_idc and chrominance filter coefficient information for switching whether or not to perform filter processing on the chrominance component. The color difference filter coefficient information includes the number of color difference component taps alf_length_chroma_minus5_div2 and a color difference filter coefficient group. The filter coefficient group includes (1) filter coefficients a 0 to a NT-1 (NT is the total number of filter coefficients included in the filter coefficient group), and (2) offset o.
図2にはalf_chroma_idc毎の色差フィルタ係数情報のデータ構造を示す。alf_chroma_idcが0のとき、図2(a)に示すように、色差フィルタ係数情報が省略される。alf_chroma_idcが1のとき、図2(b)に示すように、色差フィルタ係数情報にはalf_length_chroma_minus5_div2および色差成分Crのフィルタ係数群alf_coeff_Crが含まれる。alf_chroma_idcが2のとき、図2(c)に示すように、色差フィルタ係数情報にはalf_length_chroma_minus5_div2および色差成分Cbのフィルタ係数群alf_coeff_Cbが含まれる。alf_chroma_idcが3のとき、図2(d)に示すように、色差フィルタ係数情報にはalf_length_chroma_minus5_div2とフィルタ係数群alf_coeff_chromaが含まれる。alf_chroma_idcが4のとき、図2(e)の(i)に示すように、色差フィルタ係数情報にはalf_chroma_idcと色差成分に対する独立フィルタ係数群alf_coeff_C1と従属フィルタ係数群alf_coeff_C2が含まれる。ここで、2つの色差成分のうち、一方を第1色差成分C1、もう一方を第2色差成分C2と表現する。フィルタ係数群coeff_C1は、色差成分C1を導出するためのフィルタ係数群であり、フィルタ係数群alf_coeff_C2は、色差成分C2を導出するための差分フィルタ係数群である。また、以降、alf_chroma_idcの値をモード番号として、alf_chroma_idcが0、1、2、3、4のとき、それぞれ、モード0、モード1、モード2、モード3、モード4とも呼称する。 FIG. 2 shows a data structure of color difference filter coefficient information for each alf_chroma_idc. When alf_chroma_idc is 0, the color difference filter coefficient information is omitted as shown in FIG. When alf_chroma_idc is 1, as shown in FIG. 2B, the color difference filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_Cr of the color difference component Cr. When alf_chroma_idc is 2, as shown in FIG. 2C, the color difference filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_Cb of the color difference component Cb. When alf_chroma_idc is 3, as shown in FIG. 2D, the chrominance filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_chroma. When alf_chroma_idc is 4, as shown in (i) of FIG. 2E, the chrominance filter coefficient information includes alf_chroma_idc, an independent filter coefficient group alf_coeff_C1 and a dependent filter coefficient group alf_coeff_C2 for the chrominance component. Here, one of the two color difference components is expressed as a first color difference component C1, and the other is expressed as a second color difference component C2. The filter coefficient group coeff_C1 is a filter coefficient group for deriving the color difference component C1, and the filter coefficient group alf_coeff_C2 is a difference filter coefficient group for deriving the color difference component C2. Further, hereinafter, when the value of alf_chroma_idc is a mode number and alf_chroma_idc is 0, 1, 2, 3, 4, they are also called mode 0, mode 1, mode 2, mode 3, and mode 4, respectively.
図2(e)の(ii)は、alf_chroma_idcが4のときの別の構成として、第1色差成分C1に対応する色差成分を指定するフラグsw_flagを含めた構成を示す。 (Ii) of FIG. 2 (e) shows a configuration including a flag sw_flag for designating a color difference component corresponding to the first color difference component C1, as another configuration when alf_chroma_idc is 4.
図3は、本実施形態に係る符号化データ#1の色差フィルタ情報に含まれるシンタックスである。図3に示すように、本実施形態に係る符号化データ#1の色差フィルタ情報には、(1)各色差成分に対するフィルタ処理を行われるか否かを指定するシンタックス(色差フィルタモード)alf_chroma_idc、(2)色差適応フィルタのフィルタ長を指定するシンタックスalf_length_chroma_minus5_div2、(3)フィルタ係数群を指定するシンタックスが含まれる。フィルタ係数群を指定するシンタックスとしては、alf_chroma_idcが1のときはalf_coeff_Cr[i]、alf_chroma_idcが2のときはalf_coeff_Cb[i]、alf_chroma_idcが3のときはalf_coeff_chroma[i]、alf_chroma_idcが4のときはalf_coeff_C1[i]およびalf_coeff_C2が含まれている。図25は、フラグsw_flagを含めた構成のシンタックスである。この構成ではalf_chroma_idcが4の場合にsw_flagが含まれる。 FIG. 3 is a syntax included in the color difference filter information of the encoded data # 1 according to the present embodiment. As shown in FIG. 3, the color difference filter information of the encoded data # 1 according to the present embodiment includes (1) syntax (color difference filter mode) alf_chroma_idc that specifies whether or not to perform filter processing on each color difference component , (2) syntax alf_length_chroma_minus5_div2 for specifying the filter length of the color difference adaptive filter, and (3) syntax for specifying the filter coefficient group. The syntax for specifying the filter coefficient group is alf_coeff_Cr [i] when alf_chroma_idc is 1, alf_coeff_Cb [i] when alf_chroma_idc is 2, alf_coeff_chroma [i] when alf_chroma_idc is 3, and alf_chroma_idc is 4. alf_coeff_C1 [i] and alf_coeff_C2 are included. FIG. 25 shows a syntax including a flag sw_flag. In this configuration, when alf_chroma_idc is 4, sw_flag is included.
以下では、本実施形態に係る動画像復号装置1について図4〜図10を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG−4.AVC、VCEG(Video Coding Expert Group)および、その後継コーデックとして提案されているHEVC(High Efficiency Video Coding)のテストモデルHMに採用されている技術を含む復号装置である。 Below, the moving image decoding apparatus 1 which concerns on this embodiment is demonstrated with reference to FIGS. The moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4. The decoding apparatus includes a technique adopted in a test model HM of AVC, VCEG (Video Coding Expert Group), and HEVC (High Efficiency Video Coding) proposed as a successor codec.
図4は、動画像復号装置1の構成を示すブロック図である。図4に示すように、動画像復号装置1は、可変長符号復号部11、動きベクトル復元部12、逆量子化・逆変換部13、加算器14、バッファメモリ15、インター予測画像生成部16、イントラ予測画像生成部17、予測方式決定部18、デブロッキングフィルタ19、および、適応フィルタ30を備えている。動画像復号装置1は、符号化データ#1を復号することによって動画像#2を生成するための装置である。 FIG. 4 is a block diagram showing a configuration of the moving picture decoding apparatus 1. As shown in FIG. 4, the moving image decoding apparatus 1 includes a variable length code decoding unit 11, a motion vector restoration unit 12, an inverse quantization / inverse conversion unit 13, an adder 14, a buffer memory 15, and an inter prediction image generation unit 16. , An intra prediction image generation unit 17, a prediction method determination unit 18, a deblocking filter 19, and an adaptive filter 30. The moving picture decoding apparatus 1 is an apparatus for generating moving picture # 2 by decoding encoded data # 1.
(可変長符号復号部11)
可変長符号復号部11は、各パーティションに関する予測パラメータPPを、符号化データ#1から復号する。すなわち、インター予測パーティションに関しては、参照画像インデックスRI、推定動きベクトルインデックスPMVI、および、動きベクトル残差MVDを符号化データ#1から復号し、これらを動きベクトル復元部12に供給する。一方、イントラ予測パーティションに関しては、(1)パーティションのサイズを指定するサイズ指定情報、および、(2)予測インデックスを指定する予測インデックス指定情報を符号化データ#1から復号し、これをイントラ予測画像生成部17に供給する。更に、可変長符号復号部11は、各ブロックに関する量子化予測残差QD、および、そのブロックを含むマクロブロックに関する量子化パラメータ差分Δqpを符号化データ#1から復号し、これらを逆量子化・逆変換部13に供給する。また、可変長符号復号部11は、符号化データ#1からフィルタパラメータFPを復号し、適応フィルタ30に供給する。
(Variable-length code decoding unit 11)
The variable length code decoding unit 11 decodes the prediction parameter PP for each partition from the encoded data # 1. That is, for the inter prediction partition, the reference image index RI, the estimated motion vector index PMVI, and the motion vector residual MVD are decoded from the encoded data # 1, and these are supplied to the motion vector restoration unit 12. On the other hand, with respect to the intra prediction partition, (1) size designation information for designating the partition size and (2) prediction index designation information for designating the prediction index are decoded from the encoded data # 1, and this is decoded into the intra prediction image. This is supplied to the generation unit 17. Furthermore, the variable-length code decoding unit 11 decodes the quantization prediction residual QD for each block and the quantization parameter difference Δqp for the macroblock including the block from the encoded data # 1, and dequantizes them. This is supplied to the inverse conversion unit 13. In addition, the variable length code decoding unit 11 decodes the filter parameter FP from the encoded data # 1 and supplies it to the adaptive filter 30.
(動きベクトル復元部12)
動きベクトル復元部12は、各インター予測パーティションに関する動きベクトルmvを、そのパーティションに関する動きベクトル残差MVDと、他のパーティションに関する復元済みの動きベクトルmv’とから復元する。具体的には、(1)推定動きベクトルインデックスPMVIにより指定される推定方法に従って、復元済みの動きベクトルmv’から推定動きベクトルpmvを導出し、(2)導出した推定動きベクトルpmvと動きベクトル残差MVDとを加算することによって動きベクトルmvを得る。なお、他のパーティションに関する復元済みの動きベクトルmv’は、バッファメモリ15から読み出すことができる。動きベクトル復元部12は、復元した動きベクトルmvを、対応する参照画像インデックスRIと共に、インター予測画像生成部16に供給する。
(Motion vector restoration unit 12)
The motion vector restoration unit 12 restores the motion vector mv related to each inter prediction partition from the motion vector residual MVD related to that partition and the restored motion vector mv ′ related to another partition. Specifically, (1) the estimated motion vector pmv is derived from the restored motion vector mv ′ according to the estimation method specified by the estimated motion vector index PMVI, and (2) the derived estimated motion vector pmv and the motion vector remaining are derived. The motion vector mv is obtained by adding the difference MVD. It should be noted that the restored motion vector mv ′ relating to other partitions can be read from the buffer memory 15. The motion vector restoration unit 12 supplies the restored motion vector mv together with the corresponding reference image index RI to the inter predicted image generation unit 16.
(インター予測画像生成部16)
インター予測画像生成部16は、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル復元部12から供給された動きベクトルmvを用いて、同じく動きベクトル復元部12から供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_FL’から動き補償画像mcを生成する。ここで、フィルタ済復号画像P_FL’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、デブロッキングフィルタ19によるデブロック処理および適応フィルタ30によるフィルタ処理を施すことによって得られる画像であり、インター予測画像生成部16は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ15から読み出すことができる。インター予測画像生成部16によって生成された動き補償画像mcは、インター予測画像Pred_Interとして予測方式決定部18に供給される。
(Inter prediction image generation unit 16)
The inter prediction image production | generation part 16 produces | generates the motion compensation image mc regarding each inter prediction partition by inter prediction. Specifically, using the motion vector mv supplied from the motion vector restoration unit 12, the motion compensated image mc from the filtered decoded image P_FL ′ designated by the reference image index RI also supplied from the motion vector restoration unit 12 is used. Is generated. Here, the filtered decoded image P_FL ′ is an image obtained by performing the deblocking process by the deblocking filter 19 and the filtering process by the adaptive filter 30 on the decoded image that has already been decoded for the entire frame. The inter-predicted image generation unit 16 can read out the pixel value of each pixel constituting the filtered decoded image P_FL ′ from the buffer memory 15. The motion compensation image mc generated by the inter prediction image generation unit 16 is supplied to the prediction method determination unit 18 as an inter prediction image Pred_Inter.
(イントラ予測画像生成部17)
イントラ予測画像生成部17は、各イントラ予測パーティションに関する予測画像Pred_Intraを生成する。具体的には、まず、可変長符号復号部11から供給されたイントラ予測パラメータPP_Intraに基づいて予測モードを特定し、特定された予測モードを対象パーティションに対して、例えば、ラスタスキャン順に割り付ける。
(Intra predicted image generation unit 17)
The intra predicted image generation unit 17 generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, a prediction mode is specified based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11, and the specified prediction mode is assigned to the target partition in, for example, raster scan order.
ここで、イントラ予測パラメータPP_Intraに基づく予測モードの特定は、以下のように行うことができる。(1)推定フラグMPMを復号し、当該推定フラグMPMが、処理対象である対象パーティションについての予測モードと、当該対象パーティションの周辺のパーティションに割り付けられた予測モードとが同一であることを示している場合には、対象パーティションに対して、当該対象パーティションの周辺のパーティションに割り付けられた予測モードを割り付ける。(2)一方で、推定フラグMPMが、処理対象である対象パーティションについての予測モードと、当該対象パーティションの周辺のパーティションに割り付けられた予測モードとが同一でないことを示している場合には、残余予測モードインデックスRIPMを復号し、当該残余予測モードインデックスRIPMの示す予測モードを対象パーティションに対して割り付ける。 Here, the prediction mode based on the intra prediction parameter PP_Intra can be specified as follows. (1) The estimation flag MPM is decoded, and the estimation flag MPM indicates that the prediction mode for the target partition to be processed is the same as the prediction mode assigned to the peripheral partition of the target partition. If it is, the prediction mode assigned to the partition around the target partition is assigned to the target partition. (2) On the other hand, if the estimation flag MPM indicates that the prediction mode for the target partition to be processed is not the same as the prediction mode assigned to a partition around the target partition, the remaining The prediction mode index RIPM is decoded, and the prediction mode indicated by the residual prediction mode index RIPM is assigned to the target partition.
イントラ予測画像生成部17は、対象パーティションに割り付けられた予測モードの示す予測方法に従って、画面内予測によって、(局所)復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部17によって生成されたイントラ予測画像Pred_Intraは、予測方式決定部18に供給される。なお、イントラ予測画像生成部17は、画面内予測によって、フィルタ済復号画像P_FLから予測画像Pred_Intraを生成する構成とすることも可能である。 The intra predicted image generation unit 17 generates a predicted image Pred_Intra from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode assigned to the target partition. The intra predicted image Pred_Intra generated by the intra predicted image generation unit 17 is supplied to the prediction method determination unit 18. Note that the intra predicted image generation unit 17 may be configured to generate a predicted image Pred_Intra from the filtered decoded image P_FL by intra prediction.
(予測方式決定部18)
予測方式決定部18は、各パーティションが属するPUについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを決定する。そして、前者の場合には、インター予測画像生成部16にて生成されたインター予測画像Pred_Interを予測画像Predとして加算器14に供給し、後者の場合には、イントラ予測画像生成部17にて生成されたイントラ予測画像Pred_Intraを予測画像Predとして加算器14に供給する。
(Prediction method determination unit 18)
The prediction method determination unit 18 determines whether each partition is an inter prediction partition that should perform inter prediction or an intra prediction partition that should perform intra prediction, based on the prediction type information PT for the PU to which each partition belongs. To do. In the former case, the inter prediction image Pred_Inter generated by the inter prediction image generation unit 16 is supplied to the adder 14 as the prediction image Pred. In the latter case, the intra prediction image generation unit 17 generates the inter prediction image Pred_Inter. The intra predicted image Pred_Intra that has been processed is supplied to the adder 14 as the predicted image Pred.
(逆量子化・逆変換部13)
逆量子化・逆変換部13は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器14に供給する。なお、量子化予測残差QDを逆量子化する際に、逆量子化・逆変換部13は、可変長符号復号部11から供給された量子化パラメータ差分Δqpから量子化ステップQPを導出する。量子化パラメータqpは、直前に逆量子化/逆DCT変換したTUに関する量子化パラメータqp’に量子化パラメータ差分Δqpを加算することによって導出でき、量子化ステップQPは、量子化ステップqpから例えばQP=2pq/6によって導出できる。また、逆量子化・逆変換部13による予測残差Dの生成は、TUあるいはTUを分割したブロックを単位として行われる。
(Inverse quantization / inverse transform unit 13)
The inverse quantization / inverse transform unit 13 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transform on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 14. When the quantization prediction residual QD is inversely quantized, the inverse quantization / inverse transform unit 13 derives the quantization step QP from the quantization parameter difference Δqp supplied from the variable length code decoding unit 11. The quantization parameter qp can be derived by adding the quantization parameter difference Δqp to the quantization parameter qp ′ relating to the TU that has been inversely quantized / inversely DCT transformed immediately before, and the quantization step QP is derived from the quantization step qp, for example, QP = 2 pq / 6 . The generation of the prediction residual D by the inverse quantization / inverse transform unit 13 is performed in units of blocks obtained by dividing TUs or TUs.
(加算器14)
加算器14は、予測方式決定部18から供給された予測画像Predと、逆量子化・逆変換部13から供給された予測残差Dとを加算することによって復号画像Pを生成する。生成された復号画像Pは、バッファメモリ15に格納される。
(Adder 14)
The adder 14 generates the decoded image P by adding the prediction image Pred supplied from the prediction method determination unit 18 and the prediction residual D supplied from the inverse quantization / inverse conversion unit 13. The generated decoded image P is stored in the buffer memory 15.
(デブロッキングフィルタ19)
デブロッキングフィルタ19は、復号画像Pにおけるブロック境界、またはパーティション境界を介して互いに隣接する画素の画素値の差が予め定められた閾値よりも小さい場合に、復号画像Pにおける当該ブロック境界、または当該パーティション境界に対してデブロッキング処理を施すことによって、当該ブロック境界、または当該パーティション境界付近の画像の平滑化を行う。デブロッキングフィルタ19によりデブロッキング処理が施された画像は、デブロック済復号画像P_DBとして、適応フィルタ30に出力される。
(Deblocking filter 19)
When the difference between the pixel values of pixels adjacent to each other via a block boundary or partition boundary in the decoded image P is smaller than a predetermined threshold, the deblocking filter 19 By performing a deblocking process on the partition boundary, the block boundary or an image near the partition boundary is smoothed. The image subjected to the deblocking process by the deblocking filter 19 is output to the adaptive filter 30 as a deblocked decoded image P_DB.
(適応フィルタ30)
適応フィルタ30は、デブロック済復号画像P_DBに対して、輝度成分Yおよび色差成分Cr、色差成分Cbに対して適応的フィルタ処理を行い、フィルタ済復号画像P_FLを生成する。
(Adaptive filter 30)
The adaptive filter 30 performs adaptive filter processing on the luminance component Y, the color difference component Cr, and the color difference component Cb on the deblocked decoded image P_DB to generate a filtered decoded image P_FL.
図5は適応フィルタ30のブロック図である。図5に示すように、適応フィルタ30は、色差適応フィルタ情報復号部31および色差適応フィルタ部32、輝度適応フィルタ部33を備えている。 FIG. 5 is a block diagram of the adaptive filter 30. As shown in FIG. 5, the adaptive filter 30 includes a color difference adaptive filter information decoding unit 31, a color difference adaptive filter unit 32, and a luminance adaptive filter unit 33.
(色差適応フィルタ情報復号部31)
色差適応フィルタ情報復号部31は、フィルタパラメータFPから、alf_chroma_idcを復号し、さらにalf_chroma_idcの値に応じて、タップ数、フィルタ係数群HCr、フィルタ係数群HCbを復号する。ここでフィルタ係数群HCrおよびフィルタ係数群HCbは、色差成分Crおよび色差成分Cbに施される適応的フィルタ処理のフィルタ係数群である。
(Color difference adaptive filter information decoding unit 31)
The color difference adaptive filter information decoding unit 31 decodes alf_chroma_idc from the filter parameter FP, and further decodes the number of taps, the filter coefficient group HCr, and the filter coefficient group HCb according to the value of alf_chroma_idc. Here, the filter coefficient group HCr and the filter coefficient group HCb are filter coefficient groups for adaptive filter processing applied to the color difference component Cr and the color difference component Cb.
図5に示すように、色差適応フィルタ情報復号部31は、色差適応フィルタ係数導出部311を備えている。色差適応フィルタ係数導出部311で導出されたフィルタ係数群HCbおよびフィルタ係数群HCrは色差適応フィルタ部32に供給される。 As shown in FIG. 5, the color difference adaptive filter information decoding unit 31 includes a color difference adaptive filter coefficient deriving unit 311. The filter coefficient group HCb and the filter coefficient group HCr derived by the color difference adaptive filter coefficient deriving unit 311 are supplied to the color difference adaptive filter unit 32.
(色差適応フィルタ係数導出部311)
色差適応フィルタ係数導出部311について、図6〜図8を参照にして説明する。色差適応フィルタ係数導出部311の動作はalf_chroma_idcによって切り替わる。色差適応フィルタ係数導出部311は、次の式により、alf_length_chroma_minus5_div2からフィルタのタップ数tap_chromaおよびフィルタ係数の個数AlfNumCoeffChromaを導出する。
tap_chroma=(alf_length_chroma_minus5_div2<<1)+5
AlfNumCoeffChroma=((tap_chroma*tap_chroma+1)>>1)+1
(Color difference adaptive filter coefficient deriving unit 311)
The color difference adaptive filter coefficient deriving unit 311 will be described with reference to FIGS. The operation of the color difference adaptive filter coefficient deriving unit 311 is switched by alf_chroma_idc. The color difference adaptive filter coefficient deriving unit 311 derives the filter tap number tap_chroma and the filter coefficient number AlfNumCoeffChroma from alf_length_chroma_minus5_div2 by the following equation.
tap_chroma = (alf_length_chroma_minus5_div2 << 1) +5
AlfNumCoeffChroma = ((tap_chroma * tap_chroma + 1) >> 1) +1
alf_chroma_idc=0のとき、フィルタ係数群HCrおよびフィルタ係数群HCbは導出されない。 When alf_chroma_idc = 0, the filter coefficient group HCr and the filter coefficient group HCb are not derived.
alf_chroma_idc=1のとき、フィルタ係数群HCrのみが導出され、フィルタ係数群HCbは導出されない。フィルタ係数群HCrには、以下の式により、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_Crが割り当てられる。
HCr[i]=alf_coeff_Cr[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
When alf_chroma_idc = 1, only the filter coefficient group HCr is derived, and the filter coefficient group HCb is not derived. The filter coefficient group alf_coeff_Cr decoded from the filter parameter FP is assigned to the filter coefficient group HCr by the following expression.
HCr [i] = alf_coeff_Cr [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
alf_chroma_idc=2のとき、フィルタ係数群HCbのみが導出され、フィルタ係数群HCrは導出されない。以下の式により、フィルタ係数群HCbには、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_Cbが割り当てられる。
HCb[i]=alf_coeff_Cb[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
When alf_chroma_idc = 2, only the filter coefficient group HCb is derived, and the filter coefficient group HCr is not derived. The filter coefficient group alf_coeff_Cb decoded from the filter parameter FP is assigned to the filter coefficient group HCb by the following expression.
HCb [i] = alf_coeff_Cb [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
alf_chroma_idc=3のとき、フィルタ係数群HCrおよびフィルタ係数群HCbが導出される。以下の式により、フィルタ係数群HCrおよびフィルタ係数群HCbには、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_chromaが割り当てられる。
HCr[i]=alf_coeff_chroma[i]
HCb[i]=alf_coeff_chroma[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
When alf_chroma_idc = 3, the filter coefficient group HCr and the filter coefficient group HCb are derived. The filter coefficient group alf_coeff_chroma decoded from the filter parameter FP is assigned to the filter coefficient group HCr and the filter coefficient group HCb according to the following expression.
HCr [i] = alf_coeff_chroma [i]
HCb [i] = alf_coeff_chroma [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
alf_chroma_idc=4のとき、色差適応フィルタ係数導出部311の備えるフィルタ係数予測処理部3111は、独立フィルタ係数群alf_coeff_C1[i]と従属フィルタ係数群alf_coeff_C2[i]の要素毎の減算により第2色差成分C2のフィルタ係数群HC2を導出する。
HC1[i]=alf_coeff_C1[i]
HC2[i]=alf_coeff_C1[i]−alf_coeff_C2[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
導出されたフィルタ係数群HC1およびフィルタ係数群HC2は、第1色差成分C1と第2色差成分C2の対応関係に応じて、フィルタ係数群HCrおよびフィルタ係数群HCbに割り当てられる。
When alf_chroma_idc = 4, the filter coefficient prediction processing unit 3111 included in the color difference adaptive filter coefficient deriving unit 311 performs the second color difference component by subtraction for each element of the independent filter coefficient group alf_coeff_C1 [i] and the dependent filter coefficient group alf_coeff_C2 [i]. A filter coefficient group HC2 for C2 is derived.
HC1 [i] = alf_coeff_C1 [i]
HC2 [i] = alf_coeff_C1 [i] −alf_coeff_C2 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
The derived filter coefficient group HC1 and filter coefficient group HC2 are assigned to the filter coefficient group HCr and the filter coefficient group HCb according to the correspondence relationship between the first color difference component C1 and the second color difference component C2.
この場合、後述する動画像符号化装置2では、第2色差成分C2のフィルタ係数群のフィルタ係数HC2[i]と、第1色差成分C1のフィルタ係数群のフィルタ係数HC1[i]の差分値である従属フィルタ係数群alf_coeff_C2[i]を以下の式により定める。
alf_coeff_C2[i]=HC1[i]−HC2[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
In this case, in the moving picture encoding apparatus 2 described later, a difference value between the filter coefficient HC2 [i] of the filter coefficient group of the second chrominance component C2 and the filter coefficient HC1 [i] of the filter coefficient group of the first chrominance component C1. Dependent filter coefficient group alf_coeff_C2 [i] is defined by the following equation.
alf_coeff_C2 [i] = HC1 [i] −HC2 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
なお、フィルタ係数予測処理部3111は、独立フィルタ係数群alf_coeff_C1[i]と従属フィルタ係数群alf_coeff_C2[i]の要素毎の加算により第2色差成分C2のフィルタ係数群HC2を導出しても構わない。
HC2[i]=alf_coeff_C1[i]+alf_coeff_C2[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
Note that the filter coefficient prediction processing unit 3111 may derive the filter coefficient group HC2 of the second color difference component C2 by addition of each element of the independent filter coefficient group alf_coeff_C1 [i] and the dependent filter coefficient group alf_coeff_C2 [i]. .
HC2 [i] = alf_coeff_C1 [i] + alf_coeff_C2 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
この場合、後述する動画像符号化装置2では、以下の式により、2つのフィルタ係数群間の差分値を計算し、従属フィルタ係数群alf_coeff_C2[i]を定める。
alf_coeff_C2[i]=HC2[i]−HC1[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
In this case, the moving picture coding apparatus 2 to be described later calculates a difference value between the two filter coefficient groups by the following formula to determine a dependent filter coefficient group alf_coeff_C2 [i].
alf_coeff_C2 [i] = HC2 [i] −HC1 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
第1色差成分があらかじめ決まっている構成の場合には、図7(a)に示すように、以下の式によってフィルタ係数群HCrおよびフィルタ係数群HCbが割り当てられる。
HCr[i]=HC1[i]
HCb[i]=HC2[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
In the case where the first color difference component is determined in advance, as shown in FIG. 7A, the filter coefficient group HCr and the filter coefficient group HCb are assigned by the following equations.
HCr [i] = HC1 [i]
HCb [i] = HC2 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
なお、図7(b)に示すように、第1色差成分C1が色差成分Cbとしてもよい。この場合、以下の式によってフィルタ係数群HCrおよびフィルタ係数群HCbが割り当てられる。
HCb[i]=HC1[i]
HCr[i]=HC2[i]
ここで、iは0からAlfNumCoeffChroma−1の整数である。
As shown in FIG. 7B, the first color difference component C1 may be the color difference component Cb. In this case, the filter coefficient group HCr and the filter coefficient group HCb are assigned by the following equations.
HCb [i] = HC1 [i]
HCr [i] = HC2 [i]
Here, i is an integer from 0 to AlfNumCoeffChroma-1.
第1色差成分C1がsw_flagにより決まる構成の場合には、図8に示すように、色差フィルタ係数割当部3112によりフィルタ係数群HC1およびフィルタ係数群HC2の割り当てが行われる。 When the first color difference component C1 is determined by sw_flag, the filter coefficient group HC1 and the filter coefficient group HC2 are allocated by the color difference filter coefficient allocation unit 3112 as shown in FIG.
色差フィルタ係数割当部3112はsw_flagに応じてフィルタ係数群HC1とフィルタ係数群HC2の割り当てを行う。sw_flagが0の場合、フィルタ係数群HC1をフィルタ係数群HCrに割り当て、フィルタ係数群HC2をフィルタ係数群HCbに割り当てる。sw_flagが1の場合、フィルタ係数群HC1をフィルタ係数群HCbに割り当て、フィルタ係数群HC2をフィルタ係数群HCrに割り当てる。 The color difference filter coefficient assigning unit 3112 assigns the filter coefficient group HC1 and the filter coefficient group HC2 according to sw_flag. When sw_flag is 0, the filter coefficient group HC1 is assigned to the filter coefficient group HCr, and the filter coefficient group HC2 is assigned to the filter coefficient group HCb. When sw_flag is 1, the filter coefficient group HC1 is assigned to the filter coefficient group HCb, and the filter coefficient group HC2 is assigned to the filter coefficient group HCr.
(色差適応フィルタ部32)
色差適応フィルタ部32は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。また、生成されたフィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbは、バッファメモリ15に格納される。
(Color difference adaptive filter unit 32)
The color difference adaptive filter unit 32 performs adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB to generate the color difference component Cr and the color difference component Cb of the filtered decoded image P_FL. Further, the color difference component Cr and the color difference component Cb of the generated filtered decoded image P_FL are stored in the buffer memory 15.
図5に示すように、色差適応フィルタ部32はスイッチ部321、および、Crフィルタ処理部322、Cbフィルタ処理部323を備えている。スイッチ部321は、スイッチ部321aとスイッチ部321bから構成される。 As shown in FIG. 5, the color difference adaptive filter unit 32 includes a switch unit 321, a Cr filter processing unit 322, and a Cb filter processing unit 323. The switch unit 321 includes a switch unit 321a and a switch unit 321b.
(スイッチ部321)
スイッチ部321は、色差成分Crおよび色差成分Cbに適応的フィルタ処理を行うか否かを切り替える。スイッチ部321aがオンであるならば、デブロック済復号画像P_DBの色差成分CrはCrフィルタ処理部322に供給される。スイッチ部321bがオンであるならば、デブロック済復号画像P_DBの色差成分Cbは、Cbフィルタ処理部323に供給される。図9は、スイッチ321aおよびスイッチ321bのオンオフの状態を示す。
(Switch unit 321)
The switch unit 321 switches whether to perform adaptive filter processing on the color difference component Cr and the color difference component Cb. If the switch unit 321a is on, the color difference component Cr of the deblocked decoded image P_DB is supplied to the Cr filter processing unit 322. If the switch unit 321b is on, the color difference component Cb of the deblocked decoded image P_DB is supplied to the Cb filter processing unit 323. FIG. 9 shows an on / off state of the switch 321a and the switch 321b.
alf_chroma_idcが0のとき、色差成分Cr、色差成分Cbに対するフィルタ処理は行われない。alf_chroma_idcが1のとき、色差成分Crにフィルタ処理が行われる。alf_chroma_idcが2のとき、色差成分Cbにフィルタ処理が行われる。alf_chroma_idcが3、4のとき色差成分Crおよび色差成分Cbのフィルタ処理が行われる。 When alf_chroma_idc is 0, filter processing for the color difference component Cr and the color difference component Cb is not performed. When alf_chroma_idc is 1, the color difference component Cr is filtered. When alf_chroma_idc is 2, the color difference component Cb is filtered. When alf_chroma_idc is 3 or 4, filter processing of the color difference component Cr and the color difference component Cb is performed.
(スイッチ部321a)
スイッチ部321aは、alf_chroma_idcが1、3、4のときにオンとなる。オンのとき、デブロック済復号画像P_DBの色差成分CrをCrフィルタ処理部322に供給して、オフのとき、デブロック済復号画像P_DBの色差成分Crをフィルタ済復号画像P_FLの色差成分Crとして出力する。
(Switch part 321a)
The switch unit 321a is turned on when alf_chroma_idc is 1, 3, or 4. When ON, the color difference component Cr of the deblocked decoded image P_DB is supplied to the Cr filter processing unit 322, and when OFF, the color difference component Cr of the deblocked decoded image P_DB is used as the color difference component Cr of the filtered decoded image P_FL. Output.
(スイッチ部321b)
スイッチ部321bは、alf_chroma_idcが2、3、4のときにオンとなる。オンのとき、デブロック済復号画像P_DBの色差成分CbをCbフィルタ処理部323に供給して、オフのとき、デブロック済復号画像P_DBの色差成分Cbをフィルタ済復号画像P_FLの色差成分Cbとして出力する。
(Switch unit 321b)
The switch unit 321b is turned on when alf_chroma_idc is 2, 3, or 4. When ON, the color difference component Cb of the deblocked decoded image P_DB is supplied to the Cb filter processing unit 323, and when OFF, the color difference component Cb of the deblocked decoded image P_DB is used as the color difference component Cb of the filtered decoded image P_FL. Output.
(適応的フィルタ処理)
適応的フィルタ処理は、Crフィルタ処理部322、Cbフィルタ処理部323、輝度適応フィルタ部33においては、以下の動作により行われる。
(Adaptive filtering)
The adaptive filter processing is performed by the following operations in the Cr filter processing unit 322, the Cb filter processing unit 323, and the luminance adaptive filter unit 33.
フィルタ対象画素の画素値をSF(x’,y’)と表し、デブロック済復号画像P_DB(以下、「フィルタ前画像」とも呼称する)における対象マクロブロック内または対象マクロブロック周辺の画素値をS(x,y)と表すことにすると、フィルタ処理部は、画素値SF(x’,y’)を、以下の(1)式によって算出する。 The pixel value of the filter target pixel is represented as SF (x ′, y ′), and the pixel values in or around the target macroblock in the deblocked decoded image P_DB (hereinafter also referred to as “pre-filter image”) When expressed as S (x, y), the filter processing unit calculates the pixel value SF (x ′, y ′) by the following equation (1).
対象単位領域URが8×8画素であり、フィルタ参照領域が5×5タップである場合の、フィルタ参照領域R、および、フィルタ参照範囲RAを図10(a)に示す。図10(a)において、斜線が付された画素は、フィルタ対象画素S(x’,y’)を示している。 FIG. 10A shows the filter reference region R and the filter reference range RA when the target unit region UR is 8 × 8 pixels and the filter reference region is 5 × 5 taps. In FIG. 10A, the hatched pixels indicate the filter target pixels S (x ′, y ′).
また、フィルタ参照領域Rに含まれる各画素へのフィルタ係数の割り付け方の一例を図10(b)に示す。図10(b)においても、斜線が付された画素は、フィルタ対象画素S(x’,y’)を示している。図10(b)に示すように、各フィルタ係数は、180度の回転対称性を有するように、フィルタ参照領域Rに含まれる各画素に対して割り付けられる構成とすることができる。 An example of how to assign filter coefficients to each pixel included in the filter reference region R is shown in FIG. Also in FIG. 10B, the hatched pixels indicate the filter target pixels S (x ′, y ′). As shown in FIG. 10B, each filter coefficient can be assigned to each pixel included in the filter reference region R so as to have a rotational symmetry of 180 degrees.
ただし、本実施形態はこれに限定されるものではなく、各フィルタ係数の各画素値への割り付けは、回転対称性を有していなくてもよい。また、フィルタ参照領域Rは、画素を単位として、フィルタ対象画素からの市街地距離がNcb以下である画素によって構成されるひし形の領域であってもよいし、その他の形状を有する領域であってもよい。 However, the present embodiment is not limited to this, and the assignment of each filter coefficient to each pixel value may not have rotational symmetry. Further, the filter reference region R may be a rhombus region constituted by pixels whose city distance from the filter target pixel is Ncb or less in units of pixels, or regions having other shapes. Good.
フィルタ参照領域Rに含まれる各画素へのフィルタ係数の割り付け方、および、フィルタ参照領域Rの形状については、符号化データ#1を生成する動画像符号化装置の構成に応じて適宜設定すればよい。 The method of assigning the filter coefficient to each pixel included in the filter reference region R and the shape of the filter reference region R may be appropriately set according to the configuration of the moving picture encoding device that generates the encoded data # 1. Good.
(Crフィルタ処理部322)
Crフィルタ処理部322は、スイッチ部321から供給されたデブロック済復号画像P_DBの色差成分Crに対して、色差適応フィルタ係数導出部311から供給されたフィルタ係数群HCrを用いた適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crを生成する。
(Cr filter processing unit 322)
The Cr filter processing unit 322 uses the filter coefficient group HCr supplied from the chrominance adaptive filter coefficient derivation unit 311 for the chrominance component Cr of the deblocked decoded image P_DB supplied from the switch unit 321. To generate a color difference component Cr of the filtered decoded image P_FL.
(Cbフィルタ処理部323)
Cbフィルタ処理部323は、スイッチ部321から供給されたデブロック済復号画像P_DBの色差成分Cbに対して、色差適応フィルタ係数導出部311から供給されたフィルタ係数群HCbを用いた適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Cbを生成する。
(Cb filter processing unit 323)
The Cb filter processing unit 323 performs adaptive filter processing using the filter coefficient group HCb supplied from the color difference adaptive filter coefficient deriving unit 311 for the color difference component Cb of the deblocked decoded image P_DB supplied from the switch unit 321. To generate a color difference component Cb of the filtered decoded image P_FL.
(輝度適応フィルタ部33)
輝度適応フィルタ部33は、デブロック済復号画像P_DBの輝度成分Yに対して、フィルタパラメータFPから供給される輝度フィルタ情報を用いて適応的フィルタ処理を行い、フィルタ済復号画像P_FLの輝度成分Yを生成する。
(Luminance adaptive filter unit 33)
The luminance adaptive filter unit 33 performs adaptive filter processing on the luminance component Y of the deblocked decoded image P_DB using luminance filter information supplied from the filter parameter FP, and the luminance component Y of the filtered decoded image P_FL. Is generated.
(動画像符号化装置2)
本実施形態に係る動画像符号化装置2の構成について図11〜図13を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG−4.AVC、VCEG(Video Coding Expert Group)および、その後継コーデックとして提案されているHEVC(High Efficiency Video Coding)のテストモデルHMに採用されている技術を含む符号化装置である。
(Moving picture encoding device 2)
A configuration of the moving picture encoding apparatus 2 according to the present embodiment will be described with reference to FIGS. The moving image encoding apparatus 2 includes H.264 as a part thereof. H.264 / MPEG-4. It is an encoding device including a technique adopted in a test model HM of AVC, VCEG (Video Coding Expert Group), and HEVC (High Efficiency Video Coding) proposed as a successor codec.
図11は、動画像符号化装置2の構成を示すブロック図である。図11に示すように、動画像符号化装置2は、変換・量子化部21、可変長符号符号化部22、逆量子化・逆変換部23、バッファメモリ24、イントラ予測画像生成部25、インター予測画像生成部26、動きベクトル検出部27、予測方式制御部28、動きベクトル冗長性削除部29、加算器41、減算器42、デブロッキングフィルタ43、および、適応フィルタ44を備えている。動画像符号化装置2は、動画像#10(符号化対象画像)を符号化することによって、符号化データ#1を生成する装置である。 FIG. 11 is a block diagram illustrating a configuration of the moving image encoding device 2. As illustrated in FIG. 11, the moving image encoding device 2 includes a transform / quantization unit 21, a variable length code encoding unit 22, an inverse quantization / inverse transform unit 23, a buffer memory 24, an intra-predicted image generation unit 25, The inter prediction image generation unit 26, the motion vector detection unit 27, the prediction scheme control unit 28, the motion vector redundancy deletion unit 29, an adder 41, a subtractor 42, a deblocking filter 43, and an adaptive filter 44 are provided. The moving image encoding device 2 is a device that generates encoded data # 1 by encoding moving image # 10 (encoding target image).
(変換・量子化部21)
変換・量子化部21は、(1)符号化対象画像から予測画像Predを減算した予測残差Dをブロック毎にDCT変換(Discrete Cosine Transform)し、(2)DCT変換により得られたDCT係数を量子化し、(3)量子化により得られた量子化予測残差QDを可変長符号符号化部22および逆量子化・逆変換部23に供給する。なお、変換・量子化部21は、(1)量子化の際に用いる量子化ステップQPをTU毎に選択し、(2)選択した量子化ステップQPの大きさを示す量子化パラメータ差分Δqpを可変長符号符号化部22に供給し、(3)選択した量子化ステップQPを逆量子化・逆変換部23に供給する。ここで、量子化パラメータ差分Δqpとは、DCT変換/量子化するTUに関する量子化パラメータqp(QP=2pq/6)の値から、直前にDCT変換/量子化したTUに関する量子化パラメータqp’の値を減算して得られる差分値のことを指す。
(Transformation / quantization unit 21)
The transform / quantization unit 21 performs (1) DCT transform (Discrete Cosine Transform) on the prediction residual D obtained by subtracting the predicted image Pred from the encoding target image, and (2) DCT coefficients obtained by the DCT transform. (3) The quantized prediction residual QD obtained by the quantization is supplied to the variable-length code encoding unit 22 and the inverse quantization / inverse transform unit 23. The transform / quantization unit 21 selects (1) a quantization step QP used for quantization for each TU, and (2) sets a quantization parameter difference Δqp indicating the magnitude of the selected quantization step QP. The variable length code encoding unit 22 is supplied, and (3) the selected quantization step QP is supplied to the inverse quantization / inverse transform unit 23. Here, the quantization parameter difference Δqp is the quantization parameter qp ′ relating to the TU that has been DCT transformed / quantized immediately before from the value of the quantization parameter qp (QP = 2 pq / 6 ) relating to the TU to be DCT transformed / quantized. The difference value obtained by subtracting the value of.
(可変長符号符号化部22)
可変長符号符号化部22は、(1)変換・量子化部21から供給された量子化予測残差QD並びにΔqp、(2)後述する予測方式制御部28から供給された量子化パラメータPP、および、(3)後述する適応フィルタ44から供給されたフィルタパラメータFPを可変長符号化することによって、符号化データ#1を生成する。
(Variable length code encoder 22)
The variable length code encoding unit 22 includes (1) a quantized prediction residual QD and Δqp supplied from the transform / quantization unit 21, and (2) a quantization parameter PP supplied from a prediction scheme control unit 28 described later, (3) The encoded parameter # 1 is generated by variable-length encoding the filter parameter FP supplied from the adaptive filter 44 described later.
(逆量子化・逆変換部23)
逆量子化・逆変換部23は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器41に供給する。量子化予測残差QDを逆量子化する際には、変換・量子化部21から供給された量子化ステップQPを利用する。なお、逆量子化・逆変換部23から出力される予測残差Dは、変換・量子化部21に入力される予測残差Dに量子化誤差が加わったものであるが、ここでは簡単のために共通の呼称を用いる。
(Inverse quantization / inverse transform unit 23)
The inverse quantization / inverse transform unit 23 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transformation on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 41. When the quantization prediction residual QD is inversely quantized, the quantization step QP supplied from the transform / quantization unit 21 is used. Note that the prediction residual D output from the inverse quantization / inverse transform unit 23 is obtained by adding a quantization error to the prediction residual D input to the transform / quantization unit 21. Common names are used for this purpose.
(イントラ予測画像生成部25)
イントラ予測画像生成部25は、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部25は、生成したイントラ予測画像Pred_Intraを、予測方式制御部28に供給する。
(Intra prediction image generation unit 25)
The intra predicted image generation unit 25 generates a predicted image Pred_Intra related to each partition. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 25 supplies the generated intra predicted image Pred_Intra to the prediction method control unit 28.
また、イントラ予測画像生成部25は、各パーティションについて選択された予測モードと、各パーティションのサイズとから各パーティションについての予測インデックスPIを特定し、各パーティションについての当該予測インデックスPIを示す予測インデックス指定情報を予測方式制御部28に供給する。 In addition, the intra prediction image generation unit 25 identifies the prediction index PI for each partition from the prediction mode selected for each partition and the size of each partition, and specifies a prediction index indicating the prediction index PI for each partition. Information is supplied to the prediction method control unit 28.
(動きベクトル検出部27)
動きベクトル検出部27は、各パーティションに関する動きベクトルmvを検出する。具体的には、(1)参照画像として利用するフィルタ済復号画像P_FL’を選択し、(2)選択したフィルタ済復号画像P_FL’において対象パーティションを最良近似する領域を探索することによって、対象パーティションに関する動きベクトルmvを検出する。ここで、フィルタ済復号画像P_FL’は、既に復号が完了した復号済みの復号画像に対して、デブロッキングフィルタ43によるデブロック処理、および、適応フィルタ44による適応的フィルタ処理を施すことによって得られる画像であり、動きベクトル検出部27は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ24から読み出すことができる。動きベクトル検出部27は、検出した動きベクトルmvを、参照画像として利用したフィルタ済復号画像P_FL’を指定する参照画像インデックスRIと共に、インター予測画像生成部26および動きベクトル冗長性削除部29に供給する。なお、双方向予測(重み付き予測)を行うパーティションについては、参照画像として2枚のフィルタ済復号画像P_FL1’およびP_FL2’を選択し、2枚のフィルタ済復号画像P_FL1’およびP_FL2’の各々に対応する動きベクトルmv1およびmv2、並びに、参照画像インデックスRI1およびRI2をインター予測画像生成部26および動きベクトル冗長性削除部29に供給する。
(Motion vector detection unit 27)
The motion vector detection unit 27 detects a motion vector mv regarding each partition. Specifically, (1) the filtered decoded image P_FL ′ to be used as a reference image is selected, and (2) the target partition is searched by searching for the region that best approximates the target partition in the selected filtered decoded image P_FL ′. Detects a motion vector mv. Here, the filtered decoded image P_FL ′ is obtained by performing deblocking processing by the deblocking filter 43 and adaptive filtering processing by the adaptive filter 44 on the decoded image that has already been decoded. It is an image, and the motion vector detection unit 27 can read out the pixel value of each pixel constituting the filtered decoded image P_FL ′ from the buffer memory 24. The motion vector detection unit 27 supplies the detected motion vector mv to the inter predicted image generation unit 26 and the motion vector redundancy deletion unit 29 together with the reference image index RI that specifies the filtered decoded image P_FL ′ used as the reference image. To do. Note that for a partition that performs bi-directional prediction (weighted prediction), two filtered decoded images P_FL1 ′ and P_FL2 ′ are selected as reference images, and each of the two filtered decoded images P_FL1 ′ and P_FL2 ′ is selected. Corresponding motion vectors mv1 and mv2 and reference image indexes RI1 and RI2 are supplied to the inter prediction image generation unit 26 and the motion vector redundancy deletion unit 29.
(インター予測画像生成部26)
インター予測画像生成部26は、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル検出部27から供給された動きベクトルmvを用いて、動きベクトル検出部27から供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_FL’から動き補償画像mcを生成する。動きベクトル検出部27と同様、インター予測画像生成部26は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ24から読み出すことができる。インター予測画像生成部26は、生成した動き補償画像mc(インター予測画像Pred_Inter)を、動きベクトル検出部27から供給された参照画像インデックスRIと共に、予測方式制御部28に供給する。なお、双方向予測(重み付き予測)をパーティションについては、(1)動きベクトルmv1を用いて、参照画像インデックスRI1によって指定されたフィルタ済復号画像P_FL1’から動き補償画像mc1を生成し、(2)動きベクトルmv2を用いて、参照画像インデックスRI2によって指定されたフィルタ済参照画像P_FL2’から動き補償画像mc2を生成し、(3)動き補償画像mc1と動き補償画像mc2との加重平均にオフセット値を加えることによってインター予測画像Pred_Interを生成する。
(Inter prediction image generation unit 26)
The inter prediction image production | generation part 26 produces | generates the motion compensation image mc regarding each inter prediction partition. Specifically, using the motion vector mv supplied from the motion vector detection unit 27, the motion compensated image mc is obtained from the filtered decoded image P_FL ′ designated by the reference image index RI supplied from the motion vector detection unit 27. Generate. Similar to the motion vector detection unit 27, the inter predicted image generation unit 26 can read out the pixel values of each pixel constituting the filtered decoded image P_FL ′ from the buffer memory 24. The inter prediction image generation unit 26 supplies the generated motion compensated image mc (inter prediction image Pred_Inter) together with the reference image index RI supplied from the motion vector detection unit 27 to the prediction method control unit 28. For the partition with bi-directional prediction (weighted prediction), (1) the motion compensated image mc1 is generated from the filtered decoded image P_FL1 ′ specified by the reference image index RI1 using the motion vector mv1, and (2 ) A motion compensated image mc2 is generated from the filtered reference image P_FL2 ′ designated by the reference image index RI2 using the motion vector mv2, and (3) an offset value is added to the weighted average of the motion compensated image mc1 and the motion compensated image mc2. Is added to generate the inter predicted image Pred_Inter.
(予測方式制御部28)
予測方式制御部28は、イントラ予測画像Pred_Intraおよびインター予測画像Pred_Interを符号化対象画像と比較し、イントラ予測を行うかインター予測を行うかを選択する。イントラ予測を選択した場合、予測方式制御部28は、イントラ予測画像Pred_Intraを予測画像Predとして加算器41および減算器42に供給すると共に、イントラ予測画像生成部25から供給された予測インデックスPIを予測パラメータPPとして可変長符号符号化部22に供給する。一方、インター予測を選択した場合、予測方式制御部28は、インター予測画像Pred_Interを予測画像Predとして加算器41および減算器42に供給すると共に、インター予測画像生成部26から供給された参照画像インデックスRI、並びに、動きベクトル冗長性削除部29(後述)から供給された推定動きベクトルインデックスPMVIおよび動きベクトル残差MVDを予測パラメータPPとして可変長符号符号化部22に供給する。
(Prediction method control unit 28)
The prediction scheme control unit 28 compares the intra predicted image Pred_Intra and the inter predicted image Pred_Inter with the encoding target image, and selects whether to perform intra prediction or inter prediction. When the intra prediction is selected, the prediction scheme control unit 28 supplies the intra prediction image Pred_Intra as the prediction image Pred to the adder 41 and the subtractor 42 and also predicts the prediction index PI supplied from the intra prediction image generation unit 25. The parameter PP is supplied to the variable length code encoder 22. On the other hand, when the inter prediction is selected, the prediction scheme control unit 28 supplies the inter prediction image Pred_Inter as the prediction image Pred to the adder 41 and the subtractor 42 and the reference image index supplied from the inter prediction image generation unit 26. RI and an estimated motion vector index PMVI and a motion vector residual MVD supplied from a motion vector redundancy deleting unit 29 (described later) are supplied to the variable length code encoding unit 22 as prediction parameters PP.
予測方式制御部28にて選択された予測画像Predを、符号化対象画像から減算することによって、減算器42にて予測残差Dが生成される。減算器42にて生成された予測残差Dは、上述したとおり、変換・量子化部21によってDCT変換/量子化される。一方、予測方式制御部28にて選択された予測画像Predを、逆量子化・逆変換部23にて生成された予測残差Dに加算することによって、加算器41にて局所復号画像Pが生成される。加算器41にて生成された局所復号画像Pは、デブロッキングフィルタ43および適応フィルタ44を経由したのち、フィルタ済復号画像P_FLとしてバッファメモリ24に格納され、インター予測における参照画像として利用される。 The subtracter 42 generates a prediction residual D by subtracting the prediction image Pred selected by the prediction method control unit 28 from the encoding target image. The prediction residual D generated by the subtractor 42 is DCT transformed / quantized by the transform / quantization unit 21 as described above. On the other hand, by adding the prediction image Pred selected by the prediction method control unit 28 to the prediction residual D generated by the inverse quantization / inverse conversion unit 23, the adder 41 generates a local decoded image P. Generated. The local decoded image P generated by the adder 41 is stored in the buffer memory 24 as a filtered decoded image P_FL after passing through the deblocking filter 43 and the adaptive filter 44, and is used as a reference image in inter prediction.
(動きベクトル冗長性削除部29)
動きベクトル冗長性削除部29は、動きベクトル検出部27によって検出された動きベクトルmvにおける冗長性を削除する。具体的には、(1)動きベクトルmvの推定に用いる推定方法を選択し、(2)選択した推定方法に従って推定動きベクトルpmvを導出し、(3)動きベクトルmvから推定動きベクトルpmvを減算することにより動きベクトル残差MVDを生成する。動きベクトル冗長性削除部29は、生成した動きベクトル残差MVDを、選択した推定方法を示す推定動きベクトルインデックスPMVIと共に、予測方式制御部28に供給する。
(Motion vector redundancy deletion unit 29)
The motion vector redundancy deletion unit 29 deletes redundancy in the motion vector mv detected by the motion vector detection unit 27. Specifically, (1) an estimation method used for estimating the motion vector mv is selected, (2) an estimated motion vector pmv is derived according to the selected estimation method, and (3) the estimated motion vector pmv is subtracted from the motion vector mv. As a result, a motion vector residual MVD is generated. The motion vector redundancy deletion unit 29 supplies the generated motion vector residual MVD to the prediction method control unit 28 together with the estimated motion vector index PMVI indicating the selected estimation method.
(デブロッキングフィルタ43)
デブロッキングフィルタ43は、復号画像Pにおけるブロック境界、またはマクロブロック境界を介して互いに隣接する画素の画素値の差が予め定められた閾値よりも小さい場合に、復号画像Pにおける当該ブロック境界、または当該マクロブロック境界に対してデブロッキング処理を施すことによって、当該ブロック境界、または当該マクロブロック境界付近の画像の平滑化を行う。デブロッキングフィルタ43によりデブロッキング処理が施された画像は、デブロック済復号画像P_DBとして、適応フィルタ44に出力される。
(Deblocking filter 43)
The deblocking filter 43 determines the block boundary in the decoded image P when the difference between the pixel values of pixels adjacent to each other via the block boundary in the decoded image P or the macroblock boundary is smaller than a predetermined threshold value, or By performing deblocking processing on the macroblock boundary, an image near the block boundary or the macroblock boundary is smoothed. The image subjected to the deblocking process by the deblocking filter 43 is output to the adaptive filter 44 as a deblocked decoded image P_DB.
(適応フィルタ44)
図12は、適応フィルタ44の構成を示すブロック図である。図12に示すように、適応フィルタ44は、色差適応フィルタ部441と輝度適応フィルタ部444を備えている。適応フィルタ44は、デブロッキングフィルタ43から供給されるデブロック済復号画像P_DBに対して、適応的なフィルタ処理を施すことによって、フィルタ済復号画像P_FLを生成する。適応フィルタ44によりフィルタ処理が施されたフィルタ済復号画像P_FLは、バッファメモリ24に格納される。適応フィルタ44は、フィルタパラメータFPを生成し、可変長符号符号化部22に供給する。
(Adaptive filter 44)
FIG. 12 is a block diagram showing the configuration of the adaptive filter 44. As shown in FIG. 12, the adaptive filter 44 includes a color difference adaptive filter unit 441 and a luminance adaptive filter unit 444. The adaptive filter 44 generates a filtered decoded image P_FL by performing an adaptive filter process on the deblocked decoded image P_DB supplied from the deblocking filter 43. The filtered decoded image P_FL that has been filtered by the adaptive filter 44 is stored in the buffer memory 24. The adaptive filter 44 generates a filter parameter FP and supplies it to the variable length code encoding unit 22.
(色差適応フィルタ部441)
図12に示すように、色差適応フィルタ部441は、色差フィルタ情報決定部442および適応フィルタ部443を備えている。色差適応フィルタ部441は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cb、動画像#10の色差成分Cr、色差成分Cbから色差フィルタ情報およびフィルタ済復号画像P_FLの色差成分Cr、色差成分Cbを生成する。
(Color difference adaptive filter unit 441)
As illustrated in FIG. 12, the color difference adaptive filter unit 441 includes a color difference filter information determination unit 442 and an adaptive filter unit 443. The color difference adaptive filter unit 441 performs color difference filter information and color difference component Cr of the filtered decoded image P_FL from the color difference component Cr and color difference component Cb of the deblocked decoded image P_DB, color difference component Cr of the moving image # 10, and color difference component Cb. Component Cb is generated.
(色差フィルタ情報決定部442)
図13に示すように、色差フィルタ情報決定部442は、色差フィルタ係数計算部4421および色差フィルタ係数決定部4422を備えている。色差フィルタ情報決定部442は、色差フィルタ情報を決定して、適応フィルタ部443および可変長符号符号化部22に供給する。
(Color difference filter information determination unit 442)
As illustrated in FIG. 13, the color difference filter information determination unit 442 includes a color difference filter coefficient calculation unit 4421 and a color difference filter coefficient determination unit 4422. The color difference filter information determination unit 442 determines the color difference filter information and supplies it to the adaptive filter unit 443 and the variable length code encoding unit 22.
(色差フィルタ係数計算部4421)
色差フィルタ係数計算部4421は、デブロック済復号画像P_DBの色差成分と、符号化対象画像(動画像#10)の色差成分との2乗誤差が最小となるように、フィルタ係数群を計算する。色差フィルタ係数計算部4421は、図示しない共通フィルタ係数計算部を用いる。共通フィルタ係数計算部は、輝度成分、色差成分で共通して用いられる手段であり、指定された色成分および、指定された領域におけるデブロック済復号画像と符号化対象画像との2乗誤差が最小となるように、フィルタ係数群を計算する。輝度成分Y、色差成分Cb、色差成分Cr、および、色差成分Cbと色差成分Crの両方を指定することができ、各々の2乗誤差は、以下の(2)および(3)、(4)、(5)式で表される。
(Color difference filter coefficient calculation unit 4421)
The color difference filter coefficient calculation unit 4421 calculates a filter coefficient group so that the square error between the color difference component of the deblocked decoded image P_DB and the color difference component of the encoding target image (moving image # 10) is minimized. . The color difference filter coefficient calculation unit 4421 uses a common filter coefficient calculation unit (not shown). The common filter coefficient calculation unit is a means used in common for the luminance component and the color difference component, and the square error between the designated color component and the deblocked decoded image and the encoding target image in the designated region. The filter coefficient group is calculated so as to be minimized. The luminance component Y, the color difference component Cb, the color difference component Cr, and both the color difference component Cb and the color difference component Cr can be specified, and the square error of each of them is given by the following (2), (3), (4) , (5).
なお、S(x,y)、SCb(x,y)、SCr(x,y)は、各々、デブロック済復号画像P_DBに含まれる画素のうち、座標が(x,y)である画素の輝度成分Y、色差成分Cb、色差成分Crの画素値を表し、ST(x,y)、STCb(x,y)、STCr(x,y)は、各々、符号化対象画像に含まれる画素のうち、座標が(x,y)である画素の輝度成分Y、色差成分Cb、色差成分Crの画素値を表す。 Note that S (x, y), SCb (x, y), and SCr (x, y) are pixels whose coordinates are (x, y) among the pixels included in the deblocked decoded image P_DB. The pixel values of the luminance component Y, the color difference component Cb, and the color difference component Cr are represented. ST (x, y), STCb (x, y), and STCr (x, y) are the pixels included in the encoding target image. Of these, the pixel values of the luminance component Y, the color difference component Cb, and the color difference component Cr of the pixel whose coordinates are (x, y) are represented.
フィルタ係数計算部4421は、次の3つの計算を行う。(計算1)(3)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_Crを求める。
(計算2)(4)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_Cbを求める。
(計算3)(5)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_chromaを求める。ここで、逆量子化処理は、フィルタ係数の量子化ビット深度filter_bitdepthに応じて行われる。ここでは量子化ビット深度から定まる量子化ステップの逆数1<filter_bitdepthをかけることにより、以下の(6)式に従って行われる。
(Calculation 2) The filter coefficient groups aI (i, j) and oI obtained by minimizing the equation (4) are inversely quantized to obtain alf_coeff_Cb.
(Calculation 3) The filter coefficient groups aI (i, j) and oI obtained by minimizing the expression (5) are inversely quantized to obtain alf_coeff_chroma. Here, the inverse quantization process is performed according to the quantization bit depth filter_bitdepth of the filter coefficient. Here, the reciprocal 1 <filter_bitdepth of the quantization step determined from the quantization bit depth is applied, and this is performed according to the following equation (6).
(色差フィルタ係数決定部4422)
色差フィルタ係数決定部4422は、色差フィルタ係数計算部4421からフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cb、フィルタ係数群alf_coeff_chromaが供給される。色差フィルタ係数決定部4422は、以下の処理1から処理5により、alf_chroma_idcの各モードにおける符号化コストを求め、処理6により、最適なalf_chroma_idcを求める。符号化コストは、各モードの適応的フィルタ処理で求められる画像と符号化対象画像とを比較することによって得られる2乗誤差と、各モードで用いられるフィルタ係数群の符号量から算出されるレート歪みコストを用いる。
(Color difference filter coefficient determination unit 4422)
The color difference filter coefficient determination unit 4422 is supplied with the filter coefficient group alf_coeff_Cr, the filter coefficient group alf_coeff_Cb, and the filter coefficient group alf_coeff_chroma from the color difference filter coefficient calculation unit 4421. The color difference filter coefficient determination unit 4422 obtains the coding cost in each mode of alf_chroma_idc by the following processing 1 to processing 5, and obtains the optimum alf_chroma_idc by processing 6. The encoding cost is a rate calculated from the square error obtained by comparing the image obtained by the adaptive filter processing in each mode and the encoding target image, and the code amount of the filter coefficient group used in each mode. Use distortion costs.
<第1色差成分C1が予め決まっている構成の場合>
(処理1)色差成分Crおよび色差成分Cbに適応的フィルタ処理を行わない場合の2乗誤差と、フィルタ係数群を符号化しない場合の符号量より、モード0の符号化コスト0を求める。
<When the first color difference component C1 is determined in advance>
(Process 1) The encoding cost 0 of mode 0 is obtained from the square error when the adaptive filter processing is not performed on the color difference component Cr and the color difference component Cb and the code amount when the filter coefficient group is not encoded.
(処理2)色差成分Crのみにフィルタ係数群alf_coeff_Crを用いて適応的フィルタ処理を施す場合の2乗誤差と、色差成分Crのフィルタ係数群の符号量より、モード1の符号化コスト1を求める。 (Processing 2) The encoding cost 1 of mode 1 is obtained from the square error when adaptive filter processing is performed only on the color difference component Cr using the filter coefficient group alf_coeff_Cr and the code amount of the filter coefficient group of the color difference component Cr. .
(処理3)色差成分Cbのみにフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、色差成分Cbのフィルタ係数群の符号量より、モード2の符号化コスト2を求める。 (Process 3) The encoding cost 2 of mode 2 is obtained from the square error when the adaptive filter processing is performed only on the color difference component Cb using the filter coefficient group alf_coeff_Cb and the code amount of the filter coefficient group of the color difference component Cb. .
(処理4)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_chromaを用いて適応的フィルタ処理を施す場合の2乗誤差と、フィルタ係数群alf_coeff_chromaの符号量より、モード3の符号化コスト3を求める。 (Process 4) The encoding cost 3 of mode 3 is obtained from the square error when the adaptive filter processing is performed on the color difference component Cr and the color difference component Cb using the filter coefficient group alf_coeff_chroma and the code amount of the filter coefficient group alf_coeff_chroma. .
(処理5)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、第1色差成分C1の独立フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2の符号量より、モード4の符号化コスト4を求める。 (Process 5) Square error when adaptive filter processing is performed on the color difference component Cr and the color difference component Cb using the filter coefficient group alf_coeff_Cr and the filter coefficient group alf_coeff_Cb, and the independent filter coefficient group alf_coeff_C1 and the first color difference component C1 The encoding cost 4 of mode 4 is obtained from the code amount of the dependent filter coefficient group alf_coeff_C2 for deriving the two-color difference component C2.
(処理6)5つのモードの符号化コスト(符号化コスト1〜符号化コスト4)が最小であるモードをalf_chroma_idcとする。すなわち、モードKの符号化コストが最小であれば、alf_chroma_idc=Kとなる。 (Process 6) A mode in which the coding cost (coding cost 1 to coding cost 4) of the five modes is the minimum is defined as alf_chroma_idc. That is, if the coding cost of mode K is the minimum, alf_chroma_idc = K.
<第1色差成分C1がsw_flagにより定まる構成の場合>
また、sw_flagを用いる場合は、処理5および処理6に替え、以下の処理7、処理8、処理9を行い、最適なalf_chroma_idcとsw_flagを求める。
<When the first color difference component C1 is determined by sw_flag>
When sw_flag is used, instead of the process 5 and the process 6, the following process 7, process 8, and process 9 are performed to obtain the optimum alf_chroma_idc and sw_flag.
(処理7)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Cr、フィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、sw_flag=0の場合、すなわち第1色差成分C1が色差成分Cr、第2色差成分C2が色差成分Cbである場合における、フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2の符号量より、モード4かつsw_flag=0の符号化コスト40を求める。 (Process 7) The square error when adaptive filter processing is performed on the color difference component Cr and the color difference component Cb using the filter coefficient group alf_coeff_Cr and the filter coefficient group alf_coeff_Cb, and when sw_flag = 0, that is, the first color difference component C1 is In the case where the color difference component Cr and the second color difference component C2 are the color difference components Cb, the code amount of the filter coefficient group alf_coeff_C1 and the subordinate filter coefficient group alf_coeff_C2 for deriving the second color difference component C2 is set to mode 4 and sw_flag = 0. The encoding cost 40 is obtained.
(処理8)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Cr、フィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、sw_flag=1の場合、すなわち第1色差成分C1が色差成分Cb、第2色差成分C2が色差成分Crである場合における、フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2の符号量より、モード4かつsw_flag=1の符号化コスト41を求める。 (Process 8) The square error when adaptive filter processing is applied to the color difference component Cr and the color difference component Cb using the filter coefficient group alf_coeff_Cr and the filter coefficient group alf_coeff_Cb, and when sw_flag = 1, that is, the first color difference component C1 is When the color difference component Cb and the second color difference component C2 are the color difference component Cr, the code amount of the mode 4 and sw_flag = 1 is determined from the code amounts of the filter coefficient group alf_coeff_C1 and the subordinate filter coefficient group alf_coeff_C2 for deriving the second color difference component C2. An encoding cost 41 is obtained.
(処理9)6つのモードの符号化コスト(符号化コスト0〜符号化コスト3、符号化コスト40、符号化コスト41)が最小であるモードをalf_chroma_idcとする。さらにモード4が最小である場合、符号化コスト40と符号化コスト41から小さい方を選択し、sw_flagを定める。すなわち、符号化コスト40が小さいときはsw_flag=0とし、符号化コスト41が小さいときはsw_flag=1とする。 (Process 9) A mode in which the encoding cost (encoding cost 0 to encoding cost 3, encoding cost 40, encoding cost 41) of the six modes is the minimum is defined as alf_chroma_idc. Furthermore, when mode 4 is the minimum, the smaller one is selected from the encoding cost 40 and the encoding cost 41, and sw_flag is defined. That is, sw_flag = 0 is set when the coding cost 40 is small, and sw_flag = 1 is set when the coding cost 41 is small.
(適応フィルタ部443)
適応フィルタ部443は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、色差フィルタ情報決定部442から供給された色差フィルタ情報を用いて適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。適応フィルタ部443の処理は、上述した色差適応フィルタ部32の処理と同一であるため、ここでは説明を省略する。
(Adaptive filter unit 443)
The adaptive filter unit 443 performs adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB using the color difference filter information supplied from the color difference filter information determination unit 442, and performs filtered decoding. A color difference component Cr and a color difference component Cb of the image P_FL are generated. Since the process of the adaptive filter unit 443 is the same as the process of the color difference adaptive filter unit 32 described above, the description thereof is omitted here.
(輝度適応フィルタ部444)
輝度適応フィルタ部444は、動画像#10およびデブロック済復号画像P_DBの輝度成分Yから算出される輝度フィルタ情報を用いて、デブロック済復号画像P_DBの輝度成分Yに対して適応的フィルタ処理を施す。輝度適応フィルタ部444は、フィルタ済復号画像P_FLの輝度成分Yおよびフィルタオンオフ情報、輝度フィルタ情報を生成する。なお、なお、輝度適応フィルタ部444の処理は、上述した輝度適応フィルタ部33の処理と同一であるため、ここでは説明を省略する。
(Luminance adaptive filter unit 444)
The luminance adaptive filter unit 444 uses the luminance filter information calculated from the moving image # 10 and the luminance component Y of the deblocked decoded image P_DB to perform adaptive filter processing on the luminance component Y of the deblocked decoded image P_DB. Apply. The luminance adaptive filter unit 444 generates a luminance component Y, filter on / off information, and luminance filter information of the filtered decoded image P_FL. In addition, since the process of the brightness | luminance adaptive filter part 444 is the same as the process of the brightness | luminance adaptive filter part 33 mentioned above, description is abbreviate | omitted here.
以上の実施形態1の構成においては、色差成分Crのフィルタ係数群および色差成分Cbのフィルタ係数群に異なるフィルタ係数群を用いることができるため、色差成分間で共通のフィルタ係数群を用いる場合に比べ、色差成分の画質を向上させることができる。さらに色差成分のフィルタ係数の値は互いに近いことが多い性質を利用して、複数の色差成分のフィルタ係数を符号化する場合に、一方のフィルタ係数をもう一方のフィルタ係数との差分値を用いて、従属フィルタ係数群として符号化することにより、フィルタ係数の符号量を低減することができる。また、差分値として符号化しない方の色差成分である独立フィルタ係数群を適切に選択することにより、さらに、フィルタ係数の符号量を低減させることができる。色差成分Cbのフィルタ係数群HCbと色差成分Crのフィルタ係数群HCrとの差分値は、どちらのフィルタ係数群を差分値でない成分として符号化しても符号量は変化しない。すなわち、HCb[i]−HCr[i]により差分値を算出しても、HCr[i]−HCb[i]により差分値を算出しても、符号が逆転するのみで絶対値は等しいため、差分値を符号化した場合に、両者の符号量は等しい。一方、色差成分Crのフィルタ係数群HCrと色差成分Cbのフィルタ係数群HCbは、一般的に値は異なるため、両者のどちらを独立フィルタ係数群として符号化するかによって、差分フィルタ係数群と独立フィルタ係数群からなる全体の符号量は異なる。したがって、符号量の小さい色差成分のフィルタ係数群を第1色差成分C1のフィルタ係数群に格納し、もう一方の色差成分を第2色差成分C2として、色差成分間の差分値から、それらを復号することで符号量を低減することができる。実際、発明者が実験で得た知見では、フィルタ係数群HCrとフィルタ係数群HCbの符号量は2倍異なることがあるため、sw_flagを用いて差分値でない成分を指定することによって符号量の低減が可能である。 In the configuration of the first embodiment, different filter coefficient groups can be used for the filter coefficient group of the color difference component Cr and the filter coefficient group of the color difference component Cb. Therefore, when a common filter coefficient group is used between the color difference components. In comparison, the image quality of the color difference component can be improved. Furthermore, when encoding the filter coefficients of a plurality of color difference components using the property that the color difference component filter coefficients are often close to each other, the difference value between one filter coefficient and the other filter coefficient is used. Thus, by encoding as a dependent filter coefficient group, the code amount of the filter coefficient can be reduced. Moreover, the code amount of the filter coefficient can be further reduced by appropriately selecting the independent filter coefficient group that is the color difference component that is not encoded as the difference value. The difference value between the filter coefficient group HCb of the chrominance component Cb and the filter coefficient group HCr of the chrominance component Cr does not change even if either filter coefficient group is encoded as a component that is not a difference value. That is, even if the difference value is calculated by HCb [i] −HCr [i] or the difference value is calculated by HCr [i] −HCb [i], the absolute value is equal only by reversing the sign, When the difference value is encoded, both code amounts are equal. On the other hand, the filter coefficient group HCr of the chrominance component Cr and the filter coefficient group HCb of the chrominance component Cb are generally different in value, and therefore independent of the difference filter coefficient group depending on which of them is encoded as an independent filter coefficient group. The total code amount consisting of filter coefficient groups is different. Therefore, the filter coefficient group of the color difference component with a small code amount is stored in the filter coefficient group of the first color difference component C1, and the other color difference component is set as the second color difference component C2 and is decoded from the difference value between the color difference components. By doing so, the amount of codes can be reduced. In fact, according to the knowledge obtained by the inventor through experiments, the code amount of the filter coefficient group HCr and the filter coefficient group HCb may be twice different. Is possible.
また、実施形態1の構成において、alf_chroma_idcが4のときの従属フィルタ係数群alf_coeff_C2からフィルタ係数群HC2を導出する方法は、以上の説明に限定されるものではない。以上の説明では、フィルタ係数群HC2の全てのフィルタ係数をalf_coeff_C2とalf_coeff_C1の差から導出しているが、一部のフィルタ係数をalf_coeff_C2とalf_coeff_C1の差から導出し、他のフィルタ係数をalf_coeff_C2から導出する構成でも構わない。すなわち、フィルタ係数群HC2の一部のフィルタ係数を差分値として符号化し、他のフィルタ係数は差分値でない値(非差分値)で符号化することを意味する。 In the configuration of the first embodiment, the method of deriving the filter coefficient group HC2 from the dependent filter coefficient group alf_coeff_C2 when alf_chroma_idc is 4 is not limited to the above description. In the above description, all the filter coefficients of the filter coefficient group HC2 are derived from the difference between alf_coeff_C2 and alf_coeff_C1, but some filter coefficients are derived from the difference between alf_coeff_C2 and alf_coeff_C1, and other filter coefficients are derived from alf_coeff_C2. It does not matter if the configuration is That is, it means that some filter coefficients of the filter coefficient group HC2 are encoded as difference values, and other filter coefficients are encoded with values (non-difference values) that are not difference values.
例えば、オフセット以外のフィルタ係数を差分値として符号化し、オフセットは非差分値で符号化することが好適である。具体的には、
AlfNumCoeffChroma−1番目がオフセットである場合には、フィルタ係数群HC2の算出方法は以下の(7)式によって表される。
When AlfNumCoeffChroma-1 is the offset, the calculation method of the filter coefficient group HC2 is expressed by the following equation (7).
また、オフセット成分を差分値として符号化するか、非差分値として符号化するか否かを示す差分符号化フラグを符号化データ#1に含めておき、動画像復号装置では、復号したそのフラグの値に応じて、フィルタ係数の復号方法を変更しても構わない。これは、一般的に、異なる色差成分のオフセット間には相関がないことが多いという発明者の知見によるものである。相関がない場合には、オフセット間の差分値をとることによって、差分値の絶対値が増加してしまう可能性がある。一般的に、オフセットを含むフィルタ係数群のフィルタ係数は、0に集中することを利用して、0に近い値を短い符号長で表すような符号化がなされる。このような符号化方法では、絶対値が大きくなるような差分値は符号量の増加に繋がる。そのため、オフセットには差分値を用いないことが適当である。 Also, a differential encoding flag indicating whether the offset component is encoded as a difference value or non-difference value is included in the encoded data # 1, and the moving image decoding apparatus decodes the flag Depending on the value, the decoding method of the filter coefficient may be changed. This is due to the inventor's knowledge that generally there is often no correlation between offsets of different color difference components. When there is no correlation, the absolute value of the difference value may increase by taking the difference value between the offsets. In general, the filter coefficients of the filter coefficient group including the offset are encoded such that a value close to 0 is expressed by a short code length by using the concentration to 0. In such an encoding method, a difference value that increases the absolute value leads to an increase in the code amount. Therefore, it is appropriate not to use the difference value for the offset.
また、差分符号化フラグを用いる方法では、異なるフィルタ係数群のオフセットが近似してない場合だけでなく、近似している場合においても、符号量を減らすことができる。そのため、オフセットの差分値をとるかを示す差分符号化フラグを用いる方法は、色差成分間のフィルタ係数の符号化に用いるだけではなく、一般的に、あるフィルタ係数を既に復号された他のフィルタ係数との差分値を用いて復号する場合に用いることが可能である。例えば、既に復号された前のスライス、現スライスの復号済のフィルタ係数など、から、復号対象のフィルタ係数を復号する場合に用いることが可能である。 Further, in the method using the differential encoding flag, the code amount can be reduced not only when the offsets of different filter coefficient groups are not approximated but also when they are approximated. For this reason, the method using the differential encoding flag indicating whether or not to take the difference value of the offset is not only used for encoding the filter coefficient between the color difference components, but in general, other filter coefficients that have already been decoded are used as other filters. It can be used when decoding using a difference value from a coefficient. For example, the present invention can be used when decoding a filter coefficient to be decoded from a previously decoded slice, a decoded filter coefficient of the current slice, or the like.
なお、実施形態1で扱われる色空間はYUV空間に限られず、他の色空間、例えば、RGB、CMYK、XYZにも拡張可能である。その場合も、色空間に含まれる、少なくとも2つの色成分においてどの成分のフィルタ処理を行うか否かを示すフラグ(alf_chroma_idcに相当するフラグであり、より一般的に、フィルタモードとも呼称)を復号する。これは、YUV空間においてUV間のフィルタ処理に限ることなく、YU間およびYV間、YUV間のフィルタ処理に拡張することができることも意味している。さらに、複数の成分にフィルタ処理が行われる場合には、ある特定の色成分を独立フィルタ係数群として符号化する成分とし、他の色成分のフィルタ係数を、従属フィルタ係数群として符号化することで、フィルタ係数の符号量を低減することができる。さらに、どの色成分を独立フィルタ係数群として符号化するかを示すフラグ(sw_flagに相当)を符号化することにより、さらにフィルタ係数の符号量を低減することができる。 Note that the color space handled in the first embodiment is not limited to the YUV space, and can be extended to other color spaces such as RGB, CMYK, and XYZ. Even in this case, a flag (which is a flag corresponding to alf_chroma_idc and more generally referred to as a filter mode) indicating which component is to be filtered in at least two color components included in the color space is decoded. To do. This also means that it can be expanded to filter processing between YU, YV, and YUV without being limited to filtering between UVs in the YUV space. Furthermore, when a plurality of components are filtered, a specific color component is a component to be encoded as an independent filter coefficient group, and filter coefficients of other color components are encoded as a dependent filter coefficient group. Thus, the code amount of the filter coefficient can be reduced. Furthermore, by encoding a flag (corresponding to sw_flag) indicating which color component is encoded as an independent filter coefficient group, the code amount of the filter coefficient can be further reduced.
また、実施形態1で説明した色差フィルタモードalf_chroma_idcのフィルタモードに代えて、同種の機能を有する別のフィルタモードを用いることも可能である。色差フィルタモードalf_chroma_idcは次の2つの情報を示す機能を有するが、機能1、機能2の役割を果たす2つの情報として符号化することが可能である。 Further, instead of the filter mode of the color difference filter mode alf_chroma_idc described in the first embodiment, another filter mode having the same kind of function can be used. The color difference filter mode alf_chroma_idc has the function of indicating the following two pieces of information, but can be encoded as two pieces of information that play the role of function 1 and function 2.
(機能1)適応フィルタ30によりフィルタ処理がなされる1つ以上の少なくとも2つの色成分において、各色成分に対してフィルタ処理を行うか否かを示す機能。 (Function 1) A function indicating whether or not to perform filter processing on each color component in at least two color components subjected to filter processing by the adaptive filter 30.
(機能2)適応フィルタ30によりフィルタ処理がなされる色成分が2つある場合において、各色成分に対して共通のフィルタ係数群を用いるか、個々に導出されたフィルタ係数群を用いるかを示す機能。 (Function 2) A function indicating whether a common filter coefficient group is used for each color component or an individually derived filter coefficient group is used when there are two color components to be filtered by the adaptive filter 30 .
図29は、色差フィルタモードalf_chroma_idcに代えて、第1フィルタモードalf_chroma_idc1および第2フィルタモードalf_chroma_idc2を用いた場合のフィルタパラメータのシンタックスを示す。第1フィルタモードalf_chroma_idc1は0〜3の値をとり、第2フィルタモードalf_chroma_idc2は0、1の値をとる。第1フィルタモードalf_chroma_idc1は、色差成分Cr、色差成分Cbの各色成分に対してフィルタ処理を行うか否かを示し、前述の機能1の役割を果たす。第2フィルタモードalf_chroma_idc2は、2つの色差成分間で共有のフィルタ係数群を用いるか、個々に導出されたフィルタ係数群を用いるかを示し、前述の機能2の役割を果たす。 FIG. 29 shows filter parameter syntax when the first filter mode alf_chroma_idc1 and the second filter mode alf_chroma_idc2 are used instead of the color difference filter mode alf_chroma_idc. The first filter mode alf_chroma_idc1 takes a value of 0 to 3, and the second filter mode alf_chroma_idc2 takes a value of 0 or 1. The first filter mode alf_chroma_idc1 indicates whether or not to perform filter processing on each color component of the color difference component Cr and the color difference component Cb, and plays the role of the function 1 described above. The second filter mode alf_chroma_idc2 indicates whether to use a shared filter coefficient group between two color difference components or to use individually derived filter coefficient groups, and plays the role of the function 2 described above.
色差適応フィルタ係数導出部311では、第1フィルタモードalf_chroma_idc1が0のとき、フィルタ係数群は復号されない。第1フィルタモードalf_chroma_idc1が1のとき、alf_coeff_Crからフィルタ係数群HCrが復号される。第1フィルタモードalf_chroma_idc1が2のとき、alf_coeff_Cbからフィルタ係数群HCbが復号される。第1フィルタモードalf_chroma_idc1が3のときには、さらに第2フィルタモードalf_chroma_idc2が復号される。第2フィルタモードalf_chroma_idc2が0の場合には
alf_coeff_chromaからフィルタ係数群HCr、フィルタ係数群HCbが復号される。第2フィルタモードalf_chroma_idc2が1の場合には独立フィルタ係数群alf_coeff_C1と従属フィルタ係数群alf_coeff_C2からフィルタ係数群HCr、フィルタ係数群HCbが復号される。
The color difference adaptive filter coefficient deriving unit 311 does not decode the filter coefficient group when the first filter mode alf_chroma_idc1 is 0. When the first filter mode alf_chroma_idc1 is 1, the filter coefficient group HCr is decoded from alf_coeff_Cr. When the first filter mode alf_chroma_idc1 is 2, the filter coefficient group HCb is decoded from alf_coeff_Cb. When the first filter mode alf_chroma_idc1 is 3, the second filter mode alf_chroma_idc2 is further decoded. When the second filter mode alf_chroma_idc2 is 0
The filter coefficient group HCr and the filter coefficient group HCb are decoded from alf_coeff_chroma. When the second filter mode alf_chroma_idc2 is 1, the filter coefficient group HCr and the filter coefficient group HCb are decoded from the independent filter coefficient group alf_coeff_C1 and the dependent filter coefficient group alf_coeff_C2.
また、図30(a)は、第1フィルタモードalf_chroma_idc1と、色差成分Crの値および色差成分Cbのフィルタ処理の有無との関係を示す。図30(b)は第2フィルタモードalf_chroma_idc2と符号化データ#1に含まれるフィルタ係数群の関係を示す。第2フィルタモードalf_chroma_idc2が0のとき、1つの共通のフィルタ係数群_alf_coeff_chromaが符号化データ#1に含まれ、対応するフィルタ係数群が色差成分Crおよび色差成分Cbのフィルタ処理に用いられる。第2フィルタモードalf_chroma_idc2が1のとき、2つのフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbが符号化データ#1に含まれる。対応するフィルタ係数群が、各色差成分のフィルタ処理に用いられる。 FIG. 30A shows the relationship between the first filter mode alf_chroma_idc1 and the value of the color difference component Cr and the presence / absence of the filter processing of the color difference component Cb. FIG. 30B shows the relationship between the second filter mode alf_chroma_idc2 and the filter coefficient group included in the encoded data # 1. When the second filter mode alf_chroma_idc2 is 0, one common filter coefficient group _alf_coeff_chroma is included in the encoded data # 1, and the corresponding filter coefficient group is used for the filter processing of the color difference component Cr and the color difference component Cb. When the second filter mode alf_chroma_idc2 is 1, two filter coefficient groups alf_coeff_Cr and a filter coefficient group alf_coeff_Cb are included in the encoded data # 1. Corresponding filter coefficient groups are used for filtering each color difference component.
[実施形態2]
以下では、本発明の第2の実施形態について図14〜図24、図26、図27を参照して説明する。本実施形態に係る適応フィルタは、所定の分割深度までの符号化単位の各々についてフィルタ処理のオンオフを指定するオンオフフラグを符号化する。本実施形態では、複数の色成分間で共通のオンオフフラグを用いることにより、オンオフフラグの符号量を低減することが特徴である。具体的には、以下に示す4つの制御パターンのうちの制御パターン2〜制御パターン4の何れかを構成として用いる。
[Embodiment 2]
Below, the 2nd Embodiment of this invention is described with reference to FIGS. 14-24, FIG. 26, FIG. The adaptive filter according to the present embodiment encodes an on / off flag that specifies on / off of the filter process for each of the coding units up to a predetermined division depth. This embodiment is characterized in that the code amount of the on / off flag is reduced by using a common on / off flag among a plurality of color components. Specifically, any one of the control patterns 2 to 4 among the following four control patterns is used as a configuration.
(制御パターン1)1組のオンオフフラグを用いて、輝度成分Yに対する領域単位のオンオフ制御を行う場合。この場合、色差成分は領域単位のオンオフ制御を行わない。 (Control Pattern 1) When performing on / off control in units of areas for the luminance component Y using one set of on / off flags. In this case, the color difference component does not perform on / off control in units of regions.
(制御パターン2)輝度成分Yおよび色差成分Cb、色差成分Crで共通の1組のオンオフフラグを用いて、各色成分のオンオフ制御を行う場合。 (Control pattern 2) When on / off control of each color component is performed using a set of on / off flags common to the luminance component Y, the color difference component Cb, and the color difference component Cr.
(制御パターン3)2組のオンオフフラグを用いて、1組のオンオフフラグで輝度成分Yのオンオフ制御を行い、もう1組のオンオフフラグを用いて色差成分Crおよび色差成分Cbで共通のオンオフ制御を行う場合。 (Control Pattern 3) Using two sets of on / off flags, on / off control of the luminance component Y is performed with one set of on / off flags, and common on / off control is performed with the color difference component Cr and the color difference component Cb using another set of on / off flags. If you do.
(制御パターン4)3組のオンオフフラグを用いて、輝度成分Y、色差成分Cb、色差成分Crで各々独立のオンオフ制御を行う場合。 (Control pattern 4) When independent on / off control is performed for each of the luminance component Y, the color difference component Cb, and the color difference component Cr by using three sets of on / off flags.
ただし、本発明の第2の実施形態は、適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴は複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、復号装置一般および符号化装置一般に適用できるものである。 However, the scope of application of the second embodiment of the present invention is not limited to this. That is, as will be apparent from the following description, the features of the present invention can be realized without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
(符号化データ#3の構成)
本実施形態に係る動画像符号化装置4および動画像復号装置3の詳細な説明に先立って、動画像符号化装置4によって生成され、動画像復号装置3によって復号される符号化データ#3のデータ構造について説明を行う。符号化データ#3のデータ構造は、実施形態1に係る符号化データ#1のデータ構造と略同じであるが、フィルタパラメータFPの構成が異なる。図14は、符号化データ#3のフィルタパラメータFPに含まれるフィルタオンオフ情報のデータ構造を示す図であり、図15〜図18は、符号化データ#3のフィルタパラメータFP(alf_paramと表記)に含まれる各シンタックスを示す図である。図15〜図18は、それぞれ制御パターン1〜制御パターン4におけるフィルタパラメータFPに含まれるシンタックスを示す図である。
(Configuration of encoded data # 3)
Prior to detailed description of the video encoding device 4 and the video decoding device 3 according to the present embodiment, the encoded data # 3 generated by the video encoding device 4 and decoded by the video decoding device 3 is described. The data structure will be described. The data structure of the encoded data # 3 is substantially the same as the data structure of the encoded data # 1 according to the first embodiment, but the configuration of the filter parameter FP is different. FIG. 14 is a diagram showing the data structure of the filter on / off information included in the filter parameter FP of the encoded data # 3. FIGS. 15 to 18 show the filter parameter FP (denoted as alf_param) of the encoded data # 3. It is a figure which shows each syntax contained. 15 to 18 are diagrams showing syntaxes included in the filter parameter FP in the control patterns 1 to 4, respectively.
符号化データ#3のフィルタパラメータFPには、図15〜図18に示すように、(1)対象スライスについて適応的フィルタ処理を施すか否かを指定するシンタックスadaptive_loop_filter_flag、(2)適応的フィルタ処理のオンオフを符号化単位毎に制御するか否かを指定するシンタックスalf_cu_control_flag、(3)オンオフ制御の対象となる符号化単位についての、最大符号化単位からの最大分割深度を指定するシンタックス(階層指定情報)alf_cu_control_max_depth、(4)オンオフ制御の対象となる符号化単位の数を指定するシンタックスalf_length_cu_control_infoが全ての制御パターンに共通して含まれる。 As shown in FIGS. 15 to 18, the filter parameter FP of the encoded data # 3 includes (1) syntax adaptive_loop_filter_flag that specifies whether or not to perform adaptive filter processing on the target slice, and (2) adaptive filter. Syntax alf_cu_control_flag that specifies whether or not processing on / off is controlled for each coding unit, (3) Syntax that specifies the maximum division depth from the maximum coding unit for a coding unit that is subject to on / off control. (Hierarchy designation information) alf_cu_control_max_depth, (4) The syntax alf_length_cu_control_info for designating the number of coding units to be subjected to on / off control is included in common to all control patterns.
制御パターン1の場合、図15に示すように、オンオフ制御の対象となる符号化単位の各々について、オンオフフラグalf_cu_flagがフィルタパラメータFPに含まれる。 In the case of the control pattern 1, as shown in FIG. 15, an on / off flag alf_cu_flag is included in the filter parameter FP for each coding unit to be subjected to on / off control.
制御パターン2の場合、図16に示すように、適応的フィルタ処理のオンオフフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適応するか否かを指定するフラグalf_cu_control_flag_chromaがフィルタパラメータFPに含まれる。 In the case of the control pattern 2, as shown in FIG. 16, the on / off flag alf_cu_flag for adaptive filter processing and the flag alf_cu_control_flag_chroma for designating whether to apply the on / off flag alf_cu_flag to the color difference adaptive filter are included in the filter parameter FP.
制御パターン3の場合、図17に示すように、輝度成分Yの適応フィルタに関するオンオフフラグalf_cu_flag_lumaおよび色差成分Crおよび色差成分Cbの適応フィルタに関するオンオフフラグalf_cu_flag_chromaがフィルタパラメータFPに含まれる。 In the case of the control pattern 3, as shown in FIG. 17, the on / off flag alf_cu_flag_luma related to the adaptive filter for the luminance component Y and the on / off flag alf_cu_flag_chroma related to the adaptive filter for the color difference component Cr and the color difference component Cb are included in the filter parameter FP.
制御パターン4の場合、図18に示すように、輝度成分Yおよび色差成分Cr、色差成分Cbの適応フィルタに関するオンオフフラグ、それぞれalf_cu_flag_lumaおよびalf_cu_flag_cr、alf_cu_flag_cbがフィルタパラメータFPに含まれる。 In the case of the control pattern 4, as shown in FIG. 18, on / off flags relating to adaptive filters of the luminance component Y, the color difference component Cr, and the color difference component Cb, alf_cu_flag_luma, alf_cu_flag_cr, and alf_cu_flag_cb are included in the filter parameter FP.
なお、図15〜図18におけるiは適応的フィルタ処理の制御に用いふオンオフフラグのインデックスであり、0からNumAlfCuFlag−1の整数である。NumAlfCuFlagは適応的フィルタ処理を行うオンオフフラグの総数であり、階層指定情報alf_cu_control_max_depthとCU構造により定まる。なお、NumAlfCuFlagを階層指定情報alf_cu_control_max_depthとCU構造から定めるのではなく、NumAlfCuFlagを符号化データ中に明示的に符号化することも可能である。 Note that i in FIGS. 15 to 18 is an index of an on / off flag used for control of adaptive filter processing, and is an integer from 0 to NumAlfCuFlag-1. NumAlfCuFlag is the total number of on / off flags for performing adaptive filter processing, and is determined by the hierarchy designation information alf_cu_control_max_depth and the CU structure. Note that NumAlfCuFlag can be explicitly encoded in the encoded data instead of determining NumAlfCuFlag from the hierarchy designation information alf_cu_control_max_depth and the CU structure.
(動画像復号装置3)
以下では、本実施形態に係る動画像復号装置3について図19〜図21を参照して説明する。なお、以下では、実施形態1において既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
(Moving picture decoding apparatus 3)
Below, the moving image decoding apparatus 3 which concerns on this embodiment is demonstrated with reference to FIGS. In the following, the same parts as those already described in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図19は、動画像復号装置3の構成を示すブロック図である。図19に示すように、動画像復号装置3は、動画像復号装置1の備える適応フィルタ30に代えて、適応フィルタ50を備えている。適応フィルタ50には、符号化データ#3に含まれるフィルタパラメータFPが供給される。なお、動画像復号装置3のその他の構成は、動画像復号装置1と同じであるため、説明を省略する。 FIG. 19 is a block diagram showing a configuration of the moving picture decoding apparatus 3. As illustrated in FIG. 19, the video decoding device 3 includes an adaptive filter 50 instead of the adaptive filter 30 included in the video decoding device 1. The filter parameter FP included in the encoded data # 3 is supplied to the adaptive filter 50. In addition, since the other structure of the moving image decoding apparatus 3 is the same as the moving image decoding apparatus 1, description is abbreviate | omitted.
(適応フィルタ50)
適応フィルタ50は、デブロック済復号画像P_DBに対して適応的フィルタ処理を行い、フィルタ済復号画像P_FLを生成する。図20は、適応フィルタ50の構成を示すブロック図である。図20に示すように、適応フィルタ50は、適応フィルタ情報復元部51および色差適応フィルタ部52、輝度適応フィルタ部53を備えている。
(Adaptive filter 50)
The adaptive filter 50 performs an adaptive filter process on the deblocked decoded image P_DB to generate a filtered decoded image P_FL. FIG. 20 is a block diagram showing the configuration of the adaptive filter 50. As illustrated in FIG. 20, the adaptive filter 50 includes an adaptive filter information restoration unit 51, a color difference adaptive filter unit 52, and a luminance adaptive filter unit 53.
(適応フィルタ情報復元部51)
適応フィルタ情報復元部51は、フィルタパラメータFPを復号する。図20に示すように、適応フィルタ情報復元部51は、オンオフ情報復元部511およびフィルタ情報復元部512を備えている。
(Adaptive filter information restoration unit 51)
The adaptive filter information restoration unit 51 decodes the filter parameter FP. As shown in FIG. 20, the adaptive filter information restoration unit 51 includes an on / off information restoration unit 511 and a filter information restoration unit 512.
(オンオフ情報復元部511)
オンオフ情報復元部511は、フィルタパラメータFPに含まれるフィルタオンオフ情報から、輝度成分Yおよび、色差成分Cr、色差成分CbのオンオフフラグAlfFilterFlagYおよびAlfFilterFlagCb、AlfFilterFlagCrを復号する。
(On / off information restoration unit 511)
The on / off information restoration unit 511 decodes the luminance component Y, the chrominance component Cr, and the chrominance component Cb on / off flags AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr from the filter on / off information included in the filter parameter FP.
図26(a)は、alf_cu_control_max_depthの値が2である場合の、最大符号化単位LCUにおいて輝度成分Yに対する符号化単位の分割例を、階層構造を表す分岐図と共に示している。ラスタスキャン順に割り付けられたインデックスによって全ての符号化単位を識別することが可能である。図26(b)は図26(a)に示す分割領域に対するフィルタ処理の制御とオンオフフラグAlfFilterFlagY[i]の対応関係を示している。対象単位領域を含む符号化単位についてのオンオフフラグAlfFilterFlagY[i]が0であるときは、当該符号化単位に対して適応的フィルタ処理を行わないことを指定している。一方で、対象単位領域を含む符号化単位についてのオンオフフラグAlfFilterFlagY[i]が1であるときは、当該符号化単位に対して適応的フィルタ処理を行うことを指定している。AlfFilterFlagCrおよびAlfFilterFlagCbも色差成分Crおよび色差成分Cbを同様に符号化単位について適応的フィルタ処理を行うか否かを指定する。 FIG. 26A shows an example of coding unit division for the luminance component Y in the maximum coding unit LCU when the value of alf_cu_control_max_depth is 2, along with a branch diagram representing a hierarchical structure. All coding units can be identified by an index assigned in raster scan order. FIG. 26B shows the correspondence between the filter processing control and the on / off flag AlfFilterFlagY [i] for the divided region shown in FIG. When the on / off flag AlfFilterFlagY [i] for the coding unit including the target unit region is 0, it is specified that adaptive filter processing is not performed on the coding unit. On the other hand, when the on / off flag AlfFilterFlagY [i] for the coding unit including the target unit region is 1, it specifies that adaptive filter processing is performed on the coding unit. AlfFilterFlagCr and AlfFilterFlagCb also specify whether or not to perform adaptive filter processing for the coding units of the color difference component Cr and the color difference component Cb in the same manner.
制御パターン1〜制御パターン4の場合に関する、各々の符号化データ#3中のオンオフフラグと、制御に用いるオンオフフラグの対応関係を図21のテーブルに示し、以下に、制御パターン1〜制御パターン4においての、制御に用いるオンオフフラグAlfFilterFlagY、AlfFilterFlagCr、AlfFilterFlagCbと符号化データ#3中のオンオフフラグalf_cu_flag、alf_cu_flag_luma、alf_cu_flag_chroma、alf_cu_flag_cr、alf_cu_flag_cbの対応関係について説明する。 The correspondence relationship between the ON / OFF flag in each encoded data # 3 and the ON / OFF flag used for control in the case of control pattern 1 to control pattern 4 is shown in the table of FIG. The correspondence relationship between on / off flags AlfFilterFlagY, AlfFilterFlagCr, AlfFilterFlagCb used for control and on / off flags alf_cu_flag, alf_cu_flag_luma, alf_cu_flag_chroma, alf_cu_flag_cr, alf_cu_flag_cb in encoded data # 3 will be described.
なお、上記の説明のように、AlfFilterFlagY、AlfFilterFlagCr、AlfFilterFlagCbは、輝度成分Yおよび色差成分Cr、色差成分Cbに対する適応フィルタの制御に用いるオンオフフラグを意味し、alf_cu_flagおよびalf_cu_flag_luma、alf_cu_flag_chroma、alf_cu_flag_cr、alf_cu_flag_cbは、符号化データ#3中のオンオフフラグを意味する。 As described above, AlfFilterFlagY, AlfFilterFlagCr, and AlfFilterFlagCb mean on / off flags used for adaptive filter control for luminance component Y, chrominance component Cr, and chrominance component Cb, and alf_cu_flag and alf_cu_flag_luma, alf_cu_flag_chroma, alf_cu_flag_cr_c, cf The ON / OFF flag in the encoded data # 3.
制御パターン1の場合、オンオフ制御の対象となる符号化単位の各々について、オンオフフラグalf_cu_flagが復号される。このとき、図21に示すように、AlfFilterFlagYにalf_cu_flagを格納して、AlfFilterFlagCbおよびAlfFilterFlagCrに1の値を格納する。 In the case of control pattern 1, the on / off flag alf_cu_flag is decoded for each coding unit to be subjected to on / off control. At this time, as shown in FIG. 21, alf_cu_flag is stored in AlfFilterFlagY, and a value of 1 is stored in AlfFilterFlagCb and AlfFilterFlagCr.
制御パターン2の場合、適応的フィルタ処理のオンオフを指定するフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適応するか否かを指定するフラグalf_cu_control_flag_chromaが復号される。すなわち、alf_cu_control_flag_chromaは復号されたオンオフフラグalf_cu_flagを、輝度成分Yのオンオフフラグとして用いるか、輝度成分Yおよび色差成分Cr、色差成分Cbに共通のオンオフフラグとして用いるかを選択するフラグである。このとき、図21に示すように、alf_cu_control_flag_chromaが真の場合、alf_cu_flagの復号を行い、AlfFilterFlagYおよびAlfFilterFlagCb、AlfFilterFlagCrに格納する。alf_cu_control_flag_chromaが偽の場合、alf_cu_flagの復号を行い、AlfFilterFlagYに格納する。AlfFilterFlagCb、AlfFilterFlagCrには常に1を格納する。 In the case of the control pattern 2, the flag alf_cu_flag that specifies on / off of the adaptive filter process and the flag alf_cu_control_flag_chroma that specifies whether the on / off flag alf_cu_flag is applied to the color difference adaptive filter are decoded. That is, alf_cu_control_flag_chroma is a flag for selecting whether the decoded on / off flag alf_cu_flag is used as an on / off flag for the luminance component Y, or an on / off flag common to the luminance component Y, the color difference component Cr, and the color difference component Cb. At this time, as shown in FIG. 21, when alf_cu_control_flag_chroma is true, alf_cu_flag is decoded and stored in AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr. When alf_cu_control_flag_chroma is false, alf_cu_flag is decoded and stored in AlfFilterFlagY. 1 is always stored in AlfFilterFlagCb and AlfFilterFlagCr.
制御パターン3の場合、オンオフフラグalf_cu_flag_lumaおよびオンオフフラグalf_cu_flag_chromaが復号される。このとき、図21に示すように、AlfFilterFlagYにalf_cu_flag_lumaを格納して、AlfFilterFlagCbおよびAlfFilterFlagCrにalf_cu_flag_chromaを格納する。 In the case of the control pattern 3, the on / off flag alf_cu_flag_luma and the on / off flag alf_cu_flag_chroma are decoded. At this time, as shown in FIG. 21, alf_cu_flag_luma is stored in AlfFilterFlagY, and alf_cu_flag_chroma is stored in AlfFilterFlagCb and AlfFilterFlagCr.
制御パターン4の場合、オンオフフラグalf_cu_flag_lumaおよびalf_cu_flag_cb、alf_cu_flag_crが復号される。このとき、図21に示すように、AlfFilterFlagYおよびAlfFilterFlagCb、AlfFilterFlagCrにそれぞれalf_cu_flag_lumaおよびalf_cu_flag_cb、alf_cu_flag_crを格納する。 In the case of the control pattern 4, the on / off flags alf_cu_flag_luma, alf_cu_flag_cb, and alf_cu_flag_cr are decoded. At this time, as shown in FIG. 21, alf_cu_flag_luma, alf_cu_flag_cb, and alf_cu_flag_cr are stored in AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr, respectively.
(フィルタ情報復元部512)
フィルタ情報復元部512は、フィルタパラメータFPに含まれる輝度フィルタ情報および色差フィルタ情報から、輝度成分Yの適応フィルタ係数群HYおよび色差成分Crの適応フィルタ係数群HCr、色差成分Cbの適応フィルタ係数群HCbを復号する。フィルタ係数群HYは、輝度適応フィルタ部53に供給され、フィルタ係数群HCrおよびフィルタ係数群HCbは、色差適応フィルタ部52に供給される。
(Filter information restoration unit 512)
The filter information restoration unit 512 uses the luminance filter information and the chrominance filter information included in the filter parameter FP, and the adaptive filter coefficient group HY of the luminance component Y, the adaptive filter coefficient group HCr of the chrominance component Cr, and the adaptive filter coefficient group of the chrominance component Cb. Decode HCb. The filter coefficient group HY is supplied to the luminance adaptive filter unit 53, and the filter coefficient group HCr and the filter coefficient group HCb are supplied to the color difference adaptive filter unit 52.
(色差適応フィルタ部52)
色差適応フィルタ部52は、オンオフフラグAlfFilterFlagCrおよびオンオフフラグAlfFilterFlagCbを参照して、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。また、生成されたフィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbは、バッファメモリ15に格納される。
(Color difference adaptive filter unit 52)
The chrominance adaptive filter unit 52 refers to the on / off flag AlfFilterFlagCr and the on / off flag AlfFilterFlagCb, performs adaptive filter processing on the chrominance component Cr and the chrominance component Cb of the deblocked decoded image P_DB, and outputs the filtered decoded image P_FL. A color difference component Cr and a color difference component Cb are generated. Further, the color difference component Cr and the color difference component Cb of the generated filtered decoded image P_FL are stored in the buffer memory 15.
図20に示すように、色差適応フィルタ部52はスイッチ部521a、および、スイッチ部521b、Crフィルタ処理部522、Cbフィルタ処理部523を備えている。 As shown in FIG. 20, the color difference adaptive filter unit 52 includes a switch unit 521a, a switch unit 521b, a Cr filter processing unit 522, and a Cb filter processing unit 523.
(スイッチ部521a)
スイッチ部521aは、オンオフフラグAlfFilterFlagCrがオンのときに、デブロック済復号画像P_DBの色差成分CrをCrフィルタ処理部522に供給する。オフのときは、デブロック済復号画像P_DBの色差成分Crをフィルタ済復号画像P_FLの色差成分Crとして出力する。
(Switch unit 521a)
The switch unit 521a supplies the color difference component Cr of the deblocked decoded image P_DB to the Cr filter processing unit 522 when the on / off flag AlfFilterFlagCr is on. When it is off, the color difference component Cr of the deblocked decoded image P_DB is output as the color difference component Cr of the filtered decoded image P_FL.
(スイッチ部521b)
スイッチ部521bは、オンオフフラグAlfFilterFlagCbがオンのときに、デブロック済復号画像P_DBの色差成分CbをCbフィルタ処理部523に供給する。オフのときは、デブロック済復号画像P_DBの色差成分Cbをフィルタ済復号画像P_FLの色差成分Cbとして出力する。
(Switch unit 521b)
The switch unit 521b supplies the color difference component Cb of the deblocked decoded image P_DB to the Cb filter processing unit 523 when the on / off flag AlfFilterFlagCb is on. When OFF, the color difference component Cb of the deblocked decoded image P_DB is output as the color difference component Cb of the filtered decoded image P_FL.
(Crフィルタ処理部522)
Crフィルタ処理部522は、スイッチ部521aから供給されたデブロック済復号画像P_DBの色差成分Crに対して、フィルタ情報復元部512から供給されたフィルタ係数群HCrを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの色差成分Crを生成する。
(Cr filter processing unit 522)
The Cr filter processing unit 522 performs adaptive filter processing using the filter coefficient group HCr supplied from the filter information restoration unit 512 on the color difference component Cr of the deblocked decoded image P_DB supplied from the switch unit 521a. Thus, the color difference component Cr of the filtered decoded image P_FL is generated.
(Cbフィルタ処理部523)
Cbフィルタ処理部523は、スイッチ部521bから供給されたデブロック済復号画像P_DBの色差成分Cbに対して、フィルタ情報復元部512から供給されたフィルタ係数群HCbを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの色差成分Cbを生成する。
(Cb filter processing unit 523)
The Cb filter processing unit 523 performs adaptive filter processing using the filter coefficient group HCb supplied from the filter information restoration unit 512 on the color difference component Cb of the deblocked decoded image P_DB supplied from the switch unit 521b. Thus, the color difference component Cb of the filtered decoded image P_FL is generated.
(輝度適応フィルタ部53)
輝度適応フィルタ部53は、オンオフフラグAlfFilterFlagYを参照して、デブロック済復号画像P_DBの輝度成分Yに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの輝度成分Yを生成する。また、生成されたフィルタ済復号画像P_FLの輝度成分Yは、バッファメモリ15に格納される。
(Luminance adaptive filter unit 53)
The luminance adaptive filter unit 53 refers to the on / off flag AlfFilterFlagY, performs adaptive filter processing on the luminance component Y of the deblocked decoded image P_DB, and generates the luminance component Y of the filtered decoded image P_FL. Further, the luminance component Y of the generated filtered decoded image P_FL is stored in the buffer memory 15.
図20に示すように、輝度適応フィルタ部53はスイッチ部531およびYフィルタ処理部532を備えている。 As shown in FIG. 20, the luminance adaptive filter unit 53 includes a switch unit 531 and a Y filter processing unit 532.
(スイッチ部531)
スイッチ部531は、オンオフフラグAlfFilterFlagYがオンのときに、デブロック済復号画像P_DBの輝度成分YをYフィルタ処理部532に供給する。オフのときは、デブロック済復号画像P_DBの輝度成分Yをフィルタ済復号画像P_FLの輝度成分Yとして出力する。
(Switch unit 531)
The switch unit 531 supplies the luminance component Y of the deblocked decoded image P_DB to the Y filter processing unit 532 when the on / off flag AlfFilterFlagY is on. When OFF, the luminance component Y of the deblocked decoded image P_DB is output as the luminance component Y of the filtered decoded image P_FL.
(Yフィルタ処理部532)
Yフィルタ処理部532は、スイッチ部531から供給されたデブロック済復号画像P_DBの輝度成分Yに対して、フィルタ情報復元部512から供給されたフィルタ係数群HYを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの輝度成分Yを生成する。
(Y filter processing unit 532)
The Y filter processing unit 532 performs adaptive filter processing using the filter coefficient group HY supplied from the filter information restoration unit 512 on the luminance component Y of the deblocked decoded image P_DB supplied from the switch unit 531. Thus, the luminance component Y of the filtered decoded image P_FL is generated.
(制御パターンを選択可能とする構成)
なお、動画像復号装置3は複数の制御パターンを選択することが可能な構成としてもよい。この場合、制御パターンを選択するフラグalf_cu_control_modeをフィルタパラメータに含め、動画像復号装置では復号したalf_cu_control_modeに応じた制御モードを用いる。alf_cu_control_modeが1〜4の値をとり、それぞれの値に対して制御パターン1〜4が選択される。このときのフィルタパラメータのシンタックスは図27に示す。なお、この例のように制御パターン1と制御パターン2が選択できる場合には、色差成分の適応的フィルタ処理に適用するか否かを指定するフラグalf_cu_control_flag_chromaの復号は不要である。alf_cu_control_flag_chromaでは、輝度成分にオンオフフラグを用いる構成と、輝度成分と色差成分で共通のオンオフフラグを用いる構成を切り替えているが、制御パターン1と制御パターン2が選択できる構成では、前者を制御パターン1、後者を制御パターン2で扱うことにより同様の切り替えが可能である。
(Configuration that allows selection of control patterns)
Note that the video decoding device 3 may be configured to be able to select a plurality of control patterns. In this case, the flag alf_cu_control_mode for selecting the control pattern is included in the filter parameter, and the moving picture decoding apparatus uses a control mode corresponding to the decoded alf_cu_control_mode. alf_cu_control_mode takes a value of 1 to 4, and control patterns 1 to 4 are selected for each value. The filter parameter syntax at this time is shown in FIG. When the control pattern 1 and the control pattern 2 can be selected as in this example, it is not necessary to decode the flag alf_cu_control_flag_chroma that specifies whether to apply to the adaptive filter processing of the color difference component. In alf_cu_control_flag_chroma, a configuration using an on / off flag for the luminance component and a configuration using a common on / off flag for the luminance component and the color difference component are switched. However, in the configuration in which the control pattern 1 and the control pattern 2 can be selected, the former is used as the control pattern 1. The same switching can be performed by treating the latter with the control pattern 2.
ここで、制御パターンを選択する構成として、本実施形態は以上の説明に限られることはなく、より簡易な構成を用いることもできる。例として、制御パターンを選択するフラグalf_cu_control_modeを用いて、制御パターン1か制御パターン3かを選択可能とする。すなわち、輝度成分Yのみにオンオフフラグを用いるか、または輝度成分Yと2つの色差成分で独立のオンオフフラグを用いるかを選択することができる。alf_cu_control_modeが1のときは制御パターン1が選択され、alf_cu_control_modeが3のときは制御パターン3が選択される。このときのフィルタパラメータのシンタックスを図28に示す。 Here, as a configuration for selecting a control pattern, the present embodiment is not limited to the above description, and a simpler configuration can also be used. As an example, control pattern 1 or control pattern 3 can be selected using flag alf_cu_control_mode for selecting a control pattern. That is, it is possible to select whether to use an on / off flag only for the luminance component Y or to use an independent on / off flag for the luminance component Y and the two color difference components. When alf_cu_control_mode is 1, control pattern 1 is selected, and when alf_cu_control_mode is 3, control pattern 3 is selected. The filter parameter syntax at this time is shown in FIG.
(動画像符号化装置4)
本実施形態に係る動画像符号化装置4について、図22〜図24を参照して説明する。なお、以下では、実施形態1において既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
(Moving picture encoding device 4)
The video encoding device 4 according to the present embodiment will be described with reference to FIGS. In the following, the same parts as those already described in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図22は、本実施形態に係る動画像符号化装置4の構成を示すブロック図である。図22に示すように、動画像符号化装置4は、実施形態1に係る動画像符号化装置2の備える適応フィルタ44に代えて、適応フィルタ60を備えている。動画像符号化装置4のその他の構成は、実施形態1に係る動画像符号化装置2の構成と同様であるため、説明を省略する。 FIG. 22 is a block diagram showing a configuration of the video encoding device 4 according to the present embodiment. As illustrated in FIG. 22, the moving image encoding device 4 includes an adaptive filter 60 instead of the adaptive filter 44 included in the moving image encoding device 2 according to the first embodiment. The other configuration of the video encoding device 4 is the same as the configuration of the video encoding device 2 according to the first embodiment, and a description thereof will be omitted.
(適応フィルタ60)
適応フィルタ60は、デブロック済復号画像P_DBに対して、適応的フィルタ処理を施すことによって、フィルタ済復号画像P_FLを生成する。生成されたフィルタ済復号画像P_FLは、バッファメモリ24に格納される。また、適応フィルタ60は、フィルタ処理に用いた各種の適応フィルタ情報をフィルタパラメータFPとして可変長符号符号化部22に供給する。可変長符号符号化部22は、フィルタパラメータFPを符号化データ#3の一部として符号化する。
(Adaptive filter 60)
The adaptive filter 60 generates a filtered decoded image P_FL by performing an adaptive filter process on the deblocked decoded image P_DB. The generated filtered decoded image P_FL is stored in the buffer memory 24. The adaptive filter 60 also supplies various types of adaptive filter information used for the filter processing to the variable length code encoding unit 22 as filter parameters FP. The variable length code encoding unit 22 encodes the filter parameter FP as a part of the encoded data # 3.
図23は、適応フィルタ60の構成を示すブロック図である。図23に示すように、適応フィルタ60は、フィルタパラメータ決定部61および適応フィルタ部62を備えている。 FIG. 23 is a block diagram showing the configuration of the adaptive filter 60. As shown in FIG. 23, the adaptive filter 60 includes a filter parameter determination unit 61 and an adaptive filter unit 62.
(フィルタパラメータ決定部61)
フィルタパラメータ決定部61は、輝度フィルタ情報および色差フィルタ情報、フィルタオンオフ情報を決定して、適応フィルタ部62および可変長符号符号化部22に供給する。図24に示すように、フィルタパラメータ決定部61は、オンオフ情報決定部611およびフィルタ情報決定部612を備えている。
(Filter parameter determination unit 61)
The filter parameter determination unit 61 determines luminance filter information, color difference filter information, and filter on / off information, and supplies the information to the adaptive filter unit 62 and the variable length code encoding unit 22. As illustrated in FIG. 24, the filter parameter determination unit 61 includes an on / off information determination unit 611 and a filter information determination unit 612.
(フィルタ情報決定部612)
フィルタ情報決定部612は、デブロック済復号画像P_DB、動画像#10から輝度フィルタ情報および色差フィルタ情報を決定する。デブロック済復号画像P_DBと符号化対象画像(動画像#10)との2乗誤差が最小となるように、フィルタ係数群を計算する。適応的フィルタ処理を施した画像と符号化対象画像との比較で算出できる符号化コストによって、輝度フィルタ情報および色差フィルタ情報を決定する。
(Filter information determination unit 612)
The filter information determination unit 612 determines luminance filter information and color difference filter information from the deblocked decoded image P_DB and the moving image # 10. A filter coefficient group is calculated so that the square error between the deblocked decoded image P_DB and the encoding target image (moving image # 10) is minimized. Luminance filter information and chrominance filter information are determined based on an encoding cost that can be calculated by comparing an image subjected to adaptive filter processing and an encoding target image.
(オンオフ情報決定部611)
オンオフ情報決定部611は、フィルタ情報決定部612で定められたフィルタ係数群を用いてオンオフフラグを決定する。制御パターン1のとき、オンオフ情報決定部611は、輝度成分Yの適応的フィルタ処理に適用されるオンオフフラグalf_cu_flagを決定する。制御パターン2のとき、オンオフ情報決定部611は、適応的フィルタ処理のオンオフフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適用するか否かを指定するフラグalf_cu_control_flag_chromaを決定する。制御パターン3のとき、オンオフ情報決定部611は、輝度成分Yのオンオフフラグalf_cu_flag_luma、および、色差成分Crおよび色差成分Cbのオンオフフラグalf_cu_flag_chromaを決定する。制御パターン4のとき、オンオフ情報決定部611は、輝度成分Yおよび色差成分Cr、色差成分Cb、各々の適応的フィルタ処理に適用されるオンオフフラグalf_cu_flag_lumaおよびalf_cu_flag_cr、alf_cu_flag_cbを決定する。
(On / off information determination unit 611)
The on / off information determination unit 611 determines an on / off flag using the filter coefficient group determined by the filter information determination unit 612. When the control pattern is 1, the on / off information determination unit 611 determines an on / off flag alf_cu_flag applied to the adaptive filter processing of the luminance component Y. When the control pattern is 2, the on / off information determination unit 611 determines an on / off flag alf_cu_flag for adaptive filter processing and a flag alf_cu_control_flag_chroma that specifies whether to apply the on / off flag alf_cu_flag to the color difference adaptive filter. In the case of the control pattern 3, the on / off information determination unit 611 determines the on / off flag alf_cu_flag_luma of the luminance component Y and the on / off flag alf_cu_flag_chroma of the color difference component Cr and the color difference component Cb. When the control pattern is 4, the on / off information determination unit 611 determines the luminance component Y, the color difference component Cr, the color difference component Cb, and the on / off flags alf_cu_flag_luma, alf_cu_flag_cr, and alf_cu_flag_cb that are applied to each adaptive filter process.
なお、オンオフフラグは、フィルタ情報決定部612で定められたフィルタ係数群を用いてフィルタ処理した場合とフィルタ処理しない場合とを比較して、対象単位領域において、フィルタ処理を行った場合の方が符号化対象画像との2乗誤差が小さくなる場合にオン、それ以外の場合にオフとなるように決定する。特に、制御パターン2の場合には、輝度成分Yにおいてオンオフフラグを決定した後、そのオンオフフラグを用いて色差成分のオンオフを制御した場合に、2乗誤差が小さくなる場合にalf_cu_flag_chromaを1、それ以外の場合に0となるように決定する。制御パターン3の場合は、対象単位領域において、色差成分Cbにおける符号化対象画像とフィルタ済復号画像の2乗誤差と、色差成分Crにおける符号化対象画像とフィルタ済復号画像の2乗誤差の和が、フィルタ前における符号化対象画像と復号画像の2乗誤差の和よりも小さくなる場合にオン、それ以外にオフとなるように決定する。なお、制御パターン2においても、複数の成分を同時に扱うことにより最適なオンオフフラグを定めても良い。具体的には、対象単位領域において、輝度成分Yにおける符号化対象画像とフィルタ済復号画像の2乗誤差と、色差成分Cb、色差成分Crにおける符号化対象画像とフィルタ済復号画像の2乗誤差の和が、フィルタ前における符号化対象画像と復号画像の2乗誤差の和よりも小さくなる場合にオン、それ以外にオフとなるように決定する。 The on / off flag is compared with the case where the filter processing is performed using the filter coefficient group determined by the filter information determination unit 612 and the case where the filter processing is not performed. It is determined to be on when the square error with the image to be encoded is small, and off in other cases. In particular, in the case of the control pattern 2, when the on / off flag is determined for the luminance component Y and then the on / off of the color difference component is controlled using the on / off flag, alf_cu_flag_chroma is set to 1 when the square error becomes small. In other cases, it is determined to be 0. In the case of the control pattern 3, in the target unit region, the sum of the square error between the encoding target image and the filtered decoded image in the color difference component Cb and the square error between the encoding target image and the filtered decoded image in the color difference component Cr. Is determined to be on when it is smaller than the sum of the square errors of the encoding target image and the decoded image before the filter, and is determined to be off otherwise. In the control pattern 2 as well, an optimal on / off flag may be determined by simultaneously handling a plurality of components. Specifically, in the target unit area, the square error between the encoding target image and the filtered decoded image in the luminance component Y, and the square error between the encoding target image and the filtered decoded image in the color difference component Cb and the color difference component Cr. Is determined to be on when it is smaller than the sum of the square errors of the encoding target image and the decoded image before the filter, and is determined to be off otherwise.
(色差成分の制御単位)
本実施形態では、共通のオンオフフラグalf_cu_flagおよび輝度成分Yのalf_cu_flag_lumaによる制御は、符号化単位のCU単位で行われるが、色差成分のオンオフフラグalf_cu_flag_chromaおよびalf_cu_flag_cr、alf_cu_flag_cbによる制御は、最大符号化単位のLCU単位で行われる。オンオフフラグの符号化単位を小さくすると、フィルタ処理後の画質を向上させることができるが、オンオフフラグの符号量は大きくなる。オンオフフラグの符号化単位は適当に定める必要がある。色差のサンプリングが4:2:0などの場合には、色差成分の解像度は輝度成分の解像度よりも小さくなるため、適応フィルタを用いて得られる画質向上の効果も小さくなる。輝度と同じ単位を用いて、色差のオンオフフラグを符号化すると、オンオフフラグが相対的に大きくなり符号化効率的に適当ではない。そのため色差の制御では、輝度の制御よりも大きな単位で制御することが適当である。また、復号処理においてはLCU単位で処理できることが好ましいことから、LCU単位以下の単位でオンオフフラグを符号化することが適当である。そのため、本実施形態では色差のオンオフフラグの単位としてLCU単位を用いることにより、オンオフフラグの個数を低減し全体として符号化効率を向上させている。
(Color difference component control unit)
In the present embodiment, control by the common on / off flag alf_cu_flag and the luminance component Y by alf_cu_flag_luma is performed in the CU unit of the coding unit. Performed in units of LCU. If the encoding unit of the on / off flag is reduced, the image quality after filtering can be improved, but the code amount of the on / off flag is increased. The encoding unit of the on / off flag needs to be determined appropriately. When the color difference sampling is 4: 2: 0 or the like, the resolution of the color difference component is smaller than the resolution of the luminance component, so the effect of improving the image quality obtained using the adaptive filter is also small. If the color difference on / off flag is encoded using the same unit as the luminance, the on / off flag becomes relatively large, which is not appropriate in terms of encoding efficiency. For this reason, it is appropriate to control the color difference in units larger than the luminance control. Further, since it is preferable that the decoding process can be performed in units of LCUs, it is appropriate to encode the on / off flag in units of LCUs or less. For this reason, in this embodiment, the LCU unit is used as the unit of the color difference on / off flag, thereby reducing the number of on / off flags and improving the coding efficiency as a whole.
(適応フィルタ部62)
適応フィルタ部62は、デブロック済復号画像P_DBに対して、フィルタパラメータ決定部61からフィルタパラメータFPを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLを生成する。適応フィルタ部62の処理において、輝度成分Yの適応的フィルタ処理は輝度適応フィルタ部33と同一であり、色差成分Crおよび色差成分Cbの適応的フィルタ処理は色差適応フィルタ部32と同一であるため、ここでは説明を省略する。
(Adaptive filter unit 62)
The adaptive filter unit 62 performs an adaptive filter process using the filter parameter FP from the filter parameter determination unit 61 on the deblocked decoded image P_DB to generate a filtered decoded image P_FL. In the processing of the adaptive filter unit 62, the adaptive filter processing of the luminance component Y is the same as the luminance adaptive filter unit 33, and the adaptive filter processing of the color difference component Cr and the color difference component Cb is the same as the color difference adaptive filter unit 32. The description is omitted here.
以上の実施形態2の構成では、輝度成分Yおよび色差成分Cr、色差成分Cbの2つ以上の成分において符号化単位の適応的フィルタ処理のオンオフ制御を共通に行うことが可能である。具体的には、輝度成分Yの適応的フィルタ処理と色差成分の適応的フィルタ処理で共通のオンオフフラグを用いることにより、オンオフフラグの符号量を低減することができる。また、複数の色差成分の適応フィルタにおいて、共通のオンオフフラグを用いることによりオンオフフラグの符号量を低減することができる。一般的に、色差成分Crおよび色差成分Cbは輝度成分Yに比べて解像度が低いため、CU単位より広い範囲のLCU単位で色差成分のオンオフの制御を行っても、画質低下への影響は小さい。また、色差成分Crおよび色差成分Cbのオンオフ制御をLCU単位で行うと、色差成分Crおよび色差成分Cbに用いるオンオフフラグの総数を減らすことができるため、符号量の低減が可能である。 In the configuration of the second embodiment described above, the on / off control of the adaptive filter processing of the coding unit can be commonly performed in two or more components of the luminance component Y, the color difference component Cr, and the color difference component Cb. Specifically, the code amount of the on / off flag can be reduced by using a common on / off flag in the adaptive filter processing of the luminance component Y and the adaptive filter processing of the color difference component. In addition, the code amount of the on / off flag can be reduced by using a common on / off flag in a plurality of color difference component adaptive filters. In general, since the color difference component Cr and the color difference component Cb have a lower resolution than the luminance component Y, even if the on / off control of the color difference component is performed in LCU units in a wider range than the CU unit, the influence on image quality degradation is small. . Further, when the on / off control of the color difference component Cr and the color difference component Cb is performed in units of LCUs, the total number of on / off flags used for the color difference component Cr and the color difference component Cb can be reduced, so that the code amount can be reduced.
1 動画像復号装置(復号装置)
11 可変長符号復号部
12 動きベクトル復元部
13 逆量子化・逆変換部
14 加算器
15,24 バッファメモリ
16 インター予測画像生成部
17 イントラ予測画像生成部
18 予測方式決定部
19,43 デブロッキングフィルタ
30,44,50,60 適応フィルタ
31 色差適応フィルタ情報復号部(フィルタ情報復号手段)
311 色差適応フィルタ係数導出部
32,441,52 色差適応フィルタ部
321,321a,321b,521a,521b,531 スイッチ部
322,522 Crフィルタ処理部(フィルタ手段)
323,523 Cbフィルタ処理部(フィルタ手段)
33,444,53 輝度適応フィルタ部
442 色差フィルタ情報決定部(フィルタ情報決定手段)
4421 色差フィルタ係数計算部
4422 色差フィルタ係数決定部
443,52,62 適応フィルタ部(フィルタ手段)
51 適応フィルタ情報復元部(フィルタ情報復号手段)
511 オンオフ情報復元部
512 フィルタ情報復元部
532 Yフィルタ処理部(フィルタ手段)
2,4 動画像符号化装置(符号化装置)
21 変換・量子化部
22 可変長符号符号化部(可変長符号化手段)
23 逆量子化・逆変換部
25 イントラ予測画像生成部
26 インター予測画像生成部
27 動きベクトル検出部
28 予測方式制御部
29 動きベクトル冗長性削除部
61 フィルタパラメータ決定部(フィルタ情報決定手段)
611 オンオフ情報決定部
612 フィルタ情報決定部
1 Video decoding device (decoding device)
DESCRIPTION OF SYMBOLS 11 Variable length code decoding part 12 Motion vector decompression | restoration part 13 Inverse quantization and inverse transformation part 14 Adder 15, 24 Buffer memory 16 Inter prediction image generation part 17 Intra prediction image generation part 18 Prediction method determination part 19, 43 Deblocking filter 30, 44, 50, 60 Adaptive filter 31 Color difference adaptive filter information decoding unit (filter information decoding means)
311 Color difference adaptive filter coefficient deriving unit 32, 441, 52 Color difference adaptive filter unit 321, 321a, 321b, 521a, 521b, 531 Switch unit 322, 522 Cr filter processing unit (filter means)
323,523 Cb filter processing section (filter means)
33, 444, 53 Luminance adaptive filter unit 442 Color difference filter information determination unit (filter information determination means)
4421 Color difference filter coefficient calculation unit 4422 Color difference filter coefficient determination unit 443, 52, 62 Adaptive filter unit (filter means)
51 Adaptive filter information restoration unit (filter information decoding means)
511 On-off information restoration unit 512 Filter information restoration unit 532 Y filter processing unit (filter means)
2,4 video encoding device (encoding device)
21 Transformer / Quantizer 22 Variable length code coder (variable length coding means)
23 Inverse quantization / inverse conversion unit 25 Intra prediction image generation unit 26 Inter prediction image generation unit 27 Motion vector detection unit 28 Prediction method control unit 29 Motion vector redundancy deletion unit 61 Filter parameter determination unit (filter information determination unit)
611 On-off information determination unit 612 Filter information determination unit
Claims (18)
前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。 A moving image decoding apparatus for decoding an image having a plurality of color components, information for specifying a color component to be filtered, and filter information decoding means for decoding a filter coefficient group;
Moving image decoding comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group decoded by the filter information decoding means and information designating the color component apparatus.
入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、
前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。 A moving image decoding apparatus for decoding an input image having a plurality of color components,
Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the input image, and a filter coefficient group;
A moving picture decoding apparatus comprising: a filter unit that performs filter processing of a color component for each unit region with reference to the filter on / off information.
特定の色成分のオンオフフラグとして用いるか、又は、複数の色成分に共通のオンオフフラグとして用いるかを選択する選択フラグを復号することを特徴とする請求項5に記載の動画像復号装置。 The filter information decoding means decodes a selection flag for selecting whether an on / off flag included in the filter on / off information is used as an on / off flag for a specific color component or as a common on / off flag for a plurality of color components. The moving picture decoding apparatus according to claim 5, wherein:
前記フィルタ情報復号手段は、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのフィルタオンオフフラグが、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを復号することを特徴とする請求項6に記載の動画像復号装置。 The color component is composed of at least a luminance component and a color difference component,
Whether the filter information decoding unit uses, as the selection flag, one filter on / off flag included in the filter on / off information as an on / off flag of a luminance component or an on / off flag common to a luminance component and a color difference component The moving picture decoding apparatus according to claim 6, wherein a flag for selecting is decoded.
フィルタ処理を行う色成分を指定する情報と、フィルタ処理に用いるフィルタ係数群を決定と、フィルタパラメータとして符号化されるフィルタ情報を決定するフィルタ情報決定手段と、
前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、フィルタ情報を符号化する可変長符号化手段を備えることを特徴とする動画像符号化装置。 An encoding device that encodes an image having a plurality of color components,
Information specifying a color component to be subjected to filter processing, determining a filter coefficient group used for the filter processing, filter information determining means for determining filter information to be encoded as a filter parameter,
A moving image comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group determined by the filter information determination means; and variable length encoding means for encoding the filter information. Image encoding device.
ことを特徴とする請求項10に記載の動画像符号化装置。 The filter information determining means determines one independent filter coefficient group to be encoded without using filter coefficient groups of other color components, and a filter coefficient group to be encoded using filter coefficient groups of other color components. The allocation flag indicating a color component to be filtered is further determined using an independent filter coefficient group, and the variable-length encoding unit encodes the allocation flag. Video encoding device.
入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と符号化するフィルタ情報を決定するフィルタ情報決定手段と、
前記フィルタオンオフ情報とフィルタ係数群を参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、フィルタオンオフ情報とフィルタ情報を含むフィルタパラメータを符号化する可変長符号化手段を備えることを特徴とする動画像符号化装置。 A moving image encoding device for encoding an input image having a plurality of color components,
In each of a plurality of unit areas constituting the input image, filter on / off information for specifying whether or not to perform filter processing, filter information determination means for determining filter information to be encoded with filter coefficient groups used for filter processing,
Filter means for performing filter processing for each unit region with reference to the filter on / off information and a filter coefficient group, and variable length coding means for encoding a filter parameter including the filter on / off information and filter information. A moving image encoding device.
前記フィルタ情報決定手段は、既に復号された前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを決定することを特徴とする請求項14に記載の動画像符号化装置。 The color component is composed of at least a luminance component and a color difference component,
The filter information determination means determines a flag for selecting whether the already-decoded filter on / off information is used as a luminance component on / off flag or a common on / off flag for a luminance component and a color difference component. The moving picture encoding apparatus according to claim 14, characterized in that:
前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられる前記色成分を指定する情報およびフィルタ係数群を含んでいることを特徴とする符号化データのデータ構造。 Information for designating color components to be filtered, and filter information decoding means for decoding a filter coefficient group;
Moving image decoding comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group decoded by the filter information decoding means and information designating the color component A data structure of encoded data used for filtering processing of an image having a plurality of color components, which is referred to by the apparatus, and includes information specifying the color components used by the filter means and a filter coefficient group A data structure of encoded data characterized by the above.
前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられるフィルタオンオフ情報とフィルタ係数群を含んでいることを特徴とする符号化データのデータ構造。 Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the input image, and a filter coefficient group;
Filtering processing of an image having a plurality of color components, which is referred to by a moving image decoding apparatus, comprising: filter means for performing filtering processing of color components for each unit region with reference to the filter on / off information A data structure of encoded data used in the above-mentioned, which includes filter on / off information and a filter coefficient group used by the filter means.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011051527A JP2014099672A (en) | 2011-03-09 | 2011-03-09 | Decoder, encoder, and data structure |
PCT/JP2012/056029 WO2012121352A1 (en) | 2011-03-09 | 2012-03-08 | Video decoding device, video coding device, and data structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011051527A JP2014099672A (en) | 2011-03-09 | 2011-03-09 | Decoder, encoder, and data structure |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014099672A true JP2014099672A (en) | 2014-05-29 |
Family
ID=46798305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011051527A Withdrawn JP2014099672A (en) | 2011-03-09 | 2011-03-09 | Decoder, encoder, and data structure |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014099672A (en) |
WO (1) | WO2012121352A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI604731B (en) * | 2016-08-05 | 2017-11-01 | 瑞昱半導體股份有限公司 | Filtering method and filter device of the same |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11563938B2 (en) | 2016-02-15 | 2023-01-24 | Qualcomm Incorporated | Geometric transforms for filters for video coding |
JP6634936B2 (en) | 2016-04-05 | 2020-01-22 | 富士通株式会社 | Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, image decoding program, and image transmission system |
JP2019114896A (en) * | 2017-12-22 | 2019-07-11 | ソニー株式会社 | Image processing device and image processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120079180A (en) * | 2008-07-04 | 2012-07-11 | 가부시끼가이샤 도시바 | Dynamic image decoding method and device |
BRPI0922793A2 (en) * | 2009-01-05 | 2016-01-05 | Toshiba Kk | moving image encoding and decoding methods |
EP2237557A1 (en) * | 2009-04-03 | 2010-10-06 | Panasonic Corporation | Coding for filter coefficients |
-
2011
- 2011-03-09 JP JP2011051527A patent/JP2014099672A/en not_active Withdrawn
-
2012
- 2012-03-08 WO PCT/JP2012/056029 patent/WO2012121352A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI604731B (en) * | 2016-08-05 | 2017-11-01 | 瑞昱半導體股份有限公司 | Filtering method and filter device of the same |
Also Published As
Publication number | Publication date |
---|---|
WO2012121352A1 (en) | 2012-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102524628B1 (en) | Method and Apparatus for Video Encoding or Decoding | |
US9467713B2 (en) | Apparatus for decoding a moving picture | |
US9609354B2 (en) | Apparatus for decoding a moving picture | |
WO2018119167A1 (en) | Constrained position dependent intra prediction combination (pdpc) | |
KR102691340B1 (en) | Method and apparatus for processing a video signal | |
JP7328373B2 (en) | Derivation of Chroma Intra Mode in Screen Content Coding | |
KR102596896B1 (en) | Method and apparatus for processing a video signal | |
KR102715622B1 (en) | Method and Apparatus for Video Encoding or Decoding | |
JP2022505578A (en) | Video signal processing methods and equipment with subblock-based motion compensation | |
US9473789B2 (en) | Apparatus for decoding a moving picture | |
EP3922029A1 (en) | Video coding using intra sub-partition coding mode | |
US10805642B2 (en) | Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and image transmission system | |
JP2022521911A (en) | Intra-prediction-based video signal processing methods and equipment | |
CN114788279A (en) | Quantization groups for use in video coding and decoding | |
KR20230129067A (en) | MVD Scaling for Joint MVD Coding | |
JP2014099672A (en) | Decoder, encoder, and data structure | |
WO2022254899A1 (en) | Video decoding apparatus and video coding apparatus | |
CN114830642A (en) | Image encoding method and image decoding method | |
KR20240046574A (en) | Method and apparatus for implicitly indicating motion vector predictor precision | |
KR20240068697A (en) | Method and apparatus for motion vector prediction based on subblock motion vectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |