JP2018107692A - Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium - Google Patents

Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium Download PDF

Info

Publication number
JP2018107692A
JP2018107692A JP2016253682A JP2016253682A JP2018107692A JP 2018107692 A JP2018107692 A JP 2018107692A JP 2016253682 A JP2016253682 A JP 2016253682A JP 2016253682 A JP2016253682 A JP 2016253682A JP 2018107692 A JP2018107692 A JP 2018107692A
Authority
JP
Japan
Prior art keywords
block
intra prediction
value
prediction
color difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016253682A
Other languages
Japanese (ja)
Inventor
強 要
Tsutomu Kaname
強 要
圭 河村
Kei Kawamura
圭 河村
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016253682A priority Critical patent/JP2018107692A/en
Publication of JP2018107692A publication Critical patent/JP2018107692A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve prediction accuracy of intra-prediction.SOLUTION: A moving image decoder 102 comprises: an entropy decoding section 602 for decoding a bit stream showing a moving image including a block encoded by using intra-prediction; an inverse quantization/inverse transformation section 604 for inversely-quantizing and inversely transforming a level value of the block, which is obtained as a result of decoding, and generating a differential value of the block; an intra-prediction section 610 for generating a prediction value of the block by intra-prediction based on a reconstructed block around the block; and a reconstruction section 606 for reconstructing the block on the basis of the generated differential value and the generated prediction value. The intra-prediction section generates the prediction value of a color difference component of the block by using a non-linear model between a luminance component and the color difference component of the block.SELECTED DRAWING: Figure 6

Description

本発明は、動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体に関する。   The present invention relates to a video decoding device, a video decoding method, a video encoding device, a video encoding method, and a computer-readable recording medium.

イントラ予測またはインター予測と、残差変換と、エントロピー符号化とを用いた動画像符号化方式が提案されている。イントラ予測を用いることにより、画像の空間的な冗長性を減少させることができる。イントラ予測の基本的なメカニズムは以下の通りである。まず、予測ブロック(の上および左)に隣接する参照ラインを生成し、予測ブロック中の原サンプルを選択された予測方向に沿って参照ラインに投影する。その後、参照ラインのサンプルとそこに投影された原サンプルとの差分(残差、誤差)は変換、量子化される。   A moving picture coding scheme using intra prediction or inter prediction, residual transform, and entropy coding has been proposed. By using intra prediction, the spatial redundancy of the image can be reduced. The basic mechanism of intra prediction is as follows. First, a reference line adjacent to the prediction block (upper and left) is generated, and the original sample in the prediction block is projected onto the reference line along the selected prediction direction. Thereafter, the difference (residual error) between the sample of the reference line and the original sample projected thereon is transformed and quantized.

一般に、処理対象のブロックの輝度成分および色差成分のそれぞれに対してイントラ予測が行われる。特許文献1には、輝度成分と色差成分との間の線形モデルを用いて、色差成分のイントラ予測を行う技術が開示されている。   In general, intra prediction is performed on each of the luminance component and the color difference component of the block to be processed. Patent Document 1 discloses a technique for performing intra prediction of a color difference component using a linear model between a luminance component and a color difference component.

特開2014−195142号公報JP 2014-195142 A

Siwei Ma, Shiqi Wang, Shanshe Wang, Liang Zhao, Qin Yu, Wen Gao, "Low Complexity Rate Distortion Optimization for HEVC", 2013 Data Compression Conference.Siwei Ma, Shiqi Wang, Shanshe Wang, Liang Zhao, Qin Yu, Wen Gao, "Low Complexity Rate Distortion Optimization for HEVC", 2013 Data Compression Conference.

特許文献1に記載の技術によると、良好なイントラ予測を実現することができる。しかしながら、これにとどまることなく、イントラ予測の確度をさらに高めることが望まれている。   According to the technique described in Patent Document 1, it is possible to realize good intra prediction. However, it is desired to further improve the accuracy of intra prediction without being limited to this.

本発明はこうした課題に鑑みてなされたものであり、その目的は、イントラ予測の確度を高めることができる技術の提供にある。   The present invention has been made in view of these problems, and an object thereof is to provide a technique capable of improving the accuracy of intra prediction.

本発明のある態様は、動画像復号装置に関する。この動画像復号装置は、イントラ予測を用いて符号化されるブロックを含む動画像を表すビットストリームを復号する復号手段と、復号の結果得られるブロックのレベル値を逆量子化および逆変換してブロックの差分値を生成する逆処理手段と、ブロックの周りの再構成済みブロックに基づくイントラ予測によりブロックの予測値を生成するイントラ予測手段と、生成された差分値および生成された予測値に基づいてブロックを再構成する再構成手段と、を備える。イントラ予測手段は、ブロックの輝度成分と色差成分との間の非線形モデルを用いて、ブロックの色差成分の予測値を生成する。   One embodiment of the present invention relates to a moving picture decoding apparatus. This moving image decoding apparatus includes a decoding unit that decodes a bit stream representing a moving image including a block encoded using intra prediction, and performs inverse quantization and inverse conversion on a block level value obtained as a result of decoding. Inverse processing means for generating a difference value of a block, intra prediction means for generating a prediction value of a block by intra prediction based on a reconstructed block around the block, and based on the generated difference value and the generated prediction value Reconstructing means for reconstructing the block. The intra prediction unit generates a predicted value of the color difference component of the block using a nonlinear model between the luminance component and the color difference component of the block.

本発明の別の態様は、動画像符号化装置である。この動画像符号化装置は、動画像のブロックの周りの符号化済みブロックに基づくイントラ予測によりブロックの予測値を生成するイントラ予測手段と、生成された予測値に基づいてブロックの差分値を生成する差分生成手段と、生成された差分値を変換および量子化し、レベル値を生成する処理手段と、生成されたレベル値を符号化してビットストリームを生成する符号化手段と、を備える。イントラ予測手段は、ブロックの輝度成分と色差成分との間の非線形モデルを用いて、ブロックの色差成分の予測値を生成する。   Another aspect of the present invention is a video encoding apparatus. The moving image encoding device generates intra block prediction values based on intra prediction based on encoded blocks around a moving image block, and generates block difference values based on the generated prediction values. Difference generating means, processing means for converting and quantizing the generated difference value to generate a level value, and encoding means for encoding the generated level value to generate a bitstream. The intra prediction unit generates a predicted value of the color difference component of the block using a nonlinear model between the luminance component and the color difference component of the block.

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like are also included in the present invention. It is effective as an embodiment of

本発明によれば、イントラ予測の確度を高めることができる。   According to the present invention, the accuracy of intra prediction can be increased.

実施の形態に係る配信システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the delivery system which concerns on embodiment. 図1の動画像符号化装置の機能および構成を示すブロック図である。It is a block diagram which shows the function and structure of the moving image encoder of FIG. 図2のイントラ予測部における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the intra estimation part of FIG. CCNMモードにおける一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in CCNM mode. 図5(a)、(b)は、処理対象Yブロックおよび処理対象Cbブロックをそれぞれ示す模式図である。FIGS. 5A and 5B are schematic diagrams showing the processing target Y block and the processing target Cb block, respectively. 図1の動画像復号装置の機能および構成を示すブロック図である。It is a block diagram which shows the function and structure of the moving image decoding apparatus of FIG. 図6のイントラ予測部における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the intra estimation part of FIG. 図8(a)、(b)は、処理対象Yブロックおよび処理対象Cbブロックに対して選択される第1変形例に係る参照ラインを示す模式図である。FIGS. 8A and 8B are schematic diagrams illustrating reference lines according to the first modification selected for the processing target Y block and the processing target Cb block. 図9(a)、(b)は、参照ラインが複数のブロックに跨がる場合の重み付けを説明するための模式図である。FIGS. 9A and 9B are schematic diagrams for explaining weighting when the reference line extends over a plurality of blocks. 図10(a)、(b)は、ひとつのブロックから複数の参照ラインが選択される場合の重み付けを説明するための模式図である。FIGS. 10A and 10B are schematic diagrams for explaining weighting when a plurality of reference lines are selected from one block. 第2変形例に係るイントラ予測部における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the intra estimation part which concerns on a 2nd modification. 図12(a)、(b)は、第4変形例に係る予測モデルの説明図である。12A and 12B are explanatory diagrams of a prediction model according to the fourth modification.

以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。   Hereinafter, the same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated description is appropriately omitted. In addition, in the drawings, some of the members that are not important for explanation are omitted.

実施の形態では、動画像符号化/復号(video encoding/decoding)のイントラ予測(intra-prediction、画面内予測)において、色差成分(chroma component)の予測値を対応する輝度成分(luma component)を入力とする非線形モデルから算出する。その際、非線形モデルのパラメータは、予測対象のブロックの周りの符号化済み/再構成済みブロックの輝度成分、色差成分それぞれの参照ラインに基づき算出される。これにより、シグナリングされるデータ量の増大を抑えつつ、より確度の高い色差成分のイントラ予測を実現することができる。   In the embodiment, in intra-prediction (intra-prediction) of video encoding / decoding, a luminance component (luma component) corresponding to a predicted value of a chroma component (chroma component) is used. Calculated from a nonlinear model as input. At this time, the parameters of the nonlinear model are calculated based on the reference lines of the luminance component and chrominance component of the encoded / reconstructed block around the prediction target block. Accordingly, it is possible to realize intra prediction of the color difference component with higher accuracy while suppressing an increase in the amount of data to be signaled.

図1は、実施の形態に係る配信システム100の構成を示す模式図である。配信システム100は、動画像を配信する動画像配信サービスにおいて使用されるシステムである。動画像配信サービスは例えばVOD(Video On Demand)であってもよい。配信システム100はインターネットなどのネットワーク106を介して、ユーザサイトに設置されているセットトップボックスやパーソナルコンピュータなどの動画像復号装置102と接続される。動画像復号装置102は、テレビ受像機やモニタなどの表示装置104と接続される。動画像復号装置102および表示装置104は合わせてスマートフォンなどの携帯端末を構成してもよい。   FIG. 1 is a schematic diagram illustrating a configuration of a distribution system 100 according to an embodiment. The distribution system 100 is a system used in a moving image distribution service that distributes moving images. The moving image distribution service may be VOD (Video On Demand), for example. The distribution system 100 is connected to a moving image decoding apparatus 102 such as a set top box or a personal computer installed at a user site via a network 106 such as the Internet. The moving picture decoding apparatus 102 is connected to a display apparatus 104 such as a television receiver or a monitor. The moving image decoding apparatus 102 and the display apparatus 104 may together constitute a mobile terminal such as a smartphone.

なお、動画像配信サービスにおける配信システムは一例であり、動画像の符号化または復号を含む任意のシステムやサービスに、本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。   It should be noted that the distribution system in the moving image distribution service is an example, and that the technical idea according to the present embodiment can be applied to any system or service including encoding or decoding of a moving image is described in this specification. It will be apparent to those skilled in the art.

配信システム100は、ネットワーク106を介してユーザから観たい動画コンテンツの指定を受ける。配信システム100は、指定された動画コンテンツのデータを符号化してビットストリームBSを生成する。配信システム100は、生成されたビットストリームBSをネットワーク106を介して要求元のユーザの動画像復号装置102に送信する。動画像復号装置102は受信したビットストリームBSを復号して動画像データを生成し、表示装置104に送信する。表示装置104は、受信した動画像データを処理し、指定された動画コンテンツを出力する。   The distribution system 100 receives designation of moving image content desired to be viewed from the user via the network 106. The distribution system 100 encodes the data of the specified moving image content to generate a bit stream BS. The distribution system 100 transmits the generated bit stream BS to the video decoding device 102 of the requesting user via the network 106. The moving picture decoding apparatus 102 decodes the received bit stream BS to generate moving picture data, and transmits it to the display apparatus 104. The display device 104 processes the received moving image data and outputs designated moving image content.

配信システム100は、動画像DB(データベース)108と、動画像符号化装置110と、を備える。動画像DB108は、動画像のデータを保持する。動画像符号化装置110は、指定された動画コンテンツに対応する動画像データを動画像DB108から取得し、取得された動画像データを符号化し、動画像を表すビットストリームBSを生成する。   The distribution system 100 includes a moving image DB (database) 108 and a moving image encoding device 110. The moving image DB 108 holds moving image data. The moving image encoding device 110 acquires moving image data corresponding to the specified moving image content from the moving image DB 108, encodes the acquired moving image data, and generates a bit stream BS representing the moving image.

図2は、図1の動画像符号化装置110の機能および構成を示すブロック図である。本明細書のブロック図に示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解される。動画像符号化装置110を実現するコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に記憶されて、又は、ネットワーク経由で配布が可能なものであってもよい。   FIG. 2 is a block diagram showing the function and configuration of the moving picture encoding apparatus 110 of FIG. Each block shown in the block diagram of the present specification can be realized in terms of hardware by an element such as a CPU of a computer or a mechanical device, and in terms of software, it can be realized by a computer program or the like. The functional block realized by those cooperation is drawn. Therefore, those skilled in the art who have touched this specification will understand that these functional blocks can be realized in various forms by a combination of hardware and software. The computer program for realizing the moving image encoding device 110 may be stored in a computer-readable recording medium or distributed via a network.

動画像符号化装置110は、フレームバッファ202と、インループフィルタ204と、インター予測部206と、イントラ予測部208と、変換・量子化部210と、エントロピー符号化部212と、逆量子化・逆変換部214と、減算部218と、加算部220と、ブロック分割部222と、を備える。   The video encoding device 110 includes a frame buffer 202, an in-loop filter 204, an inter prediction unit 206, an intra prediction unit 208, a transform / quantization unit 210, an entropy encoding unit 212, an inverse quantization / An inverse conversion unit 214, a subtraction unit 218, an addition unit 220, and a block division unit 222 are provided.

ブロック分割部222は、動画像DB108からの動画像データ(video data)に含まれる符号化対象のピクチャ(picture)を複数のブロック(block)に分割する。ブロックのサイズは様々であり、複数のブロックは四分木構造を有する。複数のブロックは二分木構造を有してもよい。ブロック分割部222におけるピクチャのブロックへの分割はHEVC(High Efficiency Video Coding)におけるピクチャのブロックへの分割に準じる。ブロック分割部222は処理対象ブロックを減算部218とインター予測部206とイントラ予測部208とに出力する。   The block dividing unit 222 divides a picture to be encoded included in moving image data (video data) from the moving image DB 108 into a plurality of blocks. The block sizes vary, and the plurality of blocks have a quadtree structure. The plurality of blocks may have a binary tree structure. The division of the picture into blocks in the block dividing unit 222 is based on the division of the picture into blocks in High Efficiency Video Coding (HEVC). The block division unit 222 outputs the processing target block to the subtraction unit 218, the inter prediction unit 206, and the intra prediction unit 208.

インター予測部206には、フレームバッファ202から処理対象ブロックに対応する参照ピクチャが入力される。インター予測部206は、入力された参照ピクチャに基づき、インター予測(inter-prediction、画面間予測)により処理対象ブロックの動き補償画像を出力する。   A reference picture corresponding to the processing target block is input from the frame buffer 202 to the inter prediction unit 206. The inter prediction unit 206 outputs a motion compensated image of the block to be processed by inter prediction (inter-prediction, inter-screen prediction) based on the input reference picture.

イントラ予測部208には、処理対象ブロックの周りの符号化済みブロック(既に符号化処理されたブロック)の画像データが加算部220から入力される。イントラ予測部208は、入力された符号化済みブロックの画素値に基づくイントラ予測により、処理対象ブロックの画素の予測値を生成し、出力する。処理対象ブロックにインター予測を適用するか、イントラ予測を適用するかに応じて、インター予測部206の出力またはイントラ予測部208の出力のいずれか一方が減算部218に出力される。   The intra prediction unit 208 receives image data of an encoded block (a block that has already been encoded) around the processing target block from the addition unit 220. The intra prediction unit 208 generates and outputs a prediction value of the pixel of the processing target block by intra prediction based on the pixel value of the input encoded block. Either the output of the inter prediction unit 206 or the output of the intra prediction unit 208 is output to the subtraction unit 218 depending on whether the inter prediction or the intra prediction is applied to the processing target block.

画素値は輝度成分と色差成分とを含む。本実施の形態では輝度成分としてYを、色差成分としてCb、Crを用い、カラーフォーマットとして4:2:0を用いる場合を説明する。しかしながら、他の輝度成分/色差成分や他のカラーフォーマット(例えば、4:4:4、4:2:2)が採用される場合にも本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。   The pixel value includes a luminance component and a color difference component. In this embodiment, a case where Y is used as a luminance component, Cb and Cr are used as color difference components, and 4: 2: 0 is used as a color format will be described. However, the technical idea according to the present embodiment can be applied even when other luminance components / chrominance components and other color formats (for example, 4: 4: 4, 4: 2: 2) are adopted. It will be apparent to those skilled in the art who have touched the specification.

以下、処理対象ブロックの輝度成分(Y)からなるブロックを処理対象Yブロック、二つの色差成分(Cb、Cr)からなるブロックをそれぞれ処理対象Cbブロック、処理対象Crブロックと称す。カラーフォーマットは4:2:0であるから、処理対象Yブロックのサイズが16×16画素であれば、対応する処理対象Cbブロック(処理対象Crブロック)のサイズはダウンサンプリングにより8×8画素となり、処理対象Yブロックのサイズよりも小さい。   Hereinafter, a block composed of the luminance component (Y) of the processing target block is referred to as a processing target Y block, and a block composed of two color difference components (Cb, Cr) is referred to as a processing target Cb block and a processing target Cr block, respectively. Since the color format is 4: 2: 0, if the size of the processing target Y block is 16 × 16 pixels, the size of the corresponding processing target Cb block (processing target Cr block) becomes 8 × 8 pixels by downsampling. Smaller than the size of the Y block to be processed.

減算部218は、処理対象Yブロック、処理対象Cbブロック、処理対象Crブロックのそれぞれについて、画素の実際の画素値と、インター予測またはイントラ予測で生成される対応する予測値と、の間で減算を行い、画素の差分値(予測残差信号)を生成する。減算部218は、生成された差分値を変換・量子化部210に出力する。   The subtraction unit 218 performs subtraction between the actual pixel value of the pixel and the corresponding prediction value generated by inter prediction or intra prediction for each of the processing target Y block, processing target Cb block, and processing target Cr block. To generate a pixel difference value (prediction residual signal). The subtraction unit 218 outputs the generated difference value to the transform / quantization unit 210.

変換・量子化部210は、減算部218から取得された処理対象ブロックの画素の差分値を変換(例えば、直交変換)および量子化し、レベル値を生成する。変換・量子化部210は、生成されたレベル値をエントロピー符号化部212および逆量子化・逆変換部214に出力する。   The transform / quantization unit 210 transforms (for example, orthogonal transform) and quantizes the pixel difference value of the processing target block acquired from the subtraction unit 218, and generates a level value. The transform / quantization unit 210 outputs the generated level value to the entropy coding unit 212 and the inverse quantization / inverse transform unit 214.

エントロピー符号化部212は、変換・量子化部210によって生成されたレベル値と、インター予測部206やイントラ予測部208から取得されるサイド情報と、をエントロピー符号化して、ビットストリームBSを生成する。   The entropy encoding unit 212 entropy-encodes the level value generated by the transform / quantization unit 210 and the side information acquired from the inter prediction unit 206 and the intra prediction unit 208 to generate a bitstream BS. .

なお、サイド情報(side information)は、復号装置において使用される画素値の再構成に必要な情報であり、イントラ予測またはインター予測の何れを使用したかを示す予測モード、インター予測における動き情報、量子化パラメータ、ブロックサイズ等の関連情報を含む。   Note that side information is information necessary for reconstruction of pixel values used in the decoding device, a prediction mode indicating whether intra prediction or inter prediction is used, motion information in inter prediction, It includes related information such as quantization parameters and block size.

輝度成分のイントラ予測の種別を示す予測モードとして、HEVCで規定される35種類のイントラ予測モード(intra prediction mode)を採用する。35種類のイントラ予測モードは、Planarモード、DCモードおよび33種類の方向性モード(directional mode)からなる。33種類の方向性モードはそれぞれ異なる予測方向(prediction direction)を有する。   As a prediction mode indicating the type of intra prediction of the luminance component, 35 types of intra prediction modes (intra prediction modes) defined by HEVC are adopted. The 35 types of intra prediction modes include a Planar mode, a DC mode, and 33 types of directional modes. Each of the 33 types of directional modes has a different prediction direction.

色差成分のイントラ予測の種別を示す予測モードとして、HEVCで規定される5種類のイントラ予測モードに本実施の形態に係るCCNM(Cross Component Nonlinear prediction Model)モードを加えた6種類を採用する。5種類の既存のイントラ予測モードはPlanarモード、DCモード、2種類の方向性モード(Horizontal, Vertical)およびDerived/Uprightモードからなる。   As prediction modes indicating the types of intra prediction of color difference components, six types obtained by adding the CCNM (Cross Component Nonlinear Prediction Model) mode according to the present embodiment to the five types of intra prediction modes defined by HEVC are adopted. The five types of existing intra prediction modes include a Planar mode, a DC mode, two types of directional modes (Horizontal, Vertical), and a Delivered / Upright mode.

逆量子化・逆変換部214は、変換・量子化部210における処理とは逆の処理を行って処理対象ブロックの画素の差分値を生成する。
加算部220は、逆量子化・逆変換部214が出力する差分値と、インター予測またはイントラ予測で生成される対応する予測値と、を加算して処理対象ブロックの画素の画素値を再構成する。加算部220は、再構成されたブロックを、イントラ予測部208とインループフィルタ204とに出力する。
The inverse quantization / inverse transform unit 214 performs a process opposite to the process in the transform / quantization unit 210 to generate a pixel difference value of the processing target block.
The adder 220 adds the difference value output from the inverse quantization / inverse transform unit 214 and the corresponding prediction value generated by inter prediction or intra prediction to reconstruct the pixel value of the pixel of the processing target block To do. The adding unit 220 outputs the reconstructed block to the intra prediction unit 208 and the in-loop filter 204.

インループフィルタ204は、処理対象のフレームに対応する局所復号画像を生成してフレームバッファ202に出力する。フレームバッファ202は、局所復号画像を保持する。この局所復号画像は、インター予測部206におけるインター予測に使用される。   The in-loop filter 204 generates a local decoded image corresponding to the processing target frame and outputs it to the frame buffer 202. The frame buffer 202 holds a locally decoded image. This locally decoded image is used for inter prediction in the inter prediction unit 206.

図3は、図2のイントラ予測部208における一連の処理の流れを示すフローチャートである。イントラ予測部208は、ブロック分割部222から処理対象ブロックを取得する(S302)。イントラ予測部208は、取得された処理対象ブロックの周りの符号化済みブロックに基づくイントラ予測により、処理対象ブロックの輝度成分に適用されるべきイントラ予測モードを決定し、かつ、決定されたイントラ予測モードにしたがい予測値を生成し、出力する(S304)。ステップS304における輝度成分のイントラ予測は、HEVCのイントラ予測により実現されてもよい。イントラ予測部208は、ステップS304で決定された輝度成分のイントラ予測モードを含むサイド情報を生成し、エントロピー符号化部212に出力する。   FIG. 3 is a flowchart showing a flow of a series of processes in the intra prediction unit 208 of FIG. The intra prediction unit 208 acquires a processing target block from the block dividing unit 222 (S302). The intra prediction unit 208 determines an intra prediction mode to be applied to the luminance component of the processing target block based on the intra prediction based on the encoded blocks around the acquired processing target block, and the determined intra prediction. A predicted value is generated and output in accordance with the mode (S304). The luminance component intra prediction in step S304 may be realized by HEVC intra prediction. The intra prediction unit 208 generates side information including the luminance component intra prediction mode determined in step S <b> 304 and outputs the side information to the entropy encoding unit 212.

イントラ予測部208は、処理対象ブロックの色差成分について、CCNMモードを含む6種類のイントラ予測モードのそれぞれで予測した場合のR−Dコストを算出する(S306)。R−Dコストは、例えば非特許文献1に記載されるrate−distortion optimizationで用いられるrate−distortion costであってもよい。イントラ予測部208は、算出されたR−Dコストに基づいて、処理対象ブロックの色差成分に適用されるべきイントラ予測モードを決定する(S308)。例えばイントラ予測部208は、6種類のイントラ予測モードのなかから、算出されたR−Dコストが最小となるイントラ予測モードを適用されるべきイントラ予測モードとして選択する。イントラ予測部208は、処理対象ブロックの色差成分の予測値を決定されたイントラ予測モードにしたがい生成し、出力する(S310)。イントラ予測部208は、上述の通り輝度成分のサイド情報が生成された後、ステップS308で決定された色差成分のイントラ予測モードを含むサイド情報を生成し、エントロピー符号化部212に出力する(S310)。   The intra prediction unit 208 calculates an RD cost when the color difference component of the processing target block is predicted in each of the six types of intra prediction modes including the CCNM mode (S306). The RD cost may be a rate-distortion cost used in the rate-distortion optimization described in Non-Patent Document 1, for example. The intra prediction unit 208 determines an intra prediction mode to be applied to the color difference component of the processing target block based on the calculated RD cost (S308). For example, the intra prediction unit 208 selects an intra prediction mode that minimizes the calculated RD cost as an intra prediction mode to be applied from among six types of intra prediction modes. The intra prediction unit 208 generates and outputs the predicted value of the color difference component of the processing target block according to the determined intra prediction mode (S310). After the luminance component side information is generated as described above, the intra prediction unit 208 generates side information including the color difference component intra prediction mode determined in step S308, and outputs the side information to the entropy encoding unit 212 (S310). ).

図3のステップS306で用いられるCCNMモードについてより詳細に説明する。CCNMモードでは、イントラ予測部208は、処理対象Yブロックと処理対象Cbブロックとの間の非線形モデルを用いて、該処理対象Cbブロックの予測値を生成する。処理対象Crブロックについても同様であるから、以下では処理対象Cbブロックの予測値の生成を説明し、処理対象Crブロックの予測値の生成については説明を省略する。   The CCNM mode used in step S306 in FIG. 3 will be described in more detail. In the CCNM mode, the intra prediction unit 208 generates a prediction value of the processing target Cb block using a nonlinear model between the processing target Y block and the processing target Cb block. Since the same applies to the processing target Cr block, generation of the prediction value of the processing target Cb block will be described below, and description of generation of the prediction value of the processing target Cr block will be omitted.

図4は、CCNMモードにおける一連の処理の流れを示すフローチャートである。図5(a)、(b)は、処理対象Yブロック502および処理対象Cbブロック504をそれぞれ示す模式図である。本例では、処理対象ブロックおよびその周りの符号化済みブロックはいずれも16×16画素とする。したがって、処理対象Yブロック502は16×16画素のサイズを有し、処理対象Cbブロック504は8×8画素のサイズを有する。なお、32×32画素、8×8画素などの他のサイズの対称的な処理対象ブロックや、16×8画素、16×4画素、8×16画素、8×32画素などの非対称的な処理対象ブロックに、本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。   FIG. 4 is a flowchart showing a flow of a series of processes in the CCNM mode. FIGS. 5A and 5B are schematic diagrams illustrating the processing target Y block 502 and the processing target Cb block 504, respectively. In this example, both the processing target block and the encoded blocks around it are 16 × 16 pixels. Therefore, the processing target Y block 502 has a size of 16 × 16 pixels, and the processing target Cb block 504 has a size of 8 × 8 pixels. It should be noted that symmetrical processing target blocks of other sizes such as 32 × 32 pixels and 8 × 8 pixels, and asymmetric processing such as 16 × 8 pixels, 16 × 4 pixels, 8 × 16 pixels, and 8 × 32 pixels. It is obvious to those skilled in the art who have touched this specification that the technical idea according to the present embodiment can be applied to the target block.

図5(a)、(b)に示される例では、処理対象ブロックの周りには5つの符号化済みブロックがあり、そのそれぞれはYブロック(以下、符号化済みYブロックと称す)およびCbブロック(以下、符号化済みCbブロックと称す)を有する。   In the example shown in FIGS. 5A and 5B, there are five encoded blocks around the block to be processed, each of which is a Y block (hereinafter referred to as an encoded Y block) and a Cb block. (Hereinafter referred to as an encoded Cb block).

ピクチャは左上のブロックから水平方向にジグザグに符号化されていく。したがって、処理対象Yブロック502の周りには、処理対象Yブロック502の上に接する第2符号化済みYブロック508と、処理対象Yブロック502の左に接する第4符号化済みYブロック512と、第2符号化済みYブロック508の左に接する第1符号化済みYブロック506と、第2符号化済みYブロック508の右に接する第3符号化済みYブロック510と、第4符号化済みYブロック512の下に接する第5符号化済みYブロック514と、がある。処理対象Cbブロック504の周りには、処理対象Cbブロック504の上に接する第2符号化済みCbブロック518と、処理対象Cbブロック504の左に接する第4符号化済みCbブロック522と、第2符号化済みCbブロック518の左に接する第1符号化済みCbブロック516と、第2符号化済みCbブロック518の右に接する第3符号化済みCbブロック520と、第4符号化済みCbブロック522の下に接する第5符号化済みCbブロック524と、がある。   The picture is encoded zigzag horizontally from the upper left block. Therefore, around the processing target Y block 502, a second encoded Y block 508 that is in contact with the processing target Y block 502, a fourth encoded Y block 512 that is in contact with the left of the processing target Y block 502, and The first encoded Y block 506 that touches the left of the second encoded Y block 508, the third encoded Y block 510 that touches the right of the second encoded Y block 508, and the fourth encoded Y There is a fifth encoded Y block 514 that borders below the block 512. Around the processing target Cb block 504, there are a second encoded Cb block 518 in contact with the processing target Cb block 504, a fourth encoded Cb block 522 in contact with the left of the processing target Cb block 504, and a second The first encoded Cb block 516 that touches the left of the encoded Cb block 518, the third encoded Cb block 520 that touches the right of the second encoded Cb block 518, and the fourth encoded Cb block 522 And a fifth encoded Cb block 524 that touches the bottom.

イントラ予測部208は、処理対象ブロックの周りの符号化済みブロックに含まれる複数のラインから参照ラインを選択する(S402)。イントラ予測部208は、第4符号化済みCbブロック522に含まれる上下方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインと繋がる第5符号化済みCbブロック524のラインと、を合わせた左隣接Cb参照ライン526を選択する。イントラ予測部208は、第2符号化済みCbブロック518に含まれる左右方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインと繋がる第3符号化済みCbブロック520のラインと、を合わせた上隣接Cb参照ライン528を選択する。   The intra prediction unit 208 selects a reference line from a plurality of lines included in the encoded block around the processing target block (S402). The intra prediction unit 208 includes a line adjacent to the processing target Cb block 504 among lines extending in the vertical direction included in the fourth encoded Cb block 522, and a line of the fifth encoded Cb block 524 connected to the line. , The left adjacent Cb reference line 526 is selected. The intra prediction unit 208 includes a line adjacent to the processing target Cb block 504 among lines extending in the left-right direction included in the second encoded Cb block 518, and a line of the third encoded Cb block 520 connected to the line. , And the adjacent Cb reference line 528 is selected.

なお、イントラ予測の際に第5符号化済みCbブロック524が利用可能でない場合、左隣接Cb参照ライン526のうち利用可能でない部分の画素の画素値は、第4符号化済みCbブロック522のラインの下端の画素の画素値を複製することにより構成される。第3符号化済みCbブロック520が利用可能でない場合も同様である。   When the fifth encoded Cb block 524 is not usable during intra prediction, the pixel values of the pixels that are not usable in the left adjacent Cb reference line 526 are the lines of the fourth encoded Cb block 522. It is configured by duplicating the pixel value of the pixel at the lower end of. The same applies when the third encoded Cb block 520 is not available.

イントラ予測部208は、選択された左隣接Cb参照ライン526および上隣接Cb参照ライン528のそれぞれに対応する符号化済みYブロック506、508、510、512、514の左隣接Y参照ライン530、上隣接Y参照ライン532を特定する。左隣接Y参照ライン530は第4符号化済みYブロック512、第5符号化済みYブロック514に跨がるラインであり、上隣接Y参照ライン532は第2符号化済みYブロック508、第3符号化済みYブロック510に跨がるラインである。   The intra-prediction unit 208 generates the left adjacent Y reference line 530 of the encoded Y blocks 506, 508, 510, 512, 514 corresponding to the selected left adjacent Cb reference line 526 and the upper adjacent Cb reference line 528, respectively. An adjacent Y reference line 532 is identified. The left adjacent Y reference line 530 extends over the fourth encoded Y block 512 and the fifth encoded Y block 514, and the upper adjacent Y reference line 532 includes the second encoded Y block 508 and the third encoded Y block 508. A line straddling the encoded Y block 510.

イントラ予測部208は、ステップS304において実行された輝度成分のイントラ予測により既に生成されている処理対象Yブロック502の再構成値ならびにステップS402で特定された左隣接Y参照ライン530および上隣接Y参照ライン532、をダウンサンプリングする(S404)。このダウンサンプリングは、動画像のカラーフォーマットに応じたレートで行われる。例えば、図5(a)、(b)の例では、Yブロックの2×2画素(=4画素)を1画素にするダウンサンプリングが行われ、これはカラーフォーマット4:2:0に対応する。図5(a)において右上から左下へと向かう斜線でハッチングされた丸534は、対応する2×2画素の領域536がそれらの画素の再構成値の内挿により得られる画素値を有する1画素にダウンサンプリングされることを示す。白抜きの丸538は、対応する3×2画素の領域540がそれらの画素の再構成値の内挿により得られる画素値を有する1画素にダウンサンプリングされることを示す。他の実施の形態において輝度成分のサイズと色差成分のサイズとが同じである場合はダウンサンプリングは行われない。   The intra prediction unit 208 refers to the reconstruction value of the processing target Y block 502 that has already been generated by the intra prediction of the luminance component executed in step S304, and the left adjacent Y reference line 530 and the upper adjacent Y reference specified in step S402. The line 532 is down-sampled (S404). This downsampling is performed at a rate corresponding to the color format of the moving image. For example, in the examples of FIGS. 5A and 5B, downsampling is performed to make 2 × 2 pixels (= 4 pixels) of the Y block one pixel, which corresponds to the color format 4: 2: 0. . In FIG. 5A, a circle 534 hatched with a diagonal line from the upper right to the lower left is one pixel in which the corresponding 2 × 2 pixel region 536 has a pixel value obtained by interpolation of the reconstructed values of those pixels. Indicates down-sampling. A white circle 538 indicates that the corresponding 3 × 2 pixel region 540 is down-sampled to one pixel having a pixel value obtained by interpolation of the reconstruction values of those pixels. In other embodiments, downsampling is not performed when the size of the luminance component and the size of the color difference component are the same.

イントラ予測部208は、ダウンサンプリングの結果得られる処理対象Yブロック502の画素(白抜きの丸538)の画素値、左隣接Y参照ライン530および上隣接Y参照ライン532(右上から左下へと向かう斜線でハッチングされた丸534)をフィルタリングする(S406)。フィルタリングは色差成分とダウンサンプリング後の輝度成分との整合の度合いを高めるための処理であり、例えば平滑化処理であってもよい。この平滑化処理で用いられるフィルタはローパスフィルタ、例えばガウシアンフィルタであってもよい。フィルタ係数の一例は(1/4、1/2、1/4)であるが、これに限定されない。   The intra prediction unit 208 moves from the upper right to the lower left, the pixel value of the pixel (the white circle 538) of the processing target Y block 502 obtained as a result of the downsampling, the left adjacent Y reference line 530, and the upper adjacent Y reference line 532. A circle 534 hatched with diagonal lines is filtered (S406). The filtering is a process for increasing the degree of matching between the color difference component and the luminance component after downsampling, and may be a smoothing process, for example. The filter used in this smoothing process may be a low-pass filter such as a Gaussian filter. An example of the filter coefficient is (1/4, 1/2, 1/4), but is not limited to this.

あるいはまた、処理対象Yブロック502のイントラ予測モードがPlanarモード、DCモードのいずれでもない場合、方向性フィルタ(directional filter)によるフィルタリングが行われてもよい。この方向性フィルタの方向は、処理対象Yブロック502に適用された方向性モードの予測方向に基づいて決定されてもよい。処理対象Yブロック502のイントラ予測モードがPlanarモードまたはDCモードのいずれかである場合、非方向性フィルタ(non-directional filter)によるフィルタリングが行われてもよい。このように、輝度成分のイントラ予測における予測方向の有無およびその角度に応じて、適用するフィルタを変えてもよい。   Alternatively, when the intra prediction mode of the processing target Y block 502 is neither the Planar mode nor the DC mode, filtering by a directional filter may be performed. The direction of the directional filter may be determined based on the prediction direction of the directional mode applied to the processing target Y block 502. When the intra prediction mode of the processing target Y block 502 is either the Planar mode or the DC mode, filtering by a non-directional filter (non-directional filter) may be performed. In this way, the filter to be applied may be changed according to the presence / absence of the prediction direction and the angle in the intra prediction of the luminance component.

イントラ予測部208は、フィルタリングの結果得られる左隣接Y参照ライン530および上隣接Y参照ライン532ならびにステップS402で選択された左隣接Cb参照ライン526および上隣接Cb参照ライン528に基づいて非線形モデルのパラメータを決定する(S408)。本実施の形態では、非線形モデルは、色差成分を対応する輝度成分の多項式で表すモデルである。cをCb成分の値、yを対応するY成分の値とすると、cはyの多項式として以下の式1で表される。

Figure 2018107692
…(式1)
ここで、
Figure 2018107692
は、多項式モデルのパラメータである。Nは3以上の自然数であり、予め定められた同じ値が符号化装置および復号装置の両方に保持される。あるいはまた、符号化装置は適応的にNの値を決定し、ビットストリームに含めて復号装置に伝送してもよい。なお、N=2は線形モデルに対応する。Nの値を増やすと予測の確度は向上するが、モデルはより複雑となり、演算量が増大する。したがって、Nの値を、例えば予測の確度の向上による影響と、演算量の増大による影響と、が拮抗する値、例えば3に設定してもよい。 The intra prediction unit 208 generates a nonlinear model based on the left adjacent Y reference line 530 and the upper adjacent Y reference line 532 obtained as a result of the filtering, and the left adjacent Cb reference line 526 and the upper adjacent Cb reference line 528 selected in step S402. The parameter is determined (S408). In the present embodiment, the non-linear model is a model in which the color difference component is represented by a corresponding luminance component polynomial. When c is the value of the Cb component and y is the value of the corresponding Y component, c is expressed by the following formula 1 as a polynomial of y.
Figure 2018107692
... (Formula 1)
here,
Figure 2018107692
Are parameters of the polynomial model. N is a natural number of 3 or more, and the same predetermined value is held in both the encoding device and the decoding device. Alternatively, the encoding apparatus may adaptively determine the value of N and include it in the bitstream and transmit it to the decoding apparatus. N = 2 corresponds to a linear model. Increasing the value of N increases the accuracy of prediction, but the model becomes more complex and the amount of computation increases. Therefore, for example, the value of N may be set to a value, for example, 3, in which the influence due to the improvement in the accuracy of prediction and the influence due to the increase in the calculation amount are competing.

ステップS408では、イントラ予測部208はパラメータaを決定するために最小二乗法(Least squares method)による線形回帰(Linear regression)分析を行う。上記の多項式モデルを以下の式2で書き直すことができる。

Figure 2018107692
…(式2)
ここで、
Figure 2018107692
Mはパラメータの評価に用いられるサンプルの総数であり、図5(a)、(b)の例では左隣接Cb参照ライン526および上隣接Cb参照ライン528に含まれる画素の総数(=32)である。式2を解くことにより、パラメータベクトルAは以下の式3により求められる。
Figure 2018107692
…(式3)
イントラ予測部208は、処理対象Cbブロック504の参照ラインおよび処理対象Yブロック502の参照ラインから得られる再構成値を式3に代入することでパラメータベクトルAを算出する。その際、処理対象Cbブロック504の参照ラインの画素(例えば、丸542の画素)の再構成値と、処理対象Yブロック502の参照ラインの対応するダウンサンプリング後の画素(例えば、丸534の画素)の再構成値と、が測定値の組(c、y)とされる。 In step S408, the intra prediction unit 208 performs linear regression analysis using a least squares method in order to determine the parameter a i . The above polynomial model can be rewritten by Equation 2 below.
Figure 2018107692
... (Formula 2)
here,
Figure 2018107692
M is the total number of samples used for parameter evaluation. In the examples of FIGS. 5A and 5B, the total number of pixels included in the left adjacent Cb reference line 526 and the upper adjacent Cb reference line 528 (= 32). is there. By solving Equation 2, the parameter vector A is obtained by Equation 3 below.
Figure 2018107692
... (Formula 3)
The intra prediction unit 208 calculates the parameter vector A by substituting the reconstructed values obtained from the reference line of the processing target Cb block 504 and the reference line of the processing target Y block 502 into Equation 3. At that time, the reconstructed value of the pixel of the reference line of the processing target Cb block 504 (for example, the pixel of the circle 542) and the corresponding downsampled pixel (for example, the pixel of the circular 534) of the reference line of the processing target Y block 502 ) Is a set of measurement values (c j , y j ).

図5(a)、(b)の例では、左隣接Cb参照ライン526に含まれる16個の画素の再構成されたCb値を下からc〜c15とし、左隣接Y参照ライン530に含まれるダウンサンプリングおよびフィルタリング後の16個の画素の再構成されたY値を下からy〜y15とする。上隣接Cb参照ライン528に含まれる16個の画素の再構成されたCb値を左からc16〜c31とし、上隣接Y参照ライン532に含まれるダウンサンプリングおよびフィルタリング後の16個の画素の再構成されたY値を左からy16〜y31とする。 In the example of FIGS. 5A and 5B, the reconstructed Cb values of 16 pixels included in the left adjacent Cb reference line 526 are c 0 to c 15 from the bottom, and the left adjacent Y reference line 530 is displayed. The reconstructed Y values of the 16 pixels included after downsampling and filtering are y 0 to y 15 from the bottom. The reconstructed Cb values of the 16 pixels included in the upper adjacent Cb reference line 528 are c 16 to c 31 from the left, and the 16 pixels after the downsampling and filtering included in the upper adjacent Y reference line 532 are processed. The reconstructed Y value is defined as y 16 to y 31 from the left.

イントラ予測部208は、非線形モデルを用いて処理対象Cbブロック504の予測値を生成する(S410)。イントラ予測部208は、ステップS408で決定されたパラメータaを式1に適用する。イントラ予測部208は、ステップS406におけるフィルタリングの結果得られる処理対象Yブロック502の画素の再構成値を式1のyに代入することで、処理対象Cbブロック504の対応する画素の予測値cを算出する。図5(a)、(b)の例では、例えば処理対象Cbブロック504の画素544の予測値は、処理対象Yブロック502のダウンサンプリング後の対応する画素546の再構成値を式1に代入することで算出される。イントラ予測部208は処理対象Cbブロック504の全ての画素について同様に予測値を算出する。 The intra prediction unit 208 generates a predicted value of the processing target Cb block 504 using a nonlinear model (S410). The intra prediction unit 208 applies the parameter a i determined in step S408 to Equation 1. The intra prediction unit 208 substitutes the reconstructed value of the pixel of the processing target Y block 502 obtained as a result of the filtering in step S <b> 406 into y in Equation 1, thereby obtaining the predicted value c of the corresponding pixel of the processing target Cb block 504. calculate. In the example of FIGS. 5A and 5B, for example, for the predicted value of the pixel 544 of the processing target Cb block 504, the reconstructed value of the corresponding pixel 546 after down-sampling of the processing target Y block 502 is substituted into Equation 1. It is calculated by doing. The intra prediction unit 208 calculates prediction values in the same manner for all pixels of the processing target Cb block 504.

図6は、図1の動画像復号装置102の機能および構成を示すブロック図である。動画像復号装置102は、エントロピー復号部602と、逆量子化・逆変換部604と、加算部606と、インター予測部608と、イントラ予測部610と、フレームバッファ612と、インループフィルタ614と、を備える。動画像復号装置102は、基本的には動画像符号化装置110で行われる手順と逆の手順により、ビットストリームBSから出力動画像データを得る。   FIG. 6 is a block diagram showing the function and configuration of the moving picture decoding apparatus 102 of FIG. The video decoding apparatus 102 includes an entropy decoding unit 602, an inverse quantization / inverse transform unit 604, an addition unit 606, an inter prediction unit 608, an intra prediction unit 610, a frame buffer 612, and an in-loop filter 614. . The moving picture decoding apparatus 102 obtains output moving picture data from the bit stream BS basically by a procedure reverse to the procedure performed by the moving picture encoding apparatus 110.

エントロピー復号部602は、ネットワーク106を介して配信システム100からビットストリームBSを受信する。エントロピー復号部602は、受信したビットストリームをエントロピー復号し、レベル値とサイド情報とを取り出す。なお、ビットストリームからサイド情報およびレベル値を得る処理はパース(parse)処理と称される。このようにして得られたサイド情報およびレベル値を用いて画素値を再構成することは、復号処理と称される。   The entropy decoding unit 602 receives the bit stream BS from the distribution system 100 via the network 106. The entropy decoding unit 602 performs entropy decoding on the received bit stream, and extracts a level value and side information. Note that the process of obtaining side information and level values from a bitstream is referred to as a parse process. Reconstructing the pixel value using the side information and the level value obtained in this way is called a decoding process.

逆量子化・逆変換部604は、エントロピー復号の結果得られる処理対象ブロックのレベル値を逆量子化および逆変換して処理対象ブロックの画素の差分値を生成する。
加算部606は、処理対象ブロックがイントラ予測されたものであるかインター予測されたものであるかに応じて、インター予測部608またはイントラ予測部610で生成される予測値を取得する。加算部606は、Y、Cb、Crの各成分について、逆量子化・逆変換部604によって生成された差分値と、取得された対応する予測値と、を加算して処理対象ブロックの各成分の画素の画素値を再構成する。加算部606は、再構成された処理対象ブロックの各成分をイントラ予測部610とインループフィルタ614とに出力する。
The inverse quantization / inverse transform unit 604 performs inverse quantization and inverse transform on the level value of the processing target block obtained as a result of entropy decoding, and generates a difference value between the pixels of the processing target block.
The adding unit 606 acquires a prediction value generated by the inter prediction unit 608 or the intra prediction unit 610 depending on whether the processing target block is intra predicted or inter predicted. The adding unit 606 adds the difference value generated by the inverse quantization / inverse transform unit 604 and the corresponding predicted value obtained for each component of Y, Cb, and Cr, and adds each component of the processing target block. The pixel value of the pixel is reconstructed. The adding unit 606 outputs each component of the reconfigured processing target block to the intra prediction unit 610 and the in-loop filter 614.

インター予測部608には、フレームバッファ612から処理対象ブロックに対応する参照ピクチャが入力される。インター予測部608は、入力された参照ピクチャに基づき、インター予測により処理対象ブロックの動き補償画像を出力する。   A reference picture corresponding to the processing target block is input from the frame buffer 612 to the inter prediction unit 608. The inter prediction unit 608 outputs a motion compensated image of the processing target block by inter prediction based on the input reference picture.

イントラ予測部610には、処理対象ブロックの周りの再構成済みブロック(既に復号処理されたブロック、または既に再構成されたブロック)の画像データが加算部606から入力される。イントラ予測部610は、入力された再構成済みブロックの画素値に基づくイントラ予測により、処理対象ブロックの画素の予測値を生成し、出力する。   Image data of a reconstructed block (a block that has already been decoded or a block that has already been reconstructed) around the processing target block is input from the adder 606 to the intra prediction unit 610. The intra prediction unit 610 generates and outputs a predicted value of the pixel of the processing target block by intra prediction based on the input pixel value of the reconfigured block.

インループフィルタ614は例えばデブロックフィルタである。インループフィルタ614は、処理対象のフレームに対応する局所復号画像を生成してフレームバッファ612に出力する。この局所復号画像は、インター予測部608におけるインター予測に使用されると同時に、出力動画像データとして表示装置104に出力される。   The in-loop filter 614 is a deblock filter, for example. The in-loop filter 614 generates a locally decoded image corresponding to the processing target frame and outputs the locally decoded image to the frame buffer 612. This locally decoded image is used for inter prediction in the inter prediction unit 608 and is simultaneously output to the display device 104 as output moving image data.

図7は、図6のイントラ予測部610における一連の処理の流れを示すフローチャートである。イントラ予測部610は、エントロピー復号部602で取り出されたサイド情報のうち、処理対象ブロックの輝度成分についてのイントラ予測モードを取得する(S702)。イントラ予測部610は、取得されたイントラ予測モードに基づき、処理対象ブロックの周りの再構成済みブロックの輝度成分に含まれるラインのなかから参照ラインを特定する(S704)。イントラ予測部610は、ステップS702で取得されたイントラ予測モードにしたがい、ステップS704で特定された参照ラインを用いて輝度成分のイントラ予測を行う(S706)。イントラ予測部610は、イントラ予測により生成された輝度成分の予測値を出力する。ステップS706における輝度成分のイントラ予測は、HEVCのイントラ予測により実現されてもよい。   FIG. 7 is a flowchart showing a flow of a series of processes in the intra prediction unit 610 of FIG. The intra prediction unit 610 acquires the intra prediction mode for the luminance component of the processing target block from the side information extracted by the entropy decoding unit 602 (S702). Based on the acquired intra prediction mode, the intra prediction unit 610 identifies a reference line from among the lines included in the luminance component of the reconstructed block around the processing target block (S704). The intra prediction unit 610 performs intra prediction of the luminance component using the reference line specified in step S704 in accordance with the intra prediction mode acquired in step S702 (S706). The intra prediction unit 610 outputs a predicted value of the luminance component generated by the intra prediction. The luminance component intra prediction in step S706 may be realized by HEVC intra prediction.

イントラ予測部610は、エントロピー復号部602で取り出されたサイド情報のうち、処理対象ブロックの色差成分についてのイントラ予測モードを取得する(S708)。イントラ予測部610は、取得されたイントラ予測モードに基づき、処理対象ブロックの周りの再構成済みブロックの色差成分に含まれるラインのなかから参照ラインを特定する(S710)。イントラ予測部610は、ステップS708で取得されたイントラ予測モードにしたがい、ステップS710で特定された参照ラインを用いて色差成分のイントラ予測を行う(S712)。イントラ予測部610は、イントラ予測により生成された色差成分の予測値を出力する。   The intra prediction unit 610 acquires an intra prediction mode for the color difference component of the processing target block from the side information extracted by the entropy decoding unit 602 (S708). Based on the acquired intra prediction mode, the intra prediction unit 610 identifies a reference line from among the lines included in the color difference components of the reconstructed blocks around the processing target block (S710). The intra prediction unit 610 performs intra prediction of the color difference component using the reference line specified in step S710 in accordance with the intra prediction mode acquired in step S708 (S712). The intra prediction unit 610 outputs a predicted value of the color difference component generated by the intra prediction.

ステップS708で取得されたイントラ予測モードがCCNMモードである場合、ステップS710およびS712において図4に示される処理と同様の処理が行われる。特にステップS710はステップS402に対応し、ステップS712はステップS404、S406、S408、S410に対応する。図4の説明における「符号化済みブロック」を「再構成済みブロック」に読み替えることにより、ここでの説明を省略する。   When the intra prediction mode acquired in step S708 is the CCNM mode, processing similar to the processing shown in FIG. 4 is performed in steps S710 and S712. In particular, step S710 corresponds to step S402, and step S712 corresponds to steps S404, S406, S408, and S410. By replacing “encoded block” in the description of FIG. 4 with “reconstructed block”, description here is omitted.

本実施の形態に係る動画像符号化装置110または動画像復号装置102によると、輝度成分と色差成分との間の非線形モデルを用いて色差成分のイントラ予測が行われるので、線形モデルを用いる場合と比べて予測値の確度を高めることができる。特にイントラピクチャが複雑なテクスチャを有し、線形モデルでは対応しきれない場合に、本実施の形態に係る非線形モデルは有効である。   According to video encoding device 110 or video decoding device 102 according to the present embodiment, intra prediction of color difference components is performed using a nonlinear model between luminance components and color difference components. Compared with, the accuracy of the predicted value can be increased. In particular, the nonlinear model according to the present embodiment is effective when an intra picture has a complex texture and cannot be handled by a linear model.

また、本実施の形態では、色差成分のイントラ予測の際に用いられる参照ラインは複数の符号化済み/再構成済みブロックに跨がる。したがって、単に隣接する符号化済み/再構成済みブロックのラインのみを参照ラインとする場合と比べてサンプル数が多くなるので、非線形モデルのパラメータの評価の精度を高めることができる、または該パラメータの評価の堅牢性(robustness)を高めることができる。また、参照ラインが右上および/または左下に延びることで、左下から右上に向かう方向性のテクスチャが存在する場合にも、精度の高いパラメータの評価が実現される。   Further, in the present embodiment, the reference line used in intra prediction of the color difference component spans a plurality of encoded / reconstructed blocks. Therefore, since the number of samples is increased compared to the case where only the line of the adjacent encoded / reconstructed block is used as the reference line, the accuracy of the parameter evaluation of the nonlinear model can be increased, or the parameter The robustness of the evaluation can be increased. In addition, since the reference line extends to the upper right and / or lower left, even when there is a directional texture from the lower left to the upper right, highly accurate parameter evaluation is realized.

また、本実施の形態では、輝度成分のダウンサンプリングの後にフィルタリングが行われる。したがって、ダウンサンプリングにより生じうる輝度成分と色差成分との乖離を抑えることができる。さらに、本実施の形態で採用されたカラーフォーマット4:2:0のように、色差成分がそもそもダウンサンプリングにより生成される場合であっても、輝度成分の再構成値には量子化ノイズ等によるノイズ成分が含まれうる。本実施の形態によると、フィルタリングにより輝度成分の参照ラインおよび輝度成分の再構成値の両方からそのようなノイズ成分を低減または除去できる。   In the present embodiment, filtering is performed after downsampling of the luminance component. Accordingly, it is possible to suppress the deviation between the luminance component and the color difference component that may be generated by downsampling. Further, even if the color difference component is generated by downsampling as in the color format 4: 2: 0 adopted in the present embodiment, the reconstructed value of the luminance component is caused by quantization noise or the like. A noise component may be included. According to the present embodiment, such a noise component can be reduced or removed from both the reference line of the luminance component and the reconstructed value of the luminance component by filtering.

また、本実施の形態に係るCCNMモードでは、動画像復号装置102および動画像符号化装置110のそれぞれで輝度成分の参照ラインと色差成分の参照ラインとから非線形モデルのパラメータaが決定される。したがって、そのパラメータaをビットストリームBSに含めて伝送する必要はないので、符号量の増大を抑えるか無くすことができる。 Also, in the CCNM mode according to the present embodiment, the nonlinear model parameter a i is determined from the luminance component reference line and the chrominance component reference line in each of the moving image decoding apparatus 102 and the moving image encoding apparatus 110. . Therefore, since it is not necessary to transmit the parameter a i by including it in the bit stream BS, it is possible to suppress or eliminate an increase in the code amount.

以上、実施の形態の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。   The configuration and operation of the embodiment have been described above. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each component and combination of processes, and such modifications are within the scope of the present invention.

(第1変形例)
実施の形態では複数のブロックに跨がる参照ラインを用いる場合について説明したが、これに限られない。例えば、処理対象ブロックの周りの符号化済み/再構成済みブロックの輝度成分の複数の参照ラインおよび色差成分の対応する複数の参照ラインに基づいて非線形モデルのパラメータが決定されてもよい。この場合、ひとつの参照ラインを用いる場合と比べてサンプル数が多くなるので、非線形モデルのパラメータの評価の精度を高めることができる、または該パラメータの評価の堅牢性(robustness)を高めることができる。
(First modification)
In the embodiment, the case of using a reference line extending over a plurality of blocks has been described, but the present invention is not limited to this. For example, the parameters of the nonlinear model may be determined based on a plurality of reference lines of luminance components and a plurality of reference lines corresponding to chrominance components of encoded / reconstructed blocks around the processing target block. In this case, since the number of samples is increased as compared with the case where one reference line is used, the accuracy of the evaluation of the parameters of the nonlinear model can be increased, or the robustness of the evaluation of the parameters can be increased. .

図8(a)、(b)は、処理対象Yブロック502および処理対象Cbブロック504に対して選択される第1変形例に係る参照ラインを示す模式図である。第1変形例に係る動画像符号化装置のイントラ予測部は、第4符号化済みCbブロック522に含まれる上下方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインの左隣のラインと、を合わせた左隣接Cb参照ライン826を選択する。イントラ予測部は、第2符号化済みCbブロック518に含まれる左右方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインの上に隣接するラインと、を合わせた上隣接Cb参照ライン828を選択する。   FIGS. 8A and 8B are schematic diagrams illustrating reference lines according to the first modification selected for the processing target Y block 502 and the processing target Cb block 504. FIG. The intra prediction unit of the video encoding device according to the first modification includes a line adjacent to the processing target Cb block 504 among lines extending in the vertical direction included in the fourth encoded Cb block 522, and the left of the line. The left adjacent Cb reference line 826 is selected by combining the adjacent lines. The intra prediction unit combines the line adjacent to the processing target Cb block 504 among the lines extending in the left-right direction included in the second encoded Cb block 518 and the upper adjacent Cb that is adjacent to the line above the line. A reference line 828 is selected.

イントラ予測部は、選択された左隣接Cb参照ライン826および上隣接Cb参照ライン828のそれぞれに対応する符号化済みYブロック508、512の左隣接Y参照ライン830、上隣接Y参照ライン832を特定する。左隣接Y参照ライン830は第4符号化済みYブロック512に含まれる(ダウンサンプリング後における)二つのラインであり、上隣接Y参照ライン832は第2符号化済みYブロック508に含まれる(ダウンサンプリング後における)二つのラインである。動画像復号装置のイントラ予測部は上記と同様の処理を行う。   The intra prediction unit identifies the left adjacent Y reference line 830 and the upper adjacent Y reference line 832 of the encoded Y blocks 508 and 512 corresponding to the selected left adjacent Cb reference line 826 and the upper adjacent Cb reference line 828, respectively. To do. The left adjacent Y reference line 830 is two lines included in the fourth encoded Y block 512 (after downsampling), and the upper adjacent Y reference line 832 is included in the second encoded Y block 508 (down Two lines (after sampling). The intra prediction unit of the video decoding device performs the same processing as described above.

(第2変形例)
実施の形態では、参照ラインに含まれる画素値を用いて非線形モデルのパラメータを決定する場合について説明したが、これに限られない。例えば、複数の参照ラインのそれぞれに割り当てられた重みに基づいて非線形モデルのパラメータが決定されてもよい。この場合、各参照ラインの信頼性(reliability)を個別に考慮することができるので、より正確なパラメータの評価が実現される。重みは、ブロックのサイズや輝度成分のイントラ予測モードに応じて決定されてもよい。
(Second modification)
In the embodiments, the case where the parameters of the nonlinear model are determined using the pixel values included in the reference line has been described, but the present invention is not limited to this. For example, the parameters of the nonlinear model may be determined based on the weight assigned to each of the plurality of reference lines. In this case, since the reliability of each reference line can be considered individually, more accurate parameter evaluation is realized. The weight may be determined according to the block size and the intra prediction mode of the luminance component.

図9(a)、(b)は、参照ラインが複数のブロックに跨がる場合の重み付けを説明するための模式図である。図10(a)、(b)は、ひとつのブロックから複数の参照ラインが選択される場合の重み付けを説明するための模式図である。第2変形例に係る動画像符号化装置のイントラ予測部は、参照ラインを構成する画素を4つのゾーン(Zone)に分類する。ゾーンA(ZONEA)およびゾーンB(ZONEB)には重みwAB=0.6が、ゾーンC(ZONEC)およびゾーンD(ZONED)には重みwCD=0.4が、それぞれ割り当てられる。 FIGS. 9A and 9B are schematic diagrams for explaining weighting when the reference line extends over a plurality of blocks. FIGS. 10A and 10B are schematic diagrams for explaining weighting when a plurality of reference lines are selected from one block. The intra prediction unit of the video encoding device according to the second modification classifies the pixels constituting the reference line into four zones. A weight w AB = 0.6 is assigned to zone A (ZONEA) and zone B (ZONEB), and a weight w CD = 0.4 is assigned to zone C (ZONEC) and zone D (ZONED).

イントラ予測部は、ゾーンAおよびゾーンBの画素を用いて以下の第1非線形モデルのパラメータa ABを決定する。

Figure 2018107692
イントラ予測部は、ゾーンCおよびゾーンDの画素を用いて以下の第2非線形モデルのパラメータa CDを決定する。
Figure 2018107692
イントラ予測部は、
C=wAB*CAB+wCD*CCD
を演算することにより色差成分の予測値を生成する。動画像復号装置のイントラ予測部は上記と同様の処理を行う。本例では重みを0.6:0.4としたが、これは一例であって他の重みが用いられてもよい。 The intra prediction unit determines the following parameters a i AB of the first nonlinear model using the pixels of zone A and zone B.
Figure 2018107692
The intra prediction unit determines a parameter a i CD of the second nonlinear model below using the pixels of zone C and zone D.
Figure 2018107692
The intra prediction unit
C = w AB * C AB + w CD * C CD
Is used to generate a predicted value of the color difference component. The intra prediction unit of the video decoding device performs the same processing as described above. In this example, the weight is set to 0.6: 0.4, but this is an example, and other weights may be used.

図11は、第2変形例に係るイントラ予測部における一連の処理の流れを示すフローチャートである。イントラ予測部は、処理対象ブロックの周りの符号化済み/再構成済みブロックに含まれる参照ラインの画素を複数のグループに分類し、各グループに重みを割り当てる(S152)。イントラ予測部は、参照ラインの画素の再構成値に基づいて、複数のイントラ予測モデルのパラメータを決定する(S154)。上述の例では、第1非線形モデルのパラメータa ABおよび第2非線形モデルのパラメータa CDが決定される。イントラ予測部は、パラメータ評価時の誤差eが所定のしきい値δよりも小さいか、またはステップS154の繰り返し数Tが所定のしきい値th_iterよりも大きい場合(S156のYES)、その時点でのパラメータを保持する。イントラ予測部は、保持されたパラメータで構成される複数のモデルを用いた、色差成分のイントラ予測を行う(S158)。ステップS156においてe≧δかつT≦th_iterの場合、処理はステップS152に戻る。 FIG. 11 is a flowchart showing a flow of a series of processes in the intra prediction unit according to the second modification. The intra prediction unit classifies the pixels of the reference line included in the encoded / reconstructed block around the processing target block into a plurality of groups, and assigns a weight to each group (S152). The intra prediction unit determines parameters of a plurality of intra prediction models based on the reconstructed values of the pixels of the reference line (S154). In the above example, the parameter a i AB of the first nonlinear model and the parameter a i CD of the second nonlinear model are determined. When the error e at the time of parameter evaluation is smaller than the predetermined threshold value δ or when the number of repetitions T in step S154 is larger than the predetermined threshold th_iter (YES in S156), the intra prediction unit at that time Holds the parameters. The intra prediction unit performs intra prediction of chrominance components using a plurality of models composed of the held parameters (S158). If e ≧ δ and T ≦ th_iter in step S156, the process returns to step S152.

(第3変形例)
第2変形例では、まず参照ラインの画素が複数のグループに分類され、各グループに重みが割り当てられる。最終的なモデルは各グループから導出された多項式モデルの重み付け和として表される。第3変形例では、複数の予測モデル、例えば線形モデルおよび非線形モデルを用意し、そのそれぞれのパラメータを参照ラインの画素全てを用いて決定する。具体的には、図11のステップS154における複数のモデルとして、線形モデルおよび非線形モデルを採用し、各モデルのパラメータを参照ラインの画素全てを用いて決定する。
(Third Modification)
In the second modified example, first, the pixels of the reference line are classified into a plurality of groups, and a weight is assigned to each group. The final model is expressed as a weighted sum of polynomial models derived from each group. In the third modification, a plurality of prediction models, for example, a linear model and a nonlinear model are prepared, and each parameter is determined using all the pixels of the reference line. Specifically, a linear model and a nonlinear model are adopted as the plurality of models in step S154 in FIG. 11, and parameters of each model are determined using all the pixels of the reference line.

第3変形例に係る動画像符号化装置のイントラ予測部は、参照ラインの画素を用いて以下の線形モデルのパラメータa、bを決定する。

Figure 2018107692
イントラ予測部は、参照ラインの画素を用いて以下の非線形モデルのパラメータa、a、aを決定する。
Figure 2018107692
イントラ予測部は、
C=w*C+w*C
を演算することにより色差成分の予測値を生成する。wおよびwはそれぞれ線形モデル、非線形モデルに割り当てられた重みである。動画像復号装置のイントラ予測部は上記と同様の処理を行う。 The intra prediction unit of the video encoding apparatus according to the third modification determines parameters a and b of the following linear model using the pixels of the reference line.
Figure 2018107692
The intra prediction unit determines the following parameters a 0 , a 1 , and a 2 of the nonlinear model using the pixels of the reference line.
Figure 2018107692
The intra prediction unit
C = w L * C L + w N * C N
Is used to generate a predicted value of the color difference component. w L and w N are weights assigned to the linear model and the nonlinear model, respectively. The intra prediction unit of the video decoding device performs the same processing as described above.

(第4変形例)
第2変形例および第3変形例では、複数の予測モデルを用いて色差成分の各画素の予測値を算出する場合を説明した。第4変形例では、イントラ予測部はまず処理対象Cbブロック504を複数のサブグループに分ける。イントラ予測部は、各サブグループに個別に予測モデルを設定する。すなわち、予測モデルの種別(線形モデル/非線形モデル)や予測パラメータはサブグループごとに異なりうる。イントラ予測部は、サブグループごとに該サブグループに設定された予測モデルを用いて色差成分の予測値を算出する。
(Fourth modification)
In the second modified example and the third modified example, the case where the predicted value of each pixel of the color difference component is calculated using a plurality of prediction models has been described. In the fourth modification, the intra prediction unit first divides the processing target Cb block 504 into a plurality of subgroups. The intra prediction unit sets a prediction model individually for each subgroup. That is, the type of prediction model (linear model / nonlinear model) and the prediction parameter may differ for each subgroup. The intra prediction unit calculates the prediction value of the color difference component for each subgroup using the prediction model set for the subgroup.

(第5変形例)
実施の形態では、CCNMモードによりY成分の再構成値からCb成分およびCr成分のイントラ予測値を算出する場合について説明したが、これに限られない。図12(a)、(b)は、第5変形例に係る予測モデルの説明図である。図12(a)では、Y成分とCb成分との間の第1予測モデル180を用いてCb成分の予測値が生成される。Y成分とCr成分との間の第2予測モデル182およびCb成分とCr成分との間の第3予測モデル184を用いてCr成分の予測値が生成される。第1予測モデル180、第2予測モデル182および第3予測モデル184のうちの少なくともひとつは非線形モデルである。例えば、Cr成分の予測値は、
Cr=α*Y+(1−α)*Cb
により算出される。ここで、αは0以上1以下の重み付け係数である。
(5th modification)
In the embodiment, the case where the intra prediction values of the Cb component and the Cr component are calculated from the reconstructed value of the Y component in the CCNM mode has been described. However, the present invention is not limited to this. 12A and 12B are explanatory diagrams of a prediction model according to the fifth modification. In FIG. 12A, the predicted value of the Cb component is generated using the first prediction model 180 between the Y component and the Cb component. A predicted value of the Cr component is generated using the second prediction model 182 between the Y component and the Cr component and the third prediction model 184 between the Cb component and the Cr component. At least one of the first prediction model 180, the second prediction model 182 and the third prediction model 184 is a non-linear model. For example, the predicted value of the Cr component is
Cr = α * Y + (1-α) * Cb
Is calculated by Here, α is a weighting coefficient of 0 or more and 1 or less.

図12(b)では、Y成分とCr成分との間の第4予測モデル186を用いてCr成分の予測値が生成される。Y成分とCb成分との間の第5予測モデル188およびCr成分とCb成分との間の第6予測モデル190を用いてCb成分の予測値が生成される。第4予測モデル186、第5予測モデル188および第6予測モデル190のうちの少なくともひとつは非線形モデルである。例えば、Cb成分の予測値は、
Cb=β*Y+(1−β)*Cr
により算出される。ここで、βは0以上1以下の重み付け係数である。
In FIG. 12B, the predicted value of the Cr component is generated using the fourth prediction model 186 between the Y component and the Cr component. A predicted value of the Cb component is generated using a fifth prediction model 188 between the Y component and the Cb component and a sixth prediction model 190 between the Cr component and the Cb component. At least one of the fourth prediction model 186, the fifth prediction model 188, and the sixth prediction model 190 is a non-linear model. For example, the predicted value of the Cb component is
Cb = β * Y + (1-β) * Cr
Is calculated by Here, β is a weighting coefficient of 0 or more and 1 or less.

実施の形態では、非線形モデルとして多項式モデルを採用する場合を説明したが、これに限られず、例えば指数関数や対数関数で展開したモデルを用いてもよい。   In the embodiment, the case where the polynomial model is adopted as the nonlinear model has been described.

実施の形態では、色差成分の予測値を非線形モデルから算出する際に該非線形モデルに対応する輝度成分の再構成値を入力する場合について説明したが、これに限られず、例えば対応する輝度成分の予測値を入力してもよい。   In the embodiment, the case where the reconstructed value of the luminance component corresponding to the nonlinear model is input when the predicted value of the color difference component is calculated from the nonlinear model is not limited to this. A predicted value may be input.

実施の形態では、図4のステップS406においてYブロックの再構成値およびYブロックの参照ラインの両方をフィルタリングする場合を説明したが、これに限られず、例えばステップS406においてYブロックの参照ラインをフィルタリングし、ステップS408の前にYブロックの再構成値をフィルタリングしてもよい。あるいはまた、フィルタリングを行わなくてもよい。   In the embodiment, the case where both the reconstruction value of the Y block and the reference line of the Y block are filtered in step S406 in FIG. 4 is not limited to this. For example, the reference line of the Y block is filtered in step S406. The reconstruction value of the Y block may be filtered before step S408. Alternatively, filtering may not be performed.

100 配信システム、 102 動画像復号装置、 104 表示装置、 106 ネットワーク、 110 動画像符号化装置。   DESCRIPTION OF SYMBOLS 100 distribution system, 102 moving image decoding apparatus, 104 display apparatus, 106 network, 110 moving image encoding apparatus.

Claims (13)

イントラ予測を用いて符号化されるブロックを含む動画像を表すビットストリームを復号する復号手段と、
復号の結果得られる前記ブロックのレベル値を逆量子化および逆変換して前記ブロックの差分値を生成する逆処理手段と、
前記ブロックの周りの再構成済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測手段と、
生成された前記差分値および生成された前記予測値に基づいて前記ブロックを再構成する再構成手段と、を備え、
前記イントラ予測手段は、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成する動画像復号装置。
Decoding means for decoding a bitstream representing a moving image including a block encoded using intra prediction;
Inverse processing means for generating a difference value of the block by dequantizing and inversely transforming the level value of the block obtained as a result of decoding;
Intra prediction means for generating a prediction value of the block by intra prediction based on a reconstructed block around the block;
Reconstructing means for reconstructing the block based on the generated difference value and the generated predicted value;
The intra-prediction unit is a moving picture decoding apparatus that generates a prediction value of a color difference component of a block using a nonlinear model between a luminance component and a color difference component of the block.
前記非線形モデルは、色差成分を対応する輝度成分の多項式で表すモデルである請求項1に記載の動画像復号装置。   The moving image decoding apparatus according to claim 1, wherein the non-linear model is a model that represents a color difference component by a polynomial of a corresponding luminance component. 前記イントラ予測手段は、前記ブロックの周りの再構成済みブロックの輝度成分の参照ラインおよび色差成分の対応する参照ラインに基づいて前記非線形モデルのパラメータを決定する請求項1または2に記載の動画像復号装置。   3. The moving image according to claim 1, wherein the intra prediction unit determines the parameters of the nonlinear model based on a reference line of a luminance component and a corresponding reference line of a color difference component of a reconstructed block around the block. Decoding device. 前記ブロックの周りの再構成済みブロックは、前記ブロックに隣接する第1再構成済みブロックと、第1再構成済みブロックの輝度成分の第1参照ラインが延びる方向に第1再構成済みブロックと隣接する第2再構成済みブロックと、を含み、
前記イントラ予測手段は、前記第1参照ラインおよび前記第2再構成済みブロックの輝度成分の第2参照ラインに基づいて前記非線形モデルのパラメータを決定する請求項3に記載の動画像復号装置。
The reconstructed block around the block is adjacent to the first reconstructed block in the direction in which the first reference line of the luminance component of the first reconstructed block and the first reconstructed block adjacent to the block extend. A second reconstructed block to
The video decoding device according to claim 3, wherein the intra prediction unit determines the parameter of the nonlinear model based on the first reference line and a second reference line of a luminance component of the second reconstructed block.
前記イントラ予測手段は、前記ブロックの周りの再構成済みブロックの輝度成分の複数の参照ラインおよび色差成分の対応する複数の参照ラインに基づいて前記非線形モデルのパラメータを決定する請求項3に記載の動画像復号装置。   The said intra prediction means determines the parameter of the said nonlinear model based on the some reference line of the luminance component of the reconfigure | reconstructed block around the said block, and the some reference line corresponding to a colour-difference component. Video decoding device. 前記イントラ予測手段は、各参照ラインに割り当てられた重みに基づいて前記非線形モデルのパラメータを決定する請求項4または5に記載の動画像復号装置。   The moving picture decoding apparatus according to claim 4 or 5, wherein the intra prediction means determines the parameter of the nonlinear model based on a weight assigned to each reference line. 前記ブロックの色差成分のサイズは前記ブロックの輝度成分のサイズよりも小さく、
前記イントラ予測手段は、
前記ブロックの輝度成分と前記ブロックの周りの再構成済みブロックの輝度成分の参照ラインとをダウンサンプリングする手段と、
ダウンサンプリングの結果得られる輝度成分および参照ラインに対してフィルタリングを行う手段と、
フィルタリングの結果得られる参照ラインおよび色差成分の対応する参照ラインに基づいて前記非線形モデルのパラメータを決定する手段と、
決定されたパラメータおよびフィルタリングの結果得られる輝度成分を用いて、対応する色差成分の予測値を生成する手段と、を含む請求項3から6のいずれか一項に記載の動画像復号装置。
The size of the color difference component of the block is smaller than the size of the luminance component of the block,
The intra prediction means includes
Means for downsampling the luminance component of the block and a reference line of luminance components of the reconstructed block around the block;
Means for filtering the luminance component and the reference line obtained as a result of downsampling;
Means for determining parameters of the nonlinear model based on a reference line obtained as a result of filtering and a corresponding reference line of the color difference component;
7. The moving picture decoding apparatus according to claim 3, further comprising: a unit that generates a predicted value of the corresponding color difference component using the determined parameter and the luminance component obtained as a result of filtering.
前記フィルタリングを行う手段は、前記ブロックの輝度成分のイントラ予測に用いられた方向性モードの方向に応じた方向性フィルタである請求項7に記載の動画像復号装置。   The moving picture decoding apparatus according to claim 7, wherein the filtering unit is a directional filter corresponding to the direction of the directional mode used for intra prediction of the luminance component of the block. 前記ブロックの色差成分は第1色差成分と第2色差成分とを含み、
前記イントラ予測手段は、前記ブロックの輝度成分と第1色差成分との間の第1予測モデルを用いて前記ブロックの第1色差成分の予測値を生成し、かつ、前記ブロックの輝度成分と第2色差成分との間の第2予測モデルおよび前記ブロックの第1色差成分と第2色差成分との間の第3予測モデルを用いて前記ブロックの第2色差成分の予測値を生成し、
前記第1予測モデル、前記第2予測モデルおよび前記第3予測モデルのうちの少なくともひとつは非線形モデルである請求項1から8のいずれか一項に記載の動画像復号装置。
The color difference component of the block includes a first color difference component and a second color difference component,
The intra prediction unit generates a predicted value of the first color difference component of the block using a first prediction model between the luminance component of the block and the first color difference component, and Generating a predicted value of the second color difference component of the block using a second prediction model between the two color difference components and a third prediction model between the first color difference component and the second color difference component of the block;
9. The moving picture decoding apparatus according to claim 1, wherein at least one of the first prediction model, the second prediction model, and the third prediction model is a non-linear model.
イントラ予測を用いて符号化されるブロックを含む動画像を表すビットストリームを復号する復号ステップと、
復号の結果得られる前記ブロックのレベル値を逆量子化および逆変換して前記ブロックの差分値を生成する逆処理ステップと、
前記ブロックの周りの再構成済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測ステップと、
生成された前記差分値および生成された前記予測値に基づいて前記ブロックを再構成する再構成ステップと、を含み、
前記イントラ予測ステップは、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成するステップを含む動画像復号方法。
A decoding step of decoding a bitstream representing a moving image including a block encoded using intra prediction;
An inverse processing step of generating a difference value of the block by inverse-quantizing and inverse-transforming the level value of the block obtained as a result of decoding;
An intra prediction step of generating a prediction value of the block by intra prediction based on a reconstructed block around the block;
Reconstructing the block based on the generated difference value and the generated predicted value, and
The intra prediction step includes a step of generating a prediction value of the color difference component of the block using a nonlinear model between the luminance component and color difference component of the block.
動画像のブロックの周りの符号化済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測手段と、
生成された前記予測値に基づいて前記ブロックの差分値を生成する差分生成手段と、
生成された前記差分値を変換および量子化し、レベル値を生成する処理手段と、
生成されたレベル値を符号化してビットストリームを生成する符号化手段と、を備え、
前記イントラ予測手段は、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成する動画像符号化装置。
Intra prediction means for generating a prediction value of the block by intra prediction based on an encoded block around a block of a moving image;
Difference generation means for generating a difference value of the block based on the generated predicted value;
Processing means for converting and quantizing the generated difference value to generate a level value;
Encoding means for encoding the generated level value to generate a bitstream,
The intra-prediction unit is a moving picture coding apparatus that generates a prediction value of a color difference component of a block using a nonlinear model between a luminance component and a color difference component of the block.
動画像のブロックの周りの符号化済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測ステップと、
生成された前記予測値に基づいて前記ブロックの差分値を生成する差分生成ステップと、
生成された前記差分値を変換および量子化し、レベル値を生成する処理ステップと、
生成されたレベル値を符号化してビットストリームを生成する符号化ステップと、を含み、
前記イントラ予測ステップは、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成するステップを含む動画像符号化方法。
An intra prediction step of generating a prediction value of the block by intra prediction based on an encoded block around a block of a moving image;
A difference generation step of generating a difference value of the block based on the generated predicted value;
Processing and transforming and quantizing the generated difference value to generate a level value;
Encoding a generated level value to generate a bitstream; and
The intra prediction step includes a step of generating a predicted value of the color difference component of the block using a nonlinear model between the luminance component and color difference component of the block.
請求項1から9のいずれか一項に記載の動画像復号装置または請求項11に記載の動画像符号化装置としてコンピュータを機能させるプログラムを有することを特徴とするコンピュータ可読記録媒体。   A computer-readable recording medium comprising a program that causes a computer to function as the moving picture decoding apparatus according to any one of claims 1 to 9 or the moving picture encoding apparatus according to claim 11.
JP2016253682A 2016-12-27 2016-12-27 Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium Pending JP2018107692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016253682A JP2018107692A (en) 2016-12-27 2016-12-27 Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016253682A JP2018107692A (en) 2016-12-27 2016-12-27 Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium

Publications (1)

Publication Number Publication Date
JP2018107692A true JP2018107692A (en) 2018-07-05

Family

ID=62787589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016253682A Pending JP2018107692A (en) 2016-12-27 2016-12-27 Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium

Country Status (1)

Country Link
JP (1) JP2018107692A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113473135A (en) * 2021-05-26 2021-10-01 北京大学 Intra-frame prediction method, device and medium for non-linear texture
WO2024001472A1 (en) * 2022-06-29 2024-01-04 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113473135A (en) * 2021-05-26 2021-10-01 北京大学 Intra-frame prediction method, device and medium for non-linear texture
CN113473135B (en) * 2021-05-26 2023-09-01 北京大学 Intra-frame prediction method, device and medium for nonlinear texture
WO2024001472A1 (en) * 2022-06-29 2024-01-04 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data

Similar Documents

Publication Publication Date Title
KR102668077B1 (en) Apparatus and method for image coding and decoding
KR102512053B1 (en) Methods of decoding using skip mode and apparatuses for using the same
US11838509B2 (en) Video coding method and apparatus
JP5957561B2 (en) Video encoding / decoding method and apparatus using large size transform unit
US20200236361A1 (en) Intra prediction mode based image processing method, and apparatus therefor
EP3709644A1 (en) Method for image processing and apparatus for implementing the same
US20180199034A1 (en) Method and device for performing adaptive filtering according to block boundary
KR102342870B1 (en) Intra prediction mode-based image processing method and apparatus therefor
JP2022529999A (en) Video coding method based on BDPCM and its equipment
JP6660868B2 (en) Moving image encoding device, moving image decoding device, and program
TW201709736A (en) Image encoding device and image encoding method
WO2017052174A1 (en) Method and apparatus for processing video signals using coefficient derivation prediction
KR20220003631A (en) Parallel bidirectional intra-coding of sub-partitions
US11451771B2 (en) Moving-image decoder using intra-prediction, moving-image decoding method using intra-prediction, moving-image encoder using intra-prediction, moving-image encoding method using intra-prediction, and computer readable recording medium
KR20170125154A (en) Method and apparatus of video decoder using curve intra prediction
US10785499B2 (en) Method and apparatus for processing video signal on basis of combination of pixel recursive coding and transform coding
JP2018107692A (en) Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium
JP7393366B2 (en) Image encoding methods, decoding methods, encoders and decoders
KR102242723B1 (en) A method and an apparatus for decoding a video signal
KR20200004348A (en) Method and apparatus for processing video signal through target region correction
WO2012172667A1 (en) Video encoding method, video decoding method, and device
JP6557483B2 (en) Encoding apparatus, encoding system, and program
US20230044603A1 (en) Apparatus and method for applying artificial intelligence-based filtering to image
JP6917718B2 (en) Predictors, encoders, decoders, and programs
JP2020102858A (en) Video decoding device, video decoding method, video encoding device, video encoding method, and computer readable recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707