JP2018107692A - Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium - Google Patents
Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium Download PDFInfo
- Publication number
- JP2018107692A JP2018107692A JP2016253682A JP2016253682A JP2018107692A JP 2018107692 A JP2018107692 A JP 2018107692A JP 2016253682 A JP2016253682 A JP 2016253682A JP 2016253682 A JP2016253682 A JP 2016253682A JP 2018107692 A JP2018107692 A JP 2018107692A
- Authority
- JP
- Japan
- Prior art keywords
- block
- intra prediction
- value
- prediction
- color difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体に関する。 The present invention relates to a video decoding device, a video decoding method, a video encoding device, a video encoding method, and a computer-readable recording medium.
イントラ予測またはインター予測と、残差変換と、エントロピー符号化とを用いた動画像符号化方式が提案されている。イントラ予測を用いることにより、画像の空間的な冗長性を減少させることができる。イントラ予測の基本的なメカニズムは以下の通りである。まず、予測ブロック(の上および左)に隣接する参照ラインを生成し、予測ブロック中の原サンプルを選択された予測方向に沿って参照ラインに投影する。その後、参照ラインのサンプルとそこに投影された原サンプルとの差分(残差、誤差)は変換、量子化される。 A moving picture coding scheme using intra prediction or inter prediction, residual transform, and entropy coding has been proposed. By using intra prediction, the spatial redundancy of the image can be reduced. The basic mechanism of intra prediction is as follows. First, a reference line adjacent to the prediction block (upper and left) is generated, and the original sample in the prediction block is projected onto the reference line along the selected prediction direction. Thereafter, the difference (residual error) between the sample of the reference line and the original sample projected thereon is transformed and quantized.
一般に、処理対象のブロックの輝度成分および色差成分のそれぞれに対してイントラ予測が行われる。特許文献1には、輝度成分と色差成分との間の線形モデルを用いて、色差成分のイントラ予測を行う技術が開示されている。 In general, intra prediction is performed on each of the luminance component and the color difference component of the block to be processed. Patent Document 1 discloses a technique for performing intra prediction of a color difference component using a linear model between a luminance component and a color difference component.
特許文献1に記載の技術によると、良好なイントラ予測を実現することができる。しかしながら、これにとどまることなく、イントラ予測の確度をさらに高めることが望まれている。 According to the technique described in Patent Document 1, it is possible to realize good intra prediction. However, it is desired to further improve the accuracy of intra prediction without being limited to this.
本発明はこうした課題に鑑みてなされたものであり、その目的は、イントラ予測の確度を高めることができる技術の提供にある。 The present invention has been made in view of these problems, and an object thereof is to provide a technique capable of improving the accuracy of intra prediction.
本発明のある態様は、動画像復号装置に関する。この動画像復号装置は、イントラ予測を用いて符号化されるブロックを含む動画像を表すビットストリームを復号する復号手段と、復号の結果得られるブロックのレベル値を逆量子化および逆変換してブロックの差分値を生成する逆処理手段と、ブロックの周りの再構成済みブロックに基づくイントラ予測によりブロックの予測値を生成するイントラ予測手段と、生成された差分値および生成された予測値に基づいてブロックを再構成する再構成手段と、を備える。イントラ予測手段は、ブロックの輝度成分と色差成分との間の非線形モデルを用いて、ブロックの色差成分の予測値を生成する。 One embodiment of the present invention relates to a moving picture decoding apparatus. This moving image decoding apparatus includes a decoding unit that decodes a bit stream representing a moving image including a block encoded using intra prediction, and performs inverse quantization and inverse conversion on a block level value obtained as a result of decoding. Inverse processing means for generating a difference value of a block, intra prediction means for generating a prediction value of a block by intra prediction based on a reconstructed block around the block, and based on the generated difference value and the generated prediction value Reconstructing means for reconstructing the block. The intra prediction unit generates a predicted value of the color difference component of the block using a nonlinear model between the luminance component and the color difference component of the block.
本発明の別の態様は、動画像符号化装置である。この動画像符号化装置は、動画像のブロックの周りの符号化済みブロックに基づくイントラ予測によりブロックの予測値を生成するイントラ予測手段と、生成された予測値に基づいてブロックの差分値を生成する差分生成手段と、生成された差分値を変換および量子化し、レベル値を生成する処理手段と、生成されたレベル値を符号化してビットストリームを生成する符号化手段と、を備える。イントラ予測手段は、ブロックの輝度成分と色差成分との間の非線形モデルを用いて、ブロックの色差成分の予測値を生成する。 Another aspect of the present invention is a video encoding apparatus. The moving image encoding device generates intra block prediction values based on intra prediction based on encoded blocks around a moving image block, and generates block difference values based on the generated prediction values. Difference generating means, processing means for converting and quantizing the generated difference value to generate a level value, and encoding means for encoding the generated level value to generate a bitstream. The intra prediction unit generates a predicted value of the color difference component of the block using a nonlinear model between the luminance component and the color difference component of the block.
なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like are also included in the present invention. It is effective as an embodiment of
本発明によれば、イントラ予測の確度を高めることができる。 According to the present invention, the accuracy of intra prediction can be increased.
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。 Hereinafter, the same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated description is appropriately omitted. In addition, in the drawings, some of the members that are not important for explanation are omitted.
実施の形態では、動画像符号化/復号(video encoding/decoding)のイントラ予測(intra-prediction、画面内予測)において、色差成分(chroma component)の予測値を対応する輝度成分(luma component)を入力とする非線形モデルから算出する。その際、非線形モデルのパラメータは、予測対象のブロックの周りの符号化済み/再構成済みブロックの輝度成分、色差成分それぞれの参照ラインに基づき算出される。これにより、シグナリングされるデータ量の増大を抑えつつ、より確度の高い色差成分のイントラ予測を実現することができる。 In the embodiment, in intra-prediction (intra-prediction) of video encoding / decoding, a luminance component (luma component) corresponding to a predicted value of a chroma component (chroma component) is used. Calculated from a nonlinear model as input. At this time, the parameters of the nonlinear model are calculated based on the reference lines of the luminance component and chrominance component of the encoded / reconstructed block around the prediction target block. Accordingly, it is possible to realize intra prediction of the color difference component with higher accuracy while suppressing an increase in the amount of data to be signaled.
図1は、実施の形態に係る配信システム100の構成を示す模式図である。配信システム100は、動画像を配信する動画像配信サービスにおいて使用されるシステムである。動画像配信サービスは例えばVOD(Video On Demand)であってもよい。配信システム100はインターネットなどのネットワーク106を介して、ユーザサイトに設置されているセットトップボックスやパーソナルコンピュータなどの動画像復号装置102と接続される。動画像復号装置102は、テレビ受像機やモニタなどの表示装置104と接続される。動画像復号装置102および表示装置104は合わせてスマートフォンなどの携帯端末を構成してもよい。
FIG. 1 is a schematic diagram illustrating a configuration of a
なお、動画像配信サービスにおける配信システムは一例であり、動画像の符号化または復号を含む任意のシステムやサービスに、本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。 It should be noted that the distribution system in the moving image distribution service is an example, and that the technical idea according to the present embodiment can be applied to any system or service including encoding or decoding of a moving image is described in this specification. It will be apparent to those skilled in the art.
配信システム100は、ネットワーク106を介してユーザから観たい動画コンテンツの指定を受ける。配信システム100は、指定された動画コンテンツのデータを符号化してビットストリームBSを生成する。配信システム100は、生成されたビットストリームBSをネットワーク106を介して要求元のユーザの動画像復号装置102に送信する。動画像復号装置102は受信したビットストリームBSを復号して動画像データを生成し、表示装置104に送信する。表示装置104は、受信した動画像データを処理し、指定された動画コンテンツを出力する。
The
配信システム100は、動画像DB(データベース)108と、動画像符号化装置110と、を備える。動画像DB108は、動画像のデータを保持する。動画像符号化装置110は、指定された動画コンテンツに対応する動画像データを動画像DB108から取得し、取得された動画像データを符号化し、動画像を表すビットストリームBSを生成する。
The
図2は、図1の動画像符号化装置110の機能および構成を示すブロック図である。本明細書のブロック図に示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解される。動画像符号化装置110を実現するコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に記憶されて、又は、ネットワーク経由で配布が可能なものであってもよい。
FIG. 2 is a block diagram showing the function and configuration of the moving
動画像符号化装置110は、フレームバッファ202と、インループフィルタ204と、インター予測部206と、イントラ予測部208と、変換・量子化部210と、エントロピー符号化部212と、逆量子化・逆変換部214と、減算部218と、加算部220と、ブロック分割部222と、を備える。
The
ブロック分割部222は、動画像DB108からの動画像データ(video data)に含まれる符号化対象のピクチャ(picture)を複数のブロック(block)に分割する。ブロックのサイズは様々であり、複数のブロックは四分木構造を有する。複数のブロックは二分木構造を有してもよい。ブロック分割部222におけるピクチャのブロックへの分割はHEVC(High Efficiency Video Coding)におけるピクチャのブロックへの分割に準じる。ブロック分割部222は処理対象ブロックを減算部218とインター予測部206とイントラ予測部208とに出力する。
The
インター予測部206には、フレームバッファ202から処理対象ブロックに対応する参照ピクチャが入力される。インター予測部206は、入力された参照ピクチャに基づき、インター予測(inter-prediction、画面間予測)により処理対象ブロックの動き補償画像を出力する。
A reference picture corresponding to the processing target block is input from the
イントラ予測部208には、処理対象ブロックの周りの符号化済みブロック(既に符号化処理されたブロック)の画像データが加算部220から入力される。イントラ予測部208は、入力された符号化済みブロックの画素値に基づくイントラ予測により、処理対象ブロックの画素の予測値を生成し、出力する。処理対象ブロックにインター予測を適用するか、イントラ予測を適用するかに応じて、インター予測部206の出力またはイントラ予測部208の出力のいずれか一方が減算部218に出力される。
The
画素値は輝度成分と色差成分とを含む。本実施の形態では輝度成分としてYを、色差成分としてCb、Crを用い、カラーフォーマットとして4:2:0を用いる場合を説明する。しかしながら、他の輝度成分/色差成分や他のカラーフォーマット(例えば、4:4:4、4:2:2)が採用される場合にも本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。 The pixel value includes a luminance component and a color difference component. In this embodiment, a case where Y is used as a luminance component, Cb and Cr are used as color difference components, and 4: 2: 0 is used as a color format will be described. However, the technical idea according to the present embodiment can be applied even when other luminance components / chrominance components and other color formats (for example, 4: 4: 4, 4: 2: 2) are adopted. It will be apparent to those skilled in the art who have touched the specification.
以下、処理対象ブロックの輝度成分(Y)からなるブロックを処理対象Yブロック、二つの色差成分(Cb、Cr)からなるブロックをそれぞれ処理対象Cbブロック、処理対象Crブロックと称す。カラーフォーマットは4:2:0であるから、処理対象Yブロックのサイズが16×16画素であれば、対応する処理対象Cbブロック(処理対象Crブロック)のサイズはダウンサンプリングにより8×8画素となり、処理対象Yブロックのサイズよりも小さい。 Hereinafter, a block composed of the luminance component (Y) of the processing target block is referred to as a processing target Y block, and a block composed of two color difference components (Cb, Cr) is referred to as a processing target Cb block and a processing target Cr block, respectively. Since the color format is 4: 2: 0, if the size of the processing target Y block is 16 × 16 pixels, the size of the corresponding processing target Cb block (processing target Cr block) becomes 8 × 8 pixels by downsampling. Smaller than the size of the Y block to be processed.
減算部218は、処理対象Yブロック、処理対象Cbブロック、処理対象Crブロックのそれぞれについて、画素の実際の画素値と、インター予測またはイントラ予測で生成される対応する予測値と、の間で減算を行い、画素の差分値(予測残差信号)を生成する。減算部218は、生成された差分値を変換・量子化部210に出力する。
The
変換・量子化部210は、減算部218から取得された処理対象ブロックの画素の差分値を変換(例えば、直交変換)および量子化し、レベル値を生成する。変換・量子化部210は、生成されたレベル値をエントロピー符号化部212および逆量子化・逆変換部214に出力する。
The transform /
エントロピー符号化部212は、変換・量子化部210によって生成されたレベル値と、インター予測部206やイントラ予測部208から取得されるサイド情報と、をエントロピー符号化して、ビットストリームBSを生成する。
The
なお、サイド情報(side information)は、復号装置において使用される画素値の再構成に必要な情報であり、イントラ予測またはインター予測の何れを使用したかを示す予測モード、インター予測における動き情報、量子化パラメータ、ブロックサイズ等の関連情報を含む。 Note that side information is information necessary for reconstruction of pixel values used in the decoding device, a prediction mode indicating whether intra prediction or inter prediction is used, motion information in inter prediction, It includes related information such as quantization parameters and block size.
輝度成分のイントラ予測の種別を示す予測モードとして、HEVCで規定される35種類のイントラ予測モード(intra prediction mode)を採用する。35種類のイントラ予測モードは、Planarモード、DCモードおよび33種類の方向性モード(directional mode)からなる。33種類の方向性モードはそれぞれ異なる予測方向(prediction direction)を有する。 As a prediction mode indicating the type of intra prediction of the luminance component, 35 types of intra prediction modes (intra prediction modes) defined by HEVC are adopted. The 35 types of intra prediction modes include a Planar mode, a DC mode, and 33 types of directional modes. Each of the 33 types of directional modes has a different prediction direction.
色差成分のイントラ予測の種別を示す予測モードとして、HEVCで規定される5種類のイントラ予測モードに本実施の形態に係るCCNM(Cross Component Nonlinear prediction Model)モードを加えた6種類を採用する。5種類の既存のイントラ予測モードはPlanarモード、DCモード、2種類の方向性モード(Horizontal, Vertical)およびDerived/Uprightモードからなる。 As prediction modes indicating the types of intra prediction of color difference components, six types obtained by adding the CCNM (Cross Component Nonlinear Prediction Model) mode according to the present embodiment to the five types of intra prediction modes defined by HEVC are adopted. The five types of existing intra prediction modes include a Planar mode, a DC mode, two types of directional modes (Horizontal, Vertical), and a Delivered / Upright mode.
逆量子化・逆変換部214は、変換・量子化部210における処理とは逆の処理を行って処理対象ブロックの画素の差分値を生成する。
加算部220は、逆量子化・逆変換部214が出力する差分値と、インター予測またはイントラ予測で生成される対応する予測値と、を加算して処理対象ブロックの画素の画素値を再構成する。加算部220は、再構成されたブロックを、イントラ予測部208とインループフィルタ204とに出力する。
The inverse quantization /
The
インループフィルタ204は、処理対象のフレームに対応する局所復号画像を生成してフレームバッファ202に出力する。フレームバッファ202は、局所復号画像を保持する。この局所復号画像は、インター予測部206におけるインター予測に使用される。
The in-
図3は、図2のイントラ予測部208における一連の処理の流れを示すフローチャートである。イントラ予測部208は、ブロック分割部222から処理対象ブロックを取得する(S302)。イントラ予測部208は、取得された処理対象ブロックの周りの符号化済みブロックに基づくイントラ予測により、処理対象ブロックの輝度成分に適用されるべきイントラ予測モードを決定し、かつ、決定されたイントラ予測モードにしたがい予測値を生成し、出力する(S304)。ステップS304における輝度成分のイントラ予測は、HEVCのイントラ予測により実現されてもよい。イントラ予測部208は、ステップS304で決定された輝度成分のイントラ予測モードを含むサイド情報を生成し、エントロピー符号化部212に出力する。
FIG. 3 is a flowchart showing a flow of a series of processes in the
イントラ予測部208は、処理対象ブロックの色差成分について、CCNMモードを含む6種類のイントラ予測モードのそれぞれで予測した場合のR−Dコストを算出する(S306)。R−Dコストは、例えば非特許文献1に記載されるrate−distortion optimizationで用いられるrate−distortion costであってもよい。イントラ予測部208は、算出されたR−Dコストに基づいて、処理対象ブロックの色差成分に適用されるべきイントラ予測モードを決定する(S308)。例えばイントラ予測部208は、6種類のイントラ予測モードのなかから、算出されたR−Dコストが最小となるイントラ予測モードを適用されるべきイントラ予測モードとして選択する。イントラ予測部208は、処理対象ブロックの色差成分の予測値を決定されたイントラ予測モードにしたがい生成し、出力する(S310)。イントラ予測部208は、上述の通り輝度成分のサイド情報が生成された後、ステップS308で決定された色差成分のイントラ予測モードを含むサイド情報を生成し、エントロピー符号化部212に出力する(S310)。
The
図3のステップS306で用いられるCCNMモードについてより詳細に説明する。CCNMモードでは、イントラ予測部208は、処理対象Yブロックと処理対象Cbブロックとの間の非線形モデルを用いて、該処理対象Cbブロックの予測値を生成する。処理対象Crブロックについても同様であるから、以下では処理対象Cbブロックの予測値の生成を説明し、処理対象Crブロックの予測値の生成については説明を省略する。
The CCNM mode used in step S306 in FIG. 3 will be described in more detail. In the CCNM mode, the
図4は、CCNMモードにおける一連の処理の流れを示すフローチャートである。図5(a)、(b)は、処理対象Yブロック502および処理対象Cbブロック504をそれぞれ示す模式図である。本例では、処理対象ブロックおよびその周りの符号化済みブロックはいずれも16×16画素とする。したがって、処理対象Yブロック502は16×16画素のサイズを有し、処理対象Cbブロック504は8×8画素のサイズを有する。なお、32×32画素、8×8画素などの他のサイズの対称的な処理対象ブロックや、16×8画素、16×4画素、8×16画素、8×32画素などの非対称的な処理対象ブロックに、本実施の形態に係る技術的思想を適用できることは、本明細書に触れた当業者には明らかである。
FIG. 4 is a flowchart showing a flow of a series of processes in the CCNM mode. FIGS. 5A and 5B are schematic diagrams illustrating the processing
図5(a)、(b)に示される例では、処理対象ブロックの周りには5つの符号化済みブロックがあり、そのそれぞれはYブロック(以下、符号化済みYブロックと称す)およびCbブロック(以下、符号化済みCbブロックと称す)を有する。 In the example shown in FIGS. 5A and 5B, there are five encoded blocks around the block to be processed, each of which is a Y block (hereinafter referred to as an encoded Y block) and a Cb block. (Hereinafter referred to as an encoded Cb block).
ピクチャは左上のブロックから水平方向にジグザグに符号化されていく。したがって、処理対象Yブロック502の周りには、処理対象Yブロック502の上に接する第2符号化済みYブロック508と、処理対象Yブロック502の左に接する第4符号化済みYブロック512と、第2符号化済みYブロック508の左に接する第1符号化済みYブロック506と、第2符号化済みYブロック508の右に接する第3符号化済みYブロック510と、第4符号化済みYブロック512の下に接する第5符号化済みYブロック514と、がある。処理対象Cbブロック504の周りには、処理対象Cbブロック504の上に接する第2符号化済みCbブロック518と、処理対象Cbブロック504の左に接する第4符号化済みCbブロック522と、第2符号化済みCbブロック518の左に接する第1符号化済みCbブロック516と、第2符号化済みCbブロック518の右に接する第3符号化済みCbブロック520と、第4符号化済みCbブロック522の下に接する第5符号化済みCbブロック524と、がある。
The picture is encoded zigzag horizontally from the upper left block. Therefore, around the processing
イントラ予測部208は、処理対象ブロックの周りの符号化済みブロックに含まれる複数のラインから参照ラインを選択する(S402)。イントラ予測部208は、第4符号化済みCbブロック522に含まれる上下方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインと繋がる第5符号化済みCbブロック524のラインと、を合わせた左隣接Cb参照ライン526を選択する。イントラ予測部208は、第2符号化済みCbブロック518に含まれる左右方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインと繋がる第3符号化済みCbブロック520のラインと、を合わせた上隣接Cb参照ライン528を選択する。
The
なお、イントラ予測の際に第5符号化済みCbブロック524が利用可能でない場合、左隣接Cb参照ライン526のうち利用可能でない部分の画素の画素値は、第4符号化済みCbブロック522のラインの下端の画素の画素値を複製することにより構成される。第3符号化済みCbブロック520が利用可能でない場合も同様である。
When the fifth encoded Cb block 524 is not usable during intra prediction, the pixel values of the pixels that are not usable in the left adjacent
イントラ予測部208は、選択された左隣接Cb参照ライン526および上隣接Cb参照ライン528のそれぞれに対応する符号化済みYブロック506、508、510、512、514の左隣接Y参照ライン530、上隣接Y参照ライン532を特定する。左隣接Y参照ライン530は第4符号化済みYブロック512、第5符号化済みYブロック514に跨がるラインであり、上隣接Y参照ライン532は第2符号化済みYブロック508、第3符号化済みYブロック510に跨がるラインである。
The
イントラ予測部208は、ステップS304において実行された輝度成分のイントラ予測により既に生成されている処理対象Yブロック502の再構成値ならびにステップS402で特定された左隣接Y参照ライン530および上隣接Y参照ライン532、をダウンサンプリングする(S404)。このダウンサンプリングは、動画像のカラーフォーマットに応じたレートで行われる。例えば、図5(a)、(b)の例では、Yブロックの2×2画素(=4画素)を1画素にするダウンサンプリングが行われ、これはカラーフォーマット4:2:0に対応する。図5(a)において右上から左下へと向かう斜線でハッチングされた丸534は、対応する2×2画素の領域536がそれらの画素の再構成値の内挿により得られる画素値を有する1画素にダウンサンプリングされることを示す。白抜きの丸538は、対応する3×2画素の領域540がそれらの画素の再構成値の内挿により得られる画素値を有する1画素にダウンサンプリングされることを示す。他の実施の形態において輝度成分のサイズと色差成分のサイズとが同じである場合はダウンサンプリングは行われない。
The
イントラ予測部208は、ダウンサンプリングの結果得られる処理対象Yブロック502の画素(白抜きの丸538)の画素値、左隣接Y参照ライン530および上隣接Y参照ライン532(右上から左下へと向かう斜線でハッチングされた丸534)をフィルタリングする(S406)。フィルタリングは色差成分とダウンサンプリング後の輝度成分との整合の度合いを高めるための処理であり、例えば平滑化処理であってもよい。この平滑化処理で用いられるフィルタはローパスフィルタ、例えばガウシアンフィルタであってもよい。フィルタ係数の一例は(1/4、1/2、1/4)であるが、これに限定されない。
The
あるいはまた、処理対象Yブロック502のイントラ予測モードがPlanarモード、DCモードのいずれでもない場合、方向性フィルタ(directional filter)によるフィルタリングが行われてもよい。この方向性フィルタの方向は、処理対象Yブロック502に適用された方向性モードの予測方向に基づいて決定されてもよい。処理対象Yブロック502のイントラ予測モードがPlanarモードまたはDCモードのいずれかである場合、非方向性フィルタ(non-directional filter)によるフィルタリングが行われてもよい。このように、輝度成分のイントラ予測における予測方向の有無およびその角度に応じて、適用するフィルタを変えてもよい。
Alternatively, when the intra prediction mode of the processing
イントラ予測部208は、フィルタリングの結果得られる左隣接Y参照ライン530および上隣接Y参照ライン532ならびにステップS402で選択された左隣接Cb参照ライン526および上隣接Cb参照ライン528に基づいて非線形モデルのパラメータを決定する(S408)。本実施の形態では、非線形モデルは、色差成分を対応する輝度成分の多項式で表すモデルである。cをCb成分の値、yを対応するY成分の値とすると、cはyの多項式として以下の式1で表される。
ここで、
here,
ステップS408では、イントラ予測部208はパラメータaiを決定するために最小二乗法(Least squares method)による線形回帰(Linear regression)分析を行う。上記の多項式モデルを以下の式2で書き直すことができる。
ここで、
イントラ予測部208は、処理対象Cbブロック504の参照ラインおよび処理対象Yブロック502の参照ラインから得られる再構成値を式3に代入することでパラメータベクトルAを算出する。その際、処理対象Cbブロック504の参照ラインの画素(例えば、丸542の画素)の再構成値と、処理対象Yブロック502の参照ラインの対応するダウンサンプリング後の画素(例えば、丸534の画素)の再構成値と、が測定値の組(cj、yj)とされる。
In step S408, the
here,
The
図5(a)、(b)の例では、左隣接Cb参照ライン526に含まれる16個の画素の再構成されたCb値を下からc0〜c15とし、左隣接Y参照ライン530に含まれるダウンサンプリングおよびフィルタリング後の16個の画素の再構成されたY値を下からy0〜y15とする。上隣接Cb参照ライン528に含まれる16個の画素の再構成されたCb値を左からc16〜c31とし、上隣接Y参照ライン532に含まれるダウンサンプリングおよびフィルタリング後の16個の画素の再構成されたY値を左からy16〜y31とする。
In the example of FIGS. 5A and 5B, the reconstructed Cb values of 16 pixels included in the left adjacent
イントラ予測部208は、非線形モデルを用いて処理対象Cbブロック504の予測値を生成する(S410)。イントラ予測部208は、ステップS408で決定されたパラメータaiを式1に適用する。イントラ予測部208は、ステップS406におけるフィルタリングの結果得られる処理対象Yブロック502の画素の再構成値を式1のyに代入することで、処理対象Cbブロック504の対応する画素の予測値cを算出する。図5(a)、(b)の例では、例えば処理対象Cbブロック504の画素544の予測値は、処理対象Yブロック502のダウンサンプリング後の対応する画素546の再構成値を式1に代入することで算出される。イントラ予測部208は処理対象Cbブロック504の全ての画素について同様に予測値を算出する。
The
図6は、図1の動画像復号装置102の機能および構成を示すブロック図である。動画像復号装置102は、エントロピー復号部602と、逆量子化・逆変換部604と、加算部606と、インター予測部608と、イントラ予測部610と、フレームバッファ612と、インループフィルタ614と、を備える。動画像復号装置102は、基本的には動画像符号化装置110で行われる手順と逆の手順により、ビットストリームBSから出力動画像データを得る。
FIG. 6 is a block diagram showing the function and configuration of the moving
エントロピー復号部602は、ネットワーク106を介して配信システム100からビットストリームBSを受信する。エントロピー復号部602は、受信したビットストリームをエントロピー復号し、レベル値とサイド情報とを取り出す。なお、ビットストリームからサイド情報およびレベル値を得る処理はパース(parse)処理と称される。このようにして得られたサイド情報およびレベル値を用いて画素値を再構成することは、復号処理と称される。
The
逆量子化・逆変換部604は、エントロピー復号の結果得られる処理対象ブロックのレベル値を逆量子化および逆変換して処理対象ブロックの画素の差分値を生成する。
加算部606は、処理対象ブロックがイントラ予測されたものであるかインター予測されたものであるかに応じて、インター予測部608またはイントラ予測部610で生成される予測値を取得する。加算部606は、Y、Cb、Crの各成分について、逆量子化・逆変換部604によって生成された差分値と、取得された対応する予測値と、を加算して処理対象ブロックの各成分の画素の画素値を再構成する。加算部606は、再構成された処理対象ブロックの各成分をイントラ予測部610とインループフィルタ614とに出力する。
The inverse quantization /
The adding
インター予測部608には、フレームバッファ612から処理対象ブロックに対応する参照ピクチャが入力される。インター予測部608は、入力された参照ピクチャに基づき、インター予測により処理対象ブロックの動き補償画像を出力する。
A reference picture corresponding to the processing target block is input from the
イントラ予測部610には、処理対象ブロックの周りの再構成済みブロック(既に復号処理されたブロック、または既に再構成されたブロック)の画像データが加算部606から入力される。イントラ予測部610は、入力された再構成済みブロックの画素値に基づくイントラ予測により、処理対象ブロックの画素の予測値を生成し、出力する。
Image data of a reconstructed block (a block that has already been decoded or a block that has already been reconstructed) around the processing target block is input from the
インループフィルタ614は例えばデブロックフィルタである。インループフィルタ614は、処理対象のフレームに対応する局所復号画像を生成してフレームバッファ612に出力する。この局所復号画像は、インター予測部608におけるインター予測に使用されると同時に、出力動画像データとして表示装置104に出力される。
The in-
図7は、図6のイントラ予測部610における一連の処理の流れを示すフローチャートである。イントラ予測部610は、エントロピー復号部602で取り出されたサイド情報のうち、処理対象ブロックの輝度成分についてのイントラ予測モードを取得する(S702)。イントラ予測部610は、取得されたイントラ予測モードに基づき、処理対象ブロックの周りの再構成済みブロックの輝度成分に含まれるラインのなかから参照ラインを特定する(S704)。イントラ予測部610は、ステップS702で取得されたイントラ予測モードにしたがい、ステップS704で特定された参照ラインを用いて輝度成分のイントラ予測を行う(S706)。イントラ予測部610は、イントラ予測により生成された輝度成分の予測値を出力する。ステップS706における輝度成分のイントラ予測は、HEVCのイントラ予測により実現されてもよい。
FIG. 7 is a flowchart showing a flow of a series of processes in the
イントラ予測部610は、エントロピー復号部602で取り出されたサイド情報のうち、処理対象ブロックの色差成分についてのイントラ予測モードを取得する(S708)。イントラ予測部610は、取得されたイントラ予測モードに基づき、処理対象ブロックの周りの再構成済みブロックの色差成分に含まれるラインのなかから参照ラインを特定する(S710)。イントラ予測部610は、ステップS708で取得されたイントラ予測モードにしたがい、ステップS710で特定された参照ラインを用いて色差成分のイントラ予測を行う(S712)。イントラ予測部610は、イントラ予測により生成された色差成分の予測値を出力する。
The
ステップS708で取得されたイントラ予測モードがCCNMモードである場合、ステップS710およびS712において図4に示される処理と同様の処理が行われる。特にステップS710はステップS402に対応し、ステップS712はステップS404、S406、S408、S410に対応する。図4の説明における「符号化済みブロック」を「再構成済みブロック」に読み替えることにより、ここでの説明を省略する。 When the intra prediction mode acquired in step S708 is the CCNM mode, processing similar to the processing shown in FIG. 4 is performed in steps S710 and S712. In particular, step S710 corresponds to step S402, and step S712 corresponds to steps S404, S406, S408, and S410. By replacing “encoded block” in the description of FIG. 4 with “reconstructed block”, description here is omitted.
本実施の形態に係る動画像符号化装置110または動画像復号装置102によると、輝度成分と色差成分との間の非線形モデルを用いて色差成分のイントラ予測が行われるので、線形モデルを用いる場合と比べて予測値の確度を高めることができる。特にイントラピクチャが複雑なテクスチャを有し、線形モデルでは対応しきれない場合に、本実施の形態に係る非線形モデルは有効である。
According to
また、本実施の形態では、色差成分のイントラ予測の際に用いられる参照ラインは複数の符号化済み/再構成済みブロックに跨がる。したがって、単に隣接する符号化済み/再構成済みブロックのラインのみを参照ラインとする場合と比べてサンプル数が多くなるので、非線形モデルのパラメータの評価の精度を高めることができる、または該パラメータの評価の堅牢性(robustness)を高めることができる。また、参照ラインが右上および/または左下に延びることで、左下から右上に向かう方向性のテクスチャが存在する場合にも、精度の高いパラメータの評価が実現される。 Further, in the present embodiment, the reference line used in intra prediction of the color difference component spans a plurality of encoded / reconstructed blocks. Therefore, since the number of samples is increased compared to the case where only the line of the adjacent encoded / reconstructed block is used as the reference line, the accuracy of the parameter evaluation of the nonlinear model can be increased, or the parameter The robustness of the evaluation can be increased. In addition, since the reference line extends to the upper right and / or lower left, even when there is a directional texture from the lower left to the upper right, highly accurate parameter evaluation is realized.
また、本実施の形態では、輝度成分のダウンサンプリングの後にフィルタリングが行われる。したがって、ダウンサンプリングにより生じうる輝度成分と色差成分との乖離を抑えることができる。さらに、本実施の形態で採用されたカラーフォーマット4:2:0のように、色差成分がそもそもダウンサンプリングにより生成される場合であっても、輝度成分の再構成値には量子化ノイズ等によるノイズ成分が含まれうる。本実施の形態によると、フィルタリングにより輝度成分の参照ラインおよび輝度成分の再構成値の両方からそのようなノイズ成分を低減または除去できる。 In the present embodiment, filtering is performed after downsampling of the luminance component. Accordingly, it is possible to suppress the deviation between the luminance component and the color difference component that may be generated by downsampling. Further, even if the color difference component is generated by downsampling as in the color format 4: 2: 0 adopted in the present embodiment, the reconstructed value of the luminance component is caused by quantization noise or the like. A noise component may be included. According to the present embodiment, such a noise component can be reduced or removed from both the reference line of the luminance component and the reconstructed value of the luminance component by filtering.
また、本実施の形態に係るCCNMモードでは、動画像復号装置102および動画像符号化装置110のそれぞれで輝度成分の参照ラインと色差成分の参照ラインとから非線形モデルのパラメータaiが決定される。したがって、そのパラメータaiをビットストリームBSに含めて伝送する必要はないので、符号量の増大を抑えるか無くすことができる。
Also, in the CCNM mode according to the present embodiment, the nonlinear model parameter a i is determined from the luminance component reference line and the chrominance component reference line in each of the moving
以上、実施の形態の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。 The configuration and operation of the embodiment have been described above. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each component and combination of processes, and such modifications are within the scope of the present invention.
(第1変形例)
実施の形態では複数のブロックに跨がる参照ラインを用いる場合について説明したが、これに限られない。例えば、処理対象ブロックの周りの符号化済み/再構成済みブロックの輝度成分の複数の参照ラインおよび色差成分の対応する複数の参照ラインに基づいて非線形モデルのパラメータが決定されてもよい。この場合、ひとつの参照ラインを用いる場合と比べてサンプル数が多くなるので、非線形モデルのパラメータの評価の精度を高めることができる、または該パラメータの評価の堅牢性(robustness)を高めることができる。
(First modification)
In the embodiment, the case of using a reference line extending over a plurality of blocks has been described, but the present invention is not limited to this. For example, the parameters of the nonlinear model may be determined based on a plurality of reference lines of luminance components and a plurality of reference lines corresponding to chrominance components of encoded / reconstructed blocks around the processing target block. In this case, since the number of samples is increased as compared with the case where one reference line is used, the accuracy of the evaluation of the parameters of the nonlinear model can be increased, or the robustness of the evaluation of the parameters can be increased. .
図8(a)、(b)は、処理対象Yブロック502および処理対象Cbブロック504に対して選択される第1変形例に係る参照ラインを示す模式図である。第1変形例に係る動画像符号化装置のイントラ予測部は、第4符号化済みCbブロック522に含まれる上下方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインの左隣のラインと、を合わせた左隣接Cb参照ライン826を選択する。イントラ予測部は、第2符号化済みCbブロック518に含まれる左右方向に延びるラインのうち処理対象Cbブロック504に隣接するラインと、該ラインの上に隣接するラインと、を合わせた上隣接Cb参照ライン828を選択する。
FIGS. 8A and 8B are schematic diagrams illustrating reference lines according to the first modification selected for the processing
イントラ予測部は、選択された左隣接Cb参照ライン826および上隣接Cb参照ライン828のそれぞれに対応する符号化済みYブロック508、512の左隣接Y参照ライン830、上隣接Y参照ライン832を特定する。左隣接Y参照ライン830は第4符号化済みYブロック512に含まれる(ダウンサンプリング後における)二つのラインであり、上隣接Y参照ライン832は第2符号化済みYブロック508に含まれる(ダウンサンプリング後における)二つのラインである。動画像復号装置のイントラ予測部は上記と同様の処理を行う。
The intra prediction unit identifies the left adjacent
(第2変形例)
実施の形態では、参照ラインに含まれる画素値を用いて非線形モデルのパラメータを決定する場合について説明したが、これに限られない。例えば、複数の参照ラインのそれぞれに割り当てられた重みに基づいて非線形モデルのパラメータが決定されてもよい。この場合、各参照ラインの信頼性(reliability)を個別に考慮することができるので、より正確なパラメータの評価が実現される。重みは、ブロックのサイズや輝度成分のイントラ予測モードに応じて決定されてもよい。
(Second modification)
In the embodiments, the case where the parameters of the nonlinear model are determined using the pixel values included in the reference line has been described, but the present invention is not limited to this. For example, the parameters of the nonlinear model may be determined based on the weight assigned to each of the plurality of reference lines. In this case, since the reliability of each reference line can be considered individually, more accurate parameter evaluation is realized. The weight may be determined according to the block size and the intra prediction mode of the luminance component.
図9(a)、(b)は、参照ラインが複数のブロックに跨がる場合の重み付けを説明するための模式図である。図10(a)、(b)は、ひとつのブロックから複数の参照ラインが選択される場合の重み付けを説明するための模式図である。第2変形例に係る動画像符号化装置のイントラ予測部は、参照ラインを構成する画素を4つのゾーン(Zone)に分類する。ゾーンA(ZONEA)およびゾーンB(ZONEB)には重みwAB=0.6が、ゾーンC(ZONEC)およびゾーンD(ZONED)には重みwCD=0.4が、それぞれ割り当てられる。 FIGS. 9A and 9B are schematic diagrams for explaining weighting when the reference line extends over a plurality of blocks. FIGS. 10A and 10B are schematic diagrams for explaining weighting when a plurality of reference lines are selected from one block. The intra prediction unit of the video encoding device according to the second modification classifies the pixels constituting the reference line into four zones. A weight w AB = 0.6 is assigned to zone A (ZONEA) and zone B (ZONEB), and a weight w CD = 0.4 is assigned to zone C (ZONEC) and zone D (ZONED).
イントラ予測部は、ゾーンAおよびゾーンBの画素を用いて以下の第1非線形モデルのパラメータai ABを決定する。
C=wAB*CAB+wCD*CCD
を演算することにより色差成分の予測値を生成する。動画像復号装置のイントラ予測部は上記と同様の処理を行う。本例では重みを0.6:0.4としたが、これは一例であって他の重みが用いられてもよい。
The intra prediction unit determines the following parameters a i AB of the first nonlinear model using the pixels of zone A and zone B.
C = w AB * C AB + w CD * C CD
Is used to generate a predicted value of the color difference component. The intra prediction unit of the video decoding device performs the same processing as described above. In this example, the weight is set to 0.6: 0.4, but this is an example, and other weights may be used.
図11は、第2変形例に係るイントラ予測部における一連の処理の流れを示すフローチャートである。イントラ予測部は、処理対象ブロックの周りの符号化済み/再構成済みブロックに含まれる参照ラインの画素を複数のグループに分類し、各グループに重みを割り当てる(S152)。イントラ予測部は、参照ラインの画素の再構成値に基づいて、複数のイントラ予測モデルのパラメータを決定する(S154)。上述の例では、第1非線形モデルのパラメータai ABおよび第2非線形モデルのパラメータai CDが決定される。イントラ予測部は、パラメータ評価時の誤差eが所定のしきい値δよりも小さいか、またはステップS154の繰り返し数Tが所定のしきい値th_iterよりも大きい場合(S156のYES)、その時点でのパラメータを保持する。イントラ予測部は、保持されたパラメータで構成される複数のモデルを用いた、色差成分のイントラ予測を行う(S158)。ステップS156においてe≧δかつT≦th_iterの場合、処理はステップS152に戻る。 FIG. 11 is a flowchart showing a flow of a series of processes in the intra prediction unit according to the second modification. The intra prediction unit classifies the pixels of the reference line included in the encoded / reconstructed block around the processing target block into a plurality of groups, and assigns a weight to each group (S152). The intra prediction unit determines parameters of a plurality of intra prediction models based on the reconstructed values of the pixels of the reference line (S154). In the above example, the parameter a i AB of the first nonlinear model and the parameter a i CD of the second nonlinear model are determined. When the error e at the time of parameter evaluation is smaller than the predetermined threshold value δ or when the number of repetitions T in step S154 is larger than the predetermined threshold th_iter (YES in S156), the intra prediction unit at that time Holds the parameters. The intra prediction unit performs intra prediction of chrominance components using a plurality of models composed of the held parameters (S158). If e ≧ δ and T ≦ th_iter in step S156, the process returns to step S152.
(第3変形例)
第2変形例では、まず参照ラインの画素が複数のグループに分類され、各グループに重みが割り当てられる。最終的なモデルは各グループから導出された多項式モデルの重み付け和として表される。第3変形例では、複数の予測モデル、例えば線形モデルおよび非線形モデルを用意し、そのそれぞれのパラメータを参照ラインの画素全てを用いて決定する。具体的には、図11のステップS154における複数のモデルとして、線形モデルおよび非線形モデルを採用し、各モデルのパラメータを参照ラインの画素全てを用いて決定する。
(Third Modification)
In the second modified example, first, the pixels of the reference line are classified into a plurality of groups, and a weight is assigned to each group. The final model is expressed as a weighted sum of polynomial models derived from each group. In the third modification, a plurality of prediction models, for example, a linear model and a nonlinear model are prepared, and each parameter is determined using all the pixels of the reference line. Specifically, a linear model and a nonlinear model are adopted as the plurality of models in step S154 in FIG. 11, and parameters of each model are determined using all the pixels of the reference line.
第3変形例に係る動画像符号化装置のイントラ予測部は、参照ラインの画素を用いて以下の線形モデルのパラメータa、bを決定する。
C=wL*CL+wN*CN
を演算することにより色差成分の予測値を生成する。wLおよびwNはそれぞれ線形モデル、非線形モデルに割り当てられた重みである。動画像復号装置のイントラ予測部は上記と同様の処理を行う。
The intra prediction unit of the video encoding apparatus according to the third modification determines parameters a and b of the following linear model using the pixels of the reference line.
C = w L * C L + w N * C N
Is used to generate a predicted value of the color difference component. w L and w N are weights assigned to the linear model and the nonlinear model, respectively. The intra prediction unit of the video decoding device performs the same processing as described above.
(第4変形例)
第2変形例および第3変形例では、複数の予測モデルを用いて色差成分の各画素の予測値を算出する場合を説明した。第4変形例では、イントラ予測部はまず処理対象Cbブロック504を複数のサブグループに分ける。イントラ予測部は、各サブグループに個別に予測モデルを設定する。すなわち、予測モデルの種別(線形モデル/非線形モデル)や予測パラメータはサブグループごとに異なりうる。イントラ予測部は、サブグループごとに該サブグループに設定された予測モデルを用いて色差成分の予測値を算出する。
(Fourth modification)
In the second modified example and the third modified example, the case where the predicted value of each pixel of the color difference component is calculated using a plurality of prediction models has been described. In the fourth modification, the intra prediction unit first divides the processing target Cb block 504 into a plurality of subgroups. The intra prediction unit sets a prediction model individually for each subgroup. That is, the type of prediction model (linear model / nonlinear model) and the prediction parameter may differ for each subgroup. The intra prediction unit calculates the prediction value of the color difference component for each subgroup using the prediction model set for the subgroup.
(第5変形例)
実施の形態では、CCNMモードによりY成分の再構成値からCb成分およびCr成分のイントラ予測値を算出する場合について説明したが、これに限られない。図12(a)、(b)は、第5変形例に係る予測モデルの説明図である。図12(a)では、Y成分とCb成分との間の第1予測モデル180を用いてCb成分の予測値が生成される。Y成分とCr成分との間の第2予測モデル182およびCb成分とCr成分との間の第3予測モデル184を用いてCr成分の予測値が生成される。第1予測モデル180、第2予測モデル182および第3予測モデル184のうちの少なくともひとつは非線形モデルである。例えば、Cr成分の予測値は、
Cr=α*Y+(1−α)*Cb
により算出される。ここで、αは0以上1以下の重み付け係数である。
(5th modification)
In the embodiment, the case where the intra prediction values of the Cb component and the Cr component are calculated from the reconstructed value of the Y component in the CCNM mode has been described. However, the present invention is not limited to this. 12A and 12B are explanatory diagrams of a prediction model according to the fifth modification. In FIG. 12A, the predicted value of the Cb component is generated using the
Cr = α * Y + (1-α) * Cb
Is calculated by Here, α is a weighting coefficient of 0 or more and 1 or less.
図12(b)では、Y成分とCr成分との間の第4予測モデル186を用いてCr成分の予測値が生成される。Y成分とCb成分との間の第5予測モデル188およびCr成分とCb成分との間の第6予測モデル190を用いてCb成分の予測値が生成される。第4予測モデル186、第5予測モデル188および第6予測モデル190のうちの少なくともひとつは非線形モデルである。例えば、Cb成分の予測値は、
Cb=β*Y+(1−β)*Cr
により算出される。ここで、βは0以上1以下の重み付け係数である。
In FIG. 12B, the predicted value of the Cr component is generated using the
Cb = β * Y + (1-β) * Cr
Is calculated by Here, β is a weighting coefficient of 0 or more and 1 or less.
実施の形態では、非線形モデルとして多項式モデルを採用する場合を説明したが、これに限られず、例えば指数関数や対数関数で展開したモデルを用いてもよい。 In the embodiment, the case where the polynomial model is adopted as the nonlinear model has been described.
実施の形態では、色差成分の予測値を非線形モデルから算出する際に該非線形モデルに対応する輝度成分の再構成値を入力する場合について説明したが、これに限られず、例えば対応する輝度成分の予測値を入力してもよい。 In the embodiment, the case where the reconstructed value of the luminance component corresponding to the nonlinear model is input when the predicted value of the color difference component is calculated from the nonlinear model is not limited to this. A predicted value may be input.
実施の形態では、図4のステップS406においてYブロックの再構成値およびYブロックの参照ラインの両方をフィルタリングする場合を説明したが、これに限られず、例えばステップS406においてYブロックの参照ラインをフィルタリングし、ステップS408の前にYブロックの再構成値をフィルタリングしてもよい。あるいはまた、フィルタリングを行わなくてもよい。 In the embodiment, the case where both the reconstruction value of the Y block and the reference line of the Y block are filtered in step S406 in FIG. 4 is not limited to this. For example, the reference line of the Y block is filtered in step S406. The reconstruction value of the Y block may be filtered before step S408. Alternatively, filtering may not be performed.
100 配信システム、 102 動画像復号装置、 104 表示装置、 106 ネットワーク、 110 動画像符号化装置。
DESCRIPTION OF
Claims (13)
復号の結果得られる前記ブロックのレベル値を逆量子化および逆変換して前記ブロックの差分値を生成する逆処理手段と、
前記ブロックの周りの再構成済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測手段と、
生成された前記差分値および生成された前記予測値に基づいて前記ブロックを再構成する再構成手段と、を備え、
前記イントラ予測手段は、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成する動画像復号装置。 Decoding means for decoding a bitstream representing a moving image including a block encoded using intra prediction;
Inverse processing means for generating a difference value of the block by dequantizing and inversely transforming the level value of the block obtained as a result of decoding;
Intra prediction means for generating a prediction value of the block by intra prediction based on a reconstructed block around the block;
Reconstructing means for reconstructing the block based on the generated difference value and the generated predicted value;
The intra-prediction unit is a moving picture decoding apparatus that generates a prediction value of a color difference component of a block using a nonlinear model between a luminance component and a color difference component of the block.
前記イントラ予測手段は、前記第1参照ラインおよび前記第2再構成済みブロックの輝度成分の第2参照ラインに基づいて前記非線形モデルのパラメータを決定する請求項3に記載の動画像復号装置。 The reconstructed block around the block is adjacent to the first reconstructed block in the direction in which the first reference line of the luminance component of the first reconstructed block and the first reconstructed block adjacent to the block extend. A second reconstructed block to
The video decoding device according to claim 3, wherein the intra prediction unit determines the parameter of the nonlinear model based on the first reference line and a second reference line of a luminance component of the second reconstructed block.
前記イントラ予測手段は、
前記ブロックの輝度成分と前記ブロックの周りの再構成済みブロックの輝度成分の参照ラインとをダウンサンプリングする手段と、
ダウンサンプリングの結果得られる輝度成分および参照ラインに対してフィルタリングを行う手段と、
フィルタリングの結果得られる参照ラインおよび色差成分の対応する参照ラインに基づいて前記非線形モデルのパラメータを決定する手段と、
決定されたパラメータおよびフィルタリングの結果得られる輝度成分を用いて、対応する色差成分の予測値を生成する手段と、を含む請求項3から6のいずれか一項に記載の動画像復号装置。 The size of the color difference component of the block is smaller than the size of the luminance component of the block,
The intra prediction means includes
Means for downsampling the luminance component of the block and a reference line of luminance components of the reconstructed block around the block;
Means for filtering the luminance component and the reference line obtained as a result of downsampling;
Means for determining parameters of the nonlinear model based on a reference line obtained as a result of filtering and a corresponding reference line of the color difference component;
7. The moving picture decoding apparatus according to claim 3, further comprising: a unit that generates a predicted value of the corresponding color difference component using the determined parameter and the luminance component obtained as a result of filtering.
前記イントラ予測手段は、前記ブロックの輝度成分と第1色差成分との間の第1予測モデルを用いて前記ブロックの第1色差成分の予測値を生成し、かつ、前記ブロックの輝度成分と第2色差成分との間の第2予測モデルおよび前記ブロックの第1色差成分と第2色差成分との間の第3予測モデルを用いて前記ブロックの第2色差成分の予測値を生成し、
前記第1予測モデル、前記第2予測モデルおよび前記第3予測モデルのうちの少なくともひとつは非線形モデルである請求項1から8のいずれか一項に記載の動画像復号装置。 The color difference component of the block includes a first color difference component and a second color difference component,
The intra prediction unit generates a predicted value of the first color difference component of the block using a first prediction model between the luminance component of the block and the first color difference component, and Generating a predicted value of the second color difference component of the block using a second prediction model between the two color difference components and a third prediction model between the first color difference component and the second color difference component of the block;
9. The moving picture decoding apparatus according to claim 1, wherein at least one of the first prediction model, the second prediction model, and the third prediction model is a non-linear model.
復号の結果得られる前記ブロックのレベル値を逆量子化および逆変換して前記ブロックの差分値を生成する逆処理ステップと、
前記ブロックの周りの再構成済みブロックに基づくイントラ予測により前記ブロックの予測値を生成するイントラ予測ステップと、
生成された前記差分値および生成された前記予測値に基づいて前記ブロックを再構成する再構成ステップと、を含み、
前記イントラ予測ステップは、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成するステップを含む動画像復号方法。 A decoding step of decoding a bitstream representing a moving image including a block encoded using intra prediction;
An inverse processing step of generating a difference value of the block by inverse-quantizing and inverse-transforming the level value of the block obtained as a result of decoding;
An intra prediction step of generating a prediction value of the block by intra prediction based on a reconstructed block around the block;
Reconstructing the block based on the generated difference value and the generated predicted value, and
The intra prediction step includes a step of generating a prediction value of the color difference component of the block using a nonlinear model between the luminance component and color difference component of the block.
生成された前記予測値に基づいて前記ブロックの差分値を生成する差分生成手段と、
生成された前記差分値を変換および量子化し、レベル値を生成する処理手段と、
生成されたレベル値を符号化してビットストリームを生成する符号化手段と、を備え、
前記イントラ予測手段は、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成する動画像符号化装置。 Intra prediction means for generating a prediction value of the block by intra prediction based on an encoded block around a block of a moving image;
Difference generation means for generating a difference value of the block based on the generated predicted value;
Processing means for converting and quantizing the generated difference value to generate a level value;
Encoding means for encoding the generated level value to generate a bitstream,
The intra-prediction unit is a moving picture coding apparatus that generates a prediction value of a color difference component of a block using a nonlinear model between a luminance component and a color difference component of the block.
生成された前記予測値に基づいて前記ブロックの差分値を生成する差分生成ステップと、
生成された前記差分値を変換および量子化し、レベル値を生成する処理ステップと、
生成されたレベル値を符号化してビットストリームを生成する符号化ステップと、を含み、
前記イントラ予測ステップは、前記ブロックの輝度成分と色差成分との間の非線形モデルを用いて、前記ブロックの色差成分の予測値を生成するステップを含む動画像符号化方法。 An intra prediction step of generating a prediction value of the block by intra prediction based on an encoded block around a block of a moving image;
A difference generation step of generating a difference value of the block based on the generated predicted value;
Processing and transforming and quantizing the generated difference value to generate a level value;
Encoding a generated level value to generate a bitstream; and
The intra prediction step includes a step of generating a predicted value of the color difference component of the block using a nonlinear model between the luminance component and color difference component of the block.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016253682A JP2018107692A (en) | 2016-12-27 | 2016-12-27 | Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016253682A JP2018107692A (en) | 2016-12-27 | 2016-12-27 | Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018107692A true JP2018107692A (en) | 2018-07-05 |
Family
ID=62787589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016253682A Pending JP2018107692A (en) | 2016-12-27 | 2016-12-27 | Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018107692A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113473135A (en) * | 2021-05-26 | 2021-10-01 | 北京大学 | Intra-frame prediction method, device and medium for non-linear texture |
WO2024001472A1 (en) * | 2022-06-29 | 2024-01-04 | Beijing Xiaomi Mobile Software Co., Ltd. | Encoding/decoding video picture data |
-
2016
- 2016-12-27 JP JP2016253682A patent/JP2018107692A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113473135A (en) * | 2021-05-26 | 2021-10-01 | 北京大学 | Intra-frame prediction method, device and medium for non-linear texture |
CN113473135B (en) * | 2021-05-26 | 2023-09-01 | 北京大学 | Intra-frame prediction method, device and medium for nonlinear texture |
WO2024001472A1 (en) * | 2022-06-29 | 2024-01-04 | Beijing Xiaomi Mobile Software Co., Ltd. | Encoding/decoding video picture data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102668077B1 (en) | Apparatus and method for image coding and decoding | |
KR102512053B1 (en) | Methods of decoding using skip mode and apparatuses for using the same | |
US11838509B2 (en) | Video coding method and apparatus | |
JP5957561B2 (en) | Video encoding / decoding method and apparatus using large size transform unit | |
US20200236361A1 (en) | Intra prediction mode based image processing method, and apparatus therefor | |
EP3709644A1 (en) | Method for image processing and apparatus for implementing the same | |
US20180199034A1 (en) | Method and device for performing adaptive filtering according to block boundary | |
KR102342870B1 (en) | Intra prediction mode-based image processing method and apparatus therefor | |
JP2022529999A (en) | Video coding method based on BDPCM and its equipment | |
JP6660868B2 (en) | Moving image encoding device, moving image decoding device, and program | |
TW201709736A (en) | Image encoding device and image encoding method | |
WO2017052174A1 (en) | Method and apparatus for processing video signals using coefficient derivation prediction | |
KR20220003631A (en) | Parallel bidirectional intra-coding of sub-partitions | |
US11451771B2 (en) | Moving-image decoder using intra-prediction, moving-image decoding method using intra-prediction, moving-image encoder using intra-prediction, moving-image encoding method using intra-prediction, and computer readable recording medium | |
KR20170125154A (en) | Method and apparatus of video decoder using curve intra prediction | |
US10785499B2 (en) | Method and apparatus for processing video signal on basis of combination of pixel recursive coding and transform coding | |
JP2018107692A (en) | Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium | |
JP7393366B2 (en) | Image encoding methods, decoding methods, encoders and decoders | |
KR102242723B1 (en) | A method and an apparatus for decoding a video signal | |
KR20200004348A (en) | Method and apparatus for processing video signal through target region correction | |
WO2012172667A1 (en) | Video encoding method, video decoding method, and device | |
JP6557483B2 (en) | Encoding apparatus, encoding system, and program | |
US20230044603A1 (en) | Apparatus and method for applying artificial intelligence-based filtering to image | |
JP6917718B2 (en) | Predictors, encoders, decoders, and programs | |
JP2020102858A (en) | Video decoding device, video decoding method, video encoding device, video encoding method, and computer readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170202 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170202 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20170223 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200707 |