JP2018056685A - Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program - Google Patents

Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program Download PDF

Info

Publication number
JP2018056685A
JP2018056685A JP2016188120A JP2016188120A JP2018056685A JP 2018056685 A JP2018056685 A JP 2018056685A JP 2016188120 A JP2016188120 A JP 2016188120A JP 2016188120 A JP2016188120 A JP 2016188120A JP 2018056685 A JP2018056685 A JP 2018056685A
Authority
JP
Japan
Prior art keywords
prediction
value
color component
unit
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016188120A
Other languages
Japanese (ja)
Inventor
佐藤 数史
Kazufumi Sato
数史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2016188120A priority Critical patent/JP2018056685A/en
Priority to PCT/JP2017/031137 priority patent/WO2018061588A1/en
Publication of JP2018056685A publication Critical patent/JP2018056685A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image encoder which enables the decrease in code amount by utilizing the dependence between video signal components in CCLM prediction to adjust quantization values of a reference source and a reference destination.SOLUTION: In an image encoder 100, an intra prediction part 14 uses one of first and second prediction modes to produce predicted values of color components in respective block in a picture, provided that in the first prediction mode, decoded pixel values of brightness components are used to produce predicted values of color components according to a linear model, and in the second prediction mode predicted values of color components are produced without using decoded pixel values of brightness signals; a subtracter 2 subtracts a predicted value from each color component of an original image to produce a predictive residue; an orthogonal conversion part 3 performs an orthogonal transformation of the predictive residue to produce an orthogonal transform coefficient; and a quantization part 4 sets quantization values of reference destination color components to be higher than those of reference source color components to quantize orthogonal transform coefficients when a predicted value-generation part generates predicted values of color components with the first prediction mode is selected.SELECTED DRAWING: Figure 2

Description

本開示は、画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムに関する。   The present disclosure relates to an image encoding device, an image encoding method, an image encoding program, an image decoding device, an image decoding method, and an image decoding program.

H.264/MPEG-4 AVC (Advanced Video Coding)よりもさらに画像情報を高効率に符号化することができる圧縮符号化方式H.265/MPEG-H HEVC(High Efficiency Video Coding)(以下、HEVCと略記する)が標準化されている。HEVCにおいては、フレーム内で空間予測を行って予測値を生成するイントラ予測と、フレーム間で動き補償予測を行って予測値を生成するインター予測とが用いられる。   H.265 / MPEG-H HEVC (High Efficiency Video Coding) (hereinafter referred to as HEVC), which can encode image information more efficiently than H.264 / MPEG-4 AVC (Advanced Video Coding). Is abbreviated). In HEVC, intra prediction that generates a prediction value by performing spatial prediction within a frame and inter prediction that generates a prediction value by performing motion compensation prediction between frames are used.

”Algorithm Description of Joint Exploration Test Model 1”, JVET-B0021, February 2016“Algorithm Description of Joint Exploration Test Model 1”, JVET-B0021, February 2016 ” CE6.a.4: Chroma intra prediction by reconstructed luma samples”, JCTVC-E266, March2011“CE6.a.4: Chroma intra prediction by reconstructed luma samples”, JCTVC-E266, March2011

非特許文献1及び2には、HEVCを発展させて、イントラ予測における改良として、輝度信号の復号画素値を用いて色差信号の予測値を生成するクロスコンポーネント線形モデル予測(cross-component liner model prediction)が提案されている。非特許文献1には、一方の色差信号の予測残差を用いて他方の色差信号の予測値を補正することが記載されている。クロスコンポーネント線形モデル予測をCCLM予測と略記する。   In Non-Patent Documents 1 and 2, as an improvement in intra prediction by developing HEVC, a cross-component liner model prediction that generates a prediction value of a color difference signal using a decoded pixel value of a luminance signal is proposed. ) Has been proposed. Non-Patent Document 1 describes that the prediction value of one color difference signal is corrected using the prediction residual of one color difference signal. Cross component linear model prediction is abbreviated as CCLM prediction.

CCLM予測では他のイントラ予測とは異なり、映像信号(輝度信号及び色差信号)のコンポーネント間に依存関係がある。非特許文献1及び2には、その依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減する手段は存在しない。   Unlike other intra predictions, CCLM prediction has a dependency relationship between components of a video signal (luminance signal and color difference signal). In Non-Patent Documents 1 and 2, there is no means for adjusting the quantization value of the reference source and the reference destination by using the dependency relationship and reducing the code amount.

実施形態は、CCLM予測における映像信号のコンポーネント間に依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減することができる画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムを提供することを目的とする。   Embodiments provide an image encoding apparatus and an image encoding method capable of adjusting a quantization value of a reference source and a reference destination and reducing a code amount by using a dependency relationship between components of a video signal in CCLM prediction And an image encoding program, an image decoding device, an image decoding method, and an image decoding program.

実施形態の第1の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値を生成する予測値生成部と、原画像の色成分より前記予測値を減算して予測残差を生成する減算器と、前記予測残差を直交変換して直交変換係数を生成する直交変換部と、前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する量子化部とを備えることを特徴とする画像符号化装置が提供される。   According to the first aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value generation unit that generates a prediction value of a color component in each block in the picture using any one of the second prediction modes for generating a prediction value of the image, and the prediction from the color component of the original image A subtractor that subtracts a value to generate a prediction residual, an orthogonal transform unit that orthogonally transforms the prediction residual to generate an orthogonal transform coefficient, and the predicted value generation unit selects the first prediction mode. A quantizing unit configured to quantize the orthogonal transform coefficient by setting a quantized value of the reference destination color component higher than that of the reference source color component. Is provided.

実施形態の第2の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成し、原画像の色成分より前記予測値を減算して予測残差を生成し、前記予測残差を直交変換して直交変換係数を生成し、前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化することを特徴とする画像符号化方法が提供される。   According to the second aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value of a color component is generated using any one of the second prediction modes for generating a prediction value of the image, a prediction residual is generated by subtracting the prediction value from the color component of the original image, When the prediction residual is orthogonally transformed to generate an orthogonal transform coefficient, and when the first prediction mode is selected to generate a color component prediction value, the reference destination color component is compared with the reference source color component An image encoding method is provided in which the orthogonal transform coefficient is quantized by setting a high quantization value of.

実施形態の第3の態様によれば、コンピュータに、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成するステップと、原画像の色成分より前記予測値を減算して予測残差を生成するステップと、前記予測残差を直交変換して直交変換係数を生成するステップと、前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化するステップとを実行させることを特徴とする画像符号化プログラムが提供される。   According to the third aspect of the embodiment, the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal. The second prediction mode for generating the color component prediction value without generating the color component prediction value, and subtracting the prediction value from the color component of the original image to generate the prediction residual. A step of generating a difference, a step of orthogonally transforming the prediction residual to generate an orthogonal transformation coefficient, and a color component of a reference source when the first prediction mode is selected to generate a color component prediction value And a step of quantizing the orthogonal transform coefficient by setting a quantized value of a reference color component higher than that of the image encoding program.

実施形態の第4の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するエントロピー復号部と、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、前記エントロピー復号部によってエントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する逆量子化部とを備えることを特徴とする画像復号装置が提供される。   According to the fourth aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding for entropy decoding a bitstream in which a prediction value of a color component in each block in a picture is generated and encoded using any one of the second prediction modes for generating a prediction value of And the orthogonal transform coefficient entropy-decoded by the entropy decoding unit in the block in which the prediction value of the color component is generated and encoded using the first prediction mode is compared with the color component of the reference source Thus, an image decoding apparatus is provided that includes an inverse quantization unit configured to inversely quantize by setting a quantization value of a reference color component high.

実施形態の第5の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号し、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化することを特徴とする画像復号方法が提供される。   According to the fifth aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding the bitstream in which the prediction value of the color component in each block in the picture is generated and encoded using any one of the second prediction modes for generating the prediction value of In the block in which the predicted value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the quantum of the color component of the reference destination An image decoding method is provided that performs inverse quantization by setting a high quantization value.

実施形態の第6の態様によれば、コンピュータに、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するステップと、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化するステップとを実行させることを特徴とする画像復号プログラムが提供される。   According to the sixth aspect of the embodiment, the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal. Entropy decoding of the bitstream in which the prediction value of the color component in each block in the picture is generated and encoded using one of the second prediction modes for generating the prediction value of the color component without any And comparing the entropy-decoded orthogonal transform coefficient with a reference source color component in a block in which a prediction value of a color component is generated and encoded using the first prediction mode. An image decoding program is provided that executes a step of performing inverse quantization by setting a quantization value of a color component of the image to a high value.

実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムによれば、CCLM予測における映像信号のコンポーネント間に依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減することができる。   According to the image encoding device, the image encoding method, and the image encoding program of the embodiment, and the image decoding device, the image decoding method, and the image decoding program, the dependency relationship between the components of the video signal in CCLM prediction is used. Thus, the amount of code can be reduced by adjusting the quantization values of the reference source and the reference destination.

図1は、画像符号化装置及び画像復号装置を含む画像符号化・復号システムの全体的な構成例を示すブロック図である。FIG. 1 is a block diagram illustrating an overall configuration example of an image encoding / decoding system including an image encoding device and an image decoding device. 図2は、一実施形態の画像符号化装置を示すブロック図である。FIG. 2 is a block diagram illustrating an image encoding device according to an embodiment. 図3は、符号化ツリーユニットの構造を示す図である。FIG. 3 is a diagram illustrating the structure of the coding tree unit. 図4は、予測ユニットの構造を示す図である。FIG. 4 is a diagram illustrating the structure of the prediction unit. 図5は、変換ユニットの構造を示す図である。FIG. 5 is a diagram illustrating the structure of the conversion unit. 図6は、複数のスライスに分割されたフレームの構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of a frame divided into a plurality of slices. 図7は、イントラ予測の予測モードの例を示す図である。FIG. 7 is a diagram illustrating an example of a prediction mode of intra prediction. 図8は、4:2:0フォーマットのY,Cb,Cr映像信号の場合のCb及びCr信号のブロックY信号のブロックとの関係を示す図である。FIG. 8 is a diagram showing the relationship between the block Y signal block of the Cb and Cr signals in the case of a 4: 2: 0 format Y, Cb, and Cr video signal. 図9は、図2における量子化部4及び逆量子化部8の具体的な構成例を示すブロック図である。FIG. 9 is a block diagram illustrating a specific configuration example of the quantization unit 4 and the inverse quantization unit 8 in FIG. 図10は、一実施形態の画像符号化装置が伝送するシンタックスの一例を示す図である。FIG. 10 is a diagram illustrating an example of syntax transmitted by the image encoding device according to the embodiment. 図11は、一実施形態の画像符号化装置の動作、一実施形態の画像符号化方法による処理、一実施形態の画像符号化プログラムで実行される処理を示すフローチャートである。FIG. 11 is a flowchart illustrating the operation of the image encoding device according to the embodiment, the processing by the image encoding method according to the embodiment, and the processing executed by the image encoding program according to the embodiment. 図12Aは、一実施形態の画像符号化プログラムを記憶する記憶部を備えるコンピュータの概略的な構成を示すブロック図である。FIG. 12A is a block diagram illustrating a schematic configuration of a computer including a storage unit that stores an image encoding program according to an embodiment. 図12Bは、一実施形態の画像復号プログラムを記憶する記憶部を備えるコンピュータの概略的な構成を示すブロック図である。FIG. 12B is a block diagram illustrating a schematic configuration of a computer including a storage unit that stores an image decoding program according to an embodiment. 図13は、一実施形態の画像復号装置を示すブロック図である。FIG. 13 is a block diagram illustrating an image decoding apparatus according to an embodiment. 図14は、図13における逆量子化部23の具体的な構成例を示すブロック図である。FIG. 14 is a block diagram illustrating a specific configuration example of the inverse quantization unit 23 in FIG. 13. 図15は、一実施形態の画像復号装置の動作、一実施形態の画像復号方法による処理、一実施形態の画像復号プログラムで実行される処理を示すフローチャートである。FIG. 15 is a flowchart illustrating an operation of the image decoding apparatus according to the embodiment, processing by the image decoding method according to the embodiment, and processing executed by the image decoding program according to the embodiment.

以下、一実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムについて、添付図面を参照して説明する。   Hereinafter, an image encoding device, an image encoding method, an image encoding program, an image decoding device, an image decoding method, and an image decoding program according to an embodiment will be described with reference to the accompanying drawings.

まず、図1を用いて、画像符号化装置及び画像復号装置を含む画像符号化・復号システムの全体的な構成例について説明する。図1において、前処理装置50は、ユーザによる操作に従って、一実施形態の画像符号化装置100による画像情報の符号化のための各種の条件を設定する。画像符号化装置100は、前処理装置50からの設定情報に応じて、画像情報を符号化してビットストリームを出力する。ビットストリームは、符号化された画像情報及びシンタックスを含む。   First, an overall configuration example of an image encoding / decoding system including an image encoding device and an image decoding device will be described with reference to FIG. In FIG. 1, the preprocessing device 50 sets various conditions for encoding image information by the image encoding device 100 according to an embodiment in accordance with a user operation. The image encoding device 100 encodes the image information according to the setting information from the preprocessing device 50 and outputs a bit stream. The bit stream includes encoded image information and syntax.

送信装置110は、ビットストリームを所定の伝送路120に送信する。伝送路120は有線または無線であり、インターネットのような通信回線、電話回線、テレビジョン信号を送信する地上波放送または衛星放送用の電波のいずれでもよい。受信装置150は、伝送路120によって送信されたビットストリームを受信する。一実施形態の画像復号装置200は、ビットストリームを復号して復号画像情報を出力する。   The transmission device 110 transmits a bit stream to a predetermined transmission path 120. The transmission path 120 is wired or wireless, and may be a communication line such as the Internet, a telephone line, or a radio wave for terrestrial broadcasting or satellite broadcasting that transmits a television signal. The receiving device 150 receives the bit stream transmitted through the transmission path 120. The image decoding apparatus 200 according to an embodiment decodes a bit stream and outputs decoded image information.

<画像符号化装置>
図2は、画像符号化装置100の具体的な構成例を示す。図2において、並べ替え(Re-order)バッファ1には、デジタル信号の画像情報の画素が順に入力される。画像情報がアナログ信号であれば、並べ替えバッファ1の前段でA/D変換器によってデジタル信号に変換されていればよい。画像情報は例えば輝度信号Y(以下、Y信号)と色差信号Cb及びCr(以下、Cb及びCr信号)であり、4:2:0フォーマットのY,Cb,Cr映像信号を例とする。
<Image encoding device>
FIG. 2 shows a specific configuration example of the image encoding device 100. In FIG. 2, pixels of image information of a digital signal are sequentially input to a reorder buffer 1. If the image information is an analog signal, it may be converted into a digital signal by the A / D converter in the previous stage of the rearrangement buffer 1. The image information is, for example, a luminance signal Y (hereinafter referred to as Y signal) and color difference signals Cb and Cr (hereinafter referred to as Cb and Cr signals), and Y, Cb, Cr video signals in 4: 2: 0 format are taken as an example.

並べ替えバッファ1は入力された画素を複数フレーム分蓄積し、必要に応じてフレーム(ピクチャ)を並べ替えて読み出す。画像情報の各フレームは、フレーム内の画素を用いて符号化するIピクチャ、過去のフレーム内の画素を用いて予測符号化するPピクチャ、過去及び未来のフレーム内の画素を用いて予測符号化するBピクチャのいずれかに設定される。Iピクチャ、Pピクチャ、Bピクチャは前処理装置50によって設定されてもよいし、画像符号化装置100が予め定めた規則に従って選択してもよい。   The rearrangement buffer 1 accumulates input pixels for a plurality of frames, and rearranges and reads frames (pictures) as necessary. Each frame of image information is encoded using an I picture that is encoded using pixels in the frame, a P picture that is encoded predictively using pixels in a past frame, and a predictive encoding using pixels in past and future frames Is set to one of the B pictures. The I picture, P picture, and B picture may be set by the preprocessing device 50, or may be selected by the image encoding device 100 according to a predetermined rule.

並べ替えバッファ1は、後述するビットストリームを構成するシーケンスの構成単位となる複数のピクチャ群(GOP)にBピクチャが含まれる場合には、符号化のためにフレームの順を並び替えて読み出す。   The rearrangement buffer 1 rearranges the order of frames for encoding when a plurality of picture groups (GOPs), which are constituent units of a sequence constituting a bit stream to be described later, are included.

並べ替えバッファ1より出力されるフレームは、次のような複数の画素よりなるユニットに分割されて処理される。フレームを構成する画素は、図3に示すように、例えば水平64画素、垂直64画素の符号化ツリーユニット(CTU:Coding Tree Unit)に分割される。CTUはCU階層0である。各CTUは、再帰的な四分木ブロック分割に基づいて可変サイズの符号化ユニット(CU:Coding Unit)に分割されることがある。   The frame output from the rearrangement buffer 1 is processed by being divided into units composed of a plurality of pixels as follows. As shown in FIG. 3, the pixels constituting the frame are divided into, for example, a coding tree unit (CTU: Coding Tree Unit) having 64 horizontal pixels and 64 vertical pixels. CTU is CU hierarchy 0. Each CTU may be divided into variable size coding units (CUs) based on recursive quadtree block partitioning.

CTUは、水平32画素、垂直32画素のCU階層1のCUに分割されることがある。CU階層1のCUは、水平16画素、垂直16画素のCU階層2のCUに分割されることがある。CU階層2のCUは、水平8画素、垂直8画素のCU階層3のCUに分割されることがある。CTUが分割されない場合にはCTUがそのままCUとなる。   A CTU may be divided into CUs of CU hierarchy 1 having 32 horizontal pixels and 32 vertical pixels. The CU of CU layer 1 may be divided into CUs of CU layer 2 of 16 pixels horizontally and 16 pixels vertically. The CU of CU layer 2 may be divided into CUs of CU layer 3 of 8 horizontal pixels and 8 vertical pixels. When the CTU is not divided, the CTU becomes the CU as it is.

最大サイズのCUは最大符号化ユニット(LCU:Largest Coding Unit)と称され、最小サイズのCUは最小符号化ユニット(SCU:Smallest Coding Unit)と称される。   The maximum size CU is referred to as a maximum coding unit (LCU), and the minimum size CU is referred to as a minimum coding unit (SCU).

ところで、4:2:0フォーマットのY,Cb,Cr映像信号においては、Cb信号及びCr信号の解像度はY信号の解像度と比較して水平及び垂直の双方で1/2である。従って、CUは、CUと同じ大きさのY信号の符号化ブロック(CB)と、CUの1/4の大きさであるCb信号及びCr信号のCBとを含む。   By the way, in the 4: 2: 0 format Y, Cb, Cr video signal, the resolution of the Cb signal and the Cr signal is ½ both in the horizontal and vertical directions compared to the resolution of the Y signal. Therefore, the CU includes a Y signal coding block (CB) having the same size as that of the CU, and a Cb signal and a CB of the Cr signal that are ¼ the size of the CU.

CUは、図2におけるイントラ予測部14及びインター予測部15における予測処理のために予測ユニット(PU:Prediction Unit)に分割される。図4に示すように、イントラ予測部14によるフレーム内予測に基づいて符号化されるCU(イントラCU)においては、2N×2NまたはN×NのPUが選択される。但し、N×NのPUはSCUのみで利用される。   The CU is divided into prediction units (PUs) for prediction processing in the intra prediction unit 14 and the inter prediction unit 15 in FIG. As shown in FIG. 4, 2N × 2N or N × N PUs are selected in a CU (intra CU) encoded based on intra-frame prediction by the intra prediction unit 14. However, the N × N PU is used only by the SCU.

図4に示すように、インター予測部15によるフレーム間予測に基づいて符号化されるCU(インターCU)においては、2N×2N、N×N、2N×N、N×2N、2N×nU、2N×nD、nL×2N、nR×2NのPUが選択される。但し、N×NはNが16以上のSCUだけで利用可能であり、2N×nU、2N×nD、nL×2N、nR×2Nは非対称動き分割が有効とされているときのみ利用可能である。2N×nU、2N×nD、nL×2N、nR×2NはそれぞれCUを上下に1:3、上下に3:1、左右に1:3、左右に3:1で分割するPUである。   As shown in FIG. 4, in the CU (inter CU) encoded based on the inter-frame prediction by the inter prediction unit 15, 2N × 2N, N × N, 2N × N, N × 2N, 2N × nU, PUs of 2N × nD, nL × 2N, and nR × 2N are selected. However, N × N can be used only by SCUs where N is 16 or more, and 2N × nU, 2N × nD, nL × 2N, and nR × 2N can be used only when asymmetric motion division is enabled. . 2N × nU, 2N × nD, nL × 2N, and nR × 2N are PUs that divide the CU by 1: 3 vertically, 3: 1 vertically, 1: 3 horizontally, and 3: 1 horizontally.

同様に、PUは、PUと同じ大きさのY信号の予測ブロック(PB)と、PUの1/4の大きさであるCb信号及びCr信号のPBとを含む。   Similarly, the PU includes a prediction block (PB) of a Y signal having the same size as the PU, and a Pb of a Cb signal and a Cr signal having a size of 1/4 of the PU.

また、CUは、図2における直交変換部3における直交変換処理及び量子化部4における量子化処理のために、再帰的な四分木ブロック分割に基づいて可変サイズの変換ユニット(TU:Transform Unit)に分割される。   Further, the CU is a variable size transform unit (TU: Transform Unit) based on recursive quadtree block division for the orthogonal transform process in the orthogonal transform unit 3 and the quantization process in the quantization unit 4 in FIG. ).

図5に示すように、TUの最大サイズは水平32画素、垂直32画素である。水平32画素、垂直32画素のTUをTU階層0とすれば、TU階層0は、水平16画素、垂直16画素のTU階層1のTUに分割されることがある。TU階層1のTUは、水平8画素、垂直8画素のTU階層2のTUに分割されることがある。TU階層2のTUは、水平4画素、垂直4画素のTU階層3のTUに分割されることがある。   As shown in FIG. 5, the maximum size of a TU is 32 pixels horizontally and 32 pixels vertically. If the TU of 32 horizontal pixels and 32 vertical pixels is TU layer 0, TU layer 0 may be divided into TUs of TU layer 1 of 16 horizontal pixels and 16 vertical pixels. The TU of TU layer 1 may be divided into TUs of TU layer 2 of 8 horizontal pixels and 8 vertical pixels. The TU of the TU hierarchy 2 may be divided into TUs of the TU hierarchy 3 of 4 horizontal pixels and 4 vertical pixels.

但し、イントラCUにおける四分木の親ノードはPUであり、インターCUにおける四分木の親ノードはCUである。   However, the parent node of the quadtree in the intra CU is PU, and the parent node of the quadtree in the inter CU is CU.

同様に、TUは、TUと同じ大きさのY信号の変換ブロック(TB)と、TUの1/4の大きさであるCb信号及びCr信号のTBとを含む。   Similarly, the TU includes a Y signal conversion block (TB) having the same size as the TU, and a Cb signal and a Cr signal TB that are ¼ the size of the TU.

以上の可変サイズのCU、PU、TUは、後述するコスト関数値が最小となるように選択される。画像情報の絵柄に応じてコスト関数値が最小となるCU、PU、TUは異なるから、各フレームの画素はサイズが異なるCU、PU、TUが混在した状態で分割される。   The variable size CU, PU, and TU described above are selected so that the cost function value described later is minimized. Since the CU, PU, and TU that minimize the cost function value are different according to the pattern of the image information, the pixels of each frame are divided in a state where CU, PU, and TU having different sizes are mixed.

図3〜図5ではHEVCで採用されているCU、PU、TUの構造を例としたが、CU、PU、TUの構造は特に限定されるものではない。CU、PU、TUの代わりに、MPEG2で採用されているのと同様のマクロブロックの構造としてもよい。本実施形態においては、CU、PU、TUの構造が採用されている場合を例とする。   3 to 5 exemplify the CU, PU, and TU structures employed in HEVC, the CU, PU, and TU structures are not particularly limited. Instead of CU, PU, and TU, a macroblock structure similar to that employed in MPEG2 may be used. In this embodiment, the case where the structure of CU, PU, and TU is adopted is taken as an example.

図6に示すように、複数のCTUよりなるフレームは、少なくとも1つのスライスを含む。図6において、太実線はスライスの境界を示しており、フレームは3つのスライスSL1〜SL3に分割されている。フレームをどのように複数のスライスに分割するかは、前処理装置50によって設定される。スライスSL1〜SL3はそれぞれ連続する少なくとも1つのCTUを含む。   As shown in FIG. 6, a frame made up of a plurality of CTUs includes at least one slice. In FIG. 6, a thick solid line indicates a boundary between slices, and the frame is divided into three slices SL1 to SL3. How the frame is divided into a plurality of slices is set by the preprocessing device 50. Each of the slices SL1 to SL3 includes at least one continuous CTU.

画像符号化装置100はスライス単位で画像情報を符号化し、画像復号装置200はスライス単位で画像情報を復号する。図6において、実線で示す矢印は符号化及び復号の順を示している。   The image encoding device 100 encodes image information in units of slices, and the image decoding device 200 decodes image information in units of slices. In FIG. 6, arrows indicated by solid lines indicate the order of encoding and decoding.

図2に戻り、減算器2は、並べ替えバッファ1より出力された原画像である画像情報のCUより、後述するイントラ予測部14またはインター予測部15によって生成された予測値(予測画像)を減算して、予測残差を生成する。減算器2は、予測残差を直交変換部3に供給する。   Returning to FIG. 2, the subtracter 2 uses the prediction value (predicted image) generated by the intra prediction unit 14 or the inter prediction unit 15 described later from the CU of the image information that is the original image output from the rearrangement buffer 1. Subtract to produce a prediction residual. The subtracter 2 supplies the prediction residual to the orthogonal transformation unit 3.

直交変換部3は、予測残差をTU単位で直交変換して、予測残差を周波数領域の信号に変換する。直交変換部3は、直交変換として、イントラ予測が選択されてTUが水平4画素、垂直4画素の場合のみ離散サイン変換(DST)を用い、他の場合は離散コサイン変換(DCT)を用いて、予測残差を直交変換する。直交変換部3は、直交変換係数を量子化部4に供給する。   The orthogonal transform unit 3 performs orthogonal transform on the prediction residual in units of TUs to convert the prediction residual into a frequency domain signal. The orthogonal transform unit 3 uses the discrete sine transform (DST) only when the intra prediction is selected and the TU is 4 pixels horizontal and 4 pixels vertical, and the discrete cosine transform (DCT) is used in other cases. The orthogonal transformation is performed on the prediction residual. The orthogonal transform unit 3 supplies the orthogonal transform coefficient to the quantization unit 4.

量子化部4は、直交変換係数を量子化してエントロピー符号化部5及び逆量子化部8に供給する。量子化部4の具体的な構成及び動作は後述する。エントロピー符号化部5は、量子化された直交変換係数に対して発生確率に基づいて異なる長さの符号を割り当てて、直交変換係数をエントロピー符号化する。   The quantization unit 4 quantizes the orthogonal transform coefficient and supplies it to the entropy coding unit 5 and the inverse quantization unit 8. A specific configuration and operation of the quantization unit 4 will be described later. The entropy encoding unit 5 assigns codes having different lengths to the quantized orthogonal transform coefficients based on the occurrence probabilities, and entropy codes the orthogonal transform coefficients.

エントロピー符号化部5は、画像情報を符号化する際のシンタックスもエントロピー符号化する。シンタックスは、イントラ予測部14またはインター予測部15で選択された予測モード、動きベクトル、参照画素を特定するための情報等の各種のシンタックス要素を含む。   The entropy encoding unit 5 also entropy encodes the syntax for encoding image information. The syntax includes various syntax elements such as information for specifying a prediction mode, a motion vector, and a reference pixel selected by the intra prediction unit 14 or the inter prediction unit 15.

エントロピー符号化部5は、一例として、コンテクスト適応算術符号(CABAC: Context-based Adaptive Binary Arithmetic Coding)を用いて直交変換係数及びシンタックスをエントロピー符号化することができる。   As an example, the entropy encoding unit 5 can entropy encode orthogonal transform coefficients and syntax using context adaptive arithmetic code (CABAC: Context-based Adaptive Binary Arithmetic Coding).

レート制御部7は、エントロピー符号化部5より出力される符号化データがオーバーフローまたはアンダーフローしないよう、量子化部4における量子化動作のレートを制御する。   The rate control unit 7 controls the rate of the quantization operation in the quantization unit 4 so that the encoded data output from the entropy encoding unit 5 does not overflow or underflow.

HRD(Hypothetical Reference Decoder)バッファ6はエントロピー符号化部5より出力される符号化データよりなるビットストリームを一時的に蓄積して出力する。   An HRD (Hypothetical Reference Decoder) buffer 6 temporarily accumulates and outputs a bit stream composed of encoded data output from the entropy encoding unit 5.

逆量子化部8は、量子化された直交変換係数をTU単位で逆量子化して、逆直交変換部9に供給する。逆量子化部8における逆量子化の動作は、量子化部4における量子化の動作とは逆の動作である。   The inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient in units of TU and supplies the quantized orthogonal transform coefficient to the inverse orthogonal transform unit 9. The inverse quantization operation in the inverse quantization unit 8 is an operation opposite to the quantization operation in the quantization unit 4.

逆直交変換部9は、入力された直交変換係数をTU単位で逆直交変換して、予測残差を加算器10に供給する。加算器10は、入力された予測残差と、予測値選択部16により選択されたイントラ予測部14またはインター予測部15によって生成された予測値とを加算して、復号信号を生成する。復号信号はループフィルタ11及びフレームメモリ12に供給される。   The inverse orthogonal transform unit 9 performs inverse orthogonal transform on the input orthogonal transform coefficient in units of TU, and supplies the prediction residual to the adder 10. The adder 10 adds the input prediction residual and the prediction value generated by the intra prediction unit 14 or the inter prediction unit 15 selected by the prediction value selection unit 16 to generate a decoded signal. The decoded signal is supplied to the loop filter 11 and the frame memory 12.

ループフィルタ11は、復号信号の符号化ノイズを低減させる。ループフィルタ11は、ブロックの境界に生じる歪を低減させるデブロッキング・フィルタと、リンギング歪を低減させる画素適応オフセットとを含む。ループフィルタ11によってフィルタ処理された復号信号はフレームメモリ12に供給される。   The loop filter 11 reduces coding noise of the decoded signal. The loop filter 11 includes a deblocking filter that reduces distortion generated at a block boundary and a pixel adaptive offset that reduces ringing distortion. The decoded signal filtered by the loop filter 11 is supplied to the frame memory 12.

フレームメモリ12は、加算器10より出力されたループフィルタ11によるフィルタ処理を施していない復号信号と、ループフィルタ11によるフィルタ処理が施された復号信号とを蓄積する。スイッチ13は、フレームメモリ12に蓄積されたフィルタ処理を施していない復号信号をイントラ予測部14に供給し、フレームメモリ12に蓄積されたフィルタ処理が施された復号信号をインター予測部15に供給する。   The frame memory 12 stores the decoded signal output from the adder 10 that has not been subjected to the filter processing by the loop filter 11 and the decoded signal that has been subjected to the filter processing by the loop filter 11. The switch 13 supplies the decoded signal stored in the frame memory 12 that has not been subjected to the filter processing to the intra prediction unit 14 and supplies the decoded signal stored in the frame memory 12 to which the filter processing has been performed to the inter prediction unit 15. To do.

イントラ予測部14は、Y信号については、TU単位で、例えば、33種類の方向の方向性予測モードと、後述するDC(直流)予測モード及びプレーナ(Planar)予測モードとの全35種類の予測モードで予測値を生成する。但し、予測モードはPU単位で選択される。   For the Y signal, the intra prediction unit 14 performs, for example, a total of 35 types of prediction in 33 units of directional prediction modes in 33 types of directions, DC (direct current) prediction mode, and planar (Planar) prediction mode described later. Generate predicted values in mode. However, the prediction mode is selected in units of PUs.

イントラ予測部14は、Cb及びCr信号については、TU単位で、Y信号の予測モードと同一の予測モードを用いない場合には、それぞれ図7(a)〜(e)に示す、垂直予測モード、水平予測モード、DC予測モード、プレーナ予測モード、CCLM予測モードで予測値を生成する。但し、予測モードはPU単位で選択される。   For the Cb and Cr signals, the intra prediction unit 14 uses the vertical prediction modes shown in FIGS. 7A to 7E when the same prediction mode as the Y signal prediction mode is not used in TU units. The prediction value is generated in the horizontal prediction mode, the DC prediction mode, the planar prediction mode, and the CCLM prediction mode. However, the prediction mode is selected in units of PUs.

図7(a)〜(d)におけるHは予測値を生成する対象のTUの上方に位置する参照画素であり、VはTUの左方に位置する参照画素である。図7(a)に示す垂直予測モードは、参照画素Hを用いてTU内の予測画素を垂直方向に生成するモードである。図7(b)に示す水平予測モードは、参照画素Vを用いてTU内の予測画素を水平方向に生成するモードである。   In FIGS. 7A to 7D, H is a reference pixel located above a TU that is a target for generating a predicted value, and V is a reference pixel located to the left of the TU. The vertical prediction mode illustrated in FIG. 7A is a mode in which the prediction pixel in the TU is generated in the vertical direction using the reference pixel H. The horizontal prediction mode illustrated in FIG. 7B is a mode in which the prediction pixel in the TU is generated in the horizontal direction using the reference pixel V.

図7(c)に示すDC予測モードは、参照画素H及びVの平均値を用いてTU内の予測画素を生成するモードである。図7(d)に示すプレーナ予測モードは、参照画素H及びVのうちの4個の参照画素を用いる内挿予測によってTU内の予測画素を生成するモードである。図7(e)に示すCCLM予測モードは、次のようにしてTU内の予測画素を生成するモードである。   The DC prediction mode shown in FIG. 7C is a mode for generating a prediction pixel in the TU using an average value of the reference pixels H and V. The planar prediction mode illustrated in FIG. 7D is a mode in which prediction pixels in the TU are generated by interpolation prediction using four reference pixels of the reference pixels H and V. The CCLM prediction mode shown in FIG. 7E is a mode for generating prediction pixels in the TU as follows.

4:2:0フォーマットのY,Cb,Cr映像信号の場合、Cb及びCr信号のTBとY信号のTBとは、図8(a)及び(b)に示す関係にある。ここではNを8とした例を示している。図8(a)に示すCb及びCr信号のTBの上方及び左方に位置する周辺画素P1〜P16は、図8(b)に示すY信号のTBの上方及び左方に位置する周辺画素で補間した図示の位置の周辺補間画素Pi1〜Pi16にそれぞれ対応する。   In the case of a 4: 2: 0 format Y, Cb, Cr video signal, the TB of the Cb and Cr signals and the TB of the Y signal have the relationship shown in FIGS. 8A and 8B. Here, an example in which N is 8 is shown. The peripheral pixels P1 to P16 located above and to the left of the TB of the Cb and Cr signals shown in FIG. 8A are the peripheral pixels located above and to the left of the TB of the Y signal shown in FIG. It corresponds to the peripheral interpolation pixels Pi1 to Pi16 at the illustrated positions interpolated.

色差信号の予測値predC(i,j)は、線形モデルにより、Y信号の復号画素値をC信号の位相にシフトさせた画素値recL(i,j)を用いて式(1)で表される。(i,j)は画素位置を示す。イントラ予測部14は、式(1)を用いてCb及びCr信号の予測値predC(i,j)を生成する。式(1)におけるα及びβは、周辺画素P1〜P16及び周辺補間画素Pi1〜Pi16を用いて、例えば線形最小二乗法によって求められる。よって、α及びβをビットストリームで伝送する必要はない。 The predicted value pred C (i, j) of the chrominance signal is expressed by equation (1) using a pixel value rec L (i, j) obtained by shifting the decoded pixel value of the Y signal to the phase of the C signal by a linear model. expressed. (i, j) indicates a pixel position. The intra prediction unit 14 generates a prediction value pred C (i, j) of the Cb and Cr signals using Expression (1). Α and β in Expression (1) are obtained by, for example, a linear least square method using the peripheral pixels P1 to P16 and the peripheral interpolation pixels Pi1 to Pi16. Therefore, it is not necessary to transmit α and β as a bit stream.

predC(i,j)=αrecL(i,j)+β …(1) pred C (i, j) = αrec L (i, j) + β (1)

さらに、イントラ予測部14は、式(2)に基づき、Cr信号の予測値predCr(i,j)をCb信号の予測残差resiCb’(i,j)を用いて補正して、補正したCr信号の予測値pred*Cr(i,j)を生成する。 Further, the intra prediction unit 14 corrects the prediction value pred Cr (i, j) of the Cr signal using the prediction residual resi Cb ′ (i, j) of the Cb signal based on the equation (2), and corrects the correction. The predicted value pred * Cr (i, j) of the Cr signal is generated.

pred*Cr(i,j)=predCr(i,j)+α・resiCb’(i,j) …(2) pred * Cr (i, j) = pred Cr (i, j) + α · resi Cb ′ (i, j) (2)

このように、イントラ予測部14は、CCLM予測モードを含む複数の予測モードで予測値を生成する。CCLM予測モード以外のY信号の復号画素値を用いない予測モードは図7(a)〜(d)に例示した予測モードに限定されない。イントラ予測部14が、Y信号の予測モードと同一の予測モードを用いてCb及びCr信号の予測値を生成する場合も、予測モードは特に限定されない。   As described above, the intra prediction unit 14 generates a prediction value in a plurality of prediction modes including the CCLM prediction mode. The prediction modes that do not use the decoded pixel value of the Y signal other than the CCLM prediction mode are not limited to the prediction modes illustrated in FIGS. Even when the intra prediction unit 14 generates the prediction values of the Cb and Cr signals using the same prediction mode as the Y signal prediction mode, the prediction mode is not particularly limited.

イントラ予測部14は、High Complexity ModeとLow Complexity Modeとのうちの一方の判定モードでコスト関数値を算出して、コスト関数値が最小となるCU、PU、TUのサイズを選択し、かつ、コスト関数値が最小となる予測モードの予測値を選択する。   The intra prediction unit 14 calculates the cost function value in one determination mode of the High Complexity Mode and the Low Complexity Mode, selects the size of the CU, PU, and TU that minimizes the cost function value, and The prediction value of the prediction mode that minimizes the cost function value is selected.

High Complexity Modeとは、式(3)に基づいてコスト関数値Cost_Funcを求める判定モードである。式(3)において、Dは原画像と復号画像との差分、λはラグランジュ乗数、Rは直交変換係数を含む全て発生符号量である。High Complexity Modeでは、候補となる全ての予測モードで一旦符号化して発生符号量を算出する必要がある。   High Complexity Mode is a determination mode for obtaining a cost function value Cost_Func based on Expression (3). In Expression (3), D is a difference between the original image and the decoded image, λ is a Lagrange multiplier, and R is a generated code amount including orthogonal transform coefficients. In the High Complexity Mode, it is necessary to calculate the generated code amount by encoding once in all the prediction modes as candidates.

Cost_Func=D+λR …(3)   Cost_Func = D + λR (3)

Low Complexity Modeとは、式(4)に基づいてコスト関数値Cost_Funcを求める判定モードである。式(4)において、SA(T)Dは原画像と復号画像との差分にアダマール行列を乗算した値、QP0(QP)は量子化パラメータ(QP)の関数、Header_Bitは直交変換係数を含まない符号量である。Low Complexity Modeでは、候補となる全ての予測モードで予測画像を生成するだけでよく、復号画像を生成する必要がない。 Low Complexity Mode is a determination mode for obtaining the cost function value Cost_Func based on Expression (4). In Equation (4), SA (T) D is a value obtained by multiplying the difference between the original image and the decoded image by a Hadamard matrix, QP 0 (QP) is a function of a quantization parameter (QP), and Header_Bit includes an orthogonal transform coefficient There is no code amount. In Low Complexity Mode, prediction images need only be generated in all candidate prediction modes, and there is no need to generate decoded images.

Cost_Func=SA(T)D+QP0(QP)×Header_Bit …(4) Cost_Func = SA (T) D + QP 0 (QP) x Header_Bit (4)

図2に戻り、インター予測部15は、画像の動きを検出し、CUのサイズを上限として、最小で水平8画素、垂直4画素または水平4画素、垂直8画素のPUから最大で水平64画素、垂直64画素のPUで、フレーム間動き補償予測を行って予測値を生成する。インター予測部15は、過去のフレームもしくは未来のフレーム、または、過去及び未来のフレームを参照して予測値(予測画像)を生成する。過去及び未来のフレームはそれぞれ複数のフレームであってもよい。   Returning to FIG. 2, the inter prediction unit 15 detects the motion of the image, and sets the CU size as an upper limit to a minimum of horizontal 8 pixels, vertical 4 pixels or horizontal 4 pixels, and vertical 8 pixels from a PU of 64 horizontal pixels. The prediction value is generated by performing inter-frame motion compensation prediction with a PU of 64 vertical pixels. The inter prediction unit 15 generates a predicted value (predicted image) with reference to a past frame, a future frame, or a past and future frame. Each of the past and future frames may be a plurality of frames.

同様に、インター予測部15は、High Complexity ModeとLow Complexity Modeとのうちの一方の判定モードでコスト関数値を算出して、コスト関数値が最小となるCU、PU、TUのサイズを選択し、かつ、コスト関数値が最小となる予測モードの予測値を選択する。   Similarly, the inter prediction unit 15 calculates the cost function value in one determination mode of the High Complexity Mode and the Low Complexity Mode, and selects the size of the CU, PU, and TU that minimizes the cost function value. In addition, the prediction value of the prediction mode that minimizes the cost function value is selected.

予測値選択部16は、イントラ予測部14で選択された予測値とインター予測部15で選択された予測値とのうち、より小さい方を最終的な予測値として選択して減算器2及び加算器10に供給する。   The prediction value selection unit 16 selects the smaller one of the prediction value selected by the intra prediction unit 14 and the prediction value selected by the inter prediction unit 15 as the final prediction value, and adds the subtractor 2 and the addition. Supply to the vessel 10.

なお、Iピクチャを符号化する際にはイントラ予測部14による予測値のみが用いられる。Pピクチャ及びBピクチャを符号化する際には、イントラ予測部14で選択された予測値とインター予測部15で選択された予測値とのうちの小さい方の予測値が選択される。   Note that only the prediction value by the intra prediction unit 14 is used when encoding an I picture. When the P picture and the B picture are encoded, the smaller one of the prediction value selected by the intra prediction unit 14 and the prediction value selected by the inter prediction unit 15 is selected.

CCLM予測モード検出部17には、イントラ予測部14で選択された予測モードを示す情報が供給される。CCLM予測モード検出部17は、入力された予測モードを示す情報がCCLM予測モードを示し、イントラ予測部14においてCCLM予測モードが選択されたことを検出したら、その旨を示す検出情報を量子化部4及び逆量子化部8に供給する。検出情報を受けた量子化部4及び逆量子化部8は、量子化パラメータを補正するように構成されている。   Information indicating the prediction mode selected by the intra prediction unit 14 is supplied to the CCLM prediction mode detection unit 17. When the CCLM prediction mode detection unit 17 detects that the input information indicating the prediction mode indicates the CCLM prediction mode and the intra prediction unit 14 selects the CCLM prediction mode, the quantization unit detects the detection information indicating that fact. 4 and the inverse quantization unit 8. The quantization unit 4 and the inverse quantization unit 8 that have received the detection information are configured to correct the quantization parameter.

図9を用いて、量子化部4及び逆量子化部8の具体的な構成例、及び、量子化パラメータの補正の仕方を説明する。量子化部4は、既定量子化パラメータ保持部41、量子化パラメータ補正部42、量子化処理部43を有する。逆量子化部8は、既定量子化パラメータ保持部81、量子化パラメータ補正部82、逆量子化処理部83を有する。   A specific configuration example of the quantization unit 4 and the inverse quantization unit 8 and a method of correcting the quantization parameter will be described with reference to FIG. The quantization unit 4 includes a default quantization parameter holding unit 41, a quantization parameter correction unit 42, and a quantization processing unit 43. The inverse quantization unit 8 includes a default quantization parameter holding unit 81, a quantization parameter correction unit 82, and an inverse quantization processing unit 83.

通常の復号処理により得られるY信号とCb及びCr信号に対する量子化パラメータをそれぞれQPY,QPCb,QPCrとする。既定量子化パラメータ保持部41は、量子化パラメータQPCb及びQPCrを既定量子化パラメータとして保持している。量子化パラメータ補正部42は、前処理装置50による設定によって、第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを保持している。 Quantization parameters for the Y signal and the Cb and Cr signals obtained by the normal decoding process are QP Y , QP Cb and QP Cr , respectively. The default quantization parameter holding unit 41 holds the quantization parameters QP Cb and QP Cr as default quantization parameters. The quantization parameter correction unit 42 holds the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset according to the setting by the preprocessing device 50.

第1のオフセット値cclm_1st_QP_offsetは、量子化パラメータQPYに対する量子化パラメータQPCb及びQPCrのオフセット値を示す。第2のオフセット値cclm_2nd_QP_offsetは量子化パラメータQPCbに対する量子化パラメータQPCrのオフセット値を示す。 The first offset value cclm_1st_QP_offset indicates an offset value of the quantization parameters QP Cb and QP Cr with respect to the quantization parameter QP Y. The second offset value cclm_2nd_QP_offset indicates the offset value of the quantization parameter QP Cr with respect to the quantization parameter QP Cb .

CCLM予測モード検出部17がイントラ予測部14においてCCLM予測モードが選択されたことを検出したら、量子化パラメータ補正部42は、式(5)及び(6)のようにCCLM予測モードにおけるCb及びCr信号に対する量子化パラメータを補正する。CCLM予測モードにおけるCb及びCr信号に対する補正量子化パラメータをQPCb_cclm及びQPCr_cclmとする。 When the CCLM prediction mode detection unit 17 detects that the CCLM prediction mode is selected in the intra prediction unit 14, the quantization parameter correction unit 42 obtains Cb and Cr in the CCLM prediction mode as shown in equations (5) and (6). Correct the quantization parameter for the signal. The correction quantization parameters for the Cb and Cr signals in the CCLM prediction mode are QP Cb_cclm and QP Cr_cclm .

QPCb_cclm=Clip(QPCb+cclm_1st_QP_offset, 0, Max_QP_value) …(5)
QPCr_cclm=Clip(QPCr+cclm_1st_QP_offset+cclm_2nd_QP_offset, 0, Max_QP_value) …(6)
QP Cb_cclm = Clip (QP Cb + cclm_1st_QP_offset, 0, Max_QP_value) (5)
QP Cr_cclm = Clip (QP Cr + cclm_1st_QP_offset + cclm_2nd_QP_offset, 0, Max_QP_value) (6)

式(5)は、量子化パラメータQPCbに第1のオフセット値cclm_1st_QP_offsetを加算し、加算値を量子化パラメータの規格上の最小値(ここでは0)と最大値(Max_QP_value)との間に制限した値を量子化パラメータQPCb_cclmとするということを示す。 Expression (5) adds the first offset value cclm_1st_QP_offset to the quantization parameter QP Cb, and limits the added value between the minimum value (here, 0) and the maximum value (Max_QP_value) in the quantization parameter standard. It is shown that the obtained value is set as a quantization parameter QP Cb_cclm .

式(6)は、量子化パラメータQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算し、加算値を量子化パラメータの規格上の最小値と最大値との間に制限した値を量子化パラメータQPCr_cclmとするということを示す。 The expression (6) adds the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset to the quantization parameter QP Cr and restricts the added value between the minimum value and the maximum value of the quantization parameter standard. This indicates that the value is the quantization parameter QP Cr_cclm .

量子化パラメータQPYに対する量子化パラメータQPCbのオフセット値と量子化パラメータQPYに対する量子化パラメータQPCrのオフセット値とを個別に設定するのではなく、上記のように第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを設定すると、次のような利点を有する。 Rather than individually setting the offset value of the quantization parameter QP Cb for the quantization parameter QP Y and the offset value of the quantization parameter QP Cr for the quantization parameter QP Y , the first offset value cclm — 1st_QP_offset and Setting the second offset value cclm_2nd_QP_offset has the following advantages.

量子化パラメータQPCbと量子化パラメータQPCrとは近似するので第2のオフセット値cclm_2nd_QP_offsetは0となることがある。従って、上記のように第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを設定すれば、発生符号量を小さくすることができる。 Since the quantization parameter QP Cb and the quantization parameter QP Cr are approximated, the second offset value cclm_2nd_QP_offset may be zero. Therefore, if the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset are set as described above, the generated code amount can be reduced.

量子化パラメータ補正部42は、CCLM予測モードが選択されたときには補正量子化パラメータQPCb_cclm及びQPCr_cclmを量子化処理部43に供給し、CCLM予測モード以外の予測モードが選択されたときには既定量子化パラメータQPCb及びQPCrを量子化処理部43に供給する。 The quantization parameter correction unit 42 supplies correction quantization parameters QP Cb_cclm and QP Cr_cclm to the quantization processing unit 43 when the CCLM prediction mode is selected, and default quantization when a prediction mode other than the CCLM prediction mode is selected. The parameters QP Cb and QP Cr are supplied to the quantization processing unit 43.

量子化処理部43は、入力された直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで量子化して、量子化直交変換係数を出力する。 The quantization processing unit 43 quantizes the input orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm and outputs a quantized orthogonal transform coefficient.

逆量子化部8における既定量子化パラメータ保持部81及び量子化パラメータ補正部82の動作はそれぞれ既定量子化パラメータ保持部41及び量子化パラメータ補正部42の動作と同じである。逆量子化処理部83は、量子化直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで逆量子化して、逆量子化直交変換係数を出力する。 The operations of the default quantization parameter holding unit 81 and the quantization parameter correction unit 82 in the inverse quantization unit 8 are the same as the operations of the default quantization parameter holding unit 41 and the quantization parameter correction unit 42, respectively. The inverse quantization processing unit 83 inversely quantizes the quantized orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and outputs an inverse quantized orthogonal transform coefficient.

第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetは、ビットストリームのスライスヘッダまたはピクチャパラメータセット(Picture Parameter Set)等のシンタックスで伝送されればよい。第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetは、それぞれのスライスでCCLM予測モードがイネーブルされているときのみ伝送されればよい。   The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be transmitted with a syntax such as a slice header of a bitstream or a picture parameter set (Picture Parameter Set). The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset need only be transmitted when the CCLM prediction mode is enabled in each slice.

図10は、エントロピー符号化部5によって生成されて伝送されるシンタックスの一例を示している。図10に示すように、CCLM予測モードのイネーブルフラグが1であれば、第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを示すシンタックス要素がシンタックスに含まれて伝送される。図10におけるcclm_1st_qp_offset及びcclm_2nd_qp_offsetはそれぞれ第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを示すシンタックス要素である。   FIG. 10 shows an example of the syntax generated and transmitted by the entropy encoding unit 5. As shown in FIG. 10, if the CCLM prediction mode enable flag is 1, syntax elements indicating the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset are included in the syntax and transmitted. Cclm_1st_qp_offset and cclm_2nd_qp_offset in FIG. 10 are syntax elements indicating the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset, respectively.

画像符号化装置100は図9に示す構成を有することによって、CCLM予測モードが選択されたときには、参照元のCb及びCr信号(参照されるCb及びCr信号)と比較して参照先のCb及びCr信号の量子化ステップが大きくなって量子化値が高く設定される。従って、画像符号化装置100は、画像情報の圧縮に必要な符号量を削減して、圧縮率を向上させることができる。   The image encoding apparatus 100 has the configuration shown in FIG. 9, so that when the CCLM prediction mode is selected, the reference Cb and Cr signals are compared with the reference source Cb and Cr signals (referenced Cb and Cr signals). The quantization step of the Cr signal is increased and the quantization value is set high. Therefore, the image coding apparatus 100 can improve the compression rate by reducing the amount of code necessary to compress image information.

<画像符号化方法>
図11に示すフローチャートを用いて、画像符号化装置100で実行される本実施形態の画像符号化方法による処理を説明する。図11は、量子化部4及び逆量子化部8で実行される処理を示している。
<Image coding method>
The process by the image coding method of this embodiment performed with the image coding apparatus 100 is demonstrated using the flowchart shown in FIG. FIG. 11 shows processing executed by the quantization unit 4 and the inverse quantization unit 8.

図11において、量子化部4は、ステップS11にて、符号化しようとしているフレームのスライス内のブロックの直交変換係数を受信する。逆量子化部8は、ステップS11にて、符号化しようとしているフレームのスライス内のブロックの量子化直交変換係数を受信する。量子化部4及び逆量子化部8は、ステップS12にて、当該フレームの当該スライスにおいてCCLM予測モードがイネーブルされているか否かを判定する。   In FIG. 11, in step S11, the quantization unit 4 receives the orthogonal transform coefficient of the block in the slice of the frame to be encoded. In step S11, the inverse quantization unit 8 receives the quantized orthogonal transform coefficient of the block in the slice of the frame to be encoded. In step S12, the quantization unit 4 and the inverse quantization unit 8 determine whether the CCLM prediction mode is enabled in the slice of the frame.

量子化部4及び逆量子化部8は、CCLM予測モードがイネーブルされていれば(YES)、ステップS13にて、CCLM予測モード検出部17から検出情報が供給されるか否かに基づき、当該ブロックにおいてCCLM予測モードが選択されたかを判定する。   If the CCLM prediction mode is enabled (YES), the quantization unit 4 and the inverse quantization unit 8 determine whether the detection information is supplied from the CCLM prediction mode detection unit 17 in step S13. It is determined whether the CCLM prediction mode is selected in the block.

量子化部4及び逆量子化部8は、CCLM予測モードが選択されていれば(YES)、ステップS14にて、既定量子化パラメータQPCb及びQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算して、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。 If the CCLM prediction mode is selected (YES), the quantization unit 4 and the inverse quantization unit 8 add the first offset value cclm — 1st_QP_offset and the second value to the predetermined quantization parameters QP Cb and QP Cr in step S14. The offset values cclm_2nd_QP_offset are added to generate corrected quantization parameters QP Cb_cclm and QP Cr_cclm .

引き続き、量子化部4は、ステップS15にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて直交変換係数を量子化し、処理をステップS17に移行させる。逆量子化部8は、ステップS15にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて量子化直交変換係数を逆量子化し、処理をステップS17に移行させる。 Subsequently, in step S15, the quantization unit 4 quantizes the orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S17. In step S15, the inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S17.

一方、量子化部4及び逆量子化部8は、ステップS12にてCCLM予測モードがイネーブルされていなければ(NO)、処理をステップS16に移行させる。また、量子化部4及び逆量子化部8は、ステップS13にてCCLM予測モードが選択されていなければ(NO)、処理をステップS16に移行させる。   On the other hand, if the CCLM prediction mode is not enabled in step S12 (NO), the quantization unit 4 and the inverse quantization unit 8 shift the processing to step S16. Also, if the CCLM prediction mode is not selected in step S13 (NO), the quantization unit 4 and the inverse quantization unit 8 shift the processing to step S16.

量子化部4は、ステップS16にて、既定量子化パラメータQPCb及びQPCrを用いて直交変換係数を量子化し、処理をステップS17に移行させる。逆量子化部8は、ステップS16にて、既定量子化パラメータQPCb及びQPCrを用いて量子化直交変換係数を逆量子化し、処理をステップS17に移行させる。 In step S16, the quantization unit 4 quantizes the orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S17. In step S16, the inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S17.

量子化部4及び逆量子化部8は、ステップS17にて、それぞれ当該スライスの全てのブロックの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのブロックの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS13に戻し、次のブロックにおいて同様の処理を繰り返す。   In step S17, the quantization unit 4 and the inverse quantization unit 8 determine whether or not the quantization process and the inverse quantization process have been completed for all the blocks of the slice. If the quantization process and the inverse quantization process have not been completed for all the blocks (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S13, and repeat the same process in the next block.

全てのブロックの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、ステップS18にて、それぞれ当該フレームの全てのスライスの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのスライスの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS12に戻し、次のスライスにおいて同様の処理を繰り返す。   If the quantization process and the inverse quantization process have been completed for all the blocks (YES), the quantization unit 4 and the inverse quantization unit 8 respectively perform the quantization process for all the slices of the frame in step S18. And it is determined whether or not the inverse quantization process is completed. If the quantization process and the inverse quantization process for all slices are not completed (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S12, and repeat the same process in the next slice.

全てのスライスの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、ステップS19にて、それぞれ全てのフレームの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのフレームの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS11に戻し、次のフレームにおいて同様の処理を繰り返す。   If the quantization process and the inverse quantization process for all the slices are completed (YES), the quantization unit 4 and the inverse quantization unit 8 respectively perform the quantization process and the inverse quantum for each frame in step S19. It is determined whether or not the digitization process has been completed. If the quantization process and the inverse quantization process for all the frames are not completed (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S11 and repeat the same process in the next frame.

全てのフレームの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、処理を終了させる。   If the quantization process and the inverse quantization process for all the frames have been completed (YES), the quantization unit 4 and the inverse quantization unit 8 end the process.

<画像符号化プログラム>
図2に示す画像符号化装置100における動作をコンピュータプログラム(画像符号化プログラム)によってコンピュータに実行させることができる。図11に示す各処理を画像符号化プログラムによってコンピュータに実行させることができる。
<Image coding program>
The operation in the image encoding device 100 shown in FIG. 2 can be executed by a computer by a computer program (image encoding program). Each process shown in FIG. 11 can be executed by a computer using an image encoding program.

図12Aにおいて、コンピュータ300は、中央処理装置(CPU)301及び記憶部302を有する。コンピュータ300には、操作部310が接続されている。記憶部302には、画像符号化プログラムが記憶されている。操作部310を図1に示す前処理装置50として機能させることができる。CPU301が画像符号化プログラムを実行させることによって、コンピュータ300を、入力された画像情報を符号化する画像符号化装置100として機能させることができる。   In FIG. 12A, the computer 300 includes a central processing unit (CPU) 301 and a storage unit 302. An operation unit 310 is connected to the computer 300. The storage unit 302 stores an image encoding program. The operation unit 310 can function as the pre-processing device 50 shown in FIG. By causing the CPU 301 to execute the image encoding program, the computer 300 can function as the image encoding device 100 that encodes the input image information.

記憶部302は、半導体メモリ、ハードディスクドライブ、光ディスク等の任意の非一時的な記憶媒体である。画像符号化プログラムは、インターネット等の通信回線を介してコンピュータ300に提供されてもよい。   The storage unit 302 is an arbitrary non-temporary storage medium such as a semiconductor memory, a hard disk drive, or an optical disk. The image encoding program may be provided to the computer 300 via a communication line such as the Internet.

<画像復号装置>
図13は、画像復号装置200の具体的な構成例を示す。図13において、HRDバッファ21はビットストリームを一時的に蓄積して、エントロピー復号部22に供給する。エントロピー復号部22は、ビットストリームに含まれる直交変換係数及びシンタックスをエントロピー復号する。
<Image decoding device>
FIG. 13 shows a specific configuration example of the image decoding device 200. In FIG. 13, the HRD buffer 21 temporarily accumulates the bit stream and supplies it to the entropy decoding unit 22. The entropy decoding unit 22 entropy decodes the orthogonal transform coefficients and syntax included in the bitstream.

直交変換係数は逆量子化部23に供給される。シンタックス要素のうちイントラ予測とインター予測とのいずれが採用されたかを示す情報は、スイッチ32に供給される。シンタックス要素のうちイントラ予測に関する情報は、イントラ予測部30及びCCLM予測モード検出部33に供給される。シンタックス要素のうちインター予測に関する情報は、インター予測部31に供給される。   The orthogonal transform coefficient is supplied to the inverse quantization unit 23. Information indicating which of intra syntax and inter prediction is adopted among the syntax elements is supplied to the switch 32. Of the syntax elements, information related to intra prediction is supplied to the intra prediction unit 30 and the CCLM prediction mode detection unit 33. Information related to inter prediction among the syntax elements is supplied to the inter prediction unit 31.

逆量子化部23は、直交変換係数をTU単位で逆量子化して、逆直交変換部24に供給する。逆直交変換部24は、逆量子化された直交変換係数をTU単位で逆直交変換して、予測残差を加算器25に供給する。加算器25は、入力された予測残差と、スイッチ32より供給されるイントラ予測部30またはインター予測部31によって生成された予測値とを加算して、復号信号を生成する。復号信号はループフィルタ26及びフレームメモリ28に供給される。   The inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient in units of TU and supplies the inverse transform coefficient to the inverse orthogonal transform unit 24. The inverse orthogonal transform unit 24 performs inverse orthogonal transform on the inversely quantized orthogonal transform coefficient in units of TU, and supplies the prediction residual to the adder 25. The adder 25 adds the input prediction residual and the prediction value generated by the intra prediction unit 30 or the inter prediction unit 31 supplied from the switch 32 to generate a decoded signal. The decoded signal is supplied to the loop filter 26 and the frame memory 28.

ループフィルタ26はループフィルタ11と同様の構成であり、復号信号の符号化ノイズを低減させる。並べ替え(Re-order)バッファ27は、ループフィルタ26から供給される画素を複数フレーム分蓄積する。並べ替えバッファ27は、フレームの順が並び替えられていれば、フレームを原画像の画像情報の順に並び替えて復号画像情報として出力する。復号画像情報は、必要に応じてD/A変換器によってアナログ信号に変換される。   The loop filter 26 has the same configuration as the loop filter 11 and reduces the encoding noise of the decoded signal. The re-order buffer 27 accumulates pixels supplied from the loop filter 26 for a plurality of frames. If the frame order is rearranged, the rearrangement buffer 27 rearranges the frames in the order of the image information of the original image and outputs it as decoded image information. The decoded image information is converted into an analog signal by a D / A converter as necessary.

フレームメモリ28は、加算器25より出力されたループフィルタ26によるフィルタ処理を施していない復号信号と、ループフィルタ26によるフィルタ処理が施された復号信号とを蓄積する。スイッチ29は、フレームメモリ28に蓄積されたフィルタ処理を施していない復号信号をイントラ予測部30に供給し、フレームメモリ28に蓄積されたフィルタ処理が施された復号信号をインター予測部31に供給する。   The frame memory 28 stores the decoded signal output from the adder 25 that has not been subjected to the filter processing by the loop filter 26 and the decoded signal that has been subjected to the filter processing by the loop filter 26. The switch 29 supplies the decoded signal that has not been subjected to the filter processing accumulated in the frame memory 28 to the intra prediction unit 30, and supplies the decoded signal that has been subjected to the filter processing accumulated in the frame memory 28 to the inter prediction unit 31. To do.

イントラ予測部30は、イントラ予測の予測モードを示す情報に従ってフレーム内予測を行って、Y信号とCb及びCr信号のそれぞれの予測値を生成する。インター予測部31は、インター予測に関する情報に従ってフレーム間予測を行って、Y信号とCb及びCr信号のそれぞれの予測値を生成する。スイッチ32は、イントラ予測とインター予測とのいずれが採用されたかを示す情報に従って、イントラ予測部30またはインター予測部31によって生成された予測値を加算器25に供給する。   The intra prediction unit 30 performs intra-frame prediction according to information indicating a prediction mode of intra prediction, and generates respective prediction values of the Y signal, the Cb signal, and the Cr signal. The inter prediction unit 31 performs inter-frame prediction in accordance with information related to inter prediction, and generates respective prediction values for the Y signal and the Cb and Cr signals. The switch 32 supplies the adder 25 with the prediction value generated by the intra prediction unit 30 or the inter prediction unit 31 according to information indicating which of intra prediction and inter prediction is adopted.

CCLM予測モード検出部33は、入力された予測モードを示す情報がCCLM予測モードを示し、イントラ予測部14においてCCLM予測モードが選択されたことを検出したら、その旨を示す検出情報を逆量子化部23に供給する。検出情報を受けた逆量子化部23は、量子化パラメータを補正するように構成されている。   When the CCLM prediction mode detection unit 33 detects that the input information indicating the prediction mode indicates the CCLM prediction mode and the intra prediction unit 14 selects the CCLM prediction mode, the detection information indicating that is dequantized. To the unit 23. The inverse quantization unit 23 that has received the detection information is configured to correct the quantization parameter.

図14を用いて、逆量子化部23の具体的な構成例、及び、量子化パラメータの補正の仕方を説明する。逆量子化部23は、既定量子化パラメータ保持部231、量子化パラメータ補正部232、逆量子化処理部233を有する。逆量子化部23の動作は、図9における逆量子化部8の動作と同様である。   A specific configuration example of the inverse quantization unit 23 and a method of correcting the quantization parameter will be described with reference to FIG. The inverse quantization unit 23 includes a default quantization parameter holding unit 231, a quantization parameter correction unit 232, and an inverse quantization processing unit 233. The operation of the inverse quantization unit 23 is the same as the operation of the inverse quantization unit 8 in FIG.

既定量子化パラメータ保持部231は、既定量子化パラメータQPCb及びQPCrを保持している。CCLM予測モード検出部33がCCLM予測モードで符号化されていることを検出したら、量子化パラメータ補正部232は、式(5)及び(6)に従って、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。 The default quantization parameter holding unit 231 holds default quantization parameters QP Cb and QP Cr . When the CCLM prediction mode detection unit 33 detects that encoding is performed in the CCLM prediction mode, the quantization parameter correction unit 232 generates corrected quantization parameters QP Cb_cclm and QP Cr_cclm according to equations (5) and (6). To do.

量子化パラメータ補正部232は、CCLM予測モードで符号化されていることが検出されたときには補正量子化パラメータQPCb_cclm及びQPCr_cclmを逆量子化処理部233に供給し、CCLM予測モード以外の予測モードで符号化されていることが検出されたときには既定量子化パラメータQPCb及びQPCrを逆量子化処理部233に供給する。 When it is detected that the encoding is performed in the CCLM prediction mode, the quantization parameter correction unit 232 supplies the corrected quantization parameters QP Cb_cclm and QP Cr_cclm to the inverse quantization processing unit 233, so that the prediction modes other than the CCLM prediction mode When it is detected that the data is encoded by the above, the predetermined quantization parameters QP Cb and QP Cr are supplied to the inverse quantization processing unit 233.

逆量子化処理部233は、入力された直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで逆量子化して、逆量子化直交変換係数を出力する。 The inverse quantization processing unit 233 inversely quantizes the input orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and outputs an inverse quantization orthogonal transform coefficient.

画像復号装置200は図14に示す構成を有することによって、CCLM予測モードで画像が符号化され、参照元のCb及びCr信号と比較して参照先のCb及びCr信号の量子化値が高く設定されることによって圧縮率が向上したビットストリームを復号することができる。   The image decoding apparatus 200 has the configuration shown in FIG. 14, whereby an image is encoded in the CCLM prediction mode, and the quantization value of the reference destination Cb and Cr signal is set higher than that of the reference source Cb and Cr signal. By doing so, it is possible to decode a bit stream with an improved compression rate.

<画像復号方法>
図15に示すフローチャートを用いて、画像復号装置200で実行される本実施形態の画像復号方法による処理を説明する。図15は、逆量子化部23で実行される処理を示している。
<Image decoding method>
The process by the image decoding method of this embodiment performed with the image decoding apparatus 200 is demonstrated using the flowchart shown in FIG. FIG. 15 shows processing executed by the inverse quantization unit 23.

図15において、逆量子化部23は、ステップS21にて、復号しようとしているフレームのスライス内のブロックの直交変換係数を受信する。逆量子化部23は、ステップS22にて、CCLM予測モードのイネーブルフラグが1であるか否かに基づき、当該スライスにおいてCCLM予測モードが用いられているか否かを判定する。   In FIG. 15, the inverse quantization unit 23 receives the orthogonal transform coefficient of the block in the slice of the frame to be decoded in step S21. In step S22, the inverse quantization unit 23 determines whether the CCLM prediction mode is used in the slice based on whether the enable flag of the CCLM prediction mode is 1.

逆量子化部23は、CCLM予測モードが用いられていれば(YES)、ステップS23にて、エントロピー復号部22で復号された第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを受信する。逆量子化部23は、CCLM予測モード検出部33から検出情報が供給されるか否かに基づき、当該ブロックはCCLM予測モードで符号化されているか否かを判定する。   If the CCLM prediction mode is used (YES), the inverse quantization unit 23 receives the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset decoded by the entropy decoding unit 22 in step S23. Based on whether detection information is supplied from the CCLM prediction mode detection unit 33, the inverse quantization unit 23 determines whether the block is encoded in the CCLM prediction mode.

逆量子化部23は、当該ブロックがCCLM予測モードで符号化されていれば(YES)、ステップS25にて、既定量子化パラメータQPCb及びQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算して、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。 If the block is encoded in the CCLM prediction mode (YES), the inverse quantization unit 23 adds the first offset value cclm_1st_QP_offset and the second offset to the predetermined quantization parameters QP Cb and QP Cr in step S25. The value cclm_2nd_QP_offset is added to generate corrected quantization parameters QP Cb_cclm and QP Cr_cclm .

引き続き、逆量子化部23は、ステップS26にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて直交変換係数を逆量子化し、処理をステップS28に移行させる。 Subsequently, in step S26, the inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S28.

一方、逆量子化部23は、ステップS22にてCCLM予測モードが用いられていなければ(NO)、処理をステップS27に移行させる。また、逆量子化部23は、ステップS24にて当該ブロックがCCLM予測モードで符号化されていなければ(NO)、処理をステップS27に移行させる。逆量子化部23は、ステップS27にて、既定量子化パラメータQPCb及びQPCrを用いて直交変換係数を逆量子化し、処理をステップS28に移行させる。 On the other hand, if the CCLM prediction mode is not used in step S22 (NO), the inverse quantization unit 23 shifts the process to step S27. Moreover, the inverse quantization part 23 will transfer a process to step S27, if the said block is not encoded by CCLM prediction mode in step S24 (NO). In step S27, the inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S28.

逆量子化部23は、ステップS28にて、当該スライスの全てのブロックの逆量子化処理が完了しかた否かを判定する。全てのブロックの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS24に戻し、次のブロックにおいて同様の処理を繰り返す。   In step S28, the inverse quantization unit 23 determines whether or not the inverse quantization processing of all the blocks of the slice has been completed. If the inverse quantization process has not been completed for all the blocks (NO), the inverse quantization unit 23 returns the process to step S24 and repeats the same process in the next block.

全てのブロックの逆量子化処理が完了していれば(YES)、逆量子化部23は、ステップS29にて、当該フレームの全てのスライスの逆量子化処理が完了しかた否かを判定する。全てのスライスの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS22に戻し、次のスライスにおいて同様の処理を繰り返す。   If the inverse quantization process for all the blocks has been completed (YES), the inverse quantization unit 23 determines whether or not the inverse quantization process for all slices of the frame has been completed in step S29. If the inverse quantization process has not been completed for all slices (NO), the inverse quantization unit 23 returns the process to step S22 and repeats the same process in the next slice.

全てのスライスの逆量子化処理が完了していれば(YES)、逆量子化部23は、ステップS30にて、全てのフレームの逆量子化処理が完了しかた否かを判定する。全てのフレームの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS21に戻し、次のフレームにおいて同様の処理を繰り返す。全てのフレームの逆量子化処理が完了していれば(YES)、逆量子化部23は、処理を終了させる。   If the inverse quantization process for all slices has been completed (YES), the inverse quantization unit 23 determines whether the inverse quantization process for all frames has been completed in step S30. If the inverse quantization process has not been completed for all the frames (NO), the inverse quantization unit 23 returns the process to step S21 and repeats the same process in the next frame. If the inverse quantization process for all the frames has been completed (YES), the inverse quantization unit 23 ends the process.

<画像復号プログラム>
図13に示す画像復号装置200における動作をコンピュータプログラム(画像復号プログラム)によってコンピュータに実行させることができる。図15に示す各処理を画像復号プログラムによってコンピュータに実行させることができる。
<Image decoding program>
The operation of the image decoding apparatus 200 shown in FIG. 13 can be executed by a computer by a computer program (image decoding program). Each process shown in FIG. 15 can be executed by a computer using an image decoding program.

図12Bに示すように、コンピュータは図12Aと同様の構成であり、図12Aと共通部分の説明を省略する。図12Bにおいて、記憶部302には、画像符号化プログラムに代えて画像復号プログラムが記憶されている。CPU301が画像復号プログラムを実行させることによって、コンピュータ300を、符号化されているビットストリームを復号する画像復号装置200として機能させることができる。   As shown in FIG. 12B, the computer has the same configuration as that in FIG. 12A, and the description of the common parts with FIG. 12A is omitted. In FIG. 12B, the storage unit 302 stores an image decoding program instead of the image encoding program. By causing the CPU 301 to execute the image decoding program, the computer 300 can function as the image decoding device 200 that decodes the encoded bit stream.

記憶部302に画像符号化プログラム及び画像復号プログラムを記憶させて、コンピュータ300を、画像符号化装置100及び画像復号装置200として機能させることも可能である。   It is also possible to store the image encoding program and the image decoding program in the storage unit 302 so that the computer 300 functions as the image encoding device 100 and the image decoding device 200.

<変形例>
以上説明した本実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムにおいて、次のような変形例とすることができる。
<Modification>
In the image encoding device, the image encoding method, and the image encoding program, and the image decoding device, the image decoding method, and the image decoding program of the present embodiment described above, the following modifications can be made. .

第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetをビットストリームで伝送せず、予め定めた固定値としてもよい。   The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be set as a predetermined fixed value without being transmitted in the bit stream.

量子化しようとする当該ブロックが所属するサブLCU(subLCU)に対する量子化パラメータの値に応じて、異なる値の第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetが用いられてもよい。サブLCUとはCTUよりも小さいサイズの最大符号化ユニットである。例えば、ビットレートが高い(量子化パラメータが低い)ときには既定量子化パラメータQPCb及びQPCrに対してオフセット値を加算せず、ビットレートが低い(量子化パラメータが高い)ときにはオフセット値を加算してもよい。 Different values of the first offset value cclm — 1st_QP_offset and the second offset value cclm — 2nd_QP_offset may be used depending on the value of the quantization parameter for the sub-LCU (subLCU) to which the block to be quantized belongs. A sub-LCU is a maximum coding unit having a size smaller than that of a CTU. For example, when the bit rate is high (the quantization parameter is low), the offset value is not added to the default quantization parameters QP Cb and QP Cr , and when the bit rate is low (the quantization parameter is high), the offset value is added. May be.

既定量子化パラメータQPCb及びQPCrに対してオフセット値を加算するか否かを選択する量子化パラメータの閾値をビットストリームで伝送してもよい。量子化パラメータの閾値は、スライスヘッダまたはピクチャパラメータセットで伝送されればよい。 A threshold of a quantization parameter for selecting whether or not to add an offset value to the predetermined quantization parameters QP Cb and QP Cr may be transmitted as a bit stream. The threshold value of the quantization parameter may be transmitted using a slice header or a picture parameter set.

上述した本実施形態においては、画像情報としてY,Cb,Cr映像信号を例としたが、色空間はY,Cb,Crに限定されず、Y,Co,Cg映像信号であってもよい。画像情報は、輝度成分と2つの色差信号よりなる色成分を含む任意の色空間の映像信号であればよい。本実施形態においては、4:2:0フォーマットのY,Cb,Cr映像信号を例としたが、Y,Cb,Cr映像信号は4:2:2フォーマットまたは4:4:4フォーマットであってもよい。   In the present embodiment described above, Y, Cb, and Cr video signals are taken as examples of image information. However, the color space is not limited to Y, Cb, and Cr, and may be Y, Co, and Cg video signals. The image information may be a video signal in an arbitrary color space including a luminance component and a color component composed of two color difference signals. In this embodiment, the Y, Cb, Cr video signal in the 4: 2: 0 format is taken as an example, but the Y, Cb, Cr video signal is in the 4: 2: 2 format or the 4: 4: 4 format. Also good.

上述した本実施形態においては、イントラ予測においてCCLM予測モードを用いているが、インター予測においてCCLM予測モードを用いてもよい。即ち、画像符号化装置100は、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値を生成する予測値生成部を備えていればよい。画像復号装置200も同様である。   In the present embodiment described above, the CCLM prediction mode is used for intra prediction, but the CCLM prediction mode may be used for inter prediction. That is, the image coding apparatus 100 predicts a color component without using a first prediction mode in which a prediction value of a color component is generated by a linear model using the decoded pixel value of the luminance component, and a decoded pixel value of the luminance signal. What is necessary is just to provide the predicted value generation part which generates the predicted value of the color component in each block in a picture using either of the 2nd prediction modes which generate a value. The same applies to the image decoding apparatus 200.

図2において、イントラ予測部14が予測値生成部であり、インター予測部15が予測値生成部であってもよく、イントラ予測部14及びインター予測部15が予測値生成部であってもよい。図13において、イントラ予測部30が予測値生成部であり、インター予測部31が予測値生成部であってもよく、イントラ予測部30及びインター予測部31が予測値生成部であってもよい。   In FIG. 2, the intra prediction unit 14 may be a prediction value generation unit, the inter prediction unit 15 may be a prediction value generation unit, and the intra prediction unit 14 and the inter prediction unit 15 may be prediction value generation units. . In FIG. 13, the intra prediction unit 30 may be a prediction value generation unit, the inter prediction unit 31 may be a prediction value generation unit, and the intra prediction unit 30 and the inter prediction unit 31 may be prediction value generation units. .

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。本実施形態においては、輝度信号の復号画素値を用いて色差信号の予測値を生成するCCLM予測モードを例としたが、Cb信号の復号画素値を用いてCr信号の予測値を生成するCCLM予測モードにも適用可能である。即ち、映像信号(輝度信号及び色差信号)のコンポーネント間に依存関係があれば、本実施形態の構成を適用することができる。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. In the present embodiment, the CCLM prediction mode for generating the predicted value of the color difference signal using the decoded pixel value of the luminance signal is taken as an example, but the CCLM for generating the predicted value of the Cr signal using the decoded pixel value of the Cb signal. It is also applicable to the prediction mode. That is, the configuration of the present embodiment can be applied if there is a dependency relationship between components of the video signal (luminance signal and color difference signal).

画像符号化装置100及び画像復号装置200は、集積回路等のハードウェアで構成されてもよく、ソフトウェアで構成されてもよく、両者が混在してもよい。画像符号化方法及び画像復号方法は、集積回路またはコンピュータ等の任意のハードウェア資源が実行すればよい。   The image encoding device 100 and the image decoding device 200 may be configured by hardware such as an integrated circuit, may be configured by software, or both may be mixed. The image encoding method and the image decoding method may be executed by any hardware resource such as an integrated circuit or a computer.

2 減算器
3 直交変換部
4 量子化部
5 エントロピー符号化部
8,23 逆量子化部
9,24 逆直交変換部
10,25 加算器
14,30 イントラ予測部(予測値生成部)
15,31 インター予測部(予測値生成部)
22 エントロピー復号部
42,82,232 量子化パラメータ補正部
100 画像符号化装置
200 画像復号装置
300 コンピュータ
302 記憶部
2 Subtractor 3 Orthogonal Transformer 4 Quantizer 5 Entropy Encoder 8, 23 Inverse Quantizer 9, 24 Inverse Orthogonal Transformer 10, 25 Adder 14, 30 Intra Predictor (Predicted Value Generator)
15, 31 Inter prediction unit (prediction value generation unit)
22 Entropy Decoding Unit 42, 82, 232 Quantization Parameter Correction Unit 100 Image Encoding Device 200 Image Decoding Device 300 Computer 302 Storage Unit

Claims (10)

輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値を生成する予測値生成部と、
原画像の色成分より前記予測値を減算して予測残差を生成する減算器と、
前記予測残差を直交変換して直交変換係数を生成する直交変換部と、
前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する量子化部と、
を備えることを特徴とする画像符号化装置。
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal A prediction value generation unit that generates a prediction value of a color component in each block in the picture using any one of
A subtractor that generates a prediction residual by subtracting the prediction value from a color component of an original image;
An orthogonal transform unit that orthogonally transforms the prediction residual to generate an orthogonal transform coefficient;
When the prediction value generation unit selects the first prediction mode to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, A quantization unit for quantizing the orthogonal transform coefficient;
An image encoding device comprising:
前記量子化部は、既定量子化パラメータにオフセット値を加算して補正量子化パラメータを生成する量子化パラメータ補正部を有し、
前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定するために、前記直交変換係数を、前記補正量子化パラメータを用いて量子化する
ことを特徴とする請求項1に記載の画像符号化装置。
The quantization unit includes a quantization parameter correction unit that generates a correction quantization parameter by adding an offset value to a predetermined quantization parameter;
When the prediction value generation unit selects the first prediction mode to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component. The image encoding apparatus according to claim 1, wherein the orthogonal transform coefficient is quantized using the corrected quantization parameter.
前記オフセット値を示すシンタックス要素を含むシンタックスをビットストリームにおいて伝送することを特徴とする請求項2に記載の画像符号化装置。   The image coding apparatus according to claim 2, wherein a syntax including a syntax element indicating the offset value is transmitted in a bitstream. 輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成し、
原画像の色成分より前記予測値を減算して予測残差を生成し、
前記予測残差を直交変換して直交変換係数を生成し、
前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する
ことを特徴とする画像符号化方法。
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal Is used to generate a color component prediction value,
Subtract the prediction value from the color component of the original image to generate a prediction residual,
Orthogonal transform the prediction residual to generate orthogonal transform coefficients;
When the first prediction mode is selected to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, and the orthogonal transform coefficient is quantized. An image encoding method characterized by comprising:
コンピュータに、
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成するステップと、
原画像の色成分より前記予測値を減算して予測残差を生成するステップと、
前記予測残差を直交変換して直交変換係数を生成するステップと、
前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化するステップと、
を実行させることを特徴とする画像符号化プログラム。
On the computer,
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal Generating a predicted value of a color component using any of
Subtracting the prediction value from the color component of the original image to generate a prediction residual;
Orthogonally transforming the prediction residual to generate orthogonal transform coefficients;
When the first prediction mode is selected to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, and the orthogonal transform coefficient is quantized. Steps to
An image encoding program characterized in that
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するエントロピー復号部と、
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、前記エントロピー復号部によってエントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する逆量子化部と、
を備えることを特徴とする画像復号装置。
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal An entropy decoding unit that entropy-decodes a bitstream in which a predicted value of a color component in each block in the picture is generated and encoded, and
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the orthogonal transform coefficient entropy-decoded by the entropy decoding unit is compared with the reference color component for reference. An inverse quantization unit configured to inversely quantize by setting the quantization value of the previous color component high;
An image decoding apparatus comprising:
前記逆量子化部は、既定量子化パラメータにオフセット値を加算して補正量子化パラメータを生成する量子化パラメータ補正部を有し、
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、参照元の色成分と比較して参照先の色成分の量子化値を高く設定するために、前記直交変換係数を、前記補正量子化パラメータを用いて逆量子化する
ことを特徴とする請求項6に記載の画像復号装置。
The inverse quantization unit includes a quantization parameter correction unit that generates a correction quantization parameter by adding an offset value to a predetermined quantization parameter;
To set a quantization value of a reference color component higher than that of a reference color component in a block in which a prediction value of a color component is generated and encoded using the first prediction mode The image decoding apparatus according to claim 6, wherein the orthogonal transform coefficient is inversely quantized using the corrected quantization parameter.
前記エントロピー復号部は、前記ビットストリームにおいて伝送される前記オフセット値を示すシンタックス要素を含むシンタックスを受信し、
前記逆量子化部は、前記既定量子化パラメータに前記エントロピー復号部が受信した前記オフセット値を加算して前記補正量子化パラメータを生成する
ことを特徴とする請求項7に記載の画像復号装置。
The entropy decoding unit receives a syntax including a syntax element indicating the offset value transmitted in the bitstream;
The image decoding apparatus according to claim 7, wherein the inverse quantization unit generates the corrected quantization parameter by adding the offset value received by the entropy decoding unit to the predetermined quantization parameter.
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号し、
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する
ことを特徴とする画像復号方法。
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal And entropy decoding the bitstream in which the predicted value of the color component in each block in the picture is generated and encoded,
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the color component of the reference destination is compared. An image decoding method, characterized in that a quantization value is set high and inverse quantization is performed.
コンピュータに、
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するステップと、
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化するステップと、
を実行させることを特徴とする画像復号プログラム。
On the computer,
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal And entropy decoding a bitstream in which a predicted value of a color component in each block in the picture is generated and encoded using any of
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the color component of the reference destination is compared. A step of dequantizing by setting a high quantization value;
An image decoding program characterized in that
JP2016188120A 2016-09-27 2016-09-27 Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program Pending JP2018056685A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016188120A JP2018056685A (en) 2016-09-27 2016-09-27 Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program
PCT/JP2017/031137 WO2018061588A1 (en) 2016-09-27 2017-08-30 Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188120A JP2018056685A (en) 2016-09-27 2016-09-27 Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program

Publications (1)

Publication Number Publication Date
JP2018056685A true JP2018056685A (en) 2018-04-05

Family

ID=61759556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188120A Pending JP2018056685A (en) 2016-09-27 2016-09-27 Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program

Country Status (2)

Country Link
JP (1) JP2018056685A (en)
WO (1) WO2018061588A1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020060256A1 (en) * 2018-09-22 2020-03-26 엘지전자 주식회사 Method and device for decoding images using cclm prediction in image coding system
WO2020171644A1 (en) * 2019-02-22 2020-08-27 엘지전자 주식회사 Cclm prediction-based image decoding method and apparatus in image coding system
WO2020180119A1 (en) * 2019-03-06 2020-09-10 엘지전자 주식회사 Image decoding method based on cclm prediction, and device therefor
WO2020182168A1 (en) * 2019-03-11 2020-09-17 杭州海康威视数字技术股份有限公司 Decoding method and device
CN112425166A (en) * 2018-07-12 2021-02-26 华为技术有限公司 Intra-prediction using cross-component linear model in video coding
CN112789858A (en) * 2018-10-08 2021-05-11 华为技术有限公司 Intra-frame prediction method and device
CN112997484A (en) * 2018-11-06 2021-06-18 北京字节跳动网络技术有限公司 Multi-parameter based intra prediction
CN113545063A (en) * 2019-02-22 2021-10-22 华为技术有限公司 Method and apparatus for intra prediction using linear model
RU2761512C1 (en) * 2019-01-02 2021-12-09 Шарп Кабусики Кайся Prediction image forming apparatus, moving image decoding apparatus, moving image encoding apparatus, and method for forming prediction images
CN113906753A (en) * 2019-04-24 2022-01-07 字节跳动有限公司 Constraint of quantized residual differential pulse codec modulation representation of coded video
CN113992916A (en) * 2019-03-25 2022-01-28 Oppo广东移动通信有限公司 Image component prediction method, encoder, decoder, and storage medium
US11902507B2 (en) 2018-12-01 2024-02-13 Beijing Bytedance Network Technology Co., Ltd Parameter derivation for intra prediction
US12022081B2 (en) 2019-04-30 2024-06-25 Huawei Technologies Co., Ltd. Intra prediction method and apparatus for video sequence
US12075094B2 (en) 2019-05-02 2024-08-27 Bytedance Inc. Signaling in transform skip mode

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019213096A (en) * 2018-06-06 2019-12-12 Kddi株式会社 Image decoding device, image encoding device, image processing system, image decoding method, and program
CN112585967B (en) * 2018-08-15 2024-06-07 日本放送协会 Intra-frame prediction device, image encoding device, image decoding device, and program
JP7518065B2 (en) 2018-10-12 2024-07-17 オッポ広東移動通信有限公司 Video image component prediction method and apparatus - Computer storage medium
WO2020116455A1 (en) * 2018-12-07 2020-06-11 シャープ株式会社 Prediction image generation device, moving image decoding device, moving image coding device, and prediction image generation method
CN117834913A (en) * 2018-12-20 2024-04-05 夏普株式会社 Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method
BR112021016689A2 (en) 2019-03-08 2021-10-13 Beijing Bytedance Network Technology Co., Ltd. VIDEO PROCESSING METHOD, DEVICE IN A VIDEO SYSTEM, AND COMPUTER PROGRAM PRODUCT STORED ON NON-TRANSITORY COMPUTER-READable MEDIA
MX2021012674A (en) 2019-04-23 2021-11-12 Beijing Bytedance Network Tech Co Ltd Methods for cross component dependency reduction.
BR112021021661A2 (en) 2019-05-08 2021-12-21 Beijing Bytedance Network Tech Co Ltd Method and apparatus for processing video data, and non-transitory computer-readable storage and recording media
JP7418478B2 (en) 2019-06-22 2024-01-19 北京字節跳動網絡技術有限公司 Syntax elements for chroma residual scaling
CN117395396A (en) 2019-07-07 2024-01-12 北京字节跳动网络技术有限公司 Signaling of chroma residual scaling
JP7001668B2 (en) * 2019-12-26 2022-01-19 Kddi株式会社 Image decoder, image decoding method and program
CN118435599A (en) * 2021-12-21 2024-08-02 联发科技股份有限公司 Method and apparatus for cross-component linear model for inter-prediction in video codec systems
WO2024074125A1 (en) * 2022-10-07 2024-04-11 Mediatek Inc. Method and apparatus of implicit linear model derivation using multiple reference lines for cross-component prediction

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1578477B (en) * 2003-07-16 2011-05-04 三星电子株式会社 Video encoding/decoding apparatus and method for color image
JP5742049B2 (en) * 2011-01-05 2015-07-01 学校法人成蹊学園 Color moving picture coding method and color moving picture coding apparatus
KR102245088B1 (en) * 2013-04-08 2021-04-28 지이 비디오 컴프레션, 엘엘씨 Inter-component prediction
KR102051193B1 (en) * 2014-09-12 2019-12-02 브이아이디 스케일, 인크. Inter-component de-correlation for video coding

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11877006B2 (en) 2018-07-12 2024-01-16 Huawei Technologies Co., Ltd. Intra-prediction using a cross-component linear model in video coding
CN112425166A (en) * 2018-07-12 2021-02-26 华为技术有限公司 Intra-prediction using cross-component linear model in video coding
CN112425166B (en) * 2018-07-12 2023-03-10 华为技术有限公司 Intra-prediction in video coding using cross-component linear model
US11528506B2 (en) 2018-07-12 2022-12-13 Huawei Technologies Co., Ltd. Intra-prediction using a cross-component linear model in video coding
US11463686B2 (en) 2018-09-22 2022-10-04 Lg Electronics Inc. Method and device for decoding images using CCLM prediction in image coding system
WO2020060256A1 (en) * 2018-09-22 2020-03-26 엘지전자 주식회사 Method and device for decoding images using cclm prediction in image coding system
US11683480B2 (en) 2018-09-22 2023-06-20 Lg Electronics Inc. Method and device for decoding images using CCLM prediction in image coding system
CN112789858A (en) * 2018-10-08 2021-05-11 华为技术有限公司 Intra-frame prediction method and device
US11930185B2 (en) 2018-11-06 2024-03-12 Beijing Bytedance Network Technology Co., Ltd. Multi-parameters based intra prediction
CN113039791B (en) * 2018-11-06 2024-02-23 北京字节跳动网络技术有限公司 Complexity reduction in parameter derivation for intra prediction
CN112997484A (en) * 2018-11-06 2021-06-18 北京字节跳动网络技术有限公司 Multi-parameter based intra prediction
CN113039791A (en) * 2018-11-06 2021-06-25 北京字节跳动网络技术有限公司 Complexity reduction in parameter derivation for intra prediction
US11902507B2 (en) 2018-12-01 2024-02-13 Beijing Bytedance Network Technology Co., Ltd Parameter derivation for intra prediction
RU2761512C1 (en) * 2019-01-02 2021-12-09 Шарп Кабусики Кайся Prediction image forming apparatus, moving image decoding apparatus, moving image encoding apparatus, and method for forming prediction images
US12063350B2 (en) 2019-02-22 2024-08-13 Huawei Technologies Co., Ltd. Method and apparatus for intra prediction using linear model
US11973977B2 (en) 2019-02-22 2024-04-30 Lg Electronics Inc. CCLM prediction-based image decoding method and apparatus in image coding system
CN113545063A (en) * 2019-02-22 2021-10-22 华为技术有限公司 Method and apparatus for intra prediction using linear model
WO2020171644A1 (en) * 2019-02-22 2020-08-27 엘지전자 주식회사 Cclm prediction-based image decoding method and apparatus in image coding system
WO2020180119A1 (en) * 2019-03-06 2020-09-10 엘지전자 주식회사 Image decoding method based on cclm prediction, and device therefor
WO2020182168A1 (en) * 2019-03-11 2020-09-17 杭州海康威视数字技术股份有限公司 Decoding method and device
WO2020182169A1 (en) * 2019-03-11 2020-09-17 杭州海康威视数字技术股份有限公司 Decoding method and device
CN111698501A (en) * 2019-03-11 2020-09-22 杭州海康威视数字技术股份有限公司 Decoding method and device
CN111698501B (en) * 2019-03-11 2022-03-01 杭州海康威视数字技术股份有限公司 Decoding method and device
CN113992916A (en) * 2019-03-25 2022-01-28 Oppo广东移动通信有限公司 Image component prediction method, encoder, decoder, and storage medium
CN113906753B (en) * 2019-04-24 2023-12-01 字节跳动有限公司 Constraint of quantized residual differential pulse codec modulation representation for codec video
CN113906753A (en) * 2019-04-24 2022-01-07 字节跳动有限公司 Constraint of quantized residual differential pulse codec modulation representation of coded video
US11985323B2 (en) 2019-04-24 2024-05-14 Bytedance Inc. Quantized residual differential pulse code modulation representation of coded video
US12022081B2 (en) 2019-04-30 2024-06-25 Huawei Technologies Co., Ltd. Intra prediction method and apparatus for video sequence
US12075094B2 (en) 2019-05-02 2024-08-27 Bytedance Inc. Signaling in transform skip mode

Also Published As

Publication number Publication date
WO2018061588A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
WO2018061588A1 (en) Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program
US11356665B2 (en) Method for determining color difference component quantization parameter and device using the method
KR102313195B1 (en) Methods And Apparatuses For Encoding and Decoding Quantization marix
CN105144718B (en) When skipping conversion for damaging the intra prediction mode of decoding
JP5922244B2 (en) Sample adaptive offset merged with adaptive loop filter in video coding
EP2829064B1 (en) Parameter determination for exp-golomb residuals binarization for lossless intra hevc coding
CN104811714B (en) Use the enhancing intraframe predictive coding of plane expression
JP2018137761A (en) Video coding method and device, and video decoding method and device
JP2011130410A (en) Encoding method, decoding method and apparatus thereof
KR20100133006A (en) Dynamic image encoding/decoding method and device
WO2020036132A1 (en) Image encoding device, image decoding device, and program
US11039166B2 (en) Devices and methods for using base layer intra prediction mode for enhancement layer intra mode prediction
JP7357736B2 (en) Encoding device, decoding device, and program
WO2016194380A1 (en) Moving image coding device, moving image coding method and recording medium for storing moving image coding program
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
JP7130890B2 (en) Encoding device, decoding device, and program
KR102505364B1 (en) Decryption device, program, and decryption method
KR102448226B1 (en) Deblocking filter control device and program
JP7441638B2 (en) Encoding device, decoding device, and program
JP7451161B2 (en) Encoding device, decoding device, and program
JP6402520B2 (en) Encoding apparatus, method, program, and apparatus
JP7396883B2 (en) Encoding device, decoding device, and program
JP7388900B2 (en) Encoding device, decoding device, and program
JP2016146602A (en) Video encoder, encoding method and program