JP2015019257A - Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method - Google Patents

Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method Download PDF

Info

Publication number
JP2015019257A
JP2015019257A JP2013145408A JP2013145408A JP2015019257A JP 2015019257 A JP2015019257 A JP 2015019257A JP 2013145408 A JP2013145408 A JP 2013145408A JP 2013145408 A JP2013145408 A JP 2013145408A JP 2015019257 A JP2015019257 A JP 2015019257A
Authority
JP
Japan
Prior art keywords
prediction
image
color
color component
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013145408A
Other languages
Japanese (ja)
Inventor
守屋 芳美
Yoshimi Moriya
芳美 守屋
彰 峯澤
Akira Minesawa
彰 峯澤
亮史 服部
Akifumi Hattori
亮史 服部
一之 宮澤
Kazuyuki Miyazawa
一之 宮澤
関口 俊一
Shunichi Sekiguchi
俊一 関口
村上 篤道
Hiromichi Murakami
篤道 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013145408A priority Critical patent/JP2015019257A/en
Publication of JP2015019257A publication Critical patent/JP2015019257A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve coding efficiency of a luminance signal, a color difference signal or individual color components while a circuit scale is suppressed to be small when signals including much more color components than YUV4:4:4 signals, RGB signals and three primary colors are coded.SOLUTION: A prediction image generating section generates a prediction image by performing inter-frame prediction decoding on a color component except for a first color component with a decoded image having the color component which is the same as the color component of a decoding object, which is included in other decoded images, as a reference image, or generates the prediction image of the color component except for the first color component in the decoding object by performing the inter-frame prediction decoding by using a correlation parameter showing correlation between a pixel of the decoded image having the first color component included in the same decoded image, and a pixel of the decoding object having the color component except for the first color component in the decoding object, and the decoded image of the first color component.

Description

この発明は、カラー動画像を高効率で符号化を行うカラー動画像符号化装置及びカラー動画像符号化方法と、高効率で符号化されているカラー動画像を復号するカラー動画像復号装置及びカラー動画像復号方法とに関するものである。   The present invention relates to a color moving image encoding device and a color moving image encoding method for encoding a color moving image with high efficiency, a color moving image decoding device for decoding a color moving image encoded with high efficiency, and The present invention relates to a color moving image decoding method.

例えば、以下の非特許文献1に記載されている従来のカラー動画像符号化装置では、入力されたカラー画像を所定の大きさの最大符号化ブロックに分割し、さらに、最大符号化ブロックをより細かい符号化ブロックに階層分割する。
また、その符号化ブロックをさらに細かい予測ブロックに分割し、その予測ブロックに対する画面内予測や動き補償予測を実施することで予測誤差を生成する。
また、その予測誤差を符号化ブロック内で階層的に変換ブロックに分割し、それぞれの変換係数をエントロピー符号化することで高い圧縮率を達成している。
For example, in the conventional color moving image encoding device described in Non-Patent Document 1 below, an input color image is divided into maximum encoding blocks of a predetermined size, and the maximum encoding block is further divided. Hierarchy is divided into fine coding blocks.
Further, the encoded block is divided into finer prediction blocks, and prediction errors are generated by performing intra prediction and motion compensation prediction on the prediction block.
Further, the prediction error is hierarchically divided into transform blocks in the coding block, and each transform coefficient is entropy coded to achieve a high compression rate.

変換ブロックについては、予測ブロックが2N×Nサイズや、2N×0.5Nサイズの長方形である場合には、図13に示すように、長辺と短辺が2N×0.5Nの長さとなる非正方形変換ブロックに、変換ブロックを四分木状に階層的に分割することにより、変換ブロックが予測ブロックの境界を跨がないようにするとともに、変換係数のエントロピー符号化をN×Nサイズの正方形変換ブロックと共通する手段で圧縮して、高い圧縮率を達成している。   For the transform block, when the prediction block is a rectangle of 2N × N size or 2N × 0.5N size, the long side and the short side have a length of 2N × 0.5N as shown in FIG. By dividing the transform block hierarchically into a quadtree like a non-square transform block, the transform block does not cross the boundary of the prediction block, and entropy coding of the transform coefficient is performed in N × N size. A high compression ratio is achieved by compressing by means common to the square transform block.

従来のカラー動画像符号化装置では、YUV4:2:0信号の符号化を行う場合、色差信号の予測ブロックおよび変換ブロックのサイズを、輝度信号の変換ブロックサイズの縦横半分のサイズに固定することで、色差信号の変換ブロックサイズに係る情報を符号化する必要をなくすとともに、変換係数のエントロピー符号化を輝度信号と共通する変換係数エントロピー符号化手段で圧縮することで、少ない回路規模で色差信号の符号化効率を高めている。   In the conventional color moving image encoding apparatus, when encoding a YUV 4: 2: 0 signal, the size of the prediction block and the conversion block of the color difference signal is fixed to the vertical and horizontal half size of the conversion block size of the luminance signal. Therefore, it is not necessary to encode information related to the transform block size of the color difference signal, and the color difference signal can be reduced with a small circuit scale by compressing the entropy coding of the transform coefficient with the transform coefficient entropy encoding means common to the luminance signal. Enhancing encoding efficiency.

B. Bross,W.-J. Han,J.-R. Ohm,G. J. Sullivan,Y.-K. Wang and T. Wiegand,"High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Consent)",doc. JCTVC-L1003,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11,12th Meeting,2013B. Bross, W.-J. Han, J.-R. Ohm, GJ Sullivan, Y.-K. Wang and T. Wiegand, "High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Consent) ", Doc. JCTVC-L1003, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11, 12th Meeting, 2013

従来のカラー動画像符号化装置は以上のように構成されているので、YUV4:2:0信号の符号化を行う場合、色差信号の変換ブロックのエントロピー符号化手段を輝度信号のエントロピー符号化手段と共有することができる。このため、少ない回路規模で色差信号を効率よく符号化することができるが、YUV4:2:2信号やYUV4:4:4信号の符号化を行う場合、色差信号の形状がYUV4:2:0信号の色差信号の形状と異なるため、YUV4:2:2信号やYUV4:4:4信号、RGB信号や3原色より更に多くの色成分を含む信号の符号化をサポートするには追加の回路規模が大きくなってしまう課題があった。   Since the conventional color moving image encoding apparatus is configured as described above, when encoding the YUV 4: 2: 0 signal, the entropy encoding unit of the color difference signal conversion block is used as the entropy encoding unit of the luminance signal. Can be shared with. Therefore, the color difference signal can be efficiently encoded with a small circuit scale. However, when encoding a YUV 4: 2: 2 signal or a YUV 4: 4: 4 signal, the shape of the color difference signal is YUV 4: 2: 0. Since the shape of the color difference signal of the signal is different, an additional circuit scale is required to support encoding of signals including more color components than YUV 4: 2: 2 signal, YUV 4: 4: 4 signal, RGB signal, and three primary colors. There was a problem that would increase.

この発明は上記のような課題を解決するためになされたもので、YUV4:4:4信号、RGB信号や3原色より更に多くの色成分を含む信号の符号化を行う場合でも、回路規模を小さく抑えつつ、輝度信号と色差信号あるいは各色成分の符号化効率を高めることができるカラー
動画像符号化装置及びカラー動画像符号化方法を得ることを目的とする。
また、この発明は、符号化効率の改善が図られている符号化データから正確に動画像を復号することができるカラー動画像復号装置及びカラー動画像復号方法を得ることを目的とする。
The present invention has been made to solve the above-described problems. Even when encoding a YUV 4: 4: 4 signal, an RGB signal, or a signal including more color components than three primary colors, the circuit scale can be reduced. It is an object of the present invention to obtain a color moving image encoding apparatus and a color moving image encoding method capable of improving the encoding efficiency of luminance signals and color difference signals or respective color components while keeping the size small.
It is another object of the present invention to obtain a color moving image decoding apparatus and a color moving image decoding method capable of accurately decoding a moving image from encoded data whose encoding efficiency is improved.

この発明に係るカラー動画像符号化装置は、予測画像生成部が、第1の色成分以外の色成分については、復号済みの他のピクチャに含まれる復号対象の色成分と同一の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成する、あるいは、復号済みの同一ピクチャに含まれる前記第1の色成分の復号画像の画素と復号対象の前記第1の色成分以外の色成分の復号対象の画素との相関を表す相関パラメータと、前記第1の色成分の復号画像とを用いて、フレーム間予測復号を実施することで、復号対象の前記第1の色成分以外の色成分の予測画像を生成するようにしたものである。   In the color moving image encoding device according to the present invention, the predicted image generation unit has the same color component as the color component to be decoded included in another decoded picture for color components other than the first color component. A predicted image is generated by performing inter-frame predictive decoding using the decoded image as a reference image, or pixels of the decoded image of the first color component included in the same decoded picture and the first to be decoded By performing inter-frame predictive decoding using a correlation parameter representing a correlation with a pixel to be decoded of a color component other than a color component and the decoded image of the first color component, the first to be decoded The predicted image of the color component other than the color component is generated.

この発明によれば、予測画像生成部が、第1の色成分以外の色成分については、復号済みの他のピクチャに含まれる復号対象の色成分と同一の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成する、あるいは、復号済みの同一ピクチャに含まれる前記第1の色成分の復号画像の画素と復号対象の前記第1の色成分以外の色成分の復号対象の画素との相関を表す相関パラメータと、前記第1の色成分の復号画像とを用いて、フレーム間予測復号を実施することで、復号対象の前記第1の色成分以外の色成分の予測画像を生成するように構成したので、YUV4:4:4信号、RGB信号や3原色より更に多くの色成分を含む信号の符号化を行う場合でも、回路規模を小さく抑えつつ、輝度信号と色差信号あるいは各色成分の符号化効率を高めることができる効果がある。   According to the present invention, for the color components other than the first color component, the predicted image generation unit uses a decoded image having the same color component as the color component to be decoded included in another decoded picture as a reference image. A prediction image is generated by performing inter-frame prediction decoding, or a color component other than the first color component to be decoded and the pixel of the decoded image of the first color component included in the same decoded picture A color other than the first color component to be decoded by performing inter-frame predictive decoding using a correlation parameter representing a correlation with a decoding target pixel and the decoded image of the first color component Since the prediction image of the component is generated, even when encoding a signal including a YUV 4: 4: 4 signal, an RGB signal, or a signal including more color components than the three primary colors, the luminance is reduced while keeping the circuit scale small. Signal and color difference signal Rui has the advantage of being able to improve the coding efficiency of each color component.

この発明の実施の形態1によるカラー動画像符号化装置を示す構成図である。It is a block diagram which shows the color moving image encoding device by Embodiment 1 of this invention. この発明の実施の形態1によるカラー動画像符号化装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the color moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1によるカラー動画像符号化装置の可変長符号化部13を示す構成図である。It is a block diagram which shows the variable length encoding part 13 of the color moving image encoding device by Embodiment 1 of this invention. この発明の実施の形態1によるカラー動画像復号装置を示す構成図である。It is a block diagram which shows the color moving image decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるカラー動画像復号装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the color moving image decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるカラー動画像復号装置の可変長復号部41を示す構成図である。It is a block diagram which shows the variable length decoding part 41 of the color moving image decoding apparatus by Embodiment 1 of this invention. 最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。It is explanatory drawing which shows a mode that the encoding block of the largest size is divided | segmented into a some encoding block hierarchically. 符号化ブロックBに属するパーティションP を示す説明図である。It is an explanatory view showing a partition P i n that belong to the coding block B n. 分割後のパーティションの分布や、階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示す説明図である。It is explanatory drawing which shows the distribution of the partition after a division | segmentation, and the condition where the encoding mode m ( Bn ) is allocated to the partition after a hierarchy division | segmentation with a quadtree graph. 符号化ブロックBに属する各パーティションP において選択可能なイントラ予測パラメータ(イントラ予測モード)の一例を示す説明図である。Is an explanatory diagram showing an example of the coding block B n belonging selectable intra prediction parameters in each partition P i n (intra prediction mode). =m =4の場合において、パーティションP 内の画素の予測値を生成する際に用いる画素の一例を示す説明図である。It is explanatory drawing which shows an example of the pixel used when producing | generating the predicted value of the pixel in partition P i n in the case of l i n = m i n = 4. 色差信号のイントラ予測パラメータと色差イントラ予測モードの対応例を示す説明図である。It is explanatory drawing which shows the example of a response | compatibility of the intra prediction parameter of a color difference signal, and a color difference intra prediction mode. 4:2:0フォーマットの信号における輝度信号及び色差信号の圧縮処理を実施する際の変換ブロックサイズを示す説明図である。It is explanatory drawing which shows the conversion block size at the time of implementing the compression process of the luminance signal and color-difference signal in the signal of 4: 2: 0 format. 4:2:2フォーマット及び4:4:4フォーマットの信号における輝度信号及び色差信号の圧縮処理を実施する際の変換ブロックサイズを示す説明図である。It is explanatory drawing which shows the conversion block size at the time of implementing the compression process of the luminance signal and color-difference signal in the signal of 4: 2: 2 format and 4: 4: 4 format. 4×4直交変換係数のスキャン順を示す説明図である。It is explanatory drawing which shows the scan order of a 4x4 orthogonal transformation coefficient. 4×4直交変換係数の逆スキャン順を示す説明図である。It is explanatory drawing which shows the reverse scan order of a 4x4 orthogonal transformation coefficient. 周波数位置に応じて予め定められたコンテキストインデックス値を示す説明図である。It is explanatory drawing which shows the context index value predetermined according to the frequency position. 周波数位置に応じて予め定められたコンテキストインデックス値を示す説明図である。It is explanatory drawing which shows the context index value predetermined according to the frequency position. この発明の実施の形態2、3、4によるカラー動画像符号化装置を示す構成図である。It is a block diagram which shows the color moving image encoding device by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像符号化装置の相関利用予測部61を示す構成図である。It is a block diagram which shows the correlation utilization estimation part 61 of the color moving image encoder by Embodiment 2, 3, 4 of this invention. 参照画像として利用する局部復号画像を示す説明図である。It is explanatory drawing which shows the local decoding image utilized as a reference image. 画面間参照画素Rec’及び画面内参照画素Recを示す説明図である。It is an explanatory diagram showing a reference pixel Rec C between reference pixels Rec 'L and the screen display. この発明の実施の形態2、3、4によるカラー動画像復号装置を示す構成図である。It is a block diagram which shows the color moving image decoding apparatus by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像復号装置の相関利用予測部71を示す構成図である。It is a block diagram which shows the correlation utilization estimation part 71 of the color moving image decoding apparatus by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像符号化装置を示す構成図である。It is a block diagram which shows the color moving image encoding device by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像符号化装置の相関利用適応予測部81を示す構成図である。It is a block diagram which shows the correlation utilization adaptive prediction part 81 of the color moving image encoder by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像復号装置を示す構成図である。It is a block diagram which shows the color moving image decoding apparatus by Embodiment 2, 3, 4 of this invention. この発明の実施の形態2、3、4によるカラー動画像復号装置の相関利用適応予測部91を示す構成図である。It is a block diagram which shows the correlation utilization adaptive prediction part 91 of the color moving image decoding apparatus by Embodiment 2, 3, 4 of this invention. 参照ブロック内の画素Rec’及び符号化対象ブロック内の画素Recを示す説明図である。It is an explanatory diagram showing a pixel Rec C of the pixel Rec 'L and the encoding target block in the reference block. 参照ブロック内の画素をクラスに分類した例を示す説明図である。It is explanatory drawing which shows the example which classified the pixel in a reference block into the class. この発明の実施の形態4によるカラー動画像符号化装置を示す構成図である。It is a block diagram which shows the color moving image encoding device by Embodiment 4 of this invention. この発明の実施の形態4によるカラー動画像符号化装置のインター予測部101を示す構成図である。It is a block diagram which shows the inter prediction part 101 of the color moving image encoder by Embodiment 4 of this invention. 参照画像として利用する局部復号画像を示す説明図である。It is explanatory drawing which shows the local decoding image utilized as a reference image. マージ候補リストに登録するPUのうち空間的に隣接するPUの画素位置を示す説明図である。It is explanatory drawing which shows the pixel position of spatially adjacent PU among PU registered into a merge candidate list. 第1の色成分の参照画像の中からインター予測パラメータ参照画像が選択されることを示す説明図である。It is explanatory drawing which shows that the inter prediction parameter reference image is selected from the reference images of a 1st color component. 第2または第3の色成分の場合のインター予測パラメータ参照画像上のマージ候補PUの決定手順を示す説明図である。It is explanatory drawing which shows the determination procedure of merge candidate PU on the inter prediction parameter reference image in the case of the 2nd or 3rd color component. 隣接する画素から内挿補間画素を生成して予測値とすることを示す説明図Explanatory drawing which produces | generates an interpolation pixel from an adjacent pixel, and makes it a predicted value この発明の実施の形態4によるカラー動画像復号装置を示す構成図である。It is a block diagram which shows the color moving image decoding apparatus by Embodiment 4 of this invention. この発明の実施の形態4によるカラー動画像復号装置のインター予測部111を示す構成図である。It is a block diagram which shows the inter estimation part 111 of the color moving image decoding apparatus by Embodiment 4 of this invention.

実施の形態1.
図1はこの発明の実施の形態1によるカラー動画像符号化装置を示す構成図である。
この実施の形態1のカラー動画像符号化装置が処理対象とする映像信号は、輝度信号と2つの色差信号からなるYUV信号や、ディジタル撮像素子から出力されるRGB信号等の任意の色空間のカラー映像信号のほか、モノクロ画像信号や赤外線画像信号など、映像フレームが水平・垂直2次元のディジタルサンプル(画素)列から構成される任意の映像信号である。
各画素の諧調は8ビットでもよいし、10ビット、12ビットなどの諧調であってもよい。
Embodiment 1 FIG.
1 is a block diagram showing a color moving image encoding apparatus according to Embodiment 1 of the present invention.
The video signal to be processed by the color moving image encoding apparatus according to the first embodiment is an arbitrary color space such as a YUV signal composed of a luminance signal and two color difference signals, or an RGB signal output from a digital image sensor. In addition to a color video signal, the video frame is an arbitrary video signal such as a monochrome image signal or an infrared image signal, in which a video frame is composed of a horizontal / vertical two-dimensional digital sample (pixel) sequence.
The gradation of each pixel may be 8 bits, or may be gradation such as 10 bits or 12 bits.

ただし、以下の説明においては、特に断らない限り、入力される映像信号が、2つの色差成分U,Vが輝度成分Yに対して、縦横ともに2分の1にサブサンプルされたYUV4:2:0フォーマット、2つの色差成分U,Vが輝度成分Yに対して、横方向に2分の1にサブサンプルされたYUV4:2:2フォーマット、あるいは、2つの色差成分U,Vが輝度成分Yと同じサンプル数である4:4:4フォーマット(例えば、YUV4:4:4やRGBなど)の信号であるものとする。
なお、映像の各フレームに対応する処理データ単位を「ピクチャ」と称し、この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレームの信号として説明を行う。ただし、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
However, in the following description, unless otherwise specified, the input video signal is YUV4: 2 in which the two color difference components U and V are subsampled in half both vertically and horizontally with respect to the luminance component Y: 0 format, YUV4: 2: 2 format in which two color difference components U and V are subsampled in half in the horizontal direction with respect to luminance component Y, or two color difference components U and V are luminance component Y And 4: 4: 4 format (for example, YUV4: 4: 4, RGB, etc.).
The processing data unit corresponding to each frame of the video is referred to as “picture”. In the first embodiment, “picture” is described as a signal of a video frame that has been sequentially scanned (progressive scan). However, when the video signal is an interlace signal, the “picture” may be a field image signal which is a unit constituting a video frame.

図1において、符号化制御部1はイントラ予測処理(フレーム内予測処理)又は動き補償予測処理(フレーム間予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する処理を実施する。
また、符号化制御部1は利用可能な1以上の符号化モード(1以上のイントラ符号化モード、1以上のインター符号化モード)の中から、階層的に分割される各々の符号化ブロックに適する符号化モードを選択する処理を実施する。
また、符号化制御部1は各々の符号化ブロック毎に、差分画像が圧縮される際に用いられる量子化パラメータ及び変換ブロックサイズを決定するとともに、予測処理が実施される際に用いられるイントラ予測パラメータ又はインター予測パラメータを決定する処理を実施する。量子化パラメータ及び変換ブロックサイズを示す変換ブロック分割フラグは、予測差分符号化パラメータに含まれて、変換・量子化部7、逆量子化・逆変換部8及び可変長符号化部13等に出力される。
なお、符号化制御部1は符号化制御手段を構成している。
In FIG. 1, an encoding control unit 1 determines the maximum size of an encoding block that is a processing unit when intra prediction processing (intraframe prediction processing) or motion compensation prediction processing (interframe prediction processing) is performed. Then, a process of determining the upper limit number of layers when the encoding block of the maximum size is hierarchically divided is performed.
In addition, the encoding control unit 1 assigns each encoding block divided hierarchically from one or more available encoding modes (one or more intra encoding modes and one or more inter encoding modes). A process of selecting a suitable encoding mode is performed.
In addition, the encoding control unit 1 determines the quantization parameter and transform block size used when the difference image is compressed for each encoding block, and intra prediction used when the prediction process is performed. A process of determining a parameter or an inter prediction parameter is performed. The transform block division flag indicating the quantization parameter and the transform block size is included in the prediction difference coding parameter and is output to the transform / quantization unit 7, the inverse quantization / inverse transform unit 8, the variable length coding unit 13, and the like. Is done.
The encoding control unit 1 constitutes an encoding control unit.

ここで、図13は4:2:0フォーマットの信号における輝度信号及び色差信号の圧縮処理(変換処理、量子化処理)を実施する際の変換ブロックサイズを示す説明図である。
変換ブロックサイズは、図13に示すように、符号化ブロックを四分木状に階層分割することによって決定される。
例えば、変換ブロックを分割する場合と変換ブロックを分割しない場合での符号量や、符号化誤差を加味した評価尺度などに基づいて、評価値が最小になるように変換ブロックを分割するか否かを決定することで、符号量と符号化誤差のトレードオフの観点から最適な変換ブロックの分割形状を決定することができる。
Here, FIG. 13 is an explanatory diagram showing a conversion block size when performing compression processing (conversion processing, quantization processing) of luminance signals and color difference signals in a 4: 2: 0 format signal.
As shown in FIG. 13, the transform block size is determined by hierarchically dividing the encoded block into a quadtree.
For example, whether or not to divide the transform block so that the evaluation value is minimized based on the amount of code when the transform block is divided and when the transform block is not divided, the evaluation scale that takes into account the coding error, etc. By determining, it is possible to determine the optimal division shape of the transform block from the viewpoint of the trade-off between the code amount and the coding error.

輝度信号については、例えば、図13に示すように、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択された場合、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択された場合、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。
For the luminance signal, for example, as illustrated in FIG. 13, when the prediction mode in which the shape of the prediction block of the luminance signal is a square is selected as the encoding mode of the encoding block, one or more encoding blocks are included. It is configured to be hierarchically divided into square transform blocks.
On the other hand, when the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the coding mode of the coding block, the coding block is hierarchically divided into one or a plurality of rectangular transform blocks. Configure.

色差信号については、図13に示すように、入力信号フォーマットがYUV4:2:0信号である場合には、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
As for the color difference signal, as shown in FIG. 13, when the input signal format is a YUV 4: 2: 0 signal, the prediction mode in which the shape of the prediction block of the luminance signal is a square is the encoding mode of the encoding block. If selected, the coding block is configured to be hierarchically divided into one or a plurality of square transform blocks in the same manner as the luminance signal. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.
On the other hand, if the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the encoding mode of the encoding block, the encoding block is converted into one or a plurality of rectangular transform blocks, similarly to the luminance signal. It is configured to be divided hierarchically. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.

図14に示すように、入力信号フォーマットがYUV4:2:2信号である場合には、輝度信号の予測ブロックの形状にかかわらず、色差信号については、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロック形状は、常に垂直方向の画素数が水平方向の画素数の2倍となる長方形となる。
また、図14に示すように、入力信号フォーマットが4:4:4信号である場合には、色差信号の変換ブロックは、常に輝度信号の変換ブロックと同様の分割を行い、同じサイズの変換ブロックとなるように構成する。
輝度信号の変換ブロックの分割情報は、階層毎に分割するか否かを示す変換ブロック分割フラグとして可変長符号化部13に出力する。
As shown in FIG. 14, when the input signal format is a YUV 4: 2: 2 signal, the coding block has one or more squares for the color difference signal regardless of the shape of the prediction block of the luminance signal. It is configured to be divided hierarchically into transform blocks. In this case, the color difference signal conversion block shape is always a rectangle in which the number of pixels in the vertical direction is twice the number of pixels in the horizontal direction.
Also, as shown in FIG. 14, when the input signal format is 4: 4: 4 signal, the color difference signal conversion block always performs the same division as the luminance signal conversion block, and the same size conversion block. To be configured.
The division information of the transformation block of the luminance signal is output to the variable length coding unit 13 as a transformation block division flag indicating whether or not to divide for each layer.

ブロック分割部2は入力カラー画像(カレントピクチャ)を示すカラー画像信号を入力すると、その入力カラー画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する処理を実施する。なお、ブロック分割部2はブロック分割手段を構成している。
切替スイッチ3は符号化制御部1により選択された符号化モードがイントラ符号化モードであれば、ブロック分割部2により分割された符号化ブロックをイントラ予測部4に出力し、符号化制御部1により選択された符号化モードがインター符号化モードであれば、ブロック分割部2により分割された符号化ブロックを動き補償予測部5に出力する処理を実施する。
When a color image signal indicating an input color image (current picture) is input, the block dividing unit 2 divides the input color image into encoded blocks of the maximum size determined by the encoding control unit 1, and the encoding control unit The process of dividing the encoded block hierarchically is performed until the upper limit number of hierarchies determined by 1 is reached. The block dividing unit 2 constitutes block dividing means.
If the coding mode selected by the coding control unit 1 is the intra coding mode, the changeover switch 3 outputs the coding block divided by the block dividing unit 2 to the intra prediction unit 4, and the coding control unit 1 If the coding mode selected by (2) is the inter coding mode, a process of outputting the coding block divided by the block dividing unit 2 to the motion compensation prediction unit 5 is performed.

イントラ予測部4は切替スイッチ3からブロック分割部2により分割された符号化ブロックを受けると、その符号化ブロックに対して、イントラ予測用メモリ10により格納されている上記符号化ブロックに隣接している復号済みの画素を用いて、符号化制御部1から出力されたイントラ予測パラメータに基づくフレーム内予測処理を実施することで予測画像を生成する処理を実施する。
即ち、イントラ予測部4は、ブロック分割部2により分割された符号化ブロックにおける輝度成分については、その輝度成分のフレーム内予測を実施して、輝度成分に対する予測画像を生成する。
一方、ブロック分割部2により分割された符号化ブロックにおける色差成分については、入力信号フォーマットがYUV4:2:0信号又はYUV4:2:2信号である場合には、符号化制御部1により選択された符号化モードが、輝度信号と同じイントラ予測モードを適用することを示す輝度色差共通イントラ予測モードであれば、ブロック分割部2により分割された符号化ブロックにおける色差成分に対して、輝度信号と同じイントラ予測モードによるフレーム内予測を実施して、色差成分に対する予測画像を生成する。
When the intra prediction unit 4 receives the encoded block divided by the block dividing unit 2 from the changeover switch 3, the intra prediction unit 4 is adjacent to the encoded block stored in the intra prediction memory 10 with respect to the encoded block. The process which produces | generates a prediction image is implemented by implementing the intra prediction process based on the intra prediction parameter output from the encoding control part 1 using the decoded pixel which is.
That is, the intra prediction unit 4 performs intra-frame prediction of the luminance component of the encoded block divided by the block dividing unit 2 to generate a prediction image for the luminance component.
On the other hand, the chrominance component in the coding block divided by the block dividing unit 2 is selected by the coding control unit 1 when the input signal format is YUV4: 2: 0 signal or YUV4: 2: 2 signal. If the coding mode is the luminance / chrominance common intra prediction mode indicating that the same intra prediction mode as that of the luminance signal is applied, the luminance signal and the luminance signal are compared with the color difference component in the coding block divided by the block dividing unit 2. Intraframe prediction is performed in the same intra prediction mode to generate a prediction image for the color difference component.

また、符号化制御部1により選択された符号化モードが、イントラ符号化モードにおける方向性予測モードであれば、ブロック分割部2により分割された符号化ブロックにおける色差成分に対して、方向性フレーム内予測を実施して、色差成分に対する予測画像を生成する。
また、符号化制御部1により選択された符号化モードが、イントラ符号化モードにおける輝度相関利用色差信号予測モードであれば、その符号化ブロックを構成している画素のうち、水平方向及び垂直方向に隣接している複数の画素に係る輝度成分を用いて、輝度成分と色差成分の相関を示す相関パラメータを算出し、その相関パラメータと処理対象となる色差成分符号化ブロックに対応する輝度成分を用いて、色差成分に対する予測画像を生成する。
If the coding mode selected by the coding control unit 1 is the directional prediction mode in the intra coding mode, the directional frame is applied to the color difference component in the coding block divided by the block dividing unit 2. Intra prediction is performed to generate a prediction image for the color difference component.
Also, if the coding mode selected by the coding control unit 1 is the luminance correlation-use color difference signal prediction mode in the intra coding mode, the horizontal direction and the vertical direction among the pixels constituting the coding block Is used to calculate a correlation parameter indicating the correlation between the luminance component and the color difference component, and the luminance component corresponding to the color difference component coding block to be processed is calculated. The prediction image for the color difference component is generated.

入力信号フォーマットが4:4:4信号である場合には、上記輝度色差共通イントラ予測モード又は上記輝度相関利用色差信号予測モードの処理を実施し、方向性予測モードは選択しないように構成してもよい。
4:4:4信号では、色成分間のエッジ位置に高い相関関係があるため、YUVの輝度信号に相当する第一の色成分と異なる方向性予測モードをその他の色成分信号に適用することを禁止することにより、その他の色成分信号のイントラ予測モードの情報量を削減して、符号化効率を高めることができる。
当然、その他の色成分信号に対しても、輝度信号とは異なる方向性予測モードを選択できるように構成してもよい。
When the input signal format is 4: 4: 4 signal, the process of the luminance color difference common intra prediction mode or the luminance correlation using color difference signal prediction mode is performed, and the directionality prediction mode is not selected. Also good.
In the 4: 4: 4 signal, the edge positions between the color components have a high correlation, and therefore, a directionality prediction mode different from the first color component corresponding to the YUV luminance signal is applied to the other color component signals. By prohibiting, it is possible to reduce the amount of information in the intra prediction mode of other color component signals and increase the coding efficiency.
Needless to say, the direction prediction mode different from the luminance signal may be selected for the other color component signals.

動き補償予測部5はブロック分割部2により分割された符号化ブロックに対応する符号化モードとして、符号化制御部1によりインター符号化モードが選択された場合、動き補償予測フレームメモリ12により格納されている1フレーム以上の参照画像を用いて、符号化制御部1から出力されたインター予測パラメータに基づいて、その符号化ブロックに対する動き補償予測処理を実施することで予測画像を生成する処理を実施する。
なお、切替スイッチ3、イントラ予測部4及び動き補償予測部5から予測画像生成部が構成されている。
When the inter coding mode is selected by the coding control unit 1 as the coding mode corresponding to the coding block divided by the block dividing unit 2, the motion compensated prediction unit 5 is stored by the motion compensated prediction frame memory 12. Based on the inter prediction parameter output from the encoding control unit 1, using a reference image of one or more frames, a process for generating a predicted image is performed by performing a motion compensation prediction process for the encoded block To do.
Note that a prediction image generation unit is configured by the changeover switch 3, the intra prediction unit 4, and the motion compensation prediction unit 5.

減算部6はブロック分割部2により分割された符号化ブロックから、イントラ予測部4又は動き補償予測部5により生成された予測画像を減算することで、差分画像(=符号化ブロック−予測画像)を生成する処理を実施する。なお、減算部6は差分画像生成手段を構成している。
変換・量子化部7は符号化制御部1から出力された予測差分符号化パラメータに含まれている変換ブロック分割フラグから特定される変換ブロックサイズ単位で、減算部6により生成された差分画像の変換処理(例えば、DCT(離散コサイン変換)やDST(離散サイン変換)、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その差分画像の変換係数を量子化することで、量子化後の変換係数を差分画像の圧縮データとして出力する処理を実施する。
The subtracting unit 6 subtracts the prediction image generated by the intra prediction unit 4 or the motion compensation prediction unit 5 from the encoded block divided by the block dividing unit 2, thereby obtaining a difference image (= encoded block−predicted image). The process to generate is performed. The subtracting unit 6 constitutes a difference image generating unit.
The transform / quantization unit 7 converts the difference image generated by the subtraction unit 6 in units of transform block size specified from the transform block division flag included in the prediction difference encoding parameter output from the encoding control unit 1. Performing transform processing (for example, DCT (discrete cosine transform), DST (discrete sine transform), orthogonal transform processing such as KL transform in which a base design is made in advance for a specific learning sequence), and the prediction differential code Using the quantization parameter included in the quantization parameter, the transform coefficient of the difference image is quantized to output the quantized transform coefficient as compressed data of the difference image.

即ち、変換・量子化部7は減算部6により生成された符号化ブロックの差分画像に対する変換・量子化処理(圧縮処理)を実施する場合、輝度信号については、例えば、図13に示すように、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。
That is, when the transform / quantization unit 7 performs transform / quantization processing (compression processing) on the difference image of the encoded block generated by the subtraction unit 6, the luminance signal is, for example, as shown in FIG. If the prediction mode in which the shape of the prediction block of the luminance signal is square is selected as the coding mode of the coding block, the coding block is hierarchically divided into one or a plurality of square transform blocks. Configure.
On the other hand, if the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the encoding mode of the encoding block, the encoding block is hierarchically divided into one or a plurality of rectangular transform blocks. Configure as follows.

色差信号については、図13に示すように、入力信号フォーマットがYUV4:2:0信号である場合には、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
As for the color difference signal, as shown in FIG. 13, when the input signal format is a YUV 4: 2: 0 signal, the prediction mode in which the shape of the prediction block of the luminance signal is a square is the encoding mode of the encoding block. If selected, the coding block is configured to be hierarchically divided into one or a plurality of square transform blocks in the same manner as the luminance signal. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.
On the other hand, if the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the encoding mode of the encoding block, the encoding block is converted into one or a plurality of rectangular transform blocks, similarly to the luminance signal. It is configured to be divided hierarchically. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.

入力信号フォーマットがYUV4:2:2信号である場合には、輝度信号の予測ブロックの形状にかかわらず、色差信号については、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロック形状は、常に垂直方向の画素数が水平方向の画素数の2倍となる長方形となる。
また、入力信号フォーマットがYUV4:4:4信号である場合には、色差信号の変換ブロックは、常に輝度信号の変換ブロックと同様の分割を行い、同じサイズの変換ブロックとなるように構成する。
変換・量子化部7はブロック分割部2による分割後のブロック単位で差分画像の変換・量子化処理を実施する。
なお、変換・量子化部7は画像圧縮手段を構成している。
When the input signal format is a YUV 4: 2: 2 signal, the coding block is divided hierarchically into one or a plurality of square transform blocks for the color difference signal regardless of the shape of the prediction block of the luminance signal. To be configured. In this case, the color difference signal conversion block shape is always a rectangle in which the number of pixels in the vertical direction is twice the number of pixels in the horizontal direction.
When the input signal format is a YUV 4: 4: 4 signal, the color difference signal conversion block is always divided in the same manner as the luminance signal conversion block so as to be the same size conversion block.
The transform / quantization unit 7 performs difference image transform / quantization processing on a block basis after division by the block division unit 2.
The transform / quantization unit 7 constitutes an image compression unit.

逆量子化・逆変換部8は符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、変換・量子化部7から出力された圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロック分割フラグから特定される変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や逆DST(逆離散サイン変換)、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号として出力する処理を実施する。   The inverse quantization / inverse transform unit 8 performs inverse quantization on the compressed data output from the transform / quantization unit 7 using the quantization parameter included in the prediction difference encoding parameter output from the encoding control unit 1. And inverse transform processing of the compressed data after inverse quantization (for example, inverse DCT (Inverse Discrete Cosine Transform)) in units of transform block size specified from the transform block division flag included in the prediction difference encoding parameter By performing inverse DST (inverse discrete sine transform), inverse KL transform, or the like), a process of outputting the compressed data after the inverse transform process as a local decoded prediction difference signal is performed.

加算部9は逆量子化・逆変換部8から出力された局所復号予測差分信号とイントラ予測部4又は動き補償予測部5により生成された予測画像を示す予測信号を加算することで、局所復号画像を示す局所復号画像信号を生成する処理を実施する。
イントラ予測用メモリ10はイントラ予測部4により次回のイントラ予測処理で用いられる画像として、加算部9により生成された局所復号画像信号が示す局所復号画像を格納するRAMなどの記録媒体である。
The adding unit 9 adds the local decoded prediction difference signal output from the inverse quantization / inverse transform unit 8 and the prediction signal indicating the prediction image generated by the intra prediction unit 4 or the motion compensation prediction unit 5 to thereby perform local decoding. A process of generating a locally decoded image signal indicating an image is performed.
The intra prediction memory 10 is a recording medium such as a RAM that stores a local decoded image indicated by the local decoded image signal generated by the adding unit 9 as an image used in the next intra prediction process by the intra prediction unit 4.

ループフィルタ部11は加算部9により生成された局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に出力する処理を実施する。
動き補償予測フレームメモリ12は動き補償予測部5により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部11によるフィルタリング処理後の局所復号画像を格納するRAMなどの記録媒体である。
The loop filter unit 11 compensates for the coding distortion included in the locally decoded image signal generated by the adding unit 9, and performs motion compensation prediction using the locally decoded image indicated by the locally decoded image signal after the coding distortion compensation as a reference image. A process of outputting to the frame memory 12 is performed.
The motion compensated prediction frame memory 12 is a recording medium such as a RAM that stores a locally decoded image after the filtering process by the loop filter unit 11 as a reference image used in the next motion compensated prediction process by the motion compensated prediction unit 5.

可変長符号化部13は入力信号フォーマットを特定する入力信号フォーマット情報と、変換・量子化部7から出力された圧縮データと、符号化制御部1から出力された符号化モード及び変換ブロック分割フラグを含む予測差分符号化パラメータと、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータ及び動き情報とを算術符号化によって可変長符号化して、その入力信号フォーマット情報、圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報などの符号化データが多重化されているビットストリームを生成する処理を実施する。   The variable length coding unit 13 includes input signal format information for specifying an input signal format, compressed data output from the transform / quantization unit 7, a coding mode output from the coding control unit 1, and a transform block division flag. And the prediction prediction encoding parameter including the intra prediction parameter output from the intra prediction unit 4 or the inter prediction parameter output from the motion compensated prediction unit 5 and the motion information are variable-length encoded by arithmetic encoding, and the input A process of generating a bit stream in which encoded data such as signal format information, compressed data, encoding mode, prediction differential encoding parameter, intra prediction parameter / inter prediction parameter, and motion information is multiplexed is performed.

即ち、可変長符号化部13は変換・量子化部7から出力された圧縮データである変換係数を可変長符号化する際、入力カラー画像の信号フォーマットがYUV4:2:0である場合、差分画像の色差信号における各変換係数のコンテキスト値が当該変換係数の周波数位置に応じて割り当てられているYUV4:2:0用のコンテキスト値情報を参照して、その色差信号における各変換係数のコンテキスト値を特定し、その変換係数のコンテキスト値に対応する生起確率を用いて、上記色差信号における各変換係数を算術符号化する。
入力カラー画像の信号フォーマットがYUV4:2:2である場合、入力カラー画像の色差信号における各変換係数のコンテキスト値として、信号フォーマットがYUV4:2:0である場合の色差信号における各変換係数のコンテキスト値と同一のコンテキスト値が、周波数位置の垂直方向に2個ずつ繰り返し割り当てられているYUV4:2:2用のコンテキスト値情報を参照して、その色差信号における各変換係数のコンテキスト値を特定し、上記変換係数のコンテキスト値に対応する生起確率を用いて、その色差信号における各変換係数を算術符号化する。
なお、可変長符号化部13は可変長符号化手段を構成している。
That is, when the variable length coding unit 13 performs variable length coding on the transform coefficient that is the compressed data output from the transform / quantization unit 7, if the signal format of the input color image is YUV 4: 2: 0, the difference Referring to the context value information for YUV 4: 2: 0 in which the context value of each conversion coefficient in the color difference signal of the image is assigned according to the frequency position of the conversion coefficient, the context value of each conversion coefficient in the color difference signal Is specified, and each conversion coefficient in the color difference signal is arithmetically encoded using the occurrence probability corresponding to the context value of the conversion coefficient.
When the signal format of the input color image is YUV4: 2: 2, each conversion coefficient in the color difference signal when the signal format is YUV4: 2: 0 is used as the context value of each conversion coefficient in the color difference signal of the input color image. Referring to the context value information for YUV 4: 2: 2 in which two context values identical to the context value are repeatedly assigned in the vertical direction of the frequency position, the context value of each conversion coefficient in the color difference signal is specified Then, using the occurrence probability corresponding to the context value of the transform coefficient, each transform coefficient in the color difference signal is arithmetically encoded.
The variable length encoding unit 13 constitutes variable length encoding means.

図1では、カラー動画像符号化装置の構成要素である符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、イントラ予測用メモリ10、ループフィルタ部11、動き補償予測フレームメモリ12及び可変長符号化部13のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路やワンチップマイコン、あるいは、メモリなど)で構成されているものを想定しているが、カラー動画像符号化装置がコンピュータなどで構成されていてもよい。
カラー動画像符号化装置がコンピュータで構成される場合、イントラ予測用メモリ10及び動き補償予測フレームメモリ12をコンピュータのメモリ上に構成するとともに、符号化制御部1、ブロック分割部2、切替スイッチ3、イントラ予測部4、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13の処理内容を記述しているプログラムの全部又は一部を当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1によるカラー動画像符号化装置の処理内容を示すフローチャートである。
In FIG. 1, a coding control unit 1, a block division unit 2, a changeover switch 3, an intra prediction unit 4, a motion compensation prediction unit 5, a subtraction unit 6, a transform / quantization unit, which are components of the color moving image coding apparatus. 7, each of the inverse quantization / inverse transform unit 8, the adder 9, the intra prediction memory 10, the loop filter unit 11, the motion compensated prediction frame memory 12, and the variable length coding unit 13 includes dedicated hardware (e.g., CPU However, the color moving image encoding device may be configured by a computer or the like.
When the color moving image encoding apparatus is configured by a computer, the intra prediction memory 10 and the motion compensated prediction frame memory 12 are configured on the memory of the computer, and the encoding control unit 1, the block division unit 2, and the changeover switch 3 are configured. , Intra Prediction Unit 4, Motion Compensation Prediction Unit 5, Subtraction Unit 6, Transformation / Quantization Unit 7, Inverse Quantization / Inverse Transformation Unit 8, Addition Unit 9, Loop Filter Unit 11, and Variable Length Encoding Unit 13 May be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents of the color moving image coding apparatus according to Embodiment 1 of the present invention.

ここで、図3はこの発明の実施の形態1によるカラー動画像符号化装置の可変長符号化部13を示す構成図である。
図3において、変換係数可変長符号化部21は変換・量子化部7から出力された圧縮データである直交変換係数を可変長符号化する処理を実施する。
符号化パラメータ可変長符号化部22は入力信号フォーマット情報、符号化制御部1から出力された符号化モード及び変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータ及び動き情報、符号化ブロックの分割状況を示すブロック分割情報などの符号化パラメータを可変長符号化する処理を実施する。
変換係数可変長符号化部21により可変長符号化された圧縮データの符号化データと、符号化パラメータ可変長符号化部22により可変長符号化された符号化パラメータとは多重化されてビットストリームが生成される。
Here, FIG. 3 is a block diagram showing the variable length coding unit 13 of the color moving image coding apparatus according to Embodiment 1 of the present invention.
In FIG. 3, the transform coefficient variable length coding unit 21 performs a process of variable length coding the orthogonal transform coefficient that is the compressed data output from the transform / quantization unit 7.
The encoding parameter variable length encoding unit 22 includes input signal format information, a prediction differential encoding parameter including the encoding mode and transform block division flag output from the encoding control unit 1, and intra prediction output from the intra prediction unit 4. A process of performing variable-length coding on encoding parameters such as inter prediction parameters and motion information output from the parameter or motion compensation prediction unit 5 and block division information indicating the division status of the encoded block is performed.
The encoded data of the compressed data variable-length encoded by the transform coefficient variable-length encoding unit 21 and the encoding parameter variable-length encoded by the encoding parameter variable-length encoding unit 22 are multiplexed to form a bit stream Is generated.

図4はこの発明の実施の形態1によるカラー動画像復号装置を示す構成図である。
図4において、可変長復号部41はイントラ予測処理又は動き補償予測処理が実施される際の処理単位となる符号化ブロックの最大サイズ及び最大サイズの符号化ブロックから階層的に分割されている符号化ブロックの階層数を特定することで、ビットストリームに多重化されている符号化データの中で、最大サイズの符号化ブロック及び階層的に分割されている符号化ブロックに係る符号化データを特定し、各々の符号化データから符号化ブロックに係る圧縮データ、入力信号フォーマット情報、符号化モード、変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報などを可変長復号して、その圧縮データ及び予測差分符号化パラメータを逆量子化・逆変換部45に出力するとともに、その符号化モード及びイントラ予測パラメータ/インター予測パラメータを切替スイッチ42に出力する処理を実施する。
FIG. 4 is a block diagram showing a color moving image decoding apparatus according to Embodiment 1 of the present invention.
In FIG. 4, the variable length decoding unit 41 is a code that is hierarchically divided from the maximum size of a coding block that is a processing unit when intra prediction processing or motion compensation prediction processing is performed, and a coding block of the maximum size. By specifying the number of hierarchized block levels, the coded data related to the largest size coded block and the hierarchically divided coded block is identified from the coded data multiplexed in the bitstream. From each encoded data, the compressed data related to the encoded block, the input signal format information, the encoding mode, the prediction differential encoding parameter including the transform block division flag, the intra prediction parameter / inter prediction parameter, the motion information, and the like are variable. Perform long decoding and output the compressed data and the prediction differential encoding parameter to the inverse quantization / inverse transform unit 45 Rutotomoni, carries out a process of outputting the encoding mode and the intra prediction parameters / inter prediction parameter to the changeover switch 42.

即ち、可変長復号部41は各々の符号化データから符号化ブロックに係る圧縮データである変換係数を可変長復号する際、入力信号フォーマット情報が示す信号フォーマットがYUV4:2:0である場合、差分画像の色差信号における各変換係数のコンテキスト値が当該変換係数の周波数位置に応じて割り当てられているYUV4:2:0用のコンテキスト値情報を参照して、その色差信号における各変換係数のコンテキスト値を特定し、その変換係数のコンテキスト値に対応する生起確率を用いて、その色差信号における各変換係数を算術復号する。
入力フォーマット情報が示す信号フォーマットがYUV4:2:2である場合、入力カラー画像の色差信号における各変換係数のコンテキスト値として、信号フォーマットがYUV4:2:0である場合の色差信号における各変換係数のコンテキスト値と同一のコンテキスト値が、周波数位置の垂直方向に2個ずつ繰り返し割り当てられているYUV4:2:2用のコンテキスト値情報を参照して、その色差信号における各変換係数のコンテキスト値を特定し、その変換係数のコンテキスト値に対応する生起確率を用いて、その色差信号における各変換係数を算術復号する。
なお、可変長復号部41は可変長復号手段を構成している。
That is, when the variable length decoding unit 41 performs variable length decoding of the transform coefficient, which is compressed data related to the encoded block, from each encoded data, when the signal format indicated by the input signal format information is YUV 4: 2: 0, Referring to the context value information for YUV 4: 2: 0 in which the context value of each conversion coefficient in the color difference signal of the difference image is assigned according to the frequency position of the conversion coefficient, the context of each conversion coefficient in the color difference signal A value is specified, and each transform coefficient in the color difference signal is arithmetically decoded using an occurrence probability corresponding to the context value of the transform coefficient.
When the signal format indicated by the input format information is YUV 4: 2: 2, each conversion coefficient in the color difference signal when the signal format is YUV 4: 2: 0 is used as the context value of each conversion coefficient in the color difference signal of the input color image. Referring to the context value information for YUV 4: 2: 2 in which the same context value is repeatedly assigned in the vertical direction of the frequency position, the context value of each conversion coefficient in the color difference signal is determined. Using the occurrence probability corresponding to the context value of the transform coefficient, the transform coefficient in the color difference signal is arithmetically decoded.
The variable length decoding unit 41 constitutes variable length decoding means.

切替スイッチ42は可変長復号部41から出力された符号化ブロックに係る符号化モードがイントラ符号化モードである場合、可変長復号部41から出力されたイントラ予測パラメータをイントラ予測部43に出力し、その符号化モードがインター符号化モードである場合、可変長復号部41から出力されたインター予測パラメータを動き補償部44に出力する処理を実施する。
イントラ予測部43はイントラ予測用メモリ47により格納されている符号化ブロックに隣接している復号済みの画素を用いて、切替スイッチ42から出力されたイントラ予測パラメータに基づいて、符号化ブロックに対するフレーム内予測処理を実施することで予測画像を生成する処理を実施する。
The changeover switch 42 outputs the intra prediction parameter output from the variable length decoding unit 41 to the intra prediction unit 43 when the coding mode related to the coding block output from the variable length decoding unit 41 is the intra coding mode. When the coding mode is the inter coding mode, a process of outputting the inter prediction parameter output from the variable length decoding unit 41 to the motion compensation unit 44 is performed.
The intra prediction unit 43 uses a decoded pixel adjacent to the coding block stored in the intra prediction memory 47 and uses the decoded prediction frame output from the changeover switch 42 to generate a frame for the coding block. A process for generating a predicted image is performed by performing the intra prediction process.

即ち、イントラ予測部43は、符号化ブロックにおける輝度成分については、その輝度成分のフレーム内予測を実施して、輝度成分に対する予測画像を生成する。
一方、符号化ブロックにおける色差成分については、入力信号フォーマットがYUV4:2:0信号又はYUV4:2:2信号である場合には、可変長復号部41により可変長復号された符号化モードが、輝度信号と同じイントラ予測モードを適用することを示す輝度色差共通イントラ予測モードであれば、符号化ブロックにおける色差成分に対して、輝度信号と同じイントラ予測モードによるフレーム内予測を実施して、色差成分に対する予測画像を生成する。
That is, for the luminance component in the encoded block, the intra prediction unit 43 performs intra-frame prediction of the luminance component, and generates a predicted image for the luminance component.
On the other hand, for the color difference component in the coding block, when the input signal format is YUV4: 2: 0 signal or YUV4: 2: 2 signal, the coding mode variable-length decoded by the variable-length decoding unit 41 is In the case of the luminance / chrominance common intra prediction mode indicating that the same intra prediction mode as that of the luminance signal is applied, intra-frame prediction is performed on the chrominance component in the coding block using the same intra prediction mode as that of the luminance signal, and the color difference is determined. Generate a predicted image for the component.

また、可変長復号部41により可変長復号された符号化モードが、イントラ符号化モードにおける方向性予測モードであれば、符号化ブロックにおける色差成分に対して、方向性フレーム内予測を実施して、色差成分に対する予測画像を生成する。
また、可変長復号部41により可変長復号された符号化モードが、イントラ符号化モードにおける輝度相関利用色差信号予測モードであれば、その符号化ブロックを構成している画素のうち、水平方向及び垂直方向に隣接している複数の画素に係る輝度成分を用いて、輝度成分と色差成分の相関を示す相関パラメータを算出し、その相関パラメータと処理対象となる色差成分符号化ブロックに対応する輝度成分を用いて、色差成分に対する予測画像を生成する。
In addition, if the coding mode that has been variable-length decoded by the variable-length decoding unit 41 is the directional prediction mode in the intra coding mode, the directional intra-frame prediction is performed on the color difference component in the coding block. The prediction image for the color difference component is generated.
Further, if the encoding mode variable-length decoded by the variable-length decoding unit 41 is the luminance correlation-use color difference signal prediction mode in the intra encoding mode, among the pixels constituting the encoding block, the horizontal direction and Using the luminance components of a plurality of pixels adjacent in the vertical direction, a correlation parameter indicating the correlation between the luminance component and the color difference component is calculated, and the luminance corresponding to the correlation parameter and the color difference component coding block to be processed A predicted image for the color difference component is generated using the component.

入力信号フォーマットが4:4:4信号である場合には、上記輝度色差共通イントラ予測モード又は上記輝度相関利用色差信号予測モードの処理を実施し、方向性予測モードは選択しないように構成してもよい。
YUV4:4:4信号では、輝度信号と色差信号のエッジ位置に高い相関関係があるため、輝度信号と異なる方向性予測モードを色差信号に適用することを禁止することにより、その色差信号のイントラ予測モードの情報量を削減して、符号化効率を高めることができる。
当然、色差信号に対して、輝度信号とは異なる方向性予測モードを選択できるように構成してもよい。
When the input signal format is 4: 4: 4 signal, the process of the luminance color difference common intra prediction mode or the luminance correlation using color difference signal prediction mode is performed, and the directionality prediction mode is not selected. Also good.
In the YUV 4: 4: 4 signal, there is a high correlation between the edge positions of the luminance signal and the color difference signal. It is possible to increase the coding efficiency by reducing the amount of information in the prediction mode.
Naturally, a direction prediction mode different from the luminance signal may be selected for the color difference signal.

動き補償部44は動き補償予測フレームメモリ49により格納されている1フレーム以上の参照画像を用いて、切替スイッチ42から出力されたインター予測パラメータに基づいて、符号化ブロックに対する動き補償予測処理を実施することで予測画像を生成する処理を実施する。
なお、切替スイッチ42、イントラ予測部43及び動き補償部44から予測画像生成部が構成されている。
The motion compensation unit 44 performs a motion compensation prediction process on the encoded block based on the inter prediction parameter output from the changeover switch 42 using one or more reference images stored in the motion compensation prediction frame memory 49. Thus, a process for generating a predicted image is performed.
The changeover switch 42, the intra prediction unit 43, and the motion compensation unit 44 constitute a predicted image generation unit.

逆量子化・逆変換部45は可変長復号部41から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、可変長復号部41から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロック分割フラグから特定される変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や逆DST(逆離散サイン変換)、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として出力する処理を実施する。
即ち、逆量子化・逆変換部45は可変長復号部41から出力された予測差分符号化パラメータに含まれている変換ブロック分割フラグに基づいて階層的に分割された輝度信号の変換ブロック形状を特定し、変換ブロック単位で逆量子化処理・逆変換処理を行う。
The inverse quantization / inverse transform unit 45 uses the quantization parameter included in the prediction difference encoding parameter output from the variable length decoding unit 41 to compress the encoded block output from the variable length decoding unit 41 Inverse transform processing (for example, inverse DCT (inverse discrete cosine) of compressed data of inverse quantization in units of transform block size specified from the transform block division flag included in the prediction differential encoding parameter. Conversion), inverse DST (inverse discrete sine transform), inverse KL transformation, etc.), and the compressed data after the inverse transformation process is used as a decoded prediction difference signal (a signal indicating a difference image before compression). Perform the output process.
That is, the inverse quantization / inverse transform unit 45 converts the transform block shape of the luminance signal divided hierarchically based on the transform block partition flag included in the prediction difference encoding parameter output from the variable length decoding unit 41. Identify and perform inverse quantization and inverse transform on a transform block basis.

具体的には、輝度信号については、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードである場合、その変換ブロック分割フラグに基づいて符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードである場合、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。
Specifically, for the luminance signal, when the prediction mode in which the shape of the prediction block of the luminance signal is a square is the encoding mode of the encoding block, one encoding block is determined based on the transform block division flag or It is configured so as to be hierarchically divided into a plurality of square transform blocks.
On the other hand, when the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is the encoding mode of the encoding block, the encoding block is hierarchically divided into one or a plurality of rectangular transform blocks. To do.

色差信号については、入力信号フォーマットがYUV4:2:0信号である場合には、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードであれば、輝度信号と同様に、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードであれば、輝度信号と同様に、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
For the color difference signal, when the input signal format is a YUV 4: 2: 0 signal, if the prediction mode in which the shape of the prediction block of the luminance signal is a square is the encoding mode of the encoding block, the same as the luminance signal In addition, the encoding block is configured to be hierarchically divided into one or a plurality of square transform blocks. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.
On the other hand, if the prediction mode in which the prediction block of the luminance signal is rectangular is the encoding mode of the encoding block, the encoding block is hierarchically divided into one or a plurality of rectangular transform blocks as in the luminance signal. Configure to be split. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.

入力信号フォーマットがYUV4:2:2信号である場合には、輝度信号の予測ブロックの形状にかかわらず、色差信号については、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロック形状は常に垂直方向の画素数が水平方向の画素数の2倍となる長方形となる。
また、入力信号フォーマットがYUV4:4:4信号である場合には、色差信号の変換ブロックは、常に輝度信号の変換ブロックと同様の分割を行い、同じサイズの変換ブロックとなるように構成する。
なお、逆量子化・逆変換部45は差分画像生成手段を構成している。
When the input signal format is a YUV 4: 2: 2 signal, the coding block is divided hierarchically into one or a plurality of square transform blocks for the color difference signal regardless of the shape of the prediction block of the luminance signal. To be configured. In this case, the conversion block shape of the color difference signal is always a rectangle in which the number of pixels in the vertical direction is twice the number of pixels in the horizontal direction.
When the input signal format is a YUV 4: 4: 4 signal, the color difference signal conversion block is always divided in the same manner as the luminance signal conversion block so as to be the same size conversion block.
The inverse quantization / inverse transform unit 45 constitutes a difference image generation unit.

加算部46は逆量子化・逆変換部45から出力された復号予測差分信号とイントラ予測部43又は動き補償部44により生成された予測画像を示す予測信号を加算することで、復号画像を示す復号画像信号を生成する処理を実施する。なお、加算部46は復号画像生成手段を構成している。
イントラ予測用メモリ47はイントラ予測部43により次回のイントラ予測処理で用いられる画像として、加算部46により生成された復号画像信号が示す復号画像を格納するRAMなどの記録媒体である。
The addition unit 46 adds the decoded prediction difference signal output from the inverse quantization / inverse conversion unit 45 to the prediction signal indicating the prediction image generated by the intra prediction unit 43 or the motion compensation unit 44, thereby indicating a decoded image. A process of generating a decoded image signal is performed. The adding unit 46 constitutes a decoded image generating unit.
The intra prediction memory 47 is a recording medium such as a RAM that stores a decoded image indicated by the decoded image signal generated by the addition unit 46 as an image used in the next intra prediction process by the intra prediction unit 43.

ループフィルタ部48は加算部46により生成された復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ49に出力するとともに、その復号画像を再生画像として外部に出力する処理を実施する。
動き補償予測フレームメモリ49は動き補償部44により次回の動き補償予測処理で用いられる参照画像として、ループフィルタ部48によるフィルタリング処理後の復号画像を格納するRAMなどの記録媒体である。
The loop filter unit 48 compensates for the coding distortion included in the decoded image signal generated by the adding unit 46, and uses the decoded image indicated by the decoded image signal after the coding distortion compensation as a reference image as a motion compensated prediction frame memory 49. And a process of outputting the decoded image as a reproduced image to the outside.
The motion compensated prediction frame memory 49 is a recording medium such as a RAM that stores a decoded image after the filtering process by the loop filter unit 48 as a reference image to be used by the motion compensation unit 44 in the next motion compensation prediction process.

図4では、カラー動画像復号装置の構成要素である可変長復号部41、切替スイッチ42、イントラ予測部43、動き補償部44、逆量子化・逆変換部45、加算部46、イントラ予測用メモリ47、ループフィルタ部48及び動き補償予測フレームメモリ49のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路やワンチップマイコン、あるいは、メモリなど)で構成されているものを想定しているが、カラー動画像復号装置がコンピュータなどで構成されていてもよい。
カラー動画像復号装置がコンピュータで構成される場合、イントラ予測用メモリ47及び動き補償予測フレームメモリ49をコンピュータのメモリ上に構成するとともに、可変長復号部41、切替スイッチ42、イントラ予測部43、動き補償部44、逆量子化・逆変換部45、加算部46及びループフィルタ部48の処理内容を記述しているプログラムの全部又は一部を当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図5はこの発明の実施の形態1によるカラー動画像復号装置の処理内容を示すフローチャートである。
In FIG. 4, a variable length decoding unit 41, a changeover switch 42, an intra prediction unit 43, a motion compensation unit 44, an inverse quantization / inverse transformation unit 45, an addition unit 46, and an intra prediction component that are components of the color moving image decoding apparatus. Each of the memory 47, the loop filter unit 48, and the motion compensation prediction frame memory 49 is configured by dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or a memory). Assuming, the color moving image decoding apparatus may be configured by a computer or the like.
When the color moving image decoding apparatus is configured by a computer, the intra prediction memory 47 and the motion compensated prediction frame memory 49 are configured on the memory of the computer, and the variable length decoding unit 41, the changeover switch 42, the intra prediction unit 43, All or part of the program describing the processing contents of the motion compensation unit 44, the inverse quantization / inverse conversion unit 45, the addition unit 46, and the loop filter unit 48 is stored in the memory of the computer, and the CPU of the computer The program stored in the memory may be executed.
FIG. 5 is a flowchart showing the processing contents of the color moving image decoding apparatus according to Embodiment 1 of the present invention.

図6はこの発明の実施の形態1によるカラー動画像復号装置の可変長復号部41を示す構成図である。
図6において、変換係数可変長復号部51はビットストリームに多重化された符号化データから圧縮データである直交変換係数を可変長復号する処理を実施する。
符号化パラメータ可変長復号部52はビットストリームに多重化された符号化データから入力信号フォーマット情報、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報、ブロック分割情報などの符号化パラメータを可変長復号する処理を実施する。
FIG. 6 is a block diagram showing the variable length decoding unit 41 of the color moving image decoding apparatus according to Embodiment 1 of the present invention.
In FIG. 6, a transform coefficient variable length decoding unit 51 performs a process of variable length decoding orthogonal transform coefficients that are compressed data from encoded data multiplexed in a bit stream.
The encoding parameter variable length decoding unit 52 receives input signal format information, encoding mode, prediction differential encoding parameter, intra prediction parameter / inter prediction parameter, motion information, block division information, etc. from the encoded data multiplexed in the bitstream. A process for variable-length decoding of the coding parameters is performed.

次に動作について説明する。
最初に、図1のカラー動画像符号化装置の処理内容を説明する。
まず、符号化制御部1は、イントラ予測処理(フレーム内予測処理)又は動き補償予測処理(フレーム間予測処理)が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定する(図2のステップST1)。
Next, the operation will be described.
First, the processing contents of the color moving image encoding apparatus in FIG. 1 will be described.
First, the encoding control unit 1 determines the maximum size of an encoding block that is a processing unit when intra prediction processing (intraframe prediction processing) or motion compensation prediction processing (interframe prediction processing) is performed, The upper limit number of hierarchies when the coding block of the maximum size is divided hierarchically is determined (step ST1 in FIG. 2).

符号化ブロックの最大サイズの決め方として、例えば、全てのピクチャに対して、入力画像の解像度に応じたサイズに決定する方法が考えられる。
また、入力カラー画像の局所的な動きの複雑さの違いをパラメータとして定量化しておき、動きの激しいピクチャでは最大サイズを小さな値に決定し、動きが少ないピクチャでは最大サイズを大きな値に決定する方法などが考えられる。
上限の階層数については、例えば、入力カラー画像の動きが激しい程、階層数を深くして、より細かい動きが検出できるように設定し、入力カラー画像の動きが少なければ、階層数を抑えるように設定する方法が考えられる。
As a method of determining the maximum size of the encoded block, for example, a method of determining a size corresponding to the resolution of the input image for all the pictures can be considered.
Also, the difference in the complexity of the local motion of the input color image is quantified as a parameter, and the maximum size is determined to be a small value for pictures with intense motion, and the maximum size is determined to be a large value for pictures with little motion. Possible methods.
The upper limit of the number of hierarchies is set so that, for example, the more intense the input color image moves, the deeper the number of hierarchies, so that more detailed movement can be detected. The method of setting to can be considered.

また、符号化制御部1は、利用可能な1以上の符号化モード(M種類のイントラ符号化モード、N種類のインター符号化モード)の中から、階層的に分割される各々の符号化ブロックに対応する符号化モードを選択する(ステップST2)。予め用意されているM種類のイントラ符号化モードについては後述する。
ただし、後述するブロック分割部2により階層的に分割された各々の符号化ブロックが更にパーティション単位に分割される場合は、各々のパーティションに対応する符号化モードを選択することが可能である。
以下、この実施の形態1では、各々の符号化ブロックが更にパーティション単位に分割されるものとして説明する。
符号化制御部1による符号化モードの選択方法は、公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
In addition, the encoding control unit 1 includes each encoding block divided hierarchically from one or more available encoding modes (M types of intra encoding modes and N types of inter encoding modes). Is selected (step ST2). The M types of intra coding modes prepared in advance will be described later.
However, when each coding block hierarchically divided by the block division unit 2 described later is further divided into partitions, it is possible to select a coding mode corresponding to each partition.
In the following description of the first embodiment, each encoded block is further divided into partitions.
Since the encoding mode selection method by the encoding control unit 1 is a known technique, a detailed description thereof will be omitted. For example, an encoding process for an encoding block is performed using any available encoding mode. There is a method in which coding efficiency is verified by performing and a coding mode having the best coding efficiency is selected from among a plurality of available coding modes.

また、符号化制御部1は、各々の符号化ブロックに含まれているパーティション毎に、差分画像が圧縮される際に用いられる量子化パラメータ及び変換ブロックサイズを決定するとともに、予測処理が実施される際に用いられるイントラ予測パラメータ又はインター予測パラメータを決定する。
符号化制御部1は、量子化パラメータ及び変換ブロックサイズを含む予測差分符号化パラメータを変換・量子化部7、逆量子化・逆変換部8及び可変長符号化部13に出力する。また、予測差分符号化パラメータを必要に応じてイントラ予測部4に出力する。
Further, the encoding control unit 1 determines a quantization parameter and a transform block size used when the difference image is compressed for each partition included in each encoding block, and a prediction process is performed. Intra prediction parameters or inter prediction parameters used in the determination are determined.
The encoding control unit 1 outputs the prediction difference encoding parameter including the quantization parameter and the transform block size to the transform / quantization unit 7, the inverse quantization / inverse transform unit 8, and the variable length encoding unit 13. Moreover, a prediction difference encoding parameter is output to the intra estimation part 4 as needed.

ブロック分割部2は、入力カラー画像を示す映像信号を入力すると、その入力カラー画像を符号化制御部1により決定された最大サイズの符号化ブロックに分割するとともに、符号化制御部1により決定された上限の階層数に至るまで、その符号化ブロックを階層的に分割する。また、その符号化ブロックをパーティション単位に分割する(ステップST3)。
ここで、図7は最大サイズの符号化ブロックが階層的に複数の符号化ブロックに分割される様子を示す説明図である。
図7の例では、最大サイズの符号化ブロックは、第0階層の符号化ブロックBであり、輝度成分で(L,M)のサイズを有している。
また、図7の例では、最大サイズの符号化ブロックBを出発点として、4分木構造で、別途定める所定の深さまで階層的に分割を行うことによって、符号化ブロックBを得ている。
When a video signal indicating an input color image is input, the block dividing unit 2 divides the input color image into encoded blocks of the maximum size determined by the encoding control unit 1 and is determined by the encoding control unit 1. The encoded block is divided hierarchically until the upper limit number of layers is reached. Further, the encoded block is divided into partitions (step ST3).
Here, FIG. 7 is an explanatory diagram showing a state in which a maximum-size encoded block is hierarchically divided into a plurality of encoded blocks.
In the example of FIG. 7, the maximum size encoded block is the 0th layer encoded block B 0 , and has a size of (L 0 , M 0 ) as a luminance component.
In the example of FIG. 7, the encoding block B n is obtained by performing hierarchical division to a predetermined depth determined separately in a quadtree structure with the encoding block B 0 having the maximum size as a starting point. Yes.

深さnにおいては、符号化ブロックBはサイズ(L,M)の画像領域である。
ただし、LとMは同じであってもよいし異なっていてもよいが、図7の例ではL=Mのケースを示している。
以降、符号化ブロックBのサイズは、符号化ブロックBの輝度成分におけるサイズ(L,M)と定義する。
ブロック分割部2では、4分木分割を行うため、常に(Ln+1,Mn+1)=(L/2,M/2)が成立する。
ただし、RGB信号などのように、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(L,M)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックのサイズは(L/2,M/2)である。
以降、第n階層の符号化ブロックBで選択しうる符号化モードをm(B)と表記する。
At the depth n, the coding block B n is an image area of size (L n , M n ).
However, L n and M n may be the same or different, but the example of FIG. 7 shows a case of L n = M n .
Later, the size of the encoded block B n is defined as the size of the luminance component of the encoded block B n (L n, M n ).
Since the block division unit 2 performs quadtree division, (L n + 1 , M n + 1 ) = (L n / 2, M n / 2) always holds.
However, in a color video signal (4: 4: 4 format) in which all color components have the same number of samples, such as RGB signals, the size of all color components is (L n , M n ). When the 4: 2: 0 format is handled, the size of the corresponding color difference component coding block is (L n / 2, M n / 2).
Hereinafter, an encoding mode that can be selected in the encoding block B n in the n-th layer is denoted as m (B n ).

複数の色成分からなるカラー映像信号の場合、符号化モードm(B)は、色成分ごとに、それぞれ個別のモードを用いるように構成されてもよいが、以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードのことを指すものとして説明を行う。
符号化モードm(B)には、1つないし複数のイントラ符号化モード(総称して「INTRA」)、1つないし複数のインター符号化モード(総称して「INTER」)があり、符号化制御部1は、上述したように、当該ピクチャで利用可能な全ての符号化モードないしは、そのサブセットの中から、符号化ブロックBに対して最も符号化効率がよい符号化モードを選択する。
In the case of a color video signal composed of a plurality of color components, the encoding mode m (B n ) may be configured to use an individual mode for each color component, but hereinafter, unless otherwise specified, YUV The description will be made on the assumption that it indicates the coding mode for the luminance component of the coding block of the signal 4: 2: 0 format.
The coding mode m (B n ) includes one or more intra coding modes (collectively “INTRA”), one or more inter coding modes (collectively “INTER”), As described above, the encoding control unit 1 selects an encoding mode having the highest encoding efficiency for the encoding block B n from all the encoding modes available for the picture or a subset thereof. .

符号化ブロックBは、図7に示すように、更に1つないし複数の予測処理単位(パーティション)に分割される。
以降、符号化ブロックBに属するパーティションをP (i: 第n階層におけるパーティション番号)と表記する。図8は符号化ブロックBに属するパーティションP を示す説明図である。
符号化ブロックBに属するパーティションP の分割がどのようになされているかは符号化モードm(B)の中に情報として含まれる。
パーティションP は、すべて符号化モードm(B)に従って予測処理が行われるが、パーティションP 毎に、個別の予測パラメータを選択することができる。
As shown in FIG. 7, the coding block B n is further divided into one or more prediction processing units (partitions).
Hereinafter, the partition belonging to the coding block B n is denoted as P i n (i: the partition number in the nth layer). FIG. 8 is an explanatory diagram showing partitions P i n belonging to the coding block B n .
How the partition P i n belonging to the coding block B n is divided is included as information in the coding mode m (B n ).
All partitions P i n are subjected to prediction processing according to the coding mode m (B n ), but individual prediction parameters can be selected for each partition P i n .

符号化制御部1は、最大サイズの符号化ブロックに対して、例えば、図9に示すようなブロック分割状態を生成して、符号化ブロックBを特定する。
図9(a)の斜線部分は分割後のパーティションの分布を示し、また、図9(b)は階層分割後のパーティションに符号化モードm(B)が割り当てられる状況を4分木グラフで示している。
図9(b)において、□で囲まれているノードが、符号化モードm(B)が割り当てられたノード(符号化ブロックB)を示している。
また、符号化制御部1は、分割後のパーティションに対して、前述の通りに、変換ブロックの分割形状を決定する。
For example, the encoding control unit 1 generates a block division state as illustrated in FIG. 9 for the encoding block of the maximum size, and specifies the encoding block Bn .
9A shows the distribution of the partitions after the division, and FIG. 9B shows a situation where the encoding mode m (B n ) is assigned to the partition after the hierarchical division in a quadtree graph. Show.
In FIG. 9B, nodes surrounded by squares indicate nodes (encoded blocks B n ) to which the encoding mode m (B n ) is assigned.
Also, the encoding control unit 1 determines the division shape of the transform block as described above for the divided partition.

切替スイッチ3は、符号化制御部1がイントラ符号化モードを選択すると(m(B)∈INTRA)、ブロック分割部2により分割された符号化ブロックBに属するパーティションP をイントラ予測部4に出力し、符号化制御部1がインター符号化モードを選択すると(m(B)∈INTER)、その符号化ブロックBに属するパーティションP を動き補償予測部5に出力する。 When the coding control unit 1 selects the intra coding mode (m (B n ) εINTRA), the changeover switch 3 performs intra prediction on the partition P i n belonging to the coding block B n divided by the block dividing unit 2. When the coding control unit 1 selects the inter coding mode (m (B n ) εINTER), the partition P i n belonging to the coding block B n is output to the motion compensation prediction unit 5. .

イントラ予測部4は、切替スイッチ3から符号化ブロックBに属するパーティションP を受けると(ステップST4)、符号化制御部1により決定されたイントラ予測パラメータに基づいて、各パーティションP に対するイントラ予測処理を実施することにより、イントラ予測画像(P )を生成する(ステップST5)。
以下、この明細書では、P はパーティションを示し、(P )はパーティションP の予測画像を示すものとする。
When receiving the partition P i n belonging to the coding block B n from the changeover switch 3 (step ST4), the intra prediction unit 4 receives each partition P i n based on the intra prediction parameters determined by the coding control unit 1. Intra prediction image (P i n ) is generated by performing intra prediction processing on (step ST5).
Hereinafter, in this specification, P i n indicates a partition, and (P i n ) indicates a predicted image of the partition P i n .

イントラ予測画像(P )の生成に用いられるイントラ予測パラメータは、カラー動画像復号装置側でも、全く同じイントラ予測画像(P )を生成する必要があるため、可変長符号化部13によってビットストリームに多重化される。
なお、イントラ予測パラメータとして選択できるイントラ予測方向数は、処理対象となるブロックのサイズに応じて異なるように構成してもよい。
大きいサイズのパーティションでは、イントラ予測の効率が低下するため、選択できるイントラ予測方向数を少なくし、小さいサイズのパーティションでは、選択できるイントラ予測方向数を多くするように構成することができる。
例えば、4×4画素パーティションや8×8画素パーティションでは34方向、16×16画素パーティションでは17方向、32×32画素パーティションでは9方向などのように構成してもよい。
Since the intra prediction parameters used to generate the intra-prediction image (P i n) is also a color video decoding apparatus side, it is necessary to generate exactly the same intra prediction image (P i n), the variable length coding unit 13 Is multiplexed into the bitstream.
Note that the number of intra prediction directions that can be selected as the intra prediction parameter may be configured to differ depending on the size of the block to be processed.
Since the efficiency of intra prediction decreases in a large size partition, the number of intra prediction directions that can be selected can be reduced, and the number of intra prediction directions that can be selected in a small size partition can be increased.
For example, a 4 × 4 pixel partition or an 8 × 8 pixel partition may be configured in 34 directions, a 16 × 16 pixel partition in 17 directions, a 32 × 32 pixel partition in 9 directions, or the like.

ここで、イントラ予測部4の処理内容を具体的に説明する。
図10は符号化ブロックBに属する各パーティションP において選択可能なイントラ予測パラメータ(イントラ予測モード)の一例を示す説明図である。
図10の例では、イントラ予測モードに対応する予測方向ベクトルを示しており、選択可能なイントラ予測モードの個数が増えるに従って、予測方向ベクトル同士の相対角度が小さくなるように設計されている。
Here, the processing content of the intra estimation part 4 is demonstrated concretely.
FIG. 10 is an explanatory diagram showing an example of intra prediction parameters (intra prediction modes) that can be selected in each partition P i n belonging to the coding block B n .
In the example of FIG. 10, the prediction direction vector corresponding to the intra prediction mode is shown, and the relative angle between the prediction direction vectors is designed to decrease as the number of selectable intra prediction modes increases.

まず、イントラ予測部4は、ブロック分割部2により分割された符号化ブロックにおける輝度成分のフレーム内予測を実施して、輝度成分に対する予測画像を生成する。
以下、輝度成分に対する予測画像の生成処理を具体的に説明するが、ここでは、イントラ予測部4が、パーティションP の輝度信号に対するイントラ予測パラメータ(イントラ予測モード)に基づいて、その輝度信号のイントラ予測信号を生成するイントラ処理について説明する。
説明の便宜上、パーティションP のサイズをl ×m 画素とする。
First, the intra prediction unit 4 performs intra-frame prediction of the luminance component in the encoded block divided by the block dividing unit 2, and generates a prediction image for the luminance component.
Follows is a description of the process of generating the predicted image for the luminance component, here, the intra prediction unit 4, based on the intra prediction parameters (intra prediction mode) for the luminance signal partitions P i n, that the luminance signal Intra processing for generating the intra prediction signal will be described.
For convenience of explanation, the size of the partition P i n a l i n × m i n pixels.

図11はl =m =4の場合において、パーティションP 内の画素の予測値を生成する際に用いる画素の一例を示す説明図である。
図11の例では、パーティションP に隣接している符号化済みの上パーティションの画素((2×l +1)個の画素)と、左パーティションの画素((2×m )個の画素)を予測に用いる参照画素としているが、予測に用いる画素は、図11に示す画素より多くても少なくてもよい。
また、図11の例では、隣接している1行又は1列分の画素を予測に用いているが、2行又は2列分の画素、あるいは、それ以上の画素を予測に用いてもよい。
FIG. 11 is an explanatory diagram illustrating an example of pixels used when generating predicted values of pixels in the partition P i n when l i n = m i n = 4.
In the example of FIG. 11, the partition P i n in the pixel on the partition already coded that is adjacent to ((2 × l i n +1 ) pixels), the left partition pixel ((2 × m i n) The number of pixels) is a reference pixel used for prediction, but the number of pixels used for prediction may be more or less than that shown in FIG.
Further, in the example of FIG. 11, pixels for one row or one column adjacent to each other are used for prediction, but pixels for two rows or two columns or more may be used for prediction. .

イントラ予測部4は、例えば、パーティションP に対するイントラ予測モードのインデックス値が2(平均値予測)である場合、上パーティションの隣接画素と左パーティションの隣接画素の平均値をパーティションP 内の画素の予測値として予測画像を生成する。
イントラ予測モードのインデックス値が2(平均値予測)以外の場合には、インデックス値が示す予測方向ベクトルv=(dx,dy)に基づいて、パーティションP 内の画素の予測値を生成する。
予測値を生成する画素(予測対象画素)のパーティションP 内の相対座標(パーティションの左上画素を原点とする)を(x,y)とすると、予測に用いる参照画素の位置は、下記に示すLと、隣接画素の交点となる。

Figure 2015019257
ただし、kは正のスカラ値である。 For example, when the intra prediction mode index value for the partition P i n is 2 (average value prediction), the intra prediction unit 4 calculates the average value of the adjacent pixels in the upper partition and the adjacent pixels in the left partition in the partition P i n . A predicted image is generated as a predicted value of the pixel.
If the index value of the intra prediction mode is other than 2 (average prediction), the prediction direction vector index value indicates v p = (dx, dy) on the basis of, generating a prediction value of the pixel in the partition P i n To do.
Partitioning P i n in the relative coordinates of the pixels for generating the prediction value (prediction target pixel) a (an origin at the upper left pixel of the partition) as (x, y), the position of the reference pixels used for prediction, the following This is the intersection of L and adjacent pixels.
Figure 2015019257
However, k is a positive scalar value.

参照画素が整数画素位置にある場合、その整数画素を予測対象画素の予測値とする。参照画素が整数画素位置にない場合、参照画素に隣接する整数画素から生成される補間画素を予測値とする。
図11の例では、参照画素が整数画素位置にないので、参照画素に隣接する2画素の平均値を予測値としている。
なお、隣接する2画素のみではなく、隣接する2画素以上の画素から補間画素を生成して予測値としてもよい。
When the reference pixel is at the integer pixel position, the integer pixel is set as the prediction value of the prediction target pixel. When the reference pixel is not located at the integer pixel position, an interpolation pixel generated from the integer pixel adjacent to the reference pixel is set as the predicted value.
In the example of FIG. 11, since the reference pixel is not located at the integer pixel position, an average value of two pixels adjacent to the reference pixel is used as the predicted value.
Note that an interpolation pixel may be generated not only from two adjacent pixels but also from two or more adjacent pixels, and used as a predicted value.

イントラ予測部4は、同様の手順で、パーティションP 内の輝度信号のすべての画素に対する予測画素を生成し、その生成したイントラ予測画像(P )を出力する。
イントラ予測画像(P )の生成に用いているイントラ予測パラメータは、上述したように、ビットストリームに多重化するために可変長符号化部13に出力される。
The intra prediction unit 4 generates prediction pixels for all the pixels of the luminance signal in the partition P i n in the same procedure, and outputs the generated intra prediction image (P i n ).
As described above, the intra-prediction parameters used for generating the intra-predicted image (P i n ) are output to the variable-length encoding unit 13 for multiplexing into the bitstream.

なお、イントラ予測は、画面内の未知の領域を既知の領域から予測する手段であるが、輝度信号と色差信号のテクスチャには相関があり、空間方向については、近傍画素同士は画素値の変化が小さいため、予測ブロックに隣接する復号済の輝度信号と色差信号を利用して輝度信号と色差信号の相関パラメータを算出し、その輝度信号と相関パラメータから色差信号を予測することにより、予測効率を向上させることができる。   Intra prediction is a means for predicting an unknown area in the screen from a known area, but the texture of the luminance signal and the color difference signal are correlated, and in the spatial direction, neighboring pixels change pixel values. Predictive efficiency by calculating the correlation parameter between the luminance signal and the color difference signal using the decoded luminance signal and the color difference signal adjacent to the prediction block and predicting the color difference signal from the luminance signal and the correlation parameter. Can be improved.

ここでは、符号化ブロックにおける輝度成分のフレーム内予測を実施して、輝度成分に対する予測画像を生成するものを示したが、色差成分対する予測画像は次のように生成する。
図12は色差信号のイントラ予測パラメータと色差イントラ予測モードの対応例を示す説明図である。
入力信号フォーマットがYUV4:2:0信号又はYUV4:2:2信号である場合には、符号化制御部1により選択された符号化モードが、輝度信号と同じイントラ予測モードを適用することを示す輝度色差共通イントラ予測モードであれば、ブロック分割部2により分割された符号化ブロックにおける色差成分に対して、輝度信号と同じイントラ予測モードによるフレーム内予測を実施して、色差成分に対する予測画像を生成する。
Here, although the intra-frame prediction of the luminance component in the coding block is performed to generate a predicted image for the luminance component, the predicted image for the color difference component is generated as follows.
FIG. 12 is an explanatory diagram showing an example of correspondence between intra prediction parameters of color difference signals and color difference intra prediction modes.
When the input signal format is YUV4: 2: 0 signal or YUV4: 2: 2 signal, it indicates that the encoding mode selected by the encoding control unit 1 applies the same intra prediction mode as the luminance signal. In the case of the luminance / chrominance common intra prediction mode, intra-frame prediction is performed on the chrominance component in the encoded block divided by the block dividing unit 2 in the same intra prediction mode as the luminance signal, and a prediction image for the chrominance component is obtained. Generate.

符号化制御部1により選択された符号化モードが、イントラ符号化モードにおける方向性予測モードであれば、ブロック分割部2により分割された符号化ブロックにおける色差成分に対して、方向性フレーム内予測を実施して、色差成分に対する予測画像を生成する。
また、符号化制御部1により選択された符号化モードが、イントラ符号化モードにおける輝度相関利用色差信号予測モードであれば、その符号化ブロックを構成している画素のうち、水平方向及び垂直方向に隣接している複数の画素に係る輝度成分を用いて、輝度成分と色差成分の相関を示す相関パラメータを算出し、その相関パラメータと処理対象となる色差成分符号化ブロックに対応する輝度成分を用いて、色差成分に対する予測画像を生成する。
If the coding mode selected by the coding control unit 1 is the directional prediction mode in the intra coding mode, the directional intra-frame prediction is performed on the color difference component in the coding block divided by the block dividing unit 2. To generate a predicted image for the color difference component.
Also, if the coding mode selected by the coding control unit 1 is the luminance correlation-use color difference signal prediction mode in the intra coding mode, the horizontal direction and the vertical direction among the pixels constituting the coding block Is used to calculate a correlation parameter indicating the correlation between the luminance component and the color difference component, and the luminance component corresponding to the color difference component coding block to be processed is calculated. The prediction image for the color difference component is generated.

入力信号フォーマットがYUV4:4:4信号である場合には、上記輝度色差共通イントラ予測モード又は上記輝度相関利用色差信号予測モードの処理を実施し、方向性予測モードは選択しないように構成してもよい。
YUV4:4:4信号では、輝度信号と色差信号のエッジ位置に高い相関関係があるため、輝度信号と異なる方向性予測モードを色差信号に適用することを禁止することにより、その色差信号のイントラ予測モードの情報量を削減して、符号化効率を高めることができる。
当然、色差信号に対して、輝度信号とは異なる方向性予測モードを選択できるように構成してもよい。
When the input signal format is a YUV 4: 4: 4 signal, the processing of the luminance color difference common intra prediction mode or the luminance correlation using color difference signal prediction mode is performed, and the directionality prediction mode is not selected. Also good.
In the YUV 4: 4: 4 signal, there is a high correlation between the edge positions of the luminance signal and the color difference signal. It is possible to increase the coding efficiency by reducing the amount of information in the prediction mode.
Naturally, a direction prediction mode different from the luminance signal may be selected for the color difference signal.

動き補償予測部5は、切替スイッチ3から符号化ブロックBに属するパーティションP を受けると(ステップST4)、符号化制御部1により決定されたインター予測パラメータに基づいて、各パーティションP に対するインター予測処理を実施することにより、インター予測画像(P )を生成する(ステップST6)。
即ち、動き補償予測部5は、動き補償予測フレームメモリ12により格納されている1フレーム以上の参照画像を用いて、符号化制御部1から出力されたインター予測パラメータに基づいて、その符号化ブロックに対する動き補償予測処理を実施することで、インター予測画像(P )を生成する。
インター予測画像(P )の生成に用いられるインター予測パラメータは、カラー動画像復号装置側でも、全く同じインター予測画像(P )を生成する必要があるため、可変長符号化部13によってビットストリームに多重化される。
When the motion compensated prediction unit 5 receives the partition P i n belonging to the coding block B n from the changeover switch 3 (step ST4), each of the partitions P i is based on the inter prediction parameter determined by the coding control unit 1. The inter prediction image (P i n ) is generated by performing the inter prediction process for n (step ST6).
That is, the motion compensation prediction unit 5 uses the reference image of one or more frames stored in the motion compensation prediction frame memory 12, and based on the inter prediction parameter output from the encoding control unit 1, By performing the motion compensated prediction process for, an inter predicted image (P i n ) is generated.
For inter prediction parameters to be used in generating the inter prediction image (P i n) is also a color video decoding apparatus side, it is necessary to generate exactly the same inter-prediction image (P i n), the variable length coding unit 13 Is multiplexed into the bitstream.

減算部6は、イントラ予測部4又は動き補償予測部5から予測画像(P )を受けると、ブロック分割部2により分割された符号化ブロックBに属するパーティションP から、その予測画像(P )を減算することで、その差分画像を示す予測差分信号e を生成する(ステップST7)。 When the subtraction unit 6 receives the predicted image (P i n ) from the intra prediction unit 4 or the motion compensation prediction unit 5, the subtraction unit 6 performs prediction from the partition P i n belonging to the encoded block B n divided by the block division unit 2. By subtracting the image (P i n ), a prediction difference signal e i n indicating the difference image is generated (step ST7).

変換・量子化部7は、減算部6が予測差分信号e を生成すると、符号化制御部1で決定された変換ブロックサイズ単位で、その予測差分信号e に対する変換処理(例えば、DCT(離散コサイン変換)やDST(離散サイン変換)、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施するとともに、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、その予測差分信号e の変換係数を量子化することで、量子化後の変換係数である差分画像の圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST8)。
即ち、変換・量子化部7は、減算部6が予測差分信号e を生成すると、予測差分信号e の輝度信号に対する変換・量子化処理を実施する場合、ブロック分割部2により分割された符号化ブロックをさらに階層的に分割して、分割後のブロック単位で輝度信号の変換・量子化処理を実施する。
つまり、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択された場合、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択された場合、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。
Transform and quantization unit 7, the subtraction unit 6 generates a prediction difference signal e i n, the transformation block size determined by the coding control unit 1, the conversion processing for the prediction difference signal e i n (e.g., DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), and orthogonal transform processing such as KL transform in which a base design is made in advance for a specific learning sequence) are included in the prediction differential encoding parameters. By quantizing the transform coefficient of the prediction difference signal e i n using the quantized parameter, the compressed image of the differential image, which is the transform coefficient after quantization, is converted into the inverse quantization / inverse transform unit 8 and the variable It outputs to the long encoding part 13 (step ST8).
That is, when the subtraction unit 6 generates the prediction difference signal e i n , the transform / quantization unit 7 performs division / quantization processing on the luminance signal of the prediction difference signal e i n by the block division unit 2. The encoded block is further divided hierarchically, and luminance signal conversion / quantization processing is performed in units of the divided blocks.
That is, when the prediction mode in which the shape of the prediction block of the luminance signal is square is selected as the encoding mode of the encoding block, the encoding block is hierarchically divided into one or a plurality of square transform blocks. Configure.
On the other hand, when the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the coding mode of the coding block, the coding block is hierarchically divided into one or a plurality of rectangular transform blocks. Configure.

色差信号については、図13に示すように、入力信号フォーマットがYUV4:2:0信号である場合には、輝度信号の予測ブロックの形状が正方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
一方、輝度信号の予測ブロックの形状が長方形である予測モードが符号化ブロックの符号化モードとして選択されていれば、輝度信号と同様に、符号化ブロックが1つまたは複数の長方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロックサイズは、対応する輝度信号の変換ブロックの縦横ともに半分のサイズとなる。
As for the color difference signal, as shown in FIG. 13, when the input signal format is a YUV 4: 2: 0 signal, the prediction mode in which the shape of the prediction block of the luminance signal is a square is the encoding mode of the encoding block. If selected, the coding block is configured to be hierarchically divided into one or a plurality of square transform blocks in the same manner as the luminance signal. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.
On the other hand, if the prediction mode in which the shape of the prediction block of the luminance signal is rectangular is selected as the encoding mode of the encoding block, the encoding block is converted into one or a plurality of rectangular transform blocks, similarly to the luminance signal. It is configured to be divided hierarchically. In this case, the conversion block size of the color difference signal is half the vertical and horizontal sizes of the corresponding luminance signal conversion block.

図14に示すように、入力信号フォーマットがYUV4:2:2信号である場合には、輝度信号の予測ブロックの形状にかかわらず、色差信号については、符号化ブロックが1つまたは複数の正方形の変換ブロックに階層的に分割されるように構成する。この場合、色差信号の変換ブロック形状は、常に垂直方向の画素数が水平方向の画素数の2倍となる長方形となる。
また、図14に示すように、入力信号フォーマットがYUV4:4:4信号である場合には、色差信号の変換ブロックは、常に輝度信号の変換ブロックと同様の分割を行い、同じサイズの変換ブロックとなるように構成する。
As shown in FIG. 14, when the input signal format is a YUV 4: 2: 2 signal, the coding block has one or more squares for the color difference signal regardless of the shape of the prediction block of the luminance signal. It is configured to be divided hierarchically into transform blocks. In this case, the color difference signal conversion block shape is always a rectangle in which the number of pixels in the vertical direction is twice the number of pixels in the horizontal direction.
As shown in FIG. 14, when the input signal format is a YUV 4: 4: 4 signal, the color difference signal conversion block always performs the same division as the luminance signal conversion block, and the same size conversion block. To be configured.

逆量子化・逆変換部8は、変換・量子化部7から圧縮データを受けると、符号化制御部1から出力された予測差分符号化パラメータに含まれている量子化パラメータを用いて、その圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロック分割フラグから特定される変換ブロックサイズ単位で、逆量子化の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や逆DST(離散サイン変換)、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを局所復号予測差分信号として加算部9に出力する(ステップST9)。   When receiving the compressed data from the transform / quantization unit 7, the inverse quantization / inverse transform unit 8 uses the quantization parameter included in the prediction difference coding parameter output from the coding control unit 1 to The compressed data is inversely quantized, and inverse transform processing (for example, inverse DCT (inverse discrete) of the quantized compressed data is performed in transform block size units specified from the transform block division flag included in the prediction differential encoding parameter. By performing (cosine transform), inverse DST (discrete sine transform), inverse KL transform, etc.), the compressed data after the inverse transform is output to the adder 9 as a local decoded prediction difference signal (step ST9). ).

加算部9は、逆量子化・逆変換部8から局所復号予測差分信号を受けると、その局所復号予測差分信号と、イントラ予測部4又は動き補償予測部5により生成された予測画像(P )を示す予測信号とを加算することで、局所復号パーティション画像ないしはその集まりとしての局所復号符号化ブロック画像(以下、「局所復号画像」と称する)を示す局所復号画像信号を生成し、その局所復号画像信号をループフィルタ部11に出力する(ステップST10)。
また、イントラ予測用メモリ10には、イントラ予測に用いるために、当該局所復号画像が格納される。
Upon receiving the local decoded prediction difference signal from the inverse quantization / inverse transform unit 8, the adder 9 receives the local decoded prediction difference signal and the predicted image (P i ) generated by the intra prediction unit 4 or the motion compensated prediction unit 5. n ) to generate a locally decoded image signal indicating a locally decoded partition image or a locally decoded block image (hereinafter referred to as “locally decoded image”) as a collection thereof. The locally decoded image signal is output to the loop filter unit 11 (step ST10).
The intra prediction memory 10 stores the local decoded image for use in intra prediction.

ループフィルタ部11は、加算部9から局所復号画像信号を受けると、その局所復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の局所復号画像信号が示す局所復号画像を参照画像として動き補償予測フレームメモリ12に格納する(ステップST11)。
ここで、符号化歪は、変換ブロックの境界に沿って発生するため、変換ブロックの境界に対して符号化歪の補償を行う。小さい変換ブロックについては、変換ブロックの境界の符号化歪が目立ちにくいので、ヘッダで最小ループフィルタ適用ブロックサイズをシグナリングし、変換ブロックサイズが最小ループフィルタ適用ブロックサイズより大きいブロックに対してのみ、符号化歪補償を適用するように構成してもよい。このようにすれば、不要な符号化歪補償を省略することができるので、画質を保ちつつ演算量を削減することができる。
When the loop filter unit 11 receives the local decoded image signal from the adder unit 9, the loop filter unit 11 compensates for the encoding distortion included in the local decoded image signal, and the local decoded image indicated by the local decoded image signal after the encoding distortion compensation Is stored in the motion compensated prediction frame memory 12 as a reference image (step ST11).
Here, since the coding distortion occurs along the boundary of the transform block, the coding distortion is compensated for the boundary of the transform block. For small transform blocks, the coding distortion at the transform block boundary is inconspicuous, so signal the minimum loop filter application block size in the header and code only for blocks whose transform block size is larger than the minimum loop filter application block size. It may be configured to apply the distorted distortion compensation. In this way, since unnecessary encoding distortion compensation can be omitted, the amount of calculation can be reduced while maintaining the image quality.

また、符号化歪は、画像のエッジ付近や平坦部分に画素値のオフセットとして発生することも知られている。
このような符号化歪に対しては、所定のブロック毎に、局部復号画像のエッジ方向や画素値の分布などを分析し、エッジ方向又は画素値のレベル情報である適応画素オフセットタイプを決定するとともに、当該ブロック内のエッジの種類や画素値のサブレベル毎に、画素値のオフセットとして発生した符号化歪みを補償する画素オフセット値を決定し、その画素オフセット値を局部復号画像に加算することで符号化歪みを補償するように構成してもよい。
この場合には、上記の適応画素オフセットタイプ及び画素オフセット値を可変長符号化部13で可変長符号化するようにする。
It is also known that coding distortion occurs as an offset of a pixel value near the edge of an image or in a flat portion.
For such coding distortion, for each predetermined block, the edge direction of the locally decoded image, the distribution of pixel values, and the like are analyzed, and the adaptive pixel offset type, which is the edge direction or pixel value level information, is determined. At the same time, for each edge type and sub-level of the pixel value in the block, a pixel offset value that compensates for coding distortion generated as a pixel value offset is determined, and the pixel offset value is added to the locally decoded image. May be configured to compensate for encoding distortion.
In this case, the adaptive pixel offset type and the pixel offset value are variable-length encoded by the variable-length encoding unit 13.

ここで、入力信号が4:4:4フォーマットである場合、エッジ部分については、各色成分で共通である可能性が高いので、当該ブロックにおいて、エッジ部分の画素オフセットを補償するか、その他の部分の画素オフセットを補償するかを示すテクスチャタイプを決定し、そのテクスチャタイプを示すテクスチャタイプ情報を可変長符号化部13で可変長符号化する。
テクスチャタイプがエッジ部分を示す場合には、全色成分で共通のエッジ方向を決定して(例えば、各色成分のエッジ方向の中で、符号化効率が最高になるエッジ方向を全色成分で共通のエッジ方向に決定する)、そのエッジ方向を示すエッジ方向情報を可変長符号化部13で可変長符号化するとともに、全色成分で共通のエッジの種類を決定し、エッジの種類毎に各色成分独立に画素オフセット値を決定して(例えば、エッジの種類に対応する画素オフセット値を記録しているテーブルを参照して、画素オフセット値を決定する)、その画素オフセット値を可変長符号化部13で可変長符号化する。
Here, when the input signal is in the 4: 4: 4 format, there is a high possibility that the edge portion is common to each color component. Therefore, in the block, the pixel offset of the edge portion is compensated, or the other portion. The texture type indicating whether to compensate for the pixel offset is determined, and the texture type information indicating the texture type is variable length encoded by the variable length encoding unit 13.
If the texture type indicates an edge portion, determine a common edge direction for all color components (for example, the edge direction with the highest coding efficiency among all color components is the same for all color components) Edge direction information indicating the edge direction is variable-length encoded by the variable-length encoding unit 13, and a common edge type is determined for all color components, and each color is determined for each edge type. The pixel offset value is determined independently of the component (for example, the pixel offset value is determined by referring to a table that records the pixel offset value corresponding to the edge type), and the pixel offset value is variable-length encoded. The unit 13 performs variable length coding.

一方、テクスチャタイプがエッジ部分でないことを示す場合には、各色成分独立に画素値のレベルを決定して(例えば、画素値が0〜255の範囲にあるとき、4つのレベル(レベル1(0〜63)、レベル2(64〜127)、レベル3(128〜191)、レベル4(192〜255)が規定されていれば、仮に、画素値が「102」であれば、レベル2に決定し、画素値が「185」であれば、レベル3に決定する)、そのレベルを示すレベル情報を可変長符号化部13で可変長符号化する。
また、各色成分独立に当該ブロック内の画素値のサブレベル毎に画素オフセット値を決定して(例えば、画素値のレベルを更に細かくサブレベル(例えば、16のレベル)に分類し、そのサブレベルに対応する画素オフセット値を記録しているテーブルを参照して、画素オフセット値を決定する)、その画素オフセット値を可変長符号化部13で可変長符号化する。
On the other hand, when the texture type indicates that it is not an edge portion, the pixel value level is determined independently for each color component (for example, when the pixel value is in the range of 0 to 255, four levels (level 1 (0 -63), level 2 (64-127), level 3 (128-191), and level 4 (192-255) are defined, and if the pixel value is "102", the level 2 is determined. If the pixel value is “185”, the level is determined to be level 3), and the variable length encoding unit 13 performs variable length encoding on the level information indicating the level.
Further, the pixel offset value is determined for each sub-level of the pixel value in the block independently for each color component (for example, the level of the pixel value is further classified into sub-levels (for example, 16 levels), and the sub-levels are determined. The pixel offset value is determined with reference to a table in which the pixel offset value corresponding to is recorded), and the variable length encoding unit 13 performs variable length encoding on the pixel offset value.

このようにすれば、エッジ部分については、全色成分で共通の情報を可変長符号化することになるため、少ない情報量でエッジ部分の情報をシグナリングすることができる。一方、各色成分で異なる情報については独立に決定して可変長符号化することにより、画素値のオフセットとして発生する符号化歪を色成分毎に適切に補償して画質を向上させることができる。   In this way, since information common to all color components is variable-length encoded for the edge portion, the edge portion information can be signaled with a small amount of information. On the other hand, information different for each color component is determined independently and subjected to variable length coding, so that the image distortion can be appropriately compensated for each color component to improve the image quality.

また、輝度信号と色差信号では、変換ブロックの分割形状が異なるので、符号化歪補償は、輝度信号と色差信号でそれぞれ変換ブロックの分割形状を特定して処理するように構成する。
なお、ループフィルタ部11によるフィルタリング処理は、入力される局所復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する局所復号画像信号が入力された後に1画面分まとめて行ってもよい。
In addition, since the division shape of the transform block is different between the luminance signal and the color difference signal, the coding distortion compensation is configured to specify and process the division shape of the transformation block for each of the luminance signal and the color difference signal.
Note that the filtering process by the loop filter unit 11 may be performed in units of the maximum encoded block or individual encoded blocks of the input local decoded image signal, or a local decoded image signal corresponding to a macroblock for one screen. It may be performed for one screen after the input.

ステップST4〜ST10の処理は、ブロック分割部2により分割された全ての符号化ブロックBに属するパーティションP に対する処理が完了するまで繰り返し実施される(ステップST12)。
可変長符号化部13は、入力信号フォーマット情報、変換・量子化部7から出力された圧縮データ、符号化制御部1から出力された符号化モード及び変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測部4から出力されたイントラ予測パラメータ又は動き補償予測部5から出力されたインター予測パラメータ及び動き情報などを可変長符号化して、その入力信号フォーマット情報、圧縮データ、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報などの符号化データが多重化されているビットストリームを生成する(ステップST13)。
Processing in step ST4~ST10 is repeatedly performed until the processing for the partitions P i n that belong to all the coding blocks B n divided by the block dividing unit 2 is completed (step ST12).
The variable length coding unit 13 is a prediction difference coding parameter including input signal format information, compressed data output from the transform / quantization unit 7, a coding mode output from the coding control unit 1, and a transform block division flag. The intra-prediction parameter output from the intra-prediction unit 4 or the inter-prediction parameter and the motion information output from the motion-compensated prediction unit 5 are variable-length encoded, and the input signal format information, compressed data, encoding mode, and prediction A bit stream in which encoded data such as differential encoding parameters, intra prediction parameters / inter prediction parameters, and motion information is multiplexed is generated (step ST13).

可変長符号化部13は、上述したように、イントラ予測部4から出力されたイントラ予測パラメータを可変長符号化して、そのイントラ予測パラメータの符号語をビットストリームに多重化するが、イントラ予測パラメータを符号化する際に、複数の方向性予測の予測方向ベクトルの中から、代表的な予測方向ベクトル(予測方向代表ベクトル)を選択し、イントラ予測パラメータを予測方向代表ベクトルのインデックス(予測方向代表インデックス)と予測方向代表ベクトルからの差分を表すインデックス(予測方向差分インデックス)で表して、それぞれのインデックス毎に、確率モデルに応じた算術符号化などのハフマン符号化を行うことで、符号量を削減して符号化するように構成してもよい。   As described above, the variable length coding unit 13 performs variable length coding on the intra prediction parameter output from the intra prediction unit 4 and multiplexes the codeword of the intra prediction parameter into the bitstream. Is encoded, a representative prediction direction vector (prediction direction representative vector) is selected from prediction direction vectors of a plurality of directional predictions, and an intra prediction parameter is used as an index of the prediction direction representative vector (prediction direction representative). Index) and an index (prediction direction difference index) representing the difference from the prediction direction representative vector, and by performing Huffman coding such as arithmetic coding according to the probability model for each index, the code amount is You may comprise so that it may reduce and encode.

以下、可変長符号化部13の処理内容を具体的に説明する。
可変長符号化部13は、図3に示すように、変換・量子化部7から出力された圧縮データである直交変換係数を可変長符号化する変換係数可変長符号化部21と、入力信号フォーマット情報、符号化モード、変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報、ブロック分割情報などの符号化パラメータを可変長符号化する符号化パラメータ可変長符号化部22とから構成されており、変換係数可変長符号化部21により可変長符号化された圧縮データの符号化データと、符号化パラメータ可変長符号化部22により可変長符号化された符号化パラメータとは多重化されてビットストリームが生成される。
Hereinafter, the processing content of the variable length encoding part 13 is demonstrated concretely.
As shown in FIG. 3, the variable length encoding unit 13 includes a transform coefficient variable length encoding unit 21 that performs variable length encoding on orthogonal transform coefficients that are compressed data output from the transform / quantization unit 7, and an input signal. Coding parameter variable length code for variable length coding of coding parameters such as format information, coding mode, prediction differential coding parameter including transform block division flag, intra prediction parameter / inter prediction parameter, motion information, block division information Encoding unit 22, encoded data of compressed data variable-length encoded by transform coefficient variable-length encoding unit 21, and code encoded by variable-length encoding by encoding parameter variable-length encoding unit 22 The bit stream is generated by multiplexing with the conversion parameter.

可変長符号化部13の変換係数可変長符号化部21は、変換・量子化部7から出力された圧縮データである直交変換係数のコンテキスト値に対応する生起確率を用いて、当該直交変換係数を算術符号化する。
即ち、変換係数可変長符号化部21は、輝度成分、YUV4:2:0フォーマットの色差成分又はYUV4:4:4フォーマットの色差成分の変換ブロックを次のように算術符号化してブロック符号化データとして出力する。
The transform coefficient variable length coding unit 21 of the variable length coding unit 13 uses the occurrence probability corresponding to the context value of the orthogonal transform coefficient that is the compressed data output from the transform / quantization unit 7, and uses the orthogonal transform coefficient. Is arithmetically encoded.
That is, the transform coefficient variable length encoding unit 21 arithmetically encodes a luminance component, a color difference component in YUV 4: 2: 0 format, or a color difference component in YUV 4: 4: 4 format as follows, and performs block coding data. Output as.

(1)図15に示す斜めスキャン順に各直交変換係数を走査するとともに、斜めスキャン順で最も後ろにある非零の直交変換係数の位置を“PosLast”として特定する。
(2)PosLastの水平成分であるPosLastXと、PosLastの垂直成分であるPosLastYを算術符号化する。
(3)斜めスキャンと逆順である逆斜めスキャン順(図16を参照)に、PosLastから以下の(4)〜(8)の処理を行う。
(1) Each orthogonal transform coefficient is scanned in the oblique scan order shown in FIG. 15, and the position of the nonzero orthogonal transform coefficient that is the last in the oblique scan order is specified as “PosLast”.
(2) Perform arithmetic coding of PosLastX which is a horizontal component of PosLast and PosLastY which is a vertical component of PosLast.
(3) The following processes (4) to (8) are performed from PosLast in the reverse oblique scan order (see FIG. 16) which is the reverse order to the oblique scan.

(4)逆斜めスキャン順に、各周波数成分の位置にある直交変換係数が非零であるか否かを示すsignificant_coeff_flagを算術符号化する。
(5)逆斜めスキャン順に、significant_coeff_flagが非零である旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値が1より大きいか否かを示すcoeff_abs_level_greater1_flagを算術符号化する。
(6)逆斜めスキャン順に、coeff_abs_level_greater1_flagが、直交変換係数の絶対値が1より大きい旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値が2より大きいか否かを示すcoeff_abs_level_greater2_flagを算術符号化する。
(7)逆斜めスキャン順に、significant_coeff_flagが非零である旨を示している周波数成分位置の直交変換係数については、その直交変換係数の正負の符号を示すcoeff_sign_flagを算術符号化する。
(8)逆斜めスキャン順に、coeff_abs_level_greater2_flagが、直交変換係数の絶対値が2より大きい旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値から3を減じた値であるcoeff_abs_level_minus3を算術符号化する。
(9)最後のサブブロックに至るまで(3)を繰り返し実施する。
(4) Arbitrarily encode significant_coeff_flag indicating whether or not the orthogonal transform coefficient at the position of each frequency component is non-zero in reverse oblique scan order.
(5) Arithmetic coding of coeff_abs_level_greater1_flag indicating whether or not the absolute value of the orthogonal transform coefficient is greater than 1 for the orthogonal transform coefficient at the frequency component position indicating that significant_coeff_flag is non-zero in reverse diagonal scan order To do.
(6) Whether the absolute value of the orthogonal transform coefficient is greater than 2 for the orthogonal transform coefficient at the frequency component position where coeff_abs_level_greater1_flag indicates that the absolute value of the orthogonal transform coefficient is greater than 1 in reverse diagonal scan order Coeff_abs_level_greater2_flag indicating
(7) For the orthogonal transform coefficient at the frequency component position indicating that significant_coeff_flag is non-zero in reverse oblique scan order, coeff_sign_flag indicating the sign of the orthogonal transform coefficient is arithmetically encoded.
(8) For the orthogonal transform coefficient at the frequency component position where coeff_abs_level_greater2_flag indicates that the absolute value of the orthogonal transform coefficient is greater than 2 in the reverse oblique scan order, the value obtained by subtracting 3 from the absolute value of the orthogonal transform coefficient A certain coeff_abs_level_minus3 is arithmetically encoded.
(9) Repeat (3) until the last sub-block is reached.

なお、変換ブロックの縦横比が2N:0.5N、あるいは、0.5N:2Nである長方形ブロックについては、同様の斜めスキャンを施すことにより、N×Nサイズのブロックに直交変換係数をマッピングした後に上記と同様の処理を行う。
ここで、significant_coeff_flagの算術符号化に用いる生起確率としては、画素サイズが4×4や8×8のサイズであれば、例えば、図17に示すようなYUV4:2:0用のコンテキストインデックス値(コンテキスト値情報)を参照して、色差信号における各変換係数のコンテキストインデックス値を特定し、そのコンテキストインデックス値に対応する生起確率(例えば、図示せぬ確率状態メモリの各領域には、周波数位置毎に定められたコンテキストインデックス値に対応する生起確率が格納されている)を用いる。
For rectangular blocks with a transform block aspect ratio of 2N: 0.5N or 0.5N: 2N, orthogonal transform coefficients are mapped to N × N size blocks by performing the same oblique scan. A process similar to the above is performed later.
Here, as an occurrence probability used for arithmetic coding of significant_coeff_flag, if the pixel size is 4 × 4 or 8 × 8, for example, a context index value for YUV 4: 2: 0 as shown in FIG. Referring to the context value information), the context index value of each transform coefficient in the color difference signal is specified, and the occurrence probability corresponding to the context index value (for example, each region of the probability state memory not shown) In which occurrence probabilities corresponding to the context index values defined in the above are stored.

ただし、入力信号がYUV4:2:2フォーマットである場合の色差信号については、変換ブロックの形状が、横に対して縦が2倍の長方形となるため、図18に示すようなYUV4:2:2用のコンテキストインデックス値(コンテキスト値情報)を参照する。
YUV4:2:2用のコンテキストインデックス値は、上記の確率状態メモリの領域を示すコンテキストインデックス値の割り当てが垂直方向に2個ずつ繰り返し適用されている。
このようにすれば、入力信号がYUV4:2:2フォーマットである場合でも、YUV4:2:0フォーマットの色差成分のコンテキストインデックス値の割り当て表を再利用することができ、少ない回路規模で圧縮効率を高めることができる。
However, for the color difference signal when the input signal is in the YUV 4: 2: 2 format, since the shape of the conversion block is a rectangle that is twice as long as the width, the YUV 4: 2: as shown in FIG. Reference is made to the context index value for 2 (context value information).
For the context index value for YUV 4: 2: 2, the assignment of the context index value indicating the region of the probability state memory is repeatedly applied two by two in the vertical direction.
In this way, even when the input signal is in the YUV 4: 2: 2 format, the context index value assignment table of the color difference component in the YUV 4: 2: 0 format can be reused, and the compression efficiency can be reduced with a small circuit scale. Can be increased.

次に、図4のカラー動画像復号装置の処理内容を説明する。
可変長復号部41は、図1のカラー動画像符号化装置により生成されたビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して(図5のステップST41)、1フレーム以上のピクチャから構成されるシーケンス単位あるいはピクチャ単位にフレームサイズを復号する。
可変長復号部41は、フレームサイズを復号すると、図1のカラー動画像符号化装置で決定された最大符号化ブロックサイズ(イントラ予測処理又は動き補償予測処理が実施される際の処理単位となる符号化ブロックの最大サイズ)と、分割階層数の上限(最大サイズの符号化ブロックから階層的に分割されている符号化ブロックの階層数)をカラー動画像符号化装置と同様の手順で決定する(ステップST42)。
Next, processing contents of the color moving image decoding apparatus in FIG. 4 will be described.
When the variable length decoding unit 41 receives the bit stream generated by the color moving image encoding apparatus in FIG. 1, the variable length decoding unit 41 performs a variable length decoding process on the bit stream (step ST41 in FIG. 5), and more than one frame. The frame size is decoded in units of sequences composed of pictures or in units of pictures.
When the variable length decoding unit 41 decodes the frame size, it becomes the maximum encoded block size determined by the color moving image encoding apparatus in FIG. 1 (a processing unit when intra prediction processing or motion compensation prediction processing is performed). The maximum size of the encoding block) and the upper limit of the number of division layers (the number of layers of the encoding block divided hierarchically from the encoding block of the maximum size) are determined by the same procedure as that of the color moving image encoding apparatus. (Step ST42).

例えば、符号化ブロックの最大サイズが、全てのピクチャに対して、入力カラー画像の解像度に応じたサイズに決定されている場合には、先に復号しているフレームサイズに基づいて、図1のカラー動画像符号化装置と同様の手順で、符号化ブロックの最大サイズを決定する。
カラー動画像符号化装置によって、符号化ブロックの最大サイズ及び符号化ブロックの階層数がビットストリームに多重化されている場合には、そのビットストリームから符号化ブロックの最大サイズ及び符号化ブロックの階層数を復号する。
For example, when the maximum size of the encoding block is determined to be the size corresponding to the resolution of the input color image for all the pictures, the maximum size of the encoding block is determined based on the previously decoded frame size in FIG. The maximum size of the encoded block is determined by the same procedure as that of the color moving image encoding apparatus.
When the maximum size of the encoded block and the number of layers of the encoded block are multiplexed in the bit stream by the color moving image encoding device, the maximum size of the encoded block and the layer of the encoded block are encoded from the bit stream. Decode the number.

可変長復号部41は、符号化ブロックの最大サイズ及び符号化ブロックの階層数を決定すると、最大符号化ブロックを出発点にして、各符号化ブロックの階層的な分割状態を把握することで、ビットストリームに多重化されている符号化データの中で、各符号化ブロックに係る符号化データを特定し、その符号化データから各符号化ブロックに割り当てられている符号化モードを復号する。
そして、可変長復号部41は、その符号化モードに含まれている符号化ブロックBに属するパーティションP の分割情報を参照して、ビットストリームに多重化されている符号化データの中で、各パーティションP に係る符号化データを特定する(ステップST43)。
可変長復号部41は、各パーティションP に係る符号化データから圧縮データ、変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータを可変長復号して、その圧縮データ及び予測差分符号化パラメータを逆量子化・逆変換部45に出力するとともに、符号化モード及びイントラ予測パラメータ/インター予測パラメータを切替スイッチ42に出力する(ステップST44)。
The variable length decoding unit 41 determines the maximum size of the encoded block and the number of layers of the encoded block, and grasps the hierarchical division state of each encoded block from the maximum encoded block as a starting point. Among the encoded data multiplexed in the bit stream, the encoded data related to each encoded block is specified, and the encoding mode assigned to each encoded block is decoded from the encoded data.
Then, the variable length decoding unit 41 refers to the partition information of the partition P i n belonging to the coding block B n included in the coding mode, and encodes the encoded data that is multiplexed in the bit stream. in, it identifies the coded data according to each partition P i n (step ST43).
Variable-length decoding unit 41, compressed data, predictive differential coding parameters including transform block division flag, an intra prediction parameter / inter prediction parameters by variable length decoding the coded data according to each partition P i n, the compressed data The prediction differential encoding parameter is output to the inverse quantization / inverse transform unit 45, and the encoding mode and the intra prediction parameter / inter prediction parameter are output to the changeover switch 42 (step ST44).

例えば、予測方向代表インデックスと予測方向差分インデックスがビットストリームに多重化されている場合には、その予測方向代表インデックスと予測方向差分インデックスをそれぞれの確率モデルに応じた算術復号などによりエントロピー復号し、その予測方向代表インデックスと予測方向差分インデックスからイントラ予測パラメータを特定するようにする。
これにより、カラー動画像符号化装置側で、イントラ予測パラメータの符号量を削減している場合でも、イントラ予測パラメータを正しく復号することができる。
For example, when the prediction direction representative index and the prediction direction difference index are multiplexed in the bitstream, the prediction direction representative index and the prediction direction difference index are entropy decoded by arithmetic decoding or the like according to each probability model, An intra prediction parameter is specified from the prediction direction representative index and the prediction direction difference index.
Thereby, even when the code amount of the intra prediction parameter is reduced on the color moving image encoding device side, the intra prediction parameter can be correctly decoded.

以下、可変長復号部41の処理内容を具体的に説明する。
可変長復号部41は、図6に示すように、ビットストリームに多重化された符号化データから圧縮データである直交変換係数を可変長復号する変換係数可変長復号部51と、ビットストリームに多重化された符号化データから入力信号フォーマット情報、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、動き情報、ブロック分割情報などの符号化パラメータを可変長復号する符号化パラメータ可変長復号部52とから構成されている。
Hereinafter, the processing content of the variable length decoding part 41 is demonstrated concretely.
As shown in FIG. 6, the variable length decoding unit 41 includes a transform coefficient variable length decoding unit 51 that performs variable length decoding of orthogonal transform coefficients, which are compressed data, from encoded data multiplexed in a bit stream, and multiplexes the bit stream. Coding parameter variable for variable length decoding coding parameters such as input signal format information, coding mode, prediction differential coding parameter, intra prediction parameter / inter prediction parameter, motion information, block division information from coded coded data And a long decoding unit 52.

可変長復号部41の変換係数可変長復号部51は、直交変換係数のコンテキスト値に対応する生起確率を用いて、当該直交変換係数を算術復号する。
即ち、変換係数可変長復号部51は、輝度成分、YUV4:2:0フォーマットの色差成分又はYUV4:4:4フォーマットの色差成分の変換ブロックを次のように算術復号する。
The transform coefficient variable length decoding unit 51 of the variable length decoding unit 41 arithmetically decodes the orthogonal transform coefficient using the occurrence probability corresponding to the context value of the orthogonal transform coefficient.
That is, the transform coefficient variable length decoding unit 51 arithmetically decodes the luminance component, the color difference component in the YUV 4: 2: 0 format, or the color difference component in the YUV 4: 4: 4 format as follows.

(1)図16に示す逆斜めスキャン順に、PosLastを含むサブブロックから始めて、当該サブブロック内に非零の直交変換係数が含まれているか否かを示すSigCoeffGroupFlagを算術復号する。
SigCoeffGroupFlagが当該サブブロック内に非零の直交変換係数が含まれている旨を示している場合、以下の(2)〜(6)の処理を行う。
(2)逆斜めスキャン順に、各周波数成分の位置にある直交変換係数が非零であるか否かを示すsignificant_coeff_flagを算術復号する。
(1) Starting with a sub-block including PosLast, the SigCoeffGroupFlag indicating whether or not a non-zero orthogonal transform coefficient is included in the sub-block is arithmetically decoded in the reverse oblique scan order shown in FIG.
When SigCoeffGroupFlag indicates that a non-zero orthogonal transform coefficient is included in the sub-block, the following processes (2) to (6) are performed.
(2) Arithmetically decode significant_coeff_flag indicating whether or not the orthogonal transform coefficient at the position of each frequency component is non-zero in reverse diagonal scan order.

(3)逆斜めスキャン順に、significant_coeff_flagが非零である旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値が1より大きいか否かを示すcoeff_abs_level_greater1_flagを算術復号する。
coeff_abs_level_greater1_flagが、直交変換係数の絶対値が1より大きくないことを示す場合には、当該周波数成分位置の直交変換係数の絶対値として1を出力する。
(4)逆斜めスキャン順に、coeff_abs_level_greater1_flagが、直交変換係数の絶対値が1より大きい旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値が2より大きいか否かを示すcoeff_abs_level_greater2_flagを算術復号する。
coeff_abs_level_greater2_flagが、直交変換係数の絶対値が2より大きくないことを示す場合には、当該周波数成分位置の直交変換係数の絶対値として2を出力する。
(3) For the orthogonal transform coefficient at the frequency component position indicating that significant_coeff_flag is non-zero in reverse diagonal scan order, arithmetically decodes coeff_abs_level_greater1_flag indicating whether the absolute value of the orthogonal transform coefficient is greater than 1 .
When coeff_abs_level_greater1_flag indicates that the absolute value of the orthogonal transform coefficient is not greater than 1, 1 is output as the absolute value of the orthogonal transform coefficient at the frequency component position.
(4) Whether the absolute value of the orthogonal transform coefficient is greater than 2 for the orthogonal transform coefficient at the frequency component position where coeff_abs_level_greater1_flag indicates that the absolute value of the orthogonal transform coefficient is greater than 1 in reverse diagonal scan order Coeff_abs_level_greater2_flag indicating that is arithmetically decoded.
When coeff_abs_level_greater2_flag indicates that the absolute value of the orthogonal transform coefficient is not greater than 2, 2 is output as the absolute value of the orthogonal transform coefficient at the frequency component position.

(5)逆斜めスキャン順に、significant_coeff_flagが非零である旨を示している周波数成分位置の直交変換係数については、その直交変換係数の正負の符号を示すcoeff_sign_flagを算術復号し、当該周波数成分位置の直交変換係数の絶対値に対する正負の符号を決定する。
(6)逆斜めスキャン順に、coeff_abs_level_greater2_flagが、直交変換係数の絶対値が2より大きい旨を示している周波数成分位置の直交変換係数については、その直交変換係数の絶対値から3を減じた値であるcoeff_abs_level_minus3を算術復号する。
当該周波数成分位置の直交変換係数の絶対値をcoeff_abs_level_minus3の値に3を加えた値とし、coeff_sign_flagにより当該周波数成分位置の直交変換係数の絶対値に対する正負の符号を決定する。
(5) For the orthogonal transform coefficient at the frequency component position indicating that significant_coeff_flag is non-zero in reverse diagonal scan order, arithmetically decodes coeff_sign_flag indicating the sign of the orthogonal transform coefficient, and at the frequency component position The sign of the positive and negative with respect to the absolute value of the orthogonal transform coefficient is determined.
(6) For the orthogonal transform coefficient at the frequency component position where coeff_abs_level_greater2_flag indicates that the absolute value of the orthogonal transform coefficient is greater than 2 in reverse diagonal scan order, the value obtained by subtracting 3 from the absolute value of the orthogonal transform coefficient A certain coeff_abs_level_minus3 is arithmetically decoded.
The absolute value of the orthogonal transform coefficient at the frequency component position is set to a value obtained by adding 3 to the value of coeff_abs_level_minus3, and the sign of the absolute value of the orthogonal transform coefficient at the frequency component position is determined by coeff_sign_flag.

ここで、significant_coeff_flagの算術復号に用いる生起確率としては、画素サイズが4×4や8×8のサイズであれば、例えば、図17に示すようなYUV4:2:0用のコンテキストインデックス値を参照して、色差信号における各変換係数のコンテキストインデックス値を特定し、そのコンテキストインデックス値に対応する生起確率(例えば、図示せぬ確率状態メモリの各領域には、周波数位置毎に定められたコンテキストインデックス値に対応する生起確率が格納されている)を用いる。   Here, as the occurrence probability used for arithmetic decoding of significant_coeff_flag, if the pixel size is 4 × 4 or 8 × 8, for example, refer to the context index value for YUV 4: 2: 0 as shown in FIG. Then, the context index value of each conversion coefficient in the color difference signal is specified, and the occurrence probability corresponding to the context index value (for example, the context index determined for each frequency position in each area of the probability state memory (not shown)) The occurrence probability corresponding to the value is stored).

ただし、入力信号がYUV4:2:2フォーマットである場合の色差信号については、変換ブロックの形状が、横に対して縦が2倍の長方形となるため、図18に示すようなYUV4:2:2用のコンテキストインデックス値を参照する。
YUV4:2:2用のコンテキストインデックス値は、上記の確率状態メモリの領域を示すコンテキストインデックス値の割り当てが垂直方向に2個ずつ繰り返し適用されている。
このようにすれば、入力信号がYUV4:2:2フォーマットである場合でも、YUV4:2:0フォーマットの色差成分のコンテキストインデックス値の割り当て表を再利用することができ、少ない回路規模で圧縮効率を高めることができる。
However, for the color difference signal when the input signal is in the YUV 4: 2: 2 format, since the shape of the conversion block is a rectangle that is twice as long as the width, YUV 4: 2: as shown in FIG. Refer to the context index value for 2.
For the context index value for YUV 4: 2: 2, the assignment of the context index value indicating the region of the probability state memory is repeatedly applied two by two in the vertical direction.
In this way, even when the input signal is in the YUV 4: 2: 2 format, the context index value assignment table of the color difference component in the YUV 4: 2: 0 format can be reused, and the compression efficiency can be reduced with a small circuit scale. Can be increased.

切替スイッチ42は、可変長復号部41から出力された符号化ブロックBに属するパーティションP の符号化モードがイントラ符号化モードである場合、可変長復号部41から出力されたイントラ予測パラメータをイントラ予測部43に出力し、その符号化モードがインター符号化モードである場合、可変長復号部41から出力されたインター予測パラメータを動き補償部44に出力する。 When the coding mode of the partition P i n belonging to the coding block B n output from the variable length decoding unit 41 is the intra coding mode, the changeover switch 42 outputs the intra prediction parameter output from the variable length decoding unit 41. Is output to the intra prediction unit 43, and when the encoding mode is the inter encoding mode, the inter prediction parameter output from the variable length decoding unit 41 is output to the motion compensation unit 44.

イントラ予測部43は、可変長復号部41からイントラ予測パラメータを受けると(ステップST45)、図1のイントラ予測部4と同様に、そのイントラ予測パラメータに基づいて、各パーティションP に対するイントラ予測処理を実施することにより、イントラ予測画像(P )を生成する(ステップST46)。
即ち、イントラ予測部43は、可変長復号部41からイントラ予測パラメータを受けると、図1のイントラ予測部4と同様に、例えば、パーティションP に対するイントラ予測モードのインデックス値が2(平均値予測)である場合、上パーティションの隣接画素と左パーティションの隣接画素の平均値をパーティションP 内の画素の予測値として予測画像を生成する。
イントラ予測モードのインデックス値が2(平均値予測)以外の場合には、インデックス値が示す予測方向ベクトルv=(dx,dy)に基づいて、パーティションP 内の画素の予測値を生成する。
イントラ予測部43は、同様の手順で、パーティションP 内の輝度信号のすべての画素に対する予測画素を生成し、その生成したイントラ予測画像(P )を出力する。
The intra prediction unit 43 receives the intra prediction parameter from the variable length decoding unit 41 (step ST45), like the intra prediction unit 4 in FIG. 1, on the basis of the intra prediction parameters, intra prediction for each partition P i n By performing the process, an intra-predicted image (P i n ) is generated (step ST46).
That is, the intra prediction unit 43 receives the intra prediction parameter from the variable length decoding unit 41, similarly to the intra prediction unit 4 in FIG. 1, for example, the index value of the intra prediction mode for the partition P i n is 2 (average value If the prediction), and generates a prediction image the mean value of neighboring pixels of the adjacent pixel and the left partition of the upper partition as the predicted value of the pixel in the partition P i n.
If the index value of the intra prediction mode is other than 2 (average prediction), the prediction direction vector index value indicates v p = (dx, dy) on the basis of, generating a prediction value of the pixel in the partition P i n To do.
The intra prediction unit 43 generates prediction pixels for all the pixels of the luminance signal in the partition P i n in the same procedure, and outputs the generated intra prediction image (P i n ).

動き補償部44は、切替スイッチ42からインター予測パラメータを受けると、カラー動画像符号化装置の動き補償予測部5と同様に、そのインター予測パラメータに基づいて、各パーティションP に対するインター予測処理を実施することにより、インター予測画像(P )を生成する(ステップST47)。
即ち、動き補償部44は、動き補償予測フレームメモリ49により格納されている1フレーム以上の参照画像を用いて、そのインター予測パラメータに基づくパーティションP に対する動き補償予測処理を実施することで、インター予測画像(P )を生成する。
Motion compensation unit 44 receives the inter prediction parameters from the changeover switch 42, similarly to the motion compensation prediction unit 5 of the color video encoding apparatus, based on the inter prediction parameters, inter-prediction processing for each partition P i n To generate an inter predicted image (P i n ) (step ST47).
That is, motion compensation unit 44, using one or more frames of reference images stored by the motion compensated prediction frame memory 49, by performing the motion compensation prediction processing on partition P i n based on the inter prediction parameters, An inter prediction image (P i n ) is generated.

逆量子化・逆変換部45は、可変長復号部41から変換ブロック分割フラグを含む予測差分符号化パラメータを受けると、その予測差分符号化パラメータに含まれている量子化パラメータを用いて、変換ブロック分割フラグに従って決定される変換ブロックサイズ毎に、可変長復号部41から出力された符号化ブロックに係る圧縮データを逆量子化し、その予測差分符号化パラメータに含まれている変換ブロック分割フラグから特定される変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理(例えば、逆DCT(逆離散コサイン変換)や逆DST(逆離散サイン変換)、逆KL変換等の逆変換処理)を実施することで、逆変換処理後の圧縮データを復号予測差分信号(圧縮前の差分画像を示す信号)として加算部46に出力する(ステップST48)。   When the inverse quantization / inverse transform unit 45 receives the prediction difference encoding parameter including the transform block division flag from the variable length decoding unit 41, the inverse quantization / inverse transform unit 45 performs transform using the quantization parameter included in the prediction difference encoding parameter. For each transform block size determined according to the block partition flag, the compressed data related to the coding block output from the variable length decoding unit 41 is inversely quantized, and the transform block partition flag included in the prediction differential coding parameter is used. Inverse transform processing of compressed data after inverse quantization (for example, inverse DCT (Inverse Discrete Cosine Transform), inverse DST (Inverse Discrete Sine Transform), inverse KL transform, etc.) As a result, the compressed data after the inverse transform process is output to the adder 46 as a decoded prediction difference signal (a signal indicating a difference image before compression). (Step ST48).

加算部46は、逆量子化・逆変換部45から出力された復号予測差分信号と、イントラ予測部43又は動き補償部44により生成された予測画像(P )を示す予測信号とを加算することで、復号パーティション画像ないしはその集まりとしての復号画像を示す復号画像信号を生成し、その復号画像信号をループフィルタ部48に出力する(ステップST49)。
また、イントラ予測用メモリ47には、イントラ予測に用いるために、当該復号画像が格納される。
The addition unit 46 adds the decoded prediction difference signal output from the inverse quantization / inverse conversion unit 45 and the prediction signal indicating the prediction image (P i n ) generated by the intra prediction unit 43 or the motion compensation unit 44. Thus, a decoded image signal indicating a decoded partition image or a decoded image as a collection thereof is generated, and the decoded image signal is output to the loop filter unit 48 (step ST49).
The intra prediction memory 47 stores the decoded image for use in intra prediction.

ループフィルタ部48は、加算部46から復号画像信号を受けると、その復号画像信号に含まれている符号化歪みを補償し、符号化歪み補償後の復号画像信号が示す復号画像を参照画像として動き補償予測フレームメモリ49に格納するとともに、その復号画像を再生画像として出力する(ステップST50)。
ここで、符号化歪は、変換ブロックの境界に沿って発生するため、変換ブロックに境界に対して符号化歪の補償を行う。小さい変換ブロックについては、変換ブロックの境界の符号化歪が目立ちにくいので、ヘッダで最小ループフィルタ適用ブロックサイズをシグナリングし、変換ブロックサイズが最小ループフィルタ適用ブロックサイズより大きいブロックに対してのみ符号化歪補償を適用するように構成してもよい。このようにすれば、不要な符号化歪補償を省略することができるので、画質を保ちつつ演算量を削減することができる。
When the loop filter unit 48 receives the decoded image signal from the adder unit 46, the loop filter unit 48 compensates for the encoding distortion included in the decoded image signal, and uses the decoded image indicated by the decoded image signal after the encoding distortion compensation as a reference image. While storing in the motion compensation prediction frame memory 49, the decoded image is output as a reproduced image (step ST50).
Here, since the coding distortion occurs along the boundary of the transform block, the transform distortion is compensated for the boundary in the transform block. For small transform blocks, coding distortion at the transform block boundaries is not noticeable, so the minimum loop filter applied block size is signaled in the header, and coding is performed only for blocks whose transform block size is larger than the minimum loop filter applied block size. You may comprise so that distortion compensation may be applied. In this way, since unnecessary encoding distortion compensation can be omitted, the amount of calculation can be reduced while maintaining the image quality.

また、符号化歪は、画像のエッジ付近や平坦部分に画素値のオフセットとして発生することも知られている。
このような符号化歪に対しては、所定のブロック毎に、可変長復号部41が適応画素オフセットタイプ及び画素オフセット値を可変長復号し、その適応画素オフセットタイプがエッジ部分の画素オフセット値を補償することを示している場合には、当該ブロック内のエッジの種類毎の画素値のオフセット値を復号画像に加算することで符号化歪みを補償する。
また、その適応画素オフセットタイプがエッジ部分でない部分の画素オフセット値を補償することを示している場合には、当該ブロック内の画素値のサブレベル毎の画素オフセット値を復号画像に加算することで符号化歪を補償する。
It is also known that coding distortion occurs as an offset of a pixel value near the edge of an image or in a flat portion.
For such coding distortion, the variable length decoding unit 41 performs variable length decoding of the adaptive pixel offset type and the pixel offset value for each predetermined block, and the adaptive pixel offset type determines the pixel offset value of the edge portion. In the case where the compensation is indicated, the coding distortion is compensated by adding the offset value of the pixel value for each edge type in the block to the decoded image.
In addition, when the adaptive pixel offset type indicates that the pixel offset value of the portion that is not the edge portion is compensated, the pixel offset value for each sub-level of the pixel value in the block is added to the decoded image. Compensate for coding distortion.

ここで、復号する信号が4:4:4フォーマットである場合、当該ブロックにおいて、エッジ部分の画素オフセットを補償するか、その他の部分の画素オフセットを補償するかを示すテクスチャタイプのテクスチャタイプ情報を可変長復号部41で可変長復号する。
テクスチャタイプがエッジ部分を示す場合には、全色成分で共通のエッジ方向情報を可変長復号部41で可変長復号するとともに、全色成分で共通のエッジの種類を決定して、エッジの種類毎に各色成分独立に画素オフセット値を可変長復号部41で可変長復号し、画素オフセットの補償処理を実施する。
Here, when the signal to be decoded is in the 4: 4: 4 format, texture type texture type information indicating whether the pixel offset of the edge part or the pixel offset of the other part is compensated in the block. The variable length decoding unit 41 performs variable length decoding.
When the texture type indicates an edge portion, the edge direction information common to all color components is variable-length decoded by the variable-length decoding unit 41, and the type of edge common to all color components is determined. For each color component, the pixel offset value is subjected to variable length decoding by the variable length decoding unit 41, and pixel offset compensation processing is performed.

一方、テクスチャタイプがエッジ部分でないことを示す場合には、各色成分独立に画素値のレベル情報を可変長復号部41で可変長復号するとともに、各色成分独立に当該ブロック内の画素値のサブレベル毎に画素オフセット値を可変長復号部41で可変長復号し、画素オフセットの補償処理を実施する。
このようにすれば、図1のカラー動画像符号化装置で符号化された4:4:4フォーマットの符号化データを好適に復号することができる。
On the other hand, when the texture type indicates that it is not an edge portion, the variable length decoding unit 41 performs variable length decoding on the level information of the pixel value independently for each color component, and the sub level of the pixel value in the block independently for each color component. The pixel offset value is subjected to variable length decoding by the variable length decoding unit 41 for each time, and pixel offset compensation processing is performed.
In this way, it is possible to suitably decode the 4: 4: 4 format encoded data encoded by the color moving image encoding apparatus of FIG.

また、輝度信号と色差信号では、変換ブロックの分割形状が異なるので、符号化歪補償は、輝度信号と色差信号でそれぞれ変換ブロックの分割形状を特定して処理するように構成する。
なお、ループフィルタ部48によるフィルタリング処理は、入力される復号画像信号の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する復号画像信号が入力された後に1画面分まとめて行ってもよい。
ステップST43〜ST49の処理は、全ての符号化ブロックBに属するパーティションP に対する処理が完了するまで繰り返し実施される(ステップST51)。
In addition, since the division shape of the transform block is different between the luminance signal and the color difference signal, the coding distortion compensation is configured to specify and process the division shape of the transformation block for each of the luminance signal and the color difference signal.
Note that the filtering processing by the loop filter unit 48 may be performed for the maximum encoded block of the input decoded image signal or for each individual encoded block, or a decoded image signal corresponding to a macroblock for one screen is input. After being done, it may be performed for one screen at a time.
The processes in steps ST43 to ST49 are repeatedly performed until the processes for the partitions P i n belonging to all the coding blocks B n are completed (step ST51).

以上で明らかなように、この実施の形態1によれば、変換・量子化部7が、減算部6により生成された差分画像の輝度信号に対する変換・量子化処理を実施する場合、入力信号がYUV4:2:2フォーマットであれば、色差信号の変換ブロック形状を常に縦が横の2倍となる長方形に分割し、得られる変換係数を可変長符号化部13で符号化する際には、YUV4:2:0の色差成分の変換係数に適用するコンテキストインデックス値の割り当てを垂直方向に2個ずつ繰り返したものを適用することにより、回路規模を増加させることなく、YUV4:2:2の色差信号の符号化効率を高めることができる効果を奏する。   As apparent from the above, according to the first embodiment, when the transform / quantization unit 7 performs the transform / quantization process on the luminance signal of the difference image generated by the subtraction unit 6, the input signal is When the YUV4: 2: 2 format is used, the conversion block shape of the color difference signal is always divided into rectangles whose vertical length is twice the horizontal width, and when the obtained conversion coefficient is encoded by the variable length encoding unit 13, By applying the context index value assigned to the YUV4: 2: 0 color difference component conversion coefficient two times in the vertical direction, the color difference of YUV4: 2: 2 is increased without increasing the circuit scale. There is an effect that the encoding efficiency of the signal can be increased.

また、カラー動画像復号装置においても、入力信号がYUV4:2:2フォーマットであれば、色差信号の変換ブロック形状を常に縦が横の2倍となる長方形に分割し、得られる変換係数を可変長復号部41で復号する際には、YUV4:2:0の色差成分の変換係数に適用するコンテキストインデックス値の割り当てを垂直方向に2個ずつ繰り返したものを適用することにより、カラー動画像符号化装置で生成されるビットストリームを好適に復号することができる。   Also in the color moving image decoding apparatus, if the input signal is in the YUV 4: 2: 2 format, the conversion block shape of the color difference signal is always divided into rectangles whose vertical and horizontal dimensions are twice, and the obtained conversion coefficients are variable. When decoding by the long decoding unit 41, a color moving image code is obtained by applying a context index value assigned to YUV4: 2: 0 chrominance component conversion coefficients in the vertical direction twice. The bit stream generated by the encoding device can be suitably decoded.

実施の形態2.
図19はこの発明の実施の形態2によるカラー動画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。 相関利用予測部61は符号化制御部1により決定された符号化モードが相関利用予測モードである場合、YUV信号の輝度成分(Y成分)に相当する第一の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測符号化を実施することで予測画像を生成し、あるいは、符号化済みの他のピクチャに含まれている第一の色成分の局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
また、YUV信号の他の色成分(U成分およびV成分)に相当する第二の色成分及び第三の色成分については、符号化済みの同一ピクチャに含まれている第一の色成分の局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
なお、相関利用予測部61は予測画像生成部を構成している。
Embodiment 2. FIG.
FIG. 19 is a block diagram showing a color moving picture coding apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG. When the encoding mode determined by the encoding control unit 1 is the correlation use prediction mode, the correlation use prediction unit 61 has a signal format of the first color component corresponding to the luminance component (Y component) of the YUV signal. A prediction image is generated by performing intra-frame prediction encoding in the case of the 4: 0: 0 format, or a locally decoded image of the first color component included in another encoded picture is A process for generating a prediction image is performed by performing inter-frame prediction encoding using the reference image.
The second color component and the third color component corresponding to other color components (U component and V component) of the YUV signal are the same as those of the first color component included in the same encoded picture. A process for generating a prediction image is performed by performing inter-frame prediction encoding using a locally decoded image as a reference image.
The correlation usage prediction unit 61 constitutes a predicted image generation unit.

図19では、カラー動画像符号化装置の構成要素である符号化制御部1、ブロック分割部2、切替スイッチ3、相関利用予測部61、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、イントラ予測用メモリ10、ループフィルタ部11、動き補償予測フレームメモリ12及び可変長符号化部13のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路やワンチップマイコン、あるいは、メモリなど)で構成されているものを想定しているが、カラー動画像符号化装置がコンピュータなどで構成されていてもよい。
カラー動画像符号化装置がコンピュータで構成される場合、イントラ予測用メモリ10及び動き補償予測フレームメモリ12をコンピュータのメモリ上に構成するとともに、符号化制御部1、ブロック分割部2、切替スイッチ3、相関利用予測部61、動き補償予測部5、減算部6、変換・量子化部7、逆量子化・逆変換部8、加算部9、ループフィルタ部11及び可変長符号化部13の処理内容を記述しているプログラムの全部又は一部を当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In FIG. 19, the coding control unit 1, the block division unit 2, the changeover switch 3, the correlation use prediction unit 61, the motion compensation prediction unit 5, the subtraction unit 6, and the transform / quantization that are components of the color moving image coding apparatus. Unit 7, inverse quantization / inverse transform unit 8, addition unit 9, intra prediction memory 10, loop filter unit 11, motion compensated prediction frame memory 12, and variable length coding unit 13, each of which has dedicated hardware (for example, It is assumed that the CPU is a semiconductor integrated circuit, a one-chip microcomputer, or a memory), but the color moving image encoding device may be a computer.
When the color moving image encoding apparatus is configured by a computer, the intra prediction memory 10 and the motion compensated prediction frame memory 12 are configured on the memory of the computer, and the encoding control unit 1, the block division unit 2, and the changeover switch 3 are configured. , Correlation use prediction unit 61, motion compensation prediction unit 5, subtraction unit 6, transformation / quantization unit 7, inverse quantization / inverse transformation unit 8, addition unit 9, loop filter unit 11 and variable length coding unit 13 All or a part of the program describing the contents may be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.

図20はこの発明の実施の形態2によるカラー動画像符号化装置の相関利用予測部61を示す構成図である。
図20において、相関算出部62は参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、斜線が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、斜線が施されている画素)とを用いて、予測に用いる相関パラメータα,βを算出する処理を実施する。
相関利用予測画像生成部63は相関算出部62により算出された相関パラメータα,βと画面間参照画素Rec’を用いて予測画像Predを生成する処理を実施する。
FIG. 20 is a block diagram showing the correlation use prediction unit 61 of the color moving image encoding apparatus according to Embodiment 2 of the present invention.
In FIG. 20, the correlation calculation unit 62 includes an inter-screen reference pixel Rec ′ L (in FIG. 22A) that is a pixel value adjacent to the upper end and the left end of the block at the same position as the prediction target block in the reference image. , And the reference pixel Rec C (in FIG. 22B), which is a decoded pixel value of the processing target signal adjacent to the upper end and the left end of the prediction target block. Are used to calculate correlation parameters α and β used for prediction.
The correlation use predicted image generation unit 63 performs a process of generating a predicted image Pred C using the correlation parameters α and β calculated by the correlation calculation unit 62 and the inter-screen reference pixel Rec ′ L.

図23はこの発明の実施の形態2によるカラー動画像復号装置を示す構成図であり、図において、図4と同一符号は同一または相当部分を示すので説明を省略する。
相関利用予測部71は可変長復号部41により可変長復号された符号化モードが相関利用予測モードである場合、YUV信号の輝度成分(Y成分)に相当する第一の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測復号を実施することで予測画像を生成し、あるいは、復号済みの他のピクチャに含まれている第一の色成分の復号画像を参照画像として利用してフレーム間予測復号を実施することで予測画像を生成する処理を実施する。
また、YUV信号の他の色成分(U成分およびV成分)に相当する第二の色成分及び第三の色成分については、復号済みの同一ピクチャに含まれている第一の色成分の復号画像を参照画像として利用してフレーム間予測復号を実施することで予測画像を生成する処理を実施する。
なお、相関利用予測部71は予測画像生成部を構成している。
FIG. 23 is a block diagram showing a color moving picture decoding apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
When the coding mode that has been variable-length decoded by the variable-length decoding unit 41 is the correlation-use prediction mode, the correlation use prediction unit 71 uses the Generate predicted image by performing intra-frame predictive decoding when format is 4: 0: 0 format, or refer to decoded image of first color component included in other decoded pictures A process for generating a predicted image is performed by performing inter-frame predictive decoding using the image.
Also, for the second color component and the third color component corresponding to other color components (U component and V component) of the YUV signal, the first color component included in the same decoded picture is decoded. A process for generating a predicted image is performed by performing inter-frame predictive decoding using the image as a reference image.
The correlation usage prediction unit 71 constitutes a predicted image generation unit.

図23では、カラー動画像復号装置の構成要素である可変長復号部41、切替スイッチ42、相関利用予測部71、動き補償部44、逆量子化・逆変換部45、加算部46、イントラ予測用メモリ47、ループフィルタ部48及び動き補償予測フレームメモリ49のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路やワンチップマイコン、あるいは、メモリなど)で構成されているものを想定しているが、カラー動画像復号装置がコンピュータなどで構成されていてもよい。
カラー動画像復号装置がコンピュータで構成される場合、イントラ予測用メモリ47及び動き補償予測フレームメモリ49をコンピュータのメモリ上に構成するとともに、可変長復号部41、切替スイッチ42、相関利用予測部71、動き補償部44、逆量子化・逆変換部45、加算部46及びループフィルタ部48の処理内容を記述しているプログラムの全部又は一部を当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In FIG. 23, the variable length decoding unit 41, the changeover switch 42, the correlation use prediction unit 71, the motion compensation unit 44, the inverse quantization / inverse transformation unit 45, the addition unit 46, and the intra prediction, which are components of the color moving image decoding apparatus. Each of the memory 47, the loop filter unit 48, and the motion compensation prediction frame memory 49 is configured by dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or a memory). However, the color moving image decoding apparatus may be configured by a computer or the like.
When the color moving image decoding apparatus is configured by a computer, the intra prediction memory 47 and the motion compensated prediction frame memory 49 are configured on the computer memory, and the variable length decoding unit 41, the changeover switch 42, and the correlation use prediction unit 71. All or part of the program describing the processing contents of the motion compensation unit 44, inverse quantization / inverse transformation unit 45, addition unit 46 and loop filter unit 48 is stored in the memory of the computer, and the CPU of the computer May execute a program stored in the memory.

図24はこの発明の実施の形態2によるカラー動画像復号装置の相関利用予測部71を示す構成図である。
図24において、相関算出部72は参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、斜線が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、斜線が施されている画素)とを用いて、予測に用いる相関パラメータα,βを算出する処理を実施する。
相関利用予測画像生成部73は相関算出部72により算出された相関パラメータα,βと画面間参照画素Rec’を用いて予測画像Predを生成する処理を実施する。
FIG. 24 is a block diagram showing the correlation use prediction unit 71 of the color moving image decoding apparatus according to Embodiment 2 of the present invention.
In FIG. 24, the correlation calculation unit 72 includes an inter-screen reference pixel Rec ′ L (in FIG. 22A) that is a pixel value adjacent to the upper end and the left end of the block at the same position as the prediction target block in the reference image. , And the reference pixel Rec C (in FIG. 22B), which is a decoded pixel value of the processing target signal adjacent to the upper end and the left end of the prediction target block. Are used to calculate correlation parameters α and β used for prediction.
The correlation use predicted image generation unit 73 performs a process of generating a predicted image Pred C using the correlation parameters α and β calculated by the correlation calculation unit 72 and the inter-screen reference pixel Rec ′ L.

上記実施の形態1では、カラー動画像符号化装置が、輝度信号と色差信号を同時に符号化するものを示したが、カラー動画像符号化装置が、入力信号が4:4:4フォーマットである場合、それぞれの成分をYUV4:0:0フォーマットであるとみなして、最初にYUV信号の輝度成分(Y成分)に相当する第一の色成分のみを符号化して、第一の色成分の局部復号画像を動き補償予測フレームメモリ12に格納し、次に、動き補償予測フレームメモリ12に格納された第一の色成分の局部復号画像を参照画像として利用して、その他の色成分(U成分およびV成分)の画像をYUV4:0:0フォーマットであるとみなして符号化するようにしてもよい。   In the first embodiment, the color moving image encoding apparatus encodes the luminance signal and the color difference signal at the same time. However, the color moving image encoding apparatus has an input signal in the 4: 4: 4 format. In this case, it is assumed that each component is in the YUV4: 0: 0 format, and only the first color component corresponding to the luminance component (Y component) of the YUV signal is first encoded to localize the first color component. The decoded image is stored in the motion compensated prediction frame memory 12, and then the other color components (U component) are used by using the locally decoded image of the first color component stored in the motion compensated prediction frame memory 12 as a reference image. And the V component) may be encoded by assuming that the image is in the YUV4: 0: 0 format.

可変長符号化部13は、上記のように、YUV4:4:4フォーマットの各色成分間で予測符号化を行うのか、上記実施の形態1のように、ピクチャ間での予測符号化を行うかを示す予測構成フラグを可変長符号化してビットストリームに多重化する。
また、予測構成フラグが4:4:4フォーマットの各色成分間で予測符号化を行う構成で符号化を行うことを示す場合、上記のように生成された3つのYUV4:0:0画像をまとめて、表示などのためのアクセスの単位となる1つのピクチャ(アクセスユニット)と認識するための情報であるアクセスユニットデリミタをピクチャの先頭に多重化する。
Whether the variable length coding unit 13 performs predictive coding between the color components of the YUV 4: 4: 4 format as described above, or performs predictive coding between pictures as in the first embodiment. Is encoded with a variable length and multiplexed into a bit stream.
When the prediction configuration flag indicates that encoding is performed with a configuration in which predictive encoding is performed between the color components of the 4: 4: 4 format, the three YUV4: 0: 0 images generated as described above are collected. Thus, an access unit delimiter, which is information for recognizing one picture (access unit) as an access unit for display or the like, is multiplexed at the head of the picture.

図21は参照画像として利用する局部復号画像を示す説明図である。
次のピクチャでは、図21に示すように、Y成分に相当する第一の色成分については、動き補償予測フレームメモリ12に格納された前ピクチャの第一の色成分の局部復号画像を参照画像として利用して、YUV4:0:0フォーマットとして符号化する。
U成分及びV成分に相当するその他の色成分については、前ピクチャと同様に、当該ピクチャの第一の色成分の局部復号画像を参照画像として利用して、それぞれ符号化を行う。
FIG. 21 is an explanatory diagram showing a locally decoded image used as a reference image.
In the next picture, as shown in FIG. 21, for the first color component corresponding to the Y component, the locally decoded image of the first color component of the previous picture stored in the motion compensated prediction frame memory 12 is used as the reference image. And encoded as YUV4: 0: 0 format.
Other color components corresponding to the U component and the V component are encoded using the locally decoded image of the first color component of the picture as a reference image, similarly to the previous picture.

ここで、色成分間の動き補償予測処理においては、動きベクトルが零、参照画像が特定されているため、動きベクトル及び参照画像の可変長符号化は行わない。
色成分間の予測においては、参照画像からの動き補償予測に加えて、参照画像を用いて、例えば、相関利用信号予測も選択できるよう構成してもよい。
Here, in the motion compensation prediction process between color components, since the motion vector is zero and the reference image is specified, the variable length coding of the motion vector and the reference image is not performed.
In prediction between color components, in addition to motion compensation prediction from a reference image, for example, a correlation use signal prediction may be selected using a reference image.

次に動作について説明する。
最初に、カラー動画像符号化装置の処理内容を説明する。
ただし、イントラ予測部4の代わりに、相関利用予測部61を設けている点以外は、上記実施の形態1と同様であるため、ここでは、相関利用予測部61の処理内容だけを説明する。
相関利用予測部61の相関算出部62は、符号化制御部1により決定された符号化モードが相関利用予測モードである場合、図22に示すように、参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、斜線が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、斜線が施されている画素)とを用いて、下記の式(1)及び式(2)に示すように、予測に用いる相関パラメータα,βを算出する処理を実施する。

Figure 2015019257
Figure 2015019257
式(1),(2)において、Iは処理対象となる予測ブロックの1辺の画素数の2倍の値である。 Next, the operation will be described.
First, the processing contents of the color moving image encoding apparatus will be described.
However, except that a correlation usage prediction unit 61 is provided instead of the intra prediction unit 4, the processing is the same as in the first embodiment, and only the processing contents of the correlation usage prediction unit 61 will be described here.
When the coding mode determined by the coding control unit 1 is the correlation use prediction mode, the correlation calculation unit 62 of the correlation use prediction unit 61 is the same as the prediction target block in the reference image, as shown in FIG. An inter-screen reference pixel Rec ′ L (pixels hatched in FIG. 22A) which is a pixel value adjacent to the upper end and left end of the block at the position, and the upper end and left end of the prediction target block Using the in-screen reference pixel Rec C (pixels hatched in FIG. 22B) that is the decoded pixel value of the adjacent processing target signal, the following equation (1) and As shown in Expression (2), a process of calculating correlation parameters α and β used for prediction is performed.
Figure 2015019257
Figure 2015019257
In equations (1) and (2), I is a value twice the number of pixels on one side of the prediction block to be processed.

相関利用予測部61の相関利用予測画像生成部63は、相関算出部62が相関パラメータα,βを算出すると、その相関パラメータα,βと画面間参照画素Rec’を用いて、下記の式(3)に示すように、予測画像Predを生成する。

Figure 2015019257
When the correlation calculation unit 62 calculates the correlation parameters α and β, the correlation use prediction image generation unit 63 of the correlation use prediction unit 61 uses the correlation parameters α and β and the inter-screen reference pixel Rec ′ L as follows: As shown in (3), a predicted image Pred C is generated.
Figure 2015019257

これにより、色成分間の予測処理において、残差の小さい予測画像を生成することができるため、符号化効率を向上させることができる。
また、輝度成分の符号化回路のみで4:4:4フォーマットの画像を高効率に圧縮することができる。
Thereby, in the prediction process between color components, since a prediction image with a small residual can be produced | generated, encoding efficiency can be improved.
In addition, a 4: 4: 4 format image can be compressed with high efficiency only by the luminance component encoding circuit.

次に、カラー動画像復号装置の処理内容を説明する。
可変長復号部41が符号化データから予測構成フラグを復号し、その予測構成フラグが4:4:4フォーマットの各色成分間で予測符号化を行う構成にすることを示していれば、アクセスユニットデリミタを復号することで、3つのYUV4:0:0フォーマットの画像を、表示などのためのアクセスの単位となる1つのピクチャ(アクセスユニット)として認識する。
そして、第一の色成分をYUV4:0:0フォーマットとして復号して、第一の色成分の復号画像を動き補償予測フレームメモリ49に格納し、その動き補償予測フレームメモリ49に格納された第一の色成分の復号画像を参照画像として利用して、その他の色差成分(例えばU成分およびV成分)の画像をYUV4:0:0フォーマットであるとみなして復号するように構成する。
Next, processing contents of the color moving image decoding apparatus will be described.
If the variable length decoding unit 41 indicates that the prediction configuration flag is decoded from the encoded data and the prediction configuration flag indicates that the prediction encoding is performed between the color components of the 4: 4: 4 format, the access unit By decoding the delimiter, three YUV4: 0: 0 format images are recognized as one picture (access unit) that is an access unit for display or the like.
Then, the first color component is decoded as the YUV4: 0: 0 format, the decoded image of the first color component is stored in the motion compensation prediction frame memory 49, and the first color component stored in the motion compensation prediction frame memory 49 is stored. A decoded image of one color component is used as a reference image, and images of other color difference components (for example, U component and V component) are regarded as being in the YUV4: 0: 0 format and decoded.

次のピクチャでは、第一の色成分については、その動き補償予測フレームメモリ49に格納された前ピクチャの第一の色成分の復号画像を参照画像として利用して、YUV4:0:0フォーマットとして復号し、その他の色成分(U成分およびV成分)については、前ピクチャと同様に、当該ピクチャの第一の色成分の復号画像を参照画像として利用して、それぞれ復号を行う。   In the next picture, for the first color component, the decoded image of the first color component of the previous picture stored in the motion compensated prediction frame memory 49 is used as a reference image, and the YUV4: 0: 0 format is used. Decoding is performed on the other color components (U component and V component) using the decoded image of the first color component of the picture as a reference image, similarly to the previous picture.

即ち、相関利用予測部71の相関算出部72は、可変長復号部41により可変長復号された符号化モードが相関利用予測モードである場合、図20の相関算出部62と同様に、参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、斜線が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、斜線が施されている画素)とを用いて、上記の式(1)及び式(2)に示すように、予測に用いる相関パラメータα,βを算出する処理を実施する。 That is, the correlation calculation unit 72 of the correlation use prediction unit 71, when the encoding mode variable length decoded by the variable length decoding unit 41 is the correlation use prediction mode, similarly to the correlation calculation unit 62 of FIG. In-screen reference pixel Rec ′ L (pixels hatched in FIG. 22A) which is a pixel value adjacent to the upper end and the left end of the block at the same position as the prediction target block in FIG. Using in-screen reference pixels Rec C (pixels hatched in FIG. 22B) which are decoded pixel values of the processing target signal adjacent to the upper end and the left end of the prediction target block As shown in the above formulas (1) and (2), the processing for calculating the correlation parameters α and β used for prediction is performed.

相関利用予測部71の相関利用予測画像生成部73は、相関算出部72が相関パラメータα,βを算出すると、図20の相関利用予測画像生成部63と同様に、その相関パラメータα,βと画面間参照画素Rec’を用いて、上記の式(3)に示すように、予測画像Predを生成する。 When the correlation calculation unit 72 calculates the correlation parameters α and β, the correlation use prediction image generation unit 73 of the correlation use prediction unit 71 calculates the correlation parameters α and β as well as the correlation use prediction image generation unit 63 of FIG. Using the inter-screen reference pixel Rec ′ L , a predicted image Pred C is generated as shown in the above equation (3).

ここで、色成分間の予測を行う場合、可変長復号部41では、ブロック毎に、予測モードとして、動き補償予測モード又は相関利用予測モードのいずれを適用するかを示す予測方式情報を可変長復号する。
予測方式情報が予測モードとして、動き補償予測モードを適用する旨を示す場合には、第一の色成分を参照画像として、動きベクトルが零で特定される領域のブロックを予測値として動き補償予測処理を行う。従って、色成分間の動き補償予測モードの場合には、動きベクトル及び参照画像の可変長復号は行わない。
予測方式情報が予測モードとして、相関利用予測モードを適用する旨を示す場合には、上記の相関利用予測処理を行うことによって予測画像を生成する。
即ち、この実施の形態2のカラー動画像復号装置では、予測モードとして、動き補償予測モードと相関利用予測モードを備える。その他の処理は、上記実施の形態1のカラー動画像復号装置と同様の処理を行う。
これにより、この実施の形態2のカラー動画像復号装置では、上記のようにして圧縮された符号化データを輝度成分の復号回路のみで好適に復号することができるため、回路規模を小さく抑えることができる。
Here, when performing prediction between color components, the variable-length decoding unit 41 has variable-length prediction scheme information indicating whether to apply a motion compensation prediction mode or a correlation use prediction mode as a prediction mode for each block. Decrypt.
When the prediction method information indicates that the motion compensation prediction mode is applied as the prediction mode, the motion compensation prediction is performed using the first color component as a reference image and a block in an area identified with a motion vector of zero as a prediction value. Process. Therefore, in the motion compensation prediction mode between color components, variable length decoding of the motion vector and the reference image is not performed.
When the prediction method information indicates that the correlation use prediction mode is to be applied as the prediction mode, a prediction image is generated by performing the above-described correlation use prediction process.
That is, the color moving image decoding apparatus according to the second embodiment includes a motion compensation prediction mode and a correlation use prediction mode as prediction modes. Other processes are the same as those of the color moving image decoding apparatus according to the first embodiment.
As a result, in the color moving image decoding apparatus according to the second embodiment, the encoded data compressed as described above can be suitably decoded only by the luminance component decoding circuit, so that the circuit scale can be kept small. Can do.

この実施の形態2では、イントラ予測部4の代わりに、相関利用予測部61を実装しているカラー動画像符号化装置を示したが、図25に示すように、イントラ予測部4の代わりに、相関利用適応予測部81を実装するようにしてもよい。
図26はこの発明の実施の形態2によるカラー動画像符号化装置の相関利用適応予測部81を示す構成図である。
図26において、切替スイッチ82は符号化制御部1により決定された符号化モードがイントラ予測モードである場合、画面内参照画素をイントラ予測部83に出力し、その符号化モードが相関利用予測モードである場合、画面内参照画素を相関利用予測部84に出力する処理を実施する。
In the second embodiment, the color moving image encoding apparatus in which the correlation use prediction unit 61 is mounted instead of the intra prediction unit 4 is shown. However, as shown in FIG. 25, instead of the intra prediction unit 4. Alternatively, the correlation use adaptive prediction unit 81 may be implemented.
FIG. 26 is a block diagram showing a correlation use adaptive prediction unit 81 of the color moving picture coding apparatus according to Embodiment 2 of the present invention.
In FIG. 26, when the coding mode determined by the coding control unit 1 is the intra prediction mode, the changeover switch 82 outputs the intra-screen reference pixel to the intra prediction unit 83, and the coding mode is the correlation use prediction mode. If it is, the process of outputting the in-screen reference pixel to the correlation use prediction unit 84 is performed.

イントラ予測部83は符号化制御部1により決定された符号化モードがイントラ予測モードである場合、図1のイントラ予測部4と同様のイントラ予測処理を実施してイントラ予測画像を生成する処理を実施する。
相関利用予測部84は符号化制御部1により決定された符号化モードが相関利用予測モードである場合、図19の相関利用予測部61と同様の相関利用予測処理を実施してイントラ予測画像を生成する処理を実施する。
したがって、イントラ予測部4の代わりに、相関利用適応予測部81を実装すると、符号化制御部1により決定された符号化モードがイントラ予測モードであれば、上記実施の形態1の方法でイントラ予測画像が生成され、符号化制御部1により決定された符号化モードが相関利用予測モードであれば、この実施の形態2の方法でイントラ予測画像が生成される。
この場合、可変長符号化部13では、ブロック毎に、いずれの予測モードを適用するかを示す予測方式情報を可変長符号化する。
When the encoding mode determined by the encoding control unit 1 is the intra prediction mode, the intra prediction unit 83 performs a process of generating an intra prediction image by performing the same intra prediction process as that of the intra prediction unit 4 in FIG. carry out.
When the encoding mode determined by the encoding control unit 1 is the correlation use prediction mode, the correlation use prediction unit 84 performs the same correlation use prediction process as the correlation use prediction unit 61 in FIG. Perform the process to generate.
Therefore, when the correlation use adaptive prediction unit 81 is implemented instead of the intra prediction unit 4, if the encoding mode determined by the encoding control unit 1 is the intra prediction mode, intra prediction is performed according to the method of the first embodiment. If an image is generated and the coding mode determined by the coding control unit 1 is the correlation use prediction mode, an intra prediction image is generated by the method of the second embodiment.
In this case, the variable length coding unit 13 performs variable length coding on prediction scheme information indicating which prediction mode is applied for each block.

この実施の形態2では、イントラ予測部43の代わりに、相関利用予測部71を実装しているカラー動画像復号装置を示したが、図27に示すように、イントラ予測部43の代わりに、相関利用適応予測部91を実装するようにしてもよい。
図28はこの発明の実施の形態2によるカラー動画像復号装置の相関利用適応予測部91を示す構成図である。
図28において、切替スイッチ92は可変長復号部41により可変長復号された符号化モードがイントラ予測モードである場合、画面内参照画素をイントラ予測部93に出力し、その符号化モードが相関利用予測モードである場合、画面内参照画素を相関利用予測部94に出力する処理を実施する。
In the second embodiment, the color moving image decoding device in which the correlation use prediction unit 71 is mounted instead of the intra prediction unit 43 is shown, but as shown in FIG. 27, instead of the intra prediction unit 43, The correlation use adaptive prediction unit 91 may be implemented.
FIG. 28 is a block diagram showing the correlation use adaptive prediction unit 91 of the color moving image decoding apparatus according to Embodiment 2 of the present invention.
In FIG. 28, when the encoding mode that has been variable length decoded by the variable length decoding unit 41 is the intra prediction mode, the changeover switch 92 outputs the intra-screen reference pixel to the intra prediction unit 93, and the encoding mode is correlated. In the case of the prediction mode, a process of outputting the in-screen reference pixels to the correlation use prediction unit 94 is performed.

イントラ予測部93は可変長復号部41により可変長復号された符号化モードがイントラ予測モードである場合、図4のイントラ予測部43と同様のイントラ予測処理を実施してイントラ予測画像を生成する処理を実施する。
相関利用予測部94は可変長復号部41により可変長復号された符号化モードが相関利用予測モードである場合、図23の相関利用予測部71と同様の相関利用予測処理を実施してイントラ予測画像を生成する処理を実施する。
したがって、イントラ予測部43の代わりに、相関利用適応予測部91を実装すると、可変長復号部41により可変長復号された符号化モードがイントラ予測モードであれば、上記実施の形態1の方法でイントラ予測画像が生成され、可変長復号部41により可変長復号された符号化モードが相関利用予測モードであれば、この実施の形態2の方法でイントラ予測画像が生成される。
また、この実施の形態2では、4:4:4フォーマットの画像を例として説明したが、当然、それぞれの色成分のサイズが等しければ、マルチチャンネル画像やハイパースペクトル画像などといった複数の色成分を持つ画像フォーマットについて同様の処理を行うことができる。
When the encoding mode variable-length decoded by the variable-length decoding unit 41 is the intra-prediction mode, the intra-prediction unit 93 performs an intra-prediction process similar to the intra-prediction unit 43 in FIG. 4 and generates an intra-prediction image. Perform the process.
When the encoding mode variable length decoded by the variable length decoding unit 41 is the correlation use prediction mode, the correlation use prediction unit 94 performs the same correlation use prediction process as the correlation use prediction unit 71 of FIG. A process for generating an image is performed.
Therefore, when the correlation use adaptive prediction unit 91 is installed instead of the intra prediction unit 43, if the encoding mode variable length decoded by the variable length decoding unit 41 is the intra prediction mode, the method of the first embodiment is used. If the intra-predicted image is generated and the coding mode that has been variable-length decoded by the variable-length decoding unit 41 is the correlation use prediction mode, the intra-predicted image is generated by the method of the second embodiment.
In the second embodiment, an image in the 4: 4: 4 format has been described as an example. Naturally, if the size of each color component is the same, a plurality of color components such as a multi-channel image and a hyperspectral image are included. Similar processing can be performed for the image format possessed.

実施の形態3.
実施の形態3では、上記実施の形態2で説明した符号化、復号処理とは別の符号化、復号処理について説明する。
図19は、本実施の形態3によるカラー動画像符号化装置を示す構成図であるが、上記実施の形態2で説明したカラー動画像符号化装置を示す構成図と同一であるため、説明を省略する。
図20は、上記実施の形態2で説明した相関利用予測部61を示す構成図と同一であるが、本実施の形態3において、相関利用予測部61の相関算出部62は、符号化制御部1により決定された符号化モードがイントラ符号化モードにおける相関利用予測モードである場合、予測に用いる相関パラメータα、βを符号化済の画素値を用いて算出するか(相関パラメータα、βのビットストリームへの多重が不要なモード)、予測に用いる相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するか(相関パラメータα、βのビットストリームへの多重が必要なモード)、いずれかの処理を実施する。
相関利用予測画像生成部63は相関算出部62により算出された相関パラメータα、βと画面間参照画素Rec’を用いて予測画像Predを生成する処理を実施する。
Embodiment 3 FIG.
In the third embodiment, encoding and decoding processing different from the encoding and decoding processing described in the second embodiment will be described.
FIG. 19 is a block diagram showing a color moving image encoding apparatus according to the third embodiment. Since this is the same as the configuration diagram showing the color moving image encoding apparatus described in the second embodiment, the explanation is omitted. Omitted.
FIG. 20 is the same as the configuration diagram showing the correlation usage prediction unit 61 described in the second embodiment, but in the third embodiment, the correlation calculation unit 62 of the correlation usage prediction unit 61 is an encoding control unit. When the coding mode determined by 1 is the correlation use prediction mode in the intra coding mode, whether the correlation parameters α and β used for prediction are calculated using the encoded pixel values (correlation parameters α and β Mode in which multiplexing to bitstream is not necessary), whether correlation parameters α and β used for prediction are calculated using pixel values in the encoding target block (mode in which correlation parameters α and β need to be multiplexed to bitstream) ), Any one of the processes is performed.
The correlation use predicted image generation unit 63 performs a process of generating a predicted image Pred C using the correlation parameters α and β calculated by the correlation calculation unit 62 and the inter-screen reference pixel Rec ′ L.

図23は、本実施の形態3によるカラー動画像復号装置を示す構成図であるが、上記実施の形態2で説明したカラー動画像復号装置を示す構成図と同一であるため、説明を省略する。
図24は、上記実施の形態2で説明した相関利用予測部71を示す構成図と同一であるが、本実施の形態3において、相関利用予測部71の相関算出部72は、可変長復号部より復号された符号化モードがイントラ符号化モードにおける相関利用予測モードで予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するモードの場合(相関パラメータα、βのビットストリームへの多重が不要なモード)、予測に用いる相関パラメータα、βを復号済の画素値を用いて算出し、算出した相関パラメータα、βを相関利用予測画像生成部73へ出力する。可変長復号部より復号された符号化モードがイントラ符号化モードにおける相関利用予測モードで予測に用いる相関パラメータα、βがビットストリームに多重化されているモードの場合に(相関パラメータα、βのビットストリームへの多重が必要なモード)、可変長復号部より復号された相関パラメータα、βを、相関利用予測画像生成部73へ出力する。
相関利用予測画像生成部73は相関算出部72より出力された相関パラメータα、βと画面間参照画素Rec’を用いて予測画像Predを生成する処理を実施する。
FIG. 23 is a block diagram showing a color moving image decoding apparatus according to the third embodiment, but since it is the same as the block diagram showing the color moving image decoding apparatus described in the second embodiment, the description thereof is omitted. .
FIG. 24 is the same as the configuration diagram showing the correlation usage prediction unit 71 described in the second embodiment, but in the third embodiment, the correlation calculation unit 72 of the correlation usage prediction unit 71 is a variable length decoding unit. When the decoded decoding mode is a mode in which the correlation parameters α and β used for prediction in the correlation use prediction mode in the intra coding mode are calculated using the decoded pixel values (to the bit stream of the correlation parameters α and β) The correlation parameters α and β used for prediction are calculated using the decoded pixel values, and the calculated correlation parameters α and β are output to the correlation-use predicted image generation unit 73. When the coding mode decoded by the variable length decoding unit is a mode in which the correlation parameters α and β used for prediction in the correlation use prediction mode in the intra coding mode are multiplexed in the bitstream (correlation parameters α and β The mode in which multiplexing to the bit stream is necessary), and correlation parameters α and β decoded by the variable length decoding unit are output to the correlation use predicted image generation unit 73.
The correlation use predicted image generation unit 73 performs a process of generating a predicted image Pred C using the correlation parameters α and β output from the correlation calculation unit 72 and the inter-screen reference pixel Rec ′ L.

次に符号化処理の動作について説明する。
最初にカラー動画像符号化装置の処理内容を説明する。ただし、カラー動画像符号化装置の構成、相関利用予測部61の構成は、上記実施の形態2と同様である。
本実施の形態3の相関利用予測部61の相関算出部62は、符号化制御部1により決定された符号化モードがイントラ符号化モードにおける相関利用予測モードである場合、予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するか(相関パラメータα、βのビットストリームへの多重が不要なモード)、予測に用いる相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するか(相関パラメータα、βのビットストリームへの多重が必要なモード)、いずれかの処理を実施する。
相関パラメータα、βを復号済の画素値を用いて算出するモードの場合には(相関パラメータα、βのビットストリームへの多重が不要なモード)、図22に示すように、参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、斜線が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、斜線が施されている画素)とを用いて、上記実施の形態2と同様に、式(1)及び式(2)に示すように、予測に用いる相関パラメータα、βを算出する処理を実施する。
式(1)、(2)において、Iは処理対象となる予測ブロックの1辺の画素数の2倍の値である。
相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するモードの場合には(相関パラメータα、βのビットストリームへの多重が必要なモード)、復号済の参照ブロック内の画素Rec’(図29(a)において、網掛けが施されている画素)と、符号化対象ブロック内の画素Rec(図29(b)において、網掛けが施されている画素)とを用いて、上記の式(1)及び式(2)に示すように、予測に用いる相関パラメータα、βを算出する処理を実施する。
予測に用いる相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するモードの場合には、復号側で用いる相関パラメータα、βをビットストリームに多重化する必要があるため、相関パラメータα、βを可変長符号化部へ出力する。
なお、予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するモードの場合には(相関パラメータα、βのビットストリームへの多重が不要なモード)、復号側で符号化側と同様の処理を実施することにより相関パラメータα、βを算出することができるため、相関パラメータα、βをビットストリームに多重化する必要はない。
予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するモードと、予測に用いる相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するモードのいずれを選択するかは、符号化制御部1により決定される。
相関利用予測部61の相関利用予測画像生成部63は、相関算出部62が相関パラメータα、βを算出すると、その相関パラメータα、βと画面間参照画素Rec’を用いて、上記実施の形態2と同様に、式(3)に示すように、予測画像Predを生成する。
Next, the operation of the encoding process will be described.
First, the processing contents of the color moving image encoding apparatus will be described. However, the configuration of the color moving image encoding device and the configuration of the correlation use prediction unit 61 are the same as those in the second embodiment.
The correlation calculation unit 62 of the correlation usage prediction unit 61 of the third embodiment uses the correlation parameter α used for prediction when the coding mode determined by the coding control unit 1 is the correlation usage prediction mode in the intra coding mode. , Β is calculated using decoded pixel values (a mode in which the correlation parameters α, β are not required to be multiplexed to the bit stream), or the correlation parameters α, β used for prediction are used as the pixel values in the encoding target block Either calculation is performed (a mode in which the correlation parameters α and β need to be multiplexed on the bit stream), or any one of the processes is performed.
In the case of the mode in which the correlation parameters α and β are calculated using the decoded pixel values (the mode in which the correlation parameters α and β are not required to be multiplexed into the bit stream), as shown in FIG. Inter-screen reference pixel Rec ′ L (pixels hatched in FIG. 22A) that is a pixel value adjacent to the top and left ends of the block at the same position as the prediction target block, and the prediction target Using the in-screen reference pixel Rec C (pixels hatched in FIG. 22B) that is the decoded pixel value of the processing target signal adjacent to the upper end and the left end of the block As in Embodiment 2, as shown in Equation (1) and Equation (2), processing for calculating correlation parameters α and β used for prediction is performed.
In Expressions (1) and (2), I is a value twice the number of pixels on one side of the prediction block to be processed.
In a mode in which the correlation parameters α and β are calculated using the pixel values in the encoding target block (a mode in which the correlation parameters α and β need to be multiplexed on the bit stream), the pixels in the decoded reference block Rec ′ L (pixels that are shaded in FIG. 29A) and pixels Rec C in the encoding target block (pixels that are shaded in FIG. 29B) As shown in the above formulas (1) and (2), a process of calculating correlation parameters α and β used for prediction is performed.
In the mode in which the correlation parameters α and β used for prediction are calculated using the pixel values in the encoding target block, it is necessary to multiplex the correlation parameters α and β used on the decoding side into the bit stream. The parameters α and β are output to the variable length coding unit.
In the case of a mode in which the correlation parameters α and β used for prediction are calculated using decoded pixel values (a mode in which the correlation parameters α and β are not required to be multiplexed on the bit stream), the decoding side encodes Since the correlation parameters α and β can be calculated by performing the same processing as in step 1, it is not necessary to multiplex the correlation parameters α and β into the bit stream.
Select either the mode for calculating the correlation parameters α and β used for prediction using the decoded pixel values or the mode for calculating the correlation parameters α and β used for prediction using the pixel values in the encoding target block. This is determined by the encoding control unit 1.
When the correlation calculation unit 62 calculates the correlation parameters α and β, the correlation use predicted image generation unit 63 of the correlation use prediction unit 61 uses the correlation parameters α and β and the inter-screen reference pixel Rec ′ L to execute the above-described implementation. Similar to the second embodiment, a predicted image Pred C is generated as shown in Expression (3).

これにより、色成分間の予測処理において、残差の小さい予測画像を生成することができるため、符号化効率を向上させることができる。   Thereby, in the prediction process between color components, since a prediction image with a small residual can be produced | generated, encoding efficiency can be improved.

なお、相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出するモードの場合には、相関パラメータα、βをビットストリームに多重化する必要があり、相関パラメータα、βにかかわる符号量を抑えるために、符号化対象ブロック内の画素値を用いて算出するモード(相関パラメータα、βのビットストリームへの多重が必要ななモード)を適用できるブロックサイズを所定のサイズより大きい場合に制限してもよい。すなわち、符号化制御部1により符号化対象ブロック内の画素値を用いて算出するモード(相関パラメータα、βのビットストリームへの多重が必要なモード)を適用できるブロックサイズを所定のサイズより大きい場合に制限することにより、ブロックサイズが所定サイズより大きい場合は、相関パラメータα、βのビットストリームへの多重が必要となるが、ブロックサイズが所定サイズより小さい場合は、相関パラメータα、βのビットストリームへの多重が不要となる。つまり、ブロックサイズが大きければ、相関パラメータα、βをビットストリームに多重しても、データ量に対するオーバーヘッドの割合が少なくて済むため、符号量を抑えることができる。   In the mode in which the correlation parameters α and β are calculated using the pixel values in the encoding target block, it is necessary to multiplex the correlation parameters α and β into the bitstream, which is related to the correlation parameters α and β. In order to suppress the code amount, the block size to which a mode (a mode in which the correlation parameters α and β need to be multiplexed on the bitstream) calculated using the pixel value in the encoding target block is larger than a predetermined size. You may restrict in some cases. That is, the block size to which the mode (mode in which the correlation parameters α and β need to be multiplexed on the bit stream) calculated by the encoding control unit 1 using the pixel values in the encoding target block is applicable is larger than the predetermined size. When the block size is larger than the predetermined size, it is necessary to multiplex the correlation parameters α and β into the bit stream. However, when the block size is smaller than the predetermined size, the correlation parameters α and β Multiplexing to the bit stream is not necessary. In other words, if the block size is large, even if the correlation parameters α and β are multiplexed on the bit stream, the ratio of overhead to the data amount can be reduced, so that the code amount can be suppressed.

また、相関パラメータα、βを符号化対象ブロック内の画素値を用いて算出する方法(相関パラメータα、βのビットストリームへの多重が必要なモード)の別の実施の形態として、復号済の参照ブロック内の画素Rec’(図29(a)において、網掛けが施されている画素)を用いて所定の方法でクラスタリングを行い、参照ブロック内の画素Rec’を所定の数のクラスに分類する。図30は参照ブロック内の画素を例えば4つのクラスに分類した例である。符号化対象ブロック内の画素Recは参照ブロック内の同じ位置の画素と同じクラスに分類する。参照ブロックと符号化対象ブロックと同じクラスに属する画素を用いて、クラスごとに上記の式(1)及び式(2)に示すように、予測に用いる相関パラメータα、βを算出する処理を実施する。クラスごとに算出した相関パラメータα、βはビットストリームに多重化するため可変長符号化部へ出力する。なお、復号済の画素を用いてクラスタリングを行っているため、各画素がどのクラスに分類されたかといったクラスタリングに関わる情報はビットストリーム多重化する必要はない。また相関パラメータα、βに関わる符号量を抑えるために、符号化対象ブロック内の画素値を用いて算出するモード(相関パラメータα、βのビットストリームへの多重が必要なモード)を適用できるブロックサイズを所定のサイズより大きい場合に制限してもよい。すなわち、符号化制御部1により符号化対象ブロック内の画素値を用いて算出するモード(相関パラメータα、βのビットストリームへの多重が必要なモード)を適用できるブロックサイズを所定のサイズより大きい場合に制限することにより、ブロックサイズが所定サイズより大きい場合は、相関パラメータα、βのビットストリームへの多重が必要となるが、ブロックサイズが所定サイズより小さい場合は、相関パラメータα、βのビットストリームへの多重が不要となる。つまり、ブロックサイズが大きければ、相関パラメータα、βをビットストリームに多重しても、データ量に対するオーバーヘッドの割合が少なくて済むため、符号量を抑えることができる。
なお、上記の動作以外の符号化処理の動作については、上記実施の形態2と同様であるため、説明は省略する。
Further, as another embodiment of a method for calculating correlation parameters α and β using pixel values in a block to be encoded (mode in which correlation parameters α and β need to be multiplexed to a bit stream), Clustering is performed by a predetermined method using the pixels Rec ′ L in the reference block (pixels shaded in FIG. 29A), and the pixels Rec ′ L in the reference block are assigned a predetermined number of classes. Classify into: FIG. 30 shows an example in which the pixels in the reference block are classified into, for example, four classes. The pixel Rec C in the encoding target block is classified into the same class as the pixel at the same position in the reference block. Using the pixels belonging to the same class as the reference block and the encoding target block, the processing for calculating the correlation parameters α and β used for prediction is performed for each class as shown in the above formulas (1) and (2). To do. The correlation parameters α and β calculated for each class are output to the variable length coding unit for multiplexing in the bit stream. Note that since clustering is performed using decoded pixels, information relating to clustering such as which class each pixel is classified does not need to be bitstream multiplexed. In addition, in order to suppress the amount of code related to the correlation parameters α and β, a block to which a mode (a mode in which the correlation parameters α and β need to be multiplexed on the bit stream) calculated using pixel values in the encoding target block can be applied. You may restrict | limit when size is larger than predetermined size. That is, the block size to which the mode (mode in which the correlation parameters α and β need to be multiplexed on the bit stream) calculated by the encoding control unit 1 using the pixel values in the encoding target block is applicable is larger than the predetermined size. When the block size is larger than the predetermined size, it is necessary to multiplex the correlation parameters α and β into the bit stream. However, when the block size is smaller than the predetermined size, the correlation parameters α and β Multiplexing to the bit stream is not necessary. In other words, if the block size is large, even if the correlation parameters α and β are multiplexed on the bit stream, the ratio of overhead to the data amount can be reduced, so that the code amount can be suppressed.
Since the operation of the encoding process other than the above operation is the same as that of the second embodiment, description thereof is omitted.

次に復号処理の動作について説明する。
可変長復号部41の動作については、上記実施の形態1と同様であるため、説明は省略する。
次に、切替スイッチ42は、可変長復号部41から出力された符号化ブロックBに属するパーティションP の符号化モードがイントラ符号化モードである場合、可変長復号部41から出力されたイントラ予測パラメータをイントラ予測部43に出力し、その符号化モードがインター符号化モードである場合、可変長復号部41から出力されたインター予測パラメータを動き補償部44に出力する。
イントラ予測部43は、可変長復号部41からイントラ予測パラメータを受けると(図5のステップST45)、図1のイントラ予測部4と同様に、そのイントラ予測パラメータに基づいて、各パーティションP に対するイントラ予測処理を実施することにより、イントラ予測画像(P )を生成する(図5のステップST46)。
即ち、イントラ予測部43は、可変長復号部41からイントラ予測パラメータを受けると、図1のイントラ予測部4と同様に、例えば、パーティションP に対するイントラ予測モードのインデックス値が2(平均値予測)である場合、上パーティションの隣接画素と左パーティションの隣接画素の平均値をパーティションP 内の画素の予測値として予測画像を生成する。
Next, the operation of the decoding process will be described.
Since the operation of the variable length decoding unit 41 is the same as that of the first embodiment, description thereof is omitted.
Next, when the encoding mode of the partition P i n belonging to the encoding block B n output from the variable length decoding unit 41 is the intra encoding mode, the changeover switch 42 is output from the variable length decoding unit 41 When the intra prediction parameter is output to the intra prediction unit 43 and the encoding mode is the inter encoding mode, the inter prediction parameter output from the variable length decoding unit 41 is output to the motion compensation unit 44.
The intra prediction unit 43 receives the intra prediction parameter from the variable length decoding unit 41 (Step of Fig. 5 ST45), like the intra prediction unit 4 in FIG. 1, on the basis of the intra prediction parameters, each partition P i n Intra prediction image (P i n ) is generated by performing intra prediction processing for (step ST46 in FIG. 5).
That is, the intra prediction unit 43 receives the intra prediction parameter from the variable length decoding unit 41, similarly to the intra prediction unit 4 in FIG. 1, for example, the index value of the intra prediction mode for the partition P i n is 2 (average value If the prediction), and generates a prediction image the mean value of neighboring pixels of the adjacent pixel and the left partition of the upper partition as the predicted value of the pixel in the partition P i n.

イントラ予測モードのインデックス値が2(平均値予測)以外の場合で方向性予測モードの場合には、インデックス値が示す予測方向ベクトルv=(dx,dy)に基づいて、パーティションP 内の画素の予測値を生成する。
以下、イントラ予測パラメータが相関利用予測モードである場合について説明する。
相関利用予測部71の相関算出部72は、予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するモードである場合(相関パラメータα、βのビットストリームへの多重が不要なモード)、図22に示すように、参照画像内で当該予測対象ブロックと同じ位置にあるブロックの上端及び左端に隣接している画素値である画面間参照画素Rec’(図22(a)において、網掛け(斜線)が施されている画素)と、予測対象ブロックの上端及び左端に隣接している当該処理対象信号の復号済の画素値である画面内参照画素Rec(図22(b)において、網掛け(斜線)が施されている画素)とを用いて、上記の式(1)及び式(2)に示すように、予測に用いる相関パラメータα、βを算出する処理を実施する。
式(1)、(2)において、Iは処理対象となる予測ブロックの1辺の画素数の2倍の値である。
予測に用いる相関パラメータα、βをビットストリームより復号するモードの場合には、可変長復号部41にて復号された相関パラメータα、βを相関利用予測画像生成部73へ出力する。
In the case where the index value of the intra prediction mode is other than 2 (average value prediction) and the directionality prediction mode, the intra-partition P i n is based on the prediction direction vector v p = (dx, dy) indicated by the index value. The predicted value of the pixel is generated.
Hereinafter, a case where the intra prediction parameter is the correlation use prediction mode will be described.
The correlation calculation unit 72 of the correlation use prediction unit 71 is a mode in which the correlation parameters α and β used for prediction are calculated using decoded pixel values (there is no need to multiplex the correlation parameters α and β into the bitstream). Mode), as shown in FIG. 22, the inter-screen reference pixel Rec ′ L , which is a pixel value adjacent to the upper end and the left end of the block at the same position as the prediction target block in the reference image (FIG. 22A). In FIG. 22, pixels that are shaded (hatched)) and in-screen reference pixels Rec C (FIG. 22 (FIG. 22 (FIG. 22 ()) that are decoded pixel values of the processing target signal adjacent to the upper and left ends of the prediction target block). In b), a process of calculating correlation parameters α and β used for prediction as shown in the above formulas (1) and (2) using the shaded pixels). carry out.
In Expressions (1) and (2), I is a value twice the number of pixels on one side of the prediction block to be processed.
In the case of the mode in which the correlation parameters α and β used for prediction are decoded from the bitstream, the correlation parameters α and β decoded by the variable length decoding unit 41 are output to the correlation use predicted image generation unit 73.

相関利用予測部71の相関利用予測画像生成部73は、相関算出部72が相関パラメータα、βを算出すると、図20の相関利用予測画像生成部63と同様に、その相関パラメータα、βと画面間参照画素Rec’を用いて、上記の式(3)に示すように、予測画像Predを生成する。 When the correlation calculation unit 72 calculates the correlation parameters α and β, the correlation use prediction image generation unit 73 of the correlation use prediction unit 71 calculates the correlation parameters α and β as in the correlation use prediction image generation unit 63 of FIG. Using the inter-screen reference pixel Rec ′ L , a predicted image Pred C is generated as shown in the above equation (3).

また相関パラメータα、βをビットストリームより復号するモードの場合の別の実施の形態として、復号済の参照ブロック内の画素Rec’(図29(a)において、網掛けが施されている画素)を用いて、符号化装置と同じ方法でクラスタリングを行い、参照ブロック内の画素Rec’を所定の数のクラスに分類する。図30は参照ブロック内の画素を4つのクラスに分類した例である。復号対象ブロック内の画素Recは参照ブロック内の同じ位置の画素と同じクラスに分類する。参照ブロックと符号化対象ブロックと同じクラスに属する画素を用いて、クラスごとに可変長復号される相関パラメータα、βを用いて上記の式(3)に示すように、予測画像Predを生成する。 Further, as another embodiment in the mode in which the correlation parameters α and β are decoded from the bit stream, the pixel Rec ′ L in the decoded reference block (the pixel which is shaded in FIG. 29A) ) To classify the pixels Rec ′ L in the reference block into a predetermined number of classes. FIG. 30 shows an example in which the pixels in the reference block are classified into four classes. The pixel Rec C in the decoding target block is classified into the same class as the pixel at the same position in the reference block. Using the pixels belonging to the same class as the reference block and the encoding target block, the prediction image Pred C is generated as shown in the above equation (3) using the correlation parameters α and β that are variable-length decoded for each class. To do.

なお符号化装置にて、予測に用いる相関パラメータα、βを復号対象ブロック内の画素値を用いて算出するモードである場合(相関パラメータα、βのビットストリームへの多重が必要なモード)を適用できるブロックサイズを所定のサイズより大きい場合に制限している場合には、復号対象ブロックのブロックサイズが所定のサイズより大きい場合にのみ、予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するか(相関パラメータα、βのビットストリームへの多重が不要なモード)、予測に用いる相関パラメータα、βをビットストリームより復号するか(相関パラメータα、βのビットストリームへの多重が必要なモード)を示すモード情報を復号し、復号されたモードに従って上記の処理を行う。復号対象ブロックのブロックサイズが所定のサイズ以下の場合には予測に用いる相関パラメータα、βを復号済の画素値を用いて算出するモード(相関パラメータα、βのビットストリームへの多重が不要なモード)を常に適用する。
これにより、この実施の形態3のカラー動画像符号化装置、カラー動画像復号装置では、上記のようにして色成分間の予測処理において、残差の小さい予測画像を生成することができるため、、符号化効率を高めることができる。なお、本実施の形態3の特徴部分は、予測画像生成部であり、この予測画像生成部があれば、本実施の形態3のカラー動画像符号化装置、カラー動画像復号装置の上記効果を得ることができる。
Note that when the encoding apparatus is in a mode in which the correlation parameters α and β used for prediction are calculated using the pixel values in the decoding target block (a mode in which the correlation parameters α and β need to be multiplexed on the bit stream). When the applicable block size is limited to a case where the block size is larger than the predetermined size, the correlation parameters α and β used for the prediction are used only when the block size of the decoding target block is larger than the predetermined size. (Correlation parameters α and β are not required to be multiplexed into the bit stream), or whether the correlation parameters α and β used for prediction are decoded from the bit stream (correlation parameters α and β into the bit stream) Mode information indicating a mode that requires multiplexing) is decoded, and the above processing is performed according to the decoded mode. A mode in which the correlation parameters α and β used for prediction are calculated using the decoded pixel values when the block size of the decoding target block is equal to or smaller than a predetermined size (there is no need to multiplex the correlation parameters α and β into the bit stream) Mode) is always applied.
Thereby, in the color moving image encoding device and the color moving image decoding device according to the third embodiment, a prediction image with a small residual can be generated in the prediction process between color components as described above. Encoding efficiency can be increased. The characteristic part of the third embodiment is a predicted image generation unit. If this predicted image generation unit is provided, the above-described effects of the color moving image encoding device and the color moving image decoding device of the third embodiment are obtained. Can be obtained.

なお、上記の動作以外の復号処理の動作については、上記実施の形態2と同様であるため、説明は省略する。   Note that the operation of the decoding process other than the above operation is the same as that of the second embodiment, and thus the description thereof is omitted.

実施の形態4.
実施の形態4では、上記実施の形態2、3で説明した符号化、復号処理とは別の符号化、復号処理について説明する。
なお以下の説明においては、特に断らない限り、入力される映像信号が、YUV4:4:4信号であるとし、第1、第2、第3色成分がそれぞれY、U、V成分であるとして説明するが、入力される映像信号はRGB信号であるとし、第1、第2、第3色成分は3成分のいずれの組み合わせであってもよい。また入力される映像信号が3原色より更に多くの色成分を含む信号であってもよく、第4以降の色成分については、第2、第3色成分と同様の処理手順を適用することができる。
Embodiment 4 FIG.
In the fourth embodiment, encoding and decoding processes different from the encoding and decoding processes described in the second and third embodiments will be described.
In the following description, unless otherwise specified, it is assumed that the input video signal is a YUV 4: 4: 4 signal, and the first, second, and third color components are Y, U, and V components, respectively. As will be described, it is assumed that the input video signal is an RGB signal, and the first, second, and third color components may be any combination of three components. Further, the input video signal may be a signal including more color components than the three primary colors, and for the fourth and subsequent color components, it is possible to apply the same processing procedure as the second and third color components. it can.

図31は、本実施の形態4によるカラー動画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
インター予測部101は符号化制御部1により決定された符号化モードがインター予測モードである場合、YUV信号の輝度成分(Y成分)に相当する第1の色成分については、符号化済みの異なるPOC(Picture Order Count)を持つ第1の色成分の局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
また、YUV信号のU成分およびV成分に相当する第2の色成分及び第3の色成分について、符号化済みの同じPOCを持つ異なる色成分の局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像を生成するか、符号化済みの異なるPOCを持ち、符号化対象の色成分と同じ色成分の局部復号画像を参照画像として利用して、フレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
なお、インター予測部101は予測画像生成部を構成している。
FIG. 31 is a block diagram showing a color moving image encoding apparatus according to the fourth embodiment. In the figure, the same reference numerals as those in FIG.
When the encoding mode determined by the encoding control unit 1 is the inter prediction mode, the inter prediction unit 101 is different from the encoded first color component corresponding to the luminance component (Y component) of the YUV signal. A process for generating a predicted image is performed by performing inter-frame predictive coding using a locally decoded image of a first color component having a POC (Picture Order Count) as a reference image.
In addition, for the second color component and the third color component corresponding to the U component and the V component of the YUV signal, the local decoded image of the different color component having the same POC that has been encoded is used as a reference image. Predictive encoding is performed to generate a prediction image, or a different POC that has been encoded, and a locally decoded image having the same color component as the color component to be encoded is used as a reference image to generate an interframe prediction code. The process which produces | generates an estimated image is implemented by implementing.
The inter prediction unit 101 constitutes a predicted image generation unit.

図32はこの発明の実施の形態4によるカラー動画像符号化装置のインター予測部101を示す構成図である。
図32において、動き補償予測部5は動き補償予測フレームメモリ12に格納され、符号化対象の色成分と同じ色成分で異なるPOCを持つ局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
相関利用予測部61は動き補償予測フレームメモリ12に格納され、符号化対象の色成分と異なる色成分で、同じPOCを持つ局部復号画像を参照画像として利用してフレーム間予測符号化を実施することで予測画像生成する処理を実施する。
FIG. 32 is a block diagram showing the inter prediction unit 101 of the color moving image coding apparatus according to Embodiment 4 of the present invention.
In FIG. 32, the motion compensated prediction unit 5 is stored in the motion compensated prediction frame memory 12, and uses a locally decoded image having the same color component as the encoding target color component and a different POC as a reference image, and performs interframe predictive coding. The process which produces | generates an estimated image is implemented by implementing.
The correlation use prediction unit 61 is stored in the motion compensation prediction frame memory 12, and performs interframe prediction encoding using a locally decoded image having a color component different from the color component to be encoded and having the same POC as a reference image. Thus, a process for generating a predicted image is performed.

インター予測部101より出力されるインター予測パラメータは可変長符号化部13にてエントロピー符号化されビットストリームに多重化される。
なお、図32の相関利用予測部61は、上記実施の形態2、3で説明した相関利用予測部61を示す構成図と同一であるため、説明を省略する。
また、図38は、本実施の形態4によるカラー動画像復号装置を示す構成図であり、図において、図4と同一符号は同一または相当分を示すので説明を省略する。
インター予測部111は可変長復号部41にて復号された符号化モードがインター予測モードである場合、YUV信号の輝度成分(Y成分)に相当する第1の色成分については、復号済みの異なるPOCを持つ第1の色成分の復号画像を参照画像として利用して、フレーム間予測符号化を実施することで予測画像を生成する処理を実施する。
また、YUV信号のU成分およびV成分に相当する第2の色成分および第3の色成分について、復号済みの同じPOCを持つ異なる色成分の復号画像を参照画像として利用して、フレーム間予測符号化を実施することで予測画像を生成するか、復号済みの異なるPOCを持ち、復号対象の色成分と同じ色成分の復号画像を参照画像として利用して、フレーム間予測を実施することで予測画像を生成する処理を実施する。
また、図39はこの発明の実施の形態4によるカラー動画像復号装置のインター予測部111を示す構成図である。
図39において、動き補償部44は動き補償予測フレームメモリ49に格納され、復号対象の色成分と同じ色成分で異なるPOCを持つ復号画像を参照画像として利用してフレーム間予測を実施することで予測画像を生成する処理を実施する。
相関利用予測部71は動き補償予測フレームメモリ49に格納され、復号対象の色成分と異なる色成分で、同じPOCを持つ復号画像を参照画像として利用してフレーム間予測を実施することで予測画像を生成する処理を実施する。
図33は、参照画像として利用する局部復号画像を示す説明図である。本実施の形態4において、最初にYUV信号の輝度成分(Y成分)に相当する第1の色成分のみから構成されるピクチャ(以下第1色成分ピクチャ)をIピクチャとしてフレーム内予測符号化を行い、第1の色成分の局部復号画像を動き補償予測フレームメモリ12に格納する。次の第1色成分ピクチャでは、図33に示すように、動き補償予測フレームメモリ12に格納された前第1色成分ピクチャの局部復号画像を参照画像(時間方向予測参照画像)として利用して、4:0:0フォーマットとして符号化する。
V成分に相当する第3の色成分のみから構成されるピクチャ(以下第3色成分ピクチャ)については、第1の色成分の動き補償予測と同様に、動き補償予測フレームメモリに格納された符号化対象と同じ色成分ピクチャ(第3色成分ピクチャ)の局部復号画像を参照画像(時間方向予測参照画像)として利用して予測画像を生成するか、動き補償予測フレームメモリに格納された同じPOCを持つ第1色成分ピクチャの局部復号画像を参照画像(色成分間予測参照画像)として利用して、予測画像を生成する。
U成分に相当する第2の色成分のみから構成されるピクチャ(以下第2色成分ピクチャ)については、第1の色成分の動き補償予測と同様に、動き補償予測フレームメモリに格納された符号化対象と同じ色成分ピクチャ(第2色成分ピクチャ)の局部復号画像を参照画像(時間方向予測参照画像)として利用して予測画像を生成するか、動き補償予測フレームメモリに格納された同じPOCを持つ第1または第3色成分ピクチャの局部復号画像を参照画像(色成分間予測参照画像)として利用して、予測画像を生成する。
なお時間方向予測参照画像を用いて予測画像を生成する処理は動き補償予測部5にて行い、色成分間予測参照画像を用いて予測画像を生成する処理は相関利用予測部61にて行う。
The inter prediction parameters output from the inter prediction unit 101 are entropy encoded by the variable length encoding unit 13 and multiplexed into a bitstream.
32 is the same as the configuration diagram showing the correlation usage prediction unit 61 described in Embodiments 2 and 3 above, and thus the description thereof is omitted.
FIG. 38 is a block diagram showing a color moving image decoding apparatus according to the fourth embodiment. In the figure, the same reference numerals as those in FIG.
When the encoding mode decoded by the variable length decoding unit 41 is the inter prediction mode, the inter prediction unit 111 is different in that the first color component corresponding to the luminance component (Y component) of the YUV signal has been decoded. Using the decoded image of the first color component having POC as a reference image, a process for generating a predicted image is performed by performing interframe predictive coding.
Further, for the second color component and the third color component corresponding to the U component and the V component of the YUV signal, inter-frame prediction is performed using a decoded image of a different color component having the same POC that has been decoded as a reference image. By generating a predicted image by performing encoding, or by performing inter-frame prediction using a decoded image having a different POC that has been decoded and having the same color component as the decoding target color component as a reference image A process for generating a predicted image is performed.
FIG. 39 is a block diagram showing the inter prediction unit 111 of the color moving image decoding apparatus according to Embodiment 4 of the present invention.
In FIG. 39, the motion compensation unit 44 is stored in the motion compensation prediction frame memory 49, and performs inter-frame prediction using a decoded image having the same color component as the decoding target color component and a different POC as a reference image. A process for generating a predicted image is performed.
The correlation use prediction unit 71 is stored in the motion compensated prediction frame memory 49 and performs prediction between frames using a decoded image having a color component different from the color component to be decoded and having the same POC as a reference image. The process to generate is performed.
FIG. 33 is an explanatory diagram showing a locally decoded image used as a reference image. In the fourth embodiment, first, intra-frame prediction coding is performed using a picture (hereinafter referred to as a first color component picture) composed only of a first color component corresponding to a luminance component (Y component) of a YUV signal as an I picture. Then, the locally decoded image of the first color component is stored in the motion compensated prediction frame memory 12. In the next first color component picture, as shown in FIG. 33, the locally decoded image of the previous first color component picture stored in the motion compensated prediction frame memory 12 is used as a reference image (temporal direction prediction reference image). Encode as 4: 0: 0 format.
For a picture composed of only the third color component corresponding to the V component (hereinafter referred to as third color component picture), the code stored in the motion compensated prediction frame memory is the same as the motion compensated prediction of the first color component. A predicted image is generated by using a locally decoded image of the same color component picture (third color component picture) as the conversion target as a reference image (temporal direction prediction reference image), or the same POC stored in the motion compensated prediction frame memory Is used as a reference image (inter-color component prediction reference image) to generate a predicted image.
For a picture composed of only the second color component corresponding to the U component (hereinafter referred to as the second color component picture), the code stored in the motion compensated prediction frame memory is the same as the motion compensated prediction of the first color component. A prediction image is generated by using a locally decoded image of the same color component picture (second color component picture) as the conversion target as a reference image (temporal direction prediction reference image), or the same POC stored in the motion compensated prediction frame memory Is used as a reference image (inter-color component prediction reference image) to generate a prediction image.
In addition, the process which produces | generates a prediction image using a time direction prediction reference image is performed in the motion compensation prediction part 5, and the process which produces | generates a prediction image using the prediction reference image between color components is performed in the correlation utilization prediction part 61. FIG.

次に動作について説明する。
最初に、カラー動画像符号化装置の処理内容を説明する。
ただし、動き補償予測部5の代わりに、インター予測部101を設け、インター予測部101の中に動き補償予測部5と相関利用予測部61を設けている点以外は、上記実施の形態1と同様である。実施の形態2における相関利用予測部61は、参照画像内で当該予測対象ブロックと同じ位置にあるブロックを参照ブロックとしているが、本実施の形態4における相関利用予測部61は、参照画像内の任意の位置にあるブロックを参照ブロックとする点が異なる。すなわち動き補償予測フレームメモリ12に格納された符号化対象と同じ色成分ピクチャの局部復号画像を参照画像(時間方向予測参照画像)として利用して予測画像を生成する動き補償予測部5と同様、参照ブロックの位置を示す動きベクトル(インター予測パラメータに含まれる)が可変長符号化部13にて符号化される。実施の形態2における相関利用予測部61と同様、参照画像内で当該予測対象ブロックと同じ位置にあるブロックを参照ブロックとすることにし、すなわち動きベクトルを零に固定とし、動きベクトルの可変長符号化を行わないようにしてもよい(動きベクトルも、参照画像インデックスも可変長符号化しないモード)。
Next, the operation will be described.
First, the processing contents of the color moving image encoding apparatus will be described.
However, except that the inter prediction unit 101 is provided instead of the motion compensation prediction unit 5 and the motion compensation prediction unit 5 and the correlation use prediction unit 61 are provided in the inter prediction unit 101, the same as in the first embodiment. It is the same. The correlation usage prediction unit 61 in the second embodiment uses a block in the same position as the prediction target block in the reference image as a reference block, but the correlation usage prediction unit 61 in the fourth embodiment uses the block in the reference image. The difference is that a block at an arbitrary position is used as a reference block. That is, similarly to the motion compensation prediction unit 5 that generates a prediction image using a locally decoded image of the same color component picture as the encoding target stored in the motion compensation prediction frame memory 12 as a reference image (temporal direction prediction reference image), A motion vector (included in the inter prediction parameter) indicating the position of the reference block is encoded by the variable length encoding unit 13. Similar to the correlation use prediction unit 61 in the second embodiment, a block in the reference image at the same position as the prediction target block is set as a reference block, that is, the motion vector is fixed to zero, and the variable length code of the motion vector is set. (The mode in which neither the motion vector nor the reference image index is variable-length encoded) may be used.

なお動き補償予測部において、動きベクトルは1/4画素精度まで表現でき、図37に示すように、動きベクトルが指し示す参照画素が小数画素位置にある場合には隣接するN画素(N≧2)から内挿補間画素を生成して予測値とする。図37に示すように、動きベクトルが指し示す小数画素位置の画素値(y30)を隣接する8個の整数画素値を参照して、下式により求める。以下の式(4)においてaiは内挿フィルタ係数である。

Figure 2015019257
なおNの値および内挿フィルタ係数を色成分ごとに異なる値に設定するようにしてもよい。
相関利用予測部61においても動き補償予測部5と同様に、動きベクトルは1/4画素精度まで表現でき、小数画素位置の画素値は、隣接する整数画素から補間して生成する。内挿補間画素を生成する際のNの値および内装フィルタ係数を動き補償予測部と同様に色成分によって切り替えるようにしてもよいし、参照画像(色成分間予測参照画像)の色成分によって切り替えるようにしてもよい。
Nの値を増やすことにより、演算量の増大または1つの小数画素を生成するために必要な参照画素数が増えるため、メモリバンド幅の増大になるが、より正確に画素を予測することができるため、動き補償予測効率や相関利用予測効率が高まる。逆にNの値を減らすことにより、演算量およびメモリバンド幅を抑えることができる。従って各色成分の持つ特徴に応じてNの値および内装フィルタ係数を切り替えることで、回路規模を抑えて符号化効率を高めることができる。
別の実施の形態として、相関利用予測部61においては、小数画素の精度を切り替えて、例えば1/2画素精度まで、あるいは整数画素のみにする、逆に1/8画素精度まで利用できるようにするなどしてもよい。 In the motion compensation prediction unit, the motion vector can be expressed up to 1/4 pixel accuracy. As shown in FIG. 37, when the reference pixel indicated by the motion vector is in the decimal pixel position, the adjacent N pixel (N ≧ 2). Then, an interpolated pixel is generated as a predicted value. As shown in FIG. 37, the pixel value (y 30 ) at the decimal pixel position pointed to by the motion vector is obtained by the following equation with reference to eight adjacent integer pixel values. In the following formula (4), a i is an interpolation filter coefficient.
Figure 2015019257
Note that the value of N and the interpolation filter coefficient may be set to different values for each color component.
Similarly to the motion compensation prediction unit 5 in the correlation use prediction unit 61, the motion vector can be expressed up to 1/4 pixel precision, and the pixel value at the decimal pixel position is generated by interpolation from adjacent integer pixels. The value of N and the interior filter coefficient when generating the interpolation pixel may be switched according to the color component as in the motion compensation prediction unit, or may be switched according to the color component of the reference image (inter-color component prediction reference image). You may do it.
Increasing the value of N increases the amount of computation or the number of reference pixels required to generate one decimal pixel, which increases the memory bandwidth, but allows more accurate prediction of pixels. Therefore, motion compensation prediction efficiency and correlation utilization prediction efficiency are increased. Conversely, by reducing the value of N, the amount of computation and the memory bandwidth can be suppressed. Therefore, by switching the value of N and the interior filter coefficient according to the characteristics of each color component, it is possible to suppress the circuit scale and increase the encoding efficiency.
As another embodiment, the correlation use predicting unit 61 switches the precision of decimal pixels so that it can be used, for example, to 1/2 pixel precision, or to only integer pixels, and conversely to 1/8 pixel precision. You may do it.

上記のような相関利用予測部61により、色成分間の予測処理において、残差の小さい予測画像を生成することができるため、回路規模を小さく抑えつつ、符号化効率を向上させることができる。
また、輝度成分の符号化回路のみで4:4:4フォーマットの画像を高効率に圧縮することができる。
Since the correlation use prediction unit 61 as described above can generate a prediction image with a small residual in the prediction process between color components, it is possible to improve the coding efficiency while keeping the circuit scale small.
In addition, a 4: 4: 4 format image can be compressed with high efficiency only by the luminance component encoding circuit.

以下、可変長符号化部13の処理内容を具体的に説明する。
可変長符号化部13は、図3に示すように、変換・量子化部7から出力された圧縮データである直交変換係数を可変長符号化する変換係数可変長符号化部21と、入力信号フォーマット情報、符号化モード、変換ブロック分割フラグを含む予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、ブロック分割情報などの符号化パラメータを可変長符号化する符号化パラメータ可変長符号化部22とから構成されており、変換係数可変長符号化部21により可変長符号化された圧縮データの符号化データと、符号化パラメータ可変長符号化部22により可変長符号化された符号化パラメータとは多重化されてビットストリームが生成される。
Hereinafter, the processing content of the variable length encoding part 13 is demonstrated concretely.
As shown in FIG. 3, the variable length encoding unit 13 includes a transform coefficient variable length encoding unit 21 that performs variable length encoding on orthogonal transform coefficients that are compressed data output from the transform / quantization unit 7, and an input signal. A coding parameter variable length coding unit 22 that performs variable length coding on coding parameters such as a format difference, a coding mode, a prediction differential coding parameter including a transform block division flag, an intra prediction parameter / inter prediction parameter, and a block division information. The encoded data of the compressed data variable-length encoded by the transform coefficient variable-length encoding unit 21, the encoding parameter variable-length encoded by the encoding parameter variable-length encoding unit 22, and Are multiplexed to generate a bitstream.

符号化パラメータ可変長符号化部22のインター予測パラメータを符号化する処理について説明する。
インター予測部101より出力されるインター予測パラメータには、予測ブロック(Prediction Unit:以下PU)の単位にマージモード指示フラグやマージモード動きベクトル指示情報、予測方向指示情報、参照画像識別情報、予測ベクトル指示情報、差分動きベクトル情報などのインター予測に必要なパラメータが含まれる。
マージモードとは、符号化対象の予測ブロック(以下、カレントPU)に関わるインター予測パラメータを空間的に隣接する周囲のPUまたは参照画像のPUのインター予測パラメータにて代用するモードである。なおインター予測パラメータを参照するための参照画像のことを、予測画像を生成するための参照画像と区別するため、インター予測パラメータ参照画像と呼ぶこととする。マージモードが選択された場合(マージモード指示フラグがカレントPUがマージモードであることを指示する値である場合)には、空間的に隣接する周囲のPUまたはインター予測パラメータ参照画像のPUのインター予測パラメータからマージ候補リストを生成し、リストの中からカレントPUに代用するインター予測パラメータとして最適なインター予測パラメータを選択し、そのインデックス(マージモード動きベクトル指示情報)を符号化する。マージ候補リストに登録するインター予測パラメータの候補数の上限は、ピクチャまたはスライスごとに決定される。
A process of encoding the inter prediction parameter of the encoding parameter variable length encoding unit 22 will be described.
Inter prediction parameters output from the inter prediction unit 101 include a merge mode instruction flag, merge mode motion vector instruction information, prediction direction instruction information, reference image identification information, and prediction vector in units of prediction blocks (hereinafter referred to as PU). Parameters necessary for inter prediction such as instruction information and differential motion vector information are included.
The merge mode is a mode in which inter prediction parameters relating to a prediction block to be encoded (hereinafter, current PU) are substituted with inter prediction parameters of spatially adjacent surrounding PUs or PUs of reference images. Note that a reference image for referring to an inter prediction parameter is referred to as an inter prediction parameter reference image in order to distinguish it from a reference image for generating a prediction image. When the merge mode is selected (when the merge mode instruction flag is a value indicating that the current PU is in the merge mode), the spatially adjacent PUs in the surrounding or the inter prediction parameter reference image PU interface A merge candidate list is generated from the prediction parameters, an optimal inter prediction parameter is selected from the list as an inter prediction parameter to be substituted for the current PU, and its index (merge mode motion vector instruction information) is encoded. The upper limit of the number of inter prediction parameter candidates registered in the merge candidate list is determined for each picture or slice.

次にマージ候補リストの生成方法について説明する。
図34にマージ候補リストに登録するPUのうち、空間的に隣接するPUの画素位置を示す。図34に示す6つの画素位置のPUのインター予測パラメータをマージ候補リストに登録する。なお図34に示す隣接PUのうち、符号化済みではないPUやイントラ符号化モードで符号化されたPUの場合や、登録済みの候補と同一のインター予測パラメータの場合には候補として登録しない。
次にインター予測パラメータ参照画像上でカレントPUと同一空間位置にあるPUをマージ候補リストに登録する。選択可能なインター予測パラメータ参照画像は、色成分によって異なる。第1の色成分の場合には、図35に示すように第1の色成分の参照画像(時間方向予測参照画像)の中からインター予測パラメータ参照画像(時間近傍参照画像)が選択される(時間方向予測のみを用いたマージモード)。時間近傍参照画像上でカレントPUと同一空間位置にあるPUをマージ候補PUとする。時間近傍参照画像上のマージ候補PUのインター予測パラメータがカレントPUのインター予測パラメータとして適用される場合には、マージ候補PUの動きベクトルは、時間近傍参照画像とマージ候補PUの参照画像の距離(POCの差分値)(td)とカレントピクチャとカレントPUの参照画像の距離(POCの差分値)(tb)に基づいて、マージ候補PUの動きベクトル(mvcol)はスケーリングされ、スケーリング後の動きベクトル(mvmerge_cand)がカレントPUの動きベクトルとして適用される(時間方向予測のみを用いたマージモードでスケーリング有)。
Next, a method for generating a merge candidate list will be described.
FIG. 34 shows pixel positions of spatially adjacent PUs among PUs registered in the merge candidate list. The inter prediction parameters of PUs at six pixel positions shown in FIG. 34 are registered in the merge candidate list. Note that among the adjacent PUs shown in FIG. 34, in the case of a PU that has not been encoded or a PU that has been encoded in the intra encoding mode, or in the case of an inter prediction parameter that is the same as a registered candidate, it is not registered as a candidate.
Next, PUs in the same spatial position as the current PU on the inter prediction parameter reference image are registered in the merge candidate list. Selectable inter prediction parameter reference images differ depending on the color components. In the case of the first color component, an inter prediction parameter reference image (temporal neighborhood reference image) is selected from the reference images (temporal direction prediction reference image) of the first color component as shown in FIG. Merge mode using only temporal direction prediction). A PU in the same spatial position as the current PU on the temporal neighborhood reference image is set as a merge candidate PU. When the inter prediction parameter of the merge candidate PU on the temporal neighborhood reference image is applied as the inter prediction parameter of the current PU, the motion vector of the merge candidate PU is the distance between the temporal neighborhood reference image and the reference image of the merge candidate PU ( The motion vector (mv col ) of the merge candidate PU is scaled based on the POC difference value (td) and the distance between the current picture and the reference image of the current PU (POC difference value) (tb). The vector (mv merge_cand ) is applied as the motion vector of the current PU (scaling with merge mode using only temporal prediction).

次に第1の色成分以外の色成分(例えば第2または第3の色成分)の場合のインター予測パラメータ参照画像上のマージ候補PUの決定手順について図36を用いて説明する。
第1の色成分以外の色成分である第2または第3の色成分の場合には、第1の色成分と同様に時間近傍参照画像をインター予測パラメータ参照画像とするか(時間方向予測のみを用いたマージモード)、色成分間予測に用いる参照画像の中からインター予測パラメータ参照画像(色成分間参照画像)を選択する(時間方向予測及び色成分間予測を用いたマージモード)。色成分間参照画像上で第1の色成分以外の色成分である第2または第3の色成分のカレントPUと同一空間位置にある第1の色成分のPUをマージ候補PUとする。色成分間参照画像上のマージ候補PUのインター予測パラメータがカレントPUのインター予測パラメータとして適用される場合には、マージ候補PUの動きベクトルは、色成分間参照画像とマージ候補PUの参照画像の距離(POCの差分値)(tf)とカレントピクチャとカレントPUの参照画像の距離(POCの差分値)(tb)に基づいて、マージ候補PUの動きベクトル(mvcol)はスケーリングされ、スケーリング後の動きベクトル(mvmerge_cand)がカレントPUの動きベクトルとして適用される(時間方向予測及び色成分間予測を用いたマージモードでスケーリング有)。なおtfとtbが等しい場合にはスケーリングは不要であり、mvcolがmvmerge_candとしてそのまま適用される(時間方向予測及び色成分間予測を用いたマージモードでスケーリング無)。なおカレントPUの時間方向予測参照画像の中から、マージ候補PUの参照画像と同じPOCを持つ参照画像をカレントPUの参照画像として選択し、スケーリング処理が常に不要になるようにしてもよい(時間方向予測及び色成分間予測を用いたマージモードで常にスケーリング無)。
マージモードが選択されない場合(マージモード指示フラグが、当該PUがマージモードではないことを指示する値である場合)には(マージモードを用いずにインター予測を行うモード)、当該PUに用いられるインター予測パラメータ(当該PUの予測方向指示情報や動きベクトル情報、参照画像識別情報)が直接符号化される。なお動きベクトルの符号化では、空間的に隣接する周囲のPUまたは参照画像のPUの動きベクトルから動きベクトル候補リストを生成し、リストの中から最適な予測値候補を選択し、そのインデックス(予測ベクトル指示情報)と選択された予測値と動きベクトルの差分値(差分動きベクトル情報)を符号化する。動きベクトル候補リストの生成方法は、マージ候補リストの生成方法と同様である。
なおマージ候補リストまたは動きベクトル候補リストの生成に用いるインター予測パラメータ参照画像は、ピクチャ単位に選択できるようにし、ピクチャやスライスヘッダでインター予測パラメータ参照画像指示情報を符号化する。
Next, the procedure for determining the merge candidate PU on the inter prediction parameter reference image in the case of a color component other than the first color component (for example, the second or third color component) will be described with reference to FIG.
In the case of the second or third color component that is a color component other than the first color component, whether the temporal vicinity reference image is used as the inter prediction parameter reference image as in the first color component (only temporal direction prediction) The inter prediction parameter reference image (inter-color component reference image) is selected from the reference images used for inter-color component prediction (merge mode using temporal direction prediction and inter-color component prediction). The PU of the first color component that is in the same spatial position as the current PU of the second or third color component that is a color component other than the first color component on the inter-color component reference image is set as a merge candidate PU. When the inter prediction parameter of the merge candidate PU on the inter-color component reference image is applied as the inter prediction parameter of the current PU, the motion vector of the merge candidate PU is the same as that of the inter-color component reference image and the reference image of the merge candidate PU. Based on the distance (POC difference value) (tf) and the distance between the current picture and the current PU reference image (POC difference value) (tb), the merge candidate PU motion vector (mv col ) is scaled and scaled The motion vector (mv merge_cand ) is applied as the motion vector of the current PU (with scaling in the merge mode using temporal direction prediction and inter-color component prediction). When tf and tb are equal, scaling is not necessary, and mv col is applied as it is as mv merge_cand (no scaling in merge mode using temporal direction prediction and inter-color component prediction). A reference image having the same POC as the reference image of the merge candidate PU may be selected as a reference image of the current PU from the temporal direction prediction reference images of the current PU so that scaling processing is not always necessary (time Always in the merge mode with direction prediction and inter-color component prediction without scaling).
Used when the merge mode is not selected (when the merge mode instruction flag is a value indicating that the PU is not in the merge mode) (a mode in which inter prediction is performed without using the merge mode). Inter prediction parameters (prediction direction instruction information, motion vector information, reference image identification information of the PU) are directly encoded. In motion vector coding, a motion vector candidate list is generated from motion vectors of spatially adjacent surrounding PUs or PUs of reference images, and an optimal prediction value candidate is selected from the list, and its index (prediction) (Vector instruction information) and a difference value (difference motion vector information) between the selected predicted value and the motion vector are encoded. The method for generating the motion vector candidate list is the same as the method for generating the merge candidate list.
Note that the inter prediction parameter reference image used for generating the merge candidate list or motion vector candidate list can be selected on a picture-by-picture basis, and the inter prediction parameter reference image instruction information is encoded with a picture or slice header.

次に変換係数可変長符号化部21の動作について説明する。符号化対象の色成分ピクチャの各変換ブロックは、実施の形態1の変換係数可変長符号化部21の輝度成分の変換ブロックに適用される算術符号化処理により算術符号化され、ブロック符号化データとして出力される。
なおsignificant_coeff_flagなど、変換ブロックを構成する変換係数パラメータの算術符号化に用いる生起確率が、色成分ごとに異なる場合には、色成分ごとに異なるコンテキストインデックス値(コンテキスト情報)を割り当てるようにしてもよい(コンテキスト情報を色成分ごとに切り替えるモード)。
Next, the operation of the transform coefficient variable length coding unit 21 will be described. Each transform block of the color component picture to be coded is arithmetically coded by the arithmetic coding process applied to the luminance component transform block of the transform coefficient variable length coding unit 21 of the first embodiment, and the block coded data Is output as
In addition, when the occurrence probability used for arithmetic coding of the transform coefficient parameter constituting the transform block such as significant_coeff_flag differs for each color component, a different context index value (context information) may be assigned for each color component. (Mode for switching context information for each color component).

次に、カラー動画像復号装置の処理内容を説明する。
ただし、動き補償部44の代わりにインター予測部111を設け、インター予測部111の中に動き補償部44と相関利用予測部71を設けている点以外は、上記実施の形態1と同様である。
可変長復号部41が符号化データから予測構成フラグを復号し、その予測構成フラグが4:4:4フォーマットの各色成分間で予測符号化を行う構成にすることを示していれば、アクセスユニットデリミタを復号することで、3つのYUV4:0:0フォーマットの画像を、表示などのためのアクセスの単位となる1つのアクセスユニットとして認識する。
そして1つのアクセスユニットに含まれ第1の色成分のみから構成されるピクチャ(第1色成分ピクチャ)をYUV4:0:0フォーマットとして復号して、第1色成分ピクチャの復号画像を動き補償予測フレームメモリ49に格納し、その動き補償予測フレームメモリ49に格納された第1色成分ピクチャの復号画像を参照画像として利用して、第1の色成分以外の色差成分(例えばU成分およびV成分)の画像をYUV4:0:0フォーマットであるとみなして復号するように構成する。
Next, processing contents of the color moving image decoding apparatus will be described.
However, the second embodiment is the same as the first embodiment except that an inter prediction unit 111 is provided instead of the motion compensation unit 44, and the motion compensation unit 44 and the correlation use prediction unit 71 are provided in the inter prediction unit 111. .
If the variable length decoding unit 41 indicates that the prediction configuration flag is decoded from the encoded data and the prediction configuration flag indicates that the prediction encoding is performed between the color components of the 4: 4: 4 format, the access unit By decoding the delimiter, three YUV4: 0: 0 format images are recognized as one access unit that is a unit of access for display and the like.
Then, a picture (first color component picture) that is included in one access unit and includes only the first color component is decoded as a YUV4: 0: 0 format, and the decoded image of the first color component picture is motion compensated prediction. Using the decoded image of the first color component picture stored in the frame memory 49 and stored in the motion compensated prediction frame memory 49 as a reference image, color difference components other than the first color component (for example, U component and V component) ) Is assumed to be in the YUV4: 0: 0 format and is decoded.

次の第1色成分ピクチャについては、その動き補償予測フレームメモリ49に格納された前第1色成分ピクチャの復号画像を参照画像として利用して、YUV4:0:0フォーマットとして復号し、第1の色成分以外の色成分(例えばU成分およびV成分)については、第1の色成分の動き補償予測と同様に、動き補償予測フレームメモリ49に格納された復号対象と同じ色成分ピクチャの復号画像を参照画像(時間方向予測参照画像)として利用して予測画像を生成するか、動き補償予測フレームメモリ49に格納された同じPOCを持つ第一の色成分の復号画像を参照画像(色成分間予測参照画像)として利用して、予測画像を生成する。なお、時間方向予測参照画像を用いて予測画像を生成する処理は動き補償部44にて行い、色成分間予測参照画像を用いて予測画像を生成する処理は相関利用予測部71にて行う。
予測構成フラグが4:4:4フォーマットの各色成分間で予測符号化を行う構成にすることを示している場合の各色成分ピクチャの可変長復号処理内容について具体的に説明する。
The next first color component picture is decoded as a YUV4: 0: 0 format using the decoded image of the previous first color component picture stored in the motion compensated prediction frame memory 49 as a reference image. For the color components other than the color components (for example, the U component and the V component), the same color component picture as the decoding target stored in the motion compensated prediction frame memory 49 is decoded as in the motion compensated prediction of the first color component. A predicted image is generated using the image as a reference image (temporal direction prediction reference image), or a decoded image of the first color component having the same POC stored in the motion compensated prediction frame memory 49 is used as a reference image (color component) Inter-predicted reference image) to generate a predicted image. In addition, the process which produces | generates a prediction image using a time direction prediction reference image is performed in the motion compensation part 44, and the process which produces | generates a prediction image using the prediction reference image between color components is performed in the correlation utilization prediction part 71. FIG.
The contents of variable-length decoding processing for each color component picture when the prediction configuration flag indicates that the encoding is performed between the color components in the 4: 4: 4 format will be specifically described.

可変長復号部41は、図6に示すように、ビットストリームに多重化された符号化データから圧縮データである直交変換係数を可変長復号する変換係数可変長復号部51と、ビットストリームに多重化された符号化データから入力信号フォーマット情報、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、ブロック分割情報などの符号化パラメータを可変長復号する符号化パラメータ可変長復号部52とから構成されている。
符号化パラメータ可変長復号部52のインター予測パラメータを復号する処理について説明する。
可変長復号部41にて復号されるインター予測パラメータには、予測ブロック(PU)の単位にマージモード指示フラグやマージモード動きベクトル指示情報、予測方向指示情報、参照画像識別情報(参照画像インデックス)、予測ベクトル指示情報、差分動きベクトル情報などのインター予測に必要なパラメータが含まれる。
まずピクチャまたはスライスの単位にマージ候補リストまたは動きベクトル候補リストの生成に用いるインター予測パラメータの予測参照先を指示する情報(インター予測パラメータ参照画像指示情報)が可変長復号される。インター予測パラメータ参照画像指示情報は、第1色成分ピクチャの復号時には、時間近傍参照画像を指示する情報であるが、第1の色成分以外の色成分である第2または第3色成分ピクチャの復号時には、時間近傍参照画像か色成分間参照画像のいずれかを指示する情報である。
次にPUの単位に可変長復号されたマージモード指示フラグが、カレントPUがマージモードであることを示している場合には、インター予測パラメータ参照画像指示情報に基づき特定されたインター予測パラメータ参照画像を用いて、マージ候補リストを生成する。
As shown in FIG. 6, the variable length decoding unit 41 includes a transform coefficient variable length decoding unit 51 that performs variable length decoding of orthogonal transform coefficients, which are compressed data, from encoded data multiplexed in a bit stream, and multiplexes the bit stream. Coding parameter variable length decoding unit for variable length decoding coding parameters such as input signal format information, coding mode, prediction differential coding parameter, intra prediction parameter / inter prediction parameter, block division information from coded coded data 52.
A process of decoding the inter prediction parameter of the encoding parameter variable length decoding unit 52 will be described.
Inter prediction parameters decoded by the variable length decoding unit 41 include a merge mode instruction flag, merge mode motion vector instruction information, prediction direction instruction information, reference image identification information (reference image index) in units of prediction blocks (PU). , Parameters necessary for inter prediction, such as prediction vector instruction information and differential motion vector information, are included.
First, information indicating the prediction reference destination of the inter prediction parameter used for generating the merge candidate list or the motion vector candidate list (inter prediction parameter reference image instruction information) in units of pictures or slices is variable-length decoded. The inter-prediction parameter reference image indication information is information for indicating a temporal vicinity reference image at the time of decoding the first color component picture, but the second or third color component picture which is a color component other than the first color component. At the time of decoding, it is information indicating either a temporal vicinity reference image or an inter-color component reference image.
Next, when the merge mode instruction flag variable-length decoded in units of PU indicates that the current PU is in the merge mode, the inter prediction parameter reference image specified based on the inter prediction parameter reference image instruction information Is used to generate a merge candidate list.

マージ候補リストの生成法について説明する。
図34にマージ候補リストに登録するPUのうち、空間的に隣接するPUの画素位置を示す。図34に示す6つの画素位置のPUのインター予測パラメータをマージ候補リストに登録する。なお図34に示す隣接PUのうち、復号済みではないPUやイントラ符号化モードで符号化されたPUの場合や、登録済みの候補と同一のインター予測パラメータの場合には候補として登録しない。
次にインター予測パラメータ参照画像上でカレントPUと同一空間位置にあるPUをマージ候補リストに登録する。図35に示すように第1の色成分の場合のインター予測パラメータ参照画像は時間近傍参照画像である(時間方向予測のみを用いたマージモード)。時間近傍参照画像上でカレントPUと同一空間位置にあるPUをマージ候補PUとする。時間近傍参照画像上のマージ候補PUのインター予測パラメータがカレントPUのインター予測パラメータとして適用される場合には、マージ候補PUの動きベクトルは、時間近傍参照画像とマージ候補PUの参照画像の距離(POCの差分値)(td)とカレントピクチャとカレントPUの参照画像の距離(POCの差分値)(tb)に基づいて、マージ候補PUの動きベクトル(mvcol)はスケーリングされ、スケーリング後の動きベクトル(mvmerge_cand)がカレントPUの動きベクトルとして適用される(時間方向予測のみを用いたマージモードでスケーリング有)。なおカレントPUの時間方向予測参照画像の中から、マージ候補PUの参照画像と同じPOCを持つ参照画像をカレントPUの参照画像として選択し、スケーリング処理が常に不要になるようにしてもよい(時間方向予測のみを用いたマージモードで常にスケーリング無)。
A method for generating a merge candidate list will be described.
FIG. 34 shows pixel positions of spatially adjacent PUs among PUs registered in the merge candidate list. The inter prediction parameters of PUs at six pixel positions shown in FIG. 34 are registered in the merge candidate list. Note that among the adjacent PUs shown in FIG. 34, the PU is not registered as a candidate in the case of a PU that has not been decoded or a PU that has been encoded in the intra encoding mode, or in the case of an inter prediction parameter that is the same as a registered candidate.
Next, PUs in the same spatial position as the current PU on the inter prediction parameter reference image are registered in the merge candidate list. As shown in FIG. 35, the inter prediction parameter reference image in the case of the first color component is a temporal neighborhood reference image (merge mode using only temporal direction prediction). A PU in the same spatial position as the current PU on the temporal neighborhood reference image is set as a merge candidate PU. When the inter prediction parameter of the merge candidate PU on the temporal neighborhood reference image is applied as the inter prediction parameter of the current PU, the motion vector of the merge candidate PU is the distance between the temporal neighborhood reference image and the reference image of the merge candidate PU ( The motion vector (mv col ) of the merge candidate PU is scaled based on the POC difference value (td) and the distance between the current picture and the reference image of the current PU (POC difference value) (tb). The vector (mv merge_cand ) is applied as the motion vector of the current PU (scaling with merge mode using only temporal prediction). A reference image having the same POC as the reference image of the merge candidate PU may be selected as a reference image of the current PU from the temporal direction prediction reference images of the current PU so that scaling processing is not always necessary (time (Merge mode with only direction prediction and always no scaling).

次に第1の色成分以外の色成分である第2または第3の色成分の場合のインター予測パラメータ参照画像上のマージ候補PUの決定手順について図36を用いて説明する。
第1の色成分以外の色成分である第2または第3の色成分の場合にはインター予測パラメータ参照画像は、時間近傍参照画像(時間方向予測のみを用いたマージモード)か色成分間参照画像(時間方向予測及び色成分間予測を用いたマージモード)のいずれかである。色成分間参照画像が用いられる場合においても第1の色成分以外の色成分である第2または第3の色成分のカレントPUと同一空間位置にある第1の色成分のPUをマージ候補PUとする。色成分間参照画像上のマージ候補PUのインター予測パラメータがカレントPUのインター予測パラメータとして適用される場合には、マージ候補PUの動きベクトルは、色成分間参照画像とマージ候補PUの参照画像の距離(POCの差分値)(tf)とカレントピクチャとカレントPUの参照画像の距離(POCの差分値)(tb)に基づいて、マージ候補PUの動きベクトル(mvcol)はスケーリングされ、スケーリング後の動きベクトル(mvmerge_cand)がカレントPUの動きベクトルとして適用される(時間方向予測及び色成分間予測を用いたマージモードでスケーリング有)。なおtfとtbが等しい場合にはスケーリングは不要であり、mvcolがmvmerge_candとしてそのまま適用される(時間方向予測及び色成分間予測を用いたマージモードでスケーリング無)。なおカレントPUの時間方向予測参照画像の中から、マージ候補PUの参照画像と同じPOCを持つ参照画像をカレントPUの参照画像として選択し、スケーリング処理が常に不要になるようにしてもよい(時間方向予測及び色成分間予測を用いたマージモードで常にスケーリング無)。
マージモード動きベクトル指示情報に基づいて、生成されたマージ候補リストの中からマージ候補PUを選択し、選択されたマージ候補PUのインター予測パラメータからカレントPUに適用する予測方向指示情報、動きベクトルと参照画像インデックスが導出される。
マージモード指示フラグが、カレントPUがマージモードではないことを示している場合には(マージモードを用いずにインター予測を行うモード)、マージ候補リストと同様の手順で動きベクトル候補リストを生成し、可変長復号された予測ベクトル指示情報に基づいて、動きベクトル候補リストの中からカレントPUの動きベクトル予測値を導出する。動きベクトル予測値と可変長復号された差分動きベクトル情報に基づいてカレントPUの動きベクトルが導出される。
Next, the procedure for determining the merge candidate PU on the inter prediction parameter reference image in the case of the second or third color component that is a color component other than the first color component will be described with reference to FIG.
In the case of the second or third color component which is a color component other than the first color component, the inter prediction parameter reference image is a temporal neighborhood reference image (merge mode using only temporal direction prediction) or an inter-color component reference. One of images (merge mode using temporal direction prediction and inter-color component prediction). Even when the inter-color component reference image is used, the merge candidate PU is used as the PU of the first color component in the same space position as the current PU of the second or third color component which is a color component other than the first color component. And When the inter prediction parameter of the merge candidate PU on the inter-color component reference image is applied as the inter prediction parameter of the current PU, the motion vector of the merge candidate PU is the same as that of the inter-color component reference image and the reference image of the merge candidate PU. Based on the distance (POC difference value) (tf) and the distance between the current picture and the current PU reference image (POC difference value) (tb), the merge candidate PU motion vector (mv col ) is scaled and scaled The motion vector (mv merge_cand ) is applied as the motion vector of the current PU (with scaling in the merge mode using temporal direction prediction and inter-color component prediction). When tf and tb are equal, scaling is not necessary, and mv col is applied as it is as mv merge_cand (no scaling in merge mode using temporal direction prediction and inter-color component prediction). A reference image having the same POC as the reference image of the merge candidate PU may be selected as a reference image of the current PU from the temporal direction prediction reference images of the current PU so that scaling processing is not always necessary (time Always in the merge mode with direction prediction and inter-color component prediction without scaling).
Based on the merge mode motion vector instruction information, the merge candidate PU is selected from the generated merge candidate list, and the prediction direction instruction information to be applied to the current PU from the inter prediction parameters of the selected merge candidate PU, the motion vector, and A reference image index is derived.
If the merge mode instruction flag indicates that the current PU is not in merge mode (inter prediction mode without using merge mode), a motion vector candidate list is generated in the same manner as the merge candidate list. Based on the prediction vector instruction information subjected to variable length decoding, a motion vector prediction value of the current PU is derived from the motion vector candidate list. The motion vector of the current PU is derived based on the motion vector prediction value and the variable length decoded differential motion vector information.

次に変換係数可変長復号部51の動作について説明する。復号対象の色成分ピクチャの各変換ブロックの符号化データは、実施の形態1の変換係数可変長復号部51の輝度成分の変換ブロックの符号化データに適用される算術復号処理により算術復号される。
なおsiginificant_coeff_flagなど、変換ブロックを構成する変換係数パラメータに対し、色成分ごとに異なるコンテキストインデックス値(コンテキスト情報)を参照して、変換係数パラメータの算術復号に用いる生起確率を特定するようにしてもよい(コンテキスト情報を色成分ごとに切り替えるモード)。
Next, the operation of the transform coefficient variable length decoding unit 51 will be described. The encoded data of each transform block of the color component picture to be decoded is arithmetically decoded by the arithmetic decoding process applied to the encoded data of the luminance component transform block of the transform coefficient variable length decoding unit 51 of the first embodiment. .
Note that the occurrence probability used for arithmetic decoding of the transform coefficient parameter may be specified by referring to a different context index value (context information) for each color component for the transform coefficient parameter constituting the transform block, such as siginificant_coeff_flag. (Mode for switching context information for each color component).

上記実施の形態3における相関利用予測部71は、参照画像内で当該予測対象ブロックと同じ位置にあるブロックを参照ブロックとしているが、本実施の形態4における相関利用予測部71は、可変長復号部41より復号された動きベクトル(インター予測パラメータに含まれる)が示す位置にある参照画像内のブロックを参照ブロックとする点が異なる(参照画像インデックスは可変長復号しないが、動きベクトルは可変長復号するモード)。なお、動きベクトルについては、ビットストリームに多重化されていない、すなわち動きベクトルの可変長復号を行わないようにし、実施の形態1における相関利用予測部と同様、常に参照画像内で当該予測対象ブロックと同じ位置にあるブロックを参照ブロックとするようにしてもよい(動きベクトルも、参照画像インデックスも可変長復号しないモード)。   The correlation use prediction unit 71 in the third embodiment uses a block in the same position as the prediction target block in the reference image as a reference block, but the correlation use prediction unit 71 in the fourth embodiment uses variable length decoding. The difference is that the block in the reference image at the position indicated by the motion vector (included in the inter prediction parameter) decoded by the unit 41 is a reference block (the reference image index is not variable-length decoded, but the motion vector is variable-length Decoding mode). Note that the motion vector is not multiplexed in the bitstream, that is, the motion vector is not subjected to variable length decoding, and the prediction target block is always included in the reference image as in the correlation use prediction unit in the first embodiment. The block at the same position may be used as a reference block (a mode in which neither a motion vector nor a reference image index is variable-length decoded).

ここで、第1の色成分以外の色成分であるU成分及びV成分において色成分間の予測を行う場合、可変長復号部41では、ブロック毎に、予測モードとして、動き補償予測モード又は相関利用予測モードのいずれを適用するかを示す予測方式情報を可変長復号する。
予測方式情報が予測モードとして、動き補償予測モードを適用する旨を示す場合には、動き補償予測フレームメモリ49に格納された時間方向予測参照画像の中から参照画像インデックが指し示す画像を参照画像として利用して、動きベクトルで特定される位置にあるブロックを予測画像とする(動きベクトルと参照画像インデックスは可変長復号部にて可変長復号されたインター予測パラメータに含まれる)。
予測方式情報が予測モードとして、相関利用予測モードを適用する旨を示す場合には、上記の相関利用予測処理を行うことによって予測画像を生成する(動きベクトルは可変長復号部にて可変長復号されたインター予測パラメータに含まれる。)。
Here, when performing prediction between color components in the U component and the V component, which are color components other than the first color component, the variable length decoding unit 41 uses a motion compensation prediction mode or a correlation as a prediction mode for each block. The prediction method information indicating which of the usage prediction modes is applied is variable-length decoded.
When the prediction method information indicates that the motion compensation prediction mode is applied as the prediction mode, the image indicated by the reference image index from the temporal direction prediction reference images stored in the motion compensation prediction frame memory 49 is used as the reference image. The block at the position specified by the motion vector is used as a prediction image (the motion vector and the reference image index are included in the inter prediction parameter that has been variable-length decoded by the variable-length decoding unit).
When the prediction method information indicates that the correlation use prediction mode is applied as the prediction mode, a prediction image is generated by performing the above-described correlation use prediction process (the motion vector is variable length decoded by the variable length decoding unit). Included in the predicted inter prediction parameters.)

なお動き補償部44において、動きベクトルは1/4画素精度まで表現でき、図37に示すように、動きベクトルが指し示す参照画素が小数画素位置にある場合には隣接するN画素(N≧2)から内挿補間画素を生成して予測値とする。図37に示すように、動きベクトルが指し示す小数画素位置の画素値(y30)を隣接する8個の整数画素値を参照して、下式により求める。以下の式(4)においてaiは内挿フィルタ係数である。
なおNの値および内挿フィルタ係数を色成分ごとに異なる値に設定するようにしてもよい。
相関利用予測部71においても動き補償部44と同様に、動きベクトルは1/4画素精度まで表現でき、小数画素位置の画素値は、隣接する整数画素から補間して生成する。内挿補間画素を生成する際のNの値および内装フィルタ係数を動き補償予測部と同様に色成分によって切り替えるようにしてもよいし、参照画像(色成分間予測参照画像)の色成分によって切り替えるようにしてもよい。
Nの値を増やすことにより、演算量の増大または1つの小数画素を生成するために必要な参照画素数が増えるため、メモリバンド幅の増大になるが、より正確に画素を予測することができるため、動き補償予測効率や相関利用予測効率が高まる。逆にNの値を減らすことにより、演算量およびメモリバンド幅を抑えることができる。従って各色成分の持つ特徴に応じてNの値および内装フィルタ係数を切り替えることで、回路規模を抑えて符号化効率を高めることができる。
別の実施の形態として、相関利用予測部71においては、小数画素の精度を切り替えて、例えば1/2画素精度まで、あるいは整数画素のみにする、逆に1/8画素精度まで利用できるようにするなどしてもよい。
この実施の形態4のカラー動画像復号装置では、予測モードとして、動き補償予測モードと相関利用予測モードを備える。
これにより、この実施の形態4のカラー動画像符号化装置、カラー動画像復号装置では、上記のようにして圧縮された符号化データを輝度成分の復号回路のみで好適に復号することができるため、回路規模を小さく抑えつつ、符号化効率を高めることができる。なお、本実施の形態4の特徴部分は、予測画像生成部であり、この予測画像生成部があれば、本実施の形態4のカラー動画像符号化装置、カラー動画像復号装置の上記効果を得ることができる。
In the motion compensation unit 44, the motion vector can be expressed up to 1/4 pixel accuracy. As shown in FIG. 37, when the reference pixel indicated by the motion vector is in the decimal pixel position, the adjacent N pixels (N ≧ 2) Then, an interpolated pixel is generated as a predicted value. As shown in FIG. 37, the pixel value (y 30 ) at the decimal pixel position pointed to by the motion vector is obtained by the following equation with reference to eight adjacent integer pixel values. In the following formula (4), a i is an interpolation filter coefficient.
Note that the value of N and the interpolation filter coefficient may be set to different values for each color component.
Similarly to the motion compensation unit 44, the correlation use prediction unit 71 can express the motion vector to 1/4 pixel accuracy, and the pixel value at the decimal pixel position is generated by interpolation from adjacent integer pixels. The value of N and the interior filter coefficient when generating the interpolation pixel may be switched according to the color component as in the motion compensation prediction unit, or may be switched according to the color component of the reference image (inter-color component prediction reference image). You may do it.
Increasing the value of N increases the amount of computation or the number of reference pixels required to generate one decimal pixel, which increases the memory bandwidth, but allows more accurate prediction of pixels. Therefore, motion compensation prediction efficiency and correlation utilization prediction efficiency are increased. Conversely, by reducing the value of N, the amount of computation and the memory bandwidth can be suppressed. Therefore, by switching the value of N and the interior filter coefficient according to the characteristics of each color component, it is possible to suppress the circuit scale and increase the encoding efficiency.
As another embodiment, the correlation use prediction unit 71 switches the precision of the decimal pixel so that it can be used, for example, up to 1/2 pixel precision, or only integer pixels, and conversely, can be used up to 1/8 pixel precision. You may do it.
The color moving image decoding apparatus according to the fourth embodiment includes a motion compensation prediction mode and a correlation use prediction mode as prediction modes.
As a result, in the color moving image encoding device and color moving image decoding device according to the fourth embodiment, the encoded data compressed as described above can be suitably decoded only by the luminance component decoding circuit. The coding efficiency can be increased while the circuit scale is kept small. Note that the characteristic part of the fourth embodiment is a predicted image generation unit. If this predicted image generation unit is provided, the above-described effects of the color video encoding device and color video decoding device of the fourth embodiment are obtained. Can be obtained.

なお、上記の動作以外の符号化処理、復号処理の動作については、上記実施の形態1と同様であるため、説明は省略する。   Note that the operations of the encoding process and the decoding process other than the above-described operations are the same as those in the first embodiment, and thus the description thereof is omitted.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 符号化制御部(符号化制御手段)、2 ブロック分割部(ブロック分割手段)、3 切替スイッチ(予測画像生成部)、4 イントラ予測部(予測画像生成部)、5 動き補償予測部(予測画像生成部)、6 減算部(差分画像生成手段)、7 変換・量子化部(画像圧縮手段)、8 逆量子化・逆変換部、9 加算部、10 イントラ予測用メモリ、11 ループフィルタ部、12 動き補償予測フレームメモリ、13 可変長符号化部(可変長符号化手段)、21 変換係数可変長符号化部、22 符号化パラメータ可変長符号化部、41 可変長復号部(可変長復号手段)、42 切替スイッチ(予測画像生成部)、43 イントラ予測部(予測画像生成部)、44 動き補償部(予測画像生成部)、45 逆量子化・逆変換部(差分画像生成手段)、46 加算部(復号画像生成手段)、47 イントラ予測用メモリ、48 ループフィルタ部、49 動き補償予測フレームメモリ、51 変換係数可変長復号部、52 符号化パラメータ可変長復号部、61 相関利用予測部(予測画像生成部)、62 相関算出部、63 相関利用予測画像生成部、71 相関利用予測部(予測画像生成部)、72 相関算出部、73 相関利用予測画像生成部、81 相関利用適応予測部(予測画像生成部)、82 切替スイッチ、83 イントラ予測部、84 相関利用予測部、91 相関利用適応予測部(予測画像生成部)、92 切替スイッチ、93 イントラ予測部、94 相関利用予測部、101 インター予測部、102 切替スイッチ、111 インター予測部、112 切替スイッチ。   DESCRIPTION OF SYMBOLS 1 Encoding control part (encoding control means), 2 block division part (block division means), 3 changeover switch (prediction image generation part), 4 intra prediction part (prediction image generation part), 5 motion compensation prediction part (prediction) Image generation unit), 6 subtraction unit (difference image generation unit), 7 transform / quantization unit (image compression unit), 8 inverse quantization / inverse transform unit, 9 addition unit, 10 intra prediction memory, 11 loop filter unit , 12 motion compensated prediction frame memory, 13 variable length coding unit (variable length coding means), 21 transform coefficient variable length coding unit, 22 coding parameter variable length coding unit, 41 variable length decoding unit (variable length decoding) Means), 42 changeover switch (prediction image generation unit), 43 intra prediction unit (prediction image generation unit), 44 motion compensation unit (prediction image generation unit), 45 inverse quantization / inverse conversion unit (difference image generation unit) Stage), 46 addition unit (decoded image generation means), 47 intra prediction memory, 48 loop filter unit, 49 motion compensated prediction frame memory, 51 transform coefficient variable length decoding unit, 52 encoding parameter variable length decoding unit, 61 correlation Use prediction unit (prediction image generation unit), 62 correlation calculation unit, 63 correlation use prediction image generation unit, 71 correlation use prediction unit (prediction image generation unit), 72 correlation calculation unit, 73 correlation use prediction image generation unit, 81 correlation Use adaptive prediction unit (prediction image generation unit), 82 changeover switch, 83 intra prediction unit, 84 correlation use prediction unit, 91 correlation use adaptive prediction unit (prediction image generation unit), 92 changeover switch, 93 intra prediction unit, 94 correlation Usage prediction unit, 101 inter prediction unit, 102 changeover switch, 111 inter prediction unit, 112 changeover switch.

Claims (4)

カラー動画像の各色成分において同一の変換ブロックサイズで変換処理を行うカラー動画像符号化装置であって、
前記カラー動画像における第1の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測符号化を実施することで予測画像を生成する、あるいは、符号化済みの他のピクチャに含まれる前記第1の色成分の局部復号画像を参照画像としてフレーム間予測符号化を実施することで予測画像を生成するとともに、前記カラー動画像における前記第1の色成分以外の色成分については、符号化済みの他のピクチャに含まれる符号化対象の色成分と同一の色成分の局部復号画像を参照画像としてフレーム間予測符号化を実施することで予測画像を生成する、あるいは、符号化済みの同一ピクチャに含まれる前記第1の色成分の局部復号画像の画素と符号化対象の前記第1の色成分以外の色成分の符号化対照の画素との相関を表す相関パラメータと、前記第1の色成分の局部復号画像とを用いて、フレーム間予測符号化を実施することで、符号化対象の前記第1の色成分以外の色成分の予測画像を生成する予測画像生成部を備えることを特徴とするカラー動画像符号化装置。
A color moving image encoding apparatus that performs conversion processing with the same conversion block size in each color component of a color moving image,
For the first color component in the color moving image, a predicted image is generated by performing intra-frame predictive encoding when the signal format is 4: 0: 0 format, or other encoded A predictive image is generated by performing inter-frame predictive coding using a locally decoded image of the first color component included in a picture as a reference image, and color components other than the first color component in the color moving image For generating a prediction image by performing inter-frame predictive encoding using a locally decoded image of the same color component as the encoding target color component included in another encoded picture as a reference image, or Pixels of the locally decoded image of the first color component included in the same encoded picture and pixels for encoding contrast of color components other than the first color component to be encoded Predicting color components other than the first color component to be encoded by performing inter-frame predictive coding using the correlation parameter representing the correlation of the first color component and the locally decoded image of the first color component A color moving image encoding apparatus comprising a predicted image generation unit for generating an image.
カラー動画像の各色成分において同一の変換ブロックサイズで変換処理を行うカラー動画像復号装置であって、
前記カラー動画像における第1の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測復号を実施することで予測画像を生成する、あるいは、復号済みの他のピクチャに含まれる前記第1の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成するとともに、前記カラー動画像における前記第1の色成分以外の色成分については、復号済みの他のピクチャに含まれる復号対象の色成分と同一の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成する、あるいは、復号済みの同一ピクチャに含まれる前記第1の色成分の復号画像の画素と復号対象の前記第1の色成分以外の色成分の復号対象の画素との相関を表す相関パラメータと、前記第1の色成分の復号画像とを用いて、フレーム間予測復号を実施することで、復号対象の前記第1の色成分以外の色成分の予測画像を生成する予測画像生成部を備えることを特徴とするカラー動画像復号装置。
A color moving image decoding apparatus that performs conversion processing with the same conversion block size in each color component of a color moving image,
For the first color component in the color moving image, a predicted image is generated by performing intra-frame predictive decoding when the signal format is 4: 0: 0 format, or in other decoded pictures A prediction image is generated by performing inter-frame prediction decoding using the decoded image of the first color component included as a reference image, and decoding is performed for color components other than the first color component in the color moving image. A predicted image is generated by performing inter-frame predictive decoding using a decoded image having the same color component as the decoding target color component included in another completed picture as a reference image, or included in the same decoded picture A correlation parameter representing a correlation between a decoded image pixel of the first color component and a decoding target pixel of a color component other than the first color component to be decoded; A prediction image generation unit configured to generate a prediction image of a color component other than the first color component to be decoded by performing inter-frame prediction decoding using the decoded image of the first color component; A color video decoding device characterized by the above.
カラー動画像の各色成分において同一の変換ブロックサイズで変換処理を行うカラー動画像符号化方法であって、
前記カラー動画像における第1の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測符号化を実施することで予測画像を生成する、あるいは、符号化済みの他のピクチャに含まれる前記第1の色成分の局部復号画像を参照画像としてフレーム間予測符号化を実施することで予測画像を生成するとともに、前記カラー動画像における前記第1の色成分以外の色成分については、符号化済みの他のピクチャに含まれる符号化対象の色成分と同一の色成分の局部復号画像を参照画像としてフレーム間予測符号化を実施することで予測画像を生成する、あるいは、符号化済みの同一ピクチャに含まれる前記第1の色成分の局部復号画像の画素と符号化対象の前記第1の色成分以外の色成分の符号化対照の画素との相関を表す相関パラメータと、前記第1の色成分の局部復号画像とを用いて、フレーム間予測符号化を実施することで、符号化対象の前記第1の色成分以外の色成分の予測画像を生成する予測画像生成ステップを備えることを特徴とするカラー動画像符号化方法。
A color moving image encoding method for performing conversion processing with the same conversion block size in each color component of a color moving image,
For the first color component in the color moving image, a predicted image is generated by performing intra-frame predictive encoding when the signal format is 4: 0: 0 format, or other encoded A predictive image is generated by performing inter-frame predictive coding using a locally decoded image of the first color component included in a picture as a reference image, and color components other than the first color component in the color moving image For generating a prediction image by performing inter-frame predictive encoding using a locally decoded image of the same color component as the encoding target color component included in another encoded picture as a reference image, or Pixels of the locally decoded image of the first color component included in the same encoded picture and pixels for encoding contrast of color components other than the first color component to be encoded Predicting color components other than the first color component to be encoded by performing inter-frame predictive coding using the correlation parameter representing the correlation of the first color component and the locally decoded image of the first color component A color moving image encoding method comprising a predicted image generation step of generating an image.
カラー動画像の各色成分において同一の変換ブロックサイズで変換処理を行うカラー動画像復号方法であって、
前記カラー動画像における第1の色成分については、信号フォーマットが4:0:0フォーマットである場合のフレーム内予測復号を実施することで予測画像を生成する、あるいは、復号済みの他のピクチャに含まれる前記第1の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成するとともに、前記カラー動画像における前記第1の色成分以外の色成分については、復号済みの他のピクチャに含まれる復号対象の色成分と同一の色成分の復号画像を参照画像としてフレーム間予測復号を実施することで予測画像を生成する、あるいは、復号済みの同一ピクチャに含まれる前記第1の色成分の復号画像の画素と復号対象の前記第1の色成分以外の色成分の復号対象の画素との相関を表す相関パラメータと、前記第1の色成分の復号画像とを用いて、フレーム間予測復号を実施することで、復号対象の前記第1の色成分以外の色成分の予測画像を生成する予測画像生成ステップを備えることを特徴とするカラー動画像復号方法。
A color moving image decoding method for performing conversion processing with the same conversion block size in each color component of a color moving image,
For the first color component in the color moving image, a predicted image is generated by performing intra-frame predictive decoding when the signal format is 4: 0: 0 format, or in other decoded pictures A prediction image is generated by performing inter-frame prediction decoding using the decoded image of the first color component included as a reference image, and decoding is performed for color components other than the first color component in the color moving image. A predicted image is generated by performing inter-frame predictive decoding using a decoded image having the same color component as the decoding target color component included in another completed picture as a reference image, or included in the same decoded picture A correlation parameter representing a correlation between a decoded image pixel of the first color component and a decoding target pixel of a color component other than the first color component to be decoded; A prediction image generation step of generating a prediction image of a color component other than the first color component to be decoded by performing inter-frame prediction decoding using the decoded image of the first color component; A color video decoding method characterized by the above.
JP2013145408A 2013-07-11 2013-07-11 Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method Pending JP2015019257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013145408A JP2015019257A (en) 2013-07-11 2013-07-11 Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013145408A JP2015019257A (en) 2013-07-11 2013-07-11 Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method

Publications (1)

Publication Number Publication Date
JP2015019257A true JP2015019257A (en) 2015-01-29

Family

ID=52439866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013145408A Pending JP2015019257A (en) 2013-07-11 2013-07-11 Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method

Country Status (1)

Country Link
JP (1) JP2015019257A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076781A (en) * 2013-10-10 2015-04-20 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2020005258A (en) * 2018-06-29 2020-01-09 財團法人工業技術研究院Industrial Technology Research Institute Video decoding method, video decoder, video encoding method and video encoder
CN113557723A (en) * 2019-03-15 2021-10-26 高通股份有限公司 Video coding in trigonometric prediction unit modes using different chroma formats

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076781A (en) * 2013-10-10 2015-04-20 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2020005258A (en) * 2018-06-29 2020-01-09 財團法人工業技術研究院Industrial Technology Research Institute Video decoding method, video decoder, video encoding method and video encoder
CN113557723A (en) * 2019-03-15 2021-10-26 高通股份有限公司 Video coding in trigonometric prediction unit modes using different chroma formats

Similar Documents

Publication Publication Date Title
JP6863669B2 (en) Image coding device, image coding method, image decoding device and image decoding method
JP6615287B2 (en) Image decoding device
JP6716836B2 (en) Video coded data
JP2017005723A (en) Data structure of encoded data
JP2019154074A (en) Image encoding device, moving image decoding device, moving image encoded data, and recording medium
WO2014163200A1 (en) Color image encoding apparatus, color image decoding apparatus, color image encoding method, and color image decoding method
WO2013114992A1 (en) Color video encoding device, color video decoding device, color video encoding method, and color video decoding method
WO2014049981A1 (en) Video encoding device, video decoding device, video encoding method and video decoding method
JP2015076781A (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP6362370B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP6373008B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP2015019257A (en) Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method
JP2014168107A (en) Video encoding device, video decoding device, video encoding method and video decoding method
JP2014007643A (en) Moving picture encoder, moving picture decoder, moving picture encoding method, and moving picture decoding method
JP2013168913A (en) Video encoder, video decoder, video encoding method and video decoding method
WO2014049982A1 (en) Video encoding device, video decoding device, video encoding method and video decoding method
JP2013098715A (en) Moving image encoder, moving image decoder, moving image encoding method and moving image decoding method
WO2014051080A1 (en) Color moving image coding device, color moving image decoding device, color moving image coding method and color moving image decoding method
JP2016005235A (en) Image encoder, image decoder, image coding method and image decoding method
JP2018166329A (en) Image encoder and image decoder
JP2013102269A (en) Color video encoding device, color video decoding device, color video encoding method, and color video decoding method