JP2015092705A - Dynamic image decoding method and image coding method - Google Patents

Dynamic image decoding method and image coding method Download PDF

Info

Publication number
JP2015092705A
JP2015092705A JP2014253594A JP2014253594A JP2015092705A JP 2015092705 A JP2015092705 A JP 2015092705A JP 2014253594 A JP2014253594 A JP 2014253594A JP 2014253594 A JP2014253594 A JP 2014253594A JP 2015092705 A JP2015092705 A JP 2015092705A
Authority
JP
Japan
Prior art keywords
prediction
image
unit
parent
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014253594A
Other languages
Japanese (ja)
Other versions
JP5957513B2 (en
Inventor
横山 徹
Toru Yokoyama
徹 横山
村上 智一
Tomokazu Murakami
智一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014253594A priority Critical patent/JP5957513B2/en
Publication of JP2015092705A publication Critical patent/JP2015092705A/en
Application granted granted Critical
Publication of JP5957513B2 publication Critical patent/JP5957513B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of reducing information amount for describing prediction information of a macro block.SOLUTION: To lower a compression ratio of image coding accompanying magnification/reduction of a block that becomes a coding unit, part of a predicted image that is predicted in a size larger than a macro block size to be coded is used as a predicted image of a macro block to be coded.

Description

本発明は、動画像信号の符号化技術に関する。   The present invention relates to a moving image signal encoding technique.

ITU-T H.264に代表される動画像符号化方式では、画面全体を16画素×16画素のマクロブロックと呼ばれる符号化単位に分割して符号化を行う。   In a moving picture coding system represented by ITU-T H.264, coding is performed by dividing the entire screen into coding units called macroblocks of 16 pixels × 16 pixels.

H.264では、符号対象のマクロブロックに対して、周辺の画素や前後のピクチャを用いて対象マクロブロック内の画素値の予測値を決定し、符号化対象画素と予測値との予測誤差をエントロピー符号化する。   In H.264, the prediction value of the pixel value in the target macroblock is determined for the macroblock to be encoded using surrounding pixels and previous and subsequent pictures, and the prediction error between the encoding target pixel and the prediction value is determined. Entropy encoding.

上記のマクロブロック内の画素値の予測の際には、マクロブロック内の絵柄に応じて、周辺画素から予測するイントラ予測と、前後のピクチャの画素から予測するインター予測とをマクロブロック毎に選択することができる。また16画素×16画素よりも小さな予測ブロックに分割して予測を行うことができる。   When predicting the pixel values in the macroblock, intra prediction predicted from neighboring pixels and inter prediction predicted from pixels in the previous and subsequent pictures are selected for each macroblock according to the pattern in the macroblock. can do. Moreover, it can divide | segment into a prediction block smaller than 16 pixels x 16 pixels, and can perform prediction.

例えば図2で示すように、H.264のイントラ予測では16画素×16画素のマクロブロックを、16個の4画素×4画素の予測ブロックに分割し、個々の予測ブロックに対して図2のインデックス0から8に示す9種類の向きに周辺画素をコピーすることにより、予測ブロック内の画素を予測することができる。また図3で示すように、マクロブロックを分割せずに、16画素×16画素の予測ブロックで、同図中インデックス0から3で示される4種類の向きに周辺画素をコピーすることにより、予測ブロック内の画素を予測することができる。   For example, as shown in FIG. 2, in the H.264 intra prediction, a macro block of 16 pixels × 16 pixels is divided into 16 4-pixel × 4-pixel prediction blocks, and each prediction block is divided into those shown in FIG. By copying neighboring pixels in nine directions indicated by indexes 0 to 8, pixels in the prediction block can be predicted. In addition, as shown in FIG. 3, the prediction is performed by copying the surrounding pixels in the four types of directions indicated by indexes 0 to 3 in the prediction block of 16 pixels × 16 pixels without dividing the macroblock. Pixels in the block can be predicted.

またH.264のインター予測に関しても同様にマクロブロック内で、より小さな予測ブロックに分割して個々の予測ブロックに対して動きベクトルを設定することができる。例えば図4で示すように、過去のピクチャからの動きを予測する場合、16画素×16画素、16画素×8画素、8画素×16画素、8画素×8画素(この場合、さらに個々の予測ブロックを8画素×4画素、4画素×8画素、4画素×4画素に分割可能)の予測ブロックに分割し、ここの予測ブロックに対してそれぞれ異なる動きベクトルを設定することができる。   Similarly, with respect to H.264 inter prediction, a motion vector can be set for each prediction block by dividing the macroblock into smaller prediction blocks. For example, as shown in FIG. 4, when motion from a past picture is predicted, 16 pixels × 16 pixels, 16 pixels × 8 pixels, 8 pixels × 16 pixels, 8 pixels × 8 pixels (in this case, each individual prediction The block can be divided into prediction blocks of 8 pixels × 4 pixels, 4 pixels × 8 pixels, 4 pixels × 4 pixels), and different motion vectors can be set for the prediction blocks.

上記のように、マクロブロックの内部を予測ブロックに分割して個々に予測を行うことにより、マクロブロック内に異なる絵柄の境界があるときなどで予測精度が向上し、圧縮率の向上につながる。   As described above, by dividing the interior of the macroblock into prediction blocks and performing prediction individually, prediction accuracy is improved when there is a boundary between different patterns in the macroblock, and the compression rate is improved.

しかし、H.264に代表される従来技術では、いずれもマクロブロックのサイズが16画素×16画素に限定されており、これよりも大きな単位又は小さな単位で予測することができないようになっている。   However, in the conventional techniques represented by H.264, the size of the macroblock is limited to 16 pixels × 16 pixels, and it cannot be predicted in a unit larger or smaller than this. .

また、イントラ予測かインター予測かの選択はマクロブロック単位でしか設定できないため、16画素×16画素よりも小さな単位でしか選択できない。   In addition, since selection between intra prediction and inter prediction can be set only in units of macroblocks, selection can be made only in units smaller than 16 pixels × 16 pixels.

そのような問題に鑑み、特許文献1は、16画素×16画素のブロックを4分木構造に従って、8画素×8画素、4画素×4画素、2画素×2画素のいずれかに分割可能で、これらのブロックサイズに応じて予測モードを変更可能としている(特許文献1)。   In view of such a problem, Patent Document 1 can divide a block of 16 pixels × 16 pixels into any of 8 pixels × 8 pixels, 4 pixels × 4 pixels, and 2 pixels × 2 pixels according to a quadtree structure. The prediction mode can be changed according to these block sizes (Patent Document 1).

特表2007−503784Special table 2007-503784

特許文献1に記載された動画像符号化技術では、符号化単位ブロックを分割した場合、分割されたマクロブロックを符号化単位にした予測処理を行う。そのため、4分木構造による分割マクロブロックの個数が増えると、その分だけ予測情報の符号量が増大し、圧縮率が低下する。   In the moving picture coding technique described in Patent Document 1, when a coding unit block is divided, a prediction process is performed using the divided macroblock as a coding unit. Therefore, when the number of divided macroblocks having a quadtree structure increases, the code amount of prediction information increases correspondingly, and the compression rate decreases.

本発明の目的は、このような状況に鑑みてなされたものであり、マクロブロックの予測情報を記述するための情報量を削減する技術を提供するものである。   The object of the present invention has been made in view of such circumstances, and provides a technique for reducing the amount of information for describing prediction information of macroblocks.

上記目的を達成する手段を説明する前に、用語の定義を行う。本明細書では、予測モードの選択が可能なブロックサイズが可変なブロックを、従来技術(H264AVCなど)のマクロブロックと区別するため、CU(Coding Unit)と記すことにする。   Before describing the means for achieving the above objectives, terms are defined. In this specification, a block having a variable block size for which a prediction mode can be selected is referred to as a CU (Coding Unit) in order to distinguish it from a macroblock of a conventional technique (such as H264AVC).

上記課題を達成する手段として、符号化側で、ある符号化対象のCUに対して予測処理を行う際、符号化対象CUよりも大きい上位のCU(以降、親CUと記す)の予測画像の一部をそのまま用いるか、当該符号化対象CUに対してそれぞれ予測処理を行うかのいずれかを選択可能とすることで達成される。   As a means for achieving the above-mentioned problem, when a prediction process is performed on a certain CU on the encoding side, a prediction image of a higher-order CU (hereinafter referred to as a parent CU) that is larger than the target CU is encoded. This is achieved by making it possible to select whether to use a part of the code as it is or to perform a prediction process for each encoding target CU.

そして、いずれを選択したかを示すフラグ情報を符号化ストリームに格納し、復号化側で、フラグ情報を読み取ることで、ある符号化対象のCUに対して予測処理を行う際、符号化対象CUよりも大きい上位のCU(以降、親CUと記す)の予測画像の一部をそのまま用いるか、当該符号化対象CUに対してそれぞれ予測処理を行うかのいずれかを選択することで達成される。   Then, the flag information indicating which one is selected is stored in the encoded stream, and the decoding side reads the flag information, thereby performing the prediction process on a certain CU to be encoded. This is achieved by selecting whether to use a part of the predicted image of a higher-order CU larger than that (hereinafter referred to as a parent CU) as it is or to perform prediction processing on each of the encoding target CUs. .

例えば、従来技術では、符号化対象CUをCU1〜CU4に4分割したがCU1のみ予測誤差が小さくCU2〜4は予測精度が低い場合、CUの予測結果を用いてCUの予測画像を生成し、CUの予測画像の一部であってCU1の領域に相当する画像を抜き出して予測画像とする。こうすることで、符号化対象CU2〜4に対する予測処理の情報が不要となるため、情報量を削減することができる。   For example, in the prior art, when the encoding target CU is divided into four CU1 to CU4, but only the prediction error of CU1 is small and the prediction accuracy is low for CU2 to 4, a prediction image of CU is generated using the prediction result of CU, An image that is a part of the predicted image of CU and corresponds to the region of CU1 is extracted as a predicted image. By doing so, information on prediction processing for the encoding target CUs 2 to 4 becomes unnecessary, and thus the amount of information can be reduced.

従来の技術では、符号化対象CUを用いた符号化を行う場合、親CUの符号化データを生成していなかったため、符号化対象CUが1つのみ別に予測すればよい画像であっても、個々のCU単位で予測していた。しかし、上述の通り、上位のCUの予測画像の一部を用いるようにすれば、CUの予測処理を記述する情報量を削減し、圧縮率を向上させることができるようになる。   In the conventional technique, when encoding using the encoding target CU, since the encoded data of the parent CU was not generated, even if the image only needs to be predicted separately for one encoding target CU, Forecasted by individual CU units. However, as described above, if a part of the predicted image of the upper CU is used, the amount of information describing the prediction process of the CU can be reduced and the compression rate can be improved.

本発明によれば、予測単位ブロックのサイズが複数あり、可変であるCUを採用する画像符号化・復号化方法において、CUの予測処理を記述する情報量を削減することにより、圧縮率を向上させることができるになる。   According to the present invention, in an image encoding / decoding method that employs a variable CU having a plurality of prediction unit block sizes, the compression rate is improved by reducing the amount of information describing the prediction process of the CU. Can be made.

実施例1による画像符号化装置の概略構成を示す図である。It is a figure which shows schematic structure of the image coding apparatus by Example 1. FIG. 従来技術のイントラ予測処理の一例を説明するための図である。It is a figure for demonstrating an example of the intra prediction process of a prior art. 従来技術のイントラ予測処理の一例を説明するための図である。It is a figure for demonstrating an example of the intra prediction process of a prior art. 従来技術のインター予測処理の一例を説明するための図である。It is a figure for demonstrating an example of the inter prediction process of a prior art. CU分割の概念を説明するための図である。It is a figure for demonstrating the concept of CU division | segmentation. 4分木構造のCU分割の一例を説明するための図である。It is a figure for demonstrating an example of CU division | segmentation of a quadtree structure. 従来技術のCU分割による符号化ストリーム内のシンタックスの一例を説明するための図である。It is a figure for demonstrating an example of the syntax in the encoding stream by CU division | segmentation of a prior art. 本発明が有効となる一例を説明するための図である。It is a figure for demonstrating an example in which this invention becomes effective. 実施例1によるCU分割の一例を説明するための図である。It is a figure for demonstrating an example of CU division | segmentation by Example 1. FIG. 実施例1のCU分割による符号化ストリーム内のシンタックスの一例を説明するための図である。FIG. 6 is a diagram for describing an example of syntax in an encoded stream by CU partitioning according to the first embodiment. 実施例1によるCU分割時の予測画像の合成の一例を説明するための図である。It is a figure for demonstrating an example of the synthesis | combination of the prediction image at the time of CU division | segmentation by Example 1. FIG. 実施例1によるCU分割時の予測画像の合成の別例を説明するための図である。It is a figure for demonstrating another example of the synthesis | combination of the prediction image at the time of CU division | segmentation by Example 1. FIG. 実施例1によるCU分割時の予測画像の合成処理において、イントラ予測の際の処理を説明するための図である。FIG. 10 is a diagram for describing processing in intra prediction in the processing for synthesizing a predicted image at the time of CU division according to the first embodiment. 実施例1による予測モード決定部の概略構成を示す図である。It is a figure which shows schematic structure of the prediction mode determination part by Example 1. FIG. 実施例1による画像復号化装置の概略構成を示す図である。It is a figure which shows schematic structure of the image decoding apparatus by Example 1. FIG. 実施例1による予測選択部の概略構成を示す図である。It is a figure which shows schematic structure of the prediction selection part by Example 1. FIG.

本発明は、符号化単位ブロック(以下CU、Coding Unitと記す)の拡大や縮小をともなう符号化を行う際、分割されたCUの予測処理を、分割前の親CUの予測画像を用いることにより分割されたCUの予測処理を省略することで、予測情報量を削減するものである。   The present invention uses a prediction image of a parent CU before division when performing encoding with expansion or reduction of a coding unit block (hereinafter referred to as CU, Coding Unit). By omitting the prediction processing of the divided CUs, the amount of prediction information is reduced.

以下、添付図面を参照して実施例について説明する。ただし、本実施例は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。また、各図において共通の構成については同一の参照番号が付されている。   Embodiments will be described below with reference to the accompanying drawings. However, it should be noted that the present embodiment is merely an example for realizing the present invention and does not limit the technical scope of the present invention. In each drawing, the same reference numerals are assigned to common components.

<画像符号化装置の構成>
図1は、実施例1による画像符号化装置の概略構成を示す図である。
<Configuration of Image Encoding Device>
FIG. 1 is a diagram illustrating a schematic configuration of an image encoding device according to the first embodiment.

図1において、画像符号化装置は、CUサイズを決定するCU分割部100と、予測画像格納部107に格納される予測画像と入力画像114との予測差分画像を生成する差分器102、前記予測差分画像をDCTなどの直交変換を行う変換部102、変換後の信号を量子化する量子化部103、量子化後の信号を符号化する可変長符号化部104を有し、符号化ストリーム115を出力する。   In FIG. 1, the image encoding device includes a CU dividing unit 100 that determines a CU size, a difference unit 102 that generates a prediction difference image between a prediction image stored in a prediction image storage unit 107 and an input image 114, and the prediction It has a transforming unit 102 that performs orthogonal transform such as DCT on the difference image, a quantizing unit 103 that quantizes the transformed signal, and a variable length coding unit 104 that encodes the quantized signal, and an encoded stream 115 Is output.

本実施例の動画像符号化装置は、上記の予測画像を生成するために2通りの予測処理系統を有する。第1の系統はインター予測によるもので、次の入力画像のための参照画像を得るため、量子化部103で出力された量子化信号を逆量子化する逆量子化部109、逆量子化信号を逆変換して予測差分画像を得る逆変換部108、逆変換後の予測差分画像と予測画像格納部107からの予測画像を加算する加算器111、加算後の画像からブロックノイズを除去した参照画像を得るデブロック処理部112を有する。そして、得られた参照画像を格納する参照画像格納部113、参照画像と入力画像114との間の動き予測を行うインター予測部106を有する。第2の系統はイントラ予測によるもので、入力画像114から画面内予測を行うイントラ予測部105を有する。   The moving picture coding apparatus according to the present embodiment has two types of prediction processing systems in order to generate the predicted image. The first system is based on inter prediction, and in order to obtain a reference image for the next input image, an inverse quantization unit 109 that inversely quantizes the quantized signal output from the quantization unit 103, and an inverse quantization signal Inverse transform unit 108 that obtains a prediction difference image by inverse transform, adder 111 that adds the prediction difference image after the inverse transform and the prediction image from prediction image storage unit 107, and a reference obtained by removing block noise from the added image A deblocking processing unit 112 for obtaining an image is included. Then, it includes a reference image storage unit 113 that stores the obtained reference image, and an inter prediction unit 106 that performs motion prediction between the reference image and the input image 114. The second system is based on intra prediction, and has an intra prediction unit 105 that performs intra prediction from the input image 114.

予測モード決定部110の処理は、後述するが、上記2通りの予測処理系統、すなわち、インター予測部106からのインター予測画像、及びイントラ予測部105からの画面内予測画像を用いて、最も予測効率が高いと推測される予測処理を決定する。ここで予測効率の指標としては、例えば予測誤差エネルギーなどが挙げられるが、その他として近傍のCUの予測方式(画面間予測か画面内予測か)との類似性などを考慮して予測画像(すなわち予測方式)を選択してもよい。   As will be described later, the processing of the prediction mode determination unit 110 is the most predicted using the above two prediction processing systems, that is, the inter prediction image from the inter prediction unit 106 and the intra prediction image from the intra prediction unit 105. A prediction process that is estimated to be highly efficient is determined. Here, as an index of the prediction efficiency, for example, prediction error energy and the like can be mentioned, but in addition, a prediction image (that is, a prediction image (that is, inter-screen prediction or intra-screen prediction) in consideration of the similarity with the prediction method of the neighboring CU (inter-screen prediction or intra-screen prediction) (Prediction method) may be selected.

決定された予測方法で得られる予測画像は予測画像格納部113に格納され、入力画像114との予測差分画像を生成するために用いられる。なお、予測モード決定部110で選択した予測モード(すなわちインター予測かイントラ予測か、及びそれぞれの場合の予測単位ブロックのサイズ)に関する情報は可変長符号化部104に送られ、符号化ストリーム115の一部に格納される。   A predicted image obtained by the determined prediction method is stored in the predicted image storage unit 113, and is used to generate a predicted difference image from the input image 114. Information regarding the prediction mode (that is, inter prediction or intra prediction, and the size of the prediction unit block in each case) selected by the prediction mode determination unit 110 is sent to the variable length encoding unit 104, and the encoded stream 115 Stored in part.

本実施例では、予測モード決定部110にて決定される予測処理に特徴があるが、予測処理の決定に際しては、CUの分割パターンが関連するため、CU分割部の処理内容について以下に説明する。   In the present embodiment, the prediction process determined by the prediction mode determination unit 110 is characterized. However, since the CU division pattern is related to the determination of the prediction process, the processing contents of the CU division unit will be described below. .

<CU分割部の処理内容(符号化側)>
以下、図面を参照して、CU分割部100の処理内容について詳細に説明する。
<Processing content of CU partitioning unit (encoding side)>
Hereinafter, the processing contents of the CU dividing unit 100 will be described in detail with reference to the drawings.

図5は、CUの概念を説明する図である。本実施例では従来技術のマクロブロックに相当する符号化処理単位ブロックを、CU(Coding Unit)と記す。本実施例においてCUに対して以下のような性質を仮定する。ただしこの本実施例の適用が、本仮定のみに限定されるものではない。
(1)CUは正方形である
(2)CUの最大サイズと最小サイズとが符号化ストリーム中に記載されているか、もしくは規格として定義されている
(3)4分木構造によって最大CUから子CU分割に階層的に4分割される
図5において、最大サイズのCUをLCU(Largest Coding Unit)と記し、そのサイズ(LCUの縦もしくは横方向の画素数)をLCU sizeと記す。なお本実施例ではLCU sizeは2のべき乗を想定するが、2のべき乗であることに本実施例の適用が限定されるものではない。
FIG. 5 is a diagram for explaining the concept of the CU. In this embodiment, a coding processing unit block corresponding to a macroblock of the prior art is referred to as CU (Coding Unit). In this embodiment, the following properties are assumed for the CU. However, the application of this embodiment is not limited to this assumption.
(1) The CU is a square. (2) The maximum size and the minimum size of the CU are described in the encoded stream or defined as a standard. (3) The maximum CU is a child CU by a quadtree structure. In FIG. 5, where the division is hierarchically divided into four, the maximum size CU is denoted as LCU (Largest Coding Unit), and the size (the number of pixels in the vertical or horizontal direction of the LCU) is denoted as LCU size. In this embodiment, the LCU size is assumed to be a power of 2. However, the application of the present embodiment is not limited to being a power of 2.

図5で示すように、一つのピクチャはLCU単位で分割される。連続するLCUの集まりをスライスと定義する。この概念は従来技術のマクロブロックに相当する。個々のLCUは4分木構造により階層的に4分割される。   As shown in FIG. 5, one picture is divided in units of LCUs. A group of consecutive LCUs is defined as a slice. This concept corresponds to a prior art macroblock. Each LCU is hierarchically divided into four by a quadtree structure.

図6は4分木構造により構成されたCU分割の一例を示す図である。同図で示すようにLCUが4つのCU0、CU1、CU2、CU3に分割されている。CU0は分割されず最終的にCUとして確定している。CU1はCU10、CU11、CU12、CU13に、CU2はCU20、CU21、CU22、CU23に、CU3はCU30、CU31、CU32、CU33にそれぞれ4分割されている。これらのうち、CU11がさらにCU110、CU111、CU112、CU113に、CU12がCU120、CU121、CU122、CU123へ、CU30はCU300、CU301、CU302、CU303へそれぞれ4分割されており、それ以外のCUは最終的にCUとして確定している。このようにLCUから階層的に4分割していき、CUのサイズが最小サイズになるまで分割を行うことができる。なお、本明細書では、CU1を分割して得られるCU10、CU11、CU12、CU13をCU1の子CUと記す。逆にCU1を、CU10、CU11、CU12、CU13の親CUと記す。 FIG. 6 is a diagram illustrating an example of CU partitioning configured by a quadtree structure. As shown in the figure, the LCU is divided into four CU 0 , CU 1 , CU 2 , and CU 3 . CU 0 is not divided and is finally determined as CU. CU 1 is divided into CU 10 , CU 11 , CU 12 , and CU 13 , CU 2 is divided into CU 20 , CU 21 , CU 22 , and CU 23 , and CU 3 is divided into four parts of CU 30 , CU 31 , CU 32 , and CU 33. Has been. Of these, CU 11 is further CU 110 , CU 111 , CU 112 , CU 113 , CU 12 is CU 120 , CU 121 , CU 122 , CU 123 , CU 30 is CU 300 , CU 301 , CU 302 , CU They are respectively divided into four to 303, and the other CU are determined finally as CU. In this way, the LCU can be divided into four hierarchically, and the division can be performed until the size of the CU becomes the minimum size. In this specification, it referred to CU 10, CU 11, CU 12, CU 13 obtained by dividing the CU 1 and children CU of CU 1. Conversely, CU 1 is described as the parent CU of CU 10 , CU 11 , CU 12 , and CU 13 .

なお、CUとは符号化単位を示すものであり、厳密にはこのCU毎に予測処理と変換処理とが行われるが、本明細書で親CUと記した場合、このCUに対しては必要に応じて予測処理のみが行われ、変換処理は行われないことを付記しておく。   Note that the CU indicates a coding unit. Strictly speaking, prediction processing and conversion processing are performed for each CU. However, when it is described as a parent CU in this specification, it is necessary for this CU. Note that only the prediction process is performed according to the above, and the conversion process is not performed.

上記の4分木構造の場合、最大サイズ/最小サイズの比が2^N(2のN乗)であった場合に、従来技術のように個々のCUを分割するかしないかのフラグを1bitで表記することで分割パターンを表記できる。   In the case of the above quadtree structure, if the ratio of the maximum size / minimum size is 2 ^ N (2 to the Nth power), the flag indicating whether or not to divide individual CUs as in the prior art is 1 bit. The division pattern can be expressed by notation.

図7を用いて従来技術によるCUの符号化ストリームのシンタックスの一例を説明する。同図中、関数coding_unit()は、(x0,y0)の画素位置かつ、currCUSizeのサイズのCUの符号化シンタックスを示している。なおPicWidthはピクチャ幅(画素数)、PicHeightはピクチャ高(画素数)、MinCUSizeはCUの最小サイズである。   An example of the syntax of the CU coded stream according to the prior art will be described with reference to FIG. In the figure, the function coding_unit () indicates the encoding syntax of the CU having the pixel position (x0, y0) and the size of currCUSize. Note that PicWidth is the picture width (number of pixels), PicHeight is the picture height (number of pixels), and MinCUSize is the minimum size of the CU.

split_flagは、現CUに対し、CUを4分割する(1)か否(0)かを示す1ビットのフラグである(L700)。   split_flag is a 1-bit flag indicating whether the current CU is divided into four (1) or not (0) (L700).

split_flagが1の場合、現CUは4分割される。この場合、分割CUのサイズsplitCUSizeは、現CUのサイズcurrCUSizeの1/2とし、横方向の分割位置x1と、縦方向の分割位置y1とをそれぞれ、x1 = x0 + splitCUSize、y1 = y0 + splitCUSizeとする(L702)。そして4つの分割CU(CU0〜CU3)が、coding_unit()を再帰的に呼び出すことによって格納される(L703〜L706)。個々の4つの分割CU内でも、同様にsplit_flagによって、さらに分割を行うかどうか指定される。このような再帰呼び出しが、CUサイズがMinCUSize以上である限り行われる。 When split_flag is 1, the current CU is divided into four. In this case, the split CU size splitCUSize is 1/2 of the current CU size currCUSize, and the horizontal division position x1 and the vertical division position y1 are x1 = x0 + splitCUSize, y1 = y0 + splitCUSize, respectively. (L702). The four divided CUs (CU 0 to CU 3 ) are stored by recursively calling coding_unit () (L703 to L706). Even in each of the four divided CUs, whether or not to further divide is specified by split_flag. Such a recursive call is performed as long as the CU size is equal to or greater than MinCUSize.

もしもsplit_flagが0の場合には、このCUが符号化単位として確定し、符号化の主な処理である、予測処理の情報(関数prediction_unit())(L707)と、予測誤差の直交変換情報(関数transform_unit())(L708)とが格納される。本明細書では、直交変換処理については、本発明とは直接係わりがないため、省略する。   If split_flag is 0, this CU is determined as a coding unit, and information on prediction processing (function prediction_unit ()) (L707), which is the main processing of coding, and orthogonal transformation information on prediction errors ( The function transform_unit ()) (L708) is stored. In the present specification, the orthogonal transform process is not directly related to the present invention, and is therefore omitted.

L707における予測処理の情報(prediction_unit())としては、例えば前記のイントラ予測かインター予測かの識別子、イントラ予測である場合はその予測方向を示す情報(図2や図3参照)、インター予測である場合は、CU内部の分割情報や動きベクトル情報(図4参照)などが格納される。但し本発明においては、予測処理の方法、及びその情報の内容に限定されるものではない。   As information of prediction processing (prediction_unit ()) in L707, for example, an identifier of the intra prediction or inter prediction, information indicating the prediction direction in the case of intra prediction (see FIG. 2 and FIG. 3), and inter prediction In some cases, division information and motion vector information (see FIG. 4) inside the CU are stored. However, the present invention is not limited to the prediction processing method and the content of the information.

CUの分割を細かくしていくほど、細かいサイズで予測処理を行うことができるが、分割されたCU数の分だけ予測情報が必要となるため、符号量が増加する。   As the CU is divided more finely, the prediction process can be performed with a smaller size. However, since the prediction information is required for the number of divided CUs, the code amount increases.

そこで本実施例では、予測モード決定部110において、親CU予測部1400を備えることで、CU分割数が増える際の予測情報の情報量削減を図る。以下、予測モード決定部110における処理内容について説明する。   Therefore, in this embodiment, the prediction mode determination unit 110 includes the parent CU prediction unit 1400 to reduce the amount of prediction information when the number of CU divisions increases. Hereinafter, processing contents in the prediction mode determination unit 110 will be described.

<予測モード決定部の処理内容>
次に実施例1による予測モード決定部110の処理内容について説明する。
(1)処理全体の概要
図14は、予測モード決定部110の構成図である。
<Processing content of prediction mode determination unit>
Next, processing contents of the prediction mode determination unit 110 according to the first embodiment will be described.
(1) Overview of Overall Processing FIG. 14 is a configuration diagram of the prediction mode determination unit 110.

予測モード決定部110は、親CU予測部1400と予測コスト比較部1401とを有する。親CU予測部1400については後述するように、符号化対象CUの親CUの予測画像を格納し、現CUの予測処理を、親CUの予測画像の一部で置き替えたときの予測コストを算出する。   The prediction mode determination unit 110 includes a parent CU prediction unit 1400 and a prediction cost comparison unit 1401. As will be described later, the parent CU prediction unit 1400 stores the prediction image of the parent CU of the encoding target CU, and calculates the prediction cost when the prediction process of the current CU is replaced with a part of the prediction image of the parent CU. calculate.

予測コスト比較部1401は、複数のCUサイズにおける複数のイントラ予測処理、インター予測画像、及び上記の親CU予測部1400からの予測コストを比較し、予測コストが最小となる予測処理を決定し、この予測処理により得られる予測画像を予測画像格納部107へ格納する。なお本発明では予測コストの算出方法は限定しないが、例えば入力画像114と予測画像の絶対差分の総和と予測情報に要する総ビット量の重み付け和などで定義してもよい。この定義によれば予測画像が入力画像に近いほど、さらに予測情報に要するビット量が少ないほど、符号化効率の高い予測処理となる。
(2)親CU予測部の詳細
親CU予測部1400では、符号化対象CUの親CUにおける予測画像を予め生成、格納しておき、符号化対象CUの予測処理を、この親CUの予測画像の一部で置き替えた場合の予測コストを算出する。このような親CUの予測画像による置き換えが有効となるようなシーンについて、図8を用いて説明する。
The prediction cost comparison unit 1401 compares a plurality of intra prediction processes in a plurality of CU sizes, an inter prediction image, and a prediction cost from the parent CU prediction unit 1400, and determines a prediction process that minimizes the prediction cost. The predicted image obtained by this prediction process is stored in the predicted image storage unit 107. In the present invention, the calculation method of the prediction cost is not limited, but may be defined by, for example, the sum of absolute differences between the input image 114 and the prediction image and the weighted sum of the total bit amount required for the prediction information. According to this definition, the closer the predicted image is to the input image, and the smaller the amount of bits required for the prediction information, the higher the prediction efficiency of the encoding process.
(2) Details of parent CU prediction unit In the parent CU prediction unit 1400, a prediction image in the parent CU of the encoding target CU is generated and stored in advance, and the prediction process of the encoding target CU is performed on the prediction image of the parent CU. Calculate the estimated cost when the part is replaced. A scene in which such replacement of a parent CU with a predicted image is effective will be described with reference to FIG.

図8で示すように、ある符号化対象ピクチャの符号化対象のLCU(X)と、その直前のピクチャのある領域Yとが、背景がほぼ同様で、その内部のみに動くオブジェクトがあるような場合を想定する。この場合、LCU(X)の予測処理としては、背景全体の予測処理と、内部の動きのあるオブジェクト部分とで、予測処理を分けると、精度の高い予測が行われると推測される。そこで、このLCU(X)を、背景のCUと動きオブジェクトのCUとに分割し、個々のCUに個々の予測処理を指定すればよい。   As shown in FIG. 8, the LCU (X) to be encoded of a certain picture to be coded and the area Y of the picture immediately before it have almost the same background, and there is an object that moves only inside Assume a case. In this case, as the prediction processing of the LCU (X), it is estimated that prediction with high accuracy is performed when the prediction processing is divided into the prediction processing for the entire background and the object portion having the internal motion. Therefore, the LCU (X) may be divided into a background CU and a moving object CU, and individual prediction processing may be specified for each CU.

しかし前述のような4分木構造によるCU分割の場合、動きオブジェクトの、LCU内の位置によっては、分割CUの数が増えてしまい、結果として予測情報が増えてしまう場合が存在する。このような場合について、図9を用いて説明する。   However, in the case of CU partitioning using the quadtree structure as described above, the number of segmented CUs may increase depending on the position of the moving object in the LCU, and as a result, prediction information may increase. Such a case will be described with reference to FIG.

図9中(A)で示すように、LCUの中心近くの位置に動くオブジェクトがある場合に、背景とオブジェクト部とが異なるCUに含まれるように分割することを考える。まず、同図(A)のLCUを1回分割することで、同図(B)のような4つのCU(1〜4)が作成される。同図(B)ではこのCU(1)〜CU(4)には、オブジェクトと背景とが両方とも多く含まれるため、CU(1)〜CU(4)をそれぞれ分割する。これによりCU(1)からはCU(A〜D)、が、CU(2)からはCU(E〜H)が、CU(3)からはCU(I〜L)が、そしてCU(3)からはCU(M〜P)がそれぞれ作成される。これらの16個のCUのうち、CU(D)、CU(G)、CU(J)、CU(M)は、依然、オブジェクトと背景とが両方が多く含まれるため、これらをさらに分割する。これによりCU(D)からはCU(D1〜D4)が、CU(G)からはCU(G1〜G4)が、CU(J)からはCU(J1〜J4)が、CU(M)からはCU(M1〜M4)が、それぞれ作成される(同図(D))。これらのうちCU(D4)、CU(G3)、CU(J2)、CU(M1)にはオブジェクトのみが多く含まれ、それ以外のCUには背景のみが多く含まれる。よって、CU(D4)、CU(G3)、CU(J2)、CU(M1)では、オブジェクトの動きを考慮した予測処理を、それ以外のCUでは背景部分の動きを考慮した予測処理を行うことで、精度の高い予測処理が実現できると考えられる。   As shown by (A) in FIG. 9, when there is an object moving near the center of the LCU, it is considered that the background and the object part are divided so as to be included in different CUs. First, by dividing the LCU of FIG. 10A once, four CUs (1 to 4) as shown in FIG. In FIG. 5B, since CU (1) to CU (4) include many objects and backgrounds, CU (1) to CU (4) are divided. This causes CU (A to D) from CU (1), CU (E to H) from CU (2), CU (I to L) from CU (3), and CU (3) CU (M ~ P) is created from each. Of these 16 CUs, CU (D), CU (G), CU (J), and CU (M) still contain both an object and a background, and thus further divide them. As a result, CU (D1-D4) from CU (D), CU (G1-G4) from CU (G), CU (J1-J4) from CU (J), and CU (M) CU (M1 to M4) are respectively created ((D) in the figure). Of these, CU (D4), CU (G3), CU (J2), and CU (M1) contain many objects only, and other CUs contain many backgrounds only. Therefore, for CU (D4), CU (G3), CU (J2), and CU (M1), perform prediction processing that takes into account object movement, and other CUs to perform prediction processing that takes into account background movement Thus, it is considered that highly accurate prediction processing can be realized.

しかし、上記のようにCUの分割を細かく行うと、同図(D)のように24個のCU全てに対して予測処理の情報を格納する必要があり、予測処理情報が増加してしまう。   However, if the CU is divided finely as described above, it is necessary to store prediction processing information for all 24 CUs as shown in FIG. 4D, and the prediction processing information increases.

そこで実施例1における予測モード決定部110では、個々のCU全てに対して必ずしも予測処理の情報を格納するのではなく、その親CUの予測処理で予め得られた予測画像を予測結果とするか、個別のCUで予測処理を行うかのいずれかを選択することを可能とする。   Therefore, the prediction mode determination unit 110 according to the first embodiment does not necessarily store the prediction process information for all the individual CUs. Whether the prediction image obtained in advance by the prediction process of the parent CU is used as the prediction result. It is possible to select one of the prediction processes performed by individual CUs.

親CU予測部1400では、上記のうちの前者、すなわち親CUの予測画像による置換を選択した場合の予測コストを算出し、この予測コスト結果を予測コスト比較部1401に渡す。予測コスト比較部1401では、上記の後者の通常の予測処理、すなわち通常のインター予測やイントラ予測の予測コストと、前者の親CU予測部1400からの予測コストとを比較し、予測コストの小さい予測処理を選択する。   The parent CU prediction unit 1400 calculates a prediction cost when replacement of the former, that is, the prediction image of the parent CU is selected, and passes the prediction cost result to the prediction cost comparison unit 1401. The prediction cost comparison unit 1401 compares the latter normal prediction processing, that is, the prediction cost of normal inter prediction or intra prediction, with the prediction cost from the former parent CU prediction unit 1400, and makes a prediction with a low prediction cost. Select a process.

以下、実施例1による符号化ストリームのCUのシンタックスの一例を説明する。
(3)CUのシンタックスの一例
図10を用いて、実施例1による符号化ストリームのCUのシンタックスの一例を説明する。
Hereinafter, an example of the CU syntax of the encoded stream according to the first embodiment will be described.
(3) Example of CU Syntax An example of the CU syntax of the encoded stream according to the first embodiment will be described with reference to FIG.

従来のCUのシンタックス(図7)と異なる特徴として、split_flag=1の場合に、すなわち現CUを4つの子CUに分割する場合に、1ビットのparent_pred_unit_flagを有し、現CUのサイズでの予測処理の情報を格納するか(1)否か(0)を指定し(L1000)、parent_pred_unit_flag == 1のときには、予測処理情報を格納する(同図中、parent_prediction_unit()関数)(L1001)。   As a feature different from the conventional CU syntax (Fig. 7), when split_flag = 1, that is, when the current CU is divided into four child CUs, it has 1-bit parent_pred_unit_flag, Whether to store prediction processing information (1) or not (0) is specified (L1000), and when parent_pred_unit_flag == 1, prediction processing information is stored (in the figure, parent_prediction_unit () function) (L1001).

またsplit_flag==0の場合、すなわち現CUが分割されずに現サイズで確定し、符号化対象のCUとなる場合には、、1ビットのparent_pred_flagを有し、親CUの予測画像、すなわちparent_prediction_unitで指定される予測処理で得られた予測画像の一部で置きかえるか(1)、別の予測処理を行うか(0)を指定する(L1002)。   Also, when split_flag == 0, that is, when the current CU is determined by the current size without being divided and becomes a CU to be encoded, it has a 1-bit parent_pred_flag and is a prediction image of the parent CU, that is, parent_prediction_unit Whether to replace a part of the prediction image obtained by the prediction process specified in (1) or to perform another prediction process (0) is specified (L1002).

parent_pred_flag == 0のときには、prediction_unit()関数にて別の予測処理の情報が格納される。   When parent_pred_flag == 0, information of another prediction process is stored in the prediction_unit () function.

parent_pred_flag == 1のときには、親CUの予測画像のうち、符号化対象CUの位置に相当する位置の画像を、符号化対象CUの予測画像とする。現CUにおける予測処理の情報は不要となる。従ってparent_pred_flag==1となるようなCUが多いほど、情報量の削減が期待できる。   When parent_pred_flag == 1, among the predicted images of the parent CU, an image at a position corresponding to the position of the encoding target CU is set as a predicted image of the encoding target CU. Information on prediction processing in the current CU is unnecessary. Therefore, the more CUs that have parent_pred_flag == 1, the more information can be expected to be reduced.

以下、図11を用いて、予測モード決定部110内の処理とCUシンタックスの具体例を述べる。   Hereinafter, a specific example of processing in the prediction mode determination unit 110 and CU syntax will be described with reference to FIG.

CUの分割パターンは、図9(D)と同様とする。親CU予測部1400ではまず、図11に示すように、LCUサイズで予測処理を決定する。この予測処理の決定方法は、本発明において限定されるものではないが、例えば、複数のイントラ予測やインター予測を行った結果の予測画像と、入力画像114との差分と予測処理を記述するための予測情報のビット量の重みづけ和などによって定義されたコスト値を算出し、コスト値が最小となるような予測処理を決定すればよい。この予測処理で得られた予測画像を、親CUの予測画像として親CU予測部1400内に格納する。そしてLCUのシンタックスにおいて、parent_pred_unit_flag = 1とし、決定された予測処理の情報をparent_prediction_unit()に格納する。   The division pattern of the CU is the same as that in FIG. First, the parent CU prediction unit 1400 determines the prediction process based on the LCU size as shown in FIG. The method of determining the prediction process is not limited in the present invention. For example, in order to describe the difference between the prediction image obtained as a result of performing a plurality of intra predictions and inter predictions, and the input image 114, and the prediction process The cost value defined by the weighted sum of the bit amounts of the prediction information may be calculated, and the prediction process that minimizes the cost value may be determined. The prediction image obtained by this prediction processing is stored in the parent CU prediction unit 1400 as a prediction image of the parent CU. In the LCU syntax, parent_pred_unit_flag = 1 is set, and the determined prediction processing information is stored in parent_prediction_unit ().

図9(D)と同様にLCUを分割して得られる全てのCUで、この親CU(LCU)の予測画像を予測結果として用いるか否かを判定する。本発明では、この判定処理を限定するものではないが一例としては、親CUの予測画像を予測結果とした場合の予測コストと、個別にイントラ予測を行った場合やインター予測を行った場合の複数の予測処理による予測コスト値を、予測コスト比較部1401で比較し、予測コスト値が小さい予測処理を選択すればよい。   Whether or not the prediction image of the parent CU (LCU) is used as a prediction result is determined for all CUs obtained by dividing the LCU as in FIG. 9D. In the present invention, although this determination process is not limited, as an example, the prediction cost when the prediction image of the parent CU is used as the prediction result, and the case where intra prediction is performed individually or when inter prediction is performed The prediction cost values obtained by a plurality of prediction processes may be compared by the prediction cost comparison unit 1401 and a prediction process having a small prediction cost value may be selected.

このような予測処理の選択処理により、
(1)親CUの予測画像を予測結果として用いるCU:
CU(A),CU(B),CU(C),CU(D1),CU(D2),CU(D3),CU(E),CU(F),CU(G1),CU(G2),CU(G4),CU(H),CU(I),CU(J1),CU(J3),CU(J4),CU(M2),CU(M3),CU(M4),CU(N),CU(O),CU(P)
(2)別の予測処理を行うCU:
CU(D4),CU(G3),CU(J2),CU(M1)
と決定されたとする。
With this prediction process selection process,
(1) CU using predicted image of parent CU as prediction result:
CU (A), CU (B), CU (C), CU (D1), CU (D2), CU (D3), CU (E), CU (F), CU (G1), CU (G2), CU (G4), CU (H), CU (I), CU (J1), CU (J3), CU (J4), CU (M2), CU (M3), CU (M4), CU (N), CU (O), CU (P)
(2) CU performing another prediction process:
CU (D4), CU (G3), CU (J2), CU (M1)
Is determined.

この場合、(1)のCUに対してはparent_pred_flag=1とし、親CU予測部1400では、親CU(LCU)の予測画像から、各々のCUの位置に対応する箇所の予測画像を、個々のCUの予測画像とする。   In this case, parent_pred_flag = 1 is set for the CU of (1), and the parent CU prediction unit 1400 uses the predicted image of the location corresponding to the position of each CU from the predicted image of the parent CU (LCU). CU prediction image.

(2)のCUに対しては、parent_pred_flag=0とし、個々のCUに対して予測処理の情報をparent_prediction_unit()に格納する。   For the CU of (2), parent_pred_flag = 0 is set, and prediction processing information is stored in parent_prediction_unit () for each CU.

以上により、従来技術と比べ、(1)のCUに対する予測処理の情報量を削減できるため、圧縮率の向上が期待できる。   As described above, since the amount of information of the prediction processing for the CU of (1) can be reduced as compared with the prior art, an improvement in compression rate can be expected.

また、実施例では、親CUは必ずしも一つに限定されるものではない。図12に示すように、LCUとCU(D)(図9(C)中の”D”、すなわちCU(D1)〜CU(D3)の親CUに相当)の2つでparent_pred_unit_flag=1と指定され、その予測処理がparent_prediction_unit()に格納されている場合、LCUとCU(D)の包含関係から、LCUの予測画像の、CU(D)の位置に相当する箇所だけが上書きされた結果が、親CUの予測画像となる。そして上記(1)のCUに対しては、この親CUの予測画像が適用される(図12参照)。   In the embodiment, the number of parent CUs is not necessarily limited to one. As shown in Fig. 12, LCU and CU (D) ("D" in Fig. 9 (C), that is, the parent CU of CU (D1) to CU (D3)) are specified as parent_pred_unit_flag = 1 When the prediction process is stored in parent_prediction_unit (), the result of overwriting only the part corresponding to the position of CU (D) in the LCU prediction image from the inclusion relationship between LCU and CU (D) The prediction image of the parent CU. The predicted image of the parent CU is applied to the CU (1) (see FIG. 12).

図12のような場合、予測処理の情報量としては図11の場合に比べ、CU(D)のparent_prediction_unit()に相当する分だけ情報量は増える。しかしCU(D)の箇所に対して、より精度の高い予測処理をLCUとは個別に選択できるため、予測精度が向上し、予測差分情報が減ることで、圧縮率の向上が期待できる。   In the case as shown in FIG. 12, the information amount of the prediction process is increased by an amount corresponding to parent_prediction_unit () of CU (D) as compared with the case of FIG. However, since the prediction process with higher accuracy can be selected separately from the LCU for the location of CU (D), the prediction accuracy is improved, and the prediction difference information is reduced, so that the compression rate can be expected to be improved.

本実施例では、個々のCUに対し、予測処理を個別に行うか、親CUの予測画像をそのまま用いるかのいずれかを指定することができ、子CUの予測処理と親CUの予測処理の方式の組み合わせを限定するものではなく、インター予測とイントラ予測との任意の組み合わせを適用できる。またインター予測では、時間的に前のピクチャのみを参照ピクチャとする前方向予測や、時間的に前と後ろのピクチャを用いる双方向予測等、様々な予測方法が適用可能である。   In this embodiment, for each CU, it is possible to specify whether the prediction process is performed individually or the prediction image of the parent CU is used as it is, and the prediction process of the child CU and the prediction process of the parent CU The combination of methods is not limited, and any combination of inter prediction and intra prediction can be applied. In inter prediction, various prediction methods, such as forward prediction using only a temporally previous picture as a reference picture and bidirectional prediction using temporally forward and backward pictures, can be applied.

但し、図13で示すように、CU(D)でイントラ予測を行う場合、さらにCU(D)周辺の符号化済み画像周囲の符号化済み画像(デブロック処理前)を用いるような場合には、周囲のCU(A)、CU(B)、CU(C)の符号化処理(ただしデブロック処理前)を完了している必要がある。   However, as shown in FIG. 13, when intra prediction is performed with CU (D), and when encoded images (before deblocking) around encoded images around CU (D) are used. The surrounding CU (A), CU (B), and CU (C) encoding processing (but before deblocking processing) must be completed.

以上により、本実施例による画像符号化装置における予測モード決定部110では、あるCUの予測処理に対して、その親CUの予測画像を用いるか、別の予測処理を行うかを選択することを可能とし、別の予測処理を行うときにのみ予測処理情報を符号化ストリームに格納する。これによりCUの予測情報量を削減することで、圧縮率の向上が実現できる。
<画像復号化装置の構成>
図15は、実施例による画像復号化装置の概略構成を示す図である。図15において、画像復号化装置は、符号化ストリーム1500を入力とし、これを復号する可変長復号化部1501と、可変長復号化部1501で得られるCUサイズ情報を基にCUを分割するCU分割部1502と、前記CU内の、変換量子化された予測誤差画像を逆量子化する逆量子化部1503と、得られた、変換された予測誤差画像を逆変換する逆変換部1504と、予測画像格納部1508に格納される予測画像と、逆変換部1504から出力される予測誤差画像とを加算する加算器1505と、加算結果の画像に対してデブロック処理を行うデブロック処理部1506を有し、出力画像1512を出力する。
As described above, the prediction mode determination unit 110 in the image encoding device according to the present embodiment selects whether to use a prediction image of a parent CU or another prediction process for a prediction process of a certain CU. The prediction process information is stored in the encoded stream only when another prediction process is performed. Thereby, the compression rate can be improved by reducing the predicted information amount of the CU.
<Configuration of image decoding apparatus>
FIG. 15 is a diagram illustrating a schematic configuration of an image decoding device according to the embodiment. In FIG. 15, an image decoding apparatus receives an encoded stream 1500, a variable length decoding unit 1501 that decodes the encoded stream 1500, and a CU that divides the CU based on CU size information obtained by the variable length decoding unit 1501 A division unit 1502, an inverse quantization unit 1503 that inversely quantizes the transform-quantized prediction error image in the CU, an inverse transform unit 1504 that inversely transforms the obtained transformed prediction error image, An adder 1505 that adds the prediction image stored in the prediction image storage unit 1508 and the prediction error image output from the inverse conversion unit 1504, and a deblocking processing unit 1506 that performs a deblocking process on the addition result image. And an output image 1512 is output.

本実施例の動画像復号化装置は、上記の予測画像を生成するために、2通りの予測処理系統を有する。第一の系統はイントラ予測によるもので、CU単位で逐次格納される復号済みCUの画像信号(デブロック処理前)を用いてイントラ予測を行うイントラ予測部1507を有する。第二の系統はインター予測によるもので、出力画像を格納する参照画像格納部1510と、参照画像格納部1510に格納される参照画像と、可変長復号部1501で復号された動きベクトルを用いて動き補償を行い、インター予測画像を得る、インター予測部1511を有する。予測選択部1509では、可変長復号化部1501で復号されたCUの予測処理情報に従い、予測画像を生成し、予測画像格納部1508に格納する。
<予測選択部(復号化側)の処理内容>
以下、図面を参照して画像復号化側の予測選択部1509の処理内容について説明する。
The moving picture decoding apparatus according to the present embodiment has two types of prediction processing systems in order to generate the predicted image. The first system is based on intra prediction, and includes an intra prediction unit 1507 that performs intra prediction using decoded CU image signals (before deblocking processing) that are sequentially stored in CU units. The second system is based on inter prediction, and uses a reference image storage unit 1510 for storing an output image, a reference image stored in the reference image storage unit 1510, and a motion vector decoded by the variable length decoding unit 1501. An inter prediction unit 1511 is provided that performs motion compensation and obtains an inter prediction image. The prediction selection unit 1509 generates a prediction image according to the prediction processing information of the CU decoded by the variable length decoding unit 1501, and stores the prediction image in the prediction image storage unit 1508.
<Processing content of prediction selection unit (decoding side)>
The processing contents of the prediction selection unit 1509 on the image decoding side will be described below with reference to the drawings.

図16は、予測選択部1509の内部構成を示す図である。予測切替部1601は、可変長復号部1501で復号された各CUの予測処理情報に基づいて、予測処理を切り換えて予測画像を生成し、この予測画像を予測画像格納部1508に格納する。   FIG. 16 is a diagram showing an internal configuration of the prediction selection unit 1509. As shown in FIG. The prediction switching unit 1601 switches prediction processing based on the prediction processing information of each CU decoded by the variable length decoding unit 1501, generates a prediction image, and stores the prediction image in the prediction image storage unit 1508.

CUの予測処理情報の具体例としては、図10におけるparent_pred_unit_flag、parent_prediction_unit()、parent_pred_flag、prediction_unit()の情報が挙げられる。図10における符号化ストリームのシンタックスの意味と、これらのシンタックスに対応する親CU予測部1600の処理内容は、符号化装置における親CU予測部1400と同様であるため、説明を省略する。   Specific examples of the CU prediction process information include information on parent_pred_unit_flag, parent_prediction_unit (), parent_pred_flag, and prediction_unit () in FIG. The meaning of the syntax of the encoded stream in FIG. 10 and the processing contents of the parent CU prediction unit 1600 corresponding to these syntaxes are the same as those of the parent CU prediction unit 1400 in the encoding device, and thus description thereof is omitted.

以上により、本実施例による画像復号化装置における予測選択部1509では、符号化ストリームのCUの予測処理情報に従い、親CUの予測画像を符号化対象CUの予測結果として用いることができる。これにより符号化ストリーム中における符号化対象CUの予測処理情報を削減できるため、圧縮率の向上が実現できる。   As described above, the prediction selection unit 1509 in the image decoding apparatus according to the present embodiment can use the prediction image of the parent CU as the prediction result of the encoding target CU according to the prediction processing information of the CU of the encoded stream. As a result, the prediction processing information of the encoding target CU in the encoded stream can be reduced, so that the compression rate can be improved.

以上のように、本発明によれば、符号化対象CUの予測処理として、その親CUの予測画像を用いるか、別の予測処理を行うか、のいずれかを選択することを可能とする。もしも親CUの予測画像を用いることが選択された場合には、画像符号化装置は符号化対象CUの予測処理情報を送らずに、画像復号化装置で同様の親CUの予測処理を行うことにより、符号化対象CUの予測画像を生成することができ、予測処理の情報量を削減することができる。   As described above, according to the present invention, it is possible to select whether to use a prediction image of the parent CU or perform another prediction process as the prediction process of the encoding target CU. If it is selected to use the predicted image of the parent CU, the image encoding apparatus performs the same parent CU prediction process in the image decoding apparatus without sending the prediction process information of the encoding target CU. Thus, a prediction image of the encoding target CU can be generated, and the information amount of the prediction process can be reduced.

なお、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   Note that the present invention can also be realized by a program code of software that implements the functions of the embodiments. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing it constitute the present invention. As a storage medium for supplying such program code, for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.

また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。   Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. May be. Further, after the program code read from the storage medium is written in the memory on the computer, the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code. Thus, the functions of the above-described embodiments may be realized.

また、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。   Further, by distributing the program code of the software that realizes the functions of the embodiment via a network, the program code is stored in a storage means such as a hard disk or memory of a system or apparatus, or a storage medium such as a CD-RW or CD-R And the computer (or CPU or MPU) of the system or apparatus may read and execute the program code stored in the storage means or the storage medium when used.

100…CU分割部
110…予測モード決定部
105…イントラ予測部
106…インター予測部
102…変換部
103…量子化部
104…可変長符号化部
1400…親CU予測部
1401…予測コスト比較部
1501…可変長復号化部
1502…CU分割部
1503…逆量子化部
1504…逆変換部
1507…イントラ予測部
1511…インター予測部
1509…予測選択部
1600…親CU予測部
1601…予測切替部
100 ... CU division
110 ... Prediction mode determination unit
105 ... Intra prediction unit
106… Inter prediction part
102: Conversion unit
103 ... Quantization part
104 ... Variable length coding unit
1400 ... Parent CU prediction part
1401 ... Forecast cost comparison section
1501 ... Variable length decoding unit
1502… CU division
1503… Inverse quantization part
1504 ... Inverse converter
1507 ... Intra prediction unit
1511 ... Inter prediction section
1509 ... Prediction selection part
1600 ... Parent CU prediction part
1601 ... Prediction switching part

Claims (1)

入力された符号化ストリームを可変長復号化し、符号化単位で逆量子化、逆変換して予測差分画像とし、前記予測差分画像と前記予測画像と加算して動画像を出力する動画像復号化装置において、
前記復号化する符号化ストリームに、第1符号化単位と前記第1符号化単位よりもサイズが大きくかつ前記第1符号化単位を包含する上位の第2符号化単位との双方の符号化単位で符号化されている符号化ストリームであった場合、
前記第1符号化単位で生成された予測画像と第2符号化単位で生成された予測画像とを生成し、
前記第1符号化単位の予測画像として、前記第2符号化単位で生成された予測画像の一部を用いることを特徴とする動画像復号化方法。
Video decoding that variable-length-decodes the input encoded stream, dequantizes and inversely transforms the encoded stream into a prediction difference image, adds the prediction difference image and the prediction image, and outputs a moving image In the device
The encoded stream to be decoded includes both a first encoding unit and an encoding unit that is larger than the first encoding unit and includes an upper second encoding unit that includes the first encoding unit. If the encoded stream is encoded with
Generating a predicted image generated in the first coding unit and a predicted image generated in the second coding unit;
A moving picture decoding method, wherein a part of a predicted image generated in the second coding unit is used as the predicted image in the first coding unit.
JP2014253594A 2014-12-16 2014-12-16 Video decoding method Active JP5957513B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014253594A JP5957513B2 (en) 2014-12-16 2014-12-16 Video decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014253594A JP5957513B2 (en) 2014-12-16 2014-12-16 Video decoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013525428A Division JP5677576B2 (en) 2011-07-22 2011-07-22 Video decoding method and video encoding method

Publications (2)

Publication Number Publication Date
JP2015092705A true JP2015092705A (en) 2015-05-14
JP5957513B2 JP5957513B2 (en) 2016-07-27

Family

ID=53195596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014253594A Active JP5957513B2 (en) 2014-12-16 2014-12-16 Video decoding method

Country Status (1)

Country Link
JP (1) JP5957513B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150664A (en) * 1996-11-19 1998-06-02 Mitsubishi Electric Corp Encoding device and decoding device for video signal
JPH11164305A (en) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp Moving image coding method, moving image coder and moving image decoder
JP2003111082A (en) * 2001-09-28 2003-04-11 Toshiba Corp Motion vector detecting method and apparatus
JP2006129326A (en) * 2004-11-01 2006-05-18 Shibasoku:Kk Motion vector detecting device
JP2009182792A (en) * 2008-01-31 2009-08-13 Oki Electric Ind Co Ltd Device and method for detecting motion vector, device and method for coding moving image, and device and method for decoding moving image
JP2009246975A (en) * 2008-03-28 2009-10-22 Samsung Electronics Co Ltd Method and apparatus for encoding and/or decoding information about intra-prediction mode of video
WO2010002214A2 (en) * 2008-07-02 2010-01-07 삼성전자 주식회사 Image encoding method and device, and decoding method and device therefor
JP2010010950A (en) * 2008-06-25 2010-01-14 Toshiba Corp Image coding/decoding method and apparatus
JP5677576B2 (en) * 2011-07-22 2015-02-25 株式会社日立製作所 Video decoding method and video encoding method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150664A (en) * 1996-11-19 1998-06-02 Mitsubishi Electric Corp Encoding device and decoding device for video signal
JPH11164305A (en) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp Moving image coding method, moving image coder and moving image decoder
JP2003111082A (en) * 2001-09-28 2003-04-11 Toshiba Corp Motion vector detecting method and apparatus
JP2006129326A (en) * 2004-11-01 2006-05-18 Shibasoku:Kk Motion vector detecting device
JP2009182792A (en) * 2008-01-31 2009-08-13 Oki Electric Ind Co Ltd Device and method for detecting motion vector, device and method for coding moving image, and device and method for decoding moving image
JP2009246975A (en) * 2008-03-28 2009-10-22 Samsung Electronics Co Ltd Method and apparatus for encoding and/or decoding information about intra-prediction mode of video
JP2010010950A (en) * 2008-06-25 2010-01-14 Toshiba Corp Image coding/decoding method and apparatus
WO2010002214A2 (en) * 2008-07-02 2010-01-07 삼성전자 주식회사 Image encoding method and device, and decoding method and device therefor
JP5677576B2 (en) * 2011-07-22 2015-02-25 株式会社日立製作所 Video decoding method and video encoding method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Test Model under Consideration", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-B205_draft007, JPN6014038519, October 2010 (2010-10-01), pages 1 - 179, ISSN: 0003321652 *

Also Published As

Publication number Publication date
JP5957513B2 (en) 2016-07-27

Similar Documents

Publication Publication Date Title
JP6931690B2 (en) How to encode content and arithmetic units
US11553185B2 (en) Method and apparatus for processing a video signal
KR102132410B1 (en) Method and apparatus for video encoding/decoding using error compensation
JP5616984B2 (en) Image decoding device
KR20130105736A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
US20200228831A1 (en) Intra prediction mode based image processing method, and apparatus therefor
WO2011125730A1 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
KR20200005648A (en) Intra prediction mode based image processing method and apparatus therefor
JP2022506423A (en) Video signal coding / decoding method and its equipment
JP2011029863A (en) Decoding processing method
JP2017034531A (en) Moving image encoder and moving image encoding method
US20200236385A1 (en) Video coding device, video decoding device, video coding method, video decoding method and program
JP5677576B2 (en) Video decoding method and video encoding method
US20160345013A1 (en) Video encoding device, video encoding method, and program
JP2023105190A (en) Video coding or video decoding device, video coding or video decoding method, program, and recording medium
EP3565252A1 (en) Encoding device, decoding device and program
JPWO2016116984A1 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
US20150237345A1 (en) Video coding device, video coding method, and video coding program
JP5957513B2 (en) Video decoding method
CN111264060A (en) Moving image encoding device, moving image encoding method, computer program for moving image encoding, moving image decoding device, moving image decoding method, and computer program for moving image decoding
JP2018037936A (en) Image encoder and image decoder
JP2017073598A (en) Moving image coding apparatus, moving image coding method, and computer program for moving image coding
JP6646125B2 (en) Video prediction decoding method and video prediction decoding device
JP6917718B2 (en) Predictors, encoders, decoders, and programs
JP6101067B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R151 Written notification of patent or utility model registration

Ref document number: 5957513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151