JP2015139117A - Information processing apparatus, selection method of coding unit, and program - Google Patents
Information processing apparatus, selection method of coding unit, and program Download PDFInfo
- Publication number
- JP2015139117A JP2015139117A JP2014009998A JP2014009998A JP2015139117A JP 2015139117 A JP2015139117 A JP 2015139117A JP 2014009998 A JP2014009998 A JP 2014009998A JP 2014009998 A JP2014009998 A JP 2014009998A JP 2015139117 A JP2015139117 A JP 2015139117A
- Authority
- JP
- Japan
- Prior art keywords
- region
- adjacent
- area
- similarity
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、情報処理装置、符号化単位の選択方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, a coding unit selection method, and a program.
デジタル放送や映像記録などの分野では、AVC(Advanced Video Coding)/H.264と呼ばれる標準規格で規定された動画圧縮技術(以下、AVC方式)が広く利用されている。近年、この標準規格の後継であるHEVC(High Efficiency Video Coding)/H.265と呼ばれる動画圧縮技術(以下、HEVC方式)に注目が集まっている。HEVC方式は、AVC方式に比べて2倍の圧縮率を実現することを目指している。 In the fields of digital broadcasting and video recording, AVC (Advanced Video Coding) / H. A video compression technique (hereinafter referred to as AVC method) defined by a standard called H.264 is widely used. In recent years, HEVC (High Efficiency Video Coding) / H. Attention has been focused on a moving picture compression technology called H.265 (hereinafter referred to as HEVC method). The HEVC method aims to realize a compression rate twice that of the AVC method.
上記のような高い圧縮率を実現するため、HEVC方式では、符号化の単位となるブロックの決め方に柔軟性を持たせる工夫が追加された。AVC方式では、16×16ピクセルのマクロブロックを単位としてピクチャを分割し、そのマクロブロックを符号化の単位として利用していた。HEVC方式では、CTU(Coding Tree Unit)と呼ばれる固定サイズのブロックを単位としてピクチャを分割し、さらにCTUをCU(Coding Unit)と呼ばれる単位に分割する。このCUが符号化の単位となる。 In order to realize the high compression rate as described above, in the HEVC system, a device has been added to give flexibility in how to determine a block as a unit of encoding. In the AVC method, a picture is divided in units of 16 × 16 pixel macroblocks, and the macroblocks are used as encoding units. In the HEVC scheme, a picture is divided in units of fixed-size blocks called CTU (Coding Tree Unit), and the CTU is further divided into units called CU (Coding Unit). This CU is a unit of encoding.
CTUの分割は、画像の特徴に応じて再帰的に行われる。つまり、CTUを4つのブロックに分割し、さらに、分割して得られたブロックをさらに4つのブロックに分割する処理を繰り返し行って画像の特徴に適したサイズのCUが決定される。なお、CUのサイズは、64×64ピクセル(CU depth 0)、32×32ピクセル(CU depth 1)、16×16ピクセル(CU depth 2)、8×8ピクセル(CU depth 3)のいずれかである。このような分割の仕組みを四分木(Quad Tree)ブロック分割と呼ぶ場合がある。 The division of the CTU is performed recursively according to the image characteristics. That is, the CTU is divided into four blocks, and the process of dividing the block obtained by the division into four blocks is repeatedly performed to determine a CU having a size suitable for the feature of the image. The size of the CU is 64 × 64 pixels (CU depth 0), 32 × 32 pixels (CU depth 1), 16 × 16 pixels (CU depth 2), or 8 × 8 pixels (CU depth 3). is there. Such a division mechanism is sometimes referred to as quad tree block division.
四分木ブロック分割を採用することで、例えば、物体の輪郭などのエッジ部及びその近傍を小さなCU単位で符号化し、空などの平坦な部分を大きなCU単位で符号化することが可能になる。その結果、符号量を抑えつつ、高画質を実現することが可能になる。また、HEVC方式では、CU毎に設定されたPU(Prediction Unit)と呼ばれるブロックを単位としてフレーム間予測符号化(以下、インター予測)が行われる。各CUには、少なくとも1つのPUが設定される。 By adopting quadtree block division, for example, it is possible to encode an edge portion such as the contour of an object and its vicinity in small CU units, and to encode a flat portion such as the sky in large CU units. . As a result, it is possible to achieve high image quality while suppressing the code amount. In the HEVC scheme, inter-frame prediction encoding (hereinafter, inter prediction) is performed in units of blocks called PUs (Prediction Units) set for each CU. Each CU is set with at least one PU.
PUは、CUと同一の領域(分割なし)、CUを縦方向又は横方向に2分割した領域、CUを縦方向又は横方向に1対3又は3対1の割合で分割(以下、非対称分割)した領域のいずれかに設定される。つまり、7種類の分割方法で得られるPUをインター予測に利用することができる。また、上記のようにCUのサイズが4種類あるため、HEVC方式では、合計で28種類のPUをインター予測に利用することができる。 PU is the same area as CU (no division), CU is divided into 2 parts in vertical or horizontal direction, CU is divided in 1 to 3 or 3 to 1 ratio in the vertical or horizontal direction (hereinafter asymmetric division) ) Is set to one of the areas. That is, PUs obtained by seven types of division methods can be used for inter prediction. In addition, since there are four types of CU sizes as described above, in the HEVC scheme, a total of 28 types of PUs can be used for inter prediction.
以下、CUと同一の領域に設定されたPUをPU[2N×2N]と表記する。また、CUを縦方向に2分割した領域のPUをPU[N×2N]と表記する。また、CUを横方向に2分割した領域のPUをPU[2N×N]と表記する。また、CUを縦方向に非対称分割した領域のうち、左側のPUをPU[nL×2N]と表記し、右側のPUをPU[nR×2N]と表記する。また、CUを横方向に非対称分割した領域のうち、上側のPUをPU[2N×nU]と表記し、下側のPUをPU[2N×nD]と表記する。 Hereinafter, the PU set in the same area as the CU is denoted as PU [2N × 2N]. In addition, a PU in a region obtained by dividing the CU into two in the vertical direction is denoted as PU [N × 2N]. In addition, a PU in a region obtained by dividing the CU into two in the horizontal direction is denoted as PU [2N × N]. Also, in the region in which the CU is asymmetrically divided in the vertical direction, the left PU is expressed as PU [nL × 2N], and the right PU is expressed as PU [nR × 2N]. In addition, in the region in which the CU is asymmetrically divided in the horizontal direction, the upper PU is expressed as PU [2N × nU], and the lower PU is expressed as PU [2N × nD].
このように、HEVC方式では、様々なサイズの単位ブロック(PU)をインター予測に利用できるため、AVC方式に比べて効率的な動画像の圧縮が可能になる。
ところで、インター予測に関し、現在ブロックと複数個の隣接パーティションとの空間類似度を計算し、空間類似度をもとに選択した少なくとも1つの隣接パーティションの動きベクトルを現在ブロックの動きベクトルと推定する方法が提案されている。また、予測信号と動画像信号との差分情報から生成したコスト値をもとに少なくとも2つの予測モードを選択し、選択した予測モードに関する差分情報の周波数情報をもとに最適な予測モードを選択する方法が提案されている。
As described above, in the HEVC scheme, since unit blocks (PUs) of various sizes can be used for inter prediction, it is possible to compress moving images more efficiently than in the AVC scheme.
By the way, with respect to inter prediction, a method of calculating a spatial similarity between a current block and a plurality of adjacent partitions and estimating a motion vector of at least one adjacent partition selected based on the spatial similarity as a motion vector of the current block. Has been proposed. In addition, at least two prediction modes are selected based on the cost value generated from the difference information between the prediction signal and the video signal, and the optimum prediction mode is selected based on the frequency information of the difference information regarding the selected prediction mode. A method has been proposed.
上記のように、様々なサイズのPUを利用することでインター予測の精度を高めることができる。一方、PUの種類が28種類もあるために、好適なPUの種類を選び出す処理にかかる負荷が大きい。そこで、1つの側面によれば、本発明の目的は、予測符号化にかかる演算負荷を低減することが可能な情報処理装置、符号化単位の選択方法、及びプログラムを提供することにある。 As described above, the accuracy of inter prediction can be increased by using PUs of various sizes. On the other hand, since there are 28 types of PUs, the load on the process of selecting a suitable PU type is heavy. Therefore, according to one aspect, an object of the present invention is to provide an information processing apparatus, a coding unit selection method, and a program that can reduce a calculation load related to predictive coding.
本開示の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部と、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする演算部とを有する、情報処理装置が提供される。 According to one aspect of the present disclosure, a storage unit that stores a target block and an adjacent block adjacent to the target block, a first area that is in contact with the boundary of the adjacent block in the target block, and an intermediate block To evaluate the similarity between the adjacent area in contact with the boundary and evaluate the similarity between the first area and the second area in contact with the first area in the target block, and the similarity between the first area and the adjacent area Is higher than the similarity between the first region and the second region, the first region and a calculation unit that uses the region excluding the first region from the target block as a candidate for a predictive coding unit, An information processing apparatus is provided.
また、本開示の他の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、対象ブロック及び隣接ブロックの情報を読み出し可能なコンピュータが、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする符号化単位の選択方法が提供される。 According to another aspect of the present disclosure, a computer that can read out information on a target block and an adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block. The first area that is in contact with the boundary between adjacent blocks and the adjacent area that is in contact with the boundary among adjacent blocks is evaluated, and the first area and the second area that is in contact with the first area in the target block When the similarity between the first area and the adjacent area is higher than the similarity between the first area and the second area, the first area and the first area among the target blocks are evaluated. There is provided a method for selecting a coding unit in which a region excluding is used as a candidate for a predictive coding unit.
また、本開示の他の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、対象ブロック及び隣接ブロックの情報を読み出し可能なコンピュータに、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする処理を実行させる、プログラムが提供される。 According to another aspect of the present disclosure, a computer that can read out information on a target block and an adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block. The first area that is in contact with the boundary between adjacent blocks and the adjacent area that is in contact with the boundary among adjacent blocks is evaluated, and the first area and the second area that is in contact with the first area in the target block When the similarity between the first area and the adjacent area is higher than the similarity between the first area and the second area, the first area and the first area among the target blocks are evaluated. There is provided a program that executes a process in which a region excluding the region is a candidate for a predictive coding unit.
本発明によれば、予測符号化にかかる演算負荷を低減することができる。 According to the present invention, it is possible to reduce the calculation load for predictive coding.
以下に添付図面を参照しながら、本発明の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。 Embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, about the element which has the substantially same function in this specification and drawing, duplication description may be abbreviate | omitted by attaching | subjecting the same code | symbol.
<1.第1実施形態>
図1を参照しながら、第1実施形態について説明する。図1は、第1実施形態に係る情報処理装置の一例を示した図である。なお、図1に例示した情報処理装置10は、第1実施形態に係る情報処理装置の一例である。
<1. First Embodiment>
The first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an information processing apparatus according to the first embodiment. Note that the
図1に示すように、情報処理装置10は、記憶部11及び演算部12を有する。
なお、記憶部11は、RAM(Random Access Memory)などの揮発性記憶装置、或いは、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置である。演算部12は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。但し、演算部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路であってもよい。演算部12は、例えば、記憶部11又は他のメモリに記憶されたプログラムを実行する。
As illustrated in FIG. 1, the
The
記憶部11は、対象ブロックBLoと、対象ブロックBLoに隣接する隣接ブロックBLnとを記憶する。対象ブロックBLoは、例えば、符号化対象のCUである。隣接ブロックBLnは、例えば、対象ブロックBLoに隣接するCUである。図1の例では、説明の都合上、対象ブロックBLoの上側に位置する1つの隣接ブロックBLnだけを示している。もちろん、対象ブロックBLoの下側、左側、右側に隣接するブロックに対しても第1実施形態に係る技術を同様に適用することができる。
The
演算部12は、対象ブロックBLoの中で隣接ブロックBLnとの境界に接する第1領域A1と、隣接ブロックBLnの中で境界に接する隣接領域Anとの類似性を評価する。図1の例では、対象ブロックBLoのサイズがN×Nピクセルである。また、第1領域A1及び隣接領域Anのサイズは、N×(N/4)ピクセルである。演算部12は、例えば、ピクセル毎に、第1領域A1の輝度と隣接領域Anの輝度との間の差分絶対値和を計算する。そして、演算部12は、差分絶対値和が小さいほど類似性が高いと評価する。
The
また、演算部12は、第1領域A1と、対象ブロックBLoの中で第1領域A1に接する第2領域A2との類似性を評価する。図1の例では、第2領域A2のサイズは、N×(N/4)ピクセルである。演算部12は、例えば、ピクセル毎に、第1領域A1の輝度と第2領域A2の輝度との間の差分絶対値和を計算する。そして、演算部12は、差分絶対値和が小さいほど類似性が高いと評価する。なお、輝度の差分絶対値和を類似性の評価に利用する方法を例示したが、色差を利用する方法や領域の平坦度などを利用する方法も適用可能である。
In addition, the
演算部12は、第1領域A1と隣接領域Anとの類似性が、第1領域A1と第2領域A2との類似性よりも高い場合に、第1領域A1、及び対象ブロックBLoの中から第1領域A1を除いた領域A5を予測符号化の単位の候補とする。また、演算部12は、第1領域A1と隣接領域Anとの類似性が、第1領域A1と第2領域A2との類似性よりも低い場合に、第1領域A1と第2領域A2とを結合した第3領域A3を予測符号化の単位の候補とする。さらに、演算部12は、対象ブロックBLoの中から第3領域A3を除いた領域A4を予測符号化の単位の候補とする。
When the similarity between the first area A1 and the adjacent area An is higher than the similarity between the first area A1 and the second area A2, the
例えば、第1領域A1と第2領域A2との類似性に対する評価の高さをEV12と表記し、第1領域A1と隣接領域Anとの類似性に対する評価の高さをEV1nと表記する。演算部12は、評価EV12が評価EV1nよりも高いか否かを判定する。そして、評価EV12が評価EV1nよりも低い場合、演算部12は、第1領域A1及び領域A5を予測符号化の単位の候補とする。一方、評価EV12が評価EV1nよりも高い場合、演算部12は、第3領域A3及び領域A4を予測符号化の単位の候補とする。なお、予測符号化の単位は、例えば、PUである。
For example, the evaluation height for the similarity between the first region A1 and the second region A2 is expressed as EV12, and the evaluation height for the similarity between the first region A1 and the adjacent region An is expressed as EV1n. The
例えば、予測符号化の単位を選択する方法として、対象ブロックBLoを上下に2分割する方法と、上下に1対3の割合で分割する方法とがある場合に、上記の仕組みを適用すれば、類似性の評価に基づいて一方の方法に絞り込まれる。例えば、予測符号化の単位がPUである場合、動き検出に基づく評価の対象となるPUの種類が絞り込まれる。その結果、好適なPUを選出する処理の負担が軽減され、予測符号化にかかる演算負荷が低減される。なお、対象ブロックBLoの下側、右側、左側に位置する隣接ブロックについても同様の処理を実行することで、さらに効果が高まる。 For example, when the above mechanism is applied when there are a method of selecting a prediction encoding unit, a method of dividing the target block BLo into two parts vertically and a method of dividing the target block BLo up and down at a ratio of 1: 3, Narrow down to one method based on similarity assessment. For example, when the unit of predictive coding is a PU, the types of PUs to be evaluated based on motion detection are narrowed down. As a result, the burden of processing for selecting a suitable PU is reduced, and the calculation load for predictive coding is reduced. It should be noted that the effect is further enhanced by executing the same processing for adjacent blocks located below, on the right side, and on the left side of the target block BLo.
以上、第1実施形態について説明した。
<2.第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、HEVC方式におけるPUの決定方法(CUの分割方法)に関する。
The first embodiment has been described above.
<2. Second Embodiment>
Next, a second embodiment will be described. The second embodiment relates to a PU determination method (CU division method) in the HEVC scheme.
[2−1.CUの分割方法]
図2〜図6を参照しながら、CUの分割方法について説明する。
(CUの種類(CU depth))
HEVC方式では、輝度成分及び色差成分を有するピクチャを固定サイズのCTU単位で分割し、CTU単位で符号化や復号が行われる。CTUは、輝度成分のCTB(Coding Tree Block)と色差成分のCTBとを含む。CTBは、DCT(Discrete Cosine Transform)変換や量子化などの処理単位となるサブブロックである。CTBのサイズには、16×16ピクセル、32×32ピクセル、64×64ピクセルの3種類がある。CTUは、図2に示すように、四分木形式で階層的に分割される。なお、図2は、CUの種類について説明するための図である。
[2-1. CU division method]
A method of dividing a CU will be described with reference to FIGS.
(CU type (CU depth))
In the HEVC method, a picture having a luminance component and a color difference component is divided in CTU units of a fixed size, and encoding and decoding are performed in CTU units. The CTU includes a luminance component CTB (Coding Tree Block) and a color difference component CTB. CTB is a sub-block that is a processing unit such as DCT (Discrete Cosine Transform) conversion and quantization. There are three types of CTB sizes: 16 × 16 pixels, 32 × 32 pixels, and 64 × 64 pixels. The CTU is hierarchically divided in a quadtree format as shown in FIG. FIG. 2 is a diagram for explaining the types of CUs.
階層の深さは「CU depth」で表現される。最上位の階層は「CU depth 0」と表現される。「CU depth 0」より下位の階層は、順に「CU depth 1」、「CU depth 2」、「CU depth 3」と表現される。CTUのサイズが64×64である場合、CU depth 0のCUは、サイズが64×64となる。CU depth 1のCUは、サイズが32×32となる。CU depth 2のCUは、サイズが16×16となる。CU depth 3のCUは、サイズが最小の8×8となる。CUの最小サイズは、シーケンスを通じて固定される。
The depth of the hierarchy is expressed by “CU depth”. The highest hierarchy is expressed as “
(PUの種類)
PUは、CUを分割した領域に設定される。分割方法(“分割しない”場合も含む。)には、図3に示した7種類の方法がある。なお、図3は、PUの種類について説明するための図である。図3の(1)は、CUを分割せずにCU全体をPUとする方法である。CUのサイズが2N×2Nピクセルである場合、PUのサイズも2N×2Nピクセルとなる。この種類をPU[2N×2N]と表記する。図3の(2)は、CUを横方向に2分割した2つの領域をそれぞれPUとする方法である。PUのサイズはN×2Nピクセルとなる。この種類をPU[N×2N]と表記する。
(PU type)
PU is set to the area | region which divided | segmented CU. There are seven types of division methods (including the case of “no division”) as shown in FIG. FIG. 3 is a diagram for explaining the types of PUs. (1) in FIG. 3 is a method in which the entire CU is a PU without dividing the CU. When the size of the CU is 2N × 2N pixels, the size of the PU is also 2N × 2N pixels. This type is denoted as PU [2N × 2N]. (2) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction are used as PUs. The size of the PU is N × 2N pixels. This type is expressed as PU [N × 2N].
図3の(3)は、CUを縦方向に2分割した2つの領域をそれぞれPUとする方法である。PUのサイズは2N×Nピクセルとなる。この種類をPU[2N×N]と表記する。図3の(4)は、CUを横方向に右側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。右側に位置するPUのサイズは(N/2)×2Nピクセルとなる。一方、左側に位置するPUのサイズは(3N/2)×2Nピクセルとなる。この種類をPU[nR×2N]と表記する。
(3) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the vertical direction are used as PUs. The size of the PU is 2N × N pixels. This type is denoted as PU [2N × N]. (4) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction from the right side at a ratio of 1: 3 are used as PUs. The size of the PU located on the right side is (N / 2) × 2N pixels. On the other hand, the size of the PU located on the left side is (3N / 2) × 2N pixels. This type is denoted as PU [
図3の(5)は、CUを縦方向に上側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。上側に位置するPUのサイズは2N×(N/2)ピクセルとなる。一方、下側に位置するPUのサイズは2N×(3N/2)ピクセルとなる。この種類をPU[2N×nU]と表記する。 (5) in FIG. 3 is a method in which two regions obtained by dividing a CU into two parts in the vertical direction from the upper side at a ratio of 1: 3 are used as PUs. The size of the PU located on the upper side is 2N × (N / 2) pixels. On the other hand, the size of the PU located on the lower side is 2N × (3N / 2) pixels. This type is denoted as PU [2N × nU].
図3の(6)は、CUを横方向に左側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。左側に位置するPUのサイズは(N/2)×2Nピクセルとなる。一方、右側に位置するPUのサイズは(3N/2)×2Nピクセルとなる。この種類をPU[nL×2N]と表記する。 (6) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction from the left side in a ratio of 1: 3 are used as PUs. The size of the PU located on the left side is (N / 2) × 2N pixels. On the other hand, the size of the PU located on the right side is (3N / 2) × 2N pixels. This type is denoted as PU [nL × 2N].
図3の(7)は、CUを縦方向に下側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。下側に位置するPUのサイズは2N×(N/2)ピクセルとなる。一方、上側に位置するPUのサイズは2N×(3N/2)ピクセルとなる。この種類をPU[2N×nD]と表記する。 (7) in FIG. 3 is a method in which two regions obtained by dividing a CU into two parts in the vertical direction from the lower side at a ratio of 1: 3 are used as PUs. The size of the PU located on the lower side is 2N × (N / 2) pixels. On the other hand, the size of the PU located on the upper side is 2N × (3N / 2) pixels. This type is denoted as PU [2N × nD].
上記のように、各種PUのサイズはCUのサイズに依存する。CU depth 0の場合、2N=64である。CU depth 1の場合、2N=32である。CU depth 2の場合、2N=16である。CU depth 3の場合、2N=8である。従って、サイズの違いも考慮すると、PUの種類は28通り存在する。
As described above, the sizes of various PUs depend on the size of the CU. In the case of
動き検出は、図4に示すように、PUを単位として実行される。なお、図4は、PUに基づく動き検出について説明するための図である。例えば、時刻Tfに対応するフレームfを符号化対象のピクチャとし、時刻Tf-1に対応するフレーム(f−1)を参照ピクチャとする。動き検出の処理では、参照ピクチャ内でPUの位置を1ピクセルずつ移動させながら類似度が計算され、最も類似度が高いブロックが抽出される。そして、そのPUに対する動きベクトルが得られる。 As shown in FIG. 4, motion detection is performed in units of PUs. FIG. 4 is a diagram for explaining motion detection based on the PU. For example, the frame f corresponding to the time T f is set as a picture to be encoded, and the frame (f−1) corresponding to the time T f−1 is set as a reference picture. In the motion detection process, the similarity is calculated while moving the position of the PU one pixel at a time in the reference picture, and the block with the highest similarity is extracted. Then, a motion vector for the PU is obtained.
類似度の計算は、例えば、下記の式(1)で定義されるSAD(Sum of Absolute Difference)に基づいて行われる。下記の式(1)において、C(x,y)は、フレームfの座標(x,y)における輝度値である。また、R(i+x,j+y)は、フレーム(f−1)の座標(i+x,j+y)における輝度値である。なお、SADの代わりにSSD(Sum of Squared Difference)を利用する方法も考えられる。また、輝度値以外の画素値を利用する方法も考えられる。 The similarity is calculated based on, for example, SAD (Sum of Absolute Difference) defined by the following formula (1). In the following formula (1), C (x, y) is a luminance value at the coordinates (x, y) of the frame f. R (i + x, j + y) is a luminance value at the coordinates (i + x, j + y) of the frame (f−1). A method using SSD (Sum of Squared Difference) instead of SAD is also conceivable. A method using pixel values other than the luminance value is also conceivable.
SADが小さいほど類似度が高く、SADが大きいほど類似度が低い。従って、動き検出においては、上記のSADが最小となる参照ピクチャのブロックが抽出される。HEVC方式では、このような動き検出をPUの種類毎に何度も行って好適なPUを決める。 The smaller the SAD, the higher the similarity, and the larger the SAD, the lower the similarity. Therefore, in motion detection, a block of a reference picture that minimizes the SAD is extracted. In the HEVC method, such motion detection is performed many times for each type of PU to determine a suitable PU.
(分割処理の一例)
例えば、好適なPUの決定(CUの分割処理)は、図5及び図6に例示した処理フローに基づいて実現可能である。図5は、CUの分割処理について説明するための第1のフロー図である。図6は、CUの分割処理について説明するための第2のフロー図である。なお、ここでは、ある符号化装置が図5及び図6に示した処理を実行するものと仮定して説明を進める。
(Example of division processing)
For example, determination of a suitable PU (CU division processing) can be realized based on the processing flow illustrated in FIGS. 5 and 6. FIG. 5 is a first flowchart for explaining the CU division processing. FIG. 6 is a second flowchart for explaining the CU division processing. Here, the description will be made on the assumption that a certain coding apparatus executes the processing shown in FIGS. 5 and 6.
(S11)符号化装置は、CU depthを指定する。例えば、CUの分割処理を開始した直後の場合、符号化装置は、CU depth 0を指定する。また、CU depth k(k>0)を既に指定済みの場合、符号化装置は、CU depth (k+1)を指定する。
(S11) The encoding device specifies CU depth. For example, in the case immediately after the start of the CU division process, the encoding device specifies
(S12)符号化装置は、1つのCUを選択し、選択したCUを対象CU(CUO)とする。このとき、符号化装置は、未だ選択されていないCUの中から1つのCUを選択して対象CUとする。 (S12) The encoding apparatus selects one CU and sets the selected CU as a target CU (CU O ). At this time, the encoding apparatus selects one CU from among the CUs not yet selected as a target CU.
(S13)符号化装置は、対象CUをPU[2N×2N]のPUに分割する。なお、対象CUとPU[2N×2N]のPUとは同じサイズである。そのため、PUの数は1つである。符号化装置は、分割で得たPUを単位として動き検出を行い、PU毎に評価値を計算する。評価値としては、例えば、ME(Motion Estimation)コストが用いられる。 (S13) The encoding apparatus divides the target CU into PUs of PU [2N × 2N]. Note that the target CU and the PU of PU [2N × 2N] have the same size. Therefore, the number of PUs is one. The encoding device performs motion detection in units of PUs obtained by division, and calculates an evaluation value for each PU. As the evaluation value, for example, ME (Motion Estimation) cost is used.
MEコストとは、動きベクトルを表す符号量や参照画像を指定するために使う符号量の見積り値である。例えば、MEコストは、下記の式(2)で表現される。但し、Ωは、PUを符号化する際に用いる候補モードの全体集合を表す。SADは、上記の式(1)で定義される差分絶対値和である。λは、ラグランジュ未定乗数である。Rは、モードModeで符号化した場合の総符号量である。なお、ここではSADに基づくMEコストを例示したが、SSEに基づくMEコストを評価値として利用することも可能である。 The ME cost is an estimated value of a code amount used for designating a code amount representing a motion vector or a reference image. For example, the ME cost is expressed by the following formula (2). However, Ω represents the entire set of candidate modes used when encoding a PU. SAD is the sum of absolute differences defined by the above equation (1). λ is a Lagrange undetermined multiplier. R is the total code amount when encoding is performed in mode mode. In addition, although the ME cost based on SAD is illustrated here, the ME cost based on SSE can be used as an evaluation value.
MEコスト(Mode∈Ω) = SAD + λ・R
…(2)
(S14)符号化装置は、対象CUをPU[2N×N]のPUに分割する。この場合、PUは上側PUと下側PUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。
ME cost (Mode ∈ Ω) = SAD + λ · R
... (2)
(S14) The encoding apparatus divides the target CU into PUs of PU [2N × N]. In this case, the PU is divided into an upper PU and a lower PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × N]. As the evaluation value, for example, the above ME cost is used.
(S15)符号化装置は、対象CUをPU[N×2N]のPUに分割する。この場合、PUは左側PUと右側PUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[N×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S15) The encoding apparatus divides the target CU into PUs of PU [N × 2N]. In this case, the PU is divided into a left PU and a right PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [N × 2N]. As the evaluation value, for example, the above ME cost is used.
(S16)符号化装置は、PU[2N×2N]に対応する評価値、PU[2N×N]に対応する評価値、PU[N×2N]に対応する評価値を比較し、評価値が最小となる分割方法を選択する。例えば、PU[2N×2N]に対応する評価値が最小である場合、符号化装置は、分割方法としてPU[2N×2N]を選択する。 (S16) The encoding apparatus compares the evaluation value corresponding to PU [2N × 2N], the evaluation value corresponding to PU [2N × N], and the evaluation value corresponding to PU [N × 2N]. Select the smallest division method. For example, when the evaluation value corresponding to PU [2N × 2N] is the minimum, the encoding apparatus selects PU [2N × 2N] as the division method.
(S17)符号化装置は、S16の処理で、PU[2N×2N]の評価値が最小であったか否かを判定する。PU[2N×2N]の評価値が最小であった場合、処理はS18へと進む。PU[2N×2N]の評価値が最小でなかった場合、処理は、図6のS22へと進む。 (S17) The encoding device determines whether or not the evaluation value of PU [2N × 2N] is the minimum in the process of S16. If the evaluation value of PU [2N × 2N] is the minimum, the process proceeds to S18. If the evaluation value of PU [2N × 2N] is not the minimum, the process proceeds to S22 in FIG.
(S18)符号化装置は、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S18) The encoding apparatus divides the target CU into PUs of PU [2N × nU]. In this case, the PU is divided into an upper 1/4 PU and a lower 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nU]. As the evaluation value, for example, the above ME cost is used.
(S19)符号化装置は、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S19) The encoding apparatus divides the target CU into PUs of PU [2N × nD]. In this case, the PU is divided into an upper 3/4 PU and a lower 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nD]. As the evaluation value, for example, the above ME cost is used.
(S20)符号化装置は、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S20の処理が完了すると、処理は、図6のS21へと進む。 (S20) The encoding apparatus divides the target CU into PUs of PU [nL × 2N]. In this case, the PU is divided into a left 1/4 PU and a right 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nL × 2N]. As the evaluation value, for example, the above ME cost is used. When the process of S20 is completed, the process proceeds to S21 of FIG.
(S21)符号化装置は、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S21の処理が完了すると、処理はS27へと進む。
(S21) The encoding apparatus divides the target CU into PUs of PU [
(S22)符号化装置は、S16の処理で、PU[2N×N]の評価値が最小であったか否かを判定する。PU[2N×N]の評価値が最小であった場合、処理はS23へと進む。PU[2N×N]の評価値が最小でなかった場合、処理はS25へと進む。 (S22) The encoding device determines whether or not the evaluation value of PU [2N × N] is minimum in the process of S16. If the evaluation value of PU [2N × N] is the minimum, the process proceeds to S23. If the evaluation value of PU [2N × N] is not the minimum, the process proceeds to S25.
(S23)符号化装置は、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S23) The encoding apparatus divides the target CU into PUs of PU [2N × nU]. In this case, the PU is divided into an upper 1/4 PU and a lower 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nU]. As the evaluation value, for example, the above ME cost is used.
(S24)符号化装置は、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S24) The encoding apparatus divides the target CU into PUs of PU [2N × nD]. In this case, the PU is divided into an upper 3/4 PU and a lower 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nD]. As the evaluation value, for example, the above ME cost is used.
(S25)符号化装置は、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。 (S25) The encoding apparatus divides the target CU into PUs of PU [nL × 2N]. In this case, the PU is divided into a left 1/4 PU and a right 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nL × 2N]. As the evaluation value, for example, the above ME cost is used.
(S26)符号化装置は、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。
(S26) The encoding apparatus divides the target CU into PUs of PU [
(S27)符号化装置は、計算した評価値の中で最小の評価値に対応する分割方法を選択し、その評価値を保存する。例えば、S16の処理でPU[2N×2N]の評価値が最小であると判定した場合について考える。この場合、符号化装置は、PU[2N×2N]の評価値、PU[2N×nU]の評価値、PU[2N×nD]の評価値、PU[nL×2N]の評価値、PU[nR×2N]の評価値を比較し、最小の評価値に対応する分割方法を選択する。
(S27) The encoding apparatus selects a division method corresponding to the smallest evaluation value among the calculated evaluation values, and stores the evaluation value. For example, consider the case where it is determined in the process of S16 that the evaluation value of PU [2N × 2N] is minimum. In this case, the encoding apparatus performs evaluation value PU [2N × 2N], evaluation value PU [2N × nU], evaluation value PU [2N × nD], evaluation value PU [nL × 2N], PU [
また、S16の処理でPU[2N×N]の評価値が最小であると判定した場合、符号化装置は、PU[2N×N]の評価値、PU[2N×nU]の評価値、PU[2N×nD]の評価値を比較し、最小の評価値に対応する分割方法を選択する。また、S16の処理でPU[N×2N]の評価値が最小であると判定した場合、符号化装置は、PU[N×2N]の評価値、PU[nL×2N]の評価値、PU[nR×2N]の評価値を比較し、最小の評価値に対応する分割方法を選択する。
Also, when it is determined in the process of S16 that the evaluation value of PU [2N × N] is the minimum, the encoding device determines the evaluation value of PU [2N × N], the evaluation value of PU [2N × nU], PU [2N × nD] evaluation values are compared, and a division method corresponding to the minimum evaluation value is selected. Also, when it is determined in the process of S16 that the evaluation value of PU [N × 2N] is the minimum, the encoding device determines the evaluation value of PU [
(S28)符号化装置は、全てのCUを選択したか否かを判定する。指定されたCU depthについて全てのCUが選択済みの場合、処理はS29へと進む。一方、指定されたCU depthについて選択済みではないCUが存在する場合、処理は、図5のS12へと進む。 (S28) The encoding device determines whether all CUs have been selected. If all CUs have been selected for the specified CU depth, the process proceeds to S29. On the other hand, if there is a CU that has not been selected for the specified CU depth, the process proceeds to S12 of FIG.
(S29)符号化装置は、全てのCU depthを指定したか否かを判定する。CU depth 0からCU depth 3まで全てのCU depthが指定済みの場合、処理はS30へと進む。一方、指定済みではないCU depthが存在する場合、処理は、図5のS11へと進む。
(S29) The encoding device determines whether all CU depths have been specified. If all CU depths from
(S30)符号化装置は、CU depth毎に、保存した評価値を合計した評価値合計を計算し、評価値合計が最小となるCU depthを選択する。S30の処理が完了すると、図5及び図6に示した一連の処理は終了する。 (S30) For each CU depth, the encoding apparatus calculates a total evaluation value obtained by summing the stored evaluation values, and selects a CU depth that minimizes the total evaluation value. When the process of S30 is completed, the series of processes shown in FIGS. 5 and 6 ends.
図5及び図6に例示した処理フローは、CUの分割を実現する方法の一例である。以下の説明において、この処理フローで示したCUの分割方法よりも効率の良いCUの分割方法及びその分割方法を実現可能な情報処理装置100の機能などについて述べる。
The processing flow illustrated in FIGS. 5 and 6 is an example of a method for realizing CU division. In the following description, a CU dividing method that is more efficient than the CU dividing method shown in this processing flow, and functions of the
以上、CUの分割方法について説明した。
[2−2.ハードウェア]
ここで、図7を参照しながら、後述する情報処理装置100が有する機能を実現可能なハードウェアについて説明する。情報処理装置100は、第2実施形態に係る情報処理装置の一例である。なお、図7は、第2実施形態に係る情報処理装置が有する機能を実現可能なハードウェアの一例を示した図である。
The CU dividing method has been described above.
[2-2. hardware]
Here, with reference to FIG. 7, hardware capable of realizing the functions of the
情報処理装置100が有する機能は、例えば、図7に示すハードウェア資源を用いて実現することが可能である。つまり、情報処理装置100が有する機能は、コンピュータプログラムを用いて図7に示すハードウェアを制御することにより実現される。
The functions of the
図7に示すように、このハードウェアは、主に、CPU902と、ROM(Read Only Memory)904と、RAM906と、ホストバス908と、ブリッジ910とを有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とを有する。
As shown in FIG. 7, this hardware mainly includes a
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータなどを格納する記憶装置の一例である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に変化する各種パラメータなどが一時的又は永続的に格納される。
The
これらの要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、タッチパッド、ボタン、スイッチ、及びレバーなどが用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラが用いられることもある。
These elements are connected to each other via, for example, a
出力部918としては、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、又はELD(Electro-Luminescence Display)などのディスプレイ装置が用いられる。また、出力部918として、スピーカやヘッドホンなどのオーディオ出力装置、又はプリンタなどが用いられることもある。つまり、出力部918は、情報を視覚的又は聴覚的に出力することが可能な装置である。
As the
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、HDDなどの磁気記憶デバイスが用いられる。また、記憶部920として、SSD(Solid State Drive)やRAMディスクなどの半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイスなどが用いられてもよい。
The
ドライブ922は、着脱可能な記録媒体であるリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどが用いられる。
The
接続ポート924は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子など、外部接続機器930を接続するためのポートである。外部接続機器930としては、例えば、プリンタなどが用いられる。
The
通信部926は、ネットワーク932に接続するための通信デバイスである。通信部926としては、例えば、有線又は無線LAN(Local Area Network)用の通信回路、WUSB(Wireless USB)用の通信回路、光通信用の通信回路やルータ、ADSL(Asymmetric Digital Subscriber Line)用の通信回路やルータ、携帯電話ネットワーク用の通信回路などが用いられる。通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークであり、例えば、インターネット、LAN、放送網、衛星通信回線などを含む。
The
以上、情報処理装置100のハードウェアについて説明した。なお、上述した符号化装置の機能も図7に例示したハードウェアを用いて実現可能である。
[2−3.情報処理装置の機能]
次に、図8を参照しながら、情報処理装置100の機能について説明する。なお、図8は、第2実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。
The hardware of the
[2-3. Function of information processing apparatus]
Next, functions of the
図8に示すように、情報処理装置100は、減算器101、整数変換部102、量子化部103、及びエントロピー符号化部104を有する。また、情報処理装置100は、逆量子化部105、逆整数変換部106、加算器107、フィルタ108、及びフレームメモリ109を有する。さらに、情報処理装置100は、イントラ予測部110、差分計算部111、PU決定部112、動き検出部113、動き補償部114、及び切り替え部115を有する。
As illustrated in FIG. 8, the
なお、減算器101、整数変換部102、量子化部103、エントロピー符号化部104、逆量子化部105、逆整数変換部106、加算器107、フィルタ108の機能は、上述したCPU902などを用いて実現できる。また、イントラ予測部110、差分計算部111、PU決定部112、動き検出部113、動き補償部114、及び切り替え部115の機能は、上述したCPU902などを用いて実現できる。また、フレームメモリ109の機能は、上述したRAM906や記憶部920などを用いて実現できる。
Note that the functions of the
情報処理装置100には、符号化対象の動画フレームに対応する画像データ(以下、入力画像データ)が入力される。入力画像データは、減算器101に入力される。また、減算器101には、動き補償により生成された予測画像データが入力される。減算器101は、入力画像データから予測画像データを減算して予測誤差信号を生成する。予測誤差信号は、整数変換部102に入力される。
The
整数変換部102は、予測誤差信号を整数変換して係数信号を生成する。例えば、整数変換部102は、整数精度が4×4、8×8、16×16、32×32のDCT変換を実行し、予測誤差信号の周波数成分に対応するDCT係数の集合(係数信号)を生成する。係数信号は、量子化部103に入力される。量子化部103は、係数信号を量子化して量子化データを生成する。量子化データは、エントロピー符号化部104及び逆量子化部105に入力される。
The
エントロピー符号化部104には、後述するイントラ予測部110及び動き検出部113の出力データも入力される。エントロピー符号化部104は、量子化データ、イントラ予測部110の出力データ、及び動き検出部113の出力データ(例えば、動きベクトルの情報)をエントロピー符号化して符号化データを生成する。なお、エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる符号化方法である。
The
逆量子化部105は、入力された量子化データを逆量子化して係数信号を復元する。復元された係数信号は、逆整数変換部106に入力される。逆整数変換部106は、入力された係数信号に逆整数変換を施して予測誤差信号を復元する。復元された予測誤差信号は、減算器101から出力された予測誤差信号と同等の信号である。逆整数変換部106により復元された予測誤差信号は、加算器107に入力される。また、加算器107には、動き補償により生成された予測画像データが入力される。
The
加算器107は、入力された予測誤差信号と予測画像データとを加算して参照画像信号(参照ピクチャのPUに相当)を生成する。参照画像信号は、フィルタ108及びイントラ予測部110に入力される。フィルタ108は、参照画像信号に対してデブロッキングフィルタ、SAO(Sample Adaptive Offset)、ALF(Adaptive Loop Filter)の処理を施してブロックノイズの発生を抑制する。フィルタ108で処理された参照画像信号は、フレームメモリ109に格納される。イントラ予測部110は、イントラ予測により同じ画像内の周辺画素から予測画像データを生成する。
The
差分計算部111は、対象CUと、対象CUに隣接するCU(以下、隣接CU)との境界付近に位置するブロック間の類似度を表す差分情報を生成する。差分情報は、PU決定部112に入力される。PU決定部112は、差分情報に基づいて対象CUの分割方法(利用するPUの種類)を絞り込む。PU決定部112が実行する処理の内容については後述する。PU決定部112により絞り込まれた対象CUの分割方法を表す情報(以下、候補PU情報)は、動き検出部113に入力される。
The
動き検出部113は、入力画像データ、フレームメモリ109から読み出した参照画像信号、及び候補PU情報を用いて動きベクトルを検出する。動き検出部113により検出された動きベクトルは、動き補償部114に入力される。動き補償部114は、入力された動きベクトルに基づき、フレームメモリ109から読み出した参照画像信号に動き補償を施して予測画像データを生成する。切り替え部115は、イントラ予測部110又は動き補償部114を選択し、選択した要素が出力した予測画像データを減算器101及び加算器107に入力する。
The
(差分計算部111及びPU決定部112の機能について)
ここで、図9及び図10を参照しながら、差分計算部111及びPU決定部112の機能について、さらに説明する。なお、図9は、第2実施形態に係るPUの分割方法(縦方向分割)について説明するための図である。図10は、第2実施形態に係るPUの分割方法(横方向分割)について説明するための図である。
(About the functions of the
Here, the functions of the
(縦方向分割について)
まず、図9を参照しながら、対象CUの縦方向分割(PU[2N×N]、PU[2N×nU]、PU[2N×nD])について考える。なお、対象CUをCUO、CUOの上側に位置する隣接CUをCUU、CUOの下側に位置する隣接CUをCUDと表記する。また、各CUのサイズは2N×2Nである。
(About vertical division)
First, the vertical division (PU [2N × N], PU [2N × nU], PU [2N × nD]) of the target CU will be considered with reference to FIG. Incidentally, denoted CU O target CU, CU U adjacent CU located above the CU O, adjacent CU located below the CU O and CU D. The size of each CU is 2N × 2N.
また、CUUの下側1/4を占める領域をRU、CUOの上側1/4を占める領域をR1、R1の下側に隣接する2N×(N/2)の領域をR2と表記する。さらに、CUDの上側1/4を占める領域をRD、CUOの下側1/4を占める領域をR3、R3の上側に隣接する2N×(N/2)の領域をR4と表記する。RUとR1とは、CUUとCUOとの間の境界で接する。また、R3とRDとは、CUOとCUDとの境界で接する。 In addition, the region occupying the lower 1/4 of CU U is R U , the region occupying the upper 1/4 of CU O is R 1 , and the 2N × (N / 2) region adjacent to the lower side of R 1 is R Indicated as 2 . Further, the region occupying the upper 1/4 of CU D is R D , the region occupying the lower 1/4 of CU O is R 3 , and the 2N × (N / 2) region adjacent to the upper side of R 3 is R 4. Is written. R U and R 1 touch at the boundary between CU U and CU O. R 3 and R D are in contact with each other at the boundary between CU O and CU D.
差分計算部111は、RUとR1との差分を計算する。この差分は、RUとR1との類似性を評価するための評価値の一例である。例えば、差分計算部111は、RUとR1との差分として、RUに含まれる画素の輝度値YUと、R1に含まれる画素の輝度値Y1との差分絶対値和DY1U(下記の式(3)を参照)を計算する。但し、S1は、R1に含まれる全画素の座標を集めた集合を表す。
The
また、差分計算部111は、R1とR2との差分を計算する。この差分は、R1とR2との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R1とR2との差分として、R1に含まれる画素の輝度値Y1と、R2に含まれる画素の輝度値Y2との差分絶対値和DY12(下記の式(4)を参照)を計算する。
Further, the
また、差分計算部111は、R3とRDとの差分を計算する。この差分は、R3とRDとの類似性を評価するための評価値の一例である。例えば、差分計算部111は、R3とRDとの差分として、R3に含まれる画素の輝度値Y3と、RDに含まれる画素の輝度値YDとの差分絶対値和DY3D(下記の式(5)を参照)を計算する。但し、S3は、R3に含まれる全画素の座標を集めた集合を表す。
Further, the
また、差分計算部111は、R3とR4との差分を計算する。この差分は、R3とR4との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R3とR4との差分として、R3に含まれる画素の輝度値Y3と、R4に含まれる画素の輝度値Y4との差分絶対値和DY34(下記の式(6)を参照)を計算する。
Further, the
差分計算部111により計算されたDY1U、DY12、DY3D、DY34は、PU決定部112に入力される。PU決定部112は、DY1U、DY12、DY3D、DY34を比較する。比較結果は、例えば、下記の4つのケースに分けられる。
DY 1U , DY 12 , DY 3D , and DY 34 calculated by the
(ケース#1:DY1U<DY12、かつ、DY3D<DY34)
ケース#1は、R2よりもRUの方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DY1U<DY12、かつ、DY3D<DY34の場合、PU決定部112は、DY1UとDY3Dとを比較する。DY1U<DY3Dの場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。一方、DY1U>DY3Dの場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 1: DY 1U <DY 12 and DY 3D <DY 34 )
(ケース#2:DY1U<DY12、かつ、DY3D>DY34)
ケース#2は、R2よりもRUの方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DY1U<DY12、かつ、DY3D>DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。
(Case # 2: DY 1U <DY 12 and DY 3D > DY 34 )
(ケース#3:DY1U>DY12、かつ、DY3D<DY34)
ケース#3は、RUよりもR2の方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DY1U>DY12、かつ、DY3D<DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 3: DY 1U > DY 12 and DY 3D <DY 34 )
(ケース#4:DY1U>DY12、かつ、DY3D>DY34)
ケース#4は、RUよりもR2の方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DY1U>DY12、かつ、DY3D>DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×N]を選択する。
(Case # 4: DY 1U > DY 12 and DY 3D > DY 34 )
上記の方法により、差分計算部111及びPU決定部112の機能によって、縦方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。
(横方向分割について)
次に、図10を参照しながら、対象CUの横方向分割(PU[N×2N]、PU[nR×2N]、PU[nL×2N])について考える。なお、対象CUをCUO、CUOの右側に位置する隣接CUをCUR、CUOの左側に位置する隣接CUをCULと表記する。また、各CUのサイズは2N×2Nである。
With the method described above, the division method of the target CU related to the vertical division is narrowed down to one candidate by the functions of the
(About horizontal division)
Next, the horizontal division (PU [
また、CURの左側1/4を占める領域をRR、CUOの右側1/4を占める領域をR5、R5の左側に隣接する(N/2)×2Nの領域をR6と表記する。さらに、CULの右側1/4を占める領域をRL、CUOの左側1/4を占める領域をR7、R7の右側に隣接する(N/2)×2Nの領域をR8と表記する。RRとR5とは、CURとCUOとの間の境界で接する。また、R7とRLとは、CUOとCULとの境界で接する。 An area occupying the left quarter of CU R is R R , an area occupying the right quarter of CU O is R 5 , and an (N / 2) × 2N area adjacent to the left side of R 5 is R 6 . write. Further, an area occupying the right quarter of CU L is R L , an area occupying the left quarter of CU O is R 7 , and an (N / 2) × 2N area adjacent to the right side of R 7 is R 8 . write. R R and R 5 touch at the boundary between CU R and CU O. R 7 and R L are in contact with each other at the boundary between CU O and CU L.
差分計算部111は、RRとR5との差分を計算する。この差分は、RRとR5との類似性を評価するための評価値の一例である。例えば、差分計算部111は、RRとR5との差分として、RRに含まれる画素の輝度値YRと、R5に含まれる画素の輝度値Y5との差分絶対値和DY5R(下記の式(7)を参照)を計算する。但し、S5は、R5に含まれる全画素の座標を集めた集合を表す。
The
また、差分計算部111は、R5とR6との差分を計算する。この差分は、R5とR6との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R5とR6との差分として、R5に含まれる画素の輝度値Y5と、R6に含まれる画素の輝度値Y6との差分絶対値和DY56(下記の式(8)を参照)を計算する。
In addition, the
また、差分計算部111は、R7とRLとの差分を計算する。この差分は、R7とRLとの類似性を評価するための評価値の一例である。例えば、差分計算部111は、R7とRLとの差分として、R7に含まれる画素の輝度値Y7と、RLに含まれる画素の輝度値YLとの差分絶対値和DY7L(下記の式(9)を参照)を計算する。但し、S7は、R7に含まれる全画素の座標を集めた集合を表す。
Further, the
また、差分計算部111は、R7とR8との差分を計算する。この差分は、R7とR8との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R7とR8との差分として、R7に含まれる画素の輝度値Y7と、R8に含まれる画素の輝度値Y8との差分絶対値和DY78(下記の式(10)を参照)を計算する。
Further, the
差分計算部111により計算されたDY5R、DY56、DY7L、DY78は、PU決定部112に入力される。PU決定部112は、DY5R、DY56、DY7L、DY78を比較する。比較結果は、例えば、下記の4つのケースに分けられる。
DY 5R , DY 56 , DY 7L , and DY 78 calculated by the
(ケース#1:DY5R<DY56、かつ、DY7L<DY78)
ケース#1は、R6よりもRRの方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DY5R<DY56、かつ、DY7L<DY78の場合、PU決定部112は、DY5RとDY7Lとを比較する。DY5R<DY7Lの場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。一方、DY5R>DY7Lの場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 1: DY 5R <DY 56 and DY 7L <DY 78 )
(ケース#2:DY5R<DY56、かつ、DY7L>DY78)
ケース#2は、R6よりもRRの方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DY5R<DY56、かつ、DY7L>DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。
(Case # 2: DY 5R <DY 56 and DY 7L > DY 78 )
(ケース#3:DY5R>DY56、かつ、DY7L<DY78)
ケース#3は、RRよりもR6の方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DY5R>DY56、かつ、DY7L<DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 3: DY 5R > DY 56 and DY 7L <DY 78 )
(ケース#4:DY5R>DY56、かつ、DY7L>DY78)
ケース#4は、RRよりもR6の方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DY5R>DY56、かつ、DY7L>DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[N×2N]を選択する。
(Case # 4: DY 5R > DY 56 and DY 7L > DY 78 )
上記の方法により、差分計算部111及びPU決定部112の機能によって、横方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。なお、縦方向分割及び横方向分割に関する対象CUの分割方法に加え、PU[2N×2N]が候補に追加される。PU決定部112は、縦方向分割に関する1つの候補、横方向分割に関する1つの候補、及びPU[2N×2N]に対象CUの分割方法を絞り込む。その結果、PUの種類が低減された分だけ動き検出部113の処理負担が軽減される。
With the above method, the division method of the target CU regarding the horizontal division is narrowed down to one candidate by the functions of the
以上、情報処理装置100の機能について説明した。なお、上記の説明では輝度の差分絶対値和を用いて領域間の類似性を評価する方法を紹介したが、第2実施形態に係る技術に適用可能な類似性の評価方法はこれに限定されない。以下、類似性の評価方法について、さらに説明する。
The function of the
[2−4.類似性の評価]
図11を参照しながら、領域間の類似性を評価する方法について、さらに説明する。図11は、第2実施形態に係る類似性の評価について説明するための図である。ここでは、説明の都合上、図11に示すようなR1とRUとの類似性を評価する方法を例に挙げて説明するが、他の領域間の類似性を評価する方法についても同様である。
[2-4. Evaluation of similarity]
A method for evaluating similarity between regions will be further described with reference to FIG. FIG. 11 is a diagram for describing similarity evaluation according to the second embodiment. Here, for convenience of explanation, a method for evaluating the similarity between R 1 and R U as shown in FIG. 11 will be described as an example, but the same applies to a method for evaluating the similarity between other regions. It is.
(平均輝度の差分絶対値)
R1とRUとの差分を平均輝度の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる全画素の輝度値YUについて平均値AYUを計算する。さらに、差分計算部111は、R1に含まれる画素の輝度値Y1について平均値AY1を計算する。そして、差分計算部111は、AYUとAY1との差分絶対値DAY1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DAY1Uなどを用いてPUの種類を絞り込む。
(Absolute difference of average brightness)
A method for expressing the difference between R 1 and R U as the difference absolute value of the average luminance will be described. When this method is employed, the
(色差の差分絶対値和)
次に、R1とRUとの差分を色差の差分絶対値和で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる画素の色差CU(Cb,Cr)と、R1に含まれる画素の色差C1(Cb,Cr)との差分絶対値和DC1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値和DC1Uなどを用いてPUの種類を絞り込む。
(Sum of absolute differences of color differences)
Next, it will be described a method of representing the difference absolute value sum of the color difference the difference between R 1 and R U. When this method is employed, the
(平均色差の差分絶対値)
次に、R1とRUとの差分を平均色差の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる全画素の色差CU(Cb,Cr)について平均値ACUを計算する。さらに、差分計算部111は、R1に含まれる画素の色差C1(Cb,Cr)について平均値AC1を計算する。そして、差分計算部111は、ACUとAC1との差分絶対値DAC1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DAC1Uなどを用いてPUの種類を絞り込む。
(Absolute value of average color difference)
Next, a method of expressing the difference between R 1 and R U by the difference absolute value of the average color difference will be described. When this method is employed, the
(平坦度の差分絶対値)
次に、R1とRUとの差分を平坦度の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUの平坦度FU(下記の式(11)を参照)を計算する。さらに、差分計算部111は、R1の平坦度F1(下記の式(12))を計算する。そして、差分計算部111は、FUとF1との差分絶対値DF1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DF1Uなどを用いてPUの種類を絞り込む。
(Difference absolute value of flatness)
Next, a method for expressing the difference between R 1 and R U by the difference absolute value of flatness will be described. When employing this method, the
但し、YUは、RUに含まれる画素の輝度値である。Y1は、R1に含まれる画素の輝度値である。また、AYUは、RUに含まれる全画素の輝度値に関する平均値である。AY1は、R1に含まれる全画素の輝度値に関する平均値である。また、NUは、RUに含まれる画素の総数である。N1は、R1に含まれる画素の総数である。また、SUは、RUに含まれる全画素の座標を集めた集合を表す。S1は、R1に含まれる全画素の座標を集めた集合を表す。 However, Y U are luminance values of pixels included in R U. Y 1 is the luminance value of the pixel included in R 1 . Further, AY U is the mean value for the luminance values of all pixels included in R U. AY 1 is an average value related to the luminance values of all the pixels included in R 1 . N U is the total number of pixels included in R U. N 1 is the total number of pixels included in R 1 . S U represents a set in which the coordinates of all the pixels included in R U are collected. S 1 represents a set in which the coordinates of all the pixels included in R 1 are collected.
以上、類似性の評価方法について説明した。
[2−5.処理フロー]
次に、図12〜図14を参照しながら、対象CUの分割方法に係る処理の流れについて説明する。図12は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第1のフロー図である。図13は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第2のフロー図である。図14は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第3のフロー図である。
The similarity evaluation method has been described above.
[2-5. Processing flow]
Next, the flow of processing according to the method for dividing the target CU will be described with reference to FIGS. FIG. 12 is a first flowchart for explaining CU division processing executed by the information processing apparatus according to the second embodiment. FIG. 13 is a second flowchart for explaining the CU division processing executed by the information processing apparatus according to the second embodiment. FIG. 14 is a third flowchart for explaining the CU division processing executed by the information processing apparatus according to the second embodiment.
(S101)情報処理装置100は、CU depthを指定する。例えば、CUの分割処理を開始した直後の場合、情報処理装置100は、CU depth 0を指定する。また、CU depth k(k>0)を既に指定済みの場合、情報処理装置100は、CU depth (k+1)を指定する。
(S101) The
(S102)情報処理装置100は、1つのCUを選択し、選択したCUを対象CU(CUO)とする。このとき、情報処理装置100は、未だ選択されていないCUの中から1つのCUを選択して対象CUとする。
(S102) The
(S103)情報処理装置100は、差分計算部111の機能により、対象CUの上下に位置する隣接CUを参照し、対象CUと隣接CUとの境界で接する対象CUの領域と隣接CUの領域との差分を計算する。例えば、情報処理装置100は、差分計算部111の機能により、図9に例示したRUとR1との差分、R1とR2との差分、R3とRDとの差分、R3とR4との差分を計算する。
(S103) The
(S104)情報処理装置100は、差分計算部111の機能により、対象CUの左右に位置する隣接CUを参照し、対象CUと隣接CUとの境界で接する対象CUの領域と隣接CUの領域との差分を計算する。例えば、情報処理装置100は、差分計算部111の機能により、図10に例示したRRとR5との差分、R5とR6との差分、R7とRLとの差分、R7とR8との差分を計算する。
(S104) The
(S105)情報処理装置100は、PU決定部112の機能により、S103、S104で計算した差分に基づいて縦方向分割に関する分割方法の候補、及び横方向分割に関する分割方法の候補を絞り込む。例えば、情報処理装置100は、PU決定部112の機能により、縦方向分割及び横方向分割のそれぞれについて、上述したケース#1〜#4の分類を行って分割方法の候補を選択する。また、情報処理装置100は、PU決定部112の機能により、PU[2N×2N]を分割方法の候補に含める。
(S105) With the function of the
(S106)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×2N]のPUに分割する。なお、対象CUとPU[2N×2N]のPUとは同じサイズである。そのため、PUの数は1つである。情報処理装置100は、動き検出部113の機能により、分割で得たPUを単位として動き検出を行い、PU毎に評価値を計算する。評価値としては、例えば、上述したMEコストが用いられる。S106の処理が完了すると、処理は、図13のS107へと進む。
(S106) The
(S107)情報処理装置100は、PU[2N×N]が分割方法の候補として選択されているか否かを判定する。PU[2N×N]が分割方法の候補に含まれる場合、処理は、S108へと進む。一方、PU[2N×N]が分割方法の候補に含まれない場合、処理は、S109へと進む。
(S107) The
(S108)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×N]のPUに分割する。この場合、PUは上側1/2のPUと下側1/2のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S108の処理が完了すると、処理は、図14のS112へと進む。
(S108) The
(S109)情報処理装置100は、PU[2N×nU]が分割方法の候補として選択されているか否かを判定する。PU[2N×nU]が分割方法の候補に含まれる場合、処理は、S110へと進む。一方、PU[2N×nU]が分割方法の候補に含まれない場合、処理は、S111へと進む。
(S109) The
(S110)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S110の処理が完了すると、処理は、図14のS112へと進む。
(S110) The
(S111)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S110の処理が完了すると、処理は、図14のS112へと進む。
(S111) The
(S112)情報処理装置100は、PU[N×2N]が分割方法の候補として選択されているか否かを判定する。PU[N×2N]が分割方法の候補に含まれる場合、処理は、S113へと進む。一方、PU[N×2N]が分割方法の候補に含まれない場合、処理は、S114へと進む。
(S112) The
(S113)情報処理装置100は、動き検出部113の機能により、対象CUをPU[N×2N]のPUに分割する。この場合、PUは左側1/2のPUと右側1/2のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[N×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S113の処理が完了すると、処理は、S117へと進む。
(S113) The
(S114)情報処理装置100は、PU[nL×2N]が分割方法の候補として選択されているか否かを判定する。PU[nL×2N]が分割方法の候補に含まれる場合、処理は、S115へと進む。一方、PU[nL×2N]が分割方法の候補に含まれない場合、処理は、S116へと進む。
(S114) The
(S115)情報処理装置100は、動き検出部113の機能により、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S115の処理が完了すると、処理は、S117へと進む。
(S115) The
(S116)情報処理装置100は、動き検出部113の機能により、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。
(S116) The
(S117)情報処理装置100は、動き検出部113の機能により、PU[2N×2N]に対応する評価値、縦方向分割に関する候補の評価値、横方向分割に関する候補の評価値を比較する。そして、情報処理装置100は、動き検出部113の機能により、評価値が最小となる分割方法を選択し、その評価値を保存する。例えば、PU[2N×2N]に対応する評価値が最小である場合、情報処理装置100は、動き検出部113の機能により、PU[2N×2N]の評価値を保存する。
(S117) The
(S118)情報処理装置100は、全てのCUを選択したか否かを判定する。指定されたCU depthについて全てのCUが選択済みの場合、処理はS119へと進む。一方、指定されたCU depthについて選択済みではないCUが存在する場合、処理は、図12のS102へと進む。
(S118) The
(S119)情報処理装置100は、全てのCU depthを指定したか否かを判定する。CU depth 0からCU depth 3まで全てのCU depthが指定済みの場合、処理はS120へと進む。一方、指定済みではないCU depthが存在する場合、処理は、図12のS101へと進む。
(S119) The
(S120)情報処理装置100は、CU depth毎に、保存した評価値を合計した評価値合計を計算する。そして、情報処理装置100は、評価値合計が最小となるCU depthを選択する。S120の処理が完了すると、図12〜図14に示した一連の処理は終了する。
(S120) The
以上、対象CUの分割方法に係る処理の流れについて説明した。
以上説明したように、対象CUと隣接CUとの境界に位置する領域間の類似度、及び対象CUを分割した領域間の類似度に基づいてPUの種類を絞り込むことにより、動き検出及びコスト評価の処理を実行する回数が低減され、符号化処理の負担が軽減される。
The processing flow related to the method for dividing the target CU has been described above.
As described above, motion detection and cost evaluation are performed by narrowing down the types of PUs based on the similarity between regions located at the boundary between the target CU and adjacent CUs, and the similarity between regions obtained by dividing the target CU. The number of times of executing this process is reduced, and the burden of the encoding process is reduced.
以上、第2実施形態について説明した。
<3.第3実施形態>
第3実施形態について説明する。上述した第2実施形態では、比較対象の領域に含まれる画素の画素値(輝度値や色差など)を利用して領域間の類似性を評価した。以下で説明する第3実施形態では、比較対象の領域が有するDC(Direct Current)成分を利用して領域間の類似性を評価する方法を提案する。
The second embodiment has been described above.
<3. Third Embodiment>
A third embodiment will be described. In the second embodiment described above, similarity between regions is evaluated using pixel values (luminance values, color differences, etc.) of pixels included in the comparison target region. In the third embodiment described below, a method for evaluating the similarity between regions using a DC (Direct Current) component of a region to be compared is proposed.
(情報処理装置の機能)
図15を参照しながら、情報処理装置200の機能について説明する。情報処理装置200は、第3実施形態に係る情報処理装置の一例である。また、情報処理装置200が有する機能は、図7に例示したハードウェアを用いて実現可能である。なお、図15は、第3実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。
(Function of information processing device)
The function of the
図15に示すように、情報処理装置200は、減算器201、整数変換部202、量子化部203、及びエントロピー符号化部204を有する。また、情報処理装置200は、逆量子化部205、逆整数変換部206、加算器207、フィルタ208、及びフレームメモリ209を有する。さらに、情報処理装置200は、イントラ予測部210、DC差分計算部211、PU決定部212、動き検出部213、動き補償部214、及び切り替え部215を有する。
As illustrated in FIG. 15, the
なお、減算器201、整数変換部202、量子化部203、エントロピー符号化部204、逆量子化部205、逆整数変換部206、加算器207、フィルタ208の機能は、上述したCPU902などを用いて実現できる。また、イントラ予測部210、DC差分計算部211、PU決定部212、動き検出部213、動き補償部214、及び切り替え部215の機能は、上述したCPU902などを用いて実現できる。また、フレームメモリ209の機能は、上述したRAM906や記憶部920などを用いて実現できる。
Note that the functions of the
情報処理装置200には、符号化対象の動画フレームに対応する画像データ(入力画像データ)が入力される。入力画像データは、減算器201に入力される。また、減算器201には、動き補償により生成された予測画像データが入力される。減算器201は、入力画像データから予測画像データを減算して予測誤差信号を生成する。予測誤差信号は、整数変換部202に入力される。
The
整数変換部202は、予測誤差信号を整数変換して係数信号を生成する。例えば、整数変換部202は、整数精度が4×4、8×8、16×16、32×32のDCT変換を実行し、予測誤差信号の周波数成分に対応するDCT係数の集合(係数信号)を生成する。係数信号は、量子化部203及びDC差分計算部211に入力される。量子化部203は、係数信号を量子化して量子化データを生成する。量子化データは、エントロピー符号化部204及び逆量子化部205に入力される。
The
エントロピー符号化部204には、後述するイントラ予測部210及び動き検出部213の出力データも入力される。エントロピー符号化部204は、量子化データ、イントラ予測部210の出力データ、及び動き検出部213の出力データ(例えば、動きベクトルの情報)をエントロピー符号化して符号化データを生成する。なお、エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる符号化方法である。
The
逆量子化部205は、入力された量子化データを逆量子化して係数信号を復元する。復元された係数信号は、逆整数変換部206に入力される。逆整数変換部206は、入力された係数信号に逆整数変換を施して予測誤差信号を復元する。復元された予測誤差信号は、減算器201から出力された予測誤差信号と同等の信号である。逆整数変換部206により復元された予測誤差信号は、加算器207に入力される。また、加算器207には、動き補償により生成された予測画像データが入力される。
The
加算器207は、入力された予測誤差信号と予測画像データとを加算して参照画像信号(参照ピクチャのPUに相当)を生成する。参照画像信号は、フィルタ208及びイントラ予測部210に入力される。フィルタ208は、参照画像信号に対してデブロッキングフィルタ、SAO(Sample Adaptive Offset)、ALF(Adaptive Loop Filter)の処理を施してブロックノイズの発生を抑制する。フィルタ208で処理された参照画像信号は、フレームメモリ209に格納される。イントラ予測部210は、イントラ予測により同じ画像内の周辺画素から予測画像データを生成する。
The
DC差分計算部211は、整数変換部202から入力される係数信号のDC成分に基づいて、対象CUと、対象CUに隣接するCU(隣接CU)との境界付近に位置するブロック間の類似度を表す差分情報を生成する。差分情報は、PU決定部212に入力される。PU決定部212は、差分情報に基づいて対象CUの分割方法(利用するPUの種類)を絞り込む。PU決定部212が実行する処理の内容については後述する。PU決定部212により絞り込まれた対象CUの分割方法を表す情報(候補PU情報)は、動き検出部213に入力される。
The DC
動き検出部213は、入力画像データ、フレームメモリ209から読み出した参照画像信号、及び候補PU情報を用いて動きベクトルを検出する。動き検出部213により検出された動きベクトルは、動き補償部214に入力される。動き補償部214は、入力された動きベクトルに基づき、フレームメモリ209から読み出した参照画像信号に動き補償を施して予測画像データを生成する。切り替え部215は、イントラ予測部210又は動き補償部214を選択し、選択した要素が出力した予測画像データを減算器201及び加算器207に入力する。
The
(整数変換部202、DC差分計算部211、PU決定部212の機能について)
ここで、図16及び図17を参照しながら、DC差分計算部211及びPU決定部212の機能について、さらに説明する。なお、図16は、第3実施形態に係るPUの分割方法(縦方向分割)及び類似性の評価について説明するための図である。図17は、第3実施形態に係るPUの分割方法(横方向分割)及び類似性の評価について説明するための図である。
(Regarding the functions of the
Here, the functions of the DC
(縦方向分割について)
まず、図16を参照しながら、対象CUの縦方向分割(PU[2N×N]、PU[2N×nU]、PU[2N×nD])について考える。なお、対象CUをCUO、CUOの上側に位置する隣接CUをCUU、CUOの下側に位置する隣接CUをCUDと表記する。また、各CUのサイズは2N×2Nである。
(About vertical division)
First, with reference to FIG. 16, the vertical division (PU [2N × N], PU [2N × nU], PU [2N × nD]) of the target CU will be considered. Incidentally, denoted CU O target CU, CU U adjacent CU located above the CU O, adjacent CU located below the CU O and CU D. The size of each CU is 2N × 2N.
また、CUUの下側1/4を占める領域をRU、CUOの上側1/4を占める領域をR1、R1の下側に隣接する2N×(N/2)の領域をR2と表記する。さらに、CUDの上側1/4を占める領域をRD、CUOの下側1/4を占める領域をR3、R3の上側に隣接する2N×(N/2)の領域をR4と表記する。RUとR1とは、CUUとCUOとの間の境界で接する。また、R3とRDとは、CUOとCUDとの境界で接する。 In addition, the region occupying the lower 1/4 of CU U is R U , the region occupying the upper 1/4 of CU O is R 1 , and the 2N × (N / 2) region adjacent to the lower side of R 1 is R Indicated as 2 . Further, the region occupying the upper 1/4 of CU D is R D , the region occupying the lower 1/4 of CU O is R 3 , and the 2N × (N / 2) region adjacent to the upper side of R 3 is R 4. Is written. R U and R 1 touch at the boundary between CU U and CU O. R 3 and R D are in contact with each other at the boundary between CU O and CU D.
整数変換部202は、RUを4つの矩形ブロックBU1、BU2、BU3、BU4に分割する。また、整数変換部202は、矩形ブロックBU1、BU2、BU3、BU4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBU1、BU2、BU3、BU4のそれぞれについて計算した係数信号の中からDC成分(以下、DC値)を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBU1、BU2、BU3、BU4のDC値を合計し、合計値をRUのDC値VUとする。
The
また、整数変換部202は、R1を4つの矩形ブロックB11、B12、B13、B14に分割する。また、整数変換部202は、矩形ブロックB11、B12、B13、B14の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB11、B12、B13、B14のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB11、B12、B13、B14のDC値を合計し、合計値をR1のDC値V1とする。
The
また、整数変換部202は、R2を4つの矩形ブロックB21、B22、B23、B24に分割する。また、整数変換部202は、矩形ブロックB21、B22、B23、B24の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB21、B22、B23、B24のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB21、B22、B23、B24のDC値を合計し、合計値をR2のDC値V2とする。
The
また、DC差分計算部211は、RUとR1との差分として、RUのDC値VUと、R1のDC値V1との差分絶対値DV1U(DV1U=|VU−V1|)を計算する。また、DC差分計算部211は、R1とR2との差分として、R1のDC値V1と、R2のDC値V2との差分絶対値DV12(DV12=|V1−V2|)を計算する。
Also, DC
また、整数変換部202は、RDを4つの矩形ブロックBD1、BD2、BD3、BD4に分割する。また、整数変換部202は、矩形ブロックBD1、BD2、BD3、BD4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBD1、BD2、BD3、BD4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBD1、BD2、BD3、BD4のDC値を合計し、合計値をRDのDC値VDとする。
The
また、整数変換部202は、R3を4つの矩形ブロックB31、B32、B33、B34に分割する。また、整数変換部202は、矩形ブロックB31、B32、B33、B34の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB31、B32、B33、B34のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB31、B32、B33、B34のDC値を合計し、合計値をR3のDC値V3とする。
Further, the
また、整数変換部202は、R4を4つの矩形ブロックB41、B42、B43、B44に分割する。また、整数変換部202は、矩形ブロックB41、B42、B43、B44の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB41、B42、B43、B44のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB41、B42、B43、B44のDC値を合計し、合計値をR4のDC値V4とする。
The
また、DC差分計算部211は、RDとR3との差分として、RDのDC値VDと、R3のDC値V3との差分絶対値DV3D(DV3D=|VD−V3|)を計算する。また、DC差分計算部211は、R3とR4との差分として、R3のDC値V3と、R4のDC値V4との差分絶対値DV34(DV34=|V3−V4|)を計算する。
Also, DC
DC差分計算部211により計算されたDV1U、DV12、DV3D、DV34は、PU決定部212に入力される。PU決定部212は、DV1U、DV12、DV3D、DV34を比較する。比較結果は、例えば、下記の4つのケースに分けられる。
DV 1U , DV 12 , DV 3D , DV 34 calculated by the DC
(ケース#1:DV1U<DV12、かつ、DV3D<DV34)
ケース#1は、R2よりもRUの方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DV1U<DV12、かつ、DV3D<DV34の場合、PU決定部212は、DV1UとDV3Dとを比較する。DV1U<DV3Dの場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。一方、DV1U>DV3Dの場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 1: DV 1U <DV 12 and DV 3D <DV 34 )
(ケース#2:DV1U<DV12、かつ、DV3D>DV34)
ケース#2は、R2よりもRUの方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DV1U<DV12、かつ、DV3D>DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。
(Case # 2: DV 1U <DV 12 and DV 3D > DV 34 )
(ケース#3:DV1U>DV12、かつ、DV3D<DV34)
ケース#3は、RUよりもR2の方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DV1U>DV12、かつ、DV3D<DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 3: DV 1U > DV 12 and DV 3D <DV 34 )
(ケース#4:DV1U>DV12、かつ、DV3D>DV34)
ケース#4は、RUよりもR2の方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DV1U>DV12、かつ、DV3D>DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×N]を選択する。
(Case # 4: DV 1U > DV 12 and DV 3D > DV 34 )
上記の方法により、縦方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。
(横方向分割について)
次に、図17を参照しながら、対象CUの縦方向分割(PU[N×2N]、PU[nR×2N]、PU[nL×2N])について考える。なお、対象CUをCUO、CUOの右側に位置する隣接CUをCUR、CUOの左側に位置する隣接CUをCULと表記する。また、各CUのサイズは2N×2Nである。
With the above method, the method of dividing the target CU regarding the vertical division is narrowed down to one candidate.
(About horizontal division)
Next, the vertical division (PU [
また、CURの左側1/4を占める領域をRR、CUOの右側1/4を占める領域をR5、R5の左側に隣接する(N/2)×2Nの領域をR6と表記する。さらに、CULの右側1/4を占める領域をRL、CUOの左側1/4を占める領域をR7、R7の右側に隣接する(N/2)×2Nの領域をR8と表記する。RRとR5とは、CURとCUOとの間の境界で接する。また、R7とRLとは、CUOとCULとの境界で接する。 An area occupying the left quarter of CU R is R R , an area occupying the right quarter of CU O is R 5 , and an (N / 2) × 2N area adjacent to the left side of R 5 is R 6 . write. Further, an area occupying the right quarter of CU L is R L , an area occupying the left quarter of CU O is R 7 , and an (N / 2) × 2N area adjacent to the right side of R 7 is R 8 . write. R R and R 5 touch at the boundary between CU R and CU O. R 7 and R L are in contact with each other at the boundary between CU O and CU L.
整数変換部202は、RRを4つの矩形ブロックBR1、BR2、BR3、BR4に分割する。また、整数変換部202は、矩形ブロックBR1、BR2、BR3、BR4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBR1、BR2、BR3、BR4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBR1、BR2、BR3、BR4のDC値を合計し、合計値をRRのDC値VRとする。
The
また、整数変換部202は、R5を4つの矩形ブロックB51、B52、B53、B54に分割する。また、整数変換部202は、矩形ブロックB51、B52、B53、B54の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB51、B52、B53、B54のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB51、B52、B53、B54のDC値を合計し、合計値をR5のDC値V5とする。
The
また、整数変換部202は、R6を4つの矩形ブロックB61、B62、B63、B64に分割する。また、整数変換部202は、矩形ブロックB61、B62、B63、B64の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB61、B62、B63、B64のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB61、B62、B63、B64のDC値を合計し、合計値をR6のDC値V6とする。
The
また、DC差分計算部211は、RRとR5との差分として、RRのDC値VRと、R5のDC値V5との差分絶対値DV5R(DV5R=|VR−V5|)を計算する。また、DC差分計算部211は、R5とR6との差分として、R5のDC値V5と、R6のDC値V6との差分絶対値DV56(DV56=|V5−V6|)を計算する。
Also, DC
また、整数変換部202は、RLを4つの矩形ブロックBL1、BL2、BL3、BL4に分割する。また、整数変換部202は、矩形ブロックBL1、BL2、BL3、BL4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBL1、BL2、BL3、BL4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBL1、BL2、BL3、BL4のDC値を合計し、合計値をRLのDC値VLとする。
The
また、整数変換部202は、R7を4つの矩形ブロックB71、B72、B73、B74に分割する。また、整数変換部202は、矩形ブロックB71、B72、B73、B74の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB71、B72、B73、B74のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB71、B72、B73、B74のDC値を合計し、合計値をR7のDC値V7とする。
The
また、整数変換部202は、R8を4つの矩形ブロックB81、B82、B83、B84に分割する。また、整数変換部202は、矩形ブロックB81、B82、B83、B84の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB81、B82、B83、B84のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB81、B82、B83、B84のDC値を合計し、合計値をR8のDC値V8とする。
The
また、DC差分計算部211は、RLとR7との差分として、RLのDC値VLと、R7のDC値V7との差分絶対値DV7L(DV7L=|VL−V7|)を計算する。また、DC差分計算部211は、R7とR8との差分として、R7のDC値V7と、R8のDC値V8との差分絶対値DV78(DV78=|V7−V8|)を計算する。
Also, DC
DC差分計算部211により計算されたDV5R、DV56、DV7L、DV78は、PU決定部212に入力される。PU決定部212は、DV5R、DV56、DV7L、DV78を比較する。比較結果は、例えば、下記の4つのケースに分けられる。
DV 5R , DV 56 , DV 7L , DV 78 calculated by the DC
(ケース#1:DV5R<DV56、かつ、DV7L<DV78)
ケース#1は、R6よりもRRの方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DV5R<DV56、かつ、DV7L<DV78の場合、PU決定部212は、DV5RとDV7Lとを比較する。DV5R<DV7Lの場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。一方、DV5R>DV7Lの場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 1: DV 5R <DV 56 and DV 7L <DV 78 )
(ケース#2:DV5R<DV56、かつ、DV7L>DV78)
ケース#2は、R6よりもRRの方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DV5R<DV56、かつ、DV7L>DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。
(Case # 2: DV 5R <DV 56 and DV 7L > DV 78 )
(ケース#3:DV5R>DV56、かつ、DV7L<DV78)
ケース#3は、RRよりもR6の方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DV5R>DV56、かつ、DV7L<DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 3: DV 5R > DV 56 and DV 7L <DV 78 )
(ケース#4:DV5R>DV56、かつ、DV7L>DV78)
ケース#4は、RRよりもR6の方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DV5R>DV56、かつ、DV7L>DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[N×2N]を選択する。
(Case # 4: DV 5R > DV 56 and DV 7L > DV 78 )
上記の方法により、横方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。なお、縦方向分割及び横方向分割に関する対象CUの分割方法に加え、PU[2N×2N]が候補に追加される。PU決定部212は、縦方向分割に関する1つの候補、横方向分割に関する1つの候補、及びPU[2N×2N]に対象CUの分割方法を絞り込む。その結果、PUの種類が低減された分だけ動き検出部213の処理負担が軽減される。
By the above method, the method of dividing the target CU regarding the horizontal division is narrowed down to one candidate. Note that PU [2N × 2N] is added to the candidates in addition to the method of dividing the target CU regarding the vertical division and the horizontal division. The
以上、情報処理装置200の機能について説明した。上記の説明においては、領域毎に全ブロックのDC値を合計した合計値を各領域のDC値として利用する方法を例示したが、例えば、DC値の合計に代えてDC値の平均値を利用するなどの変形も可能である。また、ブロック毎に計算されたDC値の差分絶対値和を用いて領域間の類似度を評価する方法も考えられる。このような変形例についても第3実施形態の技術的範囲に属する。
The function of the
(処理フローについて)
ここで、第3実施形態に係る対象CUの分割処理について述べる。第3実施形態に係る対象CUの分割処理フローは、図12〜図14に示した第2実施形態に係る処理フローのうち、S103、S104、S105の処理をDC値に基づく処理に変形したものとなる。つまり、領域間の類似性を評価する方法が上述した方法に変形される。その他の処理については実質的に同じであるため、詳細な説明を省略する。
(About processing flow)
Here, the process of dividing the target CU according to the third embodiment will be described. The target CU division processing flow according to the third embodiment is obtained by modifying the processing of S103, S104, and S105 into processing based on a DC value in the processing flow according to the second embodiment shown in FIGS. It becomes. That is, the method for evaluating the similarity between regions is modified to the method described above. Since other processes are substantially the same, detailed description thereof is omitted.
以上、第3実施形態について説明した。
以上、添付図面を参照しながら好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、様々な変形例や修正例に想到し得ることは明らかであり、こうした変形例や修正例についても当然に本発明の技術的範囲に属することは言うまでもない。
The third embodiment has been described above.
As mentioned above, although preferred embodiment was described referring an accompanying drawing, this invention is not limited to the example which concerns. It is obvious for a person skilled in the art that various variations and modifications can be conceived within the scope of the claims, and such variations and modifications are naturally understood by the technical scope of the present invention. It goes without saying that it belongs to a range.
<4.付記>
以上説明した実施形態に関し、さらに以下の付記を開示する。
(付記1) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部と、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする演算部と
を有する、情報処理装置。
<4. Addendum>
The following additional notes are disclosed with respect to the embodiment described above.
(Supplementary note 1) A storage unit that stores a target block and an adjacent block adjacent to the target block;
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. And an arithmetic unit that uses the excluded area as a candidate for a predictive coding unit.
(付記2) 前記演算部は、前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも低い場合に、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を予測符号化の単位の候補とする
付記1に記載の情報処理装置。
(Additional remark 2) When the similarity of the said 1st area | region and the said adjacent area is lower than the similarity of the said 1st area | region and the said 2nd area | region, the said calculating part is said 1st area | region and said 2nd area | region. The information processing device according to
(付記3) 前記第1領域は、前記対象ブロックの中で前記境界側に1/4を占める領域であり、
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
付記1又は2に記載の情報処理装置。
(Supplementary Note 3) The first region is a region that occupies 1/4 on the boundary side in the target block,
The information processing apparatus according to
(付記4) 前記記憶部は、第1の方向に向かって前記対象ブロックに隣接する第1の隣接ブロックと、前記第1の方向に直交する第2の方向に向かって前記対象ブロックに隣接する第2の隣接ブロックとを記憶し、
前記演算部は、前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
付記1〜3のいずれかに記載の情報処理装置。
(Additional remark 4) The said memory | storage part adjoins the said target block toward the 1st adjacent block adjacent to the said target block toward a 1st direction, and the 2nd direction orthogonal to the said 1st direction. Storing the second adjacent block;
The arithmetic unit evaluates the similarity between the first area and the adjacent area and the similarity between the first area and the second area for each of the first adjacent block and the second adjacent block. The information processing apparatus according to any one of
(付記5) 前記演算部は、前記第1領域に含まれる画素の輝度と前記隣接領域に含まれる画素の輝度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 5) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the brightness | luminance of the pixel contained in the said 1st area | region, and the brightness | luminance of the pixel contained in the said adjacent area. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the first region and the luminance of the pixel included in the second region. An information processing apparatus according to
(付記6) 前記演算部は、前記第1領域に含まれる画素の色差と前記隣接領域に含まれる画素の色差との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 6) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the color difference of the pixel contained in the said 1st area | region, and the color difference of the pixel contained in the said adjacent area | region. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the first region and the luminance of the pixel included in the second region. An information processing apparatus according to
(付記7) 前記演算部は、前記第1領域の平坦度と前記隣接領域の平坦度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域の平坦度と前記第2領域の平坦度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 7) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the flatness of the said 1st area | region, and the flatness of the said adjacent area, The information processing apparatus according to any one of
(付記8) 前記演算部は、前記第1領域が有する直流成分の値と前記隣接領域が有する直流成分の値との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域が有する直流成分の値と前記第2領域が有する直流成分の値との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 8) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the value of the DC component which the said 1st area | region has, and the value of the DC component which the said adjacent area | region has. The similarity between the first region and the second region is evaluated based on the difference between the direct current component value of the first region and the direct current component value of the second region. An information processing apparatus according to
(付記9) 前記記憶部は、前記対象ブロックの上側に隣接する上側の隣接ブロックと、前記対象ブロックの下側に隣接する下側の隣接ブロックとを記憶し、
前記演算部は、
前記上側の隣接ブロック及び前記下側の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記第1領域との類似性が最も高い領域を抽出し、
前記類似性が最も高い領域の組として、前記上側の隣接ブロックに接する前記第1領域と前記上側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記下側の隣接ブロックに接する前記第1領域と前記下側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記第1領域と前記第2領域とを抽出した場合、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を前記予測符号化の単位の候補とする
付記1に記載の情報処理装置。
(Supplementary Note 9) The storage unit stores an upper adjacent block adjacent to the upper side of the target block and a lower adjacent block adjacent to the lower side of the target block,
The computing unit is
For each of the upper adjacent block and the lower adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the first region is evaluated. Extract the region with the highest similarity to
When the first region that is in contact with the upper adjacent block and the adjacent region of the upper adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region that is in contact with the lower adjacent block and the adjacent region of the lower adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block A region excluding the first region from among the candidates for the predictive coding unit,
When the first region and the second region are extracted as the set of regions having the highest similarity, the third region obtained by combining the first region and the second region, and the target block The information processing apparatus according to
(付記10) 前記記憶部は、前記対象ブロックの左側に隣接する左側の隣接ブロックと、前記対象ブロックの右側に隣接する右側の隣接ブロックとを記憶し、
前記演算部は、
前記左側の隣接ブロック及び前記右側の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記第1領域との類似性が最も高い領域を抽出し、
前記類似性が最も高い領域の組として、前記左側の隣接ブロックに接する前記第1領域と前記左側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記右側の隣接ブロックに接する前記第1領域と前記右側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記第1領域と前記第2領域とを抽出した場合、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を前記予測符号化の単位の候補とする
付記1又は9に記載の情報処理装置。
(Supplementary Note 10) The storage unit stores a left adjacent block adjacent to the left side of the target block and a right adjacent block adjacent to the right side of the target block,
The computing unit is
For each of the left adjacent block and the right adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the first region and Extract the region with the highest similarity
When the first region that touches the left adjacent block and the adjacent region of the left adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region that contacts the right adjacent block and the adjacent region of the right adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region and the second region are extracted as the set of regions having the highest similarity, the third region obtained by combining the first region and the second region, and the target block The information processing apparatus according to
(付記11) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータが、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
符号化単位の選択方法。
(Additional remark 11) The computer which can read the information on the said target block and the said adjacent block from the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A coding unit selection method in which the excluded area is a candidate for a predictive coding unit.
(付記12) 前記コンピュータが、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも低い場合に、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を予測符号化の単位の候補とする
付記11に記載の符号化単位の選択方法。
(Supplementary note 12) The computer
A third region obtained by combining the first region and the second region when the similarity between the first region and the adjacent region is lower than the similarity between the first region and the second region; The method for selecting a coding unit according to
(付記13) 前記第1領域は、前記対象ブロックの中で前記境界側に1/4を占める領域であり、
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
付記11又は12に記載の符号化単位の選択方法。
(Supplementary Note 13) The first area is an area that occupies 1/4 of the target block on the boundary side,
The method for selecting a coding unit according to
(付記14) 前記記憶部は、第1の方向に向かって前記対象ブロックに隣接する第1の隣接ブロックと、前記第1の方向に直交する第2の方向に向かって前記対象ブロックに隣接する第2の隣接ブロックとを記憶し、
前記コンピュータが、
前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
付記11〜13のいずれかに記載の符号化単位の選択方法。
(Additional remark 14) The said memory | storage part adjoins the said target block toward the 1st adjacent block adjacent to the said target block toward a 1st direction, and the 2nd direction orthogonal to the said 1st direction. Storing the second adjacent block;
The computer is
For each of the first adjacent block and the second adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the prediction code A method for selecting a coding unit according to any one of
(付記15) 前記コンピュータが、
前記第1領域に含まれる画素の輝度と前記隣接領域に含まれる画素の輝度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary note 15)
Pixels included in the first region are evaluated based on the difference between the luminance of the pixels included in the first region and the luminance of the pixels included in the adjacent region, and the similarity between the first region and the adjacent region is evaluated. The similarity between the first area and the second area is evaluated based on the difference between the luminance of the first area and the luminance of the pixels included in the second area. Method.
(付記16) 前記コンピュータが、
前記第1領域に含まれる画素の色差と前記隣接領域に含まれる画素の色差との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary Note 16) The computer
Pixels included in the first region are evaluated based on a difference between a color difference between pixels included in the first region and a color difference between pixels included in the adjacent region, and the similarity between the first region and the adjacent region is evaluated. The similarity between the first area and the second area is evaluated based on the difference between the luminance of the first area and the luminance of the pixels included in the second area. Method.
(付記17) 前記コンピュータが、
前記第1領域の平坦度と前記隣接領域の平坦度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域の平坦度と前記第2領域の平坦度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary Note 17)
Based on the difference between the flatness of the first region and the flatness of the adjacent region, the similarity between the first region and the adjacent region is evaluated, and the flatness of the first region and the flatness of the second region are evaluated. The method for selecting a coding unit according to any one of
(付記18) 前記コンピュータが、
前記第1領域が有する直流成分の値と前記隣接領域が有する直流成分の値との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域が有する直流成分の値と前記第2領域が有する直流成分の値との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary note 18)
The similarity between the first region and the adjacent region is evaluated based on the difference between the direct current component value of the first region and the direct current component value of the adjacent region, and the direct current component of the first region The selection of the coding unit according to any one of
(付記19) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータに、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させる、プログラム。
(Additional remark 19) From the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block, to the computer which can read the information of the said target block and the said adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A program that executes a process in which the excluded area is a candidate for a predictive coding unit.
(付記20) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータに、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させるプログラムが記録された、コンピュータにより読み取り可能な記録媒体。
(Additional remark 20) From the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block, to the computer which can read the information of the said target block and the said adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A computer-readable recording medium on which a program for executing processing for setting the excluded area as a candidate for a predictive coding unit is recorded.
10 情報処理装置
11 記憶部
12 演算部
A1 第1領域
A2 第2領域
A3 第3領域
A4 第3領域を除いた領域
A5 第1領域を除いた領域
An 隣接領域
BLo 対象ブロック
BLn 隣接ブロック
EV12、EV1n 評価
DESCRIPTION OF
Claims (10)
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする演算部と
を有する、情報処理装置。 A storage unit for storing the target block and an adjacent block adjacent to the target block;
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. And an arithmetic unit that uses the excluded area as a candidate for a predictive coding unit.
請求項1に記載の情報処理装置。 The arithmetic unit combines the first region and the second region when the similarity between the first region and the adjacent region is lower than the similarity between the first region and the second region. The information processing apparatus according to claim 1, wherein the third area and the area obtained by removing the third area from the target block are candidates for predictive coding units.
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
請求項1又は2に記載の情報処理装置。 The first area is an area that occupies 1/4 of the target block on the boundary side,
The information processing apparatus according to claim 1, wherein the second area and the adjacent area are areas having the same size as the first area.
前記演算部は、前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
請求項1〜3のいずれか1項に記載の情報処理装置。 The storage unit includes a first adjacent block adjacent to the target block in a first direction and a second adjacent adjacent to the target block in a second direction orthogonal to the first direction. Remember block and
The arithmetic unit evaluates the similarity between the first area and the adjacent area and the similarity between the first area and the second area for each of the first adjacent block and the second adjacent block. The information processing apparatus according to claim 1, wherein a candidate for the predictive coding unit is determined.
請求項1〜4のいずれか1項に記載の情報処理装置。 The computing unit evaluates similarity between the first region and the adjacent region based on a difference between a luminance of a pixel included in the first region and a luminance of a pixel included in the adjacent region. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the region and the luminance of the pixel included in the second region. The information processing apparatus described in 1.
請求項1〜4のいずれか1項に記載の情報処理装置。 The computing unit evaluates the similarity between the first region and the adjacent region based on a difference between a color difference between pixels included in the first region and a color difference between pixels included in the adjacent region, The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the region and the luminance of the pixel included in the second region. The information processing apparatus described in 1.
請求項1〜4のいずれか1項に記載の情報処理装置。 The computing unit evaluates the similarity between the first region and the adjacent region based on the difference between the flatness of the first region and the flatness of the adjacent region, and the flatness of the first region and the flatness of the first region The information processing apparatus according to claim 1, wherein the similarity between the first area and the second area is evaluated based on a difference from the flatness of the second area.
請求項1〜4のいずれか1項に記載の情報処理装置。 The computing unit evaluates the similarity between the first region and the adjacent region based on a difference between a direct current component value of the first region and a direct current component value of the adjacent region. The similarity between the first region and the second region is evaluated based on a difference between a DC component value of the region and a DC component value of the second region. The information processing apparatus described in 1.
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
符号化単位の選択方法。 A computer that can read out information on the target block and the adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block.
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A coding unit selection method in which the excluded area is a candidate for a predictive coding unit.
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させる、プログラム。 From the storage unit that stores the target block and the adjacent block adjacent to the target block, to the computer that can read the information of the target block and the adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A program that executes a process in which the excluded area is a candidate for a predictive coding unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014009998A JP6248648B2 (en) | 2014-01-23 | 2014-01-23 | Information processing apparatus, coding unit selection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014009998A JP6248648B2 (en) | 2014-01-23 | 2014-01-23 | Information processing apparatus, coding unit selection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015139117A true JP2015139117A (en) | 2015-07-30 |
JP6248648B2 JP6248648B2 (en) | 2017-12-20 |
Family
ID=53769850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014009998A Expired - Fee Related JP6248648B2 (en) | 2014-01-23 | 2014-01-23 | Information processing apparatus, coding unit selection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248648B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299098A (en) * | 2002-04-04 | 2003-10-17 | Sony Corp | Data processing apparatus, method therefor, program, and recording medium |
JP2007067469A (en) * | 2005-08-29 | 2007-03-15 | Nippon Telegr & Teleph Corp <Ntt> | In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program |
JP2012070277A (en) * | 2010-09-24 | 2012-04-05 | Jvc Kenwood Corp | Video encoding device, video encoding method and video encoding program |
JP2012114590A (en) * | 2010-11-22 | 2012-06-14 | Jvc Kenwood Corp | Moving image encoder, moving image encoding method and moving image encoding program |
JP2012114591A (en) * | 2010-11-22 | 2012-06-14 | Jvc Kenwood Corp | Moving image decoder, moving image decoding method and moving image decoding program |
JP2012142865A (en) * | 2011-01-05 | 2012-07-26 | Sony Corp | Image processing apparatus and image processing method |
JP2013232967A (en) * | 2010-04-07 | 2013-11-14 | Jvc Kenwood Corp | Moving image decoding device, moving image decoding method, and moving image decoding program |
-
2014
- 2014-01-23 JP JP2014009998A patent/JP6248648B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299098A (en) * | 2002-04-04 | 2003-10-17 | Sony Corp | Data processing apparatus, method therefor, program, and recording medium |
JP2007067469A (en) * | 2005-08-29 | 2007-03-15 | Nippon Telegr & Teleph Corp <Ntt> | In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program |
JP2013232967A (en) * | 2010-04-07 | 2013-11-14 | Jvc Kenwood Corp | Moving image decoding device, moving image decoding method, and moving image decoding program |
JP2012070277A (en) * | 2010-09-24 | 2012-04-05 | Jvc Kenwood Corp | Video encoding device, video encoding method and video encoding program |
JP2012114590A (en) * | 2010-11-22 | 2012-06-14 | Jvc Kenwood Corp | Moving image encoder, moving image encoding method and moving image encoding program |
JP2012114591A (en) * | 2010-11-22 | 2012-06-14 | Jvc Kenwood Corp | Moving image decoder, moving image decoding method and moving image decoding program |
JP2012142865A (en) * | 2011-01-05 | 2012-07-26 | Sony Corp | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6248648B2 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI717586B (en) | Deriving motion vector information at a video decoder | |
KR101945894B1 (en) | Picture prediction method and related apparatus | |
JP2022020630A (en) | Method and apparatus for encoding/decoding image | |
RU2696237C2 (en) | Video decoding method | |
CN113784132B (en) | Method and apparatus for motion vector rounding, truncation, and storage for inter prediction | |
KR100714698B1 (en) | Enhanced motion estimation method, video encoding method and apparatus using the same | |
WO2014054267A1 (en) | Image coding device and image coding method | |
KR20190090728A (en) | A method and an apparatus for processing a video signal using subblock-based motion compensation | |
JP7482536B2 (en) | Shape-adaptive discrete cosine transform for geometric partitioning with an adaptive number of regions. | |
KR20190116101A (en) | Method and apparatus for image encoding/decoding based on affine model | |
JP2022502899A (en) | Video signal coding / decoding method and equipment for that | |
TW201924332A (en) | Guided filter for video coding and processing | |
EP3970370A1 (en) | Gradient-based prediction refinement for video coding | |
CN114303380A (en) | Encoder, decoder and corresponding methods for CABAC coding of indices of geometric partitioning flags | |
CN109889838B (en) | HEVC (high efficiency video coding) rapid coding method based on ROI (region of interest) | |
KR20180099369A (en) | Method for video rate control, and video coding method and apparatus the same | |
US20160057429A1 (en) | Coding apparatus, method, computer product, and computer system | |
CN113615194A (en) | DMVR using decimated prediction blocks | |
Podder et al. | Fast intermode selection for HEVC video coding using phase correlation | |
JP6248648B2 (en) | Information processing apparatus, coding unit selection method, and program | |
JP2013207402A (en) | Image encoding device and program | |
JP2017073602A (en) | Moving image coding apparatus, moving image coding method, and computer program for moving image coding | |
JP6200220B2 (en) | Image processing apparatus, encoding apparatus, decoding apparatus, and program | |
KR102217225B1 (en) | Method for intra-prediction, and apparatus thereof | |
EP2899975A1 (en) | Video encoder with intra-prediction pre-processing and methods for use therewith |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6248648 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |