JP2015139117A - Information processing apparatus, selection method of coding unit, and program - Google Patents

Information processing apparatus, selection method of coding unit, and program Download PDF

Info

Publication number
JP2015139117A
JP2015139117A JP2014009998A JP2014009998A JP2015139117A JP 2015139117 A JP2015139117 A JP 2015139117A JP 2014009998 A JP2014009998 A JP 2014009998A JP 2014009998 A JP2014009998 A JP 2014009998A JP 2015139117 A JP2015139117 A JP 2015139117A
Authority
JP
Japan
Prior art keywords
region
adjacent
area
similarity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014009998A
Other languages
Japanese (ja)
Other versions
JP6248648B2 (en
Inventor
芳 印
Kaoru In
芳 印
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014009998A priority Critical patent/JP6248648B2/en
Publication of JP2015139117A publication Critical patent/JP2015139117A/en
Application granted granted Critical
Publication of JP6248648B2 publication Critical patent/JP6248648B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce an arithmetic load relating to prediction coding.SOLUTION: There is provided an information processing apparatus 10 which includes: a storage part 11 for storing an object block BLo and an adjacent block BLn adjacent to the object block BLo; and an arithmetic part 12 which evaluates similarity between a first area A1, in the object block BLo, in contact with a boundary with the adjacent block BLn and an adjacent area An, in the adjacent block BLn, in contact with the boundary, evaluates similarity between the first area A1 and a second area A2, in the object block BLo, in contact with the first area A1, and defines the first area A1 and an area A5 excluding the first area A1 from the inside of the object block BLo as candidates of a unit of prediction coding in the case where the similarity between the first area A1 and the adjacent area An is higher than the similarity between the first area A1 and the second area A2.

Description

本発明は、情報処理装置、符号化単位の選択方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, a coding unit selection method, and a program.

デジタル放送や映像記録などの分野では、AVC(Advanced Video Coding)/H.264と呼ばれる標準規格で規定された動画圧縮技術(以下、AVC方式)が広く利用されている。近年、この標準規格の後継であるHEVC(High Efficiency Video Coding)/H.265と呼ばれる動画圧縮技術(以下、HEVC方式)に注目が集まっている。HEVC方式は、AVC方式に比べて2倍の圧縮率を実現することを目指している。   In the fields of digital broadcasting and video recording, AVC (Advanced Video Coding) / H. A video compression technique (hereinafter referred to as AVC method) defined by a standard called H.264 is widely used. In recent years, HEVC (High Efficiency Video Coding) / H. Attention has been focused on a moving picture compression technology called H.265 (hereinafter referred to as HEVC method). The HEVC method aims to realize a compression rate twice that of the AVC method.

上記のような高い圧縮率を実現するため、HEVC方式では、符号化の単位となるブロックの決め方に柔軟性を持たせる工夫が追加された。AVC方式では、16×16ピクセルのマクロブロックを単位としてピクチャを分割し、そのマクロブロックを符号化の単位として利用していた。HEVC方式では、CTU(Coding Tree Unit)と呼ばれる固定サイズのブロックを単位としてピクチャを分割し、さらにCTUをCU(Coding Unit)と呼ばれる単位に分割する。このCUが符号化の単位となる。   In order to realize the high compression rate as described above, in the HEVC system, a device has been added to give flexibility in how to determine a block as a unit of encoding. In the AVC method, a picture is divided in units of 16 × 16 pixel macroblocks, and the macroblocks are used as encoding units. In the HEVC scheme, a picture is divided in units of fixed-size blocks called CTU (Coding Tree Unit), and the CTU is further divided into units called CU (Coding Unit). This CU is a unit of encoding.

CTUの分割は、画像の特徴に応じて再帰的に行われる。つまり、CTUを4つのブロックに分割し、さらに、分割して得られたブロックをさらに4つのブロックに分割する処理を繰り返し行って画像の特徴に適したサイズのCUが決定される。なお、CUのサイズは、64×64ピクセル(CU depth 0)、32×32ピクセル(CU depth 1)、16×16ピクセル(CU depth 2)、8×8ピクセル(CU depth 3)のいずれかである。このような分割の仕組みを四分木(Quad Tree)ブロック分割と呼ぶ場合がある。   The division of the CTU is performed recursively according to the image characteristics. That is, the CTU is divided into four blocks, and the process of dividing the block obtained by the division into four blocks is repeatedly performed to determine a CU having a size suitable for the feature of the image. The size of the CU is 64 × 64 pixels (CU depth 0), 32 × 32 pixels (CU depth 1), 16 × 16 pixels (CU depth 2), or 8 × 8 pixels (CU depth 3). is there. Such a division mechanism is sometimes referred to as quad tree block division.

四分木ブロック分割を採用することで、例えば、物体の輪郭などのエッジ部及びその近傍を小さなCU単位で符号化し、空などの平坦な部分を大きなCU単位で符号化することが可能になる。その結果、符号量を抑えつつ、高画質を実現することが可能になる。また、HEVC方式では、CU毎に設定されたPU(Prediction Unit)と呼ばれるブロックを単位としてフレーム間予測符号化(以下、インター予測)が行われる。各CUには、少なくとも1つのPUが設定される。   By adopting quadtree block division, for example, it is possible to encode an edge portion such as the contour of an object and its vicinity in small CU units, and to encode a flat portion such as the sky in large CU units. . As a result, it is possible to achieve high image quality while suppressing the code amount. In the HEVC scheme, inter-frame prediction encoding (hereinafter, inter prediction) is performed in units of blocks called PUs (Prediction Units) set for each CU. Each CU is set with at least one PU.

PUは、CUと同一の領域(分割なし)、CUを縦方向又は横方向に2分割した領域、CUを縦方向又は横方向に1対3又は3対1の割合で分割(以下、非対称分割)した領域のいずれかに設定される。つまり、7種類の分割方法で得られるPUをインター予測に利用することができる。また、上記のようにCUのサイズが4種類あるため、HEVC方式では、合計で28種類のPUをインター予測に利用することができる。   PU is the same area as CU (no division), CU is divided into 2 parts in vertical or horizontal direction, CU is divided in 1 to 3 or 3 to 1 ratio in the vertical or horizontal direction (hereinafter asymmetric division) ) Is set to one of the areas. That is, PUs obtained by seven types of division methods can be used for inter prediction. In addition, since there are four types of CU sizes as described above, in the HEVC scheme, a total of 28 types of PUs can be used for inter prediction.

以下、CUと同一の領域に設定されたPUをPU[2N×2N]と表記する。また、CUを縦方向に2分割した領域のPUをPU[N×2N]と表記する。また、CUを横方向に2分割した領域のPUをPU[2N×N]と表記する。また、CUを縦方向に非対称分割した領域のうち、左側のPUをPU[nL×2N]と表記し、右側のPUをPU[nR×2N]と表記する。また、CUを横方向に非対称分割した領域のうち、上側のPUをPU[2N×nU]と表記し、下側のPUをPU[2N×nD]と表記する。   Hereinafter, the PU set in the same area as the CU is denoted as PU [2N × 2N]. In addition, a PU in a region obtained by dividing the CU into two in the vertical direction is denoted as PU [N × 2N]. In addition, a PU in a region obtained by dividing the CU into two in the horizontal direction is denoted as PU [2N × N]. Also, in the region in which the CU is asymmetrically divided in the vertical direction, the left PU is expressed as PU [nL × 2N], and the right PU is expressed as PU [nR × 2N]. In addition, in the region in which the CU is asymmetrically divided in the horizontal direction, the upper PU is expressed as PU [2N × nU], and the lower PU is expressed as PU [2N × nD].

このように、HEVC方式では、様々なサイズの単位ブロック(PU)をインター予測に利用できるため、AVC方式に比べて効率的な動画像の圧縮が可能になる。
ところで、インター予測に関し、現在ブロックと複数個の隣接パーティションとの空間類似度を計算し、空間類似度をもとに選択した少なくとも1つの隣接パーティションの動きベクトルを現在ブロックの動きベクトルと推定する方法が提案されている。また、予測信号と動画像信号との差分情報から生成したコスト値をもとに少なくとも2つの予測モードを選択し、選択した予測モードに関する差分情報の周波数情報をもとに最適な予測モードを選択する方法が提案されている。
As described above, in the HEVC scheme, since unit blocks (PUs) of various sizes can be used for inter prediction, it is possible to compress moving images more efficiently than in the AVC scheme.
By the way, with respect to inter prediction, a method of calculating a spatial similarity between a current block and a plurality of adjacent partitions and estimating a motion vector of at least one adjacent partition selected based on the spatial similarity as a motion vector of the current block. Has been proposed. In addition, at least two prediction modes are selected based on the cost value generated from the difference information between the prediction signal and the video signal, and the optimum prediction mode is selected based on the frequency information of the difference information regarding the selected prediction mode. A method has been proposed.

特表2010−515399号公報Special table 2010-515399 gazette 特開2006−180195号公報JP 2006-180195 A

上記のように、様々なサイズのPUを利用することでインター予測の精度を高めることができる。一方、PUの種類が28種類もあるために、好適なPUの種類を選び出す処理にかかる負荷が大きい。そこで、1つの側面によれば、本発明の目的は、予測符号化にかかる演算負荷を低減することが可能な情報処理装置、符号化単位の選択方法、及びプログラムを提供することにある。   As described above, the accuracy of inter prediction can be increased by using PUs of various sizes. On the other hand, since there are 28 types of PUs, the load on the process of selecting a suitable PU type is heavy. Therefore, according to one aspect, an object of the present invention is to provide an information processing apparatus, a coding unit selection method, and a program that can reduce a calculation load related to predictive coding.

本開示の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部と、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする演算部とを有する、情報処理装置が提供される。   According to one aspect of the present disclosure, a storage unit that stores a target block and an adjacent block adjacent to the target block, a first area that is in contact with the boundary of the adjacent block in the target block, and an intermediate block To evaluate the similarity between the adjacent area in contact with the boundary and evaluate the similarity between the first area and the second area in contact with the first area in the target block, and the similarity between the first area and the adjacent area Is higher than the similarity between the first region and the second region, the first region and a calculation unit that uses the region excluding the first region from the target block as a candidate for a predictive coding unit, An information processing apparatus is provided.

また、本開示の他の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、対象ブロック及び隣接ブロックの情報を読み出し可能なコンピュータが、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする符号化単位の選択方法が提供される。   According to another aspect of the present disclosure, a computer that can read out information on a target block and an adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block. The first area that is in contact with the boundary between adjacent blocks and the adjacent area that is in contact with the boundary among adjacent blocks is evaluated, and the first area and the second area that is in contact with the first area in the target block When the similarity between the first area and the adjacent area is higher than the similarity between the first area and the second area, the first area and the first area among the target blocks are evaluated. There is provided a method for selecting a coding unit in which a region excluding is used as a candidate for a predictive coding unit.

また、本開示の他の1つの側面によれば、対象ブロックと、対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、対象ブロック及び隣接ブロックの情報を読み出し可能なコンピュータに、対象ブロックの中で隣接ブロックとの境界に接する第1領域と、隣接ブロックの中で境界に接する隣接領域との類似性を評価し、第1領域と、対象ブロックの中で第1領域に接する第2領域との類似性を評価し、第1領域と隣接領域との類似性が、第1領域と第2領域との類似性よりも高い場合に、第1領域、及び対象ブロックの中から第1領域を除いた領域を予測符号化の単位の候補とする処理を実行させる、プログラムが提供される。   According to another aspect of the present disclosure, a computer that can read out information on a target block and an adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block. The first area that is in contact with the boundary between adjacent blocks and the adjacent area that is in contact with the boundary among adjacent blocks is evaluated, and the first area and the second area that is in contact with the first area in the target block When the similarity between the first area and the adjacent area is higher than the similarity between the first area and the second area, the first area and the first area among the target blocks are evaluated. There is provided a program that executes a process in which a region excluding the region is a candidate for a predictive coding unit.

本発明によれば、予測符号化にかかる演算負荷を低減することができる。   According to the present invention, it is possible to reduce the calculation load for predictive coding.

第1実施形態に係る情報処理装置の一例を示した図である。It is the figure which showed an example of the information processing apparatus which concerns on 1st Embodiment. CUの種類について説明するための図である。It is a figure for demonstrating the kind of CU. PUの種類について説明するための図である。It is a figure for demonstrating the kind of PU. PUに基づく動き検出について説明するための図である。It is a figure for demonstrating the motion detection based on PU. CUの分割処理について説明するための第1のフロー図である。It is a 1st flowchart for demonstrating the division | segmentation process of CU. CUの分割処理について説明するための第2のフロー図である。It is a 2nd flowchart for demonstrating the division | segmentation process of CU. 第2実施形態に係る情報処理装置が有する機能を実現可能なハードウェアの一例を示した図である。It is the figure which showed an example of the hardware which can implement | achieve the function which the information processing apparatus which concerns on 2nd Embodiment has. 第2実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。It is the block diagram which showed an example of the function which the information processing apparatus which concerns on 2nd Embodiment has. 第2実施形態に係るPUの分割方法(縦方向分割)について説明するための図である。It is a figure for demonstrating the division | segmentation method (vertical direction division | segmentation) of PU which concerns on 2nd Embodiment. 第2実施形態に係るPUの分割方法(横方向分割)について説明するための図である。It is a figure for demonstrating the division | segmentation method (horizontal direction division | segmentation) of PU which concerns on 2nd Embodiment. 第2実施形態に係る類似性の評価について説明するための図である。It is a figure for demonstrating the evaluation of the similarity which concerns on 2nd Embodiment. 第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第1のフロー図である。It is a 1st flowchart for demonstrating the division | segmentation process of CU which the information processing apparatus which concerns on 2nd Embodiment performs. 第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第2のフロー図である。It is a 2nd flowchart for demonstrating the division | segmentation process of CU which the information processing apparatus which concerns on 2nd Embodiment performs. 第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第3のフロー図である。It is a 3rd flowchart for demonstrating the division | segmentation process of CU which the information processing apparatus which concerns on 2nd Embodiment performs. 第3実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。It is the block diagram which showed an example of the function which the information processing apparatus which concerns on 3rd Embodiment has. 第3実施形態に係るPUの分割方法(縦方向分割)及び類似性の評価について説明するための図である。It is a figure for demonstrating the division | segmentation method (vertical direction division | segmentation) and similarity evaluation which concern on 3rd Embodiment. 第3実施形態に係るPUの分割方法(横方向分割)及び類似性の評価について説明するための図である。It is a figure for demonstrating the division | segmentation method (horizontal direction division | segmentation) and similarity evaluation which concern on 3rd Embodiment.

以下に添付図面を参照しながら、本発明の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。   Embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, about the element which has the substantially same function in this specification and drawing, duplication description may be abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.第1実施形態>
図1を参照しながら、第1実施形態について説明する。図1は、第1実施形態に係る情報処理装置の一例を示した図である。なお、図1に例示した情報処理装置10は、第1実施形態に係る情報処理装置の一例である。
<1. First Embodiment>
The first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an information processing apparatus according to the first embodiment. Note that the information processing apparatus 10 illustrated in FIG. 1 is an example of an information processing apparatus according to the first embodiment.

図1に示すように、情報処理装置10は、記憶部11及び演算部12を有する。
なお、記憶部11は、RAM(Random Access Memory)などの揮発性記憶装置、或いは、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置である。演算部12は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。但し、演算部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路であってもよい。演算部12は、例えば、記憶部11又は他のメモリに記憶されたプログラムを実行する。
As illustrated in FIG. 1, the information processing apparatus 10 includes a storage unit 11 and a calculation unit 12.
The storage unit 11 is a volatile storage device such as a RAM (Random Access Memory) or a non-volatile storage device such as an HDD (Hard Disk Drive) or a flash memory. The arithmetic unit 12 is a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor). However, the arithmetic unit 12 may be an electronic circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). For example, the calculation unit 12 executes a program stored in the storage unit 11 or another memory.

記憶部11は、対象ブロックBLoと、対象ブロックBLoに隣接する隣接ブロックBLnとを記憶する。対象ブロックBLoは、例えば、符号化対象のCUである。隣接ブロックBLnは、例えば、対象ブロックBLoに隣接するCUである。図1の例では、説明の都合上、対象ブロックBLoの上側に位置する1つの隣接ブロックBLnだけを示している。もちろん、対象ブロックBLoの下側、左側、右側に隣接するブロックに対しても第1実施形態に係る技術を同様に適用することができる。   The storage unit 11 stores the target block BLo and the adjacent block BLn adjacent to the target block BLo. The target block BLo is, for example, an encoding target CU. The adjacent block BLn is, for example, a CU adjacent to the target block BLo. In the example of FIG. 1, for convenience of explanation, only one adjacent block BLn positioned above the target block BLo is shown. Of course, the technique according to the first embodiment can be similarly applied to blocks adjacent to the lower side, the left side, and the right side of the target block BLo.

演算部12は、対象ブロックBLoの中で隣接ブロックBLnとの境界に接する第1領域A1と、隣接ブロックBLnの中で境界に接する隣接領域Anとの類似性を評価する。図1の例では、対象ブロックBLoのサイズがN×Nピクセルである。また、第1領域A1及び隣接領域Anのサイズは、N×(N/4)ピクセルである。演算部12は、例えば、ピクセル毎に、第1領域A1の輝度と隣接領域Anの輝度との間の差分絶対値和を計算する。そして、演算部12は、差分絶対値和が小さいほど類似性が高いと評価する。   The computing unit 12 evaluates the similarity between the first area A1 in contact with the boundary with the adjacent block BLn in the target block BLo and the adjacent area An in contact with the boundary in the adjacent block BLn. In the example of FIG. 1, the size of the target block BLo is N × N pixels. The size of the first area A1 and the adjacent area An is N × (N / 4) pixels. For example, the calculation unit 12 calculates the sum of absolute differences between the luminance of the first region A1 and the luminance of the adjacent region An for each pixel. And the calculating part 12 evaluates that similarity is so high that a difference absolute value sum is small.

また、演算部12は、第1領域A1と、対象ブロックBLoの中で第1領域A1に接する第2領域A2との類似性を評価する。図1の例では、第2領域A2のサイズは、N×(N/4)ピクセルである。演算部12は、例えば、ピクセル毎に、第1領域A1の輝度と第2領域A2の輝度との間の差分絶対値和を計算する。そして、演算部12は、差分絶対値和が小さいほど類似性が高いと評価する。なお、輝度の差分絶対値和を類似性の評価に利用する方法を例示したが、色差を利用する方法や領域の平坦度などを利用する方法も適用可能である。   In addition, the calculation unit 12 evaluates the similarity between the first area A1 and the second area A2 in contact with the first area A1 in the target block BLo. In the example of FIG. 1, the size of the second area A2 is N × (N / 4) pixels. For example, the calculation unit 12 calculates the sum of absolute differences between the luminance of the first region A1 and the luminance of the second region A2 for each pixel. And the calculating part 12 evaluates that similarity is so high that a difference absolute value sum is small. Note that although a method of using the sum of absolute differences of luminance for similarity evaluation is illustrated, a method of using a color difference or a method of using flatness of an area is also applicable.

演算部12は、第1領域A1と隣接領域Anとの類似性が、第1領域A1と第2領域A2との類似性よりも高い場合に、第1領域A1、及び対象ブロックBLoの中から第1領域A1を除いた領域A5を予測符号化の単位の候補とする。また、演算部12は、第1領域A1と隣接領域Anとの類似性が、第1領域A1と第2領域A2との類似性よりも低い場合に、第1領域A1と第2領域A2とを結合した第3領域A3を予測符号化の単位の候補とする。さらに、演算部12は、対象ブロックBLoの中から第3領域A3を除いた領域A4を予測符号化の単位の候補とする。   When the similarity between the first area A1 and the adjacent area An is higher than the similarity between the first area A1 and the second area A2, the calculation unit 12 selects the first area A1 and the target block BLo from the first area A1 and the target block BLo. A region A5 excluding the first region A1 is set as a candidate for a predictive coding unit. In addition, when the similarity between the first region A1 and the adjacent region An is lower than the similarity between the first region A1 and the second region A2, the calculation unit 12 determines whether the first region A1 and the second region A2 A third region A3 obtained by combining the two is set as a candidate for a predictive coding unit. Further, the calculation unit 12 sets a region A4 obtained by removing the third region A3 from the target block BLo as a candidate for a predictive coding unit.

例えば、第1領域A1と第2領域A2との類似性に対する評価の高さをEV12と表記し、第1領域A1と隣接領域Anとの類似性に対する評価の高さをEV1nと表記する。演算部12は、評価EV12が評価EV1nよりも高いか否かを判定する。そして、評価EV12が評価EV1nよりも低い場合、演算部12は、第1領域A1及び領域A5を予測符号化の単位の候補とする。一方、評価EV12が評価EV1nよりも高い場合、演算部12は、第3領域A3及び領域A4を予測符号化の単位の候補とする。なお、予測符号化の単位は、例えば、PUである。   For example, the evaluation height for the similarity between the first region A1 and the second region A2 is expressed as EV12, and the evaluation height for the similarity between the first region A1 and the adjacent region An is expressed as EV1n. The calculation unit 12 determines whether or not the evaluation EV12 is higher than the evaluation EV1n. When the evaluation EV12 is lower than the evaluation EV1n, the calculation unit 12 sets the first region A1 and the region A5 as prediction encoding unit candidates. On the other hand, when the evaluation EV12 is higher than the evaluation EV1n, the calculation unit 12 sets the third region A3 and the region A4 as candidates for prediction encoding units. Note that the unit of predictive coding is, for example, PU.

例えば、予測符号化の単位を選択する方法として、対象ブロックBLoを上下に2分割する方法と、上下に1対3の割合で分割する方法とがある場合に、上記の仕組みを適用すれば、類似性の評価に基づいて一方の方法に絞り込まれる。例えば、予測符号化の単位がPUである場合、動き検出に基づく評価の対象となるPUの種類が絞り込まれる。その結果、好適なPUを選出する処理の負担が軽減され、予測符号化にかかる演算負荷が低減される。なお、対象ブロックBLoの下側、右側、左側に位置する隣接ブロックについても同様の処理を実行することで、さらに効果が高まる。   For example, when the above mechanism is applied when there are a method of selecting a prediction encoding unit, a method of dividing the target block BLo into two parts vertically and a method of dividing the target block BLo up and down at a ratio of 1: 3, Narrow down to one method based on similarity assessment. For example, when the unit of predictive coding is a PU, the types of PUs to be evaluated based on motion detection are narrowed down. As a result, the burden of processing for selecting a suitable PU is reduced, and the calculation load for predictive coding is reduced. It should be noted that the effect is further enhanced by executing the same processing for adjacent blocks located below, on the right side, and on the left side of the target block BLo.

以上、第1実施形態について説明した。
<2.第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、HEVC方式におけるPUの決定方法(CUの分割方法)に関する。
The first embodiment has been described above.
<2. Second Embodiment>
Next, a second embodiment will be described. The second embodiment relates to a PU determination method (CU division method) in the HEVC scheme.

[2−1.CUの分割方法]
図2〜図6を参照しながら、CUの分割方法について説明する。
(CUの種類(CU depth))
HEVC方式では、輝度成分及び色差成分を有するピクチャを固定サイズのCTU単位で分割し、CTU単位で符号化や復号が行われる。CTUは、輝度成分のCTB(Coding Tree Block)と色差成分のCTBとを含む。CTBは、DCT(Discrete Cosine Transform)変換や量子化などの処理単位となるサブブロックである。CTBのサイズには、16×16ピクセル、32×32ピクセル、64×64ピクセルの3種類がある。CTUは、図2に示すように、四分木形式で階層的に分割される。なお、図2は、CUの種類について説明するための図である。
[2-1. CU division method]
A method of dividing a CU will be described with reference to FIGS.
(CU type (CU depth))
In the HEVC method, a picture having a luminance component and a color difference component is divided in CTU units of a fixed size, and encoding and decoding are performed in CTU units. The CTU includes a luminance component CTB (Coding Tree Block) and a color difference component CTB. CTB is a sub-block that is a processing unit such as DCT (Discrete Cosine Transform) conversion and quantization. There are three types of CTB sizes: 16 × 16 pixels, 32 × 32 pixels, and 64 × 64 pixels. The CTU is hierarchically divided in a quadtree format as shown in FIG. FIG. 2 is a diagram for explaining the types of CUs.

階層の深さは「CU depth」で表現される。最上位の階層は「CU depth 0」と表現される。「CU depth 0」より下位の階層は、順に「CU depth 1」、「CU depth 2」、「CU depth 3」と表現される。CTUのサイズが64×64である場合、CU depth 0のCUは、サイズが64×64となる。CU depth 1のCUは、サイズが32×32となる。CU depth 2のCUは、サイズが16×16となる。CU depth 3のCUは、サイズが最小の8×8となる。CUの最小サイズは、シーケンスを通じて固定される。   The depth of the hierarchy is expressed by “CU depth”. The highest hierarchy is expressed as “CU depth 0”. Hierarchies lower than “CU depth 0” are expressed in order as “CU depth 1”, “CU depth 2”, and “CU depth 3”. If the CTU size is 64 × 64, the CU depth 0 CU has a size of 64 × 64. The CU depth 1 CU has a size of 32 × 32. The CU depth 2 CU has a size of 16 × 16. The CU depth 3 CU has a minimum size of 8 × 8. The minimum size of the CU is fixed throughout the sequence.

(PUの種類)
PUは、CUを分割した領域に設定される。分割方法(“分割しない”場合も含む。)には、図3に示した7種類の方法がある。なお、図3は、PUの種類について説明するための図である。図3の(1)は、CUを分割せずにCU全体をPUとする方法である。CUのサイズが2N×2Nピクセルである場合、PUのサイズも2N×2Nピクセルとなる。この種類をPU[2N×2N]と表記する。図3の(2)は、CUを横方向に2分割した2つの領域をそれぞれPUとする方法である。PUのサイズはN×2Nピクセルとなる。この種類をPU[N×2N]と表記する。
(PU type)
PU is set to the area | region which divided | segmented CU. There are seven types of division methods (including the case of “no division”) as shown in FIG. FIG. 3 is a diagram for explaining the types of PUs. (1) in FIG. 3 is a method in which the entire CU is a PU without dividing the CU. When the size of the CU is 2N × 2N pixels, the size of the PU is also 2N × 2N pixels. This type is denoted as PU [2N × 2N]. (2) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction are used as PUs. The size of the PU is N × 2N pixels. This type is expressed as PU [N × 2N].

図3の(3)は、CUを縦方向に2分割した2つの領域をそれぞれPUとする方法である。PUのサイズは2N×Nピクセルとなる。この種類をPU[2N×N]と表記する。図3の(4)は、CUを横方向に右側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。右側に位置するPUのサイズは(N/2)×2Nピクセルとなる。一方、左側に位置するPUのサイズは(3N/2)×2Nピクセルとなる。この種類をPU[nR×2N]と表記する。   (3) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the vertical direction are used as PUs. The size of the PU is 2N × N pixels. This type is denoted as PU [2N × N]. (4) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction from the right side at a ratio of 1: 3 are used as PUs. The size of the PU located on the right side is (N / 2) × 2N pixels. On the other hand, the size of the PU located on the left side is (3N / 2) × 2N pixels. This type is denoted as PU [nR × 2N].

図3の(5)は、CUを縦方向に上側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。上側に位置するPUのサイズは2N×(N/2)ピクセルとなる。一方、下側に位置するPUのサイズは2N×(3N/2)ピクセルとなる。この種類をPU[2N×nU]と表記する。   (5) in FIG. 3 is a method in which two regions obtained by dividing a CU into two parts in the vertical direction from the upper side at a ratio of 1: 3 are used as PUs. The size of the PU located on the upper side is 2N × (N / 2) pixels. On the other hand, the size of the PU located on the lower side is 2N × (3N / 2) pixels. This type is denoted as PU [2N × nU].

図3の(6)は、CUを横方向に左側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。左側に位置するPUのサイズは(N/2)×2Nピクセルとなる。一方、右側に位置するPUのサイズは(3N/2)×2Nピクセルとなる。この種類をPU[nL×2N]と表記する。   (6) in FIG. 3 is a method in which two regions obtained by dividing a CU into two in the horizontal direction from the left side in a ratio of 1: 3 are used as PUs. The size of the PU located on the left side is (N / 2) × 2N pixels. On the other hand, the size of the PU located on the right side is (3N / 2) × 2N pixels. This type is denoted as PU [nL × 2N].

図3の(7)は、CUを縦方向に下側から1対3の割合で2分割した2つの領域をそれぞれPUとする方法である。下側に位置するPUのサイズは2N×(N/2)ピクセルとなる。一方、上側に位置するPUのサイズは2N×(3N/2)ピクセルとなる。この種類をPU[2N×nD]と表記する。   (7) in FIG. 3 is a method in which two regions obtained by dividing a CU into two parts in the vertical direction from the lower side at a ratio of 1: 3 are used as PUs. The size of the PU located on the lower side is 2N × (N / 2) pixels. On the other hand, the size of the PU located on the upper side is 2N × (3N / 2) pixels. This type is denoted as PU [2N × nD].

上記のように、各種PUのサイズはCUのサイズに依存する。CU depth 0の場合、2N=64である。CU depth 1の場合、2N=32である。CU depth 2の場合、2N=16である。CU depth 3の場合、2N=8である。従って、サイズの違いも考慮すると、PUの種類は28通り存在する。   As described above, the sizes of various PUs depend on the size of the CU. In the case of CU depth 0, 2N = 64. In the case of CU depth 1, 2N = 32. In the case of CU depth 2, 2N = 16. For CU depth 3, 2N = 8. Therefore, considering the difference in size, there are 28 types of PUs.

動き検出は、図4に示すように、PUを単位として実行される。なお、図4は、PUに基づく動き検出について説明するための図である。例えば、時刻Tfに対応するフレームfを符号化対象のピクチャとし、時刻Tf-1に対応するフレーム(f−1)を参照ピクチャとする。動き検出の処理では、参照ピクチャ内でPUの位置を1ピクセルずつ移動させながら類似度が計算され、最も類似度が高いブロックが抽出される。そして、そのPUに対する動きベクトルが得られる。 As shown in FIG. 4, motion detection is performed in units of PUs. FIG. 4 is a diagram for explaining motion detection based on the PU. For example, the frame f corresponding to the time T f is set as a picture to be encoded, and the frame (f−1) corresponding to the time T f−1 is set as a reference picture. In the motion detection process, the similarity is calculated while moving the position of the PU one pixel at a time in the reference picture, and the block with the highest similarity is extracted. Then, a motion vector for the PU is obtained.

類似度の計算は、例えば、下記の式(1)で定義されるSAD(Sum of Absolute Difference)に基づいて行われる。下記の式(1)において、C(x,y)は、フレームfの座標(x,y)における輝度値である。また、R(i+x,j+y)は、フレーム(f−1)の座標(i+x,j+y)における輝度値である。なお、SADの代わりにSSD(Sum of Squared Difference)を利用する方法も考えられる。また、輝度値以外の画素値を利用する方法も考えられる。   The similarity is calculated based on, for example, SAD (Sum of Absolute Difference) defined by the following formula (1). In the following formula (1), C (x, y) is a luminance value at the coordinates (x, y) of the frame f. R (i + x, j + y) is a luminance value at the coordinates (i + x, j + y) of the frame (f−1). A method using SSD (Sum of Squared Difference) instead of SAD is also conceivable. A method using pixel values other than the luminance value is also conceivable.

Figure 2015139117
Figure 2015139117

SADが小さいほど類似度が高く、SADが大きいほど類似度が低い。従って、動き検出においては、上記のSADが最小となる参照ピクチャのブロックが抽出される。HEVC方式では、このような動き検出をPUの種類毎に何度も行って好適なPUを決める。   The smaller the SAD, the higher the similarity, and the larger the SAD, the lower the similarity. Therefore, in motion detection, a block of a reference picture that minimizes the SAD is extracted. In the HEVC method, such motion detection is performed many times for each type of PU to determine a suitable PU.

(分割処理の一例)
例えば、好適なPUの決定(CUの分割処理)は、図5及び図6に例示した処理フローに基づいて実現可能である。図5は、CUの分割処理について説明するための第1のフロー図である。図6は、CUの分割処理について説明するための第2のフロー図である。なお、ここでは、ある符号化装置が図5及び図6に示した処理を実行するものと仮定して説明を進める。
(Example of division processing)
For example, determination of a suitable PU (CU division processing) can be realized based on the processing flow illustrated in FIGS. 5 and 6. FIG. 5 is a first flowchart for explaining the CU division processing. FIG. 6 is a second flowchart for explaining the CU division processing. Here, the description will be made on the assumption that a certain coding apparatus executes the processing shown in FIGS. 5 and 6.

(S11)符号化装置は、CU depthを指定する。例えば、CUの分割処理を開始した直後の場合、符号化装置は、CU depth 0を指定する。また、CU depth k(k>0)を既に指定済みの場合、符号化装置は、CU depth (k+1)を指定する。   (S11) The encoding device specifies CU depth. For example, in the case immediately after the start of the CU division process, the encoding device specifies CU depth 0. Also, when CU depth k (k> 0) has already been specified, the encoding device specifies CU depth (k + 1).

(S12)符号化装置は、1つのCUを選択し、選択したCUを対象CU(CUO)とする。このとき、符号化装置は、未だ選択されていないCUの中から1つのCUを選択して対象CUとする。 (S12) The encoding apparatus selects one CU and sets the selected CU as a target CU (CU O ). At this time, the encoding apparatus selects one CU from among the CUs not yet selected as a target CU.

(S13)符号化装置は、対象CUをPU[2N×2N]のPUに分割する。なお、対象CUとPU[2N×2N]のPUとは同じサイズである。そのため、PUの数は1つである。符号化装置は、分割で得たPUを単位として動き検出を行い、PU毎に評価値を計算する。評価値としては、例えば、ME(Motion Estimation)コストが用いられる。   (S13) The encoding apparatus divides the target CU into PUs of PU [2N × 2N]. Note that the target CU and the PU of PU [2N × 2N] have the same size. Therefore, the number of PUs is one. The encoding device performs motion detection in units of PUs obtained by division, and calculates an evaluation value for each PU. As the evaluation value, for example, ME (Motion Estimation) cost is used.

MEコストとは、動きベクトルを表す符号量や参照画像を指定するために使う符号量の見積り値である。例えば、MEコストは、下記の式(2)で表現される。但し、Ωは、PUを符号化する際に用いる候補モードの全体集合を表す。SADは、上記の式(1)で定義される差分絶対値和である。λは、ラグランジュ未定乗数である。Rは、モードModeで符号化した場合の総符号量である。なお、ここではSADに基づくMEコストを例示したが、SSEに基づくMEコストを評価値として利用することも可能である。   The ME cost is an estimated value of a code amount used for designating a code amount representing a motion vector or a reference image. For example, the ME cost is expressed by the following formula (2). However, Ω represents the entire set of candidate modes used when encoding a PU. SAD is the sum of absolute differences defined by the above equation (1). λ is a Lagrange undetermined multiplier. R is the total code amount when encoding is performed in mode mode. In addition, although the ME cost based on SAD is illustrated here, the ME cost based on SSE can be used as an evaluation value.

MEコスト(Mode∈Ω) = SAD + λ・R
…(2)
(S14)符号化装置は、対象CUをPU[2N×N]のPUに分割する。この場合、PUは上側PUと下側PUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。
ME cost (Mode ∈ Ω) = SAD + λ · R
... (2)
(S14) The encoding apparatus divides the target CU into PUs of PU [2N × N]. In this case, the PU is divided into an upper PU and a lower PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × N]. As the evaluation value, for example, the above ME cost is used.

(S15)符号化装置は、対象CUをPU[N×2N]のPUに分割する。この場合、PUは左側PUと右側PUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[N×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S15) The encoding apparatus divides the target CU into PUs of PU [N × 2N]. In this case, the PU is divided into a left PU and a right PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [N × 2N]. As the evaluation value, for example, the above ME cost is used.

(S16)符号化装置は、PU[2N×2N]に対応する評価値、PU[2N×N]に対応する評価値、PU[N×2N]に対応する評価値を比較し、評価値が最小となる分割方法を選択する。例えば、PU[2N×2N]に対応する評価値が最小である場合、符号化装置は、分割方法としてPU[2N×2N]を選択する。   (S16) The encoding apparatus compares the evaluation value corresponding to PU [2N × 2N], the evaluation value corresponding to PU [2N × N], and the evaluation value corresponding to PU [N × 2N]. Select the smallest division method. For example, when the evaluation value corresponding to PU [2N × 2N] is the minimum, the encoding apparatus selects PU [2N × 2N] as the division method.

(S17)符号化装置は、S16の処理で、PU[2N×2N]の評価値が最小であったか否かを判定する。PU[2N×2N]の評価値が最小であった場合、処理はS18へと進む。PU[2N×2N]の評価値が最小でなかった場合、処理は、図6のS22へと進む。   (S17) The encoding device determines whether or not the evaluation value of PU [2N × 2N] is the minimum in the process of S16. If the evaluation value of PU [2N × 2N] is the minimum, the process proceeds to S18. If the evaluation value of PU [2N × 2N] is not the minimum, the process proceeds to S22 in FIG.

(S18)符号化装置は、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S18) The encoding apparatus divides the target CU into PUs of PU [2N × nU]. In this case, the PU is divided into an upper 1/4 PU and a lower 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nU]. As the evaluation value, for example, the above ME cost is used.

(S19)符号化装置は、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S19) The encoding apparatus divides the target CU into PUs of PU [2N × nD]. In this case, the PU is divided into an upper 3/4 PU and a lower 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nD]. As the evaluation value, for example, the above ME cost is used.

(S20)符号化装置は、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S20の処理が完了すると、処理は、図6のS21へと進む。   (S20) The encoding apparatus divides the target CU into PUs of PU [nL × 2N]. In this case, the PU is divided into a left 1/4 PU and a right 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nL × 2N]. As the evaluation value, for example, the above ME cost is used. When the process of S20 is completed, the process proceeds to S21 of FIG.

(S21)符号化装置は、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S21の処理が完了すると、処理はS27へと進む。   (S21) The encoding apparatus divides the target CU into PUs of PU [nR × 2N]. In this case, the PU is divided into a left 3/4 PU and a right 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nR × 2N]. As the evaluation value, for example, the above ME cost is used. When the process of S21 is completed, the process proceeds to S27.

(S22)符号化装置は、S16の処理で、PU[2N×N]の評価値が最小であったか否かを判定する。PU[2N×N]の評価値が最小であった場合、処理はS23へと進む。PU[2N×N]の評価値が最小でなかった場合、処理はS25へと進む。   (S22) The encoding device determines whether or not the evaluation value of PU [2N × N] is minimum in the process of S16. If the evaluation value of PU [2N × N] is the minimum, the process proceeds to S23. If the evaluation value of PU [2N × N] is not the minimum, the process proceeds to S25.

(S23)符号化装置は、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S23) The encoding apparatus divides the target CU into PUs of PU [2N × nU]. In this case, the PU is divided into an upper 1/4 PU and a lower 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nU]. As the evaluation value, for example, the above ME cost is used.

(S24)符号化装置は、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S24) The encoding apparatus divides the target CU into PUs of PU [2N × nD]. In this case, the PU is divided into an upper 3/4 PU and a lower 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nD]. As the evaluation value, for example, the above ME cost is used.

(S25)符号化装置は、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S25) The encoding apparatus divides the target CU into PUs of PU [nL × 2N]. In this case, the PU is divided into a left 1/4 PU and a right 3/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nL × 2N]. As the evaluation value, for example, the above ME cost is used.

(S26)符号化装置は、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。符号化装置は、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、符号化装置は、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S26) The encoding apparatus divides the target CU into PUs of PU [nR × 2N]. In this case, the PU is divided into a left 3/4 PU and a right 1/4 PU. The encoding device performs motion detection for each of the two PUs obtained by the division, and calculates an evaluation value for each PU. Then, the encoding apparatus sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nR × 2N]. As the evaluation value, for example, the above ME cost is used.

(S27)符号化装置は、計算した評価値の中で最小の評価値に対応する分割方法を選択し、その評価値を保存する。例えば、S16の処理でPU[2N×2N]の評価値が最小であると判定した場合について考える。この場合、符号化装置は、PU[2N×2N]の評価値、PU[2N×nU]の評価値、PU[2N×nD]の評価値、PU[nL×2N]の評価値、PU[nR×2N]の評価値を比較し、最小の評価値に対応する分割方法を選択する。   (S27) The encoding apparatus selects a division method corresponding to the smallest evaluation value among the calculated evaluation values, and stores the evaluation value. For example, consider the case where it is determined in the process of S16 that the evaluation value of PU [2N × 2N] is minimum. In this case, the encoding apparatus performs evaluation value PU [2N × 2N], evaluation value PU [2N × nU], evaluation value PU [2N × nD], evaluation value PU [nL × 2N], PU [ nR × 2N] are compared, and a division method corresponding to the minimum evaluation value is selected.

また、S16の処理でPU[2N×N]の評価値が最小であると判定した場合、符号化装置は、PU[2N×N]の評価値、PU[2N×nU]の評価値、PU[2N×nD]の評価値を比較し、最小の評価値に対応する分割方法を選択する。また、S16の処理でPU[N×2N]の評価値が最小であると判定した場合、符号化装置は、PU[N×2N]の評価値、PU[nL×2N]の評価値、PU[nR×2N]の評価値を比較し、最小の評価値に対応する分割方法を選択する。   Also, when it is determined in the process of S16 that the evaluation value of PU [2N × N] is the minimum, the encoding device determines the evaluation value of PU [2N × N], the evaluation value of PU [2N × nU], PU [2N × nD] evaluation values are compared, and a division method corresponding to the minimum evaluation value is selected. Also, when it is determined in the process of S16 that the evaluation value of PU [N × 2N] is the minimum, the encoding device determines the evaluation value of PU [N × 2N], the evaluation value of PU [nL × 2N], PU The evaluation values of [nR × 2N] are compared, and a division method corresponding to the minimum evaluation value is selected.

(S28)符号化装置は、全てのCUを選択したか否かを判定する。指定されたCU depthについて全てのCUが選択済みの場合、処理はS29へと進む。一方、指定されたCU depthについて選択済みではないCUが存在する場合、処理は、図5のS12へと進む。   (S28) The encoding device determines whether all CUs have been selected. If all CUs have been selected for the specified CU depth, the process proceeds to S29. On the other hand, if there is a CU that has not been selected for the specified CU depth, the process proceeds to S12 of FIG.

(S29)符号化装置は、全てのCU depthを指定したか否かを判定する。CU depth 0からCU depth 3まで全てのCU depthが指定済みの場合、処理はS30へと進む。一方、指定済みではないCU depthが存在する場合、処理は、図5のS11へと進む。   (S29) The encoding device determines whether all CU depths have been specified. If all CU depths from CU depth 0 to CU depth 3 have been specified, the process proceeds to S30. On the other hand, if there is a CU depth that has not been specified, the process proceeds to S11 of FIG.

(S30)符号化装置は、CU depth毎に、保存した評価値を合計した評価値合計を計算し、評価値合計が最小となるCU depthを選択する。S30の処理が完了すると、図5及び図6に示した一連の処理は終了する。   (S30) For each CU depth, the encoding apparatus calculates a total evaluation value obtained by summing the stored evaluation values, and selects a CU depth that minimizes the total evaluation value. When the process of S30 is completed, the series of processes shown in FIGS. 5 and 6 ends.

図5及び図6に例示した処理フローは、CUの分割を実現する方法の一例である。以下の説明において、この処理フローで示したCUの分割方法よりも効率の良いCUの分割方法及びその分割方法を実現可能な情報処理装置100の機能などについて述べる。   The processing flow illustrated in FIGS. 5 and 6 is an example of a method for realizing CU division. In the following description, a CU dividing method that is more efficient than the CU dividing method shown in this processing flow, and functions of the information processing apparatus 100 that can realize the dividing method will be described.

以上、CUの分割方法について説明した。
[2−2.ハードウェア]
ここで、図7を参照しながら、後述する情報処理装置100が有する機能を実現可能なハードウェアについて説明する。情報処理装置100は、第2実施形態に係る情報処理装置の一例である。なお、図7は、第2実施形態に係る情報処理装置が有する機能を実現可能なハードウェアの一例を示した図である。
The CU dividing method has been described above.
[2-2. hardware]
Here, with reference to FIG. 7, hardware capable of realizing the functions of the information processing apparatus 100 described later will be described. The information processing apparatus 100 is an example of an information processing apparatus according to the second embodiment. FIG. 7 is a diagram illustrating an example of hardware capable of realizing the functions of the information processing apparatus according to the second embodiment.

情報処理装置100が有する機能は、例えば、図7に示すハードウェア資源を用いて実現することが可能である。つまり、情報処理装置100が有する機能は、コンピュータプログラムを用いて図7に示すハードウェアを制御することにより実現される。   The functions of the information processing apparatus 100 can be realized using, for example, hardware resources shown in FIG. That is, the functions of the information processing apparatus 100 are realized by controlling the hardware shown in FIG. 7 using a computer program.

図7に示すように、このハードウェアは、主に、CPU902と、ROM(Read Only Memory)904と、RAM906と、ホストバス908と、ブリッジ910とを有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とを有する。   As shown in FIG. 7, this hardware mainly includes a CPU 902, a ROM (Read Only Memory) 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.

CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータなどを格納する記憶装置の一例である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に変化する各種パラメータなどが一時的又は永続的に格納される。   The CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. . The ROM 904 is an example of a storage device that stores a program read by the CPU 902, data used for calculation, and the like. The RAM 906 temporarily or permanently stores, for example, a program read by the CPU 902 and various parameters that change when the program is executed.

これらの要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、タッチパッド、ボタン、スイッチ、及びレバーなどが用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラが用いられることもある。   These elements are connected to each other via, for example, a host bus 908 capable of high-speed data transmission. On the other hand, the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example. As the input unit 916, for example, a mouse, a keyboard, a touch panel, a touch pad, a button, a switch, a lever, or the like is used. Furthermore, as the input unit 916, a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.

出力部918としては、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、又はELD(Electro-Luminescence Display)などのディスプレイ装置が用いられる。また、出力部918として、スピーカやヘッドホンなどのオーディオ出力装置、又はプリンタなどが用いられることもある。つまり、出力部918は、情報を視覚的又は聴覚的に出力することが可能な装置である。   As the output unit 918, for example, a display device such as a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an ELD (Electro-Luminescence Display) is used. As the output unit 918, an audio output device such as a speaker or headphones, or a printer may be used. In other words, the output unit 918 is a device that can output information visually or audibly.

記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、HDDなどの磁気記憶デバイスが用いられる。また、記憶部920として、SSD(Solid State Drive)やRAMディスクなどの半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイスなどが用いられてもよい。   The storage unit 920 is a device for storing various data. As the storage unit 920, for example, a magnetic storage device such as an HDD is used. Further, as the storage unit 920, a semiconductor storage device such as an SSD (Solid State Drive) or a RAM disk, an optical storage device, a magneto-optical storage device, or the like may be used.

ドライブ922は、着脱可能な記録媒体であるリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどが用いられる。   The drive 922 is a device that reads information recorded on a removable recording medium 928 that is a removable recording medium or writes information on the removable recording medium 928. As the removable recording medium 928, for example, a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is used.

接続ポート924は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子など、外部接続機器930を接続するためのポートである。外部接続機器930としては、例えば、プリンタなどが用いられる。   The connection port 924 is a port for connecting an external connection device 930 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. For example, a printer or the like is used as the external connection device 930.

通信部926は、ネットワーク932に接続するための通信デバイスである。通信部926としては、例えば、有線又は無線LAN(Local Area Network)用の通信回路、WUSB(Wireless USB)用の通信回路、光通信用の通信回路やルータ、ADSL(Asymmetric Digital Subscriber Line)用の通信回路やルータ、携帯電話ネットワーク用の通信回路などが用いられる。通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークであり、例えば、インターネット、LAN、放送網、衛星通信回線などを含む。   The communication unit 926 is a communication device for connecting to the network 932. As the communication unit 926, for example, a communication circuit for wired or wireless LAN (Local Area Network), a communication circuit for WUSB (Wireless USB), a communication circuit or router for optical communication, an ADSL (Asymmetric Digital Subscriber Line) Communication circuits, routers, communication circuits for mobile phone networks, and the like are used. A network 932 connected to the communication unit 926 is a wired or wireless network, and includes, for example, the Internet, a LAN, a broadcast network, a satellite communication line, and the like.

以上、情報処理装置100のハードウェアについて説明した。なお、上述した符号化装置の機能も図7に例示したハードウェアを用いて実現可能である。
[2−3.情報処理装置の機能]
次に、図8を参照しながら、情報処理装置100の機能について説明する。なお、図8は、第2実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。
The hardware of the information processing apparatus 100 has been described above. Note that the functions of the above-described encoding apparatus can also be realized using the hardware illustrated in FIG.
[2-3. Function of information processing apparatus]
Next, functions of the information processing apparatus 100 will be described with reference to FIG. FIG. 8 is a block diagram illustrating an example of functions of the information processing apparatus according to the second embodiment.

図8に示すように、情報処理装置100は、減算器101、整数変換部102、量子化部103、及びエントロピー符号化部104を有する。また、情報処理装置100は、逆量子化部105、逆整数変換部106、加算器107、フィルタ108、及びフレームメモリ109を有する。さらに、情報処理装置100は、イントラ予測部110、差分計算部111、PU決定部112、動き検出部113、動き補償部114、及び切り替え部115を有する。   As illustrated in FIG. 8, the information processing apparatus 100 includes a subtracter 101, an integer conversion unit 102, a quantization unit 103, and an entropy encoding unit 104. The information processing apparatus 100 includes an inverse quantization unit 105, an inverse integer conversion unit 106, an adder 107, a filter 108, and a frame memory 109. Furthermore, the information processing apparatus 100 includes an intra prediction unit 110, a difference calculation unit 111, a PU determination unit 112, a motion detection unit 113, a motion compensation unit 114, and a switching unit 115.

なお、減算器101、整数変換部102、量子化部103、エントロピー符号化部104、逆量子化部105、逆整数変換部106、加算器107、フィルタ108の機能は、上述したCPU902などを用いて実現できる。また、イントラ予測部110、差分計算部111、PU決定部112、動き検出部113、動き補償部114、及び切り替え部115の機能は、上述したCPU902などを用いて実現できる。また、フレームメモリ109の機能は、上述したRAM906や記憶部920などを用いて実現できる。   Note that the functions of the subtractor 101, integer transform unit 102, quantization unit 103, entropy encoding unit 104, inverse quantization unit 105, inverse integer transform unit 106, adder 107, and filter 108 use the above-described CPU 902 and the like. Can be realized. In addition, the functions of the intra prediction unit 110, the difference calculation unit 111, the PU determination unit 112, the motion detection unit 113, the motion compensation unit 114, and the switching unit 115 can be realized using the above-described CPU 902 and the like. Further, the function of the frame memory 109 can be realized using the above-described RAM 906, the storage unit 920, and the like.

情報処理装置100には、符号化対象の動画フレームに対応する画像データ(以下、入力画像データ)が入力される。入力画像データは、減算器101に入力される。また、減算器101には、動き補償により生成された予測画像データが入力される。減算器101は、入力画像データから予測画像データを減算して予測誤差信号を生成する。予測誤差信号は、整数変換部102に入力される。   The information processing apparatus 100 receives image data (hereinafter referred to as input image data) corresponding to a moving image frame to be encoded. Input image data is input to the subtractor 101. Further, the subtracter 101 is input with predicted image data generated by motion compensation. The subtracter 101 subtracts the predicted image data from the input image data to generate a prediction error signal. The prediction error signal is input to the integer conversion unit 102.

整数変換部102は、予測誤差信号を整数変換して係数信号を生成する。例えば、整数変換部102は、整数精度が4×4、8×8、16×16、32×32のDCT変換を実行し、予測誤差信号の周波数成分に対応するDCT係数の集合(係数信号)を生成する。係数信号は、量子化部103に入力される。量子化部103は、係数信号を量子化して量子化データを生成する。量子化データは、エントロピー符号化部104及び逆量子化部105に入力される。   The integer conversion unit 102 performs integer conversion on the prediction error signal to generate a coefficient signal. For example, the integer transform unit 102 performs DCT transform with integer precision of 4 × 4, 8 × 8, 16 × 16, and 32 × 32, and a set of DCT coefficients (coefficient signals) corresponding to the frequency components of the prediction error signal. Is generated. The coefficient signal is input to the quantization unit 103. The quantization unit 103 quantizes the coefficient signal to generate quantized data. The quantized data is input to the entropy encoding unit 104 and the inverse quantization unit 105.

エントロピー符号化部104には、後述するイントラ予測部110及び動き検出部113の出力データも入力される。エントロピー符号化部104は、量子化データ、イントラ予測部110の出力データ、及び動き検出部113の出力データ(例えば、動きベクトルの情報)をエントロピー符号化して符号化データを生成する。なお、エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる符号化方法である。   The entropy encoding unit 104 also receives output data from an intra prediction unit 110 and a motion detection unit 113 described later. The entropy encoding unit 104 generates encoded data by entropy encoding the quantized data, the output data of the intra prediction unit 110, and the output data of the motion detection unit 113 (for example, motion vector information). Note that entropy coding is a coding method in which a variable-length code is assigned according to the appearance frequency of a symbol.

逆量子化部105は、入力された量子化データを逆量子化して係数信号を復元する。復元された係数信号は、逆整数変換部106に入力される。逆整数変換部106は、入力された係数信号に逆整数変換を施して予測誤差信号を復元する。復元された予測誤差信号は、減算器101から出力された予測誤差信号と同等の信号である。逆整数変換部106により復元された予測誤差信号は、加算器107に入力される。また、加算器107には、動き補償により生成された予測画像データが入力される。   The inverse quantization unit 105 inversely quantizes the input quantized data to restore the coefficient signal. The restored coefficient signal is input to the inverse integer transform unit 106. The inverse integer transform unit 106 performs inverse integer transform on the input coefficient signal to restore the prediction error signal. The restored prediction error signal is a signal equivalent to the prediction error signal output from the subtractor 101. The prediction error signal restored by the inverse integer transform unit 106 is input to the adder 107. Further, the adder 107 receives predicted image data generated by motion compensation.

加算器107は、入力された予測誤差信号と予測画像データとを加算して参照画像信号(参照ピクチャのPUに相当)を生成する。参照画像信号は、フィルタ108及びイントラ予測部110に入力される。フィルタ108は、参照画像信号に対してデブロッキングフィルタ、SAO(Sample Adaptive Offset)、ALF(Adaptive Loop Filter)の処理を施してブロックノイズの発生を抑制する。フィルタ108で処理された参照画像信号は、フレームメモリ109に格納される。イントラ予測部110は、イントラ予測により同じ画像内の周辺画素から予測画像データを生成する。   The adder 107 adds the input prediction error signal and the prediction image data to generate a reference image signal (corresponding to a PU of the reference picture). The reference image signal is input to the filter 108 and the intra prediction unit 110. The filter 108 performs processing of a deblocking filter, SAO (Sample Adaptive Offset), and ALF (Adaptive Loop Filter) on the reference image signal to suppress the generation of block noise. The reference image signal processed by the filter 108 is stored in the frame memory 109. The intra prediction unit 110 generates predicted image data from neighboring pixels in the same image by intra prediction.

差分計算部111は、対象CUと、対象CUに隣接するCU(以下、隣接CU)との境界付近に位置するブロック間の類似度を表す差分情報を生成する。差分情報は、PU決定部112に入力される。PU決定部112は、差分情報に基づいて対象CUの分割方法(利用するPUの種類)を絞り込む。PU決定部112が実行する処理の内容については後述する。PU決定部112により絞り込まれた対象CUの分割方法を表す情報(以下、候補PU情報)は、動き検出部113に入力される。   The difference calculation unit 111 generates difference information indicating the similarity between blocks located near the boundary between the target CU and a CU adjacent to the target CU (hereinafter referred to as an adjacent CU). The difference information is input to the PU determination unit 112. The PU determination unit 112 narrows down the method of dividing the target CU (the type of PU to be used) based on the difference information. The contents of the process executed by the PU determination unit 112 will be described later. Information indicating the method of dividing the target CU narrowed down by the PU determination unit 112 (hereinafter, candidate PU information) is input to the motion detection unit 113.

動き検出部113は、入力画像データ、フレームメモリ109から読み出した参照画像信号、及び候補PU情報を用いて動きベクトルを検出する。動き検出部113により検出された動きベクトルは、動き補償部114に入力される。動き補償部114は、入力された動きベクトルに基づき、フレームメモリ109から読み出した参照画像信号に動き補償を施して予測画像データを生成する。切り替え部115は、イントラ予測部110又は動き補償部114を選択し、選択した要素が出力した予測画像データを減算器101及び加算器107に入力する。   The motion detection unit 113 detects a motion vector using the input image data, the reference image signal read from the frame memory 109, and candidate PU information. The motion vector detected by the motion detection unit 113 is input to the motion compensation unit 114. Based on the input motion vector, the motion compensation unit 114 performs motion compensation on the reference image signal read from the frame memory 109 to generate predicted image data. The switching unit 115 selects the intra prediction unit 110 or the motion compensation unit 114 and inputs the predicted image data output by the selected element to the subtracter 101 and the adder 107.

(差分計算部111及びPU決定部112の機能について)
ここで、図9及び図10を参照しながら、差分計算部111及びPU決定部112の機能について、さらに説明する。なお、図9は、第2実施形態に係るPUの分割方法(縦方向分割)について説明するための図である。図10は、第2実施形態に係るPUの分割方法(横方向分割)について説明するための図である。
(About the functions of the difference calculation unit 111 and the PU determination unit 112)
Here, the functions of the difference calculation unit 111 and the PU determination unit 112 will be further described with reference to FIGS. 9 and 10. FIG. 9 is a diagram for explaining a PU division method (vertical direction division) according to the second embodiment. FIG. 10 is a diagram for explaining a PU dividing method (horizontal division) according to the second embodiment.

(縦方向分割について)
まず、図9を参照しながら、対象CUの縦方向分割(PU[2N×N]、PU[2N×nU]、PU[2N×nD])について考える。なお、対象CUをCUO、CUOの上側に位置する隣接CUをCUU、CUOの下側に位置する隣接CUをCUDと表記する。また、各CUのサイズは2N×2Nである。
(About vertical division)
First, the vertical division (PU [2N × N], PU [2N × nU], PU [2N × nD]) of the target CU will be considered with reference to FIG. Incidentally, denoted CU O target CU, CU U adjacent CU located above the CU O, adjacent CU located below the CU O and CU D. The size of each CU is 2N × 2N.

また、CUUの下側1/4を占める領域をRU、CUOの上側1/4を占める領域をR1、R1の下側に隣接する2N×(N/2)の領域をR2と表記する。さらに、CUDの上側1/4を占める領域をRD、CUOの下側1/4を占める領域をR3、R3の上側に隣接する2N×(N/2)の領域をR4と表記する。RUとR1とは、CUUとCUOとの間の境界で接する。また、R3とRDとは、CUOとCUDとの境界で接する。 In addition, the region occupying the lower 1/4 of CU U is R U , the region occupying the upper 1/4 of CU O is R 1 , and the 2N × (N / 2) region adjacent to the lower side of R 1 is R Indicated as 2 . Further, the region occupying the upper 1/4 of CU D is R D , the region occupying the lower 1/4 of CU O is R 3 , and the 2N × (N / 2) region adjacent to the upper side of R 3 is R 4. Is written. R U and R 1 touch at the boundary between CU U and CU O. R 3 and R D are in contact with each other at the boundary between CU O and CU D.

差分計算部111は、RUとR1との差分を計算する。この差分は、RUとR1との類似性を評価するための評価値の一例である。例えば、差分計算部111は、RUとR1との差分として、RUに含まれる画素の輝度値YUと、R1に含まれる画素の輝度値Y1との差分絶対値和DY1U(下記の式(3)を参照)を計算する。但し、S1は、R1に含まれる全画素の座標を集めた集合を表す。 The difference calculation unit 111 calculates the difference between R U and R 1 . This difference is an example of an evaluation value for evaluating the similarity between R U and R 1 . For example, the difference calculation unit 111, as the difference between R U and R 1, and the luminance value Y U of the pixels included in R U, difference absolute value sum DY 1U between the luminance value Y 1 of the pixels included in R 1 (See equation (3) below). However, S 1 represents a set collection of coordinates of all the pixels included in R 1.

また、差分計算部111は、R1とR2との差分を計算する。この差分は、R1とR2との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R1とR2との差分として、R1に含まれる画素の輝度値Y1と、R2に含まれる画素の輝度値Y2との差分絶対値和DY12(下記の式(4)を参照)を計算する。 Further, the difference calculation unit 111 calculates the difference between R 1 and R 2 . This difference is an example of an evaluation value for evaluating the similarity between R 1 and R 2 . For example, the difference calculation unit 111, R 1 and as the difference between the R 2, and the luminance value Y 1 of the pixels included in R 1, the sum of absolute differences DY 12 between the luminance value Y 2 of the pixels included in R 2 (See equation (4) below).

Figure 2015139117
Figure 2015139117

Figure 2015139117
Figure 2015139117

また、差分計算部111は、R3とRDとの差分を計算する。この差分は、R3とRDとの類似性を評価するための評価値の一例である。例えば、差分計算部111は、R3とRDとの差分として、R3に含まれる画素の輝度値Y3と、RDに含まれる画素の輝度値YDとの差分絶対値和DY3D(下記の式(5)を参照)を計算する。但し、S3は、R3に含まれる全画素の座標を集めた集合を表す。 Further, the difference calculation unit 111 calculates the difference between R 3 and R D. This difference is an example of an evaluation value for evaluating the similarity between R 3 and R D. For example, the difference calculation unit 111, a difference between R 3 and R D, the luminance value Y 3 pixels included in R 3, sum of absolute difference DY 3D between the luminance value Y D of pixels included in R D (See equation (5) below). However, S 3 represents a set collection of coordinates of all the pixels included in R 3.

また、差分計算部111は、R3とR4との差分を計算する。この差分は、R3とR4との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R3とR4との差分として、R3に含まれる画素の輝度値Y3と、R4に含まれる画素の輝度値Y4との差分絶対値和DY34(下記の式(6)を参照)を計算する。 Further, the difference calculation unit 111 calculates the difference between R 3 and R 4 . This difference is an example of an evaluation value for evaluating the similarity between R 3 and R 4 . For example, the difference calculation unit 111, R 3 and the difference between R 4, and luminance values Y 3 pixels included in R 3, the difference absolute value sum DY 34 of the pixel luminance values Y 4 that are included in R 4 (See equation (6) below).

Figure 2015139117
Figure 2015139117

Figure 2015139117
Figure 2015139117

差分計算部111により計算されたDY1U、DY12、DY3D、DY34は、PU決定部112に入力される。PU決定部112は、DY1U、DY12、DY3D、DY34を比較する。比較結果は、例えば、下記の4つのケースに分けられる。 DY 1U , DY 12 , DY 3D , and DY 34 calculated by the difference calculation unit 111 are input to the PU determination unit 112. The PU determination unit 112 compares DY 1U , DY 12 , DY 3D , and DY 34 . The comparison results are divided into the following four cases, for example.

(ケース#1:DY1U<DY12、かつ、DY3D<DY34
ケース#1は、R2よりもRUの方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DY1U<DY12、かつ、DY3D<DY34の場合、PU決定部112は、DY1UとDY3Dとを比較する。DY1U<DY3Dの場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。一方、DY1U>DY3Dの場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 1: DY 1U <DY 12 and DY 3D <DY 34 )
Case # 1 is a case in which R U is more similar to R 1 than R 2 , and R D is more similar to R 3 than R 4 . When DY 1U <DY 12 and DY 3D <DY 34 , the PU determination unit 112 compares DY 1U and DY 3D . In the case of DY 1U <DY 3D , the PU determination unit 112 selects PU [2N × nU] as a candidate for a division method related to vertical division. On the other hand, when DY 1U > DY 3D , the PU determination unit 112 selects PU [2N × nD] as a candidate for a division method for vertical division.

(ケース#2:DY1U<DY12、かつ、DY3D>DY34
ケース#2は、R2よりもRUの方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DY1U<DY12、かつ、DY3D>DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。
(Case # 2: DY 1U <DY 12 and DY 3D > DY 34 )
Case # 2 is a case in which R U is more similar to R 1 than R 2 , and R 4 is more similar to R 3 than R D. In the case of DY 1U <DY 12 and DY 3D > DY 34 , the PU determination unit 112 selects PU [2N × nU] as a candidate for a division method for vertical division.

(ケース#3:DY1U>DY12、かつ、DY3D<DY34
ケース#3は、RUよりもR2の方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DY1U>DY12、かつ、DY3D<DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 3: DY 1U > DY 12 and DY 3D <DY 34 )
Case # 3 is a case in which R 2 is more similar to R 1 than R U , and R D is more similar to R 3 than R 4 . When DY 1U > DY 12 and DY 3D <DY 34 , the PU determination unit 112 selects PU [2N × nD] as a candidate for a division method for vertical division.

(ケース#4:DY1U>DY12、かつ、DY3D>DY34
ケース#4は、RUよりもR2の方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DY1U>DY12、かつ、DY3D>DY34の場合、PU決定部112は、縦方向分割に関する分割方法の候補としてPU[2N×N]を選択する。
(Case # 4: DY 1U > DY 12 and DY 3D > DY 34 )
Case # 4 is a case in which R 2 is more similar to R 1 than R U , and R 4 is more similar to R 3 than R D. When DY 1U > DY 12 and DY 3D > DY 34 , the PU determination unit 112 selects PU [2N × N] as a candidate for a division method for vertical division.

上記の方法により、差分計算部111及びPU決定部112の機能によって、縦方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。
(横方向分割について)
次に、図10を参照しながら、対象CUの横方向分割(PU[N×2N]、PU[nR×2N]、PU[nL×2N])について考える。なお、対象CUをCUO、CUOの右側に位置する隣接CUをCUR、CUOの左側に位置する隣接CUをCULと表記する。また、各CUのサイズは2N×2Nである。
With the method described above, the division method of the target CU related to the vertical division is narrowed down to one candidate by the functions of the difference calculation unit 111 and the PU determination unit 112.
(About horizontal division)
Next, the horizontal division (PU [N × 2N], PU [nR × 2N], PU [nL × 2N]) of the target CU will be considered with reference to FIG. Incidentally, denoted CU O target CU, CU adjacent CU located on the right side of the CU O R, adjacent CU located on the left side of the CU O and CU L. The size of each CU is 2N × 2N.

また、CURの左側1/4を占める領域をRR、CUOの右側1/4を占める領域をR5、R5の左側に隣接する(N/2)×2Nの領域をR6と表記する。さらに、CULの右側1/4を占める領域をRL、CUOの左側1/4を占める領域をR7、R7の右側に隣接する(N/2)×2Nの領域をR8と表記する。RRとR5とは、CURとCUOとの間の境界で接する。また、R7とRLとは、CUOとCULとの境界で接する。 An area occupying the left quarter of CU R is R R , an area occupying the right quarter of CU O is R 5 , and an (N / 2) × 2N area adjacent to the left side of R 5 is R 6 . write. Further, an area occupying the right quarter of CU L is R L , an area occupying the left quarter of CU O is R 7 , and an (N / 2) × 2N area adjacent to the right side of R 7 is R 8 . write. R R and R 5 touch at the boundary between CU R and CU O. R 7 and R L are in contact with each other at the boundary between CU O and CU L.

差分計算部111は、RRとR5との差分を計算する。この差分は、RRとR5との類似性を評価するための評価値の一例である。例えば、差分計算部111は、RRとR5との差分として、RRに含まれる画素の輝度値YRと、R5に含まれる画素の輝度値Y5との差分絶対値和DY5R(下記の式(7)を参照)を計算する。但し、S5は、R5に含まれる全画素の座標を集めた集合を表す。 The difference calculation unit 111 calculates the difference between R R and R 5 . This difference is an example of an evaluation value for evaluating the similarity between R R and R 5 . For example, the difference calculation unit 111, R as the difference between R and R 5, the luminance value Y R of the pixels included in R R, difference absolute value sum DY 5R between the luminance value Y 5 of the pixels included in R 5 (See equation (7) below). However, S 5 represents a set collection of coordinates of all the pixels included in R 5.

また、差分計算部111は、R5とR6との差分を計算する。この差分は、R5とR6との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R5とR6との差分として、R5に含まれる画素の輝度値Y5と、R6に含まれる画素の輝度値Y6との差分絶対値和DY56(下記の式(8)を参照)を計算する。 In addition, the difference calculation unit 111 calculates the difference between R 5 and R 6 . This difference is an example of an evaluation value for evaluating the similarity between R 5 and R 6 . For example, the difference calculation unit 111, R 5 and as the difference between R 6, and luminance values Y 5 pixels included in R 5, sum of absolute difference DY 56 between the luminance value Y 6 of the pixels included in R 6 (See equation (8) below).

Figure 2015139117
Figure 2015139117

Figure 2015139117
Figure 2015139117

また、差分計算部111は、R7とRLとの差分を計算する。この差分は、R7とRLとの類似性を評価するための評価値の一例である。例えば、差分計算部111は、R7とRLとの差分として、R7に含まれる画素の輝度値Y7と、RLに含まれる画素の輝度値YLとの差分絶対値和DY7L(下記の式(9)を参照)を計算する。但し、S7は、R7に含まれる全画素の座標を集めた集合を表す。 Further, the difference calculation unit 111 calculates the difference between R 7 and R L. This difference is an example of an evaluation value for evaluating the similarity between R 7 and R L. For example, the difference calculation unit 111, as the difference between R 7 and R L, the luminance value Y 7 of pixels included in R 7, difference absolute value sum DY 7L between the luminance value Y L of pixels included in R L (See equation (9) below). However, S 7 represents a set collection of coordinates of all the pixels included in R 7.

また、差分計算部111は、R7とR8との差分を計算する。この差分は、R7とR8との類似性を評価するための評価値の一例である。例えば、差分計算部111は、R7とR8との差分として、R7に含まれる画素の輝度値Y7と、R8に含まれる画素の輝度値Y8との差分絶対値和DY78(下記の式(10)を参照)を計算する。 Further, the difference calculation unit 111 calculates the difference between R 7 and R 8 . This difference is an example of an evaluation value for evaluating the similarity between R 7 and R 8 . For example, the difference calculation unit 111, R 7 and as the difference between R 8, and luminance values Y 7 of pixels included in R 7, difference absolute value sum DY 78 between the luminance value Y 8 pixels included in R 8 (See equation (10) below).

Figure 2015139117
Figure 2015139117

Figure 2015139117
Figure 2015139117

差分計算部111により計算されたDY5R、DY56、DY7L、DY78は、PU決定部112に入力される。PU決定部112は、DY5R、DY56、DY7L、DY78を比較する。比較結果は、例えば、下記の4つのケースに分けられる。 DY 5R , DY 56 , DY 7L , and DY 78 calculated by the difference calculation unit 111 are input to the PU determination unit 112. The PU determination unit 112 compares DY 5R , DY 56 , DY 7L , and DY 78 . The comparison results are divided into the following four cases, for example.

(ケース#1:DY5R<DY56、かつ、DY7L<DY78
ケース#1は、R6よりもRRの方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DY5R<DY56、かつ、DY7L<DY78の場合、PU決定部112は、DY5RとDY7Lとを比較する。DY5R<DY7Lの場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。一方、DY5R>DY7Lの場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 1: DY 5R <DY 56 and DY 7L <DY 78 )
Case # 1 is a case in which R R is more similar to R 5 than R 6 , and R L is more similar to R 7 than R 8 . When DY 5R <DY 56 and DY 7L <DY 78 , the PU determination unit 112 compares DY 5R and DY 7L . In the case of DY 5R <DY 7L , the PU determination unit 112 selects PU [nR × 2N] as a candidate for a division method for horizontal division. On the other hand, when DY 5R > DY 7L , the PU determination unit 112 selects PU [nL × 2N] as a candidate for a division method for horizontal division.

(ケース#2:DY5R<DY56、かつ、DY7L>DY78
ケース#2は、R6よりもRRの方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DY5R<DY56、かつ、DY7L>DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。
(Case # 2: DY 5R <DY 56 and DY 7L > DY 78 )
Case # 2 is a case in which R R is more similar to R 5 than R 6 , and R 8 is more similar to R 7 than R L. In the case of DY 5R <DY 56 and DY 7L > DY 78 , the PU determination unit 112 selects PU [nR × 2N] as a candidate for a division method for horizontal division.

(ケース#3:DY5R>DY56、かつ、DY7L<DY78
ケース#3は、RRよりもR6の方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DY5R>DY56、かつ、DY7L<DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 3: DY 5R > DY 56 and DY 7L <DY 78 )
Case # 3, who R 6 than R R are similar to R 5, and, towards the R L than R 8 is the case that is similar to R 7. When DY 5R > DY 56 and DY 7L <DY 78 , the PU determination unit 112 selects PU [nL × 2N] as a candidate for a division method related to the horizontal division.

(ケース#4:DY5R>DY56、かつ、DY7L>DY78
ケース#4は、RRよりもR6の方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DY5R>DY56、かつ、DY7L>DY78の場合、PU決定部112は、横方向分割に関する分割方法の候補としてPU[N×2N]を選択する。
(Case # 4: DY 5R > DY 56 and DY 7L > DY 78 )
Case # 4, who than R R of R 6 is similar to the R 5, and, towards than R L R 8 is the case that is similar to R 7. When DY 5R > DY 56 and DY 7L > DY 78 , the PU determination unit 112 selects PU [N × 2N] as a candidate for a division method for horizontal division.

上記の方法により、差分計算部111及びPU決定部112の機能によって、横方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。なお、縦方向分割及び横方向分割に関する対象CUの分割方法に加え、PU[2N×2N]が候補に追加される。PU決定部112は、縦方向分割に関する1つの候補、横方向分割に関する1つの候補、及びPU[2N×2N]に対象CUの分割方法を絞り込む。その結果、PUの種類が低減された分だけ動き検出部113の処理負担が軽減される。   With the above method, the division method of the target CU regarding the horizontal division is narrowed down to one candidate by the functions of the difference calculation unit 111 and the PU determination unit 112. Note that PU [2N × 2N] is added to the candidates in addition to the method of dividing the target CU regarding the vertical division and the horizontal division. The PU determination unit 112 narrows down the method of dividing the target CU into one candidate for vertical division, one candidate for horizontal division, and PU [2N × 2N]. As a result, the processing load on the motion detection unit 113 is reduced by the amount of PU types reduced.

以上、情報処理装置100の機能について説明した。なお、上記の説明では輝度の差分絶対値和を用いて領域間の類似性を評価する方法を紹介したが、第2実施形態に係る技術に適用可能な類似性の評価方法はこれに限定されない。以下、類似性の評価方法について、さらに説明する。   The function of the information processing apparatus 100 has been described above. In the above description, the method of evaluating the similarity between regions using the sum of absolute differences of luminance is introduced. However, the similarity evaluation method applicable to the technique according to the second embodiment is not limited to this. . Hereinafter, the similarity evaluation method will be further described.

[2−4.類似性の評価]
図11を参照しながら、領域間の類似性を評価する方法について、さらに説明する。図11は、第2実施形態に係る類似性の評価について説明するための図である。ここでは、説明の都合上、図11に示すようなR1とRUとの類似性を評価する方法を例に挙げて説明するが、他の領域間の類似性を評価する方法についても同様である。
[2-4. Evaluation of similarity]
A method for evaluating similarity between regions will be further described with reference to FIG. FIG. 11 is a diagram for describing similarity evaluation according to the second embodiment. Here, for convenience of explanation, a method for evaluating the similarity between R 1 and R U as shown in FIG. 11 will be described as an example, but the same applies to a method for evaluating the similarity between other regions. It is.

(平均輝度の差分絶対値)
1とRUとの差分を平均輝度の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる全画素の輝度値YUについて平均値AYUを計算する。さらに、差分計算部111は、R1に含まれる画素の輝度値Y1について平均値AY1を計算する。そして、差分計算部111は、AYUとAY1との差分絶対値DAY1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DAY1Uなどを用いてPUの種類を絞り込む。
(Absolute difference of average brightness)
A method for expressing the difference between R 1 and R U as the difference absolute value of the average luminance will be described. When this method is employed, the difference calculation unit 111 calculates an average value AY U for the luminance values Y U of all the pixels included in R U. Further, the difference calculation unit 111 calculates an average value AY 1 for the luminance value Y 1 of the pixels included in R 1 . Then, the difference calculation unit 111 calculates a difference absolute value DAY 1U between AY U and AY 1 . The same applies to other areas. The PU determination unit 112 narrows down the type of PU using the difference absolute value DAY 1U calculated by the difference calculation unit 111.

(色差の差分絶対値和)
次に、R1とRUとの差分を色差の差分絶対値和で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる画素の色差CU(Cb,Cr)と、R1に含まれる画素の色差C1(Cb,Cr)との差分絶対値和DC1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値和DC1Uなどを用いてPUの種類を絞り込む。
(Sum of absolute differences of color differences)
Next, it will be described a method of representing the difference absolute value sum of the color difference the difference between R 1 and R U. When this method is employed, the difference calculation unit 111 calculates the absolute difference between the color difference C U (Cb, Cr) of the pixel included in R U and the color difference C 1 (Cb, Cr) of the pixel included in R 1. Calculate the sum DC 1U . The same applies to other areas. The PU determination unit 112 narrows down the types of PUs using the difference absolute value sum DC 1U calculated by the difference calculation unit 111.

(平均色差の差分絶対値)
次に、R1とRUとの差分を平均色差の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUに含まれる全画素の色差CU(Cb,Cr)について平均値ACUを計算する。さらに、差分計算部111は、R1に含まれる画素の色差C1(Cb,Cr)について平均値AC1を計算する。そして、差分計算部111は、ACUとAC1との差分絶対値DAC1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DAC1Uなどを用いてPUの種類を絞り込む。
(Absolute value of average color difference)
Next, a method of expressing the difference between R 1 and R U by the difference absolute value of the average color difference will be described. When this method is employed, the difference calculation unit 111 calculates an average value AC U for the color differences C U (Cb, Cr) of all the pixels included in R U. Further, the difference calculation unit 111 calculates an average value AC 1 for the color difference C 1 (Cb, Cr) of the pixels included in R 1 . Then, the difference calculation unit 111 calculates the absolute difference DAC 1U the AC U and AC 1. The same applies to other areas. The PU determination unit 112 narrows down the type of PU using the difference absolute value DAC 1U calculated by the difference calculation unit 111 and the like.

(平坦度の差分絶対値)
次に、R1とRUとの差分を平坦度の差分絶対値で表現する方法について述べる。この方法を採用する場合、差分計算部111は、RUの平坦度FU(下記の式(11)を参照)を計算する。さらに、差分計算部111は、R1の平坦度F1(下記の式(12))を計算する。そして、差分計算部111は、FUとF1との差分絶対値DF1Uを計算する。他の領域についても同様である。PU決定部112は、差分計算部111が計算した差分絶対値DF1Uなどを用いてPUの種類を絞り込む。
(Difference absolute value of flatness)
Next, a method for expressing the difference between R 1 and R U by the difference absolute value of flatness will be described. When employing this method, the difference calculation unit 111 calculates R U flatness F U (see equation (11) below). Furthermore, the difference calculation unit 111 calculates the flatness F 1 R 1 (the following formula (12)). Then, the difference calculation unit 111 calculates a difference absolute value DF 1U between F U and F 1 . The same applies to other areas. The PU determination unit 112 narrows down the types of PUs using the absolute difference value DF 1U calculated by the difference calculation unit 111 and the like.

但し、YUは、RUに含まれる画素の輝度値である。Y1は、R1に含まれる画素の輝度値である。また、AYUは、RUに含まれる全画素の輝度値に関する平均値である。AY1は、R1に含まれる全画素の輝度値に関する平均値である。また、NUは、RUに含まれる画素の総数である。N1は、R1に含まれる画素の総数である。また、SUは、RUに含まれる全画素の座標を集めた集合を表す。S1は、R1に含まれる全画素の座標を集めた集合を表す。 However, Y U are luminance values of pixels included in R U. Y 1 is the luminance value of the pixel included in R 1 . Further, AY U is the mean value for the luminance values of all pixels included in R U. AY 1 is an average value related to the luminance values of all the pixels included in R 1 . N U is the total number of pixels included in R U. N 1 is the total number of pixels included in R 1 . S U represents a set in which the coordinates of all the pixels included in R U are collected. S 1 represents a set in which the coordinates of all the pixels included in R 1 are collected.

Figure 2015139117
Figure 2015139117

Figure 2015139117
Figure 2015139117

以上、類似性の評価方法について説明した。
[2−5.処理フロー]
次に、図12〜図14を参照しながら、対象CUの分割方法に係る処理の流れについて説明する。図12は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第1のフロー図である。図13は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第2のフロー図である。図14は、第2実施形態に係る情報処理装置が実行するCUの分割処理について説明するための第3のフロー図である。
The similarity evaluation method has been described above.
[2-5. Processing flow]
Next, the flow of processing according to the method for dividing the target CU will be described with reference to FIGS. FIG. 12 is a first flowchart for explaining CU division processing executed by the information processing apparatus according to the second embodiment. FIG. 13 is a second flowchart for explaining the CU division processing executed by the information processing apparatus according to the second embodiment. FIG. 14 is a third flowchart for explaining the CU division processing executed by the information processing apparatus according to the second embodiment.

(S101)情報処理装置100は、CU depthを指定する。例えば、CUの分割処理を開始した直後の場合、情報処理装置100は、CU depth 0を指定する。また、CU depth k(k>0)を既に指定済みの場合、情報処理装置100は、CU depth (k+1)を指定する。   (S101) The information processing apparatus 100 specifies CU depth. For example, immediately after starting the CU division processing, the information processing apparatus 100 specifies CU depth 0. When CU depth k (k> 0) has already been specified, the information processing apparatus 100 specifies CU depth (k + 1).

(S102)情報処理装置100は、1つのCUを選択し、選択したCUを対象CU(CUO)とする。このとき、情報処理装置100は、未だ選択されていないCUの中から1つのCUを選択して対象CUとする。 (S102) The information processing apparatus 100 selects one CU and sets the selected CU as a target CU (CU O ). At this time, the information processing apparatus 100 selects one CU from among the CUs that have not yet been selected as a target CU.

(S103)情報処理装置100は、差分計算部111の機能により、対象CUの上下に位置する隣接CUを参照し、対象CUと隣接CUとの境界で接する対象CUの領域と隣接CUの領域との差分を計算する。例えば、情報処理装置100は、差分計算部111の機能により、図9に例示したRUとR1との差分、R1とR2との差分、R3とRDとの差分、R3とR4との差分を計算する。 (S103) The information processing apparatus 100 refers to the adjacent CUs located above and below the target CU by the function of the difference calculation unit 111, and the target CU area and the adjacent CU area that are in contact at the boundary between the target CU and the adjacent CU. Calculate the difference between For example, the information processing apparatus 100 uses the function of the difference calculation unit 111 to determine the difference between R U and R 1 illustrated in FIG. 9, the difference between R 1 and R 2 , the difference between R 3 and R D , R 3 And the difference between R 4 and R 4 is calculated.

(S104)情報処理装置100は、差分計算部111の機能により、対象CUの左右に位置する隣接CUを参照し、対象CUと隣接CUとの境界で接する対象CUの領域と隣接CUの領域との差分を計算する。例えば、情報処理装置100は、差分計算部111の機能により、図10に例示したRRとR5との差分、R5とR6との差分、R7とRLとの差分、R7とR8との差分を計算する。 (S104) The information processing apparatus 100 refers to the adjacent CUs located on the left and right of the target CU by the function of the difference calculation unit 111, and the target CU region and the adjacent CU region that are in contact at the boundary between the target CU and the adjacent CU Calculate the difference between For example, the information processing apparatus 100 uses the function of the difference calculation unit 111 to perform the difference between R R and R 5 illustrated in FIG. 10, the difference between R 5 and R 6 , the difference between R 7 and R L , R 7 And the difference between R 8 is calculated.

(S105)情報処理装置100は、PU決定部112の機能により、S103、S104で計算した差分に基づいて縦方向分割に関する分割方法の候補、及び横方向分割に関する分割方法の候補を絞り込む。例えば、情報処理装置100は、PU決定部112の機能により、縦方向分割及び横方向分割のそれぞれについて、上述したケース#1〜#4の分類を行って分割方法の候補を選択する。また、情報処理装置100は、PU決定部112の機能により、PU[2N×2N]を分割方法の候補に含める。   (S105) With the function of the PU determination unit 112, the information processing apparatus 100 narrows down the division method candidates for vertical division and the division method candidates for horizontal division based on the differences calculated in S103 and S104. For example, the information processing apparatus 100 performs classification of the above-described cases # 1 to # 4 and selects a division method candidate for each of the vertical division and the horizontal division by the function of the PU determination unit 112. Further, the information processing apparatus 100 includes PU [2N × 2N] in the candidates for the division method by the function of the PU determination unit 112.

(S106)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×2N]のPUに分割する。なお、対象CUとPU[2N×2N]のPUとは同じサイズである。そのため、PUの数は1つである。情報処理装置100は、動き検出部113の機能により、分割で得たPUを単位として動き検出を行い、PU毎に評価値を計算する。評価値としては、例えば、上述したMEコストが用いられる。S106の処理が完了すると、処理は、図13のS107へと進む。   (S106) The information processing apparatus 100 divides the target CU into PUs of PU [2N × 2N] by the function of the motion detection unit 113. Note that the target CU and the PU of PU [2N × 2N] have the same size. Therefore, the number of PUs is one. The information processing apparatus 100 performs motion detection in units of PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. As the evaluation value, for example, the above-described ME cost is used. When the process of S106 is completed, the process proceeds to S107 of FIG.

(S107)情報処理装置100は、PU[2N×N]が分割方法の候補として選択されているか否かを判定する。PU[2N×N]が分割方法の候補に含まれる場合、処理は、S108へと進む。一方、PU[2N×N]が分割方法の候補に含まれない場合、処理は、S109へと進む。   (S107) The information processing apparatus 100 determines whether or not PU [2N × N] is selected as a candidate for the division method. When PU [2N × N] is included in the candidates for the division method, the process proceeds to S108. On the other hand, when PU [2N × N] is not included in the candidates for the division method, the process proceeds to S109.

(S108)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×N]のPUに分割する。この場合、PUは上側1/2のPUと下側1/2のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S108の処理が完了すると、処理は、図14のS112へと進む。   (S108) The information processing apparatus 100 divides the target CU into PUs of PU [2N × N] by the function of the motion detection unit 113. In this case, the PU is divided into an upper 1/2 PU and a lower 1/2 PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. Then, the information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × N] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used. When the process of S108 is completed, the process proceeds to S112 of FIG.

(S109)情報処理装置100は、PU[2N×nU]が分割方法の候補として選択されているか否かを判定する。PU[2N×nU]が分割方法の候補に含まれる場合、処理は、S110へと進む。一方、PU[2N×nU]が分割方法の候補に含まれない場合、処理は、S111へと進む。   (S109) The information processing apparatus 100 determines whether or not PU [2N × nU] is selected as a candidate for the division method. If PU [2N × nU] is included in the candidates for the division method, the process proceeds to S110. On the other hand, when PU [2N × nU] is not included in the candidates for the division method, the process proceeds to S111.

(S110)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×nU]のPUに分割する。この場合、PUは上側1/4のPUと下側3/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×nU]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S110の処理が完了すると、処理は、図14のS112へと進む。   (S110) The information processing apparatus 100 divides the target CU into PU [2N × nU] PUs by the function of the motion detection unit 113. In this case, the PU is divided into an upper 1/4 PU and a lower 3/4 PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. Then, the information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nU] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used. When the process of S110 is completed, the process proceeds to S112 of FIG.

(S111)情報処理装置100は、動き検出部113の機能により、対象CUをPU[2N×nD]のPUに分割する。この場合、PUは上側3/4のPUと下側1/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[2N×nD]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S110の処理が完了すると、処理は、図14のS112へと進む。   (S111) The information processing apparatus 100 divides the target CU into PUs of PU [2N × nD] by the function of the motion detection unit 113. In this case, the PU is divided into an upper 3/4 PU and a lower 1/4 PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. The information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [2N × nD] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used. When the process of S110 is completed, the process proceeds to S112 of FIG.

(S112)情報処理装置100は、PU[N×2N]が分割方法の候補として選択されているか否かを判定する。PU[N×2N]が分割方法の候補に含まれる場合、処理は、S113へと進む。一方、PU[N×2N]が分割方法の候補に含まれない場合、処理は、S114へと進む。   (S112) The information processing apparatus 100 determines whether or not PU [N × 2N] is selected as a candidate for the division method. If PU [N × 2N] is included in the candidates for the division method, the process proceeds to S113. On the other hand, when PU [N × 2N] is not included in the candidates for the division method, the process proceeds to S114.

(S113)情報処理装置100は、動き検出部113の機能により、対象CUをPU[N×2N]のPUに分割する。この場合、PUは左側1/2のPUと右側1/2のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[N×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S113の処理が完了すると、処理は、S117へと進む。   (S113) The information processing apparatus 100 divides the target CU into PUs of PU [N × 2N] by the function of the motion detection unit 113. In this case, the PU is divided into a left half PU and a right half PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. Then, the information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [N × 2N] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used. When the process of S113 is completed, the process proceeds to S117.

(S114)情報処理装置100は、PU[nL×2N]が分割方法の候補として選択されているか否かを判定する。PU[nL×2N]が分割方法の候補に含まれる場合、処理は、S115へと進む。一方、PU[nL×2N]が分割方法の候補に含まれない場合、処理は、S116へと進む。   (S114) The information processing apparatus 100 determines whether PU [nL × 2N] is selected as a candidate for the division method. If PU [nL × 2N] is included in the candidates for the division method, the process proceeds to S115. On the other hand, when PU [nL × 2N] is not included in the candidates for the division method, the process proceeds to S116.

(S115)情報処理装置100は、動き検出部113の機能により、対象CUをPU[nL×2N]のPUに分割する。この場合、PUは左側1/4のPUと右側3/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[nL×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。S115の処理が完了すると、処理は、S117へと進む。   (S115) The information processing apparatus 100 divides the target CU into PUs of PU [nL × 2N] by the function of the motion detection unit 113. In this case, the PU is divided into a left 1/4 PU and a right 3/4 PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. Then, the information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nL × 2N] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used. When the process of S115 is completed, the process proceeds to S117.

(S116)情報処理装置100は、動き検出部113の機能により、対象CUをPU[nR×2N]のPUに分割する。この場合、PUは左側3/4のPUと右側1/4のPUとに分割される。情報処理装置100は、動き検出部113の機能により、分割で得た2つのPUのそれぞれについて動き検出を行い、PU毎に評価値を計算する。そして、情報処理装置100は、動き検出部113の機能により、PU毎に計算した評価値の合計値をPU[nR×2N]に対応する評価値とする。評価値としては、例えば、上記のMEコストが用いられる。   (S116) The information processing apparatus 100 divides the target CU into PUs of PU [nR × 2N] by the function of the motion detection unit 113. In this case, the PU is divided into a left 3/4 PU and a right 1/4 PU. The information processing apparatus 100 performs motion detection for each of the two PUs obtained by the division by the function of the motion detection unit 113, and calculates an evaluation value for each PU. Then, the information processing apparatus 100 sets the total value of the evaluation values calculated for each PU as an evaluation value corresponding to PU [nR × 2N] by the function of the motion detection unit 113. As the evaluation value, for example, the above ME cost is used.

(S117)情報処理装置100は、動き検出部113の機能により、PU[2N×2N]に対応する評価値、縦方向分割に関する候補の評価値、横方向分割に関する候補の評価値を比較する。そして、情報処理装置100は、動き検出部113の機能により、評価値が最小となる分割方法を選択し、その評価値を保存する。例えば、PU[2N×2N]に対応する評価値が最小である場合、情報処理装置100は、動き検出部113の機能により、PU[2N×2N]の評価値を保存する。   (S117) The information processing apparatus 100 compares the evaluation value corresponding to PU [2N × 2N], the evaluation value of the candidate related to vertical division, and the evaluation value of the candidate related to horizontal division by the function of the motion detection unit 113. Then, the information processing apparatus 100 selects a division method that minimizes the evaluation value by the function of the motion detection unit 113 and stores the evaluation value. For example, when the evaluation value corresponding to PU [2N × 2N] is the minimum, the information processing apparatus 100 stores the evaluation value of PU [2N × 2N] by the function of the motion detection unit 113.

(S118)情報処理装置100は、全てのCUを選択したか否かを判定する。指定されたCU depthについて全てのCUが選択済みの場合、処理はS119へと進む。一方、指定されたCU depthについて選択済みではないCUが存在する場合、処理は、図12のS102へと進む。   (S118) The information processing apparatus 100 determines whether all CUs have been selected. If all CUs have been selected for the specified CU depth, the process proceeds to S119. On the other hand, if there is a CU that has not been selected for the specified CU depth, the process proceeds to S102 in FIG.

(S119)情報処理装置100は、全てのCU depthを指定したか否かを判定する。CU depth 0からCU depth 3まで全てのCU depthが指定済みの場合、処理はS120へと進む。一方、指定済みではないCU depthが存在する場合、処理は、図12のS101へと進む。   (S119) The information processing apparatus 100 determines whether all CU depths have been specified. If all CU depths from CU depth 0 to CU depth 3 have been specified, the process proceeds to S120. On the other hand, if there is a CU depth that has not been specified, the process proceeds to S101 in FIG.

(S120)情報処理装置100は、CU depth毎に、保存した評価値を合計した評価値合計を計算する。そして、情報処理装置100は、評価値合計が最小となるCU depthを選択する。S120の処理が完了すると、図12〜図14に示した一連の処理は終了する。   (S120) The information processing apparatus 100 calculates an evaluation value sum obtained by summing the stored evaluation values for each CU depth. Then, the information processing apparatus 100 selects a CU depth that minimizes the total evaluation value. When the process of S120 is completed, the series of processes shown in FIGS.

以上、対象CUの分割方法に係る処理の流れについて説明した。
以上説明したように、対象CUと隣接CUとの境界に位置する領域間の類似度、及び対象CUを分割した領域間の類似度に基づいてPUの種類を絞り込むことにより、動き検出及びコスト評価の処理を実行する回数が低減され、符号化処理の負担が軽減される。
The processing flow related to the method for dividing the target CU has been described above.
As described above, motion detection and cost evaluation are performed by narrowing down the types of PUs based on the similarity between regions located at the boundary between the target CU and adjacent CUs, and the similarity between regions obtained by dividing the target CU. The number of times of executing this process is reduced, and the burden of the encoding process is reduced.

以上、第2実施形態について説明した。
<3.第3実施形態>
第3実施形態について説明する。上述した第2実施形態では、比較対象の領域に含まれる画素の画素値(輝度値や色差など)を利用して領域間の類似性を評価した。以下で説明する第3実施形態では、比較対象の領域が有するDC(Direct Current)成分を利用して領域間の類似性を評価する方法を提案する。
The second embodiment has been described above.
<3. Third Embodiment>
A third embodiment will be described. In the second embodiment described above, similarity between regions is evaluated using pixel values (luminance values, color differences, etc.) of pixels included in the comparison target region. In the third embodiment described below, a method for evaluating the similarity between regions using a DC (Direct Current) component of a region to be compared is proposed.

(情報処理装置の機能)
図15を参照しながら、情報処理装置200の機能について説明する。情報処理装置200は、第3実施形態に係る情報処理装置の一例である。また、情報処理装置200が有する機能は、図7に例示したハードウェアを用いて実現可能である。なお、図15は、第3実施形態に係る情報処理装置が有する機能の一例を示したブロック図である。
(Function of information processing device)
The function of the information processing apparatus 200 will be described with reference to FIG. The information processing apparatus 200 is an example of an information processing apparatus according to the third embodiment. Further, the functions of the information processing apparatus 200 can be realized using the hardware illustrated in FIG. FIG. 15 is a block diagram illustrating an example of the functions of the information processing apparatus according to the third embodiment.

図15に示すように、情報処理装置200は、減算器201、整数変換部202、量子化部203、及びエントロピー符号化部204を有する。また、情報処理装置200は、逆量子化部205、逆整数変換部206、加算器207、フィルタ208、及びフレームメモリ209を有する。さらに、情報処理装置200は、イントラ予測部210、DC差分計算部211、PU決定部212、動き検出部213、動き補償部214、及び切り替え部215を有する。   As illustrated in FIG. 15, the information processing apparatus 200 includes a subtractor 201, an integer conversion unit 202, a quantization unit 203, and an entropy encoding unit 204. Further, the information processing apparatus 200 includes an inverse quantization unit 205, an inverse integer conversion unit 206, an adder 207, a filter 208, and a frame memory 209. Furthermore, the information processing apparatus 200 includes an intra prediction unit 210, a DC difference calculation unit 211, a PU determination unit 212, a motion detection unit 213, a motion compensation unit 214, and a switching unit 215.

なお、減算器201、整数変換部202、量子化部203、エントロピー符号化部204、逆量子化部205、逆整数変換部206、加算器207、フィルタ208の機能は、上述したCPU902などを用いて実現できる。また、イントラ予測部210、DC差分計算部211、PU決定部212、動き検出部213、動き補償部214、及び切り替え部215の機能は、上述したCPU902などを用いて実現できる。また、フレームメモリ209の機能は、上述したRAM906や記憶部920などを用いて実現できる。   Note that the functions of the subtractor 201, integer transform unit 202, quantization unit 203, entropy encoding unit 204, inverse quantization unit 205, inverse integer transform unit 206, adder 207, and filter 208 use the above-described CPU 902 and the like. Can be realized. Further, the functions of the intra prediction unit 210, the DC difference calculation unit 211, the PU determination unit 212, the motion detection unit 213, the motion compensation unit 214, and the switching unit 215 can be realized by using the above-described CPU 902 or the like. The function of the frame memory 209 can be realized using the above-described RAM 906, storage unit 920, and the like.

情報処理装置200には、符号化対象の動画フレームに対応する画像データ(入力画像データ)が入力される。入力画像データは、減算器201に入力される。また、減算器201には、動き補償により生成された予測画像データが入力される。減算器201は、入力画像データから予測画像データを減算して予測誤差信号を生成する。予測誤差信号は、整数変換部202に入力される。   The information processing apparatus 200 receives image data (input image data) corresponding to a moving image frame to be encoded. The input image data is input to the subtractor 201. Further, the subtracter 201 receives the predicted image data generated by the motion compensation. The subtracter 201 subtracts the predicted image data from the input image data to generate a prediction error signal. The prediction error signal is input to the integer conversion unit 202.

整数変換部202は、予測誤差信号を整数変換して係数信号を生成する。例えば、整数変換部202は、整数精度が4×4、8×8、16×16、32×32のDCT変換を実行し、予測誤差信号の周波数成分に対応するDCT係数の集合(係数信号)を生成する。係数信号は、量子化部203及びDC差分計算部211に入力される。量子化部203は、係数信号を量子化して量子化データを生成する。量子化データは、エントロピー符号化部204及び逆量子化部205に入力される。   The integer conversion unit 202 performs integer conversion on the prediction error signal to generate a coefficient signal. For example, the integer transform unit 202 performs DCT transform with integer precision of 4 × 4, 8 × 8, 16 × 16, and 32 × 32, and a set of DCT coefficients (coefficient signals) corresponding to the frequency components of the prediction error signal. Is generated. The coefficient signal is input to the quantization unit 203 and the DC difference calculation unit 211. The quantization unit 203 quantizes the coefficient signal to generate quantized data. The quantized data is input to the entropy encoding unit 204 and the inverse quantization unit 205.

エントロピー符号化部204には、後述するイントラ予測部210及び動き検出部213の出力データも入力される。エントロピー符号化部204は、量子化データ、イントラ予測部210の出力データ、及び動き検出部213の出力データ(例えば、動きベクトルの情報)をエントロピー符号化して符号化データを生成する。なお、エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる符号化方法である。   The entropy encoding unit 204 also receives output data from an intra prediction unit 210 and a motion detection unit 213, which will be described later. The entropy encoding unit 204 entropy-encodes the quantized data, the output data of the intra prediction unit 210, and the output data of the motion detection unit 213 (for example, motion vector information) to generate encoded data. Note that entropy coding is a coding method in which a variable-length code is assigned according to the appearance frequency of a symbol.

逆量子化部205は、入力された量子化データを逆量子化して係数信号を復元する。復元された係数信号は、逆整数変換部206に入力される。逆整数変換部206は、入力された係数信号に逆整数変換を施して予測誤差信号を復元する。復元された予測誤差信号は、減算器201から出力された予測誤差信号と同等の信号である。逆整数変換部206により復元された予測誤差信号は、加算器207に入力される。また、加算器207には、動き補償により生成された予測画像データが入力される。   The inverse quantization unit 205 restores the coefficient signal by inverse quantization of the input quantized data. The restored coefficient signal is input to the inverse integer transform unit 206. The inverse integer transform unit 206 performs inverse integer transform on the input coefficient signal to restore the prediction error signal. The restored prediction error signal is a signal equivalent to the prediction error signal output from the subtracter 201. The prediction error signal restored by the inverse integer conversion unit 206 is input to the adder 207. Further, the adder 207 receives predicted image data generated by motion compensation.

加算器207は、入力された予測誤差信号と予測画像データとを加算して参照画像信号(参照ピクチャのPUに相当)を生成する。参照画像信号は、フィルタ208及びイントラ予測部210に入力される。フィルタ208は、参照画像信号に対してデブロッキングフィルタ、SAO(Sample Adaptive Offset)、ALF(Adaptive Loop Filter)の処理を施してブロックノイズの発生を抑制する。フィルタ208で処理された参照画像信号は、フレームメモリ209に格納される。イントラ予測部210は、イントラ予測により同じ画像内の周辺画素から予測画像データを生成する。   The adder 207 adds the input prediction error signal and the prediction image data to generate a reference image signal (corresponding to the PU of the reference picture). The reference image signal is input to the filter 208 and the intra prediction unit 210. The filter 208 performs processing of a deblocking filter, SAO (Sample Adaptive Offset), and ALF (Adaptive Loop Filter) on the reference image signal to suppress the generation of block noise. The reference image signal processed by the filter 208 is stored in the frame memory 209. The intra prediction unit 210 generates predicted image data from neighboring pixels in the same image by intra prediction.

DC差分計算部211は、整数変換部202から入力される係数信号のDC成分に基づいて、対象CUと、対象CUに隣接するCU(隣接CU)との境界付近に位置するブロック間の類似度を表す差分情報を生成する。差分情報は、PU決定部212に入力される。PU決定部212は、差分情報に基づいて対象CUの分割方法(利用するPUの種類)を絞り込む。PU決定部212が実行する処理の内容については後述する。PU決定部212により絞り込まれた対象CUの分割方法を表す情報(候補PU情報)は、動き検出部213に入力される。   The DC difference calculation unit 211 is based on the DC component of the coefficient signal input from the integer conversion unit 202, and the similarity between blocks located near the boundary between the target CU and a CU adjacent to the target CU (adjacent CU). The difference information representing is generated. The difference information is input to the PU determination unit 212. The PU determination unit 212 narrows down the target CU division method (type of PU to be used) based on the difference information. The contents of the process executed by the PU determination unit 212 will be described later. Information (candidate PU information) indicating the method of dividing the target CU narrowed down by the PU determination unit 212 is input to the motion detection unit 213.

動き検出部213は、入力画像データ、フレームメモリ209から読み出した参照画像信号、及び候補PU情報を用いて動きベクトルを検出する。動き検出部213により検出された動きベクトルは、動き補償部214に入力される。動き補償部214は、入力された動きベクトルに基づき、フレームメモリ209から読み出した参照画像信号に動き補償を施して予測画像データを生成する。切り替え部215は、イントラ予測部210又は動き補償部214を選択し、選択した要素が出力した予測画像データを減算器201及び加算器207に入力する。   The motion detection unit 213 detects a motion vector using the input image data, the reference image signal read from the frame memory 209, and candidate PU information. The motion vector detected by the motion detection unit 213 is input to the motion compensation unit 214. The motion compensation unit 214 performs motion compensation on the reference image signal read from the frame memory 209 based on the input motion vector, and generates predicted image data. The switching unit 215 selects the intra prediction unit 210 or the motion compensation unit 214, and inputs the predicted image data output by the selected element to the subtracter 201 and the adder 207.

(整数変換部202、DC差分計算部211、PU決定部212の機能について)
ここで、図16及び図17を参照しながら、DC差分計算部211及びPU決定部212の機能について、さらに説明する。なお、図16は、第3実施形態に係るPUの分割方法(縦方向分割)及び類似性の評価について説明するための図である。図17は、第3実施形態に係るPUの分割方法(横方向分割)及び類似性の評価について説明するための図である。
(Regarding the functions of the integer conversion unit 202, the DC difference calculation unit 211, and the PU determination unit 212)
Here, the functions of the DC difference calculation unit 211 and the PU determination unit 212 will be further described with reference to FIGS. 16 and 17. FIG. 16 is a diagram for explaining a PU division method (vertical direction division) and similarity evaluation according to the third embodiment. FIG. 17 is a diagram for explaining a PU division method (horizontal division) and similarity evaluation according to the third embodiment.

(縦方向分割について)
まず、図16を参照しながら、対象CUの縦方向分割(PU[2N×N]、PU[2N×nU]、PU[2N×nD])について考える。なお、対象CUをCUO、CUOの上側に位置する隣接CUをCUU、CUOの下側に位置する隣接CUをCUDと表記する。また、各CUのサイズは2N×2Nである。
(About vertical division)
First, with reference to FIG. 16, the vertical division (PU [2N × N], PU [2N × nU], PU [2N × nD]) of the target CU will be considered. Incidentally, denoted CU O target CU, CU U adjacent CU located above the CU O, adjacent CU located below the CU O and CU D. The size of each CU is 2N × 2N.

また、CUUの下側1/4を占める領域をRU、CUOの上側1/4を占める領域をR1、R1の下側に隣接する2N×(N/2)の領域をR2と表記する。さらに、CUDの上側1/4を占める領域をRD、CUOの下側1/4を占める領域をR3、R3の上側に隣接する2N×(N/2)の領域をR4と表記する。RUとR1とは、CUUとCUOとの間の境界で接する。また、R3とRDとは、CUOとCUDとの境界で接する。 In addition, the region occupying the lower 1/4 of CU U is R U , the region occupying the upper 1/4 of CU O is R 1 , and the 2N × (N / 2) region adjacent to the lower side of R 1 is R Indicated as 2 . Further, the region occupying the upper 1/4 of CU D is R D , the region occupying the lower 1/4 of CU O is R 3 , and the 2N × (N / 2) region adjacent to the upper side of R 3 is R 4. Is written. R U and R 1 touch at the boundary between CU U and CU O. R 3 and R D are in contact with each other at the boundary between CU O and CU D.

整数変換部202は、RUを4つの矩形ブロックBU1、BU2、BU3、BU4に分割する。また、整数変換部202は、矩形ブロックBU1、BU2、BU3、BU4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBU1、BU2、BU3、BU4のそれぞれについて計算した係数信号の中からDC成分(以下、DC値)を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBU1、BU2、BU3、BU4のDC値を合計し、合計値をRUのDC値VUとする。 The integer conversion unit 202 divides R U into four rectangular blocks B U1 , B U2 , B U3 , B U4 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B U1 , B U2 , B U3 , and B U4 to generate coefficient signals. Further, the integer conversion unit 202 extracts a DC component (hereinafter referred to as a DC value) from coefficient signals calculated for each of the rectangular blocks B U1 , B U2 , B U3 , and B U4 , and inputs them to the DC difference calculation unit 211. To do. The DC difference calculation unit 211 sums the DC values of the rectangular blocks B U1 , B U2 , B U3 , B U4 and sets the total value as the DC value V U of R U.

また、整数変換部202は、R1を4つの矩形ブロックB11、B12、B13、B14に分割する。また、整数変換部202は、矩形ブロックB11、B12、B13、B14の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB11、B12、B13、B14のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB11、B12、B13、B14のDC値を合計し、合計値をR1のDC値V1とする。 The integer conversion unit 202 divides R 1 into four rectangular blocks B 11 , B 12 , B 13 , and B 14 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 11 , B 12 , B 13 , and B 14 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 11 , B 12 , B 13 , and B 14 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 adds the DC values of the rectangular blocks B 11 , B 12 , B 13 , and B 14 and sets the total value as the DC value V 1 of R 1 .

また、整数変換部202は、R2を4つの矩形ブロックB21、B22、B23、B24に分割する。また、整数変換部202は、矩形ブロックB21、B22、B23、B24の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB21、B22、B23、B24のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB21、B22、B23、B24のDC値を合計し、合計値をR2のDC値V2とする。 The integer conversion unit 202 divides R 2 into four rectangular blocks B 21 , B 22 , B 23 , and B 24 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 21 , B 22 , B 23 , and B 24 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 21 , B 22 , B 23 , and B 24 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums up the DC values of the rectangular blocks B 21 , B 22 , B 23 , and B 24 and sets the total value as the DC value V 2 of R 2 .

また、DC差分計算部211は、RUとR1との差分として、RUのDC値VUと、R1のDC値V1との差分絶対値DV1U(DV1U=|VU−V1|)を計算する。また、DC差分計算部211は、R1とR2との差分として、R1のDC値V1と、R2のDC値V2との差分絶対値DV12(DV12=|V1−V2|)を計算する。 Also, DC difference calculation unit 211, as the difference between R U and R 1, R and DC values V U of U, the R 1 DC value difference absolute value DV 1U of V 1 (DV 1U = | V U - V 1 |) is calculated. Also, DC difference calculation unit 211, R 1 and as the difference between the R 2, a DC value V 1 of the R 1, the difference absolute value between the DC value V 2 of the R 2 DV 12 (DV 12 = | V 1 - V 2 |) is calculated.

また、整数変換部202は、RDを4つの矩形ブロックBD1、BD2、BD3、BD4に分割する。また、整数変換部202は、矩形ブロックBD1、BD2、BD3、BD4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBD1、BD2、BD3、BD4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBD1、BD2、BD3、BD4のDC値を合計し、合計値をRDのDC値VDとする。 The integer conversion unit 202 divides R D into four rectangular blocks B D1 , B D2 , B D3 , and B D4 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B D1 , B D2 , B D3 , and B D4 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B D1 , B D2 , B D3 , and B D4 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums the DC values of the rectangular blocks B D1 , B D2 , B D3 , and B D4 and sets the total value as the DC value V D of R D.

また、整数変換部202は、R3を4つの矩形ブロックB31、B32、B33、B34に分割する。また、整数変換部202は、矩形ブロックB31、B32、B33、B34の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB31、B32、B33、B34のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB31、B32、B33、B34のDC値を合計し、合計値をR3のDC値V3とする。 Further, the integer conversion unit 202 divides the R 3 into four rectangular blocks B 31, B 32, B 33 , B 34. In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 31 , B 32 , B 33 , and B 34 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 31 , B 32 , B 33 , and B 34 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums up the DC values of the rectangular blocks B 31 , B 32 , B 33 , and B 34 and sets the total value as the DC value V 3 of R 3 .

また、整数変換部202は、R4を4つの矩形ブロックB41、B42、B43、B44に分割する。また、整数変換部202は、矩形ブロックB41、B42、B43、B44の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB41、B42、B43、B44のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB41、B42、B43、B44のDC値を合計し、合計値をR4のDC値V4とする。 The integer conversion unit 202 divides R 4 into four rectangular blocks B 41 , B 42 , B 43 , and B 44 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 41 , B 42 , B 43 , and B 44 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 41 , B 42 , B 43 , and B 44 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 adds the DC values of the rectangular blocks B 41 , B 42 , B 43 , and B 44 , and sets the total value as the DC value V 4 of R 4 .

また、DC差分計算部211は、RDとR3との差分として、RDのDC値VDと、R3のDC値V3との差分絶対値DV3D(DV3D=|VD−V3|)を計算する。また、DC差分計算部211は、R3とR4との差分として、R3のDC値V3と、R4のDC値V4との差分絶対値DV34(DV34=|V3−V4|)を計算する。 Also, DC difference calculation unit 211, a difference between R D and R 3, R D DC value V D and the difference between the DC value V 3 of R 3 absolute value DV 3D (DV 3D = | V D - V 3 |) is calculated. Also, DC difference calculation unit 211, R 3 and the difference between R 4, and DC value V 3 of R 3, the difference absolute value between the DC value V 4 of R 4 DV 34 (DV 34 = | V 3 - V 4 |) is calculated.

DC差分計算部211により計算されたDV1U、DV12、DV3D、DV34は、PU決定部212に入力される。PU決定部212は、DV1U、DV12、DV3D、DV34を比較する。比較結果は、例えば、下記の4つのケースに分けられる。 DV 1U , DV 12 , DV 3D , DV 34 calculated by the DC difference calculation unit 211 are input to the PU determination unit 212. The PU determination unit 212 compares DV 1U , DV 12 , DV 3D , and DV 34 . The comparison results are divided into the following four cases, for example.

(ケース#1:DV1U<DV12、かつ、DV3D<DV34
ケース#1は、R2よりもRUの方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DV1U<DV12、かつ、DV3D<DV34の場合、PU決定部212は、DV1UとDV3Dとを比較する。DV1U<DV3Dの場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。一方、DV1U>DV3Dの場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 1: DV 1U <DV 12 and DV 3D <DV 34 )
Case # 1 is a case in which R U is more similar to R 1 than R 2 , and R D is more similar to R 3 than R 4 . When DV 1U <DV 12 and DV 3D <DV 34 , the PU determination unit 212 compares DV 1U with DV 3D . In the case of DV 1U <DV 3D , the PU determination unit 212 selects PU [2N × nU] as a candidate for a division method related to vertical division. On the other hand, when DV 1U > DV 3D , the PU determination unit 212 selects PU [2N × nD] as a candidate for a division method related to vertical division.

(ケース#2:DV1U<DV12、かつ、DV3D>DV34
ケース#2は、R2よりもRUの方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DV1U<DV12、かつ、DV3D>DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nU]を選択する。
(Case # 2: DV 1U <DV 12 and DV 3D > DV 34 )
Case # 2 is a case in which R U is more similar to R 1 than R 2 , and R 4 is more similar to R 3 than R D. When DV 1U <DV 12 and DV 3D > DV 34 , the PU determination unit 212 selects PU [2N × nU] as a candidate for a division method related to vertical division.

(ケース#3:DV1U>DV12、かつ、DV3D<DV34
ケース#3は、RUよりもR2の方がR1に類似しており、かつ、R4よりもRDの方がR3に類似しているケースである。DV1U>DV12、かつ、DV3D<DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×nD]を選択する。
(Case # 3: DV 1U > DV 12 and DV 3D <DV 34 )
Case # 3 is a case in which R 2 is more similar to R 1 than R U , and R D is more similar to R 3 than R 4 . When DV 1U > DV 12 and DV 3D <DV 34 , the PU determination unit 212 selects PU [2N × nD] as a candidate for a division method related to vertical division.

(ケース#4:DV1U>DV12、かつ、DV3D>DV34
ケース#4は、RUよりもR2の方がR1に類似しており、かつ、RDよりもR4の方がR3に類似しているケースである。DV1U>DV12、かつ、DV3D>DV34の場合、PU決定部212は、縦方向分割に関する分割方法の候補としてPU[2N×N]を選択する。
(Case # 4: DV 1U > DV 12 and DV 3D > DV 34 )
Case # 4 is a case in which R 2 is more similar to R 1 than R U , and R 4 is more similar to R 3 than R D. When DV 1U > DV 12 and DV 3D > DV 34 , the PU determination unit 212 selects PU [2N × N] as a candidate for a division method related to vertical division.

上記の方法により、縦方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。
(横方向分割について)
次に、図17を参照しながら、対象CUの縦方向分割(PU[N×2N]、PU[nR×2N]、PU[nL×2N])について考える。なお、対象CUをCUO、CUOの右側に位置する隣接CUをCUR、CUOの左側に位置する隣接CUをCULと表記する。また、各CUのサイズは2N×2Nである。
With the above method, the method of dividing the target CU regarding the vertical division is narrowed down to one candidate.
(About horizontal division)
Next, the vertical division (PU [N × 2N], PU [nR × 2N], PU [nL × 2N]) of the target CU will be considered with reference to FIG. Incidentally, denoted CU O target CU, CU adjacent CU located on the right side of the CU O R, adjacent CU located on the left side of the CU O and CU L. The size of each CU is 2N × 2N.

また、CURの左側1/4を占める領域をRR、CUOの右側1/4を占める領域をR5、R5の左側に隣接する(N/2)×2Nの領域をR6と表記する。さらに、CULの右側1/4を占める領域をRL、CUOの左側1/4を占める領域をR7、R7の右側に隣接する(N/2)×2Nの領域をR8と表記する。RRとR5とは、CURとCUOとの間の境界で接する。また、R7とRLとは、CUOとCULとの境界で接する。 An area occupying the left quarter of CU R is R R , an area occupying the right quarter of CU O is R 5 , and an (N / 2) × 2N area adjacent to the left side of R 5 is R 6 . write. Further, an area occupying the right quarter of CU L is R L , an area occupying the left quarter of CU O is R 7 , and an (N / 2) × 2N area adjacent to the right side of R 7 is R 8 . write. R R and R 5 touch at the boundary between CU R and CU O. R 7 and R L are in contact with each other at the boundary between CU O and CU L.

整数変換部202は、RRを4つの矩形ブロックBR1、BR2、BR3、BR4に分割する。また、整数変換部202は、矩形ブロックBR1、BR2、BR3、BR4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBR1、BR2、BR3、BR4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBR1、BR2、BR3、BR4のDC値を合計し、合計値をRRのDC値VRとする。 The integer conversion unit 202 divides R R into four rectangular blocks B R1 , B R2 , B R3 , and B R4 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B R1 , B R2 , B R3 , and B R4 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B R1 , B R2 , B R3 , and B R4 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums the DC values of the rectangular blocks B R1 , B R2 , B R3 , B R4 and sets the total value as the DC value V R of R R.

また、整数変換部202は、R5を4つの矩形ブロックB51、B52、B53、B54に分割する。また、整数変換部202は、矩形ブロックB51、B52、B53、B54の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB51、B52、B53、B54のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB51、B52、B53、B54のDC値を合計し、合計値をR5のDC値V5とする。 The integer conversion unit 202 divides R 5 into four rectangular blocks B 51 , B 52 , B 53 , and B 54 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 51 , B 52 , B 53 , and B 54 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 51 , B 52 , B 53 , and B 54 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums up the DC values of the rectangular blocks B 51 , B 52 , B 53 , and B 54 , and sets the total value as the DC value V 5 of R 5 .

また、整数変換部202は、R6を4つの矩形ブロックB61、B62、B63、B64に分割する。また、整数変換部202は、矩形ブロックB61、B62、B63、B64の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB61、B62、B63、B64のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB61、B62、B63、B64のDC値を合計し、合計値をR6のDC値V6とする。 The integer conversion unit 202 divides R 6 into four rectangular blocks B 61 , B 62 , B 63 , and B 64 . The integer conversion unit 202 DCT converts the pixel values of the rectangular blocks B 61 , B 62 , B 63 , and B 64 , respectively, to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 61 , B 62 , B 63 , and B 64 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 adds the DC values of the rectangular blocks B 61 , B 62 , B 63 , and B 64 , and sets the total value as the DC value V 6 of R 6 .

また、DC差分計算部211は、RRとR5との差分として、RRのDC値VRと、R5のDC値V5との差分絶対値DV5R(DV5R=|VR−V5|)を計算する。また、DC差分計算部211は、R5とR6との差分として、R5のDC値V5と、R6のDC値V6との差分絶対値DV56(DV56=|V5−V6|)を計算する。 Also, DC difference calculation unit 211, R as the difference between R and R 5, R a DC value V R of the R, the difference absolute value DV 5R the DC value V 5 of R 5 (DV 5R = | V R - V 5 |) is calculated. Also, DC difference calculation unit 211, as the difference between R 5 and R 6, R a DC value V 5 of 5, absolute difference between the DC value V 6 of R 6 DV 56 (DV 56 = | V 5 - V 6 |) is calculated.

また、整数変換部202は、RLを4つの矩形ブロックBL1、BL2、BL3、BL4に分割する。また、整数変換部202は、矩形ブロックBL1、BL2、BL3、BL4の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックBL1、BL2、BL3、BL4のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックBL1、BL2、BL3、BL4のDC値を合計し、合計値をRLのDC値VLとする。 The integer conversion unit 202 divides R L into four rectangular blocks B L1 , B L2 , B L3 , and B L4 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B L1 , B L2 , B L3 , and B L4 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B L1 , B L2 , B L3 , and B L4 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 adds the DC values of the rectangular blocks B L1 , B L2 , B L3 , and B L4 and sets the total value as the DC value V L of R L.

また、整数変換部202は、R7を4つの矩形ブロックB71、B72、B73、B74に分割する。また、整数変換部202は、矩形ブロックB71、B72、B73、B74の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB71、B72、B73、B74のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB71、B72、B73、B74のDC値を合計し、合計値をR7のDC値V7とする。 The integer conversion unit 202 divides R 7 into four rectangular blocks B 71 , B 72 , B 73 , and B 74 . The integer conversion unit 202 DCT converts the pixel values of the rectangular blocks B 71 , B 72 , B 73 , and B 74 , respectively, to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 71 , B 72 , B 73 , and B 74 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 sums the DC values of the rectangular blocks B 71 , B 72 , B 73 , and B 74 , and sets the total value as the DC value V 7 of R 7 .

また、整数変換部202は、R8を4つの矩形ブロックB81、B82、B83、B84に分割する。また、整数変換部202は、矩形ブロックB81、B82、B83、B84の画素値をそれぞれDCT変換して係数信号を生成する。さらに、整数変換部202は、矩形ブロックB81、B82、B83、B84のDC値を抽出してDC差分計算部211に入力する。DC差分計算部211は、矩形ブロックB81、B82、B83、B84のDC値を合計し、合計値をR8のDC値V8とする。 The integer conversion unit 202 divides R 8 into four rectangular blocks B 81 , B 82 , B 83 , and B 84 . In addition, the integer conversion unit 202 performs DCT conversion on the pixel values of the rectangular blocks B 81 , B 82 , B 83 , and B 84 to generate coefficient signals. Further, the integer conversion unit 202 extracts the DC values of the rectangular blocks B 81 , B 82 , B 83 , and B 84 and inputs them to the DC difference calculation unit 211. The DC difference calculation unit 211 adds up the DC values of the rectangular blocks B 81 , B 82 , B 83 , and B 84 and sets the total value as the DC value V 8 of R 8 .

また、DC差分計算部211は、RLとR7との差分として、RLのDC値VLと、R7のDC値V7との差分絶対値DV7L(DV7L=|VL−V7|)を計算する。また、DC差分計算部211は、R7とR8との差分として、R7のDC値V7と、R8のDC値V8との差分絶対値DV78(DV78=|V7−V8|)を計算する。 Also, DC difference calculation unit 211, as the difference between the R L and R 7, R a DC value V L of the L, R 7 DC value V difference absolute value DV 7L and 7 (DV 7L = | V L - V 7 |) is calculated. Also, DC difference calculation unit 211, R 7 and as the difference between R 8, a DC value V 7 of R 7, a difference absolute value between the DC value V 8 of R 8 DV 78 (DV 78 = | V 7 - V 8 |) is calculated.

DC差分計算部211により計算されたDV5R、DV56、DV7L、DV78は、PU決定部212に入力される。PU決定部212は、DV5R、DV56、DV7L、DV78を比較する。比較結果は、例えば、下記の4つのケースに分けられる。 DV 5R , DV 56 , DV 7L , DV 78 calculated by the DC difference calculation unit 211 are input to the PU determination unit 212. The PU determination unit 212 compares DV 5R , DV 56 , DV 7L , and DV 78 . The comparison results are divided into the following four cases, for example.

(ケース#1:DV5R<DV56、かつ、DV7L<DV78
ケース#1は、R6よりもRRの方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DV5R<DV56、かつ、DV7L<DV78の場合、PU決定部212は、DV5RとDV7Lとを比較する。DV5R<DV7Lの場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。一方、DV5R>DV7Lの場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 1: DV 5R <DV 56 and DV 7L <DV 78 )
Case # 1 is a case in which R R is more similar to R 5 than R 6 , and R L is more similar to R 7 than R 8 . When DV 5R <DV 56 and DV 7L <DV 78 , the PU determination unit 212 compares DV 5R with DV 7L . When DV 5R <DV 7L , the PU determination unit 212 selects PU [nR × 2N] as a candidate for a division method related to the horizontal division. On the other hand, when DV 5R > DV 7L , the PU determination unit 212 selects PU [nL × 2N] as a candidate for a division method related to the horizontal division.

(ケース#2:DV5R<DV56、かつ、DV7L>DV78
ケース#2は、R6よりもRRの方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DV5R<DV56、かつ、DV7L>DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nR×2N]を選択する。
(Case # 2: DV 5R <DV 56 and DV 7L > DV 78 )
Case # 2 is a case in which R R is more similar to R 5 than R 6 , and R 8 is more similar to R 7 than R L. In the case of DV 5R <DV 56 and DV 7L > DV 78 , the PU determination unit 212 selects PU [nR × 2N] as a candidate for a division method related to horizontal division.

(ケース#3:DV5R>DV56、かつ、DV7L<DV78
ケース#3は、RRよりもR6の方がR5に類似しており、かつ、R8よりもRLの方がR7に類似しているケースである。DV5R>DV56、かつ、DV7L<DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[nL×2N]を選択する。
(Case # 3: DV 5R > DV 56 and DV 7L <DV 78 )
Case # 3, who R 6 than R R are similar to R 5, and, towards the R L than R 8 is the case that is similar to R 7. In the case of DV 5R > DV 56 and DV 7L <DV 78 , the PU determination unit 212 selects PU [nL × 2N] as a candidate for a division method for horizontal division.

(ケース#4:DV5R>DV56、かつ、DV7L>DV78
ケース#4は、RRよりもR6の方がR5に類似しており、かつ、RLよりもR8の方がR7に類似しているケースである。DV5R>DV56、かつ、DV7L>DV78の場合、PU決定部212は、横方向分割に関する分割方法の候補としてPU[N×2N]を選択する。
(Case # 4: DV 5R > DV 56 and DV 7L > DV 78 )
Case # 4, who than R R of R 6 is similar to the R 5, and, towards than R L R 8 is the case that is similar to R 7. When DV 5R > DV 56 and DV 7L > DV 78 , the PU determination unit 212 selects PU [N × 2N] as a candidate for a division method for horizontal division.

上記の方法により、横方向分割に関する対象CUの分割方法が1つの候補に絞り込まれる。なお、縦方向分割及び横方向分割に関する対象CUの分割方法に加え、PU[2N×2N]が候補に追加される。PU決定部212は、縦方向分割に関する1つの候補、横方向分割に関する1つの候補、及びPU[2N×2N]に対象CUの分割方法を絞り込む。その結果、PUの種類が低減された分だけ動き検出部213の処理負担が軽減される。   By the above method, the method of dividing the target CU regarding the horizontal division is narrowed down to one candidate. Note that PU [2N × 2N] is added to the candidates in addition to the method of dividing the target CU regarding the vertical division and the horizontal division. The PU determination unit 212 narrows down the method of dividing the target CU into one candidate for vertical division, one candidate for horizontal division, and PU [2N × 2N]. As a result, the processing load on the motion detection unit 213 is reduced by the amount that the type of PU is reduced.

以上、情報処理装置200の機能について説明した。上記の説明においては、領域毎に全ブロックのDC値を合計した合計値を各領域のDC値として利用する方法を例示したが、例えば、DC値の合計に代えてDC値の平均値を利用するなどの変形も可能である。また、ブロック毎に計算されたDC値の差分絶対値和を用いて領域間の類似度を評価する方法も考えられる。このような変形例についても第3実施形態の技術的範囲に属する。   The function of the information processing apparatus 200 has been described above. In the above description, the method of using the total value obtained by summing the DC values of all blocks for each region as the DC value of each region is exemplified. For example, instead of the sum of DC values, the average value of DC values is used. It is possible to make modifications such as A method for evaluating the similarity between regions using the sum of absolute differences of DC values calculated for each block is also conceivable. Such modifications also belong to the technical scope of the third embodiment.

(処理フローについて)
ここで、第3実施形態に係る対象CUの分割処理について述べる。第3実施形態に係る対象CUの分割処理フローは、図12〜図14に示した第2実施形態に係る処理フローのうち、S103、S104、S105の処理をDC値に基づく処理に変形したものとなる。つまり、領域間の類似性を評価する方法が上述した方法に変形される。その他の処理については実質的に同じであるため、詳細な説明を省略する。
(About processing flow)
Here, the process of dividing the target CU according to the third embodiment will be described. The target CU division processing flow according to the third embodiment is obtained by modifying the processing of S103, S104, and S105 into processing based on a DC value in the processing flow according to the second embodiment shown in FIGS. It becomes. That is, the method for evaluating the similarity between regions is modified to the method described above. Since other processes are substantially the same, detailed description thereof is omitted.

以上、第3実施形態について説明した。
以上、添付図面を参照しながら好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、様々な変形例や修正例に想到し得ることは明らかであり、こうした変形例や修正例についても当然に本発明の技術的範囲に属することは言うまでもない。
The third embodiment has been described above.
As mentioned above, although preferred embodiment was described referring an accompanying drawing, this invention is not limited to the example which concerns. It is obvious for a person skilled in the art that various variations and modifications can be conceived within the scope of the claims, and such variations and modifications are naturally understood by the technical scope of the present invention. It goes without saying that it belongs to a range.

<4.付記>
以上説明した実施形態に関し、さらに以下の付記を開示する。
(付記1) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部と、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする演算部と
を有する、情報処理装置。
<4. Addendum>
The following additional notes are disclosed with respect to the embodiment described above.
(Supplementary note 1) A storage unit that stores a target block and an adjacent block adjacent to the target block;
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. And an arithmetic unit that uses the excluded area as a candidate for a predictive coding unit.

(付記2) 前記演算部は、前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも低い場合に、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を予測符号化の単位の候補とする
付記1に記載の情報処理装置。
(Additional remark 2) When the similarity of the said 1st area | region and the said adjacent area is lower than the similarity of the said 1st area | region and the said 2nd area | region, the said calculating part is said 1st area | region and said 2nd area | region. The information processing device according to attachment 1, wherein a third region combined with a region and a region obtained by removing the third region from the target block are candidates for predictive coding units.

(付記3) 前記第1領域は、前記対象ブロックの中で前記境界側に1/4を占める領域であり、
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
付記1又は2に記載の情報処理装置。
(Supplementary Note 3) The first region is a region that occupies 1/4 on the boundary side in the target block,
The information processing apparatus according to appendix 1 or 2, wherein the second area and the adjacent area are areas having the same size as the first area.

(付記4) 前記記憶部は、第1の方向に向かって前記対象ブロックに隣接する第1の隣接ブロックと、前記第1の方向に直交する第2の方向に向かって前記対象ブロックに隣接する第2の隣接ブロックとを記憶し、
前記演算部は、前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
付記1〜3のいずれかに記載の情報処理装置。
(Additional remark 4) The said memory | storage part adjoins the said target block toward the 1st adjacent block adjacent to the said target block toward a 1st direction, and the 2nd direction orthogonal to the said 1st direction. Storing the second adjacent block;
The arithmetic unit evaluates the similarity between the first area and the adjacent area and the similarity between the first area and the second area for each of the first adjacent block and the second adjacent block. The information processing apparatus according to any one of appendices 1 to 3, wherein a candidate for the predictive coding unit is determined.

(付記5) 前記演算部は、前記第1領域に含まれる画素の輝度と前記隣接領域に含まれる画素の輝度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 5) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the brightness | luminance of the pixel contained in the said 1st area | region, and the brightness | luminance of the pixel contained in the said adjacent area. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the first region and the luminance of the pixel included in the second region. An information processing apparatus according to claim 1.

(付記6) 前記演算部は、前記第1領域に含まれる画素の色差と前記隣接領域に含まれる画素の色差との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 6) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the color difference of the pixel contained in the said 1st area | region, and the color difference of the pixel contained in the said adjacent area | region. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the first region and the luminance of the pixel included in the second region. An information processing apparatus according to claim 1.

(付記7) 前記演算部は、前記第1領域の平坦度と前記隣接領域の平坦度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域の平坦度と前記第2領域の平坦度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 7) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the flatness of the said 1st area | region, and the flatness of the said adjacent area, The information processing apparatus according to any one of appendices 1 to 4, wherein the similarity between the first region and the second region is evaluated based on a difference between a flatness and a flatness of the second region.

(付記8) 前記演算部は、前記第1領域が有する直流成分の値と前記隣接領域が有する直流成分の値との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域が有する直流成分の値と前記第2領域が有する直流成分の値との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記1〜4のいずれかに記載の情報処理装置。
(Additional remark 8) The said calculating part evaluates the similarity of the said 1st area | region and the said adjacent area based on the difference of the value of the DC component which the said 1st area | region has, and the value of the DC component which the said adjacent area | region has. The similarity between the first region and the second region is evaluated based on the difference between the direct current component value of the first region and the direct current component value of the second region. An information processing apparatus according to claim 1.

(付記9) 前記記憶部は、前記対象ブロックの上側に隣接する上側の隣接ブロックと、前記対象ブロックの下側に隣接する下側の隣接ブロックとを記憶し、
前記演算部は、
前記上側の隣接ブロック及び前記下側の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記第1領域との類似性が最も高い領域を抽出し、
前記類似性が最も高い領域の組として、前記上側の隣接ブロックに接する前記第1領域と前記上側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記下側の隣接ブロックに接する前記第1領域と前記下側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記第1領域と前記第2領域とを抽出した場合、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を前記予測符号化の単位の候補とする
付記1に記載の情報処理装置。
(Supplementary Note 9) The storage unit stores an upper adjacent block adjacent to the upper side of the target block and a lower adjacent block adjacent to the lower side of the target block,
The computing unit is
For each of the upper adjacent block and the lower adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the first region is evaluated. Extract the region with the highest similarity to
When the first region that is in contact with the upper adjacent block and the adjacent region of the upper adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region that is in contact with the lower adjacent block and the adjacent region of the lower adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block A region excluding the first region from among the candidates for the predictive coding unit,
When the first region and the second region are extracted as the set of regions having the highest similarity, the third region obtained by combining the first region and the second region, and the target block The information processing apparatus according to attachment 1, wherein an area excluding the third area is a candidate for the predictive coding unit.

(付記10) 前記記憶部は、前記対象ブロックの左側に隣接する左側の隣接ブロックと、前記対象ブロックの右側に隣接する右側の隣接ブロックとを記憶し、
前記演算部は、
前記左側の隣接ブロック及び前記右側の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記第1領域との類似性が最も高い領域を抽出し、
前記類似性が最も高い領域の組として、前記左側の隣接ブロックに接する前記第1領域と前記左側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記右側の隣接ブロックに接する前記第1領域と前記右側の隣接ブロックの前記隣接領域とを抽出した場合、当該第1領域、及び前記対象ブロックの中から当該第1領域を除いた領域を前記予測符号化の単位の候補とし、
前記類似性が最も高い領域の組として、前記第1領域と前記第2領域とを抽出した場合、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を前記予測符号化の単位の候補とする
付記1又は9に記載の情報処理装置。
(Supplementary Note 10) The storage unit stores a left adjacent block adjacent to the left side of the target block and a right adjacent block adjacent to the right side of the target block,
The computing unit is
For each of the left adjacent block and the right adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the first region and Extract the region with the highest similarity
When the first region that touches the left adjacent block and the adjacent region of the left adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region that contacts the right adjacent block and the adjacent region of the right adjacent block are extracted as the set of regions having the highest similarity, the first region and the target block are extracted from the first region and the target block. The region excluding the first region is set as a candidate for the predictive coding unit,
When the first region and the second region are extracted as the set of regions having the highest similarity, the third region obtained by combining the first region and the second region, and the target block The information processing apparatus according to appendix 1 or 9, wherein an area excluding the third area is a candidate for the predictive coding unit.

(付記11) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータが、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
符号化単位の選択方法。
(Additional remark 11) The computer which can read the information on the said target block and the said adjacent block from the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A coding unit selection method in which the excluded area is a candidate for a predictive coding unit.

(付記12) 前記コンピュータが、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも低い場合に、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を予測符号化の単位の候補とする
付記11に記載の符号化単位の選択方法。
(Supplementary note 12) The computer
A third region obtained by combining the first region and the second region when the similarity between the first region and the adjacent region is lower than the similarity between the first region and the second region; The method for selecting a coding unit according to attachment 11, wherein a region obtained by removing the third region from the target block is a candidate for a prediction coding unit.

(付記13) 前記第1領域は、前記対象ブロックの中で前記境界側に1/4を占める領域であり、
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
付記11又は12に記載の符号化単位の選択方法。
(Supplementary Note 13) The first area is an area that occupies 1/4 of the target block on the boundary side,
The method for selecting a coding unit according to attachment 11 or 12, wherein the second area and the adjacent area are areas having the same size as the first area.

(付記14) 前記記憶部は、第1の方向に向かって前記対象ブロックに隣接する第1の隣接ブロックと、前記第1の方向に直交する第2の方向に向かって前記対象ブロックに隣接する第2の隣接ブロックとを記憶し、
前記コンピュータが、
前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
付記11〜13のいずれかに記載の符号化単位の選択方法。
(Additional remark 14) The said memory | storage part adjoins the said target block toward the 1st adjacent block adjacent to the said target block toward a 1st direction, and the 2nd direction orthogonal to the said 1st direction. Storing the second adjacent block;
The computer is
For each of the first adjacent block and the second adjacent block, the similarity between the first region and the adjacent region and the similarity between the first region and the second region are evaluated, and the prediction code A method for selecting a coding unit according to any one of appendices 11 to 13, wherein a candidate for a coding unit is determined.

(付記15) 前記コンピュータが、
前記第1領域に含まれる画素の輝度と前記隣接領域に含まれる画素の輝度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary note 15)
Pixels included in the first region are evaluated based on the difference between the luminance of the pixels included in the first region and the luminance of the pixels included in the adjacent region, and the similarity between the first region and the adjacent region is evaluated. The similarity between the first area and the second area is evaluated based on the difference between the luminance of the first area and the luminance of the pixels included in the second area. Method.

(付記16) 前記コンピュータが、
前記第1領域に含まれる画素の色差と前記隣接領域に含まれる画素の色差との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary Note 16) The computer
Pixels included in the first region are evaluated based on a difference between a color difference between pixels included in the first region and a color difference between pixels included in the adjacent region, and the similarity between the first region and the adjacent region is evaluated. The similarity between the first area and the second area is evaluated based on the difference between the luminance of the first area and the luminance of the pixels included in the second area. Method.

(付記17) 前記コンピュータが、
前記第1領域の平坦度と前記隣接領域の平坦度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域の平坦度と前記第2領域の平坦度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary Note 17)
Based on the difference between the flatness of the first region and the flatness of the adjacent region, the similarity between the first region and the adjacent region is evaluated, and the flatness of the first region and the flatness of the second region are evaluated. The method for selecting a coding unit according to any one of appendices 11 to 14, wherein the similarity between the first region and the second region is evaluated based on a difference in degree.

(付記18) 前記コンピュータが、
前記第1領域が有する直流成分の値と前記隣接領域が有する直流成分の値との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域が有する直流成分の値と前記第2領域が有する直流成分の値との差に基づいて前記第1領域と前記第2領域との類似性を評価する
付記11〜14のいずれかに記載の符号化単位の選択方法。
(Supplementary note 18)
The similarity between the first region and the adjacent region is evaluated based on the difference between the direct current component value of the first region and the direct current component value of the adjacent region, and the direct current component of the first region The selection of the coding unit according to any one of appendices 11 to 14, wherein the similarity between the first region and the second region is evaluated based on the difference between the value of the DC component and the value of the DC component of the second region Method.

(付記19) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータに、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させる、プログラム。
(Additional remark 19) From the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block, to the computer which can read the information of the said target block and the said adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A program that executes a process in which the excluded area is a candidate for a predictive coding unit.

(付記20) 対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータに、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させるプログラムが記録された、コンピュータにより読み取り可能な記録媒体。
(Additional remark 20) From the memory | storage part which memorize | stores a target block and the adjacent block adjacent to the said target block, to the computer which can read the information of the said target block and the said adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A computer-readable recording medium on which a program for executing processing for setting the excluded area as a candidate for a predictive coding unit is recorded.

10 情報処理装置
11 記憶部
12 演算部
A1 第1領域
A2 第2領域
A3 第3領域
A4 第3領域を除いた領域
A5 第1領域を除いた領域
An 隣接領域
BLo 対象ブロック
BLn 隣接ブロック
EV12、EV1n 評価
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Memory | storage part 12 Calculation part A1 1st area A2 2nd area A3 3rd area A4 Area except 3rd area A5 Area except 1st area An Adjacent area BLo Target block BLn Adjacent block EV12, EV1n Evaluation

Claims (10)

対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部と、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする演算部と
を有する、情報処理装置。
A storage unit for storing the target block and an adjacent block adjacent to the target block;
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. And an arithmetic unit that uses the excluded area as a candidate for a predictive coding unit.
前記演算部は、前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも低い場合に、前記第1領域と前記第2領域とを結合した第3領域、及び前記対象ブロックの中から前記第3領域を除いた領域を予測符号化の単位の候補とする
請求項1に記載の情報処理装置。
The arithmetic unit combines the first region and the second region when the similarity between the first region and the adjacent region is lower than the similarity between the first region and the second region. The information processing apparatus according to claim 1, wherein the third area and the area obtained by removing the third area from the target block are candidates for predictive coding units.
前記第1領域は、前記対象ブロックの中で前記境界側に1/4を占める領域であり、
前記第2領域及び前記隣接領域は、前記第1領域と同じサイズの領域である
請求項1又は2に記載の情報処理装置。
The first area is an area that occupies 1/4 of the target block on the boundary side,
The information processing apparatus according to claim 1, wherein the second area and the adjacent area are areas having the same size as the first area.
前記記憶部は、第1の方向に向かって前記対象ブロックに隣接する第1の隣接ブロックと、前記第1の方向に直交する第2の方向に向かって前記対象ブロックに隣接する第2の隣接ブロックとを記憶し、
前記演算部は、前記第1の隣接ブロック及び前記第2の隣接ブロックのそれぞれについて、前記第1領域と前記隣接領域との類似性及び前記第1領域と前記第2領域との類似性を評価し、前記予測符号化の単位の候補を決定する
請求項1〜3のいずれか1項に記載の情報処理装置。
The storage unit includes a first adjacent block adjacent to the target block in a first direction and a second adjacent adjacent to the target block in a second direction orthogonal to the first direction. Remember block and
The arithmetic unit evaluates the similarity between the first area and the adjacent area and the similarity between the first area and the second area for each of the first adjacent block and the second adjacent block. The information processing apparatus according to claim 1, wherein a candidate for the predictive coding unit is determined.
前記演算部は、前記第1領域に含まれる画素の輝度と前記隣接領域に含まれる画素の輝度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
請求項1〜4のいずれか1項に記載の情報処理装置。
The computing unit evaluates similarity between the first region and the adjacent region based on a difference between a luminance of a pixel included in the first region and a luminance of a pixel included in the adjacent region. The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the region and the luminance of the pixel included in the second region. The information processing apparatus described in 1.
前記演算部は、前記第1領域に含まれる画素の色差と前記隣接領域に含まれる画素の色差との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域に含まれる画素の輝度と前記第2領域に含まれる画素の輝度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
請求項1〜4のいずれか1項に記載の情報処理装置。
The computing unit evaluates the similarity between the first region and the adjacent region based on a difference between a color difference between pixels included in the first region and a color difference between pixels included in the adjacent region, The similarity between the first region and the second region is evaluated based on the difference between the luminance of the pixel included in the region and the luminance of the pixel included in the second region. The information processing apparatus described in 1.
前記演算部は、前記第1領域の平坦度と前記隣接領域の平坦度との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域の平坦度と前記第2領域の平坦度との差に基づいて前記第1領域と前記第2領域との類似性を評価する
請求項1〜4のいずれか1項に記載の情報処理装置。
The computing unit evaluates the similarity between the first region and the adjacent region based on the difference between the flatness of the first region and the flatness of the adjacent region, and the flatness of the first region and the flatness of the first region The information processing apparatus according to claim 1, wherein the similarity between the first area and the second area is evaluated based on a difference from the flatness of the second area.
前記演算部は、前記第1領域が有する直流成分の値と前記隣接領域が有する直流成分の値との差に基づいて前記第1領域と前記隣接領域との類似性を評価し、前記第1領域が有する直流成分の値と前記第2領域が有する直流成分の値との差に基づいて前記第1領域と前記第2領域との類似性を評価する
請求項1〜4のいずれか1項に記載の情報処理装置。
The computing unit evaluates the similarity between the first region and the adjacent region based on a difference between a direct current component value of the first region and a direct current component value of the adjacent region. The similarity between the first region and the second region is evaluated based on a difference between a DC component value of the region and a DC component value of the second region. The information processing apparatus described in 1.
対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータが、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
符号化単位の選択方法。
A computer that can read out information on the target block and the adjacent block from a storage unit that stores the target block and an adjacent block adjacent to the target block.
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A coding unit selection method in which the excluded area is a candidate for a predictive coding unit.
対象ブロックと、前記対象ブロックに隣接する隣接ブロックとを記憶する記憶部から、前記対象ブロック及び前記隣接ブロックの情報を読み出し可能なコンピュータに、
前記対象ブロックの中で前記隣接ブロックとの境界に接する第1領域と、前記隣接ブロックの中で前記境界に接する隣接領域との類似性を評価し、前記第1領域と、前記対象ブロックの中で前記第1領域に接する第2領域との類似性を評価し、
前記第1領域と前記隣接領域との類似性が、前記第1領域と前記第2領域との類似性よりも高い場合に、前記第1領域、及び前記対象ブロックの中から前記第1領域を除いた領域を予測符号化の単位の候補とする
処理を実行させる、プログラム。
From the storage unit that stores the target block and the adjacent block adjacent to the target block, to the computer that can read the information of the target block and the adjacent block,
The similarity between the first area that touches the boundary with the adjacent block in the target block and the adjacent area that touches the boundary in the adjacent block is evaluated, and the first area and the target block To evaluate the similarity with the second region in contact with the first region,
When the similarity between the first region and the adjacent region is higher than the similarity between the first region and the second region, the first region is selected from the first region and the target block. A program that executes a process in which the excluded area is a candidate for a predictive coding unit.
JP2014009998A 2014-01-23 2014-01-23 Information processing apparatus, coding unit selection method, and program Expired - Fee Related JP6248648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014009998A JP6248648B2 (en) 2014-01-23 2014-01-23 Information processing apparatus, coding unit selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014009998A JP6248648B2 (en) 2014-01-23 2014-01-23 Information processing apparatus, coding unit selection method, and program

Publications (2)

Publication Number Publication Date
JP2015139117A true JP2015139117A (en) 2015-07-30
JP6248648B2 JP6248648B2 (en) 2017-12-20

Family

ID=53769850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014009998A Expired - Fee Related JP6248648B2 (en) 2014-01-23 2014-01-23 Information processing apparatus, coding unit selection method, and program

Country Status (1)

Country Link
JP (1) JP6248648B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299098A (en) * 2002-04-04 2003-10-17 Sony Corp Data processing apparatus, method therefor, program, and recording medium
JP2007067469A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program
JP2012070277A (en) * 2010-09-24 2012-04-05 Jvc Kenwood Corp Video encoding device, video encoding method and video encoding program
JP2012114590A (en) * 2010-11-22 2012-06-14 Jvc Kenwood Corp Moving image encoder, moving image encoding method and moving image encoding program
JP2012114591A (en) * 2010-11-22 2012-06-14 Jvc Kenwood Corp Moving image decoder, moving image decoding method and moving image decoding program
JP2012142865A (en) * 2011-01-05 2012-07-26 Sony Corp Image processing apparatus and image processing method
JP2013232967A (en) * 2010-04-07 2013-11-14 Jvc Kenwood Corp Moving image decoding device, moving image decoding method, and moving image decoding program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299098A (en) * 2002-04-04 2003-10-17 Sony Corp Data processing apparatus, method therefor, program, and recording medium
JP2007067469A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program
JP2013232967A (en) * 2010-04-07 2013-11-14 Jvc Kenwood Corp Moving image decoding device, moving image decoding method, and moving image decoding program
JP2012070277A (en) * 2010-09-24 2012-04-05 Jvc Kenwood Corp Video encoding device, video encoding method and video encoding program
JP2012114590A (en) * 2010-11-22 2012-06-14 Jvc Kenwood Corp Moving image encoder, moving image encoding method and moving image encoding program
JP2012114591A (en) * 2010-11-22 2012-06-14 Jvc Kenwood Corp Moving image decoder, moving image decoding method and moving image decoding program
JP2012142865A (en) * 2011-01-05 2012-07-26 Sony Corp Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP6248648B2 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
TWI717586B (en) Deriving motion vector information at a video decoder
KR101945894B1 (en) Picture prediction method and related apparatus
JP2022020630A (en) Method and apparatus for encoding/decoding image
RU2696237C2 (en) Video decoding method
CN113784132B (en) Method and apparatus for motion vector rounding, truncation, and storage for inter prediction
KR100714698B1 (en) Enhanced motion estimation method, video encoding method and apparatus using the same
WO2014054267A1 (en) Image coding device and image coding method
KR20190090728A (en) A method and an apparatus for processing a video signal using subblock-based motion compensation
JP7482536B2 (en) Shape-adaptive discrete cosine transform for geometric partitioning with an adaptive number of regions.
KR20190116101A (en) Method and apparatus for image encoding/decoding based on affine model
JP2022502899A (en) Video signal coding / decoding method and equipment for that
TW201924332A (en) Guided filter for video coding and processing
EP3970370A1 (en) Gradient-based prediction refinement for video coding
CN114303380A (en) Encoder, decoder and corresponding methods for CABAC coding of indices of geometric partitioning flags
CN109889838B (en) HEVC (high efficiency video coding) rapid coding method based on ROI (region of interest)
KR20180099369A (en) Method for video rate control, and video coding method and apparatus the same
US20160057429A1 (en) Coding apparatus, method, computer product, and computer system
CN113615194A (en) DMVR using decimated prediction blocks
Podder et al. Fast intermode selection for HEVC video coding using phase correlation
JP6248648B2 (en) Information processing apparatus, coding unit selection method, and program
JP2013207402A (en) Image encoding device and program
JP2017073602A (en) Moving image coding apparatus, moving image coding method, and computer program for moving image coding
JP6200220B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and program
KR102217225B1 (en) Method for intra-prediction, and apparatus thereof
EP2899975A1 (en) Video encoder with intra-prediction pre-processing and methods for use therewith

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171106

R150 Certificate of patent or registration of utility model

Ref document number: 6248648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees