JP2022008371A - Dynamic image encoding device - Google Patents

Dynamic image encoding device Download PDF

Info

Publication number
JP2022008371A
JP2022008371A JP2021148156A JP2021148156A JP2022008371A JP 2022008371 A JP2022008371 A JP 2022008371A JP 2021148156 A JP2021148156 A JP 2021148156A JP 2021148156 A JP2021148156 A JP 2021148156A JP 2022008371 A JP2022008371 A JP 2022008371A
Authority
JP
Japan
Prior art keywords
unit
basic
integrated
size
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021148156A
Other languages
Japanese (ja)
Other versions
JP7064644B2 (en
Inventor
清史 安倍
Seishi Abe
一仁 木村
Kazuhito Kimura
秀之 大古瀬
Hideyuki Okose
博 荒川
Hiroshi Arakawa
耕治 有村
Koji Arimura
和真 榊原
Kazuma Sakakibara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JP2022008371A publication Critical patent/JP2022008371A/en
Priority to JP2022070965A priority Critical patent/JP2022090059A/en
Application granted granted Critical
Publication of JP7064644B2 publication Critical patent/JP7064644B2/en
Priority to JP2023218676A priority patent/JP2024023885A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a dynamic image encoding device which improves encoding efficiency without increasing throughput.
SOLUTION: A dynamic image encoding device comprises: a block dividing section which (i) divides a target picture into a plurality of encoding units and (ii) divides each of the plurality of encoding units into at least one prediction unit; and a residual encoding section which generates a residual component by operating a differential between a prediction image which is generated for each prediction unit, and the target picture. Only in a case where a first size of a first encoding unit in the plurality of encoding units is 2 N×2 N, a second size of the prediction unit in the first encoding unit is any one of 2 N×2 N, 2 N×N and N×2 N at all times and in a case where the first size of the first encoding unit in the plurality of encoding units is not 2 N×2 N, the second size of the prediction unit in the first encoding unit is any one of 2 N×2 N, 2 N×N, N×2 N and N×N.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本開示は、入力された画像をブロックに分割して符号化する動画像符号化装置および、動画像符号化方法に関する。 The present disclosure relates to a moving image coding device that divides an input image into blocks and encodes the input image, and a moving image coding method.

近年、マルチメディアアプリケーションの発展に伴い、画像、音声およびテキストなど、あらゆるメディアの情報を統一的に扱うことが一般的になってきた。また、ディジタル化された画像は膨大なデータ量を持つため、蓄積および伝送のためには、画像の情報圧縮技術が不可欠である。一方で、圧縮した画像データを相互運用するためには、圧縮技術の標準化も重要である。例えば、動画像圧縮技術の標準規格としては、ITU-T(国際電気通信連合 電気通信標準化部門)のH.261、H.263、H.264、ISO/IEC(国際標準化機構)のMPEG-1、MPEG-3、MPEG-4、MPEG-4AVCなどがある。また、現在は、ITU-TとISO/IECとの共同によるHEVC(High Efficiency Video Coding)と呼ばれる次世代動画像符号化方式の標準化活動が進んでいる。 In recent years, with the development of multimedia applications, it has become common to handle information in all media such as images, sounds, and texts in a unified manner. In addition, since digitized images have a huge amount of data, image information compression technology is indispensable for storage and transmission. On the other hand, standardization of compression technology is also important for interoperability of compressed image data. For example, as a standard for moving image compression technology, H.I. 261 and H. 263, H. 264, ISO / IEC (International Organization for Standardization) MPEG-1, MPEG-3, MPEG-4, MPEG-4 AVC and the like. At present, a standardization activity of a next-generation moving image coding method called HEVC (High Efficiency Video Coding) is underway in collaboration with ITU-T and ISO / IEC.

このような動画像の符号化では、符号化対象の各ピクチャを符号化単位のブロックに分割し、ブロック毎に時間方向および空間方向の冗長性を削減することによって情報量を圧縮する。空間的な冗長性の削減を目的とする画面内予測符号化では、周辺の符号化済みブロックの画素情報から予測画像を生成し、得られた予測画像と符号化対象のブロックとの差分画像を取得する。また時間的な冗長性の削減を目的とする画面間予測符号化では、前方または後方の既に符号化が完了しているピクチャを参照してブロック単位で動きの検出および予測画像を生成し、得られた予測画像と符号化対象のブロックとの差分画像を取得する。これらの得られた差分画像に対して離散コサイン変換等の直交変換処理および量子化処理し、可変長符号化および算術符号化を用いて符号列を生成することで情報量が圧縮される。 In such video coding, each picture to be coded is divided into blocks of coding units, and the amount of information is compressed by reducing redundancy in the time direction and the spatial direction for each block. In in-screen prediction coding for the purpose of reducing spatial redundancy, a prediction image is generated from the pixel information of the peripheral coded blocks, and the difference image between the obtained prediction image and the block to be encoded is displayed. get. In interscreen predictive coding for the purpose of reducing temporal redundancy, motion detection and predictive images are generated in block units by referring to pictures that have already been coded forward or backward. The difference image between the predicted image and the block to be encoded is acquired. The amount of information is compressed by performing orthogonal transformation processing such as discrete cosine transform and quantization processing on these obtained difference images and generating a code string using variable length coding and arithmetic coding.

図1は、HEVC規格に定義されている各ブロックサイズの組み合わせを説明するための概念図である。HEVC(非特許文献1)では、符号化単位(以下、「Cording Unit:CU」と称する)として、図1のように、64×64画素、32×32画素、16×16画素、8×8画素の4種類のブロックサイズの中から任意のサイズを選択して使用することができる。 FIG. 1 is a conceptual diagram for explaining a combination of block sizes defined in the HEVC standard. In HEVC (Non-Patent Document 1), as a coding unit (hereinafter referred to as “Colding Unit: CU”), as shown in FIG. 1, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 Any size can be selected and used from the four types of block sizes of pixels.

さらにCUを分割した単位であり、画面内予測符号化および画面間予測符号化において予測画像を生成する予測単位(以下、「Prediction Unit:PU」と称する)として、例えばCUサイズを32x32画素とした場合、図1のように、32×32画素、16×32画素、16×16画素等の8種類のブロックサイズの中から任意のサイズを選択して使用することができる。例えば、撮像物の動きが複雑な画像では小さなブロックサイズを使用し、撮像物の動きが単純な画像では大きなブロックサイズを使用することで高い符号化効率を実現している。 Further, it is a unit obtained by dividing the CU, and as a prediction unit (hereinafter referred to as "Prescription Unit: PU") for generating a prediction image in the in-screen prediction coding and the inter-screen prediction coding, for example, the CU size is 32x32 pixels. In this case, as shown in FIG. 1, any size can be selected and used from eight types of block sizes such as 32 × 32 pixels, 16 × 32 pixels, and 16 × 16 pixels. For example, high coding efficiency is realized by using a small block size for an image having a complicated movement of an imaged object and using a large block size for an image having a simple motion of an imaged object.

さらにCUを分割した単位であり、前述の直交変換処理および量子化処理する直交変換単位(以下、「Transform Unit:TU」と称する)として、図1のように、例えばCUサイズを32x32画素とした場合、32×32画素、16×16画素、8×8画素、4×4画素の4種類のブロックサイズの中から任意のサイズを選択して使用することができる。例えば、細かい範囲で特徴が異なる画像では小さなブロックサイズを使用し、広い範囲で特徴が同じような画像では大きなブロックサイズを使用することで高い符号化効率を実現している。 Further, the unit is a unit obtained by further dividing the CU, and as the above-mentioned orthogonal transformation unit and the orthogonal transformation unit (hereinafter referred to as “Transform Unit: TU”) for the orthogonal transformation processing and the quantization processing, for example, the CU size is 32x32 pixels as shown in FIG. In this case, any size can be selected and used from four types of block sizes of 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, and 4 × 4 pixels. For example, high coding efficiency is realized by using a small block size for an image having different characteristics in a fine range and using a large block size for an image having similar characteristics in a wide range.

ITU-T H.265 : High efficiency video coding (04/2013)ITU-T H. 265: High efficiency video coding (04/2013)

HEVCでは、CUとして4種類のブロックサイズを選択できる。しかし、符号化過程においてCUのブロック数を増やせば増やすほど、CU層におけるヘッダ情報の符号量が増える。その結果、符号化効率が悪くなることがある。 In HEVC, four types of block sizes can be selected as CU. However, as the number of blocks of CU is increased in the coding process, the amount of code of the header information in the CU layer increases. As a result, the coding efficiency may deteriorate.

本開示は上記課題を鑑みてなされたものであり、CU層およびPU層のヘッダ情報の符号量を抑制し、処理量を増加させることなく符号化効率を向上させた動画像符号化装置を提供する。 The present disclosure has been made in view of the above problems, and provides a moving image coding apparatus that suppresses the coding amount of the header information of the CU layer and the PU layer and improves the coding efficiency without increasing the processing amount. do.

本開示にかかる動画像符号化装置は、対象ピクチャを符号化して、符号列を生成する動画像符号化装置であって、動作において、(i)前記対象ピクチャを複数の符号化単位に分割し、(ii)前記複数の符号化単位をそれぞれ少なくとも1つの予測単位に分割するブロック分割部と、動作において、予測単位毎に生成された予測画像と、前記対象ピクチャとの差分を演算することにより残差成分を生成する残差符号化部と、を備え、前記複数の符号化単位の第1符号化単位の第1サイズが2N×2Nである場合のみ、前記第1符号化単位における予測単位の第2サイズは、常に、2N×2N、2N×NおよびN×2Nのいずれかであり、前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nでない場合、前記第1符号化単位における前記予測単位の前記第2サイズは、2N×2N、2N×N、N×2NおよびN×Nのいずれかである。 The moving image coding device according to the present disclosure is a moving image coding device that encodes a target picture to generate a code sequence, and in operation, (i) divides the target picture into a plurality of coding units. , (Ii) By calculating the difference between the block division unit that divides the plurality of coding units into at least one prediction unit, the prediction image generated for each prediction unit, and the target picture in the operation. A prediction unit in the first coding unit is provided with a residual coding unit for generating a residual component, and only when the first size of the first coding unit of the plurality of coding units is 2N × 2N. The second size of is always one of 2N × 2N, 2N × N and N × 2N, and if the first size of the first coding unit of the plurality of coding units is not 2N × 2N. The second size of the prediction unit in the first coding unit is one of 2N × 2N, 2N × N, N × 2N and N × N.

以上より、本発明における動画像符号化装置は、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 From the above, the moving image coding apparatus in the present invention can suppress the coding amount of the header information of the CU layer and the PU layer, and can improve the coding efficiency without increasing the processing amount. ..

なお、本開示は、このような動画像符号化装置として実現することができるだけでなく、このような動画像符号化装置に含まれる各手段と同等の処理をプログラムや集積回路としても実現することもできる。 It should be noted that the present disclosure can not only be realized as such a moving image coding device, but also can realize the same processing as each means included in such a moving image coding device as a program or an integrated circuit. You can also.

HEVC規格に定義されている各ブロックサイズの組み合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the combination of each block size defined in the HEVC standard. 実施の形態1にかかる動画像符号化装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image coding apparatus 100 which concerns on Embodiment 1. FIG. 実施の形態1にかかる各ブロックサイズの組み合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the combination of each block size which concerns on Embodiment 1. FIG. 実施の形態1にかかる統合判定処理を示すフローチャートである。It is a flowchart which shows the integration determination process which concerns on Embodiment 1. 実施の形態1にかかる統合判定処理を示すイメージ図であるIt is an image diagram which shows the integration determination process which concerns on Embodiment 1. 実施の形態1にかかる統合判定処理を示すイメージ図であるIt is an image diagram which shows the integration determination process which concerns on Embodiment 1. 実施の形態1にかかる統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the combination of each block size which appears by performing the integration determination process which concerns on Embodiment 1. FIG. 実施の形態2にかかる統合判定処理を示すフローチャートである。It is a flowchart which shows the integration determination process which concerns on Embodiment 2. 実施の形態2にかかる統合判定処理を示すイメージ図であるIt is an image diagram which shows the integration determination process which concerns on Embodiment 2. 実施の形態2にかかる統合判定処理を示すイメージ図であるIt is an image diagram which shows the integration determination process which concerns on Embodiment 2. 実施の形態2にかかる統合判定処理の条件を説明するための概念図である。It is a conceptual diagram for demonstrating the condition of the integration determination processing which concerns on Embodiment 2. 実施の形態2にかかる統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the combination of each block size which appears by performing the integration determination process which concerns on Embodiment 2. 実施の形態3にかかる統合判定処理を示すフローチャートである。It is a flowchart which shows the integration determination process which concerns on Embodiment 3. 実施の形態3にかかる統合判定処理を示すイメージ図である。It is an image diagram which shows the integration determination process which concerns on Embodiment 3. FIG. 実施の形態3にかかる統合判定処理を示すイメージ図である。It is an image diagram which shows the integration determination process which concerns on Embodiment 3. FIG. 実施の形態3にかかる統合判定処理を示すイメージ図である。It is an image diagram which shows the integration determination process which concerns on Embodiment 3. FIG. 実施の形態3にかかる統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the combination of each block size which appears by performing the integration determination process which concerns on Embodiment 3. FIG.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
実施の形態1にかかる動画像符号化装置100は、例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、携帯情報端末およびパーソナルコンピューターなどに搭載されたマイクロプロセッサにより実現される。動画像符号化装置100は、動画圧縮規格であるHEVCに従って、動画像データの符号化処理を実施する。本開示にかかる動画像符号化装置100は、CU(Cording Unit)およびPU(Prediction Unit)の符号化情報に基づいて、複数のCUを1つのCUに統合し、統合後のCUに対して1つのヘッダ情報を付与する。その結果、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。
(Embodiment 1)
The moving image coding device 100 according to the first embodiment is realized by, for example, a microprocessor mounted on a video camera, a digital camera, a video recorder, a mobile phone, a mobile information terminal, a personal computer, or the like. The moving image coding device 100 performs a moving image data coding process in accordance with HEVC, which is a moving image compression standard. The moving image coding device 100 according to the present disclosure integrates a plurality of CUs into one CU based on the coding information of the CU (Heading Unit) and the PU (Prediction Unit), and 1 for the integrated CU. Add one header information. As a result, it is possible to suppress the code amount of the header information of the CU layer and the PU layer, and it is possible to improve the coding efficiency without increasing the processing amount.

以下、実施の形態1にかかる動画像符号化装置100の構成および動作について、図面を参照しながら説明する。 Hereinafter, the configuration and operation of the moving image coding apparatus 100 according to the first embodiment will be described with reference to the drawings.

[1-1.動画像符号化装置の構成]
動画像符号化装置100の構成について説明する。図2は、実施の形態1にかかる動画像符号化装置100の構成を示すブロック図である。
[1-1. Configuration of video coding device]
The configuration of the moving image coding device 100 will be described. FIG. 2 is a block diagram showing the configuration of the moving image coding device 100 according to the first embodiment.

図2に示すように、動画像符号化装置100は、ピクチャメモリ101と、基本ブロック分割部102と、基本ブロック単位処理ループ部111と、統合判定部107と、符号列生成部108とを備えている。そして、動画像符号化装置100は、基本ブロック単位処理ループ部111として、予測残差符号化部103と、予測残差復号化部104と、ピクチャバッファ105と、予測処理部106、差分演算部109、加算演算部110とを備えている。この構成により、動画像符号化装置100は、ピクチャ単位で入力された画像を基本ブロックに分割した後に、この分割された基本ブロックの単位で符号化処理を実施し、符号列を出力する。 As shown in FIG. 2, the moving image coding device 100 includes a picture memory 101, a basic block dividing unit 102, a basic block unit processing loop unit 111, an integration determination unit 107, and a code string generation unit 108. ing. Then, the moving image coding device 100 serves as a basic block unit processing loop unit 111, which includes a prediction residual coding unit 103, a prediction residual decoding unit 104, a picture buffer 105, a prediction processing unit 106, and a difference calculation unit. It is provided with 109 and an addition calculation unit 110. With this configuration, the moving image coding apparatus 100 divides an image input in picture units into basic blocks, then performs coding processing in units of the divided basic blocks, and outputs a code string.

続いて、動画像符号化装置100を構成する各部について、詳細を説明する。 Subsequently, details of each part constituting the moving image coding device 100 will be described.

ピクチャメモリ101は、表示装置に表示される順番に沿って、ピクチャ単位で画像信号を入力する。ピクチャメモリ101は、入力した画像信号を、符号化する順番にピクチャ単位で並び替えて格納する。ピクチャメモリ101は、基本ブロック分割部102からの読出し命令を受け付けると、読出し命令にかかる入力画像信号である符号化対象の符号化対象ピクチャを基本ブロック分割部102に出力する。 The picture memory 101 inputs image signals in picture units in the order in which they are displayed on the display device. The picture memory 101 rearranges and stores the input image signals in the order of encoding. When the picture memory 101 receives a read command from the basic block division unit 102, the picture memory 101 outputs a coded target picture to be coded, which is an input image signal related to the read command, to the basic block division unit 102.

分割部としての基本ブロック分割部102は、ピクチャメモリ101から順次入力される符号化対象のピクチャを符号化単位毎に分割して出力する。基本ブロック分割部102は、基本ブロック単位処理ループ部111における処理の基本単位である基本ブロックに分割する。動画像符号化装置100は、基本ブロックのサイズをHEVCで規定されている64×64画素、および32×32画素よりも小さい16×16画素に限定する。基本ブロックは、HEVC規格にて定義されている符号化単位であるCUを1つ以上包含する。図3は、実施の形態1にかかる各ブロックサイズの組み合わせを説明するための概念図である。図3の「基本CUサイズ」の列に示すように、基本CUサイズは、16×16画素の基本ブロックに対して、16×16画素のサイズおよび、8×8画素のサイズを取り得る。16×16画素のサイズのCUは、16×16画素の基本ブロックに対して、1つ包含される。8×8画素のサイズのCUは、16×16画素の基本ブロックに対して、4つ包含される。以下、基本ブロックに包含されるこれらのCUを「基本CU」と称する。基本ブロック分割部102は、入力されるピクチャを基本ブロックに分割するとともに、基本CUのサイズを選択する。一般的に、基本ブロック分割部102は、入力されたピクチャの画素構成が複雑なときは小さなサイズの基本CUを選択する一方、入力されたピクチャの画素構成が単純なときは大きなサイズの基本CUを選択する。なお、図3の例に記載した基本CUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本ブロック以下のサイズである基本CUを使用した場合であっても同様の説明が可能である。 The basic block dividing unit 102 as a dividing unit divides and outputs the pictures to be coded sequentially input from the picture memory 101 for each coding unit. The basic block division unit 102 divides into basic blocks, which are basic units of processing in the basic block unit processing loop unit 111. The moving image coding device 100 limits the size of the basic block to 64 × 64 pixels defined by HEVC and 16 × 16 pixels smaller than 32 × 32 pixels. A basic block contains one or more CUs, which are coding units defined in the HEVC standard. FIG. 3 is a conceptual diagram for explaining a combination of block sizes according to the first embodiment. As shown in the column of "basic CU size" in FIG. 3, the basic CU size can take a size of 16 x 16 pixels and a size of 8 x 8 pixels for a basic block of 16 x 16 pixels. One CU having a size of 16 × 16 pixels is included in a basic block of 16 × 16 pixels. Four CUs with a size of 8 × 8 pixels are included for a basic block of 16 × 16 pixels. Hereinafter, these CUs included in the basic block will be referred to as "basic CUs". The basic block dividing unit 102 divides the input picture into basic blocks and selects the size of the basic CU. Generally, the basic block dividing unit 102 selects a small-sized basic CU when the pixel configuration of the input picture is complicated, while the basic block dividing unit 102 selects a large-sized basic CU when the pixel configuration of the input picture is simple. Select. It should be noted that some of the basic CUs shown in the example of FIG. 3 are not used, or the basic CUs that are not shown in the example of FIG. 3 and are smaller than the basic block are used. However, the same explanation is possible.

基本ブロック分割部102は、基本ブロック(基本CUのサイズが選択済み)に分割したピクチャを、予測処理部106および差分演算部109に順次出力する。 The basic block dividing unit 102 sequentially outputs the pictures divided into basic blocks (the size of the basic CU has been selected) to the prediction processing unit 106 and the difference calculation unit 109.

予測処理部106は、基本ブロック分割部102から順次入力される基本ブロックに分割されたピクチャを基に、基本ブロック毎に画面内予測もしくは画面間予測のどちらか一方を用いて予測処理を行う。予測処理部106は、基本CUをさらに分割した予測単位であるPU(以下、「基本PU」と称する)毎に予測処理を行う。具体的には、図3の「基本PUサイズ」の列に示すように、基本CUのサイズが16×16画素であるとき、16×16画素の1つの基本PU、16×8画素の2つの基本PUまたは8×16画素の2つの基本PUのいずれかの基本PUに分割される。但し、16×8画素および、8×16画素の基本PUサイズは、画面間予測が選択されたときのみに使用される。一方、基本CUのサイズが8×8画素であるとき、8×8画素の1つの基本PU、8×4画素の2つの基本PUまたは4×8画素の2つの基本PU、もしくは4×4画素の4つの基本PUのいずれかの基本PUに分割される。但し、8×4画素および、4×8画素の基本PUサイズは、画面間予測が選択されたときのみに使用される。4×4画素の基本PUサイズは、画面内予測が選択されたときのみに使用される。一般的に、予測処理部106は、入力された基本CUの画素構成が複雑なときは小さなサイズの基本PUを選択する一方、入力された基本CUの画素構成が単純なときは大きなサイズの基本PUを選択する。なお、図3の例に記載した基本PUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本CU以下のサイズである基本PUを使用した場合であっても同様の説明が可能である。 The prediction processing unit 106 performs prediction processing using either in-screen prediction or inter-screen prediction for each basic block based on the pictures divided into basic blocks sequentially input from the basic block division unit 102. The prediction processing unit 106 performs prediction processing for each PU (hereinafter, referred to as “basic PU”) which is a prediction unit obtained by further dividing the basic CU. Specifically, as shown in the column of "basic PU size" in FIG. 3, when the size of the basic CU is 16 × 16 pixels, one basic PU of 16 × 16 pixels and two of 16 × 8 pixels. It is divided into a basic PU or a basic PU of two basic PUs of 8 × 16 pixels. However, the basic PU sizes of 16 × 8 pixels and 8 × 16 pixels are used only when interscreen prediction is selected. On the other hand, when the size of the basic CU is 8 × 8 pixels, one basic PU of 8 × 8 pixels, two basic PUs of 8 × 4 pixels, two basic PUs of 4 × 8 pixels, or 4 × 4 pixels. It is divided into one of the four basic PUs of. However, the basic PU sizes of 8 × 4 pixels and 4 × 8 pixels are used only when interscreen prediction is selected. The basic PU size of 4x4 pixels is used only when in-screen prediction is selected. Generally, the prediction processing unit 106 selects a basic PU having a small size when the pixel configuration of the input basic CU is complicated, while the prediction processing unit 106 selects a basic PU having a large size when the pixel configuration of the input basic CU is simple. Select PU. It should be noted that some of the basic PUs shown in the example of FIG. 3 are not used, or a basic PU having a size not shown in the example of FIG. 3 and a size smaller than the basic CU is used. However, the same explanation is possible.

画面内予測を用いる場合、予測処理部106は、符号化対象とするピクチャ内のブロックについて、同じピクチャ内の既に符号化済みの周辺のブロックの再構成画像信号を用いて予測処理する。再構成画像信号とは、後述する加算演算部110により生成された信号である。予測処理部106は、複数の画面内予測方法(画面内予測モード)の中から、符号化対象とするブロックの画素構成と最も類似度の高い予測画像を生成する画面内予測モードを1つ選択することで予測処理する。 When the in-screen prediction is used, the prediction processing unit 106 predicts the blocks in the picture to be encoded by using the reconstructed image signals of the peripheral blocks already encoded in the same picture. The reconstructed image signal is a signal generated by the addition calculation unit 110, which will be described later. The prediction processing unit 106 selects one of the in-screen prediction modes (in-screen prediction modes) that generates a prediction image having the highest degree of similarity to the pixel configuration of the block to be encoded. Prediction processing is performed by doing.

一方、画面間予測を用いる場合、予測処理部106は、ピクチャバッファ105に格納されている既に符号化済みの別のピクチャの再構成画像信号を用いて予測処理する。具体的には、予測処理部106は、符号化対象とするブロックの画素構成と最も類似度の高い画素構成を持った領域を、既に符号化済みの別のピクチャの再構成画像の中から探索する。そして、予測処理部106は、いずれのピクチャの再構成画像を参照するか(以下、参照するピクチャの情報を「参照ピクチャ情報」と称する)、および、参照先のピクチャにおいて、符号化対象とするブロックに対応する位置からどの程度ずれた位置の再構成画像を参照するか(以下、位置のずれ量を示す情報を「動きベクトル情報」と称する)を決定することで予測画像を生成する。 On the other hand, when interscreen prediction is used, the prediction processing unit 106 performs prediction processing using the reconstructed image signal of another already encoded picture stored in the picture buffer 105. Specifically, the prediction processing unit 106 searches for a region having a pixel configuration having the highest similarity to the pixel configuration of the block to be encoded from the reconstructed image of another already encoded picture. do. Then, the prediction processing unit 106 refers to which of the reconstructed images of the picture (hereinafter, the information of the referenced picture is referred to as "reference picture information"), and makes the referenced picture a coding target. A predicted image is generated by deciding how much the reconstructed image deviated from the position corresponding to the block is referred to (hereinafter, the information indicating the amount of deviating position is referred to as "motion vector information").

差分演算部109は、基本ブロック分割部102から入力される基本ブロックにおける基本CUに基づいて選択された基本PU単位の入力画像信号と、予測処理部106から入力される基本PU単位の予測画像信号との差分値である差分画像信号を生成する。差分演算部109は、生成した差分画像信号を予測残差符号化部103に出力する。 The difference calculation unit 109 is an input image signal for each basic PU selected based on the basic CU in the basic block input from the basic block division unit 102, and a prediction image signal for each basic PU input from the prediction processing unit 106. Generates a difference image signal, which is the difference value between and. The difference calculation unit 109 outputs the generated difference image signal to the prediction residual coding unit 103.

残差符号化部である予測残差符号化部103は、差分演算部109から入力される差分画像信号に対して直交変換処理し、得られた各周波数成分の直交変換係数に対し量子化処理する。その結果、予測残差符号化部103は、残差係数信号を生成する。予測残差符号化部103は、基本CUを更に分割した直交変換単位であるTU(Transform Unit)(以下、「基本TU」と称する)毎に直交変換処理および量子化処理を行う。具体的には、図3の「基本TUサイズ」の列に示すように、基本CUのサイズが16×16画素であるとき、16×16画素の1つの基本TU、もしくは8×8画素の4つの基本TUに分割され得る。一方、基本CUのサイズが8×8画素であるとき、8×8画素の1つの基本TU、もしくは4×4画素の4つの基本TUに分割され得る。図3に示す例では、基本PUが決定すると基本TUが一意に割り当てられるため、基本TUのサイズを選択するという処理は不要となる。これにより、処理量を大幅に削減することが可能となる。なお、図3の例に記載した基本TUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本PU以下のサイズである基本TUを使用した場合であっても同様の説明が可能である。 The predictive residual coding unit 103, which is a residual coding unit, performs orthogonal transformation processing on the difference image signal input from the difference calculation unit 109, and quantizes the obtained orthogonal transformation coefficient of each frequency component. do. As a result, the predicted residual coding unit 103 generates a residual coefficient signal. The prediction residual coding unit 103 performs orthogonal transformation processing and quantization processing for each TU (Transform Unit) (hereinafter, referred to as “basic TU”), which is an orthogonal transformation unit obtained by further dividing the basic CU. Specifically, as shown in the column of "basic TU size" in FIG. 3, when the size of the basic CU is 16 x 16 pixels, one basic TU of 16 x 16 pixels or 4 of 8 x 8 pixels. It can be divided into two basic TUs. On the other hand, when the size of the basic CU is 8 × 8 pixels, it can be divided into one basic TU of 8 × 8 pixels or four basic TUs of 4 × 4 pixels. In the example shown in FIG. 3, when the basic PU is determined, the basic TU is uniquely assigned, so that the process of selecting the size of the basic TU becomes unnecessary. This makes it possible to significantly reduce the amount of processing. In addition, when a part of the basic TUs shown in the example of FIG. 3 is not used, or when a basic TU having a size not shown in the example of FIG. 3 and a size smaller than the basic PU is used. However, the same explanation is possible.

予測残差復号化部104は、予測残差符号化部103で処理した基本TUを処理単位とする。予測残差復号化部104は、予測残差符号化部103から入力される残差係数信号に対して逆量子化処理し、さらに逆直交変換処理することで再構成差分画像信号を生成する。 The predicted residual decoding unit 104 uses the basic TU processed by the predicted residual coding unit 103 as a processing unit. The predictive residual decoding unit 104 generates a reconstructed difference image signal by performing inverse quantization processing on the residual coefficient signal input from the predictive residual coding unit 103 and further performing inverse orthogonal transformation processing.

加算演算部110は、予測残差復号化部104から入力される再構成差分画像信号と、予測処理部106から入力される予測画像信号とを基本PU単位で加算することにより再構成画像信号を生成する。 The addition calculation unit 110 adds the reconstructed difference image signal input from the predicted residual decoding unit 104 and the predicted image signal input from the predicted processing unit 106 in basic PU units to obtain a reconstructed image signal. Generate.

ピクチャバッファ105は、加算演算部110から入力される再構成画像信号を格納する。ピクチャバッファ105に格納された再構成画像信号は、現在の符号化対象ピクチャより時間的に後に符号化するピクチャの画面間予測処理で参照される。 The picture buffer 105 stores the reconstructed image signal input from the addition calculation unit 110. The reconstructed image signal stored in the picture buffer 105 is referred to in the interscreen prediction process of the picture to be coded after the current coded picture.

統合部として機能する統合判定部107は、統合判定対象とする複数の基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で、当該複数の基本ブロックに属する基本CUを統合して1つの統合された符号化単位(以下、「統合CU」と称する)とするかどうかを判定し、統合判定結果信号を生成する。つまり、統合判定部107は、複数の基本ブロックにより構成されるN×N画素(例えば32×32画素)領域に属する複数の基本CUを1つの統合された統合CUにするか否かを判断する。統合判定部107は、基本CUを統合せずにそのまま符号列生成部108へと出力する第1動作のモードと、N×N画素領域内に属する複数の基本CUを1つの新たなCUとして統合して符号列生成部108へと出力する第2動作のモードとを有する。統合判定部107は、統合判定結果に応じて、第1動作モードと、第2動作モードとを切り替えて実行する。すなわち、統合判定部107は、(1)N×N画素の領域に属する複数の基本CUおよび基本PUがすべて同じブロックサイズで、かつ(2)前記N×N画素の領域に属する複数の基本PUの予測情報が同じである場合に、前記N×N画素の領域に含まれる複数の基本CUを1つの新たなCUとして統合する。 The integration determination unit 107, which functions as an integration unit, integrates the basic CUs belonging to the plurality of basic blocks when the series of processing of the basic block unit processing loop unit 111 is completed for the plurality of basic blocks to be integrated. Then, it is determined whether or not the unit is integrated into one integrated coding unit (hereinafter referred to as "integrated CU"), and an integrated determination result signal is generated. That is, the integration determination unit 107 determines whether or not to make a plurality of basic CUs belonging to an N × N pixel (for example, 32 × 32 pixels) region composed of a plurality of basic blocks into one integrated integrated CU. .. The integration determination unit 107 integrates the mode of the first operation of outputting the basic CU to the code string generation unit 108 as it is without integrating the basic CU and a plurality of basic CUs belonging to the N × N pixel region as one new CU. It has a mode of the second operation of outputting to the code string generation unit 108. The integration determination unit 107 switches between the first operation mode and the second operation mode according to the integration determination result. That is, the integration determination unit 107 has (1) a plurality of basic CUs and basic PUs belonging to the region of N × N pixels all having the same block size, and (2) a plurality of basic PUs belonging to the region of the N × N pixels. When the prediction information of is the same, a plurality of basic CUs included in the N × N pixel region are integrated as one new CU.

符号列生成部108は、統合判定部107から入力される統合判定結果信号に従って、統合CU単位もしくは基本CU単位で、予測残差符号化部103から入力される残差係数信号、およびその他の復号化処理時に必要となる符号化情報信号に対して、可変長符号化および算術符号化することで符号列を生成する。すなわち、符号列生成部108は、統合後の新たなCUに対して設定される符号化情報および統合後の新たなCU内に属していた統合前の複数の基本CUに関する残差係数を、可変長符号化および算術符号化し、統合後の新たなCUに対する符号列を生成する。統合判定部107から統合CUが出力される場合、統合CUに対して設定される符号化情報および、統合CU内に属していた統合前の複数の基本CUに関する残差係数を、可変長符号化および算術符号化することにより、統合CUに対する符号列を生成する。 The code string generation unit 108 records the residual coefficient signal input from the predicted residual coding unit 103 in the integrated CU unit or the basic CU unit according to the integrated determination result signal input from the integrated determination unit 107, and other decoding. A code string is generated by variable-length coding and arithmetic coding for the coded information signal required at the time of the conversion process. That is, the code string generation unit 108 can change the coding information set for the new CU after integration and the residual coefficient for the plurality of basic CUs before integration that belonged to the new CU after integration. Long-coded and arithmetic-coded to generate a code sequence for the new CU after integration. When the integrated CU is output from the integrated determination unit 107, the coding information set for the integrated CU and the residual coefficients for the plurality of basic CUs before integration that belonged to the integrated CU are variable-length coded. And by arithmetic coding, a code sequence for the integrated CU is generated.

上記のように、動画像符号化装置100では、基本ブロックサイズを16×16画素に限定した。これにより、図3に示すように、選択され得る基本CU/基本PU/基本TUの組合せが、画面内予測を選択したときは3組のみ、画面間予測を選択したときは6組のみに限定することが可能となる。これにより、基本ブロック単位処理ループ部111の一連の処理において最適な組合せを選択するための処理量を大幅に削減することが可能となる。 As described above, in the moving image coding apparatus 100, the basic block size is limited to 16 × 16 pixels. As a result, as shown in FIG. 3, the combinations of basic CU / basic PU / basic TU that can be selected are limited to only 3 sets when in-screen prediction is selected and only 6 sets when inter-screen prediction is selected. It becomes possible to do. This makes it possible to significantly reduce the amount of processing for selecting the optimum combination in a series of processing of the basic block unit processing loop unit 111.

なお、上記の実施の形態では、基本ブロックサイズを16×16画素に限定しているが、本開示はこれに限定されない。すなわち、基本ブロックサイズを制限せずに、HEVCの規格にて定義されている図1の組合せから最適な組合せを選択するようにしてもよい。但し、この場合、基本ブロックサイズを制限したときと比べて、処理量が膨大になることになる。或いは、16×16画素には限定せずに、32×32画素などの他のブロックサイズにより限定することもできる。例えば、32×32画素のブロックサイズで限定した場合、基本ブロックサイズに属するCUおよびPUのブロックサイズの選択肢が多くなることから符号化効率の向上が見込める。一方、最適なCUおよびPUのブロックサイズを選ぶための処理量が増加する。従って、処理量の増加が許容できる動画像符号化装置では基本ブロックサイズとして大きなブロックサイズを使用する一方、処理量の増加が許容できない動画像符号化装置では基本ブロックサイズとして小さなブロックサイズを使用するようにしてもよい。 In the above embodiment, the basic block size is limited to 16 × 16 pixels, but the present disclosure is not limited to this. That is, the optimum combination may be selected from the combinations of FIG. 1 defined in the HEVC standard without limiting the basic block size. However, in this case, the amount of processing becomes enormous as compared with the case where the basic block size is limited. Alternatively, it is not limited to 16 × 16 pixels, but may be limited by other block sizes such as 32 × 32 pixels. For example, when the block size is limited to 32 × 32 pixels, the coding efficiency can be expected to be improved because the choices of the block sizes of CU and PU belonging to the basic block size are increased. On the other hand, the amount of processing for selecting the optimum CU and PU block size increases. Therefore, a moving image coding device that can tolerate an increase in processing amount uses a large block size as a basic block size, while a moving image coding device that cannot tolerate an increase in processing amount uses a small block size as a basic block size. You may do so.

[1-2.統合判定部の動作]
実施の形態1にかかる統合判定部107は、複数の基本ブロックを包含する統合領域を定義している。統合判定部107は、統合領域に含まれる全ての基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で統合判定処理する。
[1-2. Operation of integrated judgment unit]
The integration determination unit 107 according to the first embodiment defines an integration area including a plurality of basic blocks. The integration determination unit 107 performs integration determination processing for all the basic blocks included in the integration area when a series of processing of the basic block unit processing loop unit 111 is completed.

統合判定部107における、複数の基本ブロックに属する基本CUを統合して1つの統合CUとするか否かを判定する方法について、図4、図5A、図5Bを用いて具体的に説明する。図4は、実施の形態1にかかる統合判定処理を示すフローチャートである。図5A、図5Bは、実施の形態1にかかる統合判定処理を示すイメージ図である。図4は、基本ブロックのサイズが16×16画素、統合領域のサイズが32×32画素とした場合の処理を示す。このとき、統合領域には4つの基本ブロックが包含されている。なお、統合領域のサイズとして、基本ブロックのサイズよりも大きなサイズであれば、基本ブロックのサイズに応じて32×32画素以外のサイズを使用してもよい。 A method of determining whether or not to integrate basic CUs belonging to a plurality of basic blocks into one integrated CU in the integration determination unit 107 will be specifically described with reference to FIGS. 4, 5A, and 5B. FIG. 4 is a flowchart showing the integration determination process according to the first embodiment. 5A and 5B are image diagrams showing the integration determination process according to the first embodiment. FIG. 4 shows processing when the size of the basic block is 16 × 16 pixels and the size of the integrated area is 32 × 32 pixels. At this time, the integrated area includes four basic blocks. If the size of the integrated area is larger than the size of the basic block, a size other than 32 × 32 pixels may be used depending on the size of the basic block.

まず、統合判定部107は、統合領域内に包含された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S301)。 First, the integration determination unit 107 determines whether or not the four basic blocks included in the integration region are all composed of a 16 × 16 pixel basic CU and a 16 × 16 pixel basic PU (S301). ..

S301の条件を満たさない場合(S301におけるNo)、図5Aのように、統合領域内の基本CUは統合されない。 When the condition of S301 is not satisfied (No in S301), the basic CU in the integrated region is not integrated as shown in FIG. 5A.

一方、S301の条件を満たす場合(S301におけるYes)、統合判定部107は、統合領域内の4つの基本PUの予測情報が全て同じであるか否かを判定する(S302)。具体的には、画面内予測の場合、統合領域内の4つの基本PUの少なくとも画面内予測モードが全て同じであるか否かを判定する。すなわち、統合判定部107は、統合領域に含まれる全ての基本PUが画面内予測であった場合、予測情報として少なくとも画面内予測モードが全て同じであるか否かを用いて第1動作モードと第2動作モードとを切り換える。一方、画面間予測の場合、統合領域内の4つの基本PUの少なくとも動きベクトル情報および参照ピクチャ情報が全て同じであるか否かを判定する。すなわち、統合判定部107は、統合領域に含まれる全ての基本PUが画面間予測であった場合、予測情報として少なくとも動きベクトル情報と参照ピクチャ情報とが全て同じであるか否かを用いて第1動作モードと第2動作モードを切り換える。 On the other hand, when the condition of S301 is satisfied (Yes in S301), the integration determination unit 107 determines whether or not the prediction information of the four basic PUs in the integration region are all the same (S302). Specifically, in the case of in-screen prediction, it is determined whether or not at least the in-screen prediction modes of the four basic PUs in the integrated region are all the same. That is, when all the basic PUs included in the integrated area are in-screen predictions, the integration determination unit 107 sets the first operation mode by using at least whether or not all the in-screen prediction modes are the same as the prediction information. Switch to the second operation mode. On the other hand, in the case of inter-screen prediction, it is determined whether or not at least the motion vector information and the reference picture information of the four basic PUs in the integrated region are all the same. That is, when all the basic PUs included in the integrated region are inter-screen predictions, the integration determination unit 107 uses at least whether or not the motion vector information and the reference picture information are all the same as the prediction information. 1 Switch between operation mode and second operation mode.

S302の条件を満たさない場合(S301におけるNo)、図5Aのように、当該統合領域内の基本CUは統合されない。 If the condition of S302 is not satisfied (No in S301), the basic CUs in the integrated region are not integrated as shown in FIG. 5A.

一方、S302の条件を満たす場合(S301におけるYes)、統合判定部107は、図5Bのように、4つの16×16画素の基本CUを1つの32×32画素の統合CUに統合する(S303)。 On the other hand, when the condition of S302 is satisfied (Yes in S301), the integration determination unit 107 integrates four 16 × 16 pixel basic CUs into one 32 × 32 pixel integrated CU (S303). ).

図6は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CUが追加されているのが分かる。 FIG. 6 is a conceptual diagram for explaining a combination of each block size that appears by performing the integration determination process. These block sizes are subject to variable-length coding and arithmetic coding in the code sequence generator 108. As compared with FIG. 3, it can be seen that the integrated CU having a CU size of 32 × 32 pixels, a PU size of 32 × 32 pixels, and a TU size of 16 × 16 pixels has been added by the integration determination process.

以上のように、実施の形態1にかかる動画像符号化装置100において、統合判定部107は、統合領域(複数の基本ブロックからなるN×N画素の領域)に属する複数の基本CUおよび基本PUがすべて同じブロックサイズかつ、統合領域に含まれる全ての基本PUの予測情報が同じである場合に、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。そして、統合後の新たなCUに基づいて符号列を生成する。 As described above, in the moving image coding apparatus 100 according to the first embodiment, the integrated determination unit 107 is a plurality of basic CUs and basic PUs belonging to an integrated region (a region of N × N pixels composed of a plurality of basic blocks). Are all the same block size and the prediction information of all the basic PUs included in the integrated area is the same, the plurality of basic CUs included in the integrated area are integrated as one new CU. Then, a code string is generated based on the new CU after integration.

図4に示す統合処理を行わない場合、基本PUが同じ予測情報を持っていたとしても、各基本PUの予測情報をそれぞれ個別に符号列に記述することが必要となるため、CU層およびPU層のヘッダ情報の符号量が無駄に発生してしまう。一方、統合処理を行った場合、統合された1つの予測情報のみを符号列に記述するのみでよいため、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。なお、統合判定部107は、統合CUにおいて、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CUに変換することが可能となる。 If the integration process shown in FIG. 4 is not performed, even if the basic PUs have the same prediction information, it is necessary to individually describe the prediction information of each basic PU in the code string, so that the CU layer and the PU The code amount of the header information of the layer is wasted. On the other hand, when the integrated processing is performed, since it is only necessary to describe only one integrated prediction information in the code string, it is possible to suppress the code amount of the header information of the CU layer and the PU layer, and the processing amount can be reduced. It is possible to improve the coding efficiency without increasing it. The integration determination unit 107 integrates only the CU and the PU in the integrated CU, while the TU remains as it was before the integration. As a result, it is not necessary to reconstruct the residual coefficient signal after integration, and it is possible to convert to the integrated CU only by changing the header information of the CU layer and the PU layer.

(実施の形態2)
続いて、実施の形態2にかかる動画像符号化装置100について、図面を参照しながら説明する。なお、動画像符号化装置100の構成は、実施の形態1で説明したものと同様であるため、説明を省略する。
(Embodiment 2)
Subsequently, the moving image coding apparatus 100 according to the second embodiment will be described with reference to the drawings. Since the configuration of the moving image coding device 100 is the same as that described in the first embodiment, the description thereof will be omitted.

実施の形態2にかかる動画像符号化装置100は、実施の形態1にかかる動画像符号化装置100と、統合判定部107による統合判定処理が異なる。 The moving image coding device 100 according to the second embodiment is different from the moving image coding device 100 according to the first embodiment in the integrated determination process by the integrated determination unit 107.

図7は、実施の形態2にかかる統合判定処理を示すフローチャートである。図8A、図8Bは、実施の形態2にかかる統合判定処理を示すイメージ図である。図7は、基本ブロックのサイズが16×16画素、統合領域のサイズが32×32画素とした場合の処理を示す。このとき、統合領域には4つの基本ブロックが包含されている。 FIG. 7 is a flowchart showing the integration determination process according to the second embodiment. 8A and 8B are image diagrams showing the integration determination process according to the second embodiment. FIG. 7 shows processing when the size of the basic block is 16 × 16 pixels and the size of the integrated area is 32 × 32 pixels. At this time, the integrated area includes four basic blocks.

まず、統合判定部107は、統合領域内に包含された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S301)。S301の条件を満たさない場合(S301におけるNo)、図8Aのように、統合領域内の基本CUは統合されない。一方、S301の条件を満たす場合(S301におけるYes)、統合判定部107は、統合領域内の4つの基本PUについて統合可能な組合せを構成する基本PUのみの予測情報が全て同じであるか否かを判定する(図7のS502)。図7のS502の判定の詳細を、図9を用いて説明する。 First, the integration determination unit 107 determines whether or not the four basic blocks included in the integration region are all composed of a 16 × 16 pixel basic CU and a 16 × 16 pixel basic PU (S301). .. When the condition of S301 is not satisfied (No in S301), the basic CU in the integrated region is not integrated as shown in FIG. 8A. On the other hand, when the condition of S301 is satisfied (Yes in S301), the integration determination unit 107 determines whether or not the prediction information of only the basic PUs constituting the integrateable combination for the four basic PUs in the integrated region is the same. (S502 in FIG. 7). The details of the determination of S502 in FIG. 7 will be described with reference to FIG.

図9は、実施の形態2にかかる統合判定処理の条件を説明するための概念図である。図9のように、統合判定部107は、4つの基本PUの予測情報が全て同じ場合、4つの基本PUを統合した32×32画素の1つの統合PUに統合する。また、4つの基本PUの予測情報が全て同じではなくても、左右に隣り合う2組の基本PUの予測情報がそれぞれ同じ場合は、統合判定部107は、上側の2つの基本PUを統合した32×16画素のPUおよび、下側の2つの基本PUを統合した32×16画素のPUの2つの統合PUに統合する。また、4つの基本PUの予測情報が全て同じではなくても、上下に隣り合う2組の基本PUの予測情報がそれぞれ同じ場合は、統合判定部107は、左側の2つの基本PUを統合した16×32画素のPU、右側の2つのPUを統合した16×32画素の基本PUの2つの統合PUに統合する。なお、32×16画素の統合PUおよび16×32画素の統合PUは画面間予測の場合にのみ統合を選択可能であり、画面内予測の場合は32×32画素の統合PUへの統合のみしか選択できない。 FIG. 9 is a conceptual diagram for explaining the conditions of the integrated determination process according to the second embodiment. As shown in FIG. 9, when the prediction information of the four basic PUs is the same, the integration determination unit 107 integrates the four basic PUs into one integrated PU of 32 × 32 pixels. Further, even if the prediction information of the four basic PUs is not all the same, if the prediction information of the two sets of basic PUs adjacent to the left and right are the same, the integration determination unit 107 integrates the upper two basic PUs. The 32 × 16 pixel PU and the lower two basic PUs are integrated into two integrated PUs of the 32 × 16 pixel PU. Further, even if the prediction information of the four basic PUs is not all the same, if the prediction information of the two sets of basic PUs adjacent to each other are the same, the integration determination unit 107 integrates the two basic PUs on the left side. It is integrated into two integrated PUs, a 16 × 32 pixel PU and a 16 × 32 pixel basic PU that integrates the two PUs on the right side. In addition, the integrated PU of 32 × 16 pixels and the integrated PU of 16 × 32 pixels can be selected for integration only in the case of inter-screen prediction, and in the case of in-screen prediction, only the integration into the integrated PU of 32 × 32 pixels can be selected. Cannot be selected.

要するに、実施の形態2にかかる統合判定処理では、統合領域(N×N画素の領域)内に属する複数の基本PUを、隣接する2つの基本PUによる1組のグループに分けた場合であって、かつ、それぞれのグループに属する基本PUの予測情報が同じである場合に、統合領域内に含まれる複数の基本PUを1つの新たなPUとして統合する。そして、この場合、統合判定部107は、図8Bのように、4つの16×16画素の基本CUを1つの32×32画素の統合CUに統合する(図7のS303)。 In short, in the integration determination process according to the second embodiment, a plurality of basic PUs belonging to the integration area (N × N pixel area) are divided into one group consisting of two adjacent basic PUs. And, when the prediction information of the basic PUs belonging to each group is the same, a plurality of basic PUs included in the integrated area are integrated as one new PU. Then, in this case, the integration determination unit 107 integrates the four 16 × 16 pixel basic CUs into one 32 × 32 pixel integrated CU as shown in FIG. 8B (S303 in FIG. 7).

図10は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CU、並びに、CUサイズが32×32画素、PUサイズが32×16画素もしくは16×32画素、TUサイズが16×16画素の構成からなる統合CUが追加されているのが分かる。 FIG. 10 is a conceptual diagram for explaining a combination of each block size that appears by performing the integration determination process. These block sizes are subject to variable-length coding and arithmetic coding in the code sequence generator 108. Compared with FIG. 3, the integrated CU having a CU size of 32 × 32 pixels, a PU size of 32 × 32 pixels, and a TU size of 16 × 16 pixels by the integrated determination process, and a CU size of 32 × 32 pixels. It can be seen that an integrated CU having a PU size of 32 × 16 pixels or 16 × 32 pixels and a TU size of 16 × 16 pixels has been added.

以上のように、実施の形態2にかかる動画像符号化装置100において、統合判定部107は、統合領域(N×N画素の領域)に属する複数の基本PUを、隣接する2つの基本PUを1組のグループに分けた場合に、分けたそれぞれのグループ内に属する基本PUの予測情報が同じであるとき、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。そして、統合後の新たなCUに基づいて符号列を生成する。 As described above, in the moving image coding apparatus 100 according to the second embodiment, the integration determination unit 107 uses a plurality of basic PUs belonging to the integration region (N × N pixel region) and two adjacent basic PUs. When divided into one group and the prediction information of the basic PUs belonging to each divided group is the same, the plurality of basic CUs included in the integrated area are integrated as one new CU. Then, a code string is generated based on the new CU after integration.

例えば、統合判定部107は、統合領域(N×N画素の領域)のうち、上側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であり、かつ下側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であった場合、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。或いは、統合判定部107は、統合領域(N×N画素の領域)のうち、左側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であり、かつ右側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であった場合、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。 For example, in the integration determination unit 107, the prediction information of all the basic PUs included in the upper half region of the integration region (N × N pixel region) is the same information and is included in the lower half region. When the prediction information of all the basic PUs is the same information, the plurality of basic CUs included in the integrated area are integrated as one new CU. Alternatively, in the integration determination unit 107, the prediction information of all the basic PUs included in the left half region of the integration region (N × N pixel region) is the same information, and all included in the right half region. When the prediction information of the basic PU of is the same information, a plurality of basic CUs included in the integrated area are integrated as one new CU.

実施の形態1にかかる統合処理では4つの基本PUの予測情報が全て同じ場合しか統合CUへと統合されなかった。これに対し、実施の形態2にかかる統合処理では、2組の基本PUの予測情報がそれぞれ同じ場合にも統合CUへと統合されるため、より多くのCUを統合することが可能となる。これにより、CU層およびPU層のヘッダ情報の符号量をさらに抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 In the integrated process according to the first embodiment, the prediction information of the four basic PUs is integrated into the integrated CU only when they are all the same. On the other hand, in the integrated process according to the second embodiment, even if the prediction information of the two sets of basic PUs is the same, they are integrated into the integrated CU, so that more CUs can be integrated. As a result, it is possible to further suppress the code amount of the header information of the CU layer and the PU layer, and it is possible to improve the coding efficiency without increasing the processing amount.

なお、統合判定部107は、統合CUにおいて、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CUに変換することが可能となる。 The integration determination unit 107 integrates only the CU and the PU in the integrated CU, while the TU remains as it was before the integration. As a result, it is not necessary to reconstruct the residual coefficient signal after integration, and it is possible to convert to the integrated CU only by changing the header information of the CU layer and the PU layer.

(実施の形態3)
続いて、実施の形態3にかかる動画像符号化装置100について、図面を参照しながら説明する。なお、動画像符号化装置100の構成は、実施の形態1で説明したものと同様であるため、説明を省略する。
(Embodiment 3)
Subsequently, the moving image coding apparatus 100 according to the third embodiment will be described with reference to the drawings. Since the configuration of the moving image coding device 100 is the same as that described in the first embodiment, the description thereof will be omitted.

実施の形態3にかかる動画像符号化装置100は、実施の形態1および2にかかる動画像符号化装置100と、統合判定部107による統合判定処理が異なる。 The moving image coding device 100 according to the third embodiment is different from the moving image coding device 100 according to the first and second embodiments in the integrated determination process by the integrated determination unit 107.

実施の形態3にかかる統合判定部107では、複数の基本ブロックを包含する統合領域として、統合領域1と統合領域2の2段階の統合領域を定義している。統合判定部107は、統合領域に含まれる全ての基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で統合判定処理する。 The integration determination unit 107 according to the third embodiment defines a two-stage integrated area of the integrated area 1 and the integrated area 2 as an integrated area including a plurality of basic blocks. The integration determination unit 107 performs integration determination processing for all the basic blocks included in the integration area when a series of processing of the basic block unit processing loop unit 111 is completed.

統合判定部107における、複数の基本ブロックに属する基本CUを統合して1つの統合CUとするか否かを判定する方法について、図11、図12A、図12B、図12Cを用いて具体的に説明する。図11は、実施の形態3にかかる統合判定処理を示すフローチャートである。図12A、図12B、図12Cは、実施の形態3にかかる統合判定処理を示すイメージ図である。図11は、基本ブロックが16×16画素、統合領域1が32×32画素、統合領域2が64×64画素とした場合の処理を示す。統合領域2は、統合領域1を包含している。このとき、統合領域1には4つの基本ブロックが包含されている。統合領域2には、4つの統合領域1が包含されている。すなわち、統合領域2には、16個の基本ブロックが包含されている。なお、統合領域のサイズとして、基本ブロックのサイズよりも大きなサイズであれば、基本ブロックのサイズに応じて32×32画素および64×64画素以外のサイズを使用してもよい。 A method for determining whether or not to integrate basic CUs belonging to a plurality of basic blocks into one integrated CU in the integration determination unit 107 is specifically described with reference to FIGS. 11, 12A, 12B, and 12C. explain. FIG. 11 is a flowchart showing the integration determination process according to the third embodiment. 12A, 12B, and 12C are image diagrams showing the integration determination process according to the third embodiment. FIG. 11 shows processing when the basic block is 16 × 16 pixels, the integrated area 1 is 32 × 32 pixels, and the integrated area 2 is 64 × 64 pixels. The integrated area 2 includes the integrated area 1. At this time, the integrated area 1 includes four basic blocks. The integrated area 2 includes four integrated areas 1. That is, the integrated area 2 includes 16 basic blocks. As the size of the integrated area, if the size is larger than the size of the basic block, a size other than 32 × 32 pixels and 64 × 64 pixels may be used depending on the size of the basic block.

まず、統合判定部107は、統合領域1内に内包された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S801)。 First, the integration determination unit 107 determines whether or not the four basic blocks contained in the integration region 1 are all composed of a basic CU having 16 × 16 pixels and a basic PU having 16 × 16 pixels (S801). ).

S801の条件を満たさない場合(S801におけるNo)、図12Aのように、統合領域1内の基本CUは統合されない。 When the condition of S801 is not satisfied (No in S801), the basic CU in the integrated region 1 is not integrated as shown in FIG. 12A.

一方、S801の条件を満たす場合(S801におけるYes)、統合判定部107は、統合領域1内の4つの基本PUの予測情報が全て同じであるか否かを判定する(S802)。具体的には、画面内予測の場合、統合領域1内の4つの基本PUの少なくとも画面内予測モードが全て同じであるか否かを判定する。また、画面間予測の場合、統合領域1内の4つの基本PUの少なくとも動きベクトル情報および参照ピクチャ情報が全て同じであるか否かを判定する。 On the other hand, when the condition of S801 is satisfied (Yes in S801), the integration determination unit 107 determines whether or not the prediction information of the four basic PUs in the integration region 1 are all the same (S802). Specifically, in the case of in-screen prediction, it is determined whether or not at least the in-screen prediction modes of the four basic PUs in the integrated region 1 are all the same. Further, in the case of inter-screen prediction, it is determined whether or not at least the motion vector information and the reference picture information of the four basic PUs in the integrated region 1 are all the same.

S802の条件を満たさない場合(S802におけるNo)、図12Aのように、当該統合領域1内の基本CUは統合されない。 When the condition of S802 is not satisfied (No in S802), the basic CU in the integrated region 1 is not integrated as shown in FIG. 12A.

一方、S802の条件を満たす場合(S802におけるYes)、統合判定部107は、4つの16×16画素の基本CUを1つの32×32画素の統合CU1に統合する(S803)。 On the other hand, when the condition of S802 is satisfied (Yes in S802), the integration determination unit 107 integrates four 16 × 16 pixel basic CUs into one 32 × 32 pixel integrated CU 1 (S803).

統合判定部107は、S801からS803までの一連の処理を、統合領域2内に属する4つの全ての統合領域1について行う(S804)。すなわち、統合判定部107は、統合領域2内の全ての統合領域1についてS801からS803の一連の処理が完了していない場合(S804におけるNo)、当該処理が完了していない統合領域1についてS801からS803までの一連の動作を行う。その結果、いずれの統合領域1についても統合処理が行われなかった場合、図12Aのように、統合領域2内の16個の基本CUは全て統合されない。一方、4つの統合領域1のうち一部の統合領域1のみが統合された場合、図12Bのように、統合領域2内の一部の基本CUについてのみ32×32画素の統合CU1に統合される。 The integration determination unit 107 performs a series of processes from S801 to S803 for all four integrated areas 1 belonging to the integrated area 2 (S804). That is, when the integration determination unit 107 has not completed a series of processes from S801 to S803 for all the integrated areas 1 in the integrated area 2 (No in S804), the integration determination unit 107 has S801 for the integrated area 1 for which the processes have not been completed. A series of operations from to S803 is performed. As a result, if the integration process is not performed for any of the integrated areas 1, all 16 basic CUs in the integrated area 2 are not integrated as shown in FIG. 12A. On the other hand, when only a part of the integrated areas 1 out of the four integrated areas 1 is integrated, only a part of the basic CUs in the integrated area 2 is integrated into the integrated CU1 of 32 × 32 pixels as shown in FIG. 12B. To.

次に、統合判定部107は、統合領域2内の全ての統合領域1についてS801からS803の一連の処理が完了した場合(S804におけるYES)、統合領域2内に属する4つの統合領域1について、全てのCUが統合CU1に統合されているか否かを判定する(S805)。 Next, when the series of processes from S801 to S803 is completed for all the integrated regions 1 in the integrated region 2 (YES in S804), the integration determination unit 107 refers to the four integrated regions 1 belonging to the integrated region 2. It is determined whether or not all CUs are integrated into the integrated CU1 (S805).

S805の条件を満たさない場合(S805におけるNo)、統合判定部107は、統合判定処理を終了する。 If the condition of S805 is not satisfied (No in S805), the integration determination unit 107 ends the integration determination process.

S805の条件を満たす場合(S805におけるYes)、統合判定部107は、統合領域2内の4つの統合PU1の予測情報が全て同じであるかどうかを判定する(S806)。 When the condition of S805 is satisfied (Yes in S805), the integration determination unit 107 determines whether or not the prediction information of the four integrated PU1s in the integration region 2 are all the same (S806).

S806の条件を満たさない場合(S806におけるNo)、統合判定部107は、統合判定処理を終了する。 When the condition of S806 is not satisfied (No in S806), the integration determination unit 107 ends the integration determination process.

S806の条件を満たす場合(S806におけるYes)、統合判定部107は、図12Cのように、4つの32×32画素の統合CU1をさらに1つの64×64画素の統合CU2に統合する(S807)。動画像符号化装置100は、基本ブロックのサイズをHEVCで規定されている64×64画素および32×32画素よりも小さい16×16画素に限定している。これにより、32×32画素の統合CU1への統合および、64×64画素の統合CU2への統合が可能となる。 When the condition of S806 is satisfied (Yes in S806), the integration determination unit 107 further integrates the four 32 × 32 pixel integrated CU1 into one 64 × 64 pixel integrated CU2 as shown in FIG. 12C (S807). .. The moving image coding device 100 limits the size of the basic block to 16 × 16 pixels, which is smaller than the 64 × 64 pixels and 32 × 32 pixels defined by HEVC. This makes it possible to integrate 32 × 32 pixels into the integrated CU1 and 64 × 64 pixels into the integrated CU2.

図13は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CU1、並びにCUサイズが64×64画素、PUサイズが64×64画素、TUサイズが16×16画素の構成からなる統合CU2が追加されているのが分かる。 FIG. 13 is a conceptual diagram for explaining a combination of each block size that appears by performing the integration determination process. These block sizes are subject to variable-length coding and arithmetic coding in the code sequence generator 108. Compared with FIG. 3, the integrated CU1 having a CU size of 32 × 32 pixels, a PU size of 32 × 32 pixels, and a TU size of 16 × 16 pixels, and a CU size of 64 × 64 pixels by the integrated determination process. It can be seen that the integrated CU2 having a configuration of a PU size of 64 × 64 pixels and a TU size of 16 × 16 pixels has been added.

以上のように、実施の形態3にかかる動画像符号化装置100において、統合判定部107は、統合領域1(複数の基本ブロックからなるN×N画素の領域)に属する複数の基本CUおよび基本PUがすべて同じブロックサイズかつ、統合領域1に含まれる全ての基本PUの予測情報が同じである場合に、統合領域1に含まれる複数の基本CUを1つの新たな統合CU1として統合する。更に、統合判定部107は、統合領域2(複数の統合領域1からなる領域)内の全てのCUが統合CU1に統合されており、かつ、統合領域2内の全ての統合PU1の予測情報が同じである場合に、統合領域2に含まれる複数の基本CUを1つの新たな統合CU2として統合する。そして、統合後の新たなCUに基づいて符号列を生成する。 As described above, in the moving image coding apparatus 100 according to the third embodiment, the integration determination unit 107 has a plurality of basic CUs and basics belonging to the integration region 1 (region of N × N pixels composed of a plurality of basic blocks). When all the PUs have the same block size and the prediction information of all the basic PUs included in the integrated region 1 is the same, the plurality of basic CUs included in the integrated region 1 are integrated as one new integrated CU1. Further, in the integration determination unit 107, all the CUs in the integration area 2 (the area consisting of the plurality of integration areas 1) are integrated into the integration CU1, and the prediction information of all the integration PU1s in the integration area 2 is obtained. If they are the same, the plurality of basic CUs included in the integrated region 2 are integrated as one new integrated CU2. Then, a code string is generated based on the new CU after integration.

実施の形態1にかかる統合処理では最大でも4つの基本CUまでしか統合されなかった。これに対し、実施の形態3にかかる統合処理では、最大16個の基本CUまで統合されることになり、より多くのCUを1つのCUに統合することが可能となる。これにより、CU層およびPU層のヘッダ情報の符号量をさらに抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 In the integrated process according to the first embodiment, only four basic CUs were integrated at the maximum. On the other hand, in the integrated process according to the third embodiment, up to 16 basic CUs are integrated, and more CUs can be integrated into one CU. As a result, it is possible to further suppress the code amount of the header information of the CU layer and the PU layer, and it is possible to improve the coding efficiency without increasing the processing amount.

なお、統合判定部107は、統合CU1および統合CU2において、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CU1および統合CU2に変換することが可能となる。 The integration determination unit 107 integrates only the CU and the PU in the integrated CU1 and the integrated CU2, while the TU remains as it was before the integration. As a result, it is not necessary to reconstruct the residual coefficient signal after integration, and it is possible to convert to integrated CU1 and integrated CU2 only by changing the header information of the CU layer and the PU layer.

(その他の実施形態)
以上のように、本出願において開示する技術の例示として、実施の形態1~3を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1~3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, Embodiments 1 to 3 have been described as examples of the techniques disclosed in the present application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. have been made. Further, it is also possible to combine the components described in the above-described embodiments 1 to 3 to form a new embodiment.

そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be exemplified below.

実施の形態1~3において説明した各々の統合判定処理は、それぞれ個別に使用することに限定されない。すなわち、実施の形態1~3において説明した各々の統合判定処理のうち、いずれか複数の処理を組合せて使用してもよい。例えば、図11に示す実施の形態3のフローチャートにおいて、ステップS802およびステップS805の両方或いは一方を、図7に示す実施の形態2のフローチャートにおけるステップS502と置き換えてもよい。 Each of the integrated determination processes described in the first to third embodiments is not limited to being used individually. That is, any one or more of the integrated determination processes described in the first to third embodiments may be used in combination. For example, in the flowchart of the third embodiment shown in FIG. 11, both or one of the steps S802 and S805 may be replaced with the step S502 in the flowchart of the second embodiment shown in FIG. 7.

さらに、上記の実施の形態1~3で示した動画像符号化装置100に含まれる各手段と同等の機能を備えるプログラムを、フレキシブルディスク等の記録媒体に記録するようにしてもよい。これにより、上記実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。なお、記録媒体としてはフレキシブルディスクに限らず、光ディスク、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。 Further, a program having the same function as each means included in the moving image coding apparatus 100 shown in the above-described first to third embodiments may be recorded on a recording medium such as a flexible disk. This makes it possible to easily carry out the processing shown in the above embodiment in an independent computer system. The recording medium is not limited to a flexible disk, and any optical disk, IC card, ROM cassette, or the like that can record a program can be used in the same manner.

また、上記の実施の形態1~3で示した動画像符号化装置100に含まれる各手段と同等の機能を集積回路であるLSIとして実現してもよい。これらは各手段の一部または全てを含むように1チップ化されてもよい。またLSIは集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと称されることもある。 Further, the same function as each means included in the moving image coding apparatus 100 shown in the above-described first to third embodiments may be realized as an LSI as an integrated circuit. These may be integrated into a single chip so as to include a part or all of each means. Further, the LSI may be referred to as an IC, a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.

さらには、半導体技術の進歩または派生する別技術によりLSIなどに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if an integrated circuit technology that replaces an LSI or the like appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology.

なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Since the above-described embodiment is for exemplifying the technique in the present disclosure, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent thereof.

本開示は、入力画像を構成する各ピクチャを符号化して動画像符号化データとして出力する動画像符号化装置に適用できる。例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、携帯情報端末およびパーソナルコンピューターなどに、本開示は適用可能である。 The present disclosure can be applied to a moving image coding device that encodes each picture constituting an input image and outputs it as moving image coding data. For example, the present disclosure is applicable to video cameras, digital cameras, video recorders, mobile phones, personal digital assistants, personal computers, and the like.

100 動画像符号化装置
101 ピクチャメモリ
102 基本ブロック分割部
103 予測残差符号化部
104 予測残差復号化部
105 ピクチャバッファ
106 予測処理部
107 統合判定部
108 符号列生成部
109 差分演算部
110 加算演算部
111 基本ブロック単位処理ループ部
100 Moving image coding device 101 Picture memory 102 Basic block division unit 103 Predictive residual coding unit 104 Predictive residual decoding unit 105 Picture buffer 106 Prediction processing unit 107 Integration judgment unit 108 Code string generation unit 109 Difference calculation unit 110 Addition Calculation unit 111 Basic block unit processing loop unit

Claims (4)

対象ピクチャを符号化して、符号列を生成する動画像符号化装置であって、
動作において、(i)前記対象ピクチャを複数の符号化単位に分割し、(ii)前記複数の符号化単位をそれぞれ少なくとも1つの予測単位に分割するブロック分割部と、
動作において、予測単位毎に生成された予測画像と、前記対象ピクチャとの差分を演算することにより残差成分を生成する残差符号化部と、を備え、
前記複数の符号化単位の第1符号化単位の第1サイズが2N×2Nである場合のみ、前記第1符号化単位における予測単位の第2サイズは、常に、2N×2N、2N×NおよびN×2Nのいずれかであり、
前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nでない場合、前記第1符号化単位における前記予測単位の前記第2サイズは、2N×2N、2N×N、N×2NおよびN×Nのいずれかである、
動画像符号化装置。
A moving image coding device that encodes a target picture and generates a code string.
In operation, (i) a block division unit that divides the target picture into a plurality of coding units, and (ii) divides the plurality of coding units into at least one prediction unit, respectively.
In operation, it is provided with a residual coding unit that generates a residual component by calculating a difference between a predicted image generated for each prediction unit and the target picture.
Only when the first size of the first coding unit of the plurality of coding units is 2N × 2N, the second size of the prediction unit in the first coding unit is always 2N × 2N, 2N × N and It is either N × 2N,
When the first size of the first coding unit of the plurality of coding units is not 2N × 2N, the second size of the prediction unit in the first coding unit is 2N × 2N, 2N × N, Either Nx2N or NxN,
Video coding device.
前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nである場合において、前記第1符号化単位における変換単位の第3サイズは、(i)前記第1符号化単位における前記予測単位の前記第2サイズが2N×2Nである場合、常に、2N×2Nであり、(ii)前記第1符号化単位における前記予測単位の前記第2サイズが2N×NまたはN×2Nである場合、常に、N×Nである、
請求項1に記載の動画像符号化装置。
When the first size of the first coding unit of the plurality of coding units is 2N × 2N, the third size of the conversion unit in the first coding unit is (i) the first coding. When the second size of the prediction unit in the unit is 2N × 2N, it is always 2N × 2N, and (ii) the second size of the prediction unit in the first coding unit is 2N × N or N. When it is × 2N, it is always N × N,
The moving image coding device according to claim 1.
(i)前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nであり、かつ、(ii)インター予測が行われる場合、前記第1符号化単位における前記予測単位の前記第2サイズは、常に、2N×NおよびN×2Nのいずれかである、
請求項1に記載の動画像符号化装置。
(I) When the first size of the first coding unit of the plurality of coding units is 2N × 2N and (ii) inter-prediction is performed, the prediction unit in the first coding unit. The second size of is always one of 2N × N and N × 2N.
The moving image coding device according to claim 1.
対象ピクチャを符号化して、符号列を生成する動画像符号化装置であって、
動作において、(i)前記対象ピクチャを複数の符号化単位に分割し、(ii)前記複数の符号化単位をそれぞれ少なくとも1つの予測単位に分割するブロック分割部と、
動作において、予測単位毎に生成された予測画像と、前記対象ピクチャとの差分を演算することにより残差成分を生成する残差符号化部と、を備え、
前記複数の符号化単位の第1符号化単位の第1サイズが4N×4Nである場合においてのみ、前記第1符号化単位における予測単位の第2サイズは、(i)イントラ予測が行われる場合、常に、4N×4Nであり、(ii)インター予測が行われる場合、常に、4N×4N、4N×2Nおよび2N×4Nのいずれかであり、
前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nでない場合、前記第1符号化単位における前記予測単位の前記第2サイズは、2N×2N、2N×N、N×2NおよびN×Nのいずれかであり、
前記複数の符号化単位の前記第1符号化単位の前記第1サイズが2N×2Nである場合において、前記第1符号化単位における前記予測単位の前記第2サイズは、(i)イントラ予測が行われる場合、常に、2N×2NおよびN×Nのいずれかであり、(ii)インター予測が行われる場合、常に、2N×2N、2N×NおよびN×2Nのいずれかである、
動画像符号化装置。
A moving image coding device that encodes a target picture and generates a code string.
In operation, (i) a block division unit that divides the target picture into a plurality of coding units, and (ii) divides the plurality of coding units into at least one prediction unit, respectively.
In operation, it is provided with a residual coding unit that generates a residual component by calculating a difference between a predicted image generated for each prediction unit and the target picture.
Only when the first size of the first coding unit of the plurality of coding units is 4N × 4N, the second size of the prediction unit in the first coding unit is (i) when intra-prediction is performed. , Always 4N × 4N, and (ii) always one of 4N × 4N, 4N × 2N and 2N × 4N when inter-prediction is performed.
When the first size of the first coding unit of the plurality of coding units is not 2N × 2N, the second size of the prediction unit in the first coding unit is 2N × 2N, 2N × N, It is either N × 2N or N × N,
When the first size of the first coding unit of the plurality of coding units is 2N × 2N, the second size of the prediction unit in the first coding unit is (i) intra-prediction. When done, it is always either 2Nx2N and NxN, and when (ii) inter-prediction is done, it is always either 2Nx2N, 2NxN and Nx2N.
Video coding device.
JP2021148156A 2014-03-06 2021-09-10 Video encoding device Active JP7064644B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022070965A JP2022090059A (en) 2014-03-06 2022-04-22 Video coding method
JP2023218676A JP2024023885A (en) 2014-03-06 2023-12-25 Video encoding device and video encoding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014043540 2014-03-06
JP2014043540 2014-03-06
JP2020104935A JP2020156106A (en) 2014-03-06 2020-06-18 Video encoding device and video encoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020104935A Division JP2020156106A (en) 2014-03-06 2020-06-18 Video encoding device and video encoding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022070965A Division JP2022090059A (en) 2014-03-06 2022-04-22 Video coding method

Publications (2)

Publication Number Publication Date
JP2022008371A true JP2022008371A (en) 2022-01-13
JP7064644B2 JP7064644B2 (en) 2022-05-10

Family

ID=72560072

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2020104935A Pending JP2020156106A (en) 2014-03-06 2020-06-18 Video encoding device and video encoding method
JP2021148156A Active JP7064644B2 (en) 2014-03-06 2021-09-10 Video encoding device
JP2022070965A Pending JP2022090059A (en) 2014-03-06 2022-04-22 Video coding method
JP2023218676A Pending JP2024023885A (en) 2014-03-06 2023-12-25 Video encoding device and video encoding method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020104935A Pending JP2020156106A (en) 2014-03-06 2020-06-18 Video encoding device and video encoding method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022070965A Pending JP2022090059A (en) 2014-03-06 2022-04-22 Video coding method
JP2023218676A Pending JP2024023885A (en) 2014-03-06 2023-12-25 Video encoding device and video encoding method

Country Status (1)

Country Link
JP (4) JP2020156106A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020156106A (en) * 2014-03-06 2020-09-24 パナソニックIpマネジメント株式会社 Video encoding device and video encoding method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013545372A (en) * 2010-10-28 2013-12-19 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Video information encoding method and decoding method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013108330A1 (en) 2012-01-18 2015-05-11 パナソニックIpマネジメント株式会社 Image decoding apparatus, image encoding apparatus, image decoding method, and image encoding method
WO2013128010A2 (en) 2012-03-02 2013-09-06 Canon Kabushiki Kaisha Method and devices for encoding a sequence of images into a scalable video bit-stream, and decoding a corresponding scalable video bit-stream
JP2020156106A (en) * 2014-03-06 2020-09-24 パナソニックIpマネジメント株式会社 Video encoding device and video encoding method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013545372A (en) * 2010-10-28 2013-12-19 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Video information encoding method and decoding method

Also Published As

Publication number Publication date
JP2024023885A (en) 2024-02-21
JP7064644B2 (en) 2022-05-10
JP2022090059A (en) 2022-06-16
JP2020156106A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
TWI759389B (en) Low-complexity sign prediction for video coding
JP6339099B2 (en) Content adaptive entropy coding of partition data for next generation video
KR102596735B1 (en) An encoder, a decoder and corresponding methods using ibc dedicated buffer and default value refreshing for luma and chroma component
CN113678441B (en) Video encoding and decoding method and device
CN111010568B (en) Training method and device of interpolation filter, video image coding and decoding method and coder-decoder
CN111492661B (en) Video encoding and decoding method, device and storage medium
JP6731574B2 (en) Moving picture coding apparatus and moving picture coding method
CN114827594B (en) Picture data processing method, device and storage medium
JP2008278091A (en) Moving picture recording method, and apparatus thereof
JP2010063092A (en) Image coding apparatus, image coding method, image coding integrated circuit and camera
JP2024023885A (en) Video encoding device and video encoding method
CN115315945A (en) Video coding and decoding method and device
JP2007129370A (en) Motion vector detecting apparatus and method
CN112019845A (en) Method and device for encoding point cloud and storage medium
US20230388490A1 (en) Encoding method, decoding method, and device
JP6187826B2 (en) Moving picture coding apparatus and moving picture coding method
JP2009111647A (en) Apparatus for detecting motion vector and method for detecting motion vector
CN113678378B (en) Video decoding method, video decoder, and non-volatile computer readable medium
JP7350857B2 (en) Encoders, decoders, and corresponding methods for inter prediction
KR102547353B1 (en) Image decoding method and device on basis of affine motion prediction using constructed affine mvp candidate in image coding system
US8897368B2 (en) Image coding device, image coding method, image coding integrated circuit and image coding program
JP2008141407A (en) Device and method for converting coding system
JP2006165699A (en) Image encoder and image encoding method
JP6308409B2 (en) Moving picture coding apparatus and moving picture coding method
JP2016106444A (en) Moving image encoding apparatus and moving image encoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220422

R150 Certificate of patent or registration of utility model

Ref document number: 7064644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150