JP2014197795A - Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image - Google Patents

Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image Download PDF

Info

Publication number
JP2014197795A
JP2014197795A JP2013073042A JP2013073042A JP2014197795A JP 2014197795 A JP2014197795 A JP 2014197795A JP 2013073042 A JP2013073042 A JP 2013073042A JP 2013073042 A JP2013073042 A JP 2013073042A JP 2014197795 A JP2014197795 A JP 2014197795A
Authority
JP
Japan
Prior art keywords
tile
encoding
decoding
tiles
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013073042A
Other languages
Japanese (ja)
Inventor
亮史 服部
Akifumi Hattori
亮史 服部
守屋 芳美
Yoshimi Moriya
芳美 守屋
関口 俊一
Shunichi Sekiguchi
俊一 関口
憲道 日和佐
Norimichi Hiwasa
憲道 日和佐
彰 峯澤
Akira Minesawa
彰 峯澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013073042A priority Critical patent/JP2014197795A/en
Publication of JP2014197795A publication Critical patent/JP2014197795A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate encoded data for which a specific tile can be decoded independently on a dynamic image decoder side, irrespective of whether or not other tiles are normally decoded.SOLUTION: When a tile is given, among separated tiles, for which an independent tile flag indicates to the effect that an encoding process is performed without referring to information pertaining to other tiles, the encoding process for the tile is executed independently without referring to the information pertaining to the other tiles. When a tile is given for which the independent tile flag indicates to the effect that the encoding process is performed by referring to the information pertaining to the other tiles, the encode processing for the tile is executed by referring to the information pertaining to the other tiles.

Description

この発明は、画像を圧縮符号化して伝送する画像符号化装置及び画像符号化方法と、画像符号化装置により伝送された符号化データから画像を復号する画像復号装置及び画像復号方法とに関するものである。   The present invention relates to an image encoding device and an image encoding method for compressing and transmitting an image, and an image decoding device and an image decoding method for decoding an image from encoded data transmitted by the image encoding device. is there.

MPEGやITU−T H.26x等の国際標準映像符号化方式では、入力映像フレームを、マクロブロック(MB)、コーディングツリーユニット(CTU)などの名称で呼ばれる正方ブロックに分割し、各ブロックにおいて、フレーム内予測処理、フレーム間予測処理、予測誤差信号の直交変換処理、量子化処理、エントロピー符号化処理などを実施する。
また、全てのマクロブロックに対する処理が完了して、画面一枚分の局所復号画像が作成された後に、ループフィルタのパラメータの導出・エントロピー符号化処理や、そのパラメータに基づく局所復号画像へのフィルタ処理を実施する。
符号化対象の動画像データの空間解像度が増加するほど、上記処理を実施するCTUの数が増加するため、符号化処理や復号処理の処理量が増加する。
MPEG and ITU-TH In an international standard video coding scheme such as 26x, an input video frame is divided into square blocks called macroblocks (MB), coding tree units (CTU), and the like. Prediction processing, orthogonal transformation processing of prediction error signals, quantization processing, entropy coding processing, and the like are performed.
In addition, after processing for all macroblocks is completed and a local decoded image for one screen is created, parameter derivation / entropy encoding processing of the loop filter and filtering to the local decoded image based on the parameter are performed. Perform the process.
As the spatial resolution of the moving image data to be encoded increases, the number of CTUs that perform the above processing increases, and thus the amount of encoding processing and decoding processing increases.

ここで、符号化対象の動画像コンテンツが非常に高い空間解像度を持っている場合において、多くの処理量をかけてでも、その動画像コンテンツの画面全体を必要とするユーザAと、動画像コンテンツの一部領域だけが必要であるため、あまり多くの処理量をかけたくないユーザBとが存在する状況を考える。
例えば、符号化対象の動画像コンテンツが監視映像であるとき、映像全体の閲覧を希望するユーザAと、映像の重要領域(例えば、人物・出入り口など)だけの閲覧を希望するユーザBとが存在する状況を考える。
Here, when the moving image content to be encoded has a very high spatial resolution, the user A who needs the entire screen of the moving image content and the moving image content, even if a large amount of processing is applied. Since only a partial area is necessary, consider a situation where there is a user B who does not want to apply a large amount of processing.
For example, when the moving image content to be encoded is a surveillance video, there are a user A who wants to browse the entire video and a user B who wants to browse only the important area of the video (for example, a person / entrance). Think about the situation.

このような状況下では、最も単純には、ユーザAが必要とする画面全体の動画像コンテンツを符号化したデータと、ユーザBが必要とする部分領域のみを切り出した動画像コンテンツを符号化したデータとの2種類を作成する手法を採用すればよい。
ただし、このような手法では、符号化を個別に行う必要があり、ユーザAとユーザBに対して、異なる符号化データを伝送する必要がある。
また、ユーザBが必要とする領域を符号化時に特定することができない場合には、このような手法を採用することができない。よって、1つの符号化データから、任意の一部領域のみを低処理量で復号する手法が望ましい。
Under these circumstances, most simply, the encoded data of the moving image content of the entire screen required by the user A and the moving image content extracted only from the partial area required by the user B are encoded. A method of creating two types of data and data may be employed.
However, in such a method, it is necessary to perform encoding separately, and it is necessary to transmit different encoded data to the user A and the user B.
In addition, when the area required by the user B cannot be specified at the time of encoding, such a method cannot be adopted. Therefore, a method of decoding only an arbitrary partial region from a single encoded data with a low processing amount is desirable.

しかし、上記のような動画像符号化処理において、コンテキスト適応型エントロピー符号化やフレーム内予測/フレーム間予測を行うには、あるフレームのある一部領域を正しく復号するために、その領域が予測のために参照している領域も、正常に復号されている必要がある。
予測のための参照に制約を設けない限りは、IDR(Instantaneous Decoding Refresh:IDRピクチャから復号順で後のピクチャが復号可能)や、CRA(Clean Random Access:CRAピクチャから表示順で後のピクチャが復号可能)などのランダムアクセスポイント以降のフレームすべてが正常に復号されない限り、ある任意の一部領域の正常な復号は保証されない。よって、復号したい領域が一部領域であったとしても、画面全体を復号する必要がある。
However, in the video encoding process as described above, in order to perform context adaptive entropy encoding and intra-frame prediction / inter-frame prediction, in order to correctly decode a certain area of a certain frame, the area is predicted. For this reason, the area that is referred to in order to be decoded must also be correctly decoded.
Unless there is a restriction on the reference for prediction, IDR (Instantaneous Decoding Refresh: pictures subsequent to the IDR picture can be decoded in decoding order) and CRA (Clean Random Access: pictures subsequent to the CRA picture in display order) As long as all the frames after the random access point such as (decodable) are not normally decoded, normal decoding of an arbitrary partial area is not guaranteed. Therefore, even if the area to be decoded is a partial area, it is necessary to decode the entire screen.

以下の非特許文献1では、上記の問題のうち、コンテキスト適応型エントロピー符号化や、フレーム内予測/フレーム間予測などによる画像領域間の依存関係を解決するために、タイルと呼ばれる構造体を用いている。タイルは、図9に示されるように、複数のCTUからなる矩形領域である。
タイルは以下に示すような特徴を有している。
In Non-Patent Document 1 below, among the above problems, a structure called a tile is used to solve a dependency relationship between image regions by context adaptive entropy coding or intra-frame prediction / inter-frame prediction. ing. As shown in FIG. 9, the tile is a rectangular area composed of a plurality of CTUs.
The tile has the following characteristics.

(1)画像のタイルによる分割は、CTU単位で行われる。
(2)画像のタイルによる分割は、各行・各列の幅が非均一な格子状となる。即ち、縦方
向に隣接するタイルは、左右両端の座標が等しくなり、横方向に隣接するタイルは、
上下両端の座標が等しくなる。
(3)各CTUは、タイル内で閉じたラスタスキャン順に処理される。また、タイル内で
スライス分割を行うことが可能である。
(4)タイル内で最初に処理されるCTUでは、エントロピー符号化を初期状態から開始
することができる。
(5)フレーム内予測処理、フレーム間予測処理、エントロピー符号化・復号の処理にお
いて、同一フレーム内の隣接CTUの局所復号画像及び符号化モードの参照を行う際
、隣接CTUが異なるタイルに属していた場合、隣接CTUの参照を行わずに、画面
端の処理を実施することができる。
(6)各タイルにおいて、ループフィルタ処理を独立に実施することができる。
(7)フレーム間予測処理において、符号化(復号)済みフレームの画素を参照する際、
タイル外のCTU位置の画素を参照することは制限されない。
(1) The division of an image by tiles is performed in units of CTUs.
(2) The image is divided into tiles in which the width of each row / column is non-uniform. That is, the tiles that are adjacent in the vertical direction have the same coordinate at the left and right ends, and the tiles that are adjacent in the horizontal direction
The coordinates of the upper and lower ends are equal.
(3) Each CTU is processed in the raster scan order closed within the tile. It is also possible to perform slice division within the tile.
(4) In the CTU processed first in the tile, entropy coding can be started from the initial state.
(5) In intra-frame prediction processing, inter-frame prediction processing, and entropy encoding / decoding processing, when referring to the local decoded image and encoding mode of adjacent CTUs in the same frame, adjacent CTUs have different tiles If it belongs, the processing at the edge of the screen can be performed without referring to the adjacent CTU.
(6) In each tile, loop filter processing can be performed independently.
(7) In the inter-frame prediction process, when referring to the pixel of the encoded (decoded) frame,
Reference to a pixel at the CTU position outside the tile is not limited.

以上より、あるタイルに属するCTUの符号化・復号処理を実行する際、フレーム内予測処理や、予測誤差信号の直交変換・量子化・エントロピー符号化処理において、同じタイル内に属するCTUの結果のみを必要とするように構成することができる。よって、あるフレーム内に閉じた処理を考えると、フレーム内/フレーム間予測処理、予測誤差信号の直交変換・量子化処理、エントロピー符号化処理、ループフィルタ処理を単独のタイル、または、特定のタイル群で独立して処理することが可能となる。
ただし、フレーム間予測処理において、タイル外位置への画素アクセスが制限されていないため、復号処理の際に、全てのフレームにおいて、特定の位置の領域のタイルのみを復号することはできない。
As described above, when performing encoding / decoding processing of CTUs belonging to a certain tile, only the results of CTUs belonging to the same tile in intra-frame prediction processing and orthogonal transformation / quantization / entropy encoding processing of prediction error signals. Can be configured as required. Therefore, when considering processing closed within a frame, intra-frame / inter-frame prediction processing, prediction error signal orthogonal transformation / quantization processing, entropy coding processing, loop filter processing can be performed on a single tile or on a specific tile. It becomes possible to process independently in groups.
However, since the pixel access to the position outside the tile is not restricted in the inter-frame prediction process, it is not possible to decode only the tile in the region at the specific position in all frames during the decoding process.

Benjamin Bross,Woo-Jin Han,Jens-Rainer Ohm,Gary J. Sullivan,Thomas Wiegand,“JCTVC-K1003:High Efficiency Video Coding(HEVC)text specification draft 9”,Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 11th Meeting:Shanghai,CN,10-19 October 2012Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, “JCTVC-K1003: High Efficiency Video Coding (HEVC) text specification draft 9”, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11 11th Meeting: Shanghai, CN, 10-19 October 2012

従来の動画像符号化装置は以上のように構成されているので、コンテキスト適応型エントロピー符号化や、フレーム内予測/フレーム間予測などで画像領域間の依存関係があり、動画像の一部分だけを復号することができない課題があった。
また、動画像をタイルに分割し、あるフレーム内で閉じた処理を考えると、フレーム内/フレーム間予測、予測誤差信号の直交変換・量子化、エントロピー符号化、ループフィルタなどの処理を単独のタイル、または、特定のタイル群で独立して処理することが可能になるが、フレーム間予測において、他のタイル内に存在している画素の参照を制限していない。このため、動画像復号装置において、他のタイルが正常に復号されていなければ、特定のタイルを復号することができない課題があった。
Since the conventional moving image coding apparatus is configured as described above, there is a dependency relationship between image regions such as context adaptive entropy coding and intra-frame prediction / inter-frame prediction. There was a problem that could not be decrypted.
In addition, considering a process in which a moving image is divided into tiles and closed within a frame, intra-frame / inter-frame prediction, orthogonal transformation / quantization of prediction error signal, entropy coding, loop filter, etc. are performed independently. While it is possible to process independently on a tile or a specific group of tiles, inter-frame prediction does not restrict references to pixels present in other tiles. For this reason, the moving image decoding apparatus has a problem that a specific tile cannot be decoded unless other tiles are normally decoded.

この発明は上記のような課題を解決するためになされたもので、動画像復号装置側で、他のタイルが正常に復号されているか否かに関わらず、特定のタイルを独立して復号することが可能な符号化データを生成することができる動画像符号化装置及び動画像符号化方法を得ることを目的とする。
また、この発明は、他のタイルが正常に復号されているか否かに関わらず、特定のタイルを独立して復号することができる動画像復号装置及び動画像復号方法を得ることを目的とする。
The present invention has been made to solve the above-described problems, and a moving picture decoding apparatus independently decodes a specific tile regardless of whether other tiles are normally decoded or not. An object of the present invention is to obtain a moving picture coding apparatus and a moving picture coding method capable of generating encoded data that can be encoded.
It is another object of the present invention to obtain a moving picture decoding apparatus and a moving picture decoding method capable of independently decoding a specific tile regardless of whether or not other tiles are normally decoded. .

この発明に係る動画像符号化装置は、符号化対象の画像が分割される矩形の領域であるタイル毎に、他のタイルに関する情報を参照しながら符号化処理を行うか否かを示すフラグを設定するフラグ設定手段と、分離されたタイルのうち、フラグ設定手段により設定されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報を参照せずに独立に実行し、そのフラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報を参照しながら実行するタイル符号化手段とを設け、多重化手段が、タイル符号化手段により符号化された各タイルの符号化データ及びフラグ設定手段により設定された各タイルのフラグを多重化してビットストリームを生成するようにしたものである。   The moving picture coding apparatus according to the present invention provides a flag indicating whether or not to perform coding processing with reference to information on other tiles for each tile which is a rectangular area into which a coding target image is divided. If the flag setting means to set and a tile indicating that the flag set by the flag setting means performs the encoding process without referring to information on other tiles among the separated tiles, If the tile encoding process is executed independently without referring to the information about other tiles, and the flag indicates that the encoding process is performed while referring to the information regarding the other tiles, Tile encoding means for executing the tile encoding processing with reference to information on other tiles, and the multiplexing means for each tile encoded by the tile encoding means. It is obtained so as to generate a bit stream by multiplexing flag for each tile set by Nos data and flag setting means.

この発明によれば、分離されたタイルのうち、フラグ設定手段により設定されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報を参照せずに独立に実行し、そのフラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報を参照しながら実行するように構成したので、動画像復号装置側で、他のタイルが正常に復号されているか否かに関わらず、特定のタイルを独立して復号することが可能な符号化データを生成することができる効果がある。   According to the present invention, when a tile indicating that the flag set by the flag setting unit performs the encoding process without referring to information on another tile among the separated tiles is given, the tile If the tile is given to indicate that the encoding process is performed while referring to the information related to the other tiles, the encoding process is executed independently without referring to the information related to the other tiles. Since the tile encoding process is configured to be executed with reference to information on other tiles, the moving picture decoding device side can execute a specific tile regardless of whether or not the other tiles are normally decoded. There is an effect that encoded data that can be decoded independently can be generated.

この発明の実施の形態1による動画像符号化装置を示す構成図である。It is a block diagram which shows the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像符号化装置のタイル符号化部5−n(n=1,2,・・・,N)を示す構成図である。It is a block diagram which shows the tile encoding part 5-n (n = 1, 2, ..., N) of the moving image encoder by Embodiment 1 of this invention. この発明の実施の形態1による動画像復号装置を示す構成図である。It is a block diagram which shows the moving image decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による動画像復号装置のタイル復号部45−n(n=1,2,・・・,N)を示す構成図である。It is a block diagram which shows the tile decoding part 45-n (n = 1, 2, ..., N) of the moving image decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による動画像符号化装置の処理内容(動画像符号化方法)を示すフローチャートである。It is a flowchart which shows the processing content (moving image encoding method) of the moving image encoding device by Embodiment 1 of this invention. この発明の実施の形態1による動画像復号装置の処理内容(動画像復号方法)を示すフローチャートである。It is a flowchart which shows the processing content (moving image decoding method) of the moving image decoding apparatus by Embodiment 1 of this invention. タイル符号化部5−n(n=1,2,・・・,N)の処理内容をフローチャートである。It is a flowchart for the processing contents of the tile encoding unit 5-n (n = 1, 2,..., N). タイル復号部45−n(n=1,2,・・・,N)の処理内容をフローチャートである。It is a flowchart for the processing contents of the tile decoding unit 45-n (n = 1, 2,..., N). 入力画像のCTU分割及びタイル分割の一例を示す説明図である。It is explanatory drawing which shows an example of CTU division | segmentation and tile division | segmentation of an input image. 最大符号化ブロックが階層的に複数の符号化対象ブロックに分割される例を示す説明図である。It is explanatory drawing which shows the example by which the largest encoding block is divided | segmented hierarchically into several encoding object block. (a)は分割後のパーティションの分布を示し、(b)は階層分割によって符号化モードm(B)が割り当てられる状況を4分木グラフで示す説明図である。(A) shows the distribution of partitions after division, and (b) is an explanatory diagram showing a situation in which a coding mode m (B n ) is assigned by hierarchical division in a quadtree graph. タイル境界を跨いだフレーム間参照を禁止する状況を示す説明図である。It is explanatory drawing which shows the condition which prohibits the reference between frames across tile boundaries. (a)は実施の形態1のタイル間参照の状況を示し、(b)は実施の形態2のタイル間参照の状況を示し、(c)は実施の形態3のタイル間参照の状況を示す説明図である。(A) shows the status of inter-tile reference in the first embodiment, (b) shows the status of inter-tile reference in the second embodiment, and (c) shows the status of inter-tile reference in the third embodiment. It is explanatory drawing. 実施の形態3における動画像復号装置側での部分領域復号の処理を示す説明図である。FIG. 10 is an explanatory diagram illustrating a partial area decoding process on the video decoding device side in the third embodiment.

実施の形態1.
この実施の形態1では、映像の各々のフレーム画像を入力して、近接のフレーム間で動き補償予測又はフレーム内予測を実施し、その予測処理で得られた予測差分信号に対して直交変換・量子化による圧縮処理を実施した後、可変長符号化を行ってビットストリームを生成する動画像符号化装置と、当該動画像符号化装置から出力されたビットストリームを復号する動画像復号装置について説明する。
また、この実施の形態1で説明する動画像符号化装置が生成するビットストリームは、特定の連続するフレームにおける特定の空間的位置のタイル群を独立して復号できるように構成されており、動画像復号装置は、画像全体の復号のほかに、任意の空間的位置のタイル群を独立に復号することができる。
Embodiment 1 FIG.
In the first embodiment, each frame image of a video is input, motion compensation prediction or intraframe prediction is performed between adjacent frames, and an orthogonal transformation is performed on a prediction difference signal obtained by the prediction processing. Describes a moving picture coding apparatus that performs variable length coding and generates a bitstream after performing compression processing by quantization, and a moving picture decoding apparatus that decodes a bitstream output from the moving picture coding apparatus To do.
In addition, the bitstream generated by the moving picture encoding apparatus described in the first embodiment is configured to be able to independently decode a tile group at a specific spatial position in a specific continuous frame. In addition to decoding the entire image, the image decoding apparatus can independently decode a tile group at an arbitrary spatial position.

図1はこの発明の実施の形態1による動画像符号化装置を示す構成図である。
図1において、符号化制御部1は入力画像(符号化対象画像)のタイル分割状態を制御するタイル分割制御情報を出力するとともに、入力画像から分割されるタイル毎に、他のタイルに関する情報を参照しながら符号化処理を行うか否かを示す独立タイルフラグを設定して、その独立タイルフラグを出力する処理を実施する。なお、符号化制御部1はフラグ設定手段を構成している。
ここで、他のタイルは、同一フレーム内のカレントタイル以外のタイルのほか、他のフレームのカレントタイルとは異なる位置のタイルを指している。
この実施の形態1では、説明の便宜上、他のタイルに関する情報を参照しないで符号化処理を行う場合、独立タイルフラグ=ON、他のタイルに関する情報を参照しながら符号化処理を行う場合、独立タイルフラグ=OFFに設定されるものとする。
1 is a block diagram showing a moving picture coding apparatus according to Embodiment 1 of the present invention.
In FIG. 1, the encoding control unit 1 outputs tile division control information for controlling the tile division state of an input image (encoding target image), and information on other tiles for each tile divided from the input image. An independent tile flag indicating whether or not to perform the encoding process is set with reference, and a process of outputting the independent tile flag is performed. The encoding control unit 1 constitutes a flag setting unit.
Here, the other tiles are tiles other than the current tile in the same frame, and tiles at positions different from the current tiles of the other frames.
In the first embodiment, for convenience of explanation, when encoding processing is performed without referring to information regarding other tiles, independent tile flag = ON, and when encoding processing is performed while referring to information regarding other tiles, independent processing is performed. Assume that the tile flag is set to OFF.

タイル分割部2は符号化制御部1から出力されたタイル分割制御情報にしたがって入力画像のタイル分割状態を定め、入力画像のタイル分割をタイル符号化開始部3に指示する処理を実施する。
タイル符号化開始部3はタイル分割部2の指示の下、入力画像を複数のタイルに分割し、分割後のタイル(タイル部分画像)を複数のタイル符号化部5に分配する処理を実施する。
なお、タイル分割部2及びタイル符号化開始部3から画像分割手段が構成されている。
The tile division unit 2 determines the tile division state of the input image in accordance with the tile division control information output from the encoding control unit 1, and performs a process of instructing the tile encoding start unit 3 to perform tile division of the input image.
The tile encoding start unit 3 divides the input image into a plurality of tiles and distributes the divided tiles (tile partial images) to the plurality of tile encoding units 5 under the instruction of the tile dividing unit 2. .
The tile dividing unit 2 and the tile encoding start unit 3 constitute image dividing means.

タイル符号化装置4はN個のタイル符号化部5−1〜5−Nとフレーム内参照メモリ6から構成されており、タイル符号化開始部3により分配された複数のタイルを符号化する装置である。
タイル符号化部5−1〜5−Nは符号化制御部1から出力された独立タイルフラグにしたがって、タイル符号化開始部3により分配されたタイルの符号化処理を並列に実行し、各タイルの符号化データであるタイルビットデータ及びタイル局所復号画像をタイル符号化終了部7に出力する処理を実施する。
即ち、タイル符号化部5−1〜5−Nはタイル符号化開始部3により分割されたタイルのうち、符号化制御部1により設定された独立タイルフラグがONであるタイルがタイル符号化開始部3から分配された場合、当該タイルの符号化処理を他のタイルに関する情報を参照せずに独立に実行し、その独立タイルフラグがOFFであるタイルがタイル符号化開始部3から分配された場合、当該タイルの符号化処理を他のタイルに関する情報を参照しながら実行する。なお、タイル符号化部5−1〜5−Nはタイル符号化手段を構成している。
フレーム内参照メモリ6はタイル符号化部5−1〜5−Nから出力されたカレントフレームの局所復号画像(ループフィルタ処理前の局所復号画像)、符号化パラメータや動きベクトルの情報などを格納する。これらの情報はカレントフレームのタイル符号化処理を行うタイル符号化部5により適宜参照される。
The tile encoding device 4 includes N tile encoding units 5-1 to 5-N and an intra-frame reference memory 6, and encodes a plurality of tiles distributed by the tile encoding start unit 3. It is.
The tile encoding units 5-1 to 5-N execute, in parallel, the encoding processing of tiles distributed by the tile encoding start unit 3 according to the independent tile flag output from the encoding control unit 1, A process of outputting the tile bit data and the tile local decoded image, which are the encoded data of, to the tile encoding end unit 7 is performed.
That is, among the tiles divided by the tile encoding start unit 3, the tile encoding units 5-1 to 5-N start tile encoding when the independent tile flag set by the encoding control unit 1 is ON. When distributed from the unit 3, the encoding process of the tile is executed independently without referring to information on other tiles, and a tile whose independent tile flag is OFF is distributed from the tile encoding start unit 3. In this case, the encoding process of the tile is executed with reference to information on other tiles. Note that the tile encoding units 5-1 to 5-N constitute tile encoding means.
The intra-frame reference memory 6 stores the local decoded image (local decoded image before the loop filter processing) of the current frame output from the tile encoding units 5-1 to 5-N, information on encoding parameters, motion vectors, and the like. . These pieces of information are appropriately referred to by the tile encoding unit 5 that performs tile encoding processing of the current frame.

この実施の形態1では、タイル符号化部5−1〜5−Nが、タイルの予測画像を生成する際に、イントラ予測処理(フレーム内予測処理)又はインター予測処理(フレーム間予測処理)を実施することを想定しており、どちらの予測処理を実施する場合でも、独立タイルフラグがONであれば、当該タイルの予測画像を生成する際に、他のタイルに関する情報を参照せずに独立に実行するものとする。
ただし、イントラ予測処理は、他のタイルに関する情報を参照しないで行うことが一般的であり、他のタイルに関する情報を参照しながら行うことはむしろ特殊である。
このため、イントラ予測処理を実施する場合には、独立タイルフラグのON/OFFに関わらず同様の予測処理を実施し、インター予測処理を実施する場合に限り、独立タイルフラグのON/OFFに対応する予測処理を実施するようにしてもよい。
In the first embodiment, when the tile encoding units 5-1 to 5-N generate a predicted image of a tile, intra prediction processing (intraframe prediction processing) or inter prediction processing (interframe prediction processing) is performed. If the independent tile flag is ON regardless of which prediction processing is executed, it is independent without referring to information on other tiles when generating a predicted image of the tile. To be executed.
However, the intra prediction process is generally performed without referring to information on other tiles, and it is rather special to perform it while referring to information on other tiles.
For this reason, when intra prediction processing is performed, the same prediction processing is performed regardless of whether the independent tile flag is ON / OFF, and only when the inter prediction processing is performed, ON / OFF of the independent tile flag is supported. You may make it implement the prediction process to perform.

タイル符号化終了部7はタイル符号化部5−1〜5−Nから全てのタイルのタイルビットデータ及びタイル局所復号画像が出力されるまで待機し、フレーム一枚分の局所復号画像をフレーム間参照メモリ9に出力するとともに、各タイルのタイルビットデータを特定の順序で多重化して、多重化後のタイルビットデータであるフレームビットデータを可変長符号多重化部8に出力する処理を実施する。
可変長符号多重化部8はタイル符号化終了部7から出力されたフレームビットデータと、符号化制御部1から出力されたタイル分割制御情報及び各タイルの独立タイルフラグとを多重化してビットストリームを生成し、そのビットストリームを出力する処理を実施する。
なお、タイル符号化終了部7及び可変長符号多重化部8から多重化手段が構成されている。
The tile encoding end unit 7 waits until the tile bit data and tile local decoded images of all tiles are output from the tile encoding units 5-1 to 5-N, and the local decoded image for one frame is transmitted between frames. In addition to outputting to the reference memory 9, the tile bit data of each tile is multiplexed in a specific order, and the frame bit data that is the tile bit data after multiplexing is output to the variable-length code multiplexer 8. .
The variable length code multiplexing unit 8 multiplexes the frame bit data output from the tile encoding end unit 7 with the tile division control information output from the encoding control unit 1 and the independent tile flag of each tile to generate a bit stream. Is generated and the bitstream is output.
The tile encoding end unit 7 and the variable length code multiplexing unit 8 constitute multiplexing means.

フレーム間参照メモリ9はタイル符号化終了部7から出力されたフレーム一枚分の局所復号画像を格納するとともに、タイル符号化部5−1〜5−Nから出力された符号化パラメータや動きベクトルの情報を格納する。この局所復号画像、符号化パラメータや動きベクトルの情報は、タイル符号化部5−1〜5−Nが参照する必要がなくなるまで保持される。   The inter-frame reference memory 9 stores a local decoded image for one frame output from the tile encoding end unit 7, and also encodes parameters and motion vectors output from the tile encoding units 5-1 to 5-N. Stores the information. Information on the locally decoded image, the encoding parameter, and the motion vector is held until it is not necessary for the tile encoding units 5-1 to 5-N to refer to the local decoded image.

図1の例では、動画像符号化装置の構成要素である符号化制御部1、タイル分割部2、タイル符号化開始部3、タイル符号化装置4、タイル符号化終了部7及び可変長符号多重化部8のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像符号化装置がコンピュータで構成されていてもよい。
動画像符号化装置がコンピュータで構成される場合、フレーム間参照メモリ9をコンピュータのメモリ上に構成するとともに、符号化制御部1、タイル分割部2、タイル符号化開始部3、タイル符号化装置4、タイル符号化終了部7及び可変長符号多重化部8の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図5はこの発明の実施の形態1による動画像符号化装置の処理内容(動画像符号化方法)を示すフローチャートである。
In the example of FIG. 1, a coding control unit 1, a tile division unit 2, a tile coding start unit 3, a tile coding device 4, a tile coding end unit 7, and a variable length code that are components of a moving image coding device. Although each of the multiplexing units 8 is assumed to be configured by dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer), a moving image encoding apparatus is You may be comprised with the computer.
When the moving image encoding device is configured by a computer, the interframe reference memory 9 is configured on the memory of the computer, and the encoding control unit 1, the tile dividing unit 2, the tile encoding start unit 3, and the tile encoding device. 4. A program describing the processing contents of the tile encoding end unit 7 and the variable length code multiplexing unit 8 is stored in the memory of the computer, and the CPU of the computer executes the program stored in the memory. You can do it.
FIG. 5 is a flowchart showing the processing contents (moving image coding method) of the moving image coding apparatus according to Embodiment 1 of the present invention.

図2はこの発明の実施の形態1による動画像符号化装置のタイル符号化部5−n(n=1,2,・・・,N)を示す構成図である。
図2において、タイル符号化制御部21は符号化対象ブロックのサイズである符号化ブロックサイズを決定するとともに、選択可能な1以上のイントラ符号化モード及びインター符号化モードの中から、ブロック分割部22から出力される符号化対象ブロックに対する符号化効率が最も高い符号化モードを決定する処理を実施する。
また、タイル符号化制御部21は、例えば符号化効率が最も高い符号化モードがイントラ符号化モードである場合、そのイントラ符号化モードで符号化対象ブロックに対するイントラ予測処理を実施する際に用いるイントラ予測パラメータを決定し、符号化効率が最も高い符号化モードがインター符号化モードである場合、そのインター符号化モードで符号化対象ブロックに対するインター予測処理を実施する際に用いるインター予測パラメータを決定する処理を実施する。
FIG. 2 is a block diagram showing tile encoding units 5-n (n = 1, 2,..., N) of the moving picture encoding apparatus according to Embodiment 1 of the present invention.
In FIG. 2, the tile coding control unit 21 determines a coding block size that is the size of a block to be coded, and also selects a block dividing unit from one or more selectable intra coding modes and inter coding modes. The process which determines the encoding mode with the highest encoding efficiency with respect to the encoding object block output from 22 is implemented.
In addition, for example, when the coding mode having the highest coding efficiency is the intra coding mode, the tile coding control unit 21 uses the intra prediction process when performing the intra prediction process on the current block in the intra coding mode. A prediction parameter is determined, and when the coding mode having the highest coding efficiency is the inter coding mode, an inter prediction parameter to be used when performing the inter prediction process on the current block in the inter coding mode is determined. Perform the process.

また、タイル符号化制御部21は、図1の符号化制御部1から独立タイルフラグを取得して、その独立タイルフラグをイントラ予測部24、動き補償予測部25及びループフィルタ部31に出力する処理を実施する。
さらに、タイル符号化制御部21は変換・量子化部27、逆量子化・逆変換部28及び可変長符号化部30に与える予測差分符号化パラメータを決定する処理を実施する。
また、決定した符号化モード、予測差分信号パラメータ、イントラ予測パラメータ、インター予測パラメータ、ループフィルタパラメータ(以降、これらをまとめて「符号化パラメータ」と称する)を可変長符号化部30に出力する処理を実施する。
Further, the tile encoding control unit 21 acquires an independent tile flag from the encoding control unit 1 in FIG. 1 and outputs the independent tile flag to the intra prediction unit 24, the motion compensation prediction unit 25, and the loop filter unit 31. Perform the process.
Further, the tile coding control unit 21 performs a process of determining a prediction differential coding parameter to be given to the transform / quantization unit 27, the inverse quantization / inverse transform unit 28, and the variable length coding unit 30.
Also, a process of outputting the determined coding mode, prediction difference signal parameter, intra prediction parameter, inter prediction parameter, and loop filter parameter (hereinafter collectively referred to as “coding parameter”) to the variable length coding unit 30. To implement.

ブロック分割部22は図3のタイル符号化開始部3により分配されたタイル(タイル部分画像データ)を入力すると、その部分画像をタイル符号化制御部21により決定された符号化ブロックサイズのブロックに分割して、予測処理単位のブロックである符号化対象ブロックを出力する処理を実施する。
切換スイッチ23はタイル符号化制御部21により決定された符号化モードがイントラ符号化モードであれば、ブロック分割部22から出力された符号化対象ブロックをイントラ予測部24に出力し、タイル符号化制御部21により決定された符号化モードがインター符号化モードであれば、ブロック分割部22から出力された符号化対象ブロックを動き補償予測部25に出力する処理を実施する。
When the block dividing unit 22 receives the tile (tile partial image data) distributed by the tile encoding start unit 3 in FIG. A process of dividing and outputting an encoding target block which is a block of a prediction processing unit is performed.
If the coding mode determined by the tile coding control unit 21 is the intra coding mode, the changeover switch 23 outputs the block to be coded output from the block dividing unit 22 to the intra prediction unit 24 and performs tile coding. If the coding mode determined by the control unit 21 is the inter coding mode, a process of outputting the coding target block output from the block dividing unit 22 to the motion compensation prediction unit 25 is performed.

イントラ予測部24はフレーム内参照メモリ6に格納されている局所復号画像を参照しながら、タイル符号化制御部21により決定されたイントラ予測パラメータを用いて、切換スイッチ23から出力された符号化対象ブロックに対するイントラ予測処理を実施してイントラ予測画像を生成する処理を実施する。
ただし、イントラ予測部24は参照先の画素が他のタイルに属する画素である場合、タイル符号化制御部21から出力された独立タイルフラグに応じて予測処理を切り替える。
即ち、イントラ予測部24は独立タイルフラグがOFFである場合、参照先となる他のタイルの局所復号画像が生成されて、その局所復号画像がフレーム内参照メモリ6に格納されるまで待機し、その局所復号画像がフレーム内参照メモリ6に格納されると、その局所復号画像における参照先の画素を用いてイントラ予測処理を実施する。一方、独立タイルフラグがONである場合、他のタイルの局所復号画像における画素の参照が不要なイントラ予測処理を実施する。
The intra prediction unit 24 uses the intra prediction parameters determined by the tile encoding control unit 21 while referring to the locally decoded image stored in the intraframe reference memory 6, and encodes the encoding target output from the changeover switch 23. A process of generating an intra-predicted image by performing an intra-prediction process on the block is performed.
However, the intra prediction unit 24 switches the prediction process according to the independent tile flag output from the tile encoding control unit 21 when the reference destination pixel is a pixel belonging to another tile.
That is, when the independent tile flag is OFF, the intra prediction unit 24 waits until a local decoded image of another tile to be referred to is generated and stored in the intra-frame reference memory 6, When the local decoded image is stored in the intra-frame reference memory 6, intra prediction processing is performed using the reference destination pixel in the local decoded image. On the other hand, when the independent tile flag is ON, intra prediction processing that does not require pixel reference in the locally decoded image of another tile is performed.

動き補償予測部25は切換スイッチ23から出力された符号化対象ブロックとフレーム間参照メモリ9に格納されているフィルタリング処理後の局所復号画像を比較して動きベクトルを探索し、その動きベクトルとタイル符号化制御部21により決定されたインター予測パラメータを用いて、その符号化対象ブロックに対するインター予測処理を実施してインター予測画像を生成する処理を実施する。
ただし、動き補償予測部25はタイル符号化制御部21から出力された独立タイルフラグに応じて予測処理を切り替える。
即ち、動き補償予測部25は独立タイルフラグがOFFである場合、カレントタイル外の画素を用いて予測画像を生成する(カレントタイルの外側を指す動きベクトルによるインター予測処理は、カレントタイルの内側を指す動きベクトルによるインター予測処理と同様の処理となる)。
一方、独立タイルフラグがONである場合、カレントタイル外の画素を用いる予測画像の生成を禁止する。予測画像の生成において、カレントタイル外の画素を参照する必要がある場合、例えば、その位置の画素を、参照しているピクチャのカレントタイル内の画素を用いて補間することで生成する。
The motion compensation prediction unit 25 searches for a motion vector by comparing the encoding target block output from the changeover switch 23 and the locally decoded image after filtering stored in the interframe reference memory 9, and the motion vector and tile Using the inter prediction parameters determined by the encoding control unit 21, an inter prediction process is performed on the encoding target block to generate an inter prediction image.
However, the motion compensation prediction unit 25 switches the prediction process according to the independent tile flag output from the tile coding control unit 21.
That is, when the independent tile flag is OFF, the motion compensation prediction unit 25 generates a prediction image using pixels outside the current tile (inter prediction processing using a motion vector pointing outside the current tile is performed inside the current tile. This is the same processing as the inter prediction processing using the motion vector to be pointed).
On the other hand, when the independent tile flag is ON, the generation of a predicted image using pixels outside the current tile is prohibited. When it is necessary to refer to a pixel outside the current tile in the generation of the predicted image, for example, the pixel at that position is generated by interpolating using the pixel in the current tile of the picture being referred to.

減算部26はブロック分割部22より出力された符号化対象ブロックから、イントラ予測部24により生成されたイントラ予測画像、または、動き補償予測部25により生成されたインター予測画像を減算して、その減算結果である予測差分信号(差分画像)を変換・量子化部27に出力する処理を実施する。
変換・量子化部27はタイル符号化制御部21により決定された予測差分符号化パラメータを参照して、減算部26から出力された予測差分信号に対する直交変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施して変換係数を算出するとともに、その予測差分符号化パラメータを参照して、その変換係数を量子化し、量子化後の変換係数(以下、「量子化後係数」と称する)を逆量子化・逆変換部28及び可変長符号化部30に出力する処理を実施する。
The subtraction unit 26 subtracts the intra prediction image generated by the intra prediction unit 24 or the inter prediction image generated by the motion compensation prediction unit 25 from the encoding target block output from the block division unit 22, A process of outputting a prediction difference signal (difference image) as a subtraction result to the transform / quantization unit 27 is performed.
The transform / quantization unit 27 refers to the prediction difference encoding parameter determined by the tile encoding control unit 21 and performs orthogonal transform processing (for example, DCT (discrete cosine transform)) on the prediction difference signal output from the subtraction unit 26. Or an orthogonal transform process such as a KL transform in which a base design is made in advance for a specific learning sequence) to calculate a transform coefficient and refer to the prediction difference encoding parameter to determine the transform coefficient A process of quantizing and outputting the quantized transform coefficient (hereinafter referred to as “quantized coefficient”) to the inverse quantization / inverse transform unit 28 and the variable length coding unit 30 is performed.

逆量子化・逆変換部28はタイル符号化制御部21により決定された予測差分符号化パラメータを参照して、変換・量子化部27から出力された量子化後係数を逆量子化するとともに、その予測差分符号化パラメータを参照して、逆量子化後の変換係数に対する逆直交変換処理を実施して、減算部26から出力された予測差分信号に相当する局所復号予測差分信号を算出する処理を実施する。
加算部29は逆量子化・逆変換部28により算出された局所復号予測差分信号が示す差分画像と、イントラ予測部24により生成されたイントラ予測画像、または、動き補償予測部25により生成されたインター予測画像とを加算して、ブロック分割部22から出力された符号化対象ブロックに相当する局所復号画像を算出する処理を実施する。
The inverse quantization / inverse transform unit 28 refers to the prediction difference encoding parameter determined by the tile encoding control unit 21 and inversely quantizes the quantized coefficient output from the transform / quantization unit 27, and Processing for calculating a local decoded prediction difference signal corresponding to the prediction difference signal output from the subtracting unit 26 by referring to the prediction difference encoding parameter and performing inverse orthogonal transformation processing on the transform coefficient after inverse quantization To implement.
The addition unit 29 is a difference image indicated by the local decoded prediction difference signal calculated by the inverse quantization / inverse conversion unit 28, an intra prediction image generated by the intra prediction unit 24, or a motion compensation prediction unit 25. A process of calculating a local decoded image corresponding to the encoding target block output from the block dividing unit 22 by adding the inter predicted image is performed.

可変長符号化部30は変換・量子化部27から出力された量子化後係数と、タイル符号化制御部21から出力された符号化パラメータ(符号化モード、イントラ予測パラメータ、インター予測パラメータ、予測差分符号化パラメータ及びループフィルタパラメータ)と、動き補償予測部25から出力された動きベクトル(符号化モードがインター符号化モードである場合)とを可変長符号化して、ビットストリームであるタイルビットデータを生成する処理を実施する。   The variable length encoding unit 30 outputs the quantized coefficients output from the transform / quantization unit 27 and the encoding parameters (encoding mode, intra prediction parameter, inter prediction parameter, prediction) output from the tile encoding control unit 21. The differential encoding parameters and the loop filter parameters) and the motion vector output from the motion compensation prediction unit 25 (when the encoding mode is the inter encoding mode) are subjected to variable length encoding, and tile bit data that is a bit stream The process to generate is performed.

ループフィルタ部31はタイル符号化制御部21から出力されたフィルタパラメータに基づいて、0種以上のフィルタリング処理を順次実施する。
ただし、ループフィルタ部31はタイル符号化制御部21から出力された独立タイルフラグに応じてフィルタリング処理を切り替える。
即ち、ループフィルタ部31は独立タイルフラグがOFFである場合、カレントタイル外の画素を参照してフィルタリング処理を実施する。一方、独立タイルフラグがONである場合、カレントタイル外の画素の参照を禁止し、カレントタイル内の画素だけを参照してフィルタリング処理を実施する。
ここで、タイル境界におけるカレントタイル内の画素だけを参照するフィルタリング処理としては、境界の画素をパディングする手法や、フィルタ形状を変更する手法などが考えられる。この独立タイルフラグがONである場合のタイル端の特別な処理は、動画像符号化装置と動画像復号装置で一致させる必要がある。
The loop filter unit 31 sequentially performs zero or more types of filtering processing based on the filter parameters output from the tile coding control unit 21.
However, the loop filter unit 31 switches the filtering process according to the independent tile flag output from the tile coding control unit 21.
That is, when the independent tile flag is OFF, the loop filter unit 31 performs a filtering process with reference to pixels outside the current tile. On the other hand, when the independent tile flag is ON, the reference of the pixels outside the current tile is prohibited, and the filtering process is performed by referring only to the pixels in the current tile.
Here, as a filtering process that refers only to the pixels in the current tile at the tile boundary, a method of padding the pixels at the boundary, a method of changing the filter shape, or the like can be considered. The special processing at the tile edge when the independent tile flag is ON needs to be matched between the moving image encoding device and the moving image decoding device.

図3はこの発明の実施の形態1による動画像復号装置を示す構成図である。
図3において、可変長符号分離部41は図1の画像符号化装置の可変長符号多重化部8から出力されたビットストリームデータを受け取ると、そのビットストリームに多重化されている情報を分離することで、そのビットストリームに多重化されていたタイル分割制御情報をタイル分割部42に出力するとともに、そのビットストリームに多重化されていたフレームビットデータ及び各タイルの独立タイルフラグをタイル復号開始部43に出力する処理を実施する。また、各タイルの独立タイルフラグをタイル復号終了部47に出力する処理を実施する。なお、可変長符号分離部41は分離手段を構成している。
FIG. 3 is a block diagram showing a moving picture decoding apparatus according to Embodiment 1 of the present invention.
In FIG. 3, when the variable length code separating unit 41 receives the bit stream data output from the variable length code multiplexing unit 8 of the image coding apparatus in FIG. 1, the variable length code separating unit 41 separates the information multiplexed in the bit stream. Thus, the tile division control information multiplexed in the bitstream is output to the tile division unit 42, and the frame bit data multiplexed in the bitstream and the independent tile flag of each tile are output to the tile decoding start unit. The process which outputs to 43 is implemented. In addition, a process of outputting the independent tile flag of each tile to the tile decoding end unit 47 is performed. The variable length code separating unit 41 constitutes a separating unit.

タイル分割部42は可変長符号分離部41から出力されたタイル分割制御情報にしたがって入力画像(符号化対象画像)のタイル分割状態を定め、分割されている各タイルの結合をタイル復号終了部47に指示する処理を実施する。
タイル復号開始部43は可変長符号分離部41から出力されたフレームビットデータを各タイルのタイルビットデータに分離して、各タイルのタイルビットデータと可変長符号分離部41から出力された各タイルの独立タイルフラグをタイル復号部45−1〜45−Nに分配する処理を実施する。
また、タイル復号開始部43は、各タイルのタイルビットデータと独立タイルフラグをタイル復号部45−1〜45−Nに分配する際、外部から復号対象のタイルを示す復号タイル指定情報が入力された場合、その復号タイル指定情報が示す復号対象のタイルが全てのタイルであれば、独立タイルフラグのON/OFFに関わらず、全てのタイルのタイルビットデータをタイル復号開始部45−1〜45−Nに分配する。
一方、復号タイル指定情報が示す復号対象のタイルとして、一部のタイルを指定している場合、復号タイル指定情報が指定しているタイルの中で、独立タイルフラグがONであるタイルのタイルビットデータだけをいずれかのタイル復号部45に出力して、独立タイルフラグがOFFであるタイルのタイルビットデータをタイル復号部45に出力しないようにする。
なお、タイル復号開始部43はデータ分配手段を構成している。
The tile division unit 42 determines the tile division state of the input image (encoding target image) according to the tile division control information output from the variable length code separation unit 41, and combines the divided tiles with the tile decoding end unit 47. The process instructed to is performed.
The tile decoding start unit 43 separates the frame bit data output from the variable length code separation unit 41 into tile bit data of each tile, and the tile bit data of each tile and each tile output from the variable length code separation unit 41 The independent tile flag is distributed to the tile decoding units 45-1 to 45-N.
Further, when the tile decoding start unit 43 distributes the tile bit data and the independent tile flag of each tile to the tile decoding units 45-1 to 45-N, decoding tile designation information indicating the decoding target tile is input from the outside. If the tiles to be decoded indicated by the decoding tile designation information are all tiles, the tile decoding start units 45-1 to 45-45 receive the tile bit data of all the tiles regardless of the ON / OFF of the independent tile flag. Distribute to -N.
On the other hand, when some tiles are specified as the decoding target tiles indicated by the decoding tile specification information, the tile bits of the tiles whose independent tile flag is ON among the tiles specified by the decoding tile specification information Only the data is output to one of the tile decoding units 45 so that the tile bit data of the tile whose independent tile flag is OFF is not output to the tile decoding unit 45.
The tile decoding start unit 43 constitutes data distribution means.

タイル復号装置44はN個のタイル復号部45−1〜45−Nとフレーム内参照メモリ46から構成されており、タイル復号開始部43により分配された複数のタイルを復号する装置である。
タイル復号部45−1〜45−Nはタイル復号開始部43により分配された独立タイルフラグにしたがって、タイル復号開始部43により分配されたタイルビットデータからタイルを復号する処理を並列に実行し、各タイルの復号画像をタイル復号終了部47に出力する処理を実施する。
即ち、タイル復号部45−1〜45−Nは可変長符号分離部41により分離された各タイルのタイルビットデータのうち、タイル復号開始部43により分配された独立タイルフラグがONであるタイルのタイルビットデータがタイル復号開始部43から分配された場合、そのタイルビットデータから当該タイルを復号する処理を他のタイルに関する情報を参照せずに独立に実行し、その独立タイルフラグがOFFであるタイルのタイルビットデータがタイル復号開始部43から分配された場合、そのタイルビットデータから当該タイルを復号する処理を他のタイルに関する情報を参照しながら実行する。なお、タイル復号部45−1〜45−Nはタイル復号手段を構成している。
フレーム内参照メモリ46はタイル復号部45−1〜45−Nから出力されたカレントフレームの復号画像(ループフィルタ処理前の復号画像)、符号化パラメータや動きベクトルの情報などを格納する。これらの情報はカレントフレームのタイル復号処理を行うタイル復号部45により適宜参照される。
The tile decoding device 44 includes N tile decoding units 45-1 to 45 -N and an intra-frame reference memory 46, and is a device that decodes a plurality of tiles distributed by the tile decoding start unit 43.
In accordance with the independent tile flag distributed by the tile decoding start unit 43, the tile decoding units 45-1 to 45-N execute processing for decoding tiles from tile bit data distributed by the tile decoding start unit 43 in parallel. A process of outputting the decoded image of each tile to the tile decoding end unit 47 is performed.
That is, the tile decoding units 45-1 to 45 -N are tile tile data of tiles separated by the variable length code separation unit 41, for tiles for which the independent tile flag distributed by the tile decoding start unit 43 is ON. When tile bit data is distributed from the tile decoding start unit 43, the process of decoding the tile from the tile bit data is executed independently without referring to information on other tiles, and the independent tile flag is OFF. When tile bit data of a tile is distributed from the tile decoding start unit 43, a process of decoding the tile from the tile bit data is executed with reference to information on other tiles. Note that the tile decoding units 45-1 to 45-N constitute tile decoding means.
The intra-frame reference memory 46 stores the decoded image of the current frame (decoded image before the loop filter process) output from the tile decoding units 45-1 to 45-N, information on the encoding parameter, the motion vector, and the like. These pieces of information are appropriately referred to by the tile decoding unit 45 that performs tile decoding processing of the current frame.

この実施の形態1では、タイル復号部45−1〜45−Nが、タイルの予測画像を生成する際に、イントラ予測処理又はインター予測処理を実施することを想定しており、どちらの予測処理を実施する場合でも、独立タイルフラグがONであれば、当該タイルの予測画像を生成する際に、他のタイルに関する情報を参照せずに独立に実行するものとする。
ただし、イントラ予測処理は、他のタイルに関する情報を参照しないで行うことが一般的であり、他のタイルに関する情報を参照しながら行うことはむしろ特殊である。
このため、イントラ予測処理を実施する場合には、独立タイルフラグのON/OFFに関わらず同様の予測処理を実施し、インター予測処理を実施する場合に限り、独立タイルフラグのON/OFFに対応する予測処理を実施するようにしてもよい。
In the first embodiment, it is assumed that the tile decoding units 45-1 to 45-N perform intra prediction processing or inter prediction processing when generating a predicted image of a tile. Even when the independent tile flag is ON, when the predicted image of the tile is generated, it is executed independently without referring to information on other tiles.
However, the intra prediction process is generally performed without referring to information on other tiles, and it is rather special to perform it while referring to information on other tiles.
For this reason, when intra prediction processing is performed, the same prediction processing is performed regardless of whether the independent tile flag is ON / OFF, and only when the inter prediction processing is performed, ON / OFF of the independent tile flag is supported. You may make it implement the prediction process to perform.

タイル復号終了部47はタイル復号部45−1〜45−Nから全てのタイルの復号画像が出力されるまで待機し、全てのタイルの復号画像が出力されると、タイル分割部42の指示の下、全てのタイルの復号画像を結合してフレーム一枚分の復号画像を生成し、その復号画像を外部出力するとともに、その復号画像をフレーム間参照メモリ48に出力する処理を実施する。
フレーム間参照メモリ48はタイル復号終了部47から出力されたフレーム一枚分の復号画像を格納する。この復号画像は、タイル復号部45−1〜45−Nが参照する必要がなくなるまで保持される。
The tile decoding end unit 47 waits until the decoded images of all the tiles are output from the tile decoding units 45-1 to 45-N. When the decoded images of all the tiles are output, the tile decoding unit 42 instructs Below, the decoded images of all the tiles are combined to generate a decoded image for one frame, the decoded image is output to the outside, and the decoded image is output to the inter-frame reference memory 48.
The inter-frame reference memory 48 stores the decoded image for one frame output from the tile decoding end unit 47. This decoded image is held until it is not necessary for the tile decoding units 45-1 to 45-N to refer to it.

図3の例では、動画像復号装置の構成要素である可変長符号分離部41、タイル分割部42、タイル復号開始部43、タイル復号装置44及びタイル復号終了部47のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、動画像復号装置がコンピュータで構成されていてもよい。
動画像復号装置がコンピュータで構成される場合、フレーム間参照メモリ48をコンピュータのメモリ上に構成するとともに、可変長符号分離部41、タイル分割部42、タイル復号開始部43、タイル復号装置44及びタイル復号終了部47の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図6はこの発明の実施の形態1による動画像復号装置の処理内容(動画像復号方法)を示すフローチャートである。
In the example of FIG. 3, each of the variable-length code separation unit 41, the tile division unit 42, the tile decoding start unit 43, the tile decoding device 44, and the tile decoding end unit 47, which are components of the moving image decoding device, is dedicated hardware. (For example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer or the like) is assumed. However, the moving image decoding apparatus may be configured with a computer.
When the moving picture decoding apparatus is configured by a computer, the interframe reference memory 48 is configured on the memory of the computer, and a variable length code separation unit 41, a tile division unit 42, a tile decoding start unit 43, a tile decoding apparatus 44, and A program describing the processing contents of the tile decoding end unit 47 may be stored in a memory of a computer so that the CPU of the computer executes the program stored in the memory.
FIG. 6 is a flowchart showing the processing contents (moving image decoding method) of the moving image decoding apparatus according to Embodiment 1 of the present invention.

図4はこの発明の実施の形態1による動画像復号装置のタイル復号部45−n(n=1,2,・・・,N)を示す構成図である。
図4において、可変長符号復号部61は図3のタイル復号開始部43により分配されたタイルビットデータから、予測処理単位のブロックである復号対象ブロック(符号化対象ブロック)に係る量子化後係数、符号化モード、イントラ予測パラメータ(符号化モードがイントラ符号化モードである場合)、インター予測パラメータ(符号化モードがインター符号化モードである場合)、予測差分符号化パラメータ、動きベクトル(符号化モードがインター符号化モードである場合)及びループフィルタパラメータを可変長復号して出力する処理を実施する。
また、可変長符号復号部61はタイル復号開始部43により分配された独立タイルフラグを出力する処理を実施する。
FIG. 4 is a block diagram showing tile decoding units 45-n (n = 1, 2,..., N) of the video decoding apparatus according to Embodiment 1 of the present invention.
4, the variable-length code decoding unit 61 uses the quantized coefficients related to the decoding target block (encoding target block), which is a block of the prediction processing unit, from the tile bit data distributed by the tile decoding start unit 43 in FIG. , Coding mode, intra prediction parameter (when the coding mode is the intra coding mode), inter prediction parameter (when the coding mode is the inter coding mode), prediction differential coding parameter, motion vector (coding) When the mode is the inter coding mode) and variable-length decoding of the loop filter parameter and outputting it.
In addition, the variable length code decoding unit 61 performs a process of outputting the independent tile flag distributed by the tile decoding start unit 43.

切換スイッチ62は可変長符号復号部61により可変長復号された符号化モードがイントラ符号化モードであれば、可変長符号復号部61から出力されたイントラ予測パラメータ及び独立タイルフラグをイントラ予測部63に出力し、可変長符号復号部61により可変長復号された符号化モードがインター符号化モードであれば、可変長符号復号部61から出力されたインター予測パラメータ、動きベクトル及び独立タイルフラグを動き補償部64に出力する処理を実施する。   If the coding mode variable-length decoded by the variable-length code decoding unit 61 is the intra-coding mode, the changeover switch 62 receives the intra prediction parameter and the independent tile flag output from the variable-length code decoding unit 61 as the intra prediction unit 63. If the encoding mode variable-length decoded by the variable-length code decoding unit 61 is the inter-coding mode, the inter prediction parameter, the motion vector, and the independent tile flag output from the variable-length code decoding unit 61 are moved. A process of outputting to the compensation unit 64 is performed.

イントラ予測部63はフレーム内参照メモリ46に格納されている復号画像を参照しながら、切換スイッチ62から出力されたイントラ予測パラメータを用いて、復号対象ブロックに対するイントラ予測処理を実施してイントラ予測画像を生成する処理を実施する。
ただし、イントラ予測部63は参照先の画素が他のタイルに属する画素である場合、切換スイッチ62から出力された独立タイルフラグに応じて予測処理を切り替える。
即ち、イントラ予測部63は独立タイルフラグがOFFである場合、参照先となる他のタイルの復号画像が生成されて、その復号画像がフレーム内参照メモリ46に格納されるまで待機し、その復号画像がフレーム内参照メモリ46に格納されると、その復号画像における参照先の画素を用いてイントラ予測処理を実施する。一方、独立タイルフラグがONである場合、他のタイルの復号画像における画素の参照が不要なイントラ予測処理を実施する。
The intra prediction unit 63 performs an intra prediction process on the decoding target block using the intra prediction parameter output from the changeover switch 62 while referring to the decoded image stored in the intra-frame reference memory 46, and performs the intra prediction image. The process to generate is performed.
However, the intra prediction unit 63 switches the prediction process according to the independent tile flag output from the changeover switch 62 when the reference destination pixel is a pixel belonging to another tile.
That is, when the independent tile flag is OFF, the intra prediction unit 63 waits until a decoded image of another tile to be referred to is generated, and the decoded image is stored in the intra-frame reference memory 46. When the image is stored in the intra-frame reference memory 46, intra prediction processing is performed using the reference pixel in the decoded image. On the other hand, when the independent tile flag is ON, intra prediction processing that does not require pixel reference in the decoded image of another tile is performed.

動き補償部64はフレーム間参照メモリ48に格納されているフィルタリング処理後の復号画像を参照しながら、切換スイッチ62から出力された動きベクトルとインター予測パラメータを用いて、復号対象ブロックに対するインター予測処理を実施してインター予測画像を生成する処理を実施する。
ただし、動き補償部64は切換スイッチ62から出力された独立タイルフラグに応じて予測処理を切り替える。
即ち、動き補償部64は独立タイルフラグがOFFである場合、カレントタイル外の画素を用いて予測画像を生成する(カレントタイルの外側を指す動きベクトルによるインター予測処理は、カレントタイルの内側を指す動きベクトルによるインター予測処理と同様の処理となる)。
一方、独立タイルフラグがONである場合、カレントタイル外の画素を用いる予測画像の生成を禁止する。予測画像の生成において、カレントタイル外の画素を参照する必要がある場合、例えば、その位置の画素を、参照しているピクチャのカレントタイル内の画素を用いて補間することで生成する。画素の補間手法は、図2の動き補償予測部25が用いている手法と同一の手法を用いる必要がある。
The motion compensation unit 64 uses the motion vector output from the changeover switch 62 and the inter prediction parameter while referring to the decoded image after filtering stored in the interframe reference memory 48, and performs inter prediction processing on the decoding target block. To generate an inter-predicted image.
However, the motion compensation unit 64 switches the prediction process according to the independent tile flag output from the changeover switch 62.
That is, when the independent tile flag is OFF, the motion compensation unit 64 generates a prediction image using pixels outside the current tile (inter prediction processing using a motion vector pointing outside the current tile points inside the current tile. This is the same processing as the inter prediction processing using motion vectors).
On the other hand, when the independent tile flag is ON, the generation of a predicted image using pixels outside the current tile is prohibited. When it is necessary to refer to a pixel outside the current tile in the generation of the predicted image, for example, the pixel at that position is generated by interpolating using the pixel in the current tile of the picture being referred to. The pixel interpolation method needs to use the same method as the method used by the motion compensation prediction unit 25 in FIG.

逆量子化・逆変換部65は可変長符号復号部61から出力された予測差分符号化パラメータを参照して、可変長符号復号部61から出力された量子化後係数を逆量子化するとともに、その予測差分符号化パラメータを参照して、逆量子化後の直交変換係数に対する逆直交変換処理を実施して、復号予測差分信号を算出する処理を実施する。
加算部66は逆量子化・逆変換部65により算出された復号予測差分信号が示す差分画像と、イントラ予測部63により生成されたイントラ予測画像、または、動き補償部64により生成されたインター予測画像とを加算して、復号画像を生成する処理を実施する。
The inverse quantization / inverse transform unit 65 refers to the prediction difference encoding parameter output from the variable length code decoding unit 61 and inversely quantizes the quantized coefficient output from the variable length code decoding unit 61, With reference to the prediction difference encoding parameter, an inverse orthogonal transform process is performed on the orthogonal transform coefficient after inverse quantization, and a process of calculating a decoded prediction difference signal is performed.
The addition unit 66 includes a difference image indicated by the decoded prediction difference signal calculated by the inverse quantization / inverse conversion unit 65, an intra prediction image generated by the intra prediction unit 63, or an inter prediction generated by the motion compensation unit 64. A process of generating a decoded image by adding the image is performed.

ループフィルタ部67は可変長符号復号部61から出力されたフィルタパラメータに基づいて、0種以上のフィルタリング処理を順次実施する。
ただし、ループフィルタ部67は可変長符号復号部61から出力された独立タイルフラグに応じてフィルタリング処理を切り替える。
即ち、ループフィルタ部67は独立タイルフラグがOFFである場合、カレントタイル外の画素を参照してフィルタリング処理を実施する。一方、独立タイルフラグがONである場合、カレントタイル外の画素の参照を禁止し、カレントタイル内の画素だけを参照してフィルタリング処理を実施する。
タイル境界におけるカレントタイル内の画素だけを参照するフィルタリング処理は、図2のループフィルタ部31が用いている手法と同一の手法を用いる必要がある。
The loop filter unit 67 sequentially performs zero or more types of filtering processing based on the filter parameters output from the variable length code decoding unit 61.
However, the loop filter unit 67 switches the filtering process according to the independent tile flag output from the variable length code decoding unit 61.
That is, when the independent tile flag is OFF, the loop filter unit 67 performs the filtering process with reference to pixels outside the current tile. On the other hand, when the independent tile flag is ON, the reference of the pixels outside the current tile is prohibited, and the filtering process is performed by referring only to the pixels in the current tile.
The filtering process that refers to only the pixels in the current tile at the tile boundary needs to use the same technique as that used by the loop filter unit 31 of FIG.

次に動作について説明する。
図1の動画像符号化装置は、入力画像をタイルと呼ばれる矩形領域に分割し、かつ、指定のタイルと他のタイルとの依存関係を完全に断ち切ることで、動画像復号装置で指定のタイルを独立に復号することができるような符号化データを作成することを特徴としている。
同時に、復号処理において、ユーザが指定しているタイルだけを復号することが可能であることを特徴としている。
Next, the operation will be described.
1 divides an input image into rectangular areas called tiles, and completely cuts off the dependency between the specified tile and other tiles, so that the specified tile can be specified by the moving image decoding apparatus. It is characterized in that encoded data that can be decoded independently is created.
At the same time, in the decoding process, only the tile designated by the user can be decoded.

映像信号の復号処理は、一般に入力映像の空間・時間・輝度レベル解像度に比例して処理量が増加する。
例えば、撮像装置、記憶装置及び伝送装置などの進化に伴って、映像信号の時間・空間・輝度レベル解像度が増加する傾向にある。このため、動画像復号装置に求められる演算リソースも比例関係的に増加していくことが考えられる。
一方で、動画像コンテンツを復号する装置も多様化しており、高い演算性能を持つ専用機やハイエンドPCの他に、演算性能が低い携帯端末などが存在している。映像の高解像度化に伴う必要な演算リソースの増大は、特に、演算性能が低い携帯端末などでの復号処理において問題になる。
The decoding amount of the video signal generally increases the processing amount in proportion to the space / time / luminance level resolution of the input video.
For example, with the evolution of imaging devices, storage devices, and transmission devices, the time, space, and luminance level resolution of video signals tend to increase. For this reason, it is conceivable that the computation resources required for the video decoding device also increase proportionally.
On the other hand, apparatuses for decoding moving image content are also diversified. In addition to dedicated machines and high-end PCs with high calculation performance, there are portable terminals with low calculation performance. The increase in necessary computing resources accompanying the increase in video resolution is a problem particularly in decoding processing in a portable terminal or the like having low computing performance.

ここで、高解像度の撮像機器により撮影されたコンテンツのうち、ユーザが必要とする情報が画面内の一部の領域(例えば、領域A)に限られ、多量の演算リソースを用いて、画面全体を復号する必要がない状況が生まれることがある。
このような状況に対応する解の一つとして、動画像を符号化する際に、入力画像の領域Aを、それ以外の領域に依存しないように符号化する(他の領域を参照しないで符号化する)ことで、動画像を復号する際に、領域Aだけを独立に復号できるような符号化データを構成する手法が考えられる。この手法を採用すれば、動画像を復号する際、領域Aに対応する符号化データのみを処理することで、領域Aだけを正常に復号することができるとともに、画面全体を復号するよりも高速に復号することができる。
Here, of the content captured by the high-resolution imaging device, the information required by the user is limited to a part of the screen area (for example, the area A), and the entire screen is used by using a large amount of computing resources. There may be situations where it is not necessary to decrypt.
As one of the solutions corresponding to such a situation, when encoding a moving image, the region A of the input image is encoded so as not to depend on other regions (code without referring to other regions). Therefore, it is conceivable to construct encoded data that can independently decode only the region A when a moving image is decoded. If this method is adopted, when decoding a moving image, only the encoded data corresponding to the area A is processed, so that only the area A can be normally decoded and faster than decoding the entire screen. Can be decrypted.

ここで、画像符号化処理では、一般的な画像は、近接する領域と画像特徴に高い相関があることを利用して圧縮効率を高めている。よって、独立に復号したい領域が特定の限られた領域であれば、その他の領域は、通常通り、他の領域を参照しながら符号化することが望ましい。
上記の例で言えば、領域Aの符号化では他の領域に依存しないが、その他の領域の符号化では領域Aを参照できるように構成することが望ましい。このように構成することで、領域Aと、その他の領域を個別に符号化するよりも全体の情報量を削減することができる。
この実施の形態1では、このような画像の一部領域のみの復号処理に求められる機能を実現するために、画像をタイルと呼ばれる矩形領域に分割し、タイル毎に、他のタイルに依存するかを示すフラグを追加し、そのフラグに基づいて符号化・復号処理において、他のタイルを参照するか否かを切り替えられる構成をとっている。
Here, in the image encoding process, compression efficiency is increased by utilizing the fact that a general image has a high correlation between an adjacent region and an image feature. Therefore, if the region to be independently decoded is a specific limited region, it is desirable to encode the other regions with reference to the other regions as usual.
In the above example, the encoding of the area A does not depend on other areas, but it is desirable to configure so that the area A can be referred to in the encoding of other areas. By configuring in this way, it is possible to reduce the total amount of information compared to encoding the area A and other areas individually.
In the first embodiment, in order to realize a function required for decoding processing of only a partial region of such an image, the image is divided into rectangular regions called tiles, and each tile depends on other tiles. And a flag that indicates whether or not to refer to other tiles in the encoding / decoding process based on the flag.

図1の動画像符号化装置が処理対象とする映像信号フォーマットは、輝度信号と2つの色差信号からなるYUV信号や、ディジタル撮像素子から出力されるRGB信号等の任意の色空間のカラー映像信号のほか、モノクロ画像信号や赤外線画像信号など、映像フレームが水平・垂直2次元のディジタルサンプル(画素)列から構成される任意の映像信号とする。
ただし、各画素の諧調は、8ビットでもよいし、10ビットや12ビットなどの諧調でもよい。
以下の説明では、便宜上、特に断らない限り、入力画像の映像信号はYUV信号であるとし、かつ、2つの色差成分U,Vが輝度成分Yに対して、サブサンプルされた4:2:0フォーマットの信号を扱う場合について述べる。
また、映像信号の各フレームに対応する処理データ単位を「ピクチャ」と称する。
この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレーム信号として説明を行うが、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
The video signal format to be processed by the moving image encoding apparatus of FIG. 1 is a color video signal in an arbitrary color space such as a YUV signal composed of a luminance signal and two color difference signals, or an RGB signal output from a digital image sensor. In addition to the above, it is assumed that the video frame is an arbitrary video signal including a horizontal / vertical two-dimensional digital sample (pixel) sequence such as a monochrome image signal or an infrared image signal.
However, the gradation of each pixel may be 8 bits, or a gradation such as 10 bits or 12 bits.
In the following description, for convenience, unless otherwise specified, it is assumed that the video signal of the input image is a YUV signal, and the two color difference components U and V are subsampled with respect to the luminance component Y 4: 2: 0. The case of handling format signals will be described.
A processing data unit corresponding to each frame of the video signal is referred to as a “picture”.
In the first embodiment, “picture” is described as a video frame signal that is sequentially scanned (progressive scan). However, when the video signal is an interlaced signal, “picture” is a unit constituting a video frame. It may be a field image signal.

最初に、動画像符号化装置の処理内容を説明する。
符号化制御部1は、入力画像のタイル分割状態を制御するタイル分割制御情報をタイル分割部2及び可変長符号多重化部8に出力する。タイル分割状態は、入力画像シーケンスの全てのフレームで同じ分割であるか、または、特定の範囲の連続するフレームにおいて同じでなければならない。この実施の形態1では、少なくとも、あるランダムアクセスポイントのフレームから、次のランダムアクセスポイントのフレームの直前までは同じタイル分割状態である必要がある。
また、符号化制御部1は、入力画像から分割されるタイル毎に、他のタイルに関する情報を参照しながら符号化処理を行うか否かを示す独立タイルフラグを設定して、その独立タイルフラグをタイル符号化装置4及び可変長符号多重化部8に出力する(図5のステップST1)。なお、各タイルの独立タイルフラグの値は、少なくとも、あるランダムアクセスポイントのフレームから、次のランダムアクセスポイントのフレームの直前までは、連続するフレームで同じ値でなければならない。
この実施の形態1では、説明の便宜上、他のタイルに関する情報を参照しないで符号化処理を行う場合、独立タイルフラグ=ON、他のタイルに関する情報を参照しながら符号化処理を行う場合、独立タイルフラグ=OFFに設定されるものとする。
First, the processing content of the moving picture coding apparatus will be described.
The encoding control unit 1 outputs tile division control information for controlling the tile division state of the input image to the tile division unit 2 and the variable length code multiplexing unit 8. The tile split state must be the same split for all frames of the input image sequence or the same for a specific range of consecutive frames. In the first embodiment, at least a frame from one random access point to a frame immediately before the next random access point needs to be in the same tile division state.
In addition, the encoding control unit 1 sets an independent tile flag indicating whether or not to perform encoding processing with reference to information about other tiles for each tile divided from the input image, and the independent tile flag Are output to the tile encoding device 4 and the variable length code multiplexing unit 8 (step ST1 in FIG. 5). Note that the value of the independent tile flag of each tile must be the same value in consecutive frames at least from the frame of a certain random access point to immediately before the frame of the next random access point.
In the first embodiment, for convenience of explanation, when encoding processing is performed without referring to information regarding other tiles, independent tile flag = ON, and when encoding processing is performed while referring to information regarding other tiles, independent processing is performed. Assume that the tile flag is set to OFF.

タイル分割部2は、符号化制御部1からタイル分割制御情報を受けると、そのタイル分割制御情報にしたがって入力画像のタイル分割状態を定め、入力画像のタイル分割をタイル符号化開始部3に指示する。
タイル符号化開始部3は、タイル分割部2の指示の下、入力画像を複数のタイルに分割し、分割後のタイルを複数のタイル符号化部5に分配する。
ここで、タイル分割を制御する情報(タイル分割制御情報)は、様々な表現が考えられるが、ここでは、例えば、タイルを最大サイズのCU(Coding Tree Unit:CTU)を最小単位として、CTUをいくつ含むかという情報によってタイル分割を指定することを考える。
Upon receiving tile division control information from the encoding control unit 1, the tile division unit 2 determines the tile division state of the input image according to the tile division control information, and instructs the tile encoding start unit 3 to perform tile division of the input image. To do.
The tile encoding start unit 3 divides the input image into a plurality of tiles under the instruction of the tile dividing unit 2 and distributes the divided tiles to the plurality of tile encoding units 5.
Here, various representations of the information for controlling the tile division (tile division control information) can be considered. Here, for example, the tile is a maximum unit of CU (Coding Tree Unit: CTU), and the CTU is defined as a minimum unit. Consider specifying tile division based on how many are included.

図9は入力画像のCTU分割及びタイル分割の一例を示す説明図である。
入力画像は、図9に示すように、画像の左上を始点として格子状に並ぶCTUに分割される。入力画像の高さ及び幅と、CTUの一辺の長さとを指定すると、この分割は一意に定まる。
ここで、タイル分割は、CTUを最小単位として行われるため、各タイルの幅及び高さは、横及び縦の辺に含まれるCTUの数で表すことができる。
よって、タイル分割制御情報として、2つの整数の系列であるColumnWidthArray[],RowHeightArray[]を用いることができる。
ColumnWidthArray[]は、横方向に並ぶタイルの幅をCTUの数で表現した値を、右から順に並べたものである。
一方、RowHeightArray[]は、上下方向に並ぶタイルの高さをCTUの数で表現した値を、上から順に並べたものである。
これにより、例えば、ColumnWidthArray[]={4,3,6,4,6}、RowHeightArray[]={3,3,4,5}のように指定した場合には、図9のようにタイル分割される。
FIG. 9 is an explanatory diagram illustrating an example of CTU division and tile division of an input image.
As shown in FIG. 9, the input image is divided into CTUs arranged in a grid pattern starting from the upper left of the image. When the height and width of the input image and the length of one side of the CTU are designated, this division is uniquely determined.
Here, since tile division is performed using CTU as a minimum unit, the width and height of each tile can be represented by the number of CTUs included in the horizontal and vertical sides.
Therefore, ColumnIntegerArray [] and RowHeightArray [], which are two integer series, can be used as tile division control information.
ColumnWidthArray [] is an array of values representing the widths of tiles arranged in the horizontal direction in the number of CTUs in order from the right.
On the other hand, RowHeightArray [] is an array in which values representing the heights of tiles arranged in the vertical direction are represented by the number of CTUs in order from the top.
Thus, for example, when specified as ColumnWidthArray [] = {4, 3, 6, 4, 6}, RowHeightArray [] = {3, 3, 4, 5}, tile division as shown in FIG. Is done.

また、入力画像のCTU分割は、画像サイズとCTUの一辺の長さから一意に決定されるため、最も右の列の幅や、最も下の行の高さは指定しなくとも、その他の行や列の情報から一意に定めることが可能となる。
よって、最も右の列の幅や、最も下の行の高さを示す情報は省略が可能であり、その場合、ColumnWidthArray[]={4,3,6,4}、RowHeightArray[]={3,3,4}のように指定すればよい。
Further, since the CTU division of the input image is uniquely determined from the image size and the length of one side of the CTU, the width of the rightmost column and the height of the lowermost row are not specified, and other rows are not specified. It is possible to uniquely determine from the column information.
Therefore, the information indicating the width of the rightmost column and the height of the lowermost row can be omitted. In this case, ColumnWidthArray [] = {4, 3, 6, 4}, RowHeightArray [] = {3 , 3, 4}.

タイル符号化部5−1〜5−Nは、タイル符号化開始部3から分割後のタイル(タイル部分画像)を受けると、符号化制御部1から出力された当該タイルの独立タイルフラグにしたがって、そのタイルの符号化処理を並列に実行し、各タイルの符号化データであるタイルビットデータ及びタイル局所復号画像をタイル符号化終了部7に出力する(ステップST2)。
ここでは、タイル符号化部5−1〜5−Nが各タイルの符号化処理を並列に実行するものとしているが、各タイルの符号化処理をシリアルに実行するようにしてもよい。
タイル符号化部5−1〜5−Nは、全てのタイルの符号化が完了するまで、符号化処理を繰り返し実施する(ステップST3,ST4)。
タイル符号化部5−1〜5−Nの処理内容の詳細は後述する。
When the tile encoding units 5-1 to 5 -N receive the divided tile (tile partial image) from the tile encoding start unit 3, the tile encoding units 5-1 to 5 -N according to the independent tile flag of the tile output from the encoding control unit 1. The tile encoding process is executed in parallel, and the tile bit data and the tile local decoded image, which are the encoded data of each tile, are output to the tile encoding end unit 7 (step ST2).
Here, the tile encoding units 5-1 to 5-N execute the encoding process of each tile in parallel, but the encoding process of each tile may be executed serially.
The tile encoding units 5-1 to 5-N repeatedly perform the encoding process until encoding of all tiles is completed (steps ST3 and ST4).
Details of processing contents of the tile encoding units 5-1 to 5-N will be described later.

タイル符号化終了部7は、タイル符号化部5−1〜5−Nから全てのタイルのタイルビットデータ及びタイル局所復号画像が出力されるまで待機し、フレーム一枚分の局所復号画像をフレーム間参照メモリ9に出力する。
また、タイル符号化終了部7は、各タイルのタイルビットデータを特定の順序で多重化して、多重化後のタイルビットデータであるフレームビットデータを可変長符号多重化部9に格納する。
可変長符号多重化部8は、タイル符号化終了部7からフレームビットデータを受けると、そのフレームビットデータと、符号化制御部1から出力されたタイル分割制御情報及び各タイルの独立タイルフラグとを多重化してビットストリームを生成し、そのビットストリームを出力する(ステップST5)。なお、タイル分割状態や各タイルの独立タイルフラグの値は、前述の通り、次のランダムアクセスポイントが来るまで値が変わらないため、それぞれランダムアクセスポイントにおいてのみ多重化すればよい。もちろん、より高い頻度で多重化してもよいし、値が変わらない限り、より低い頻度で多重化してもよい。
The tile encoding end unit 7 waits until tile bit data and tile local decoded images of all tiles are output from the tile encoding units 5-1 to 5-N, and the local decoded image for one frame is framed. To the inter-reference memory 9.
Further, the tile encoding end unit 7 multiplexes the tile bit data of each tile in a specific order, and stores the frame bit data that is the tile bit data after the multiplexing in the variable length code multiplexing unit 9.
When the variable length code multiplexing unit 8 receives the frame bit data from the tile encoding end unit 7, the frame bit data, the tile division control information output from the encoding control unit 1, and the independent tile flag of each tile, Are multiplexed to generate a bit stream, and the bit stream is output (step ST5). Note that the tile division state and the value of the independent tile flag of each tile do not change until the next random access point arrives as described above, and therefore it is only necessary to multiplex at each random access point. Of course, it may be multiplexed at a higher frequency, or may be multiplexed at a lower frequency as long as the value does not change.

ここで、タイル符号化部5−n(n=1,2,・・・,N)の処理内容を具体的に説明する。
図7はタイル符号化部5−n(n=1,2,・・・,N)の処理内容をフローチャートである。
タイル符号化部5−nのタイル符号化制御部21は、図1の符号化制御部1から独立タイルフラグを取得して、その独立タイルフラグをイントラ予測部24、動き補償予測部25及びループフィルタ部31に出力する。
Here, the processing content of the tile encoding unit 5-n (n = 1, 2,..., N) will be specifically described.
FIG. 7 is a flowchart showing the processing contents of the tile encoding unit 5-n (n = 1, 2,..., N).
The tile coding control unit 21 of the tile coding unit 5-n obtains an independent tile flag from the coding control unit 1 in FIG. Output to the filter unit 31.

タイル符号化制御部21は、所定の最大符号化ブロック(CTU)サイズの画像領域毎に、所定の分割階層数の上限に至るまで、階層的に符号化ブロックサイズを有する符号化対象ブロックに分割して、各符号化対象ブロックに対する符号化モードを決定する(ステップST31)。
ここで、図10は最大符号化ブロックが階層的に複数の符号化対象ブロックに分割される例を示す説明図である。
図10において、最大符号化ブロックは、「第0階層」と記されている輝度成分が(L,M)のサイズを有する符号化対象ブロックである。
CTUサイズのブロックを出発点として、4分木構造で別途定める所定の深さまで、階層的に分割を行うことによって符号化対象ブロックを得るようにしている。
深さnにおいては、符号化対象ブロックはサイズ(L,M)の画像領域である。
ただし、LとMは、同じであってもよいし、異なっていてもよいが、図10では、L=Mのケースを示している。
The tile encoding control unit 21 divides the image area of the predetermined maximum encoding block (CTU) size into encoding target blocks having the encoding block size hierarchically until reaching the upper limit of the predetermined number of division layers. Then, the encoding mode for each encoding target block is determined (step ST31).
Here, FIG. 10 is an explanatory diagram illustrating an example in which the maximum encoding block is hierarchically divided into a plurality of encoding target blocks.
In FIG. 10, the maximum coding block is a coding target block whose luminance component indicated as “0th layer” has a size of (L 0 , M 0 ).
An encoding target block is obtained by hierarchically dividing a CTU size block to a predetermined depth separately defined by a quadtree structure.
At the depth n, the encoding target block is an image area of size (L n , M n ).
However, L n and M n may be the same or different, but FIG. 10 shows the case of L n = M n .

以降、タイル符号化制御部21により決定される符号化ブロックサイズは、符号化対象ブロックの輝度成分におけるサイズ(L,M)と定義する。
4分木分割を行うため、常に、(Ln+1,Mn+1)=(L/2,M/2)が成立する。
なお、RGB信号など、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(L,M)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックサイズは(L/2,M/2)になる。
以降、第n階層の符号化対象ブロックをBで表し、符号化対象ブロックBで選択可能な符号化モードをm(B)で表すものとする。
複数の色成分からなるカラー映像信号の場合、符号化モードm(B)は、色成分毎に、それぞれ個別のモードを用いるように構成されてもよいし、すべての色成分に対し共通のモードを用いるように構成されてもよい。以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードを指すものとして説明を行う。
Hereinafter, the encoding block size determined by the tile encoding control unit 21 is defined as the size (L n , M n ) in the luminance component of the encoding target block.
Since quadtree partitioning is performed, (L n + 1 , M n + 1 ) = (L n / 2, M n / 2) always holds.
Note that in a color video signal (4: 4: 4 format) in which all color components have the same number of samples, such as RGB signals, the size of all color components is (L n , M n ), but 4: 2. : When the 0 format is handled, the encoding block size of the corresponding color difference component is (L n / 2, M n / 2).
Later, represents the encoding target block of the n hierarchy B n, the encoding modes selectable by the encoding target block B n as represented by m (B n).
In the case of a color video signal composed of a plurality of color components, the encoding mode m (B n ) may be configured to use an individual mode for each color component, or common to all color components. It may be configured to use a mode. Hereinafter, unless otherwise specified, description will be made assuming that it indicates a coding mode for a luminance component of a coding block of a YUV signal and 4: 2: 0 format.

符号化モードm(B)には、1つないし複数のイントラ符号化モード(総称して「INTRA」と称する)と、1つないし複数のインター符号化モード(総称して、「INTER」と称する)とがあり、タイル符号化制御部21は、当該ピクチャで利用可能な全ての符号化モード、または、そのサブセットの中から、符号化対象ブロックBに対する符号化効率が最も高い符号化モードを選択する。
さらに、符号化対象ブロックBは、図11に示すように、ブロック分割部22によって、1つないし複数の予測処理単位(パーティション)に分割される。
以降、符号化対象ブロックBに属するパーティションをP (iは、第n階層におけるパーティション番号)と表記する。
符号化対象ブロックBのパーティション分割が、どのようになされているかは、符号化モードm(B)の中に情報として含まれる。
The coding mode m (B n ) includes one or more intra coding modes (collectively referred to as “INTRA”), one or more inter coding modes (collectively referred to as “INTER”), The tile encoding control unit 21 has the highest encoding efficiency for the encoding target block Bn among all the encoding modes that can be used in the picture or a subset thereof. Select.
Furthermore, the encoding target block Bn is divided into one or a plurality of prediction processing units (partitions) by the block dividing unit 22 as shown in FIG.
Hereinafter, a partition belonging to the encoding target block B n is denoted as P i n (i is a partition number in the nth layer).
How the partitioning of the encoding target block Bn is performed is included as information in the encoding mode m ( Bn ).

パーティションP は、すべて符号化モードm(B)に従って予測処理が行われるが、符号化対象ブロックBないしパーティションP 毎に、予測パラメータが選択される。
タイル符号化制御部21は、最大符号化ブロックに対して、例えば、図11に示すようなブロック分割状態を生成して、符号化対象ブロックを特定する。
図11(a)の斜線部分は、分割後のパーティションの分布を示しており、図11(b)は階層分割によって符号化モードm(B)が割り当てられる状況を4分木グラフで示している。
図11(b)の□で囲まれているノードは、符号化モードm(B)が割り当てられたノード(符号化対象ブロック)である。
The partition P i n is all subjected to prediction processing according to the encoding mode m (B n ), but a prediction parameter is selected for each encoding target block B n or partition P i n .
For example, the tile encoding control unit 21 generates a block division state as illustrated in FIG. 11 for the maximum encoding block, and specifies an encoding target block.
The shaded portion in FIG. 11A shows the distribution of the partitions after the division, and FIG. 11B shows the situation where the encoding mode m (B n ) is assigned by the hierarchical division in a quadtree graph. Yes.
Nodes surrounded by □ in FIG. 11B are nodes (encoding target blocks) to which the encoding mode m (B n ) is assigned.

切換スイッチ23は、タイル符号化制御部21により決定された符号化モードm(B)がイントラ符号化モードである場合(m(B)∈INTRAの場合)、ブロック分割部22から出力された符号化対象ブロックBをイントラ予測部24に出力する(ステップST32)。
一方、タイル符号化制御部21により決定された符号化モードm(B)がインター符号化モードである場合(m(B)∈INTERの場合)、ブロック分割部22から出力された符号化対象ブロックBを動き補償予測部25に出力する(ステップST32)。
The changeover switch 23 is output from the block dividing unit 22 when the coding mode m (B n ) determined by the tile coding control unit 21 is the intra coding mode (when m (B n ) ∈INTRA). The encoding target block Bn is output to the intra prediction unit 24 (step ST32).
On the other hand, when the encoding mode m (B n ) determined by the tile encoding control unit 21 is the inter encoding mode (when m (B n ) ∈INTER), the encoding output from the block dividing unit 22 The target block Bn is output to the motion compensation prediction unit 25 (step ST32).

イントラ予測部24は、タイル符号化制御部21により決定された符号化モードm(B)がイントラ符号化モードであり(m(B)∈INTRAの場合)、切換スイッチ3から符号化対象ブロックBを受けると、フレーム内参照メモリ6に格納されているイントラ参照画像(ループフィルタ処理を実施する前のカレントフレームの局所復号画像)を参照しながら、タイル符号化制御部21により決定されたイントラ予測パラメータを用いて、その符号化対象ブロックB内の各パーティションP に対するイントラ予測処理を実施して、イントラ予測画像PINTRAi を生成する(ステップST33)。
ただし、イントラ予測部24は、参照先の画素が他のタイルに属する画素である場合、タイル符号化制御部21から出力された独立タイルフラグに応じて予測処理を切り替えるようにする。
The intra prediction unit 24 is the encoding mode m (B n ) determined by the tile coding control unit 21 is the intra coding mode (when m (B n ) ∈INTRA), and the intra-prediction unit 24 performs encoding from the changeover switch 3. When the block B n is received, the tile encoding control unit 21 determines the intra reference image (local decoded image of the current frame before the loop filter process) stored in the intra-frame reference memory 6 is referred to. by using the intra prediction parameters, to implement the intra prediction process for each partition P i n in the encoding target block B n, it generates an intra prediction image P INTRAi n (step ST33).
However, the intra prediction unit 24 switches the prediction process according to the independent tile flag output from the tile encoding control unit 21 when the reference destination pixel is a pixel belonging to another tile.

即ち、イントラ予測部24は、独立タイルフラグがOFFである場合、予測画像を生成する上で、参照画像の制限がないので、参照先となる他のタイルの局所復号画像が生成されて、その局所復号画像がフレーム内参照メモリ6に格納されるまで待機し、その局所復号画像がフレーム内参照メモリ6に格納されると、その局所復号画像における参照先の画素を用いてイントラ予測処理を実施する。
一方、独立タイルフラグがONである場合、他のタイルの局所復号画像における画素の参照が不要なイントラ予測処理を実施する。
例えば、タイル端におけるイントラ予測処理では、参照したい隣接の画素が、隣のタイル(他のタイル)の局所復号画像内の画素である場合があるが、独立タイルフラグがONであれば、当該画素を参照することができないので、イントラ予測処理を別のイントラ予測処理に切り替えるようにすればよい。別のイントラ予測処理としては、例えば、隣接画素の参照が不要な画面端でのイントラ予測処理や、その他の隣接画素の参照が不要なイントラ予測処理などが考えられる。
なお、図4のタイル復号部45−nが、イントラ予測画像PINTRAi と全く同じイントラ予測画像を生成する必要があるため、イントラ予測画像PINTRAi の生成に用いられたイントラ予測パラメータは、タイル符号化制御部21から可変長符号化部30に出力されて、タイルビットデータに多重化される。
That is, when the independent tile flag is OFF, the intra prediction unit 24 has no restriction on the reference image in generating the prediction image, so that a local decoded image of another tile to be referred to is generated, Wait until the local decoded image is stored in the intra-frame reference memory 6, and when the local decoded image is stored in the intra-frame reference memory 6, intra prediction processing is performed using the reference destination pixel in the local decoded image To do.
On the other hand, when the independent tile flag is ON, intra prediction processing that does not require pixel reference in the locally decoded image of another tile is performed.
For example, in the intra prediction process at the tile end, the adjacent pixel to be referred to may be a pixel in the locally decoded image of the adjacent tile (other tile). If the independent tile flag is ON, the pixel Therefore, the intra prediction process may be switched to another intra prediction process. As another intra prediction process, for example, an intra prediction process at a screen edge that does not need to refer to adjacent pixels, an intra prediction process that does not need to refer to other adjacent pixels, and the like can be considered.
Incidentally, the tile decoding unit 45-n in FIG. 4, it is necessary to generate exactly the same intra prediction image and the intra prediction image P INTRAi n, intra prediction parameters used for generating the intra prediction image P INTRAi n is The data is output from the tile encoding control unit 21 to the variable length encoding unit 30 and multiplexed into tile bit data.

動き補償予測部25は、タイル符号化制御部21により決定された符号化モードm(B)がインター符号化モードであり(m(B)∈INTERの場合)、切換スイッチ23から符号化対象ブロックBを受けると、その符号化対象ブロックB内の各パーティションP と、フレーム間参照メモリ9に格納されている動き補償予測参照画像(ループフィルタ処理を実施した後の他のフレームの局所復号画像)とを比較して動きベクトルを探索し、その動きベクトルとタイル符号化制御部21により決定されたインター予測パラメータを用いて、その符号化対象ブロックB内の各パーティションP に対するインター予測処理を実施して、インター予測画像PINTERi を生成する(ステップST34)。
ただし、動き補償予測部25は、タイル符号化制御部21から出力された独立タイルフラグに応じて予測処理を切り替えるようにする。
The motion-compensated prediction unit 25 performs encoding from the changeover switch 23 when the encoding mode m (B n ) determined by the tile encoding control unit 21 is the inter encoding mode (when m (B n ) ∈INTER). When receiving the current block B n, the encoding and each partition P i n in the target block B n, the motion compensation prediction reference image (other after performing the loop filtering process stored in the reference memory 9 between frames The motion vector and the inter prediction parameter determined by the tile encoding control unit 21, and using each of the partitions P in the encoding target block B n by carrying out inter-prediction processing for the i n, it generates an inter prediction image P INTERi n (step ST34).
However, the motion compensation prediction unit 25 switches the prediction process according to the independent tile flag output from the tile encoding control unit 21.

即ち、動き補償予測部25は、独立タイルフラグがOFFである場合、予測画像を生成する上で、参照画像の制限がないので、動きベクトルが指し示す画素がカレントタイル外の画素であっても、その画素を用いて予測画像を生成する。
一方、独立タイルフラグがONである場合、予測画像を生成する上で、参照画像の制限があるため(カレントタイル外の画素を用いる予測画像の生成が禁止されている)、図12に示すように、動きベクトルがカレントタイル外の画素を指し示していても、その画素を参照しないようにする。
そこで、動き補償予測部25は、動きベクトルがカレントタイル外の画素を指し示している場合、カレントタイル内の画素を用いて、画素の補間処理を実施することで、動きベクトルが指し示している画素の値を算出するようにする。
画素補間処理としては、例えば、カレントタイル境界の画素を引き伸ばすパディング処理などが考えられる。動画像符号化装置と動画像復号装置では、同等の画素補間処理を実子する必要がある。
なお、図4のタイル復号部45−nが、インター予測画像PINTERi と全く同じインター予測画像を生成する必要があるため、インター予測画像PINTERi の生成に用いられたインター予測パラメータは、タイル符号化制御部21から可変長符号化部30に出力されて、タイルビットデータに多重化される。
That is, when the independent tile flag is OFF, the motion compensated prediction unit 25 has no restriction on the reference image in generating the predicted image, so even if the pixel indicated by the motion vector is a pixel outside the current tile, A predicted image is generated using the pixel.
On the other hand, when the independent tile flag is ON, there is a restriction on the reference image in generating the predicted image (generation of the predicted image using pixels outside the current tile is prohibited), so as shown in FIG. Even if the motion vector points to a pixel outside the current tile, the pixel is not referred to.
Therefore, when the motion vector indicates a pixel outside the current tile, the motion compensation prediction unit 25 performs pixel interpolation processing using the pixel in the current tile, so that the pixel of the pixel indicated by the motion vector is indicated. Try to calculate the value.
As the pixel interpolation process, for example, a padding process for extending a pixel at the current tile boundary can be considered. The moving image encoding device and the moving image decoding device need to perform equivalent pixel interpolation processing.
Incidentally, the tile decoding unit 45-n in FIG. 4, it is necessary to generate exactly the same inter prediction image and the inter-predicted image P INTERi n, the inter prediction parameters used for generating the inter prediction image P INTERi n, The data is output from the tile encoding control unit 21 to the variable length encoding unit 30 and multiplexed into tile bit data.

減算部26は、ブロック分割部22から符号化対象ブロックBを受けると、その符号化対象ブロックB内のパーティションP から、イントラ予測部24により生成されたイントラ予測画像PINTRAi 、または、動き補償予測部25により生成されたインター予測画像PINTERi を減算して、その減算結果である予測差分信号を変換・量子化部27に出力する(ステップST35)。 Subtraction portion 26 receives the encoding target block B n from the block dividing unit 22 from its partition P i n in the encoding target block B n, the intra prediction image P INTRAi n generated by the intra prediction unit 24, Alternatively, the inter prediction image P INTERIn n generated by the motion compensation prediction unit 25 is subtracted, and the prediction difference signal as the subtraction result is output to the transform / quantization unit 27 (step ST35).

変換・量子化部27は、減算部26から予測差分信号を受けると、タイル符号化制御部21により決定された予測差分符号化パラメータを参照して、その予測差分信号に対する直交変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施して、その変換係数を算出する。
また、変換・量子化部27は、その予測差分符号化パラメータを参照して、その変換係数を量子化し、量子化後の変換係数である量子化後係数を逆量子化・逆変換部28及び可変長符号化部30に出力する(ステップST36)。
When the transform / quantization unit 27 receives the prediction difference signal from the subtraction unit 26, the transform / quantization unit 27 refers to the prediction difference coding parameter determined by the tile coding control unit 21 and performs orthogonal transform processing on the prediction difference signal (for example, DCT (discrete cosine transformation) or orthogonal transformation processing such as KL transformation in which a base design is made in advance for a specific learning sequence is performed, and the transformation coefficient is calculated.
In addition, the transform / quantization unit 27 refers to the prediction difference encoding parameter, quantizes the transform coefficient, and performs inverse quantization / inverse transform unit 28 on the quantized coefficient that is the transform coefficient after quantization. It outputs to the variable length encoding part 30 (step ST36).

逆量子化・逆変換部28は、変換・量子化部27から量子化後係数を受けると、タイル符号化制御部21により決定された予測差分符号化パラメータを参照して、その量子化後係数を逆量子化する。
また、逆量子化・逆変換部28は、その予測差分符号化パラメータを参照して、逆量子化後の変換係数に対する逆直交変換処理(例えば、逆DCT、逆KL変換など)を実施して、減算部26から出力された予測差分信号に相当する局所復号予測差分信号を算出する(ステップST37)。
When the inverse quantization / inverse transform unit 28 receives the quantized coefficient from the transform / quantization unit 27, the inverse quantization / inverse transform unit 28 refers to the prediction difference encoding parameter determined by the tile encoding control unit 21, and the quantized coefficient Is dequantized.
In addition, the inverse quantization / inverse transform unit 28 refers to the prediction differential encoding parameter and performs inverse orthogonal transform processing (for example, inverse DCT, inverse KL transform) on the transform coefficient after inverse quantization. Then, a local decoded prediction difference signal corresponding to the prediction difference signal output from the subtracting unit 26 is calculated (step ST37).

加算部29は、逆量子化・逆変換部28から局所復号予測差分信号を受けると、その局所復号予測差分信号が示す差分画像と、イントラ予測部24により生成されたイントラ予測画像PINTRAi 、または、動き補償予測部25により生成されたインター予測画像PINTERi とを加算して、局所復号パーティション画像、あるいは、その局所復号パーティション画像の集まりとして、ブロック分割部22から出力された符号化対象ブロックBに相当する局所復号画像を算出する(ステップST38)。
なお、加算部29は、その局所復号画像をフレーム内参照メモリ6に格納する。この局所復号画像が、カレントタイル及びカレントタイルと隣接するタイルにおけるイントラ予測処理や、ループフィルタ処理の参照画像信号になる。
When the addition unit 29 receives the local decoded prediction difference signal from the inverse quantization / inverse conversion unit 28, the addition unit 29 indicates the difference image indicated by the local decoded prediction difference signal, the intra prediction image P INTRAi n generated by the intra prediction unit 24, or, by adding the inter prediction image P INTERi n generated by the motion compensation prediction unit 25, a local decoded partition image, or as a collection of the local decoded partition image coded output from the block dividing unit 22 A locally decoded image corresponding to block Bn is calculated (step ST38).
The adder 29 stores the locally decoded image in the intra-frame reference memory 6. This local decoded image becomes a reference image signal for intra prediction processing and loop filter processing in the current tile and tiles adjacent to the current tile.

ループフィルタ部31は、全ての符号化対象ブロックBに対するステップST32〜ST38の処理が完了すると(ステップST39,ST40)、フレーム内参照メモリ6に格納されているカレントタイルの局所復号画像(ループフィルタ処理前の局所復号画像)及び他タイルの局所復号画像(ループフィルタ処理前の局所復号画像)を用いて、タイル符号化制御部21から出力されたループフィルタパラメータに基づき、カレントタイルに対して、0種以上のループフィルタ処理を実施し、ループフィルタ処理後の局所復号画像をタイル符号化終了部7に出力する(ステップST41)。
ただし、ループフィルタ部31は、タイル符号化制御部21から出力された独立タイルフラグに応じてフィルタリング処理を切り替えるようにする。
Loop filter unit 31, the process of step ST32~ST38 of all the coding target block B n is completed (step ST39, ST40), the local decoded image (loop filter of the current tile stored in the reference memory 6 frame Based on the loop filter parameters output from the tile encoding control unit 21, using the local decoded image before processing) and the local decoded image of other tiles (local decoded image before loop filter processing), for the current tile, Zero or more types of loop filter processing are performed, and the local decoded image after the loop filter processing is output to the tile encoding end unit 7 (step ST41).
However, the loop filter unit 31 switches the filtering process in accordance with the independent tile flag output from the tile encoding control unit 21.

即ち、ループフィルタ部31は、独立タイルフラグがOFFである場合、ループフィルタ処理を実施する上で、参照画像の制限がないので、カレントタイル外の画素についても参照してフィルタリング処理を実施する。
一方、独立タイルフラグがONである場合、ループフィルタ処理を実施する上で、参照画像の制限があるため(カレントタイル外の画素の参照が禁止されている)、カレントタイル内の画素だけを参照してフィルタリング処理を実施する。
例えば、タイル端のフィルタリング処理などにおいて、カレントタイル外の画素の参照が必要な場合には、カレントタイル境界の画素(カレントタイル内の画素)を引き伸ばすパディング処理などの画素補間処理を実施して、参照したいカレントタイル外の画素の値を算出するようにすれば、カレントタイル内の画素だけを参照してフィルタリング処理を実施することができる。
あるいは、ループフィルタ部31のフィルタ形状を変更することで、カレントタイル外の画素の参照を不要にすれば、カレントタイル内の画素だけを参照してフィルタリング処理を実施することができる。
独立タイルフラグがONである場合のタイル端の特別な処理は、動画像符号化装置と動画像復号装置で一致させる必要がある。
That is, when the independent tile flag is OFF, the loop filter unit 31 performs the filtering process with reference to the pixels outside the current tile because the reference image is not limited in performing the loop filter process.
On the other hand, when the independent tile flag is ON, there is a restriction on the reference image in performing the loop filter process (referencing pixels outside the current tile is prohibited), so only the pixels within the current tile are referenced. To implement the filtering process.
For example, when it is necessary to refer to pixels outside the current tile in filtering processing at the edge of the tile, etc., pixel interpolation processing such as padding processing that stretches pixels at the current tile boundary (pixels in the current tile) is performed, If the value of the pixel outside the current tile to be referred to is calculated, the filtering process can be performed with reference to only the pixel within the current tile.
Alternatively, if the reference to the pixels outside the current tile becomes unnecessary by changing the filter shape of the loop filter unit 31, the filtering process can be performed with reference to only the pixels in the current tile.
The special processing of the tile edge when the independent tile flag is ON needs to be matched between the moving image encoding device and the moving image decoding device.

可変長符号化部30は、ループフィルタ処理が完了すると、変換・量子化部27から出力された量子化後係数と、タイル符号化制御部21から出力された符号化モードm(B)、予測差分符号化パラメータ及びループフィルタパラメータと、タイル符号化制御部21から出力されたイントラ予測パラメータ(符号化モードがイントラ符号化モードである場合)又はインター予測パラメータ(符号化モードがインター符号化モードである場合)と、動き補償予測部25から出力された動きベクトル(符号化モードがインター符号化モードである場合)とを可変長符号化して、それらの符号化結果を示すタイルビットデータを生成する(ステップST42)。 When the loop filter process is completed, the variable length encoding unit 30 outputs the quantized coefficient output from the transform / quantization unit 27, the encoding mode m (B n ) output from the tile encoding control unit 21, Prediction differential encoding parameter and loop filter parameter, intra prediction parameter (when encoding mode is intra encoding mode) output from tile encoding control unit 21 or inter prediction parameter (encoding mode is inter encoding mode) And the motion vector output from the motion compensation prediction unit 25 (when the encoding mode is the inter encoding mode) are variable-length encoded, and tile bit data indicating the encoding result is generated. (Step ST42).

可変長符号化の手法として、例えば、コンテキスト適応型算術符号化などを用いる場合、可変長符号化部30の内部の状態を符号化の進行に合わせて更新していくが、独立タイルフラグがONである場合、この内部状態の初期値は、所定の固定値、もしくは、図1のタイル符号化開始部3から出力される値を使用し、タイル間での状態の引継ぎを行わないようにする。
また、符号化パラメータ(符号化モードm(B)、予測差分符号化パラメータ、イントラ予測パラメータ/インター予測パラメータ、ループフィルタパラメータ)を符号化する際には、フレーム内参照メモリ6に格納されている隣接ブロックの符号化パラメータや動きベクトルの情報及びフレーム間参照メモリ9に格納されている時間的に近接しているフレームの同位置ブロックの符号化パラメータや動きベクトルの情報を参照して、パラメータ値を予測する処理を実施する。
この予測処理の際、独立タイルフラグがONである場合、カレントタイルと異なる位置のタイルに属するブロックの符号化パラメータ・動きベクトルの参照は行わず、参照が不要な特定の予測処理を実施する。
As a variable length coding method, for example, when context adaptive arithmetic coding is used, the internal state of the variable length coding unit 30 is updated as the coding progresses, but the independent tile flag is ON. In this case, the initial value of the internal state is a predetermined fixed value or a value output from the tile encoding start unit 3 in FIG. 1 so as not to take over the state between tiles. .
Further, when encoding encoding parameters (encoding mode m (B n ), prediction differential encoding parameter, intra prediction parameter / inter prediction parameter, loop filter parameter), they are stored in the intraframe reference memory 6. Refer to the encoding parameters and motion vector information of adjacent blocks that are present, and the encoding parameters and motion vector information of the same position blocks of temporally adjacent frames stored in the interframe reference memory 9 A process for predicting the value is performed.
In this prediction process, when the independent tile flag is ON, the encoding parameter / motion vector of a block belonging to a tile at a position different from the current tile is not referred to, and a specific prediction process that does not require reference is performed.

タイル符号化部5−nの符号化処理において、独立タイルフラグがONである場合、上記のイントラ予測処理、動き補償予測処理及び可変長符号処理を含む如何なる処理においても、カレントタイルと異なるタイルに属するブロックの符号化パラメータ、局所復号画像及び動き補償予測参照画像の参照を行わないようにする。
タイル端での参照処理は、何らかの参照が不要な処理に置き換えられるようにする。どのような処理に置き換えられるかは、動画像符号化装置と動画像復号装置で一致させる必要があるが、動画像符号化装置と動画像復号装置で固定的に同じ処理を行ってもよいし、処理内容を示す信号をシグナリングするようにしてもよい。
以上より、独立タイルフラグがONになっているタイル符号化部5−nの処理は、そのタイルで独立しており、独立に符号化処理が可能である。
In the encoding process of the tile encoding unit 5-n, when the independent tile flag is ON, in any process including the intra prediction process, the motion compensation prediction process, and the variable length code process, a tile different from the current tile is used. The encoding parameter, the locally decoded image, and the motion compensated prediction reference image of the block to which the block belongs are not referred to.
The reference process at the tile end is replaced with a process that does not require any reference. The type of processing that needs to be replaced needs to be matched between the video encoding device and the video decoding device, but the same processing may be fixedly performed by the video encoding device and the video decoding device. A signal indicating the processing content may be signaled.
As described above, the processing of the tile encoding unit 5-n in which the independent tile flag is ON is independent for each tile, and can be encoded independently.

次に、動画像復号装置の処理内容を説明する。
可変長符号分離部41は、図1の画像符号化装置の可変長符号多重化部8から出力されたビットストリームデータを受け取ると、そのビットストリームに多重化されている情報を分離することで、そのビットストリームに多重化されていたタイル分割制御情報をタイル分割部42に出力するとともに、そのビットストリームに多重化されていたフレームビットデータ及び各タイルの独立タイルフラグをタイル復号開始部43に出力する。また、各タイルの独立タイルフラグをタイル復号終了部47に出力する(図6のステップST21)。
タイル分割部42は、可変長符号分離部41からタイル分割制御情報を受けると、図1のタイル分割部2と同様の方法で、そのタイル分割制御情報にしたがって入力画像のタイル分割状態を定め、分割されている各タイルの結合をタイル復号終了部47に指示する(ステップST22)。
Next, processing contents of the video decoding device will be described.
When the variable length code separating unit 41 receives the bit stream data output from the variable length code multiplexing unit 8 of the image encoding device of FIG. The tile division control information multiplexed in the bit stream is output to the tile division unit 42, and the frame bit data multiplexed in the bit stream and the independent tile flag of each tile are output to the tile decoding start unit 43. To do. Further, the independent tile flag of each tile is output to the tile decoding end unit 47 (step ST21 in FIG. 6).
Upon receiving the tile division control information from the variable length code separation unit 41, the tile division unit 42 determines the tile division state of the input image according to the tile division control information in the same manner as the tile division unit 2 in FIG. The tile decoding end unit 47 is instructed to combine the divided tiles (step ST22).

タイル復号開始部43は、可変長符号分離部41からフレームビットデータと各タイルの独立タイルフラグを受けると、そのフレームビットデータを各タイルのタイルビットデータに分離して、各タイルのタイルビットデータと独立タイルフラグをタイル復号部45−1〜45−Nに分配する。
タイル復号開始部43は、各タイルのタイルビットデータと独立タイルフラグをタイル復号部45−1〜45−Nに分配する際、外部から復号対象のタイルを示す復号タイル指定情報が入力された場合、その復号タイル指定情報が示す復号対象のタイルが全てのタイルであれば、独立タイルフラグのON/OFFに関わらず、全てのタイルのタイルビットデータを45−1〜45−Nに分配する(ステップST23)。
一方、復号タイル指定情報が示す復号対象のタイルとして、一部のタイルを指定している場合、復号タイル指定情報が指定しているタイルの中で、独立タイルフラグがONであるタイルのタイルビットデータだけをいずれかのタイル復号部45に出力する(ステップST23)。
復号タイル指定情報が指定しているタイルの中で、独立タイルフラグがOFFであるタイルが含まれている場合、そのタイルのタイルビットデータをタイル復号部45に出力せずに、そのタイルの復号処理をスキップするようにする。あるいは、所定のエラー処理を実施するようにする(ステップST23)。
Upon receiving the frame bit data and the independent tile flag of each tile from the variable length code separation unit 41, the tile decoding start unit 43 separates the frame bit data into tile bit data of each tile, and tile bit data of each tile. And the independent tile flag are distributed to the tile decoding units 45-1 to 45-N.
When the tile decoding start unit 43 distributes the tile bit data of each tile and the independent tile flag to the tile decoding units 45-1 to 45-N, when decoding tile designation information indicating a decoding target tile is input from the outside If the decoding target tiles indicated by the decoding tile designation information are all tiles, the tile bit data of all tiles are distributed to 45-1 to 45-N regardless of ON / OFF of the independent tile flag ( Step ST23).
On the other hand, when some tiles are specified as the decoding target tiles indicated by the decoding tile specification information, the tile bits of the tiles whose independent tile flag is ON among the tiles specified by the decoding tile specification information Only the data is output to any tile decoding unit 45 (step ST23).
If a tile whose independent tile flag is OFF is included in the tiles specified by the decoding tile specification information, the tile bit data of the tile is not output to the tile decoding unit 45 and the tile is decoded. Skip processing. Alternatively, predetermined error processing is performed (step ST23).

タイル復号部45−1〜45−Nは、タイル復号開始部43からタイルビットデータと独立タイルフラグを受けると、その独立タイルフラグにしたがって、そのタイルビットデータからタイルを復号する処理を並列に実行し、各タイルの復号画像をタイル復号終了部47に出力する(ステップST24)。
タイル復号部45−1〜45−Nの処理内容の詳細は後述するが、可変長符号分離部41により分離された各タイルのタイルビットデータのうち、独立タイルフラグがONであるタイルのタイルビットデータがタイル復号開始部43から分配された場合、そのタイルビットデータから当該タイルを復号する処理を他のタイルに関する情報を参照せずに独立に実行する。
一方、その独立タイルフラグがOFFであるタイルのタイルビットデータがタイル復号開始部43から分配された場合、そのタイルビットデータから当該タイルを復号する処理を他のタイルに関する情報を参照しながら実行する。
When receiving the tile bit data and the independent tile flag from the tile decoding start unit 43, the tile decoding units 45-1 to 45-N execute in parallel the process of decoding the tile from the tile bit data according to the independent tile flag. Then, the decoded image of each tile is output to the tile decoding end unit 47 (step ST24).
The details of the processing contents of the tile decoding units 45-1 to 45 -N will be described later. Among the tile bit data of each tile separated by the variable length code separation unit 41, the tile bit of the tile whose independent tile flag is ON. When the data is distributed from the tile decoding start unit 43, the process of decoding the tile from the tile bit data is executed independently without referring to information on other tiles.
On the other hand, when tile bit data of a tile whose independent tile flag is OFF is distributed from the tile decoding start unit 43, a process of decoding the tile from the tile bit data is executed with reference to information on other tiles. .

図3の動画像復号装置では、フレーム間参照メモリ48やフレーム内参照メモリ46のサイズは、復号タイルに指定されている画像領域の分のみ用意すればよく、復号指定タイルの面積が画像全体の面積に対して小さい場合、復号に要するメモリリソースを低減することができる。
ここでは、タイル復号部45−1〜45−Nが各タイルの復号処理を並列に実行するものとしているが、各タイルの復号処理をシリアルに実行するようにしてもよい。
タイル復号部45−1〜45−Nは、復号対象である全てのタイルの復号が完了するまで、復号処理を繰り返し実施する(ステップST25,ST26)。
In the moving picture decoding apparatus of FIG. 3, the size of the inter-frame reference memory 48 and the intra-frame reference memory 46 only needs to be prepared for the image area specified in the decoding tile, and the area of the decoding specified tile is the entire image. When the area is small, memory resources required for decoding can be reduced.
Here, the tile decoding units 45-1 to 45-N execute the decoding process of each tile in parallel, but the decoding process of each tile may be executed serially.
The tile decoding units 45-1 to 45-N repeatedly perform the decoding process until decoding of all the tiles to be decoded is completed (steps ST25 and ST26).

タイル復号終了部47は、復号タイル指定情報が示す復号対象のタイルが全てのタイルであれば、タイル復号部45−1〜45−Nから全てのタイルの復号画像が出力されるまで待機し、全てのタイルの復号画像が出力されると、タイル分割部42の指示の下、全てのタイルの復号画像を結合してフレーム一枚分の復号画像を生成し、その復号画像を外部出力するとともに、その復号画像をフレーム間参照メモリ48に格納する。
一方、復号タイル指定情報が示す復号対象のタイルが一部のタイルである場合、復号タイル指定情報が指定しているタイルであって、かつ、独立タイルフラグがONであるタイルの復号画像の全てが出力されるまで待機し、それらのタイルの復号画像が出力されると、タイル分割部42の指示の下、それらのタイルの復号画像を結合して指定領域復号画像を生成し、その指定領域復号画像を外部出力するとともに、その指定領域復号画像をフレーム間参照メモリ48に格納する。
If the decoding target tiles indicated by the decoding tile designation information are all tiles, the tile decoding end unit 47 waits until the decoded images of all tiles are output from the tile decoding units 45-1 to 45-N. When the decoded images of all tiles are output, under the instruction of the tile dividing unit 42, the decoded images of all the tiles are combined to generate a decoded image for one frame, and the decoded image is output to the outside. The decoded image is stored in the inter-frame reference memory 48.
On the other hand, when the decoding target tiles indicated by the decoding tile designation information are some tiles, all of the decoded images of the tiles designated by the decoding tile designation information and the independent tile flag is ON When the decoded image of the tile is output, the designated area decoded image is generated by combining the decoded images of the tiles under the instruction of the tile dividing unit 42. The decoded image is output to the outside, and the designated region decoded image is stored in the interframe reference memory 48.

ここで、タイル復号部45−n(n=1,2,・・・,N)の処理内容を具体的に説明する。
図8はタイル復号部45−n(n=1,2,・・・,N)の処理内容をフローチャートである。
可変長符号復号部61は、図3のタイル復号開始部43からタイルビットデータを受けると、図2のタイル符号化制御部21と同様の方法で、最大符号化ブロックサイズ及び分割階層数の上限を決定する。タイルビットデータの中に、最大符号化ブロックサイズ及び分割階層数の上限を示す情報が多重化されている場合には、その情報を復号することで、最大符号化ブロックサイズ及び分割階層数の上限を決定するようにしてもよい。
次に、可変長符号復号部61は、タイルビットデータに多重化されている最大符号化ブロックに割り当てられている符号化モードを復号し、その符号化モードに含まれている最大符号化ブロックの分割状態を示す情報(タイル分割制御情報)を復号する。
Here, the processing content of the tile decoding unit 45-n (n = 1, 2,..., N) will be specifically described.
FIG. 8 is a flowchart showing the processing contents of the tile decoding unit 45-n (n = 1, 2,..., N).
When the variable-length code decoding unit 61 receives tile bit data from the tile decoding start unit 43 of FIG. 3, the variable length code decoding unit 61 uses the same method as the tile coding control unit 21 of FIG. To decide. When information indicating the maximum encoding block size and the upper limit of the number of division layers is multiplexed in the tile bit data, the upper limit of the maximum encoding block size and the number of division hierarchies is decoded by decoding the information. May be determined.
Next, the variable length code decoding unit 61 decodes the encoding mode assigned to the maximum encoding block multiplexed in the tile bit data, and determines the maximum encoding block included in the encoding mode. Information indicating the division state (tile division control information) is decoded.

可変長符号復号部61は、最大符号化ブロックの分割状態を示す情報を復号すると、最大符号化ブロックの分割状態に基づいて、階層的に分割されている復号対象ブロック(図2のタイル符号化部5−nの「符号化対象ブロック」に相当するブロック)を特定する(ステップST51)。
また、可変長符号復号部61は、復号対象ブロックの分割状態に基づいて、その復号対象ブロックを更に1つないし複数の予測処理単位に分割し、符号化対象ブロック単位又は予測処理単位に割り当てられている符号化パラメータを復号する(ステップST51)。
可変長符号復号部61は、復号対象ブロック(符号化対象ブロック)に割り当てられている符号化モード(符号化モードは符号化パラメータに含まれている)がイントラ符号化モードである場合、その復号対象ブロックに含まれている1つ以上のパーティション毎にイントラ予測パラメータを復号する。
一方、復号対象ブロックに割り当てられている符号化モードがインター符号化モードである場合、復号対象ブロック毎、あるいは、その復号対象ブロックに含まれている1つ以上のパーティション毎にインター予測パラメータを復号する(ステップST51)。
When the variable length code decoding unit 61 decodes the information indicating the division state of the maximum coding block, the variable length code decoding unit 61 hierarchically divides the decoding target block (the tile coding of FIG. 2) based on the division state of the maximum coding block. The block corresponding to the “encoding target block” of the unit 5-n is specified (step ST51).
The variable-length code decoding unit 61 further divides the decoding target block into one or more prediction processing units based on the division state of the decoding target block, and assigns the decoding target block to the encoding target block unit or the prediction processing unit. The encoded parameters are decoded (step ST51).
When the encoding mode (the encoding mode is included in the encoding parameter) assigned to the decoding target block (the encoding target block) is the intra encoding mode, the variable length code decoding unit 61 performs the decoding thereof. The intra prediction parameter is decoded for each of one or more partitions included in the target block.
On the other hand, when the encoding mode assigned to the decoding target block is the inter encoding mode, the inter prediction parameter is decoded for each decoding target block or for each of one or more partitions included in the decoding target block. (Step ST51).

さらに、可変長符号復号部61は、符号化パラメータに含まれている予測差分符号化パラメータ内の変換ブロックサイズの情報に基づいて、予測処理単位となるパーティションを変換処理単位となる1つないし複数のパーティションに分割し、変換処理単位となるパーティション毎に量子化後係数を復号する(ステップST51)。
可変長符号復号部61は、タイルビットデータに多重化されているフィルタパラメータを復号して、そのフィルタパラメータをループフィルタ部67に出力する(ステップST51)。
また、可変長符号復号部61は、タイル復号開始部43により分配された独立タイルフラグを切換スイッチ62及びループフィルタ部67に出力する。
Furthermore, the variable-length code decoding unit 61 uses one or more partitions that are prediction processing units as transform processing units based on information on transform block sizes in the prediction difference coding parameters included in the coding parameters. Then, the quantized coefficients are decoded for each partition as a conversion processing unit (step ST51).
The variable length code decoding unit 61 decodes the filter parameter multiplexed on the tile bit data, and outputs the filter parameter to the loop filter unit 67 (step ST51).
The variable-length code decoding unit 61 outputs the independent tile flag distributed by the tile decoding start unit 43 to the changeover switch 62 and the loop filter unit 67.

なお、タイル復号開始部43から出力されたタイルビットデータがコンテキスト適応型算術符号など、過去のブロックの符号化結果によって内部状態が変化する符号化方式を用いて符号化されている場合、可変長符号復号部61の内部状態の初期値は、図2の可変長符号化部30と同様の値を使用する。よって、カレントタイルの独立タイルフラグがONである場合には、他のタイルからの状態の引継ぎが行われない。
また、符号化パラメータを復号する際に、隣接ブロックや、時間的に近接しているフレームの同位置ブロックの符号化パラメータを参照して、パラメータ値を予測する処理を実施するが、独立タイルフラグがONである場合、図12に示すように、カレントタイルと異なる位置のタイルに属するブロックのパラメータ参照を行わず、パラメータ参照が不要な特定の予測処理を実施する(図2の可変長符号化部30と同様の予測処理を実施する)。
In addition, when the tile bit data output from the tile decoding start unit 43 is encoded using an encoding method in which the internal state changes depending on the past block encoding results, such as a context adaptive arithmetic code, the variable length The initial value of the internal state of the code decoding unit 61 uses the same value as that of the variable length coding unit 30 in FIG. Therefore, when the independent tile flag of the current tile is ON, the state is not inherited from other tiles.
In addition, when decoding the encoding parameter, a process for predicting the parameter value is performed by referring to the encoding parameter of the adjacent block or the same position block of the temporally adjacent frame. 12 is ON, as shown in FIG. 12, a specific prediction process that does not require parameter reference is performed without referring to the parameter of a block belonging to a tile at a position different from the current tile (the variable-length encoding in FIG. 2). The same prediction process as that of the unit 30 is performed).

切換スイッチ62は、可変長符号復号部61により可変長復号された符号化モードm(B)がイントラ符号化モードであれば(m(B)∈INTRAの場合)、可変長符号復号部61により可変長復号されたイントラ予測パラメータ及び独立タイルフラグをイントラ予測部63に出力する(ステップST52)。
一方、可変長符号復号部61により可変長復号された符号化モードm(B)がインター符号化モードであれば(m(B)∈INTERの場合)、可変長符号復号部61により可変長復号されたインター予測パラメータ、動きベクトル及び独立タイルフラグを動き補償部64に出力する(ステップST52)。
If the encoding mode m (B n ) variable-length decoded by the variable-length code decoding unit 61 is an intra encoding mode (when m (B n ) ∈INTRA), the changeover switch 62 is a variable-length code decoding unit. The intra prediction parameter and the independent tile flag variable-length decoded by 61 are output to the intra prediction unit 63 (step ST52).
On the other hand, if the encoding mode m (B n ) subjected to variable length decoding by the variable length code decoding unit 61 is an inter encoding mode (in the case of m (B n ) ∈INTER), the variable length code decoding unit 61 can change the encoding mode m (B n ). The long-decoded inter prediction parameter, motion vector, and independent tile flag are output to the motion compensation unit 64 (step ST52).

イントラ予測部63は、可変長符号復号部64により可変長復号された符号化モードm(B)がイントラ符号化モードであり(m(B)∈INTRAの場合)、切換スイッチ62からイントラ予測パラメータ及び独立タイルフラグを受けると、図2のイントラ予測部24と同様の手順で、フレーム内参照メモリ46に格納されているイントラ参照画像(ループフィルタ処理を実施する前のカレントフレームの復号画像)を参照しながら、そのイントラ予測パラメータを用いて、復号対象ブロックB内の各パーティションP に対するイントラ予測処理を実施して、イントラ予測画像PINTRAi を生成する(ステップST53)。
ただし、イントラ予測部63は、参照先の画素が他のタイルに属する画素である場合、切換スイッチ62から出力された独立タイルフラグに応じて予測処理を切り替えるようにする。
In the intra prediction unit 63, the encoding mode m (B n ) that has been subjected to variable length decoding by the variable length code decoding unit 64 is an intra encoding mode (when m (B n ) ∈INTRA), When receiving the prediction parameter and the independent tile flag, the intra reference image stored in the intraframe reference memory 46 (the decoded image of the current frame before the loop filter process is performed) is performed in the same procedure as the intra prediction unit 24 in FIG. with reference to) the intra using the prediction parameters, to implement the intra prediction process for each partition P i n the decoding target block B n, it generates an intra prediction image P INTRAi n (step ST53).
However, the intra prediction unit 63 switches the prediction process according to the independent tile flag output from the changeover switch 62 when the reference destination pixel is a pixel belonging to another tile.

即ち、イントラ予測部63は、独立タイルフラグがOFFである場合、図2のイントラ予測部24と同様に、参照先となる他のタイルの復号画像が生成されて、その復号画像がフレーム内参照メモリ46に格納されるまで待機し、その復号画像がフレーム内参照メモリ46に格納されると、その復号画像における参照先の画素を用いてイントラ予測処理を実施する。
一方、独立タイルフラグがONである場合、図2のイントラ予測部24と同様に、他のタイルの復号画像における画素の参照が不要なイントラ予測処理を実施する。
例えば、タイル端におけるイントラ予測処理では、参照したい隣接の画素が、隣のタイル(他のタイル)の復号画像内の画素である場合があるが、独立タイルフラグがONであれば、当該画素を参照することができないので、イントラ予測処理を別のイントラ予測処理に切り替えるようにすればよい。別のイントラ予測処理としては、例えば、隣接画素の参照が不要な画面端でのイントラ予測処理や、その他の隣接画素の参照が不要なイントラ予測処理などが考えられる。
That is, when the independent tile flag is OFF, the intra prediction unit 63 generates a decoded image of another tile to be referred to as in the case of the intra prediction unit 24 in FIG. The process waits until the decoded image is stored in the memory 46. When the decoded image is stored in the intra-frame reference memory 46, intra prediction processing is performed using the reference pixel in the decoded image.
On the other hand, when the independent tile flag is ON, an intra prediction process that does not need to refer to pixels in the decoded image of another tile is performed in the same manner as the intra prediction unit 24 in FIG.
For example, in the intra prediction process at the tile end, the adjacent pixel to be referred to may be a pixel in the decoded image of the adjacent tile (other tile), but if the independent tile flag is ON, the pixel is Since it cannot be referred to, the intra prediction process may be switched to another intra prediction process. As another intra prediction process, for example, an intra prediction process at a screen edge that does not need to refer to adjacent pixels, an intra prediction process that does not need to refer to other adjacent pixels, and the like can be considered.

動き補償部64は、可変長符号復号部31により可変長復号された符号化モードm(B)がインター符号化モードであり(m(B)∈INTERの場合)、切換スイッチ62からインター予測パラメータ、動きベクトル及び独立タイルフラグを受けると、フレーム間参照メモリ48に格納されているフィルタリング処理後の復号画像を参照しながら、その動きベクトルとインター予測パラメータを用いて、復号対象ブロックB又はパーティションP に対するインター予測処理を実施してインター予測画像PINTERi を生成する(ステップST54)。
ただし、動き補償部64は、復号対象ブロックB内の全てのパーティションP に対して、共通のインター予測モードと共通の参照画像指示インデックスが決定されている場合、その参照画像指示インデックスが示す全てのパーティションP で共通の参照画像と、パーティションP 毎の動きベクトルとを用いて、当該パーティションP に対するイントラ予測処理を実施してイントラ予測画像PINTERi を生成する。
In the motion compensation unit 64, the encoding mode m (B n ) variable-length decoded by the variable-length code decoding unit 31 is the inter encoding mode (when m (B n ) ∈INTER), and the changeover switch 62 receives the inter When the prediction parameter, the motion vector, and the independent tile flag are received, the decoding target block B n is referred to using the motion vector and the inter prediction parameter while referring to the decoded image after the filtering process stored in the inter-frame reference memory 48. or partition P i to implement the inter-prediction process for n generates an inter prediction image P INTERi n (step ST54).
However, the motion compensation unit 64, for all the partitions P i n the decoding target block B n, if the common reference picture indication index and the common inter prediction mode is determined, its reference picture indication index a common reference picture in all the partitions P i n that indicates, by using the motion vector for each partition P i n, to implement intra prediction processing for the partitions P i n to generate an intra prediction image P INTERi n.

なお、動き補償部64は、上記のインター予測処理を実施する際、図2の動き補償予測部25と同様に、切換スイッチ62から出力された独立タイルフラグに応じて予測処理を切り替えるようにする。
即ち、動き補償部64は、独立タイルフラグがOFFである場合、予測画像を生成する上で、参照画像の制限がないので、動きベクトルが指し示す画素がカレントタイル外の画素であっても、その画素を用いて予測画像を生成するようにする。
一方、独立タイルフラグがONである場合、予測画像を生成する上で、参照画像の制限があるため(カレントタイル外の画素を用いる予測画像の生成が禁止されている)、図12に示すように、動きベクトルがカレントタイル外の画素を指し示していても、その画素を参照しないようにする。
そこで、動き補償部64は、動きベクトルがカレントタイル外の画素を指し示している場合、カレントタイル内の画素を用いて、画素の補間処理を実施することで、動きベクトルが指し示している画素の値を算出するようにする。
画素補間処理としては、例えば、カレントタイル境界の画素を引き伸ばすパディング処理などが考えられる。
Note that the motion compensation unit 64 switches the prediction process according to the independent tile flag output from the changeover switch 62 in the same manner as the motion compensation prediction unit 25 in FIG. .
That is, when the independent tile flag is OFF, the motion compensator 64 has no restriction on the reference image in generating the predicted image. Therefore, even if the pixel indicated by the motion vector is a pixel outside the current tile, A predicted image is generated using pixels.
On the other hand, when the independent tile flag is ON, there is a restriction on the reference image in generating the predicted image (generation of the predicted image using pixels outside the current tile is prohibited), so as shown in FIG. Even if the motion vector points to a pixel outside the current tile, the pixel is not referred to.
Therefore, when the motion vector indicates a pixel outside the current tile, the motion compensation unit 64 performs pixel interpolation processing using the pixel in the current tile, so that the value of the pixel indicated by the motion vector is indicated. Is calculated.
As the pixel interpolation process, for example, a padding process for extending a pixel at the current tile boundary can be considered.

逆量子化・逆変換部65は、可変長符号復号部61から量子化後係数及び予測差分符号化パラメータを受けると、図2の逆量子化・逆変換部28と同様の手順で、その予測差分符号化パラメータを参照して、その量子化後係数を逆量子化するとともに、その予測差分符号化パラメータを参照して、逆量子化後の変換係数に対する逆直交変換処理を実施して、図2の減算部26から出力された予測差分信号に相当する復号予測差分信号を算出する(ステップST55)。   When the inverse quantization / inverse transform unit 65 receives the quantized coefficient and the prediction differential encoding parameter from the variable length code decoding unit 61, the inverse quantization / inverse transform unit 65 performs the prediction in the same procedure as the inverse quantization / inverse transform unit 28 in FIG. With reference to the differential encoding parameter, the quantized coefficient is dequantized, and with reference to the prediction differential encoding parameter, an inverse orthogonal transform process is performed on the dequantized transform coefficient. 2 calculates a decoded prediction difference signal corresponding to the prediction difference signal output from the subtracting unit 26 (step ST55).

加算部66は、逆量子化・逆変換部65により算出された復号予測差分信号が示す差分画像と、イントラ予測部63により生成されたイントラ予測画像PINTRAi 、または、動き補償部64により生成されたインター予測画像PINTERi とを加算して、復号対象ブロック内に含まれる1つないし複数の復号パーティション画像の集まりとして、復号画像をフレーム内参照メモリ46に格納する(ステップST56)。
この復号画像が、イントラ予測処理及びループフィルタ処理の参照元画像信号になる。
Addition unit 66, a differential image indicated by the decoded prediction difference signal calculated by the inverse quantization and inverse transform unit 65, or the intra prediction image P INTRAi n, generated by the intra prediction unit 63, generated by the motion compensation section 64 It has been by adding the inter prediction image P INTERi n, as a collection of one or more of the decoded partition image included in the decoding target block, and stores the decoded image in the frame in the reference memory 46 (step ST56).
This decoded image becomes a reference source image signal for intra prediction processing and loop filter processing.

ループフィルタ部67は、全ての符号化対象ブロックBに対するステップST51〜ST56の処理が完了すると(ステップST57,ST58)、フレーム内参照メモリ46に格納されているカレントタイル及び他のタイルの復号画像(ループフィルタ処理前の復号画像)を用いて、可変長符号復号部61から出力されたフィルタパラメータに基づき、カレントタイルに対して、0種以上のループフィルタ処理を実施し、ループフィルタ処理後の復号画像をフレーム間参照メモリ48及びタイル復号終了部47に出力する(ステップST59)。
ただし、ループフィルタ部31は、図2のループフィルタ部31と同様に、可変長符号復号部61から出力された独立タイルフラグに応じてフィルタリング処理を切り替えるようにする。
Loop filter unit 67, the process of step ST51~ST56 of all the coding target block B n is completed (step ST57, ST58), the decoded image of the current tile and the other tiles stored in the reference memory 46 frame (Decoded image before loop filter processing) is used to perform zero or more types of loop filter processing on the current tile based on the filter parameters output from the variable-length code decoding unit 61, and after the loop filter processing The decoded image is output to the inter-frame reference memory 48 and the tile decoding end unit 47 (step ST59).
However, similarly to the loop filter unit 31 of FIG. 2, the loop filter unit 31 switches the filtering process according to the independent tile flag output from the variable length code decoding unit 61.

即ち、ループフィルタ部67は、独立タイルフラグがOFFである場合、ループフィルタ処理を実施する上で、参照画像の制限がないので、カレントタイル外の画素についても参照してフィルタリング処理を実施する。
一方、独立タイルフラグがONである場合、ループフィルタ処理を実施する上で、参照画像の制限があるため(カレントタイル外の画素の参照が禁止されている)、カレントタイル内の画素だけを参照してフィルタリング処理を実施する。
例えば、タイル端のフィルタリング処理などにおいて、カレントタイル外の画素の参照が必要な場合には、カレントタイル境界の画素(カレントタイル内の画素)を引き伸ばすパディング処理などの画素補間処理を実施して、参照したいカレントタイル外の画素の値を算出するようにすれば、カレントタイル内の画素だけを参照してフィルタリング処理を実施することができる。
あるいは、ループフィルタ部67のフィルタ形状を変更することで、カレントタイル外の画素の参照を不要にすれば、カレントタイル内の画素だけを参照してフィルタリング処理を実施することができる。
独立タイルフラグがONである場合のタイル端の特別な処理は、動画像符号化装置と動画像復号装置で一致させる必要がある。
That is, when the independent tile flag is OFF, the loop filter unit 67 performs the filtering process with reference to the pixels outside the current tile because the reference image is not limited in performing the loop filter process.
On the other hand, when the independent tile flag is ON, there is a restriction on the reference image in performing the loop filter process (referencing pixels outside the current tile is prohibited), so only the pixels within the current tile are referenced. To implement the filtering process.
For example, when it is necessary to refer to pixels outside the current tile in filtering processing at the edge of the tile, etc., pixel interpolation processing such as padding processing that stretches pixels at the current tile boundary (pixels in the current tile) is performed, If the value of the pixel outside the current tile to be referred to is calculated, the filtering process can be performed with reference to only the pixel within the current tile.
Alternatively, if the filter shape of the loop filter unit 67 is changed to make it unnecessary to refer to pixels outside the current tile, the filtering process can be performed with reference to only the pixels within the current tile.
The special processing of the tile edge when the independent tile flag is ON needs to be matched between the moving image encoding device and the moving image decoding device.

タイル復号部45−nの復号処理において、独立タイルフラグがONである場合、上記のイントラ予測処理、インター予測処理及び可変長復号処理を含む如何なる処理においても、カレントタイルと異なるタイルに属するブロックの符号化パラメータ、復号画像及び動き補償予測参照画像の参照を行わないようにする。
タイル端での参照処理は、図2のタイル符号化部5−nと同様に参照が不要な処理に置き換えられるようにする。どのような処理に置き換えられるかは、動画像符号化装置と動画像復号装置で一致させる必要があるが、動画像符号化装置と動画像復号装置で固定的に同じ処理を行ってもよいし、処理内容を示す信号をシグナリングするようにしてもよい。
以上より、独立タイルフラグがONになっているタイル復号部45−nの処理は、そのタイルで独立しており、独立に復号処理が可能である。
In the decoding process of the tile decoding unit 45-n, when the independent tile flag is ON, in any process including the intra prediction process, the inter prediction process, and the variable length decoding process, a block belonging to a tile different from the current tile is used. The encoding parameter, the decoded image, and the motion compensated prediction reference image are not referred to.
The reference process at the tile end is replaced with a process that does not need to be referenced as in the tile encoding unit 5-n in FIG. The type of processing that needs to be replaced needs to be matched between the video encoding device and the video decoding device, but the same processing may be fixedly performed by the video encoding device and the video decoding device. A signal indicating the processing content may be signaled.
As described above, the processing of the tile decoding unit 45-n in which the independent tile flag is ON is independent for the tile and can be decoded independently.

以上で明らかなように、この実施の形態1によれば、動画像符号化装置では、分離されたタイルのうち、符号化制御部1により設定された独立タイルフラグが他のタイルに関する情報をフレーム内/フレーム間で参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報をフレーム内/フレーム間で参照せずに独立に実行し、その独立タイルフラグが他のタイルに関する情報をフレーム内/フレーム間で参照しながら符号化処理を行う旨を示しているタイルが与えられた場合、そのタイルの符号化処理を他のタイルに関する情報をフレーム内/フレーム間で参照しながら実行するように構成したので、動画像復号装置側では、ランダムアクセスポイント以降の連続したフレームにおいて、特定の位置のタイルを、他のタイルが正常に復号されているか否かに関わらず独立して復号することが可能な符号化データを生成することができる効果を奏する。   As is apparent from the above, according to the first embodiment, in the moving picture coding apparatus, the independent tile flag set by the coding control unit 1 among the separated tiles is framed with information on other tiles. When a tile indicating that encoding processing is performed without reference within or between frames is given, the encoding processing of the tile is performed independently without referring to information about other tiles within or between frames. Executed, if a tile indicating that the independent tile flag is to be encoded while referring to information on other tiles within / between frames is given to the tile Since the video decoding device side is configured to execute information while referring to the information on the intraframe / between frames, the continuous frame after the random access point is In an effect that can generate encoded data capable of independently decoding regardless tiles at a specific position, of whether the other tiles are decoded successfully.

一方、動画像復号装置では、可変長符号分離部41により分離された各タイルのタイルビットデータのうち、独立タイルフラグが他のタイルに関する情報をフレーム内/フレーム間で参照しないで符号化処理を行う旨を示しているタイルのタイルビットデータが与えられた場合、そのタイルビットデータから上記タイルを復号する処理を他のタイルに関する情報をフレーム内/フレーム間で参照せずに独立に実行し、独立タイルフラグが他のタイルに関する情報をフレーム内/フレーム間で参照しながら符号化処理を行う旨を示しているタイルのタイルビットデータが与えられた場合、そのタイルビットデータから上記タイルを復号する処理を他のタイルに関する情報をフレーム内/フレーム間で参照しながら実行するように構成したので、ランダムアクセスポイント以降の連続したフレームにおいて、特定の位置のタイルを、他のタイルが正常に復号されているか否かに関わらず独立して復号することができる効果を奏する。   On the other hand, in the video decoding device, the tile processing of the tiles separated by the variable-length code separation unit 41 is performed by the independent tile flag without referring to information on other tiles within / between frames. When tile bit data of a tile indicating to be performed is given, a process of decoding the tile from the tile bit data is independently executed without referring to information on other tiles within / between frames, When tile bit data of a tile indicating that encoding processing is performed while an independent tile flag refers to information on another tile within / between frames, the tile is decoded from the tile bit data. Since the process is configured to be executed while referring to information on other tiles within / between frames, In successive frames of random access point later, an effect that can tile at a particular position, independently decoding regardless of whether the other tiles are decoded successfully.

即ち、この実施の形態1によれば、動画像符号化装置により生成されたビットストリームが動画像復号装置に与えられた場合、動画像復号装置において、画面全体を復号することができる一方で、独立タイルフラグがONであるタイルだけを独立して復号することも可能である。
常に一部のタイルだけを独立に復号し、画面全体を復号することがなければ、動画像復号装置において、画面全体を復号する際に必要となるメモリやCPU等のリソースを低減することも可能である。
That is, according to the first embodiment, when the bit stream generated by the video encoding device is given to the video decoding device, the video decoding device can decode the entire screen, It is also possible to independently decode only tiles for which the independent tile flag is ON.
If only a part of tiles is always independently decoded and the entire screen is not decoded, it is possible to reduce resources such as memory and CPU required for decoding the entire screen in the video decoding device. It is.

実施の形態2.
上記実施の形態1の動画像符号化装置では、独立タイルフラグ=OFFのタイル、独立タイルフラグ=ONのタイルの2種類のタイルが存在し、独立タイルフラグ=OFFのタイルはフレーム間参照において制約がなく、独立タイルフラグ=ONのタイルは、フレーム間参照において、カレントタイル外の画素及び符号化パラメータの参照が禁止されるように構成されている。このように符号化装置を構成することで、動画像復号装置では、ランダムアクセスポイント間の連続するフレームにおいて、独立タイルフラグ=ONのタイルのみを、他のタイルに依存せずに復号することを可能とするストリームを作成することができる。
ただし、独立タイルフラグ=ONのタイルは、フレーム間参照における制約が大きいため、符号化効率に対する影響が大きいという問題がある。
この実施の形態2では、タイル分割して、タイルによってフレーム間参照における参照位置に制約を設ける点は上記実施の形態1に準ずるが、参照位置の制約を緩和した動画像符号化装置及び動画像復号装置について説明する。
Embodiment 2. FIG.
In the moving picture coding apparatus of the first embodiment, there are two types of tiles, that is, an independent tile flag = OFF tile and an independent tile flag = ON tile, and the independent tile flag = OFF tile is restricted in interframe reference. There is no tile, and the independent tile flag = ON tile is configured so that reference to pixels outside the current tile and encoding parameters is prohibited in inter-frame reference. By configuring the encoding device in this way, the moving image decoding device can decode only tiles with independent tile flag = ON without depending on other tiles in consecutive frames between random access points. Streams that can be created can be created.
However, a tile with the independent tile flag = ON has a problem in that it has a great influence on the coding efficiency because the restriction on inter-frame reference is large.
The second embodiment is similar to the first embodiment in that the tiles are divided and the reference positions in the inter-frame reference are constrained by the tiles in the same way as in the first embodiment. A decoding apparatus will be described.

図13(b)は実施の形態2における、フレーム間参照における参照先制約の概要を示している。
まず、この実施の形態2においては、タイル毎に、独立タイルフラグに替わり「タイル階層インデックス」を設定する。「タイル階層インデックス」は、タイルの復号優先度を示す情報であり、図13(b)では、インデックスの値が小さいほど、優先度が高い例を示している。
ここで、図13(b)の下部に示すように、各タイルにおいて、フレーム間参照の際に、カレントタイルのタイル階層インデックスよりも大きなインデックスを持つタイル位置の画素及び符号化パラメータの参照を禁止し、自身と同じインデックス、または、小さいインデックスを持つタイル位置の画素及び符号化パラメータは自由に参照できるように構成する。また各タイルのタイル階層インデックスは、ランダムアクセスポイント間の連続するフレームにおいて同じ値を設定するとともに、独立タイルフラグに替わってビットストリームに多重化するように構成する。
FIG. 13B shows an outline of reference destination restrictions in interframe reference in the second embodiment.
First, in the second embodiment, a “tile hierarchy index” is set for each tile instead of the independent tile flag. The “tile level index” is information indicating the decoding priority of tiles. FIG. 13B shows an example in which the priority is higher as the index value is smaller.
Here, as shown in the lower part of FIG. 13B, in each tile, when referring between frames, it is prohibited to refer to a pixel at a tile position having an index larger than the tile hierarchy index of the current tile and an encoding parameter. However, the pixel and the encoding parameter of the tile position having the same index as that of itself or a small index and the encoding parameter can be freely referred to. In addition, the tile hierarchy index of each tile is set to the same value in consecutive frames between random access points, and is configured to be multiplexed in the bitstream instead of the independent tile flag.

このように構成された動画像符号化装置により作成されたビットストリームを復号する際には、各タイルのタイル階層インデックス情報に基づき、ランダムアクセスポイント以降の連続したフレームにおいて、画像の特定の位置のタイルのみを、その他のタイルを復号せずとも正常に復号することが可能となる。
その他の構成は、上記実施の形態1の図1,図2に示す動画像符号化装置、及び図3,図4に示す動画像復号装置に準ずる。
When decoding the bitstream created by the moving image coding apparatus configured as described above, a specific image position is determined in successive frames after the random access point based on the tile hierarchy index information of each tile. Only tiles can be normally decoded without decoding other tiles.
Other configurations are in accordance with the moving picture coding apparatus shown in FIGS. 1 and 2 and the moving picture decoding apparatus shown in FIGS.

この実施の形態2における発明の効果について説明する。
図13(b)の例では、最も復号優先度の高いタイル階層インデックス=0のタイルは、タイル階層インデックス=0のタイルのみを復号することで正しく復号することが可能となる。
タイル階層インデックス=3のタイルは、タイル階層インデックス=0,1,2,3のタイルのみを復号することで正しく復号することが可能となる。
よって、図13(b)の例に示すように、例えば、画面中央に重要な情報が存在しており、画面周辺部の情報は、プラットフォームに合わせて表示・非表示を切り替えたい場合などに、重要度の高い領域ほど段階的にタイル階層インデックスを小さくするようにビットストリームを構成することで、特定タイルのみの復号をいくつかのバリエーションで実施することが可能となる。
また、タイル間参照の制約が上記実施の形態1で示す動画像符号化装置よりも少ないため、独立に復号したいタイル位置がある程度決まっている用途などにおいては、符号化効率の低下を抑えたまま特定タイルのみを復号することが可能なビットストリームを生成することができる効果を奏する。
The effect of the invention in the second embodiment will be described.
In the example of FIG. 13B, the tile with the highest decoding priority, the tile hierarchy index = 0, can be correctly decoded by decoding only the tile with the tile hierarchy index = 0.
The tile with the tile hierarchy index = 3 can be correctly decoded by decoding only the tiles with the tile hierarchy index = 0, 1, 2, 3.
Therefore, as shown in the example of FIG. 13B, for example, there is important information in the center of the screen, and information on the periphery of the screen is to be displayed / hidden according to the platform. By configuring the bitstream so that the tile hierarchy index is gradually reduced in the region of higher importance, it is possible to perform decoding of only a specific tile in several variations.
In addition, since the restriction of inter-tile reference is less than that of the moving picture encoding apparatus shown in the first embodiment, in a case where the tile position to be decoded independently is determined to some extent, etc., the deterioration of the encoding efficiency is suppressed. There is an effect that a bit stream capable of decoding only a specific tile can be generated.

実施の形態3.
上記実施の形態1の動画像符号化装置では、前述の通り、符号化効率が低下するという問題があり、上記実施の形態2の動画像符号化装置では、符号化効率の低下はある程度抑えられるものの、独立に復号できるタイルの位置の自由度が低いという問題がある。
この実施の形態3では、符号化効率の低下をある程度抑制し、かつ、高い自由度で独立に復号できるタイルを選択することが可能な動画像符号化装置について説明する。
図13(c)は実施の形態3における、フレーム間参照における参照先制約の概要を示している。
Embodiment 3 FIG.
As described above, the moving picture coding apparatus according to the first embodiment has a problem that the coding efficiency is reduced. In the moving picture coding apparatus according to the second embodiment, the reduction in coding efficiency can be suppressed to some extent. However, there is a problem that the degree of freedom of tile positions that can be decoded independently is low.
In the third embodiment, a video encoding apparatus that can suppress a decrease in encoding efficiency to some extent and can select a tile that can be independently decoded with a high degree of freedom will be described.
FIG. 13C shows an outline of reference destination restrictions in interframe reference in the third embodiment.

まず、この実施の形態3においては、タイル毎に、上記実施の形態1の独立タイルフラグに替わり「タイル間参照タイプ情報」を設定する。「タイル間参照タイプ情報」は、符号化処理及び復号処理において、タイル境界を跨る参照の制約を定める情報である。この実施の形態3においては、以下の3種のタイル間参照タイプが存在する。
(1)非独立タイル(図13(c)のD):タイル間の参照に制約がないタイル
フレーム内/フレーム間参照において、どのタイル位置の情報でも参照可能。
ただし、別のフラグにおいて、フレーム内/フレーム間参照が禁止されている場合は
その限りではない。上記実施の形態1における独立タイルフラグ=OFFのタイルに等
しい。
(2)独立タイル(図13(c)のI):タイル境界を跨る参照が全て禁止されるタイル
上記実施の形態1における独立タイルフラグ=ONのタイルに等しい。
(3)準独立タイル(図13(c)のS):隣接する独立タイルのみが参照可能なタイル
独立タイルであっても、カレントタイルに隣接していない場合は参照が禁止される。
First, in the third embodiment, “inter-tile reference type information” is set for each tile instead of the independent tile flag of the first embodiment. The “inter-tile reference type information” is information that defines reference restrictions across tile boundaries in the encoding process and the decoding process. In the third embodiment, there are the following three inter-tile reference types.
(1) Non-independent tile (D in FIG. 13C): Tile with no restriction on reference between tiles Information on any tile position can be referred to in intra-frame / inter-frame reference.
However, this does not apply if intra-frame / inter-frame references are prohibited in other flags. Equivalent to independent tile flag = OFF tile in the first embodiment.
(2) Independent tile (I in FIG. 13C): a tile in which all references across the tile boundary are prohibited. This is equivalent to the independent tile flag = ON tile in the first embodiment.
(3) Semi-independent tile (S in FIG. 13C): a tile in which only an adjacent independent tile can be referred to. Even if an independent tile is not adjacent to the current tile, reference is prohibited.

各タイルのタイル間参照タイプ情報は、ランダムアクセスポイント間の連続するフレームにおいて同じ値を設定するとともに、上記実施の形態1の独立タイルフラグに替わってビットストリームに多重化するように構成する。
なお、非独立タイルは、特定のタイルを独立に復号するという機能を使用しない場合の為に用意されたタイル間参照タイプである。以下、独立タイルおよび準独立タイルの効果について説明する。
The inter-tile reference type information of each tile is configured to be set to the same value in consecutive frames between random access points and multiplexed into a bitstream instead of the independent tile flag of the first embodiment.
The non-independent tile is an inter-tile reference type prepared for the case where the function of independently decoding a specific tile is not used. Hereinafter, effects of the independent tile and the semi-independent tile will be described.

図14(a)は、独立タイルと準独立タイルの配置例を示している。
市松模様状であったり、タイル列毎に独立タイルと準独立タイルを切り替えるような配置であったりしているが、このように準独立タイルが独立タイルと隣接するように配置することが望ましい。
このように配置した場合、全ての準独立タイルは隣接する独立タイルをフレーム内/フレーム間で参照できるため、符号化効率の低下を抑えることが可能である。
FIG. 14A shows an arrangement example of independent tiles and semi-independent tiles.
The checkered pattern is used, or the arrangement is such that the independent tile and the quasi-independent tile are switched for each tile row. In this way, it is desirable that the quasi-independent tile is adjacent to the independent tile.
When arranged in this way, since all quasi-independent tiles can refer to adjacent independent tiles within a frame / between frames, a reduction in encoding efficiency can be suppressed.

上記のように構成された動画像符号化装置により、図14(a)のように、タイル間参照タイプ情報として独立タイル及び準独立タイルのみが指定されて符号化されたビットストリームを復号する際、図14(b)のように、表示対象領域が指定された場合、その表示対象領域に隣接したタイルまでを含んだ領域を復号対象領域として復号すれば、復号対象領域外のタイルを復号せずとも、表示対象領域は独立に正しく復号される。なぜならば、独立タイルは他のタイルが復号されなくとも正常に復号が可能であり、かつ、準独立タイルは隣接する(正常な復号が保証された)独立タイルのみを参照するためである。なお、復号対象領域に含まれるが、表示対象領域には含まれない準独立タイルは正しい復号が保証されない。   When a moving picture encoding apparatus configured as described above decodes a bitstream encoded by specifying only independent tiles and semi-independent tiles as inter-tile reference type information as shown in FIG. 14A. As shown in FIG. 14B, when a display target area is designated, if a region including up to a tile adjacent to the display target region is decoded as a decoding target region, tiles outside the decoding target region can be decoded. At least, the display target area is correctly decoded independently. This is because independent tiles can be normally decoded without decoding other tiles, and quasi-independent tiles refer only to adjacent independent tiles (in which normal decoding is guaranteed). Note that quasi-independent tiles that are included in the decoding target area but not included in the display target area are not guaranteed to be correctly decoded.

以上より、この実施の形態3の動画像符号化装置は、独立タイルと準独立タイルを用いて符号化することで、独立タイルのみを用いて符号化した場合よりも高い符号化効率で符号化することを可能とする効果を奏する。この実施の形態3の動画像復号装置は、前記動画像符号化装置が作成したビットストリームを復号する際、ランダムアクセスポイント以降の連続したフレームにおいて、任意のタイルを、それら及びそれらに隣接するタイルのみを復号することで正常に復号することを可能とする効果を奏する。   As described above, the moving picture coding apparatus according to the third embodiment performs coding with higher coding efficiency than when coding using only independent tiles by encoding using independent tiles and semi-independent tiles. The effect which enables it to do is produced. When decoding the bitstream created by the moving image encoding apparatus, the moving image decoding apparatus according to the third embodiment assigns arbitrary tiles, tiles adjacent to them, in consecutive frames after the random access point. Decoding only this produces the effect of enabling normal decoding.

その他、本願発明における動画像符号化装置は、上記実施の形態1,2,3に記述した構成以外にも、符号化制御手段が各タイルに対して、タイル間参照の制約条件を示す「タイル間参照制約情報」を独立または共通に決定し、タイル符号化手段が、カレントタイルのタイル間参照制約情報が指定するタイルに対するフレーム内/フレーム間参照を禁止しながら符号化を実施し、可変長符号多重化手段が、タイル毎に決定されたタイル間参照制約情報をビットストリームに多重化して動画像復号装置に伝達する機能を有するように構成することができる。また、動画像復号装置における、特定のタイルの復号という処理に有効なヒント情報を、必要に応じてビットストリームに多重化するように構成することができる。
また、本願発明における動画像復号装置は、上記実施の形態1,2,3に記述した構成以外にも、ビットストリームに多重化された「タイル間参照制約情報」、および必要に応じてユーザが指定した復号タイル指定情報に基づいて、連続するフレームで特定のタイルのみを、その他のタイルが復号されていなくとも独立かつ正常に復号するように構成することができる。その際に、必要に応じてストリームに多重化されたヒント情報を使用するように構成することができる。
In addition to the configurations described in the first, second, and third embodiments, the moving image encoding apparatus according to the present invention is not limited to the “tile” in which the encoding control means indicates the inter-tile reference constraint condition for each tile. "Inter-reference constraint information" is determined independently or in common, and the tile encoding means performs encoding while prohibiting intra-frame / inter-frame reference to the tile specified by the inter-tile reference constraint information of the current tile, and is variable length The code multiplexing means can be configured to have a function of multiplexing the inter-tile reference constraint information determined for each tile into a bit stream and transmitting the multiplexed information to the video decoding device. In addition, hint information effective for the process of decoding a specific tile in the moving image decoding apparatus can be configured to be multiplexed into a bitstream as necessary.
In addition to the configurations described in the first, second, and third embodiments, the moving picture decoding apparatus according to the present invention has “inter-tile reference constraint information” multiplexed in a bitstream, and a user can Based on the designated decoding tile designation information, only a specific tile in a continuous frame can be configured to be decoded independently and normally even if other tiles are not decoded. At that time, the hint information multiplexed in the stream can be used as necessary.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 符号化制御部(フラグ設定手段)、2 タイル分割部(画像分割手段)、3 タイル符号化開始部(画像分割手段)、4 タイル符号化装置、5−1〜5−N タイル符号化部(タイル符号化手段)、6 フレーム内参照メモリ、7 タイル符号化終了部(多重化手段)、8 可変長符号多重化部(多重化手段)、9 フレーム間参照メモリ、21 タイル符号化制御部、22 ブロック分割部、23 切換スイッチ、24 イントラ予測部、25 動き補償予測部、26 減算部、27 変換・量子化部、28 逆量子化・逆変換部、29 加算部、30 可変長符号化部、31 ループフィルタ部、41 可変長符号分離部(分離手段)、42 タイル分割部、43 タイル復号開始部(データ分配手段)、44 タイル復号装置、45−1〜45−N タイル復号部(タイル復号手段)、46 フレーム内参照メモリ、47 タイル復号終了部、48 フレーム間参照メモリ、61 可変長符号復号部、62 切換スイッチ、63 イントラ予測部、64 動き補償部、65 逆量子化・逆変換部、66 加算部、67 ループフィルタ部。   DESCRIPTION OF SYMBOLS 1 Coding control part (flag setting means), 2 Tile division part (Image division means), 3 Tile encoding start part (Image division means), 4 Tile coding apparatus, 5-1 to 5-N Tile coding part (Tile coding means), 6 frame reference memory, 7 tile coding end section (multiplexing means), 8 variable length code multiplexing section (multiplexing means), 9 interframe reference memory, 21 tile coding control section , 22 block division unit, 23 changeover switch, 24 intra prediction unit, 25 motion compensation prediction unit, 26 subtraction unit, 27 transform / quantization unit, 28 inverse quantization / inverse transform unit, 29 addition unit, 30 variable length coding Unit, 31 loop filter unit, 41 variable length code separation unit (separation unit), 42 tile division unit, 43 tile decoding start unit (data distribution unit), 44 tile decoding device, 45-1 to 45- Tile decoding unit (tile decoding means), 46 intra-frame reference memory, 47 tile decoding end unit, 48 inter-frame reference memory, 61 variable length code decoding unit, 62 changeover switch, 63 intra prediction unit, 64 motion compensation unit, 65 inverse Quantization / inverse transform unit, 66 adder unit, 67 loop filter unit.

Claims (11)

符号化対象の画像が分割される矩形の領域であるタイル毎に、他のタイルに関する情報を参照しながら符号化処理を行うか否かを示すフラグを設定するフラグ設定手段と、
分離されたタイルのうち、上記フラグ設定手段により設定されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、上記タイルの符号化処理を他のタイルに関する情報を参照せずに独立に実行し、上記フラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルが与えられた場合、上記タイルの符号化処理を他のタイルに関する情報を参照しながら実行するタイル符号化手段と、
上記タイル符号化手段により符号化された各タイルの符号化データ及び上記フラグ設定手段により設定された各タイルのフラグを多重化してビットストリームを生成する多重化手段と
を備えた動画像符号化装置。
Flag setting means for setting a flag indicating whether or not to perform encoding processing with reference to information on other tiles for each tile that is a rectangular area into which an image to be encoded is divided;
Among the separated tiles, when a tile that indicates that the flag set by the flag setting unit indicates that the encoding process is performed without referring to information on other tiles is performed, the tile encoding process is performed. If the tile is executed independently without referring to the information regarding other tiles and the flag indicates that the encoding processing is performed while referring to the information regarding the other tiles, the encoding processing of the tile is performed. Tile encoding means for performing the steps with reference to information on other tiles;
A video encoding device comprising: multiplexing means for multiplexing the encoded data of each tile encoded by the tile encoding means and the flag of each tile set by the flag setting means to generate a bitstream .
複数のタイル符号化手段を実装するとともに、
符号化対象の画像を複数のタイルに分割し、分割後のタイルを上記複数のタイル符号化手段に分配する画像分割手段を備え、
上記複数のタイル符号化手段は、フラグ設定手段により設定されたフラグにしたがって、上記画像分割手段により分配されたタイルの符号化処理を並列に実行する
ことを特徴とする請求項1記載の動画像符号化装置。
While implementing multiple tile encoding means,
An image dividing unit that divides an image to be encoded into a plurality of tiles and distributes the divided tiles to the plurality of tile encoding units;
2. The moving image according to claim 1, wherein the plurality of tile encoding units execute, in parallel, encoding processing of tiles distributed by the image dividing unit in accordance with the flag set by the flag setting unit. Encoding device.
タイル符号化手段は、フラグ設定手段により設定されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、他のタイル内に存在している画素を参照しないで上記タイルの予測画像を生成し、上記タイルと上記予測画像の差分画像を量子化して符号化することを特徴とする請求項1または請求項2記載の動画像符号化装置。   The tile encoding unit is present in another tile when the flag set by the flag setting unit is given a tile indicating that the encoding process is performed without referring to information on the other tile. 3. The moving picture coding apparatus according to claim 1, wherein a predicted image of the tile is generated without referring to a pixel, and a difference image between the tile and the predicted image is quantized and coded. タイル符号化手段は、量子化後の差分画像を逆量子化して、逆量子化後の差分画像と予測画像からタイルの局所復号画像を生成し、上記局所復号画像の歪みを低減するループフィルタ処理を実施する際、他のタイルの局所復号画像を参照しないでループフィルタ処理を実施することを特徴とする請求項3記載の動画像符号化装置。   The tile encoding means inversely quantizes the difference image after quantization, generates a local decoded image of the tile from the difference image after dequantization and the prediction image, and loop filter processing that reduces distortion of the local decoded image 4. The moving picture coding apparatus according to claim 3, wherein the loop filter process is performed without referring to a locally decoded image of another tile. ビットストリームに多重化された各タイルの符号化データ及びフラグを分離する分離手段と、
上記分離手段により分離された各タイルの符号化データのうち、上記フラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルの符号化データが与えられた場合、上記符号化データから上記タイルを復号する処理を他のタイルに関する情報を参照せずに独立に実行し、上記フラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルの符号化データが与えられた場合、上記符号化データから上記タイルを復号する処理を他のタイルに関する情報を参照しながら実行するタイル復号手段と
を備えた動画像復号装置。
Separating means for separating encoded data and flags of each tile multiplexed in the bitstream;
Of the encoded data of each tile separated by the separating means, when the encoded data of a tile indicating that the flag is to be encoded without referring to information on other tiles is given, The process of decoding the tile from the encoded data is independently executed without referring to the information regarding the other tile, and the flag indicates that the encoding process is performed while referring to the information regarding the other tile. And a tile decoding unit that executes a process of decoding the tile from the encoded data with reference to information on other tiles when the encoded data is given.
タイル復号手段は、復号対象のタイルを指定する復号タイル指定情報を受けると、上記復号タイル指定情報が指定するタイルであって、上記タイルのフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示している場合に限り、上記タイルの復号処理を実施することを特徴とする請求項5記載の動画像復号装置。   When the tile decoding means receives the decoding tile designation information designating the decoding target tile, the tile decoding means designates the tile designated by the decoding tile designation information, and the tile flag does not refer to information on other tiles. 6. The moving picture decoding apparatus according to claim 5, wherein the tile decoding process is performed only when it is indicated that the process is performed. 複数のタイル復号手段を実装するとともに、
分離手段により分離された各タイルの符号化データ及びフラグを上記複数のタイル復号手段に分配するデータ分配手段を備え、
上記複数のタイル復号手段は、上記データ分配手段により分配されたフラグにしたがって、上記データ分配手段により分配された符号化データからタイルを復号する処理を並列に実行する
ことを特徴とする請求項5または請求項6記載の動画像復号装置。
While implementing multiple tile decoding means,
Data distribution means for distributing the encoded data and flag of each tile separated by the separation means to the plurality of tile decoding means;
6. The plurality of tile decoding units, in parallel, execute a process of decoding tiles from encoded data distributed by the data distribution unit according to a flag distributed by the data distribution unit. Or the moving image decoding apparatus of Claim 6.
タイル復号手段は、分離手段により分離されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルの符号化データが与えられた場合、他のタイル内に存在している画素を参照しないで上記タイルの予測画像を生成し、上記符号化データと上記予測画像からタイルを復号する
ことを特徴とする請求項5から請求項7のうちのいずれか1項記載の動画像復号装置。
The tile decoding means is present in the other tile when the encoded data of the tile indicating that the flag separated by the separating means performs the coding process without referring to the information on the other tile is given. The predictive image of the tile is generated without referring to a pixel that is present, and the tile is decoded from the encoded data and the predictive image. 8. Video decoding device.
タイル復号手段は、分離手段により分離された符号化データを復号して逆量子化することで差分画像を生成するとともに、上記差分画像と予測画像からタイルの復号画像を生成し、上記復号画像の歪みを低減するループフィルタ処理を実施する際、他のタイルの復号画像を参照しないでループフィルタ処理を実施することを特徴とする請求項8記載の動画像復号装置。   The tile decoding unit generates a differential image by decoding and inverse-quantizing the encoded data separated by the separating unit, and also generates a decoded image of the tile from the differential image and the predicted image. 9. The moving picture decoding apparatus according to claim 8, wherein when performing the loop filter process for reducing distortion, the loop filter process is performed without referring to a decoded image of another tile. フラグ設定手段が、符号化対象の画像が分割される矩形の領域であるタイル毎に、他のタイルに関する情報を参照しながら符号化処理を行うか否かを示すフラグを設定するフラグ設定処理ステップと、
タイル符号化手段が、分離されたタイルのうち、上記フラグ設定処理ステップで設定されたフラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルが与えられた場合、上記タイルの符号化処理を他のタイルに関する情報を参照せずに独立に実行し、上記フラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルが与えられた場合、上記タイルの符号化処理を他のタイルに関する情報を参照しながら実行するタイル符号化処理ステップと、
多重化手段が、上記タイル符号化処理ステップで符号化された各タイルの符号化データ及び上記フラグ設定処理ステップで設定された各タイルのフラグを多重化してビットストリームを生成する多重化処理ステップと
を備えた動画像符号化方法。
Flag setting processing step in which the flag setting means sets a flag indicating whether or not to perform encoding processing with reference to information on other tiles for each tile that is a rectangular area into which the image to be encoded is divided. When,
When the tile encoding means is given a tile indicating that the flag set in the flag setting process step performs the encoding process without referring to the information on the other tile among the separated tiles, When the tile encoding process is executed independently without referring to information on other tiles and the flag indicates that the encoding process is performed while referring to information on other tiles. Tile encoding processing step for executing the tile encoding processing with reference to information on other tiles;
A multiplexing processing step in which a multiplexing means multiplexes the encoded data of each tile encoded in the tile encoding processing step and the flag of each tile set in the flag setting processing step to generate a bitstream; A video encoding method comprising:
分離手段が、ビットストリームに多重化された各タイルの符号化データ及びフラグを分離する分離処理ステップと、
タイル復号手段が、上記分離処理ステップで分離された各タイルの符号化データのうち、上記フラグが他のタイルに関する情報を参照しないで符号化処理を行う旨を示しているタイルの符号化データが与えられた場合、上記符号化データから上記タイルを復号する処理を他のタイルに関する情報を参照せずに独立に実行し、上記フラグが他のタイルに関する情報を参照しながら符号化処理を行う旨を示しているタイルの符号化データが与えられた場合、上記符号化データから上記タイルを復号する処理を他のタイルに関する情報を参照しながら実行するタイル復号処理ステップと
を備えた動画像復号方法。
A separation processing step for separating the encoded data and the flag of each tile multiplexed in the bitstream;
Of the encoded data of each tile separated in the separation processing step, the tile decoding means has the encoded data of the tile indicating that the flag performs the encoding process without referring to the information on other tiles. If given, the process of decoding the tile from the encoded data is executed independently without referring to the information about other tiles, and the flag performs the encoding process while referring to the information about other tiles. And a tile decoding process step of executing a process of decoding the tile from the encoded data with reference to information on other tiles when the encoded data of the tile indicating .
JP2013073042A 2013-03-29 2013-03-29 Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image Pending JP2014197795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013073042A JP2014197795A (en) 2013-03-29 2013-03-29 Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013073042A JP2014197795A (en) 2013-03-29 2013-03-29 Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image

Publications (1)

Publication Number Publication Date
JP2014197795A true JP2014197795A (en) 2014-10-16

Family

ID=52358316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013073042A Pending JP2014197795A (en) 2013-03-29 2013-03-29 Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image

Country Status (1)

Country Link
JP (1) JP2014197795A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155939A1 (en) * 2017-02-22 2018-08-30 에스케이텔레콤 주식회사 Image decoding method and apparatus
WO2019004283A1 (en) * 2017-06-28 2019-01-03 シャープ株式会社 Video encoding device and video decoding device
US11509913B2 (en) 2017-02-22 2022-11-22 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155939A1 (en) * 2017-02-22 2018-08-30 에스케이텔레콤 주식회사 Image decoding method and apparatus
US11509913B2 (en) 2017-02-22 2022-11-22 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream
US11985335B2 (en) 2017-02-22 2024-05-14 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream
US11985334B2 (en) 2017-02-22 2024-05-14 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream
US11985336B2 (en) 2017-02-22 2024-05-14 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream
US11991372B2 (en) 2017-02-22 2024-05-21 Sk Telecom Co., Ltd. Method and apparatus for video decoding of area of interest in a bitstream
WO2019004283A1 (en) * 2017-06-28 2019-01-03 シャープ株式会社 Video encoding device and video decoding device
US11184636B2 (en) 2017-06-28 2021-11-23 Sharp Kabushiki Kaisha Video encoding device and video decoding device

Similar Documents

Publication Publication Date Title
JP6615287B2 (en) Image decoding device
JP6573689B2 (en) Image coding apparatus and image coding method
KR101893664B1 (en) Video decoding device
JP7012809B2 (en) Image coding device, moving image decoding device, moving image coding data and recording medium
US20140247876A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
KR19980080014A (en) Method and apparatus for coding a digital video picture such as bi-directionally predicted video object plane
KR20130076879A (en) Dynamic image encoding device, dynamic image decoding device, dynamic image encoding method, and dynamic image decoding method
KR20210052566A (en) Inter mode based video encoding/decoding method and apparatus
JP2012080213A (en) Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method
JP2012186763A (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2019022129A (en) Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, moving picture decoding method, moving picture coding computer program, and moving picture decoding computer program
US20150271502A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP2014197795A (en) Dynamic image encoder, dynamic image decoder, method for encoding dynamic image, and method for decoding dynamic image
WO2012176387A1 (en) Video encoding device, video decoding device, video encoding method and video decoding method
JP2015076781A (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP2015008341A (en) Moving image encoding device, moving image decoding device, moving image encoding method, and moving image decoding method
JP2013102269A (en) Color video encoding device, color video decoding device, color video encoding method, and color video decoding method
JP2013168931A (en) Image encoding device, image encoding method, and image encoding program