JP2018125877A - 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 - Google Patents
動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 Download PDFInfo
- Publication number
- JP2018125877A JP2018125877A JP2018058223A JP2018058223A JP2018125877A JP 2018125877 A JP2018125877 A JP 2018125877A JP 2018058223 A JP2018058223 A JP 2018058223A JP 2018058223 A JP2018058223 A JP 2018058223A JP 2018125877 A JP2018125877 A JP 2018125877A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- unit
- prediction
- encoding
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 170
- 238000013139 quantization Methods 0.000 description 120
- 230000008569 process Effects 0.000 description 112
- 230000003044 adaptive effect Effects 0.000 description 107
- 239000011159 matrix material Substances 0.000 description 43
- 239000013598 vector Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 11
- 238000001914 filtration Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/1883—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8451—Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
SVC(非特許文献1を参照)は、MPEG−4 AVC/H.264符号化方式の拡張方式として標準化されたスケーラブル符号化方式で、時間階層符号化、空間階層符号化、SNR階層符号化をサポートしている。
図24に時間階層符号化された映像データの一例を示す。図24において矢印はフレーム間予測符号化の際に参照されるフレームを示している。最初に復号されるフレーム(I0)は、フレーム内の画素値のみを使って予測するフレームであり、他のフレームを参照しない。次に復号されるフレーム(P1)は、復号済みのI0フレームを参照して予測画像を生成し、生成した予測画像との差分画像が符号化されていることを示している。次に復号されるフレーム(B2)は、復号済みのI0フレームとP1フレームの2フレームを参照して予測画像生成し、生成した予測画像との差分画像が符号化されていることを示している。以下、同様である。
なお図24において、I0,P1フレームを基本階層フレーム(T0)、B2フレームを第1階層フレーム、B3,B4フレームを第2階層フレーム、B5,B6,B7,B8を第3階層フレームと呼ぶと、基本階層フレームは同じ階層に属するフレームのみを参照して復号され、第1階層フレームは同じ階層または基本階層フレームに属するフレームのみを参照して復号され、以下同様に同じ階層またはそれ以下の階層フレームに属するフレームのみを参照して復号される。
すべての階層のフレームを復号すれば映像データ内のすべてのフレームを復号することができるが、基本階層フレームに属するフレームのみを復号すれば、全体の1/8のフレームが復号され、基本階層と第1階層に属するフレームを復号すれば、全体1/4のフレームが復号され、復号する階層を増やせば増やすほど、動きのなめらかな映像が復号されるように符号化されている。
以上のように時間階層符号化された映像データは、一部のフレームを抽出して復号できるように構成されたものなので、スケーラブル符号化に対応していない復号装置でも映像データを正しく復号することができる。
なお映像データの先頭に付加される上位ヘッダのパラメータセットに当該映像データが階層的に符号化されている場合の最大階層数や各階層に属するフレームがより上の階層に属するフレームを参照画像として使用するかどうかを示すフラグを符号化しておくことにより、スケーラブル符号化に対応した復号装置で、映像データがスケーラブルに構成されているかどうか、スケーラブルに構成されている場合にどの程度の荒さで復号することができるかどうかを判断することができる。
例えば非特許文献2では、時間階層符号化された映像データの最大階層数や階層間の参照関係を示すフラグを符号化するためのパラメータセット(ビデオパラメータセット)をシーケンスレベルのパラメータセットより上位で符号化するようにしている。
図25は従来の時間階層符号化された映像データを生成する動画像符号化装置の構成を示すブロック図である。
ビデオパラメータセット符号化部101は、映像データの最大階層数や各階層に属するフレームがより上の階層の属するフレームを参照画像として使用するかどうかを示すフラグを符号化する。
シーケンスパラメータセット符号化部102は、シーケンスがどのビデオパラメータセットを参照するかどうかの識別番号と映像データのシーケンス全体に関わるパラメータ(映像データの解像度など)を符号化する。
基本階層フレーム符号化部103は、参照するシーケンスパラメータセットの識別番号と基本階層に属するフレームを符号化する。
上位階層フレーム符号化部104は、基本階層フレーム符号化部103と同様に上位階層に属するフレームを符号化する。
を得ることを目的とする。
図1はこの発明の実施の形態1による動画像符号化装置を示す構成図である。
図1において、スライス分割部14は入力画像として映像信号を入力すると、その入力画像を符号化制御部2により決定されたスライス分割情報にしたがって1以上の“スライス”という部分画像に分割する処理を実施する。スライスの分割単位は、後述する符号化ブロック単位まで細かくすることができる。なお、スライス分割部14はスライス分割手段を構成している。
即ち、ブロック分割部1はスライスを符号化制御部2により決定された分割に応じて各符号化ブロックに分割して、その符号化ブロックを出力する処理を実施する。また、各符号化ブロックは予測処理単位となる1つないし複数の予測ブロックに分割される。
なお、ブロック分割部1はブロック分割手段を構成している。
また、符号化制御部2は選択可能な1以上の符号化モード(予測処理単位を示す予測ブロックのサイズなどが異なる1以上のイントラ符号化モード、予測ブロックのサイズなどが異なる1以上のインター符号化モード)の中から、ブロック分割部1から出力される符号化ブロックに適用する符号化モードを選択する処理を実施する。選択手法の例としては、選択可能な1以上の符号化モードの中から、ブロック分割部1から出力される符号化ブロックに対する符号化効率が最も高い符号化モードを選択する手法がある。
さらに、符号化制御部2は変換・量子化部7及び逆量子化・逆変換部8に与える予測差分符号化パラメータを決定する処理を実施する。予測差分符号化パラメータには、符号化ブロックにおける直交変換処理単位となる直交変換ブロックの分割情報を示す直交変換ブロック分割情報や、変換係数の量子化を行う際の量子化ステップサイズを規定する量子化パラメータなどが含まれる。
なお、符号化制御部2は符号化制御手段を構成している。
なお、イントラ予測部4、イントラ予測用メモリ10、動き補償予測部5及び動き補償予測フレームメモリ12から予測手段が構成されている。
変換・量子化部7は符号化制御部2により決定された予測差分符号化パラメータに含まれる直交変換ブロック分割情報を参照して、減算部6から出力された予測差分信号に対する直交変換処理(例えば、DCT(離散コサイン変換)やDST(離散サイン変換)、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を直交変換ブロック単位に実施して変換係数を算出するとともに、その予測差分符号化パラメータに含まれる量子化パラメータを参照して、その直交変換ブロック単位の変換係数を量子化し、量子化後の変換係数である圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する処理を実施する。
なお、変換・量子化部7は画像圧縮手段を構成している。
したがって、変換・量子化部7は、各直交変換サイズに対して色信号や符号化モード毎に、新しい量子化マトリクスを用いるか否かを示すフラグ情報を符号化すべき量子化マトリクスパラメータに設定する。
そして、変換・量子化部7は、設定した量子化マトリクスパラメータを適応パラメータセットの一部として可変長符号化部13に出力する。
加算部9は逆量子化・逆変換部8により算出された局所復号予測差分信号と、イントラ予測部4により生成されたイントラ予測画像、または、動き補償予測部5により生成されたインター予測画像とを加算して、ブロック分割部1から出力された符号化ブロックに相当する局所復号画像を算出する処理を実施する。
なお、逆量子化・逆変換部8及び加算部9から局所復号画像生成手段が構成されている。
ループフィルタ部11は加算部9により算出された局所復号画像に対して、所定のフィルタ処理を実施して、フィルタ処理後の局所復号画像を出力する処理を実施する。
具体的には、直交変換ブロックの境界や予測ブロックの境界に発生する歪みを低減するフィルタ(デブロッキングフィルタ)処理、画素単位に適応的にオフセットを加算する(画素適応オフセット)処理、ウィーナフィルタ等の線形フィルタを適応的に切り替えてフィルタ処理する適応フィルタ処理などを行う。
一般に使用するフィルタ処理の種類が多いほど、画像品質は向上するが、一方で処理負荷は高くなる。即ち、画像品質と処理負荷はトレードオフの関係にある。また、各フィルタ処理の画像品質改善効果はフィルタ処理対象画像の特性によって異なる。したがって、動画像符号化装置が許容する処理負荷や符号化処理対象画像の特性にしたがって使用するフィルタ処理を決めればよい。
なお、ループフィルタ部11はフィルタリング手段を構成している。
画素適応オフセット処理では、最初に、画像を複数のブロックに分割し、そのブロック単位に、オフセット処理を行わない場合もクラス分類手法の一つとして定義して、予め用意されている複数のクラス分類手法の中から、1つのクラス分類手法を選択する。
次に、選択したクラス分類手法によって、ブロック内の各画素をクラス分類し、クラス毎に符号化歪みを補償するオフセット値を算出する。
最後に、局所復号画像の輝度値に対して、そのオフセット値を加算する処理を行うことで局所復号画像の画像品質を改善する。
したがって、画素適応オフセット処理では、ブロック分割情報、各ブロックのクラス分類手法を示すインデックス、ブロック単位の各クラスのオフセット値を特定するオフセット情報を符号化すべき適応パラメータセットの一部として可変長符号化部13に出力する。
なお、画素適応オフセット処理において、例えば、最大符号化ブロックといった固定サイズのブロック単位に常に分割して、そのブロック毎にクラス分類手法を選択して、クラス毎の適応オフセット処理を行ってもよい。この場合、上記のブロック分割情報が不要になり、ブロック分割情報に要する符号量分だけ符号量を削減することができる。
そして、クラス毎に設計したフィルタを符号化すべき適応パラメータセットの一部として可変長符号化部13に出力する。
クラス分類手法としては、画像を空間的に等間隔に区切る簡易な手法や、ブロック単位に画像の局所的な特性(分散など)に応じて分類する手法がある。
また、適応フィルタ処理で使用するクラス数は、予め動画像符号化装置及び動画像復号装置に共通の値として設定してもよいし、符号化すべき適応パラメータセットの一部としてもよい。
前者と比較して後者の方が、使用するクラス数を自由に設定することができるため、画像品質改善効果が上がるが、一方でクラス数を符号化するために、その分の符号量が増加する。
即ち、固定サイズのブロック内を分割した複数の小ブロック単位に画像の局所的な特性(分散など)に応じてクラス分類し、クラス毎にフィルタ設計及びフィルタ処理を行うようにして、固定サイズのブロック毎に、各クラスのフィルタを適応パラメータセットの一部として符号化するようにしてもよい。
このようにすることで、画像全体に対してクラス分類及びフィルタ設計・処理を実施する場合よりも、局所的な性質に応じた高精度なフィルタ処理を実現することができる。
なお、画素適応オフセット処理及び適応フィルタ処理を行う場合には、映像信号をループフィルタ部11で参照する必要があるため、映像信号がループフィルタ部11に入力されるように、図1の動画像符号化装置を変更する必要がある。
可変長符号化部13は変換・量子化部7から出力された圧縮データと、符号化制御部2の出力信号(最大符号化ブロック内のブロック分割情報、符号化モード、予測差分符号化パラメータ、イントラ予測パラメータ又はインター予測パラメータ)と、動き補償予測部5から出力された動きベクトル(符号化モードがインター符号化モードである場合)とを可変長符号化して符号化データを生成する。
また、可変長符号化部13は、図3に例示するように、符号化ビットストリームのヘッダ情報として、ビデオパラメータセット、シーケンスレベルヘッダ、ピクチャレベルヘッダ、適応パラメータセットを符号化し、ピクチャデータと共に符号化ビットストリームを生成する。
なお、可変長符号化部13は可変長符号化手段を構成している。
シーケンスレベルヘッダは、画像サイズ、色信号フォーマット、輝度信号や色差信号の信号値のビット深度、シーケンス単位でのループフィルタ部11における各フィルタ処理(適応フィルタ処理、画素適応オフセット処理、デブロッキングフィルタ処理)の有効フラグ情報、量子化マトリクスの有効フラグ情報など、一般的にシーケンス単位に共通となるヘッダ情報をまとめたものである。
ピクチャレベルヘッダは、参照するシーケンスレベルヘッダのインデックスや動き補償時の参照ピクチャ数、エントロピー符号化の確率テーブル初期化フラグなど、ピクチャ単位で設定するヘッダ情報をまとめたものである。
適応パラメータセットは、適応フィルタ処理、画素適応オフセット処理、デブロッキングフィルタ処理に関わるパラメータ(フィルタパラメータ)及び量子化マトリクスに関わるパラメータ(量子化マトリクスパラメータ)が存在するか否かのフラグをそれぞれ持ち、上記フラグが“有効”であるパラメータのみ対応するパラメータを持つパラメータセットである。さらに、適応パラメータセットは符号化ビットストリームに多重化されている複数の適応パラメータセットを識別するためのインデックス(aps_id)も持つ。
ビデオパラメータセットは、時間階層符号化に関わるパラメータやその他スケーラブル符号化に関わるパラメータ、マルチビュー符号化に関わるパラメータなど異なる階層に属するピクチャに関わる情報をまとめたものである。さらに、ビデオパラメータセットは符号化ビットストリームに多重化されている複数のビデオパラメータセットを識別するためのインデックス(video_parameteter_set_id)も持つ。
図4にNALユニットの構成を示す。NALユニットはヘッダ部とペイロードデータ部から構成され、ヘッダ部にはペイロードデータ部に入っている符号化データの種類、すなわち、ビデオパラメータセット、シーケンスレベルヘッダ、ピクチャレベルヘッダ、適応パラメータセット、スライスデータのいずれの符号化データかを示すタイプ情報などが含まれる。ペイロードデータ部には、タイプ情報で示された種類の符号化データが含まれる。ヘッダ部にはタイプ情報の他に参照フラグや階層識別番号などが含まれる。参照フラグは、ペイロードデータに含まれる符号化データがスライスデータの場合に、そのスライスデータを復号して得られるフレームが他のフレームから参照されるフレームであるか否かを示すフラグである。階層識別番号は映像データが時間階層符号化されている場合にどの階層に関連した符号化データであるかを示す番号である。例えば符号化データがスライスデータであって、そのスライスが基本階層に属するフレームのスライスデータである場合には基本階層に関連した符号化データであるので、基本階層を示す「0」を階層識別番号として符号化する。
図5はこの発明の実施の形態1による動画像符号化装置の処理内容(動画像符号化方法)を示すフローチャートである。
図6において、可変長復号部31は図1の動画像符号化装置により生成された符号化ビットストリームを入力すると、そのビットストリームからNALユニットの単位にビデオパラメータセット、シーケンスレベルヘッダ、ピクチャレベルヘッダ、適応パラメータセット、スライスレベルヘッダなどの各ヘッダ情報を復号するとともに、そのビットストリームから、階層的に分割されている各々の符号化ブロックの分割状況を示すブロック分割情報を可変長復号する。
このとき、可変長復号部31によって可変長復号された適応パラメータセット内の量子化マトリクスパラメータから、当該適応パラメータセットの量子化マトリクスを特定する。具体的には、各直交変換サイズの色信号や符号化モード毎に、量子化マトリクスパラメータが初期値として予め動画像符号化装置及び動画像復号装置で共通に用意されている量子化マトリクス、または、既に復号された量子化マトリクスである(新しい量子化マトリクスでない)ことを示す場合は、上記適応パラメータセットに含まれる上記マトリクスの内のどの量子化マトリクスであるかを特定するインデックス情報を参照して量子化マトリクスを特定し、量子化マトリクスパラメータが新しい量子化マトリクスを用いることを示す場合は、量子化マトリクスパラメータに含まれる量子化マトリクスを使用する量子化マトリクスとして特定する。
また、可変長復号部31は、各ヘッダ情報を参照して、スライスデータに含まれる最大復号ブロック(図1の動画像符号化装置の「最大符号化ブロック」に相当するブロック)を特定し、ブロック分割情報を参照して、最大復号ブロックを階層的に分割して復号処理を行う単位である復号ブロック(図1の動画像符号化装置の「符号化ブロック」に相当するブロック)を特定し、各々の復号ブロックに係る圧縮データ、符号化モード、イントラ予測パラメータ(符号化モードがイントラ符号化モードである場合)、インター予測パラメータ(符号化モードがインター符号化モードである場合)、予測差分符号化パラメータ及び動きベクトル(符号化モードがインター符号化モードである場合)を可変長復号する処理を実施する。なお、可変長復号部31は可変長復号手段を構成している。
具体的には、各ヘッダ情報から特定される当該スライスで参照する適応パラメータセットの量子化マトリクスを用いて逆量子化処理を行う。
なお、イントラ予測部34、イントラ予測用メモリ37、動き補償部35及び動き補償予測フレームメモリ39から予測手段が構成されている。
ループフィルタ部38は加算部36により算出された復号画像に対して、所定のフィルタ処理を実施して、フィルタ処理後の復号画像を出力する処理を実施する。
具体的には、直交変換ブロックの境界や予測ブロックの境界に発生する歪みを低減するフィルタ(デブロッキングフィルタ)処理、画素単位に適応的にオフセットを加算する(画素適応オフセット)処理、ウィーナフィルタ等の線形フィルタを適応的に切り替えてフィルタ処理する適応フィルタ処理などを行う。
ただし、ループフィルタ部38は、上記のデブロッキングフィルタ処理、画素適応オフセット処理、適応フィルタ処理のそれぞれについて、可変長復号部31により可変長復号された各ヘッダ情報を参照して、当該スライスで行うか否かを特定する。
なお、図1の動画像符号化装置において、ループフィルタ部38で使用するフィルタパラメータをヘッダ情報の一つである適応パラメータセットの一部として符号化するのではなく、スライス単位に使用するフィルタパラメータをそれぞれ直接スライスデータで符号化している場合は、可変長復号部31はスライスデータからループフィルタ部38で使用するフィルタパラメータを復号する。
このとき、2つ以上のフィルタ処理を行う場合において、動画像符号化装置のループフィルタ部11が図2のように構成されていれば、図7に示すようにループフィルタ部38が構成される。
なお、ループフィルタ部38はフィルタリング手段を構成している。
なお、クラス分類手法の候補として、ループフィルタ部11の画素適応オフセット処理のクラス分類手法の候補と同一のものが予め用意されている。
そして、ブロック単位の各クラスのオフセット値を特定するオフセット情報(適応パラメータセットに含まれているオフセット情報)を参照して、復号画像の輝度値にオフセットを加算する処理を行う。
ただし、動画像符号化装置のループフィルタ部11の適応フィルタ処理において、上記のクラス分類及びフィルタ設計・処理を画像全体に対してではなく、例えば、最大符号化ブロックといった固定サイズのブロック毎に行うように構成されている場合、ループフィルタ部38においても、ループフィルタ部11と同一の固定サイズのブロック毎に、各クラスで用いるフィルタを復号して上記クラス分類及びフィルタ処理を行う。
図8はこの発明の実施の形態1による動画像復号装置の処理内容(動画像復号方法)を示すフローチャートである。
この実施の形態1では、映像の各フレーム画像を入力画像として、符号化済みの近傍画素からのイントラ予測又は近接フレーム間での動き補償予測を実施して、得られた予測差分信号に対して直交変換・量子化による圧縮処理を施し、その後、可変長符号化を行って符号化ビットストリームを生成する動画像符号化装置と、その動画像符号化装置から出力される符号化ビットストリームを復号する動画像復号装置について説明する。
一般的に、映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を有している。空間的に見ると、ある映像フレーム上では、例えば、空や壁などのような比較的広い画像領域中で均一な信号特性を有する絵柄もあれば、人物や細かいテクスチャを含む絵画など、小さい画像領域内で複雑なテクスチャパターンを有する絵柄も混在することがある。
時間的に見ても、空や壁は局所的に時間方向の絵柄の変化は小さいが、動く人物や物体は、その輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。
一方、時間的・空間的に変化の大きい画像信号パターンに対して、同一の予測パラメータを大きな画像領域に適用すると、予測の誤りが増えてしまうため、予測差分信号の符号量が増加してしまう。
したがって、時間的・空間的に変化が大きい領域では、同一の予測パラメータを適用して予測処理を行うブロックサイズを小さくして、予測に用いるパラメータのデータ量を増やし、予測差分信号の電力・エントロピーを低減する方が望ましい。
ただし、各画素の階調は、8ビットでもよいし、10ビットや12ビットなどの階調でもよい。
また、映像信号の各フレームに対応する処理データ単位を「ピクチャ」と称する。
この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレーム信号として説明を行うが、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
まず、符号化制御部2は、シーケンス内のピクチャのピクチャタイプ、符号化順、予測に使うピクチャの参照関係などのGOP(Group Of Picture)構造を決定する。例えば図24に示すようなGOP構造で時間階層符号化を行う場合を例に符号化処理の内容を説明する。
符号化制御部2は、最初のピクチャのピクチャタイプをIピクチャ(I0ピクチャ)とし、次に符号化するピクチャのピクチャタイプをPピクチャ(P1ピクチャ)とし、P1ピクチャはI0ピクチャのみを参照して予測符号化する。I0ピクチャとP1ピクチャを基本階層(T0)に属するピクチャとする。
P1ピクチャの次に符号化するピクチャのピクチャタイプはBピクチャ(B2ピクチャ)とし、B2ピクチャは第1階層(T1)に属するピクチャとする。B2ピクチャは基本階層または第1階層に属するピクチャを参照して予測符号化する。図24の例ではI0ピクチャとP1ピクチャを参照して予測符号化する。
B2ピクチャの次に符号化するピクチャのピクチャタイプはBピクチャ(B3ピクチャ)とし、B3ピクチャは第2階層(T2)に属するピクチャとする。なおB3ピクチャの次に符号化するピクチャも第2階層(T2)に属するピクチャ(B4ピクチャ)とする。
第2階層(T2)に属するピクチャは基本階層から第2階層に属するピクチャを参照して予測符号化する。
B4ピクチャの次に、B5ピクチャ、B6ピクチャ、B7ピクチャ、B8ピクチャの順に符号化する。B5ピクチャからB8ピクチャは第3階層(T3)に属するピクチャとし、基本階層から第3階層に属するピクチャを参照して予測符号化する。
以下、9枚ごとに基本階層に属するピクチャとし、基本階層の間の8枚のピクチャを第2階層から第4階層の3階層に分けて符号化する。
なお以上のようなGOP構造で時間階層符号化する場合には、復号装置側で基本階層に属するピクチャのみを正しく復号することができる。同様に基本階層と第2階層に属するピクチャのみを正しく復号することができるといったように、復号装置側はスケーラブルに復号することができる。そこで符号化制御部2は時間階層符号化されているかどうかを示すフラグを時間階層符号化されていることを示す値(例えば1)にセットして可変長符号化部へ出力する。GOP構造が時間階層符号化されていない場合には、時間階層符号化されているかどうかを示すフラグを時間階層符号化されていないことを示す値(例えば0)にセットして可変長符号化部へ出力する。
次に最大階層数や階層ごとに必要なピクチャバッファのサイズなどの情報を可変長符号化部へ出力する。図24の例では、最大階層数は4、階層ごとに必要なピクチャバッファのサイズは、参照フレーム数と各階層に属するピクチャが表示順になるまでバッファリングしておく必要があるピクチャ数によって決定される。
次に、符号化制御部2は、符号化対象となるピクチャ(カレントピクチャ)のスライス分割状態を決めると共に、ピクチャの符号化に用いる最大符号化ブロックのサイズと、最大符号化ブロックを階層分割する階層数の上限を決定する(図5のステップST1)。
最大符号化ブロックのサイズの決め方としては、例えば、入力画像の映像信号の解像度に応じて、全てのピクチャに対して同一のサイズを定めてもよいし、入力画像の映像信号の局所的な動きの複雑さの違いをパラメータとして定量化して、動きの激しいピクチャには、小さいサイズを定める一方、動きが少ないピクチャには、大きいサイズを定めるようにしてもよい。
なお、上記最大符号化ブロックのサイズと、最大符号化ブロックを階層分割する階層数の上限はシーケンスレベルヘッダなどに符号化してもよいし、符号化せずに動画像復号装置側も同一の決定処理を行うようにしてもよい。前者はヘッダ情報の符号量が増加するものの、動画像復号装置側で上記決定処理を行わずに済むため、動画像復号装置の処理負荷を抑えることができる上、動画像符号化装置側で最適な値を探索して送ることができる。後者は反対に、動画像復号装置側で上記決定処理を行うため、動画像復号装置の処理負荷が増加するものの、ヘッダ情報の符号量は増加しない。
即ち、符号化制御部2は、最大符号化ブロックサイズの画像領域毎に、先に定めた分割階層数の上限に至るまで、階層的に符号化ブロックサイズを有する符号化ブロックに分割して、各々の符号化ブロックに対する符号化モードを決定する。
符号化モードには、1つないし複数のイントラ符号化モード(総称して「INTRA」と称する)と、1つないし複数のインター符号化モード(総称して、「INTER」と称する)とがあり、符号化制御部2は、当該ピクチャで利用可能な全ての符号化モード、または、そのサブセットの中から、各々の符号化ブロックに対応する符号化モードを選択する。
符号化制御部2による符号化モードの選択方法は、公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
ただし、符号化ブロックがさらに予測処理を行う予測ブロック単位に分割される場合は、予測ブロック毎に予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択することができる。
さらに、符号化モードがイントラ符号化モードである符号化ブロックにおいては、詳細は後述するが、イントラ予測処理を行う際に予測ブロックに隣接する符号化済みの画素を用いることから、予測ブロック単位に符号化を行う必要があるため、選択可能な変換ブロックサイズは予測ブロックのサイズ以下に制限される。
また、符号化制御部2は、イントラ予測パラメータを必要に応じてイントラ予測部4に出力する。
また、符号化制御部2は、インター予測パラメータを必要に応じて動き補償予測部5に出力する。
ブロック分割部1は、スライス分割部14から各スライスを入力する毎に、そのスライスを符号化制御部2により決定された最大符号化ブロックサイズに分割し、さらに、分割した最大符号化ブロックを符号化制御部2により決定された符号化ブロックへ階層的に分割して、その符号化ブロックを出力する。
図9において、最大符号化ブロックは、「第0階層」と記されている輝度成分が(L0,M0)のサイズを有する符号化ブロックである。
最大符号化ブロックを出発点として、4分木構造で別途定める所定の深さまで、階層的に分割を行うことによって符号化ブロックを得るようにしている。
深さnにおいては、符号化ブロックはサイズ(Ln,Mn)の画像領域である。
ただし、LnとMnは、同じであってもよいし、異なっていてもよいが、図9では、Ln=Mnのケースを示している。
4分木分割を行うため、常に、(Ln+1,Mn+1)=(Ln/2,Mn/2)が成立する。
なお、RGB信号など、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(Ln,Mn)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックサイズは(Ln/2,Mn/2)になる。
複数の色成分からなるカラー映像信号の場合、符号化モードm(Bn)は、色成分毎に、それぞれ個別のモードを用いるように構成されてもよいし、全ての色成分に対し共通のモードを用いるように構成されてもよい。以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードを指すものとして説明を行う。
以降、符号化ブロックBnに属する予測ブロックをPi n(iは、第n階層における予測ブロック番号)と表記する。図9にはP0 0とP1 0の例を示している。
符号化ブロックBn内の予測ブロックの分割が、どのようになされているかは、符号化モードm(Bn)の中に情報として含まれる。
予測ブロックPi nは、全て符号化モードm(Bn)に従って予測処理が行われるが、予測ブロックPi n毎に、個別の予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択することができる。
図10(a)の点線で囲まれた矩形が各符号化ブロックを表し、各符号化ブロック内にある斜線で塗られたブロックが各予測ブロックの分割状態を表している。
図10(b)は、図10(a)の例について、階層分割によって符号化モードm(Bn)が割り当てられる状況を4分木グラフで示したものである。図10(b)の□で囲まれているノードは、符号化モードm(Bn)が割り当てられたノード(符号化ブロック)である。
この4分木グラフの情報は符号化モードm(Bn)と共に符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
一方、符号化制御部2により決定された符号化モードm(Bn)がインター符号化モードである場合(m(Bn)∈INTERの場合)、ブロック分割部1から出力された符号化ブロックBnを動き補償予測部5に出力する。
なお、動画像復号装置がイントラ予測画像PINTRAi nと全く同じイントラ予測画像を生成する必要があるため、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
イントラ予測部4の処理内容の詳細は後述する。
なお、動画像復号装置がインター予測画像PINTERi nと全く同じインター予測画像を生成する必要があるため、インター予測画像PINTERi nの生成に用いられたインター予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
また、動き補償予測部5により探索された動きベクトルも可変長符号化部13に出力されて、ビットストリームに多重化される。
また、変換・量子化部7は、その予測差分符号化パラメータに含まれる量子化パラメータを参照して、その直交変換ブロック単位の変換係数を量子化し、量子化後の変換係数である圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST7)。このとき、上記量子化パラメータから算出される量子化ステップサイズを変換係数毎にスケーリングする量子化マトリクスを用いて量子化処理を実施するようにしてもよい。
変換・量子化部7が量子化処理に量子化マトリクスを用いている場合には、逆量子化処理時においても、その量子化マトリクスを参照して、対応した逆量子化処理を実施する。
また、逆量子化・逆変換部8は、直交変換ブロック単位に逆量子化後の圧縮データである変換係数に対する逆直交変換処理(例えば、逆DCT、逆DST、逆KL変換など)を実施して、減算部6から出力された予測差分信号ei nに相当する局所復号予測差分信号を算出して加算部9に出力する(ステップST8)。
なお、加算部9は、その局所復号画像をループフィルタ部11に出力するとともに、その局所復号画像をイントラ予測用メモリ10に格納する。
この局所復号画像が、以降のイントラ予測処理の際に用いられる符号化済みの画像信号になる。
具体的には、直交変換ブロックの境界や予測ブロックの境界に発生する歪みを低減するフィルタ(デブロッキングフィルタ)処理、画素単位に適応的にオフセットを加算する(画素適応オフセット)処理、ウィーナフィルタ等の線形フィルタを適応的に切り替えてフィルタ処理する適応フィルタ処理などを行う。
一般に使用するフィルタ処理の種類が多いほど、画像品質は向上するが、一方で処理負荷は高くなる。即ち、画像品質と処理負荷はトレードオフの関係にある。また、各フィルタ処理の画像品質改善効果はフィルタ処理対象画像の特性によって異なる。したがって、動画像符号化装置が許容する処理負荷や符号化処理対象画像の特性にしたがって使用するフィルタ処理を決めればよい。
ただし、ピクチャデータは1以上のスライスデータから構成され、各スライスデータはスライスレベルヘッダと当該スライス内にある上記符号化データをまとめたものである。
ピクチャレベルヘッダは、参照するシーケンスレベルヘッダのインデックスや動き補償時の参照ピクチャ数、エントロピー符号化の確率テーブル初期化フラグ等のピクチャ単位で設定するヘッダ情報をまとめたものである。
スライスレベルヘッダは、当該スライスがピクチャのどの位置にあるかを示す位置情報、どのピクチャレベルヘッダを参照するかを示すインデックス、スライスの符号化タイプ(オールイントラ符号化、インター符号化など)、当該スライスで使用する適応パラメータセットのインデックス及び上記インデックスが示す適応パラメータセットを用いたループフィルタ部11における各フィルタ処理(適応フィルタ処理、画素適応オフセット処理、デブロッキングフィルタ処理)を行うか否かを示すフラグ情報などといったスライス単位のパラメータをまとめたものである。
そして、各適応パラメータセットは、適応フィルタ処理、画素適応オフセット処理、デブロッキングフィルタ処理に関わるそれぞれのフィルタパラメータと、量子化マトリクスパラメータとがそれぞれ存在しているか否かを示すフラグ(present_flag)を有しており、各存在フラグが“有効”の場合は、それに対応するパラメータを有している。
したがって、適応パラメータセットは、各パラメータがあるか否かを自由に設定することができる。
各スライスは、スライスレベルヘッダ内にスライスの復号処理時に参照する適応パラメータセットのインデックス(aps_id)を少なくとも1つ以上持っており、対応する適応パラメータセットを参照して、量子化処理・逆量子化処理やループフィルタ処理を実施する。
したがって、新しい適応パラメータセットを符号化する際、既に符号化された適応パラメータセットが不要の場合は、その不要な適応パラメータセットのインデックスで符号化することで、適応パラメータセットの上書き更新が可能になり、保存しなければならない適応パラメータセットの数を増やさずに済むため、使用するメモリの容量を抑えることができる。
ビデオパラメータセットには、符号化制御部2から出力された時間階層符号化されているかどうかを示すフラグと最大階層数、各階層のピクチャバッファのサイズが符号化されている。
ビデオパラメータセットには、更にそのビデオパラメータセットを参照するピクチャに基本階層が含まれているかどうかの基本階層有無フラグが符号化されている。
図3図11の例では、ビデオパラメータセットはシーケンスの先頭のみに符号化されていて、図3図11のシーケンスは基本階層と第1階層のピクチャとから構成されており、基本階層と第1階層のピクチャはビデオパラメータセット1を参照して符号化されている。この場合にはビデオパラメータセットを参照するピクチャに基本階層を含んでいるので、このビデオパラメータセットを参照するピクチャに基本階層が含まれているかどうかの基本階層有無フラグを基本階層が含まれていることを示す値(例えば1)に設定する。
図12図13の例では、シーケンスは階層単位で構成されており、シーケンスの先頭のみに符号化されているビデオパラメータセットも階層ごとに符号化されていて、基本階層のピクチャはビデオパラメータセット1を参照して符号化されている。第1階層のピクチャはビデオパラメータセット2を参照して符号化されている。この場合にはビデオパラメータセット1を参照するピクチャには基本階層が含まれているので、ビデオパラメータセット1を参照するピクチャに基本階層が含まれているかどうかの基本階層有無フラグを基本階層が含まれていることを示す値(例えば1)に設定する。またビデオパラメータセット2を参照するピクチャには基本階層が含まれていないので、ビデオパラメータセット2を参照するピクチャに基本階層が含まれているかどうかの基本階層有無フラグを基本階層が含まれていないことを示す値(例えば0)に設定する。
なお基本階層有無フラグが基本階層を含んでいないことを示している場合には、シーケンスは基本階層と1以上の階層のピクチャとから構成されている必要があるので、最大階層数は1以上の値となるように制限されていてもよい。
また別の例としては最大階層数が1以上の場合に基本階層有無フラグがビデオパラメータセットに符号化されるようにしてもよい。
ビデオパラメータセットは符号化ビットストリームに多重化されている複数のビデオパラメータセットを識別するためのインデックス(video_parameteter_set_id)も符号化する。
図12の例では、ビデオパラメータセット1とビデオパラメータセット2の識別インデックス(video_parameteter_set_id)は、同じ値をもつように符号化してもよい。すなわち、同一シーケンス内で時間階層符号化されたピクチャが参照するビデオパラメータセットの識別インデックスは同一の値となるように符号化しておく。
なお、同一シーケンス内で時間階層符号化されたピクチャが参照するビデオパラメータセットの基本階層が含まれているかどうかを示す基本階層有無フラグ以外のパラメータの値(最大階層数や各階層のピクチャバッファのサイズ、識別インデックス)は、同一の値となるように符号化しておいてもよいし、それぞれ異なる値となるように符号化しておいてもよい。
次に、図12図13の符号化ビットストリームを階層ごとに異なる回線で伝送する場合を例に説明する。ビデオパラメータセット1を参照する基本階層のピクチャに関わる符号化データを例えば電波を利用して伝送し、ビデオパラメータセット2を参照する第1階層以上の階層のピクチャに関わる符号化データを例えばIP網を利用して伝送する。
電波のみを受信して復号する復号装置では、基本階層のピクチャのみを正常に復号することができる。
電波とIP網の双方を使って受信し復号する復号装置では、電波で受信したビデオパラメータセット1を参照するピクチャの符号化データを受け取った場合には、基本階層有無フラグは基本階層が含まれていることを示しており、基本階層のピクチャを正常に復号することができる。その後、IP網で受信したビデオパラメータセット2を参照するピクチャの符号化データを受け取った場合には、基本階層有無フラグは基本階層が含まれていないことを示しているが、既に基本階層のピクチャを復号済みであるため、第1階層以上の階層のピクチャを正常に復号することができる。更に、ビデオパラメータセット1を参照するピクチャの符号化データを電波で受信する前に、IP網でビデオパラメータセット2を参照するピクチャの符号化データを受信した場合は、IP網で受信したビデオパラメータセット2を参照するピクチャの符号化データには、ビデオパラメータセット2から復号される基本階層有無フラグの値によって、基本階層のピクチャが含まれていないことがわかり、電波で受信するビデオパラメータセット1を参照するピクチャの符号化データの復号が完了していないため、その復号結果を待って復号を開始する必要があることがわかる。なお、図13の例では、基本階層と第1階層のビデオパラメータセットに基本階層有無フラグを設定した場合を説明しているが、例えば第2階層のビデオパラメータセット3に第1階層と同様の基本階層有無フラグを設定し、ビデオパラメータセット3を参照するピクチャの符号化データを先に受信した場合は、ビデオパラメータセット1を参照するピクチャの符号化データとビデオパラメータセット2を参照するピクチャの符号化データの復号結果を待って復号を開始する必要があることが分かる。
ビデオパラメータセットは、シーケンスレベルヘッダより前に符号化されていて、シーケンスレベルヘッダには参照するビデオパラメータの識別インデックス(video_parameteter_set_id)を符号化する。
なお、この基本階層有無フラグは、時間階層符号化に限らず他の階層符号化方式やマルチビュー符号化方式において、参照するピクチャに基本階層あるいはベースビューのピクチャが含まれているか否かを示すフラグとしてもよい。
例えば、ビデオパラメータセット1を参照する基本階層のピクチャに関わる符号化データを例えば電波を利用して伝送し、ビデオパラメータセット2を参照する第1、2階層のピクチャに関わる符号化データとビデオパラメータセット3を参照する第3階層のピクチャに関わる符号化データとを例えばIP網を利用して伝送する場合、図15のようにどのビデオパラメータセットの下位階層参照フラグも自分自身より下の階層のピクチャを予測の際に参照しないことを示す値に設定されていれば、IP網を利用して伝送されたデータ(サブビットストリーム1、2)を受け取った復号装置は、自分自身より下の階層のピクチャを受信済みであるか否かにかかわらず、すぐに受信したデータを復号することが可能となる。
なお、この下位階層参照フラグは時間階層符号化に限らず他の階層符号化方式やマルチビュー符号化方式において、予測に用いることができるピクチャを同じ階層あるいは同じビューに属するピクチャ間のみとすることを示すフラグとしてもよい。
また、本実施の形態1では、上記基本階層有無フラグを、基本階層が含まれていることを示す場合(例えば1)と、基本階層が含まれていないことを示す場合(例えば0)とで説明したが、基本階層が含まれていないことを示す場合(例えば1)と、基本階層が含まれていないことを示していない場合(例えば0)としてもよい。
また、本実施の形態1では、上記下位階層参照フラグを、そのビデオパラメータセットを参照する階層のピクチャが自分自身より下の階層のピクチャを予測の際に参照しないことを示す場合(例えば1)と、参照しないことを示していない場合(例えば0)とで説明したが、そのビデオパラメータセットを参照する階層のピクチャが自分自身より下の階層のピクチャを予測の際に参照しないことを示す場合(例えば1)と、参照することを示す場合(例えば0)としてもよい。
また、どちらのフラグも設定する値は、0と1が逆となってもよい。
図18は符号化ブロックBn内の各予測ブロックPi nが選択可能なイントラ予測パラメータであるイントラ予測モードの一例を示す説明図である。ただし、NIはイントラ予測モード数を表している。
図18では、イントラ予測モードのインデックス値と、そのイントラ予測モードが示す予測方向ベクトルを示しており、図18の例では、選択可能なイントラ予測モードの個数が増えるに従って、予測方向ベクトル同士の相対角度が小さくなるように設計されている。
図19はli n=mi n=4の場合の予測ブロックPi n内の画素の予測値を生成する際に用いる画素の一例を示す説明図である。
図19では、予測ブロックPi nの上の符号化済みの画素(2×li n+1)個と、左の符号化済みの画素(2×mi n)個を予測に用いる画素としているが、予測に用いる画素は、図19に示す画素より多くても少なくてもよい。
また、図19では、予測ブロックPi nの近傍の1行又は1列分の画素を予測に用いているが、2行又は2列、あるいは、それ以上の画素を予測に用いてもよい。
予測ブロックPi nに対するイントラ予測モードのインデックス値が2(平均値(DC)予測)の場合には、予測ブロックPi nの上に隣接する符号化済み画素と予測ブロックPi nの左に隣接する符号化済み画素の平均値を予測ブロックPi n内の画素の予測値として予測画像を生成する。
図19に示すように、予測ブロックPi nの左上画素を原点として、予測ブロックPi n内の相対座標を(x,y)と設定すると、予測に用いる参照画素の位置は、下記のLと隣接画素の交点になる。
図19の例では、参照画素は整数画素位置にないので、参照画素に隣接する2画素から内挿したものを予測値とする。なお、隣接する2画素のみではなく、隣接する2画素以上の画素から補間画素を生成して予測値としてもよい。
補間処理に用いる画素を多くすることで補間画素の補間精度を向上させる効果がある一方、補間処理に要する演算の複雑度が増加することから、演算負荷が大きくても高い符号化性能を要求する動画像符号化装置の場合には、より多くの画素から補間画素を生成するようにした方がよい。
なお、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータ(イントラ予測モード)は、ビットストリームに多重化するために可変長符号化部13に出力される。
ただし、色差信号で選択可能なイントラ予測パラメータ(イントラ予測モード)は輝度信号と異なっていてもよい。例えば、YUV信号4:2:0フォーマットの場合、色差信号(U、V信号)は、輝度信号(Y信号)に対して解像度を水平方向、垂直方向共に1/2に縮小した信号であり、輝度信号に比べて画像信号の複雑性が低く予測が容易であることから、選択可能なイントラ予測パラメータは輝度信号よりも少ない数としてイントラ予測パラメータを符号化するのに要する符号量の削減や、予測処理の低演算化を図ってもよい。
可変長復号部31は、図1の動画像符号化装置により生成された符号化ビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して(図8のステップST21)、ビデオパラメータセットとして符号化されたシーケンス内のピクチャが時間階層符号化されているかどうかを示すフラグや最大階層数、階層ごとに必要なピクチャバッファのサイズ、そのビデオパラメータセットを参照するピクチャに基本階層が含まれているかどうかを示す基本階層有無フラグなどの情報及びフレームサイズの情報などの1フレーム以上のピクチャから構成されるシーケンス単位のヘッダ情報(シーケンスレベルヘッダ)及びピクチャ単位のヘッダ情報(ピクチャレベルヘッダ)、適応パラメータセットとして符号化されたループフィルタ部38で使用するフィルタパラメータや量子化マトリクスパラメータを復号する。
また、符号化装置にてビデオパラメータセットとして、そのビデオパラメータセットを参照する階層のピクチャが自分自身より下の階層のピクチャを予測の際に参照するかどうかを示す下位階層参照フラグを符号化している場合には、そのフラグを復号する。
なお、最大階層数が1以上の場合に基本階層有無フラグがビデオパラメータセットに符号化されている場合には最大階層数が1以上の場合にのみ基本階層有無フラグを復号するようにする。
なお、基本階層有無フラグや下位階層参照フラグを復号した場合の動作やその効果については、上述の通りである。
例えば、最大符号化ブロックサイズや分割階層数の上限が映像信号の解像度に応じて決められた場合には、復号したフレームサイズ情報に基づいて、動画像符号化装置と同様の手順で最大符号化ブロックサイズを決定する。
最大符号化ブロックサイズ及び分割階層数の上限が、動画像符号化装置側でシーケンスレベルヘッダなどに多重化されている場合には、上記ヘッダから復号した値を用いる。
以降、動画像復号装置では、上記最大符号化ブロックサイズを最大復号ブロックサイズと称し、最大符号化ブロックを最大復号ブロックと称する。
可変長復号部31は、決定された最大復号ブロック単位に、図10で示されるような最大復号ブロックの分割状態を復号する。復号された分割状態に基づき、階層的に復号ブロック(図1の動画像符号化装置の「符号化ブロック」に相当するブロック)を特定する(ステップST23)。
一方、復号ブロックに割り当てられている符号化モードがインター符号化モードである場合、復号ブロックに含まれており、予測処理単位となる1つ以上の予測ブロック毎にインター予測パラメータ及び動きベクトルを復号する(ステップST24)。
一方、可変長復号部31により可変長復号された符号化モードm(Bn)がインター符号化モードであれば(m(Bn)∈INTERの場合)、可変長復号部31により可変長復号された予測ブロック単位のインター予測パラメータ及び動きベクトルを動き補償部35に出力する。
このとき、可変長復号部31により可変長復号された各ヘッダ情報を参照し、各ヘッダ情報が、当該スライスで量子化マトリクスを用いて、逆量子化処理を実施することを示している場合は、量子化マトリクスを用いて逆量子化処理を行う。
具体的には、スライスレベルヘッダから特定される当該スライスで参照する適応パラメータセットの量子化マトリクスを当該スライスで使用する量子化マトリクスに設定する。
また、逆量子化・逆変換部32は、直交変換ブロック単位に逆量子化後の圧縮データである変換係数に対する逆直交変換処理を実施して、図1の逆量子化・逆変換部8から出力された局所復号予測差分信号と同一の復号予測差分信号を算出する(ステップST28)。
この復号画像が、以降のイントラ予測処理の際に用いられる復号済みの画像信号になる。
具体的には、直交変換ブロックの境界や予測ブロックの境界に発生する歪みを低減するフィルタ(デブロッキングフィルタ)処理、画素単位に適応的にオフセットを加算する(画素適応オフセット)処理、ウィーナフィルタ等の線形フィルタを適応的に切り替えてフィルタ処理する適応フィルタ処理などを行う。
ただし、ループフィルタ部38は、上記のデブロッキングフィルタ処理、画素適応オフセット処理、適応フィルタ処理のそれぞれについて、可変長復号部31により可変長復号された各ヘッダ情報を参照して、当該スライスで処理を行うか否かを特定する。
このとき、2つ以上のフィルタ処理を行う場合に、動画像符号化装置のループフィルタ部11が図2のように構成されている場合には、図7に示すようにループフィルタ部38が構成される。
なお、クラス分類手法の候補として、ループフィルタ部11の画素適応オフセット処理のクラス分類手法の候補と同一のものが予め用意されている。
ただし、動画像符号化装置のループフィルタ部11の画素適応オフセット処理において、ブロック分割情報は符号化せずに、常に画像を固定サイズのブロック単位(例えば、最大符号化ブロック単位)に分割し、そのブロック毎にクラス分類手法を選択してクラス毎の適応オフセット処理を行うように構成されている場合、ループフィルタ部38においても、ループフィルタ部11と同一の固定サイズのブロック単位に画素適応オフセット処理を実施する。
ただし、動画像符号化装置のループフィルタ部11の適応フィルタ処理において、上記のクラス分類及びフィルタ設計・処理を画像全体に対してではなく、例えば、最大符号化ブロックといった固定サイズのブロック毎に行うように構成されている場合、ループフィルタ部38においても、ループフィルタ部11と同一の固定サイズのブロック毎に、各クラスで用いるフィルタを復号して上記クラス分類及びフィルタ処理を行う。
このループフィルタ部38によるフィルタ処理後の復号画像が、動き補償予測用の参照画像となり、また、再生画像となる。
また、可変長符号化部13が符号化ビットストリームのヘッダ情報として、ビデオパラメータセットを参照するピクチャの符号化データにそのビデオパラメータを参照する階層のピクチャが自分自身より下の階層のピクチャを予測の際に参照するかどうかを示す下位階層参照フラグを復号するようにしたので、自分自身より下の階層の有無にかかわらずビデオパラメータセットを参照するピクチャの単位(サブビットストリーム)を設定して、復号装置で、このようなサブビットストリームを受信した場合に自分自身より下の階層のピクチャを受信済みであるか否かにかかわらず、すぐに受信したデータを復号することができ、上位階層に属するフレームのみが符号化された映像データを独立して処理可能なスケーラブルに符号化、復号できる装置を得ることができる。
本実施の形態は、実施の形態1による動画像符号化装置が生成した符号化ビットストリームからサブビットストリームを抽出するサブビットストリーム生成装置について述べる。
図20にサブビットストリーム生成装置の構成を示す。
図20において、図1の可変長符号化部13の出力である符号化されたビットストリームを入力とし、NALユニットヘッダ解析部51は、符号化ビットストリームを構成しているNALユニットのヘッダ部を解析し、タイプ情報や参照フラグ、階層識別番号などのヘッダ情報を復号する。ビデオパラメータセット解析部52はタイプ情報がビデオパラメータセットであることを示している場合に、NALユニットのペイロードデータ部に含まれるビデオパラメータセットを復号する。ビデオパラメータセットから復号された時間階層符号化されているかどうかを示すフラグが、符号化ビットストリームが時間階層符号化されていることを示す場合には、ビデオパラメータセットから復号された最大階層数に基づいて、サブビットストリームの階層数を決定する。サブビットストリームの階層数の決定は、例えばビデオパラメータセットから復号された各階層を復号するのに必要なピクチャバッファのサイズから決定することができる。ピクチャバッファのサイズが大きい場合には、復号画像の遅延が大きくなるため、デコーダ側で許容される最大遅延に基づいてサブビットストリームの階層数を決定することができる。NALユニット抽出部53は、決定されたサブビットストリームの階層数に基づいてNALユニットを抽出する。例えば3以上の階層数がある符号化ビットストリームにおいて、サブビットストリームの階層数を2と決定した場合には基本階層と第1階層に属するピクチャの符号化データをペイロードデータとして含むNALユニットを抽出する。NALユニット多重化部54はNALユニット抽出部53で抽出したNALユニットを多重化してサブビットストリームを生成する。
図3の符号化装置における出力である符号化ビットストリームからサブビットストリームを生成する場合を例に説明する。
まずNALユニットヘッダ解析部51は、符号化ビットストリームを構成しているNALユニットのヘッダ部を解析する。NALユニットのヘッダ部から復号されたタイプ情報がビデオパラメータセットであることを示している場合には、ビデオパラメータセット解析部52にて、NALユニットのペイロードデータ部に含まれるビデオパラメータセットを復号する。図3の例では、ビデオパラメータセット解析部52は、ビデオパラメータセット1を復号する。ビデオパラメータセット1から復号された時間階層符号化されていることを示すフラグが、符号化ビットストリームが時間階層符号化されていることを示す場合には、ビデオパラメータセットから復号された最大階層数(図3では2)に基づいてサブビットストリーム中の階層数を決定する。NALユニット抽出部53は、サブビットストリーム中の階層数を1と決定した場合には、基本階層に属するピクチャの符号化データをペイロードデータとして含むNALユニットを抽出する。すなわちNALユニットヘッダの階層識別番号が1以上のNALユニットを除き、階層識別番号が0のNALユニットのみを抽出する。NALユニット多重化部54はNALユニット抽出部53で抽出したNALユニットを多重化してサブビットストリームを生成する。図3の符号化ビットストリームから基本階層のNALユニットのみを抽出して構成されるサブビットストリームを図21に示す。
次に図3に示す符号化ビットストリームから第1階層のみを抽出してサブビットストリームを生成する場合を例に説明する。NALユニットヘッダ解析部51は基本階層のみを抽出してサブビットストリームを生成する場合と同じである。NALユニット抽出部53は、第1階層に属するピクチャの符号化データをペイロードデータデータとして含むNALユニットを抽出する。図3の例ではビデオパラメータセット1とシーケンスレベルヘッダ1は、基本階層と第1階層のピクチャから共通に参照されるので、第1階層に属するピクチャに関わる符号化データとして抽出する。ピクチャデータ(スライスデータ)に関しては、NALユニットヘッダの階層識別番号が1のNALユニットのみを抽出することで第1階層に属するピクチャのピクチャデータを抽出することができる。第1階層のみを抽出して生成されるサブビットストリームには、基本階層の符号化データが含まれないため、ビデオパラメータセット1の基本階層有無フラグの値を基本階層が含まれていることを示す値(例えば1)から基本階層が含まれていないことを示す値(例えば0)に変更する。NALユニット多重化部54は、基本階層有無フラグの値が変更されたビデオパラメータセット1Aとシーケンスレベルヘッダ1、第1階層のピクチャのピクチャレベルヘッダとピクチャデータ(スライスデータ)を多重化してサブビットストリーム(図22)を生成する。
次に図12に示す符号化ビットストリームからサブビットストリームを生成する場合を例に説明する。なお基本階層を含むサブビットストリームを生成する場合には図3の符号化ビットストリームからサブビットストリームを生成する場合と同じであるので、基本階層を含まないサブビットストリーム、例えば第1階層に属するピクチャの符号化データのみから構成されるサブビットストリームを生成する場合を例に説明する。NALユニットヘッダ解析部51の処理は、図3の符号化ビットストリームからサブビットストリームを生成する場合と同じである。NALユニット抽出部53は、第1階層に属するピクチャの符号化データをペイロードデータとして含むNALユニットを抽出する。図12の例では階層ごとにビデオパラメータセットが符号化されているので、第1階層に属するピクチャはビデオパラメータセット2を参照して符号化されている。従って図12の例では、第1階層に属するピクチャに関わる符号化データとして、NALユニットヘッダの階層識別番号が1のNALユニットのみを抽出することで、ビデオパラメータセット2、シーケンスレベルヘッダ2と第1階層に属するピクチャのピクチャデータを抽出することができる。なおビデオパラメータセット2の基本階層有無フラグは、基本階層が含まれないことを示す値になっているので、NALユニット多重化部54はビデオパラメータセット2のパラメータ値を変更することなく、ビデオパラメータセット2とシーケンスレベルヘッダ2、第1階層のピクチャのピクチャレベルヘッダとピクチャデータ(スライスデータ)を多重化してサブビットストリーム(図23)を生成する。
以上のように、ビデオパラメータセットに設定された情報に基づいて、サブビットストリームの符号化データをNALユニット単位で抽出することにより、様々なサブビットストリームを生成できるため、スケーラブルに符号化、復号できる装置を得ることができる。
Claims (4)
- 入力された動画像信号の複数のピクチャを、予測の際に参照する第1のピクチャの階層である基本階層と、前記基本階層の第1のピクチャ以外の第2のピクチャの階層に階層化し、符号化してビットストリームを生成する動画像符号化装置であって、
前記ビットストリーム内に前記基本階層の第1のピクチャが含まれるか否かを示す基本階層有無フラグを符号化する符号化部を備え、
前記符号化部は、前記入力された動画像信号の複数のピクチャから、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれることを示す第1のビットストリームと、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれないことを示す第2のビットストリームとを生成し、前記第2のビットストリームは前記第1のピクチャを参照して予測符号化される前記第2のピクチャを含むことを特徴とする動画像符号化装置。 - 入力された複数のピクチャを、予測の際に参照する第1のピクチャの階層である基本階層と、前記基本階層の第1のピクチャ以外の第2のピクチャの階層に階層化し、符号化されたビットストリームを復号する動画像復号装置であって、
前記ビットストリーム内に前記基本階層の第1のピクチャが含まれるか否かを示す基本階層有無フラグを復号する復号部を備え、
前記復号部は、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれることを示す第1のビットストリームと、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれないことを示す第2のビットストリームとを用いて前記複数のピクチャを復号し、前記第2のビットストリームは前記第1のピクチャを参照して予測符号化される前記第2のピクチャを含むことを特徴とする動画像復号装置。 - 入力された動画像信号の複数のピクチャを、予測の際に参照する第1のピクチャの階層である基本階層と、前記基本階層の第1のピクチャ以外の第2のピクチャの階層に階層化し、符号化してビットストリームを生成する動画像符号化方法であって、
前記ビットストリーム内に前記基本階層の第1のピクチャが含まれるか否かを示す基本階層有無フラグを符号化する符号化ステップを備え、
前記符号化ステップにおいて、前記入力された動画像信号の複数のピクチャから、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれることを示す第1のビットストリームと、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれないことを示す第2のビットストリームとを生成し、前記第2のビットストリームは前記第1のピクチャを参照して予測符号化される前記第2のピクチャを含むことを特徴とする動画像符号化方法。 - 入力された複数のピクチャを、予測の際に参照する第1のピクチャの階層である基本階層と、前記基本階層の第1のピクチャ以外の第2のピクチャの階層に階層化し、符号化されたビットストリームを復号する動画像復号方法であって、
前記ビットストリーム内に前記基本階層の第1のピクチャが含まれるか否かを示す基本階層有無フラグを復号する復号ステップを備え、
前記復号ステップにおいて、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれることを示す第1のビットストリームと、前記基本階層有無フラグが前記基本階層の第1のピクチャが含まれないことを示す第2のビットストリームとを用いて前記複数のピクチャを復号し、前記第2のビットストリームは前記第1のピクチャを参照して予測符号化される前記第2のピクチャを含むことを特徴とする動画像復号方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012142607 | 2012-06-26 | ||
JP2012142607 | 2012-06-26 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016151883A Division JP6716836B2 (ja) | 2012-06-26 | 2016-08-02 | 動画像符号化データ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018125877A true JP2018125877A (ja) | 2018-08-09 |
JP6580185B2 JP6580185B2 (ja) | 2019-09-25 |
Family
ID=49782577
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014502296A Active JP5984911B2 (ja) | 2012-06-26 | 2013-05-27 | 動画像符号化・復号装置及び方法 |
JP2016151883A Active JP6716836B2 (ja) | 2012-06-26 | 2016-08-02 | 動画像符号化データ |
JP2018058223A Active JP6580185B2 (ja) | 2012-06-26 | 2018-03-26 | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014502296A Active JP5984911B2 (ja) | 2012-06-26 | 2013-05-27 | 動画像符号化・復号装置及び方法 |
JP2016151883A Active JP6716836B2 (ja) | 2012-06-26 | 2016-08-02 | 動画像符号化データ |
Country Status (8)
Country | Link |
---|---|
US (1) | US10264289B2 (ja) |
EP (1) | EP2866441B1 (ja) |
JP (3) | JP5984911B2 (ja) |
KR (3) | KR20150027219A (ja) |
CN (1) | CN104412592B (ja) |
BR (1) | BR112014031555B1 (ja) |
HK (1) | HK1205392A1 (ja) |
WO (1) | WO2014002375A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015009108A1 (ko) * | 2013-07-18 | 2015-01-22 | 삼성전자 주식회사 | 비디오 포멧 파라미터 전달을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
US9826232B2 (en) | 2014-01-08 | 2017-11-21 | Qualcomm Incorporated | Support of non-HEVC base layer in HEVC multi-layer extensions |
KR102476207B1 (ko) | 2015-11-12 | 2022-12-08 | 삼성전자주식회사 | 반도체 장치의 동작 방법 및 반도체 시스템 |
CN106851274B (zh) * | 2017-03-31 | 2019-08-06 | 北京奇艺世纪科技有限公司 | 差分量化参数的确定方法、确定系统及视频编码器 |
US10290347B2 (en) * | 2017-06-30 | 2019-05-14 | Western Digital Technologies, Inc. | Compacting operating parameter groups in solid state memory devices |
CN111052742A (zh) * | 2017-09-30 | 2020-04-21 | 深圳市大疆创新科技有限公司 | 图像处理 |
GB201817783D0 (en) * | 2018-10-31 | 2018-12-19 | V Nova Int Ltd | Methods,apparatuses, computer programs and computer-readable media for processing configuration data |
JP2020098986A (ja) * | 2018-12-17 | 2020-06-25 | キヤノン株式会社 | 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム |
WO2020251277A1 (ko) * | 2019-06-11 | 2020-12-17 | 엘지전자 주식회사 | 스케일링 리스트 파라미터 기반 비디오 또는 영상 코딩 |
WO2020251275A1 (ko) * | 2019-06-11 | 2020-12-17 | 엘지전자 주식회사 | 스케일링 리스트 기반 비디오 또는 영상 코딩 |
WO2020251279A1 (ko) * | 2019-06-11 | 2020-12-17 | 엘지전자 주식회사 | 스케일링 리스트 데이터의 시그널링 기반 비디오 또는 영상 코딩 |
WO2021005349A1 (en) * | 2019-07-05 | 2021-01-14 | V-Nova International Ltd | Quantization of residuals in video coding |
JP2021052225A (ja) * | 2019-09-20 | 2021-04-01 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
CN110582022B (zh) * | 2019-09-27 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 视频编解码方法和装置及存储介质 |
GB2590634B (en) * | 2019-12-20 | 2024-10-02 | Canon Kk | High Level syntax for video coding and decoding |
US11516469B2 (en) | 2020-03-02 | 2022-11-29 | Tencent America LLC | Loop filter block flexible partitioning |
CN118509561A (zh) * | 2024-07-17 | 2024-08-16 | 国网江西省电力有限公司信息通信分公司 | 基于视频的全链路监测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007508737A (ja) * | 2003-10-10 | 2007-04-05 | サムスン エレクトロニクス カンパニー リミテッド | ビデオデータエンコーディングシステム及びデコーディングシステム |
JP2009538086A (ja) * | 2006-11-17 | 2009-10-29 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のデコーディング/エンコーディング方法及び装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5510840A (en) * | 1991-12-27 | 1996-04-23 | Sony Corporation | Methods and devices for encoding and decoding frame signals and recording medium therefor |
FI113124B (fi) * | 1999-04-29 | 2004-02-27 | Nokia Corp | Tiedonsiirto |
US20040125124A1 (en) * | 2000-07-24 | 2004-07-01 | Hyeokman Kim | Techniques for constructing and browsing a hierarchical video structure |
US20050275752A1 (en) * | 2002-10-15 | 2005-12-15 | Koninklijke Philips Electronics N.V. | System and method for transmitting scalable coded video over an ip network |
DE102004059978B4 (de) * | 2004-10-15 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium |
KR100763179B1 (ko) * | 2005-04-01 | 2007-10-04 | 삼성전자주식회사 | 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치 |
WO2006104357A1 (en) | 2005-04-01 | 2006-10-05 | Samsung Electronics Co., Ltd. | Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same |
US20060233247A1 (en) * | 2005-04-13 | 2006-10-19 | Visharam Mohammed Z | Storing SVC streams in the AVC file format |
ZA200800261B (en) * | 2005-07-11 | 2009-08-26 | Thomson Licensing | Method and apparatus for macroblock adaptive inter-layer intra texture prediction |
JP2009521174A (ja) * | 2005-12-21 | 2009-05-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ符号化及び復号化 |
CN101888559B (zh) * | 2006-11-09 | 2013-02-13 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
EP2127395B1 (en) * | 2007-01-10 | 2016-08-17 | Thomson Licensing | Video encoding method and video decoding method for enabling bit depth scalability |
US8767834B2 (en) * | 2007-03-09 | 2014-07-01 | Sharp Laboratories Of America, Inc. | Methods and systems for scalable-to-non-scalable bit-stream rewriting |
KR101366249B1 (ko) * | 2007-06-28 | 2014-02-21 | 삼성전자주식회사 | 스케일러블 영상 부호화장치 및 방법과 그 영상 복호화장치및 방법 |
CN101557510A (zh) * | 2008-04-09 | 2009-10-14 | 华为技术有限公司 | 视频编码处理方法、系统及装置 |
CN101895748B (zh) * | 2010-06-21 | 2014-03-26 | 华为终端有限公司 | 一种编解码方法以及编解码装置 |
KR102073304B1 (ko) * | 2010-09-30 | 2020-02-04 | 선 페이턴트 트러스트 | 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램 및 집적 회로 |
US9045967B2 (en) * | 2011-07-26 | 2015-06-02 | Schlumberger Technology Corporation | System and method for controlling and monitoring a drilling operation using refined solutions from a panistic inversion |
US8805098B2 (en) * | 2012-01-19 | 2014-08-12 | Sharp Laboratories Of America, Inc. | Inter reference picture set signaling and prediction on an electronic device |
-
2013
- 2013-05-27 CN CN201380034066.6A patent/CN104412592B/zh active Active
- 2013-05-27 BR BR112014031555-8A patent/BR112014031555B1/pt active IP Right Grant
- 2013-05-27 KR KR1020157001078A patent/KR20150027219A/ko active Application Filing
- 2013-05-27 EP EP13810134.0A patent/EP2866441B1/en active Active
- 2013-05-27 US US14/409,967 patent/US10264289B2/en active Active
- 2013-05-27 KR KR1020177005167A patent/KR101752149B1/ko active IP Right Grant
- 2013-05-27 KR KR1020177016887A patent/KR20170075802A/ko not_active Application Discontinuation
- 2013-05-27 WO PCT/JP2013/003320 patent/WO2014002375A1/ja active Application Filing
- 2013-05-27 JP JP2014502296A patent/JP5984911B2/ja active Active
-
2015
- 2015-06-12 HK HK15105594.2A patent/HK1205392A1/xx unknown
-
2016
- 2016-08-02 JP JP2016151883A patent/JP6716836B2/ja active Active
-
2018
- 2018-03-26 JP JP2018058223A patent/JP6580185B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007508737A (ja) * | 2003-10-10 | 2007-04-05 | サムスン エレクトロニクス カンパニー リミテッド | ビデオデータエンコーディングシステム及びデコーディングシステム |
JP2009538086A (ja) * | 2006-11-17 | 2009-10-29 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のデコーディング/エンコーディング方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20170024142A (ko) | 2017-03-06 |
EP2866441A1 (en) | 2015-04-29 |
WO2014002375A1 (ja) | 2014-01-03 |
BR112014031555B1 (pt) | 2023-01-24 |
JPWO2014002375A1 (ja) | 2016-05-30 |
US10264289B2 (en) | 2019-04-16 |
JP5984911B2 (ja) | 2016-09-06 |
BR112014031555A2 (pt) | 2017-06-27 |
KR20150027219A (ko) | 2015-03-11 |
CN104412592B (zh) | 2017-11-14 |
CN104412592A (zh) | 2015-03-11 |
EP2866441A4 (en) | 2016-03-02 |
US20150195582A1 (en) | 2015-07-09 |
JP6580185B2 (ja) | 2019-09-25 |
JP6716836B2 (ja) | 2020-07-01 |
JP2016220227A (ja) | 2016-12-22 |
HK1205392A1 (en) | 2015-12-11 |
KR20170075802A (ko) | 2017-07-03 |
KR101752149B1 (ko) | 2017-07-11 |
EP2866441B1 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6580185B2 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP6820115B2 (ja) | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法及び符号化ビットストリームを記録した記録媒体 | |
JP6573689B2 (ja) | 画像符号化装置および画像符号化方法 | |
JP6082073B2 (ja) | 画像復号装置、画像復号方法、画像符号化装置、画像符号化方法及びビットストリーム | |
WO2014163200A1 (ja) | カラー画像符号化装置、カラー画像復号装置、カラー画像符号化方法及びカラー画像復号方法 | |
JP2019154074A (ja) | 画像符号化装置、動画像復号装置、動画像符号化データ及び記録媒体 | |
WO2014049981A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2014204311A (ja) | カラー画像符号化装置、カラー画像復号装置、カラー画像符号化方法及びカラー画像復号方法 | |
JP2014090326A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2014090327A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
WO2013108882A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
WO2014049982A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2013098715A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2013098713A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2013098711A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2014135552A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法および動画像復号方法 | |
JP2016005236A (ja) | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6580185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |