JP2024050775A - 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 - Google Patents
映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 Download PDFInfo
- Publication number
- JP2024050775A JP2024050775A JP2024015010A JP2024015010A JP2024050775A JP 2024050775 A JP2024050775 A JP 2024050775A JP 2024015010 A JP2024015010 A JP 2024015010A JP 2024015010 A JP2024015010 A JP 2024015010A JP 2024050775 A JP2024050775 A JP 2024050775A
- Authority
- JP
- Japan
- Prior art keywords
- information
- layer
- video
- flag
- parameter set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000008569 process Effects 0.000 claims description 6
- 239000010410 layer Substances 0.000 description 111
- 230000002123 temporal effect Effects 0.000 description 22
- 230000011664 signaling Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 11
- 238000013139 quantization Methods 0.000 description 11
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 239000002356 single layer Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000011084 recovery Methods 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 108091000069 Cystinyl Aminopeptidase Proteins 0.000 description 1
- 102100020872 Leucyl-cystinyl aminopeptidase Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Control Of El Displays (AREA)
Abstract
【課題】階層的ビットストリーム内の抽出及びスケーラビリティ情報を記述する方法及び装置を提供する。【解決手段】映像情報デコーディング方法は、エンコーディングされた映像に関連した情報を含むNAL(Network Abstraction Layer)ユニットを含むビットストリームを受信するステップと、NALユニットのNALユニットヘッダをパーシングするステップと、を含む。NALユニットヘッダは、エンコーディング時、全体ビットストリームで非参照ピクチャであるかまたは参照ピクチャであるかを示す1ビットのフラグ情報を含まない。【選択図】図5
Description
本発明は、ビデオ符号化及び復号化処理に関し、より詳しくは、ビットストリーム内の
ビデオの情報をデコーディングする方法及び装置に関する。
ビデオの情報をデコーディングする方法及び装置に関する。
最近、HD(High Definition)解像度を有する放送サービスが韓国内だ
けではなく、世界的に拡大されるにつれて、多くのユーザが高解像度、高画質の映像に慣
れており、それによって、多くの機関が次世代映像機器に対する開発に拍車を掛けている
。また、HDTVと共にHDTVの4倍以上の解像度を有するUHD(Ultra Hig
h Definition)に対する関心が増大しながら、より高い解像度、高画質の映像
に対する圧縮機術が要求されている。
けではなく、世界的に拡大されるにつれて、多くのユーザが高解像度、高画質の映像に慣
れており、それによって、多くの機関が次世代映像機器に対する開発に拍車を掛けている
。また、HDTVと共にHDTVの4倍以上の解像度を有するUHD(Ultra Hig
h Definition)に対する関心が増大しながら、より高い解像度、高画質の映像
に対する圧縮機術が要求されている。
映像圧縮のために、時間的に以前及び/または以後のピクチャから現在ピクチャに含ま
れている画素値を予測するインター(inter)予測技術、現在ピクチャ内の画素情報を
利用して現在ピクチャに含まれている画素値を予測するイントラ(intra)予測技術、
出現頻度が高いシンボル(symbol)に短い符号を割り当て、出現頻度が低いシンボル
に長い符号を割り当てるエントロピー符号化技術などが使われることができる。
れている画素値を予測するインター(inter)予測技術、現在ピクチャ内の画素情報を
利用して現在ピクチャに含まれている画素値を予測するイントラ(intra)予測技術、
出現頻度が高いシンボル(symbol)に短い符号を割り当て、出現頻度が低いシンボル
に長い符号を割り当てるエントロピー符号化技術などが使われることができる。
映像圧縮技術には、流動的なネットワーク環境を考慮せずにハードウェアの制限的な動
作環境下で一定のネットワーク帯域幅を提供する技術がある。しかし、随時帯域幅が変化
するネットワーク環境に適用される映像データを圧縮するためには新たな圧縮技術が要求
され、そのために、スケーラブル(scalable)ビデオ符号化/復号化方法が使われ
ることができる。
作環境下で一定のネットワーク帯域幅を提供する技術がある。しかし、随時帯域幅が変化
するネットワーク環境に適用される映像データを圧縮するためには新たな圧縮技術が要求
され、そのために、スケーラブル(scalable)ビデオ符号化/復号化方法が使われ
ることができる。
本発明の技術的課題は、階層的ビットストリーム内の抽出及びスケーラビリティ情報を
記述する方法及び装置を提供することである。
記述する方法及び装置を提供することである。
本発明の他の技術的課題は、柔軟な方式で多様な種類のビットストリームのスケーラビ
リティ情報を表現する方法及び装置を提供することである。
リティ情報を表現する方法及び装置を提供することである。
本発明の他の技術的課題は、階層的ビットストリーム内の抽出及びスケーラビリティ情
報をパケットレベルでの適応的に変換可能に提供する方法及び装置を提供することである
。
報をパケットレベルでの適応的に変換可能に提供する方法及び装置を提供することである
。
本発明の一実施例に係る映像情報デコーディング方法は、エンコーディングされた映像
に関連した情報を含むNAL(Network Abstraction Layer)ユニ
ットを含むビットストリームを受信するステップと、前記NALユニットのNALユニッ
トヘッダをパーシングするステップとを含み、前記NALユニットヘッダは、前記NAL
ユニットのエンコーディング時、全体ビットストリームで非参照ピクチャであるか、また
は参照ピクチャであるかを示す1ビットのフラグ情報を含まない。
に関連した情報を含むNAL(Network Abstraction Layer)ユニ
ットを含むビットストリームを受信するステップと、前記NALユニットのNALユニッ
トヘッダをパーシングするステップとを含み、前記NALユニットヘッダは、前記NAL
ユニットのエンコーディング時、全体ビットストリームで非参照ピクチャであるか、また
は参照ピクチャであるかを示す1ビットのフラグ情報を含まない。
本発明の一実施例に係る映像デコーディング方法は、受信されたピクチャをデコーディ
ングするステップと、デコーディングされたピクチャをDPB(decoded pict
ure buffer)に参照ピクチャで表示するステップと、前記デコーディングされた
ピクチャの次のピクチャに対するスライスヘッダをパーシングするステップと、前記スラ
イスヘッダに含まれている参照ピクチャ情報に基づき、前記デコーディングされたピクチ
ャが参照ピクチャであるか、または非参照ピクチャであるかを表示するステップとを含む
。
ングするステップと、デコーディングされたピクチャをDPB(decoded pict
ure buffer)に参照ピクチャで表示するステップと、前記デコーディングされた
ピクチャの次のピクチャに対するスライスヘッダをパーシングするステップと、前記スラ
イスヘッダに含まれている参照ピクチャ情報に基づき、前記デコーディングされたピクチ
ャが参照ピクチャであるか、または非参照ピクチャであるかを表示するステップとを含む
。
本発明の他の実施例として、活性化されるパラメータセットに対する情報を含むSEI
(Supplemental enhancement information)メッセー
ジを受信し、前記パラメータセットに対する情報をパーシングする。
(Supplemental enhancement information)メッセー
ジを受信し、前記パラメータセットに対する情報をパーシングする。
本発明の一実施例によると、階層的ビットストリーム内の抽出及びスケーラビリティ情
報を記述する方法及び装置が提供される。
報を記述する方法及び装置が提供される。
本発明の一実施例によると、柔軟な方式で多様な種類のビットストリームのスケーラビ
リティ情報を表現する方法及び装置が提供される。
リティ情報を表現する方法及び装置が提供される。
本発明の他の実施例によると、階層的ビットストリーム内の抽出及びスケーラビリティ
情報をパケットレベルでの適応的に変換可能に提供する方法及び装置が提供される。
情報をパケットレベルでの適応的に変換可能に提供する方法及び装置が提供される。
以下、図面を参照して本発明の実施形態に対して具体的に説明する。本明細書の実施例
を説明するにあたって、関連した公知構成または機能に対する具体的な説明が本明細書の
要旨を不明にすると判断される場合、その詳細な説明は省略する。
を説明するにあたって、関連した公知構成または機能に対する具体的な説明が本明細書の
要旨を不明にすると判断される場合、その詳細な説明は省略する。
一構成要素が他の構成要素に“連結されている”または“接続されている”と言及され
た場合、該当他の構成要素に直接的に連結されている、または接続されていることもある
が、中間に他の構成要素が存在することもあると理解しなければならない。また、本発明
において、特定構成を“含む”と記述する内容は、該当構成以外の構成を排除するもので
はなく、追加的な構成が本発明の実施または本発明の技術的思想の範囲に含まれることが
できることを意味する。
た場合、該当他の構成要素に直接的に連結されている、または接続されていることもある
が、中間に他の構成要素が存在することもあると理解しなければならない。また、本発明
において、特定構成を“含む”と記述する内容は、該当構成以外の構成を排除するもので
はなく、追加的な構成が本発明の実施または本発明の技術的思想の範囲に含まれることが
できることを意味する。
第1、第2などの用語は、多様な構成要素の説明に使われることができるが、前記構成
要素は、前記用語により限定されてはならない。前記用語は、一つの構成要素を他の構成
要素から区別する目的にのみ使われる。例えば、本発明の権利範囲を外れない限り、第1
の構成要素は第2の構成要素と命名することができ、同様に、第2の構成要素も第1の構
成要素と命名することができる。
要素は、前記用語により限定されてはならない。前記用語は、一つの構成要素を他の構成
要素から区別する目的にのみ使われる。例えば、本発明の権利範囲を外れない限り、第1
の構成要素は第2の構成要素と命名することができ、同様に、第2の構成要素も第1の構
成要素と命名することができる。
また、本発明の実施例に示す構成部は、互いに異なる特徴的な機能を示すために独立的
に図示されるものであり、各構成部が分離されたハードウェアや一つのソフトウェア構成
単位に構成されることを意味しない。即ち、各構成部は、説明の便宜上、各々の構成部と
して羅列して含むものであり、各構成部のうち少なくとも2個の構成部が統合されて一つ
の構成部からなり、または一つの構成部が複数個の構成部に分けられて機能を遂行するこ
とができ、このような各構成部の統合された実施例及び分離された実施例も本発明の本質
から外れない限り、本発明の権利範囲に含まれる。
に図示されるものであり、各構成部が分離されたハードウェアや一つのソフトウェア構成
単位に構成されることを意味しない。即ち、各構成部は、説明の便宜上、各々の構成部と
して羅列して含むものであり、各構成部のうち少なくとも2個の構成部が統合されて一つ
の構成部からなり、または一つの構成部が複数個の構成部に分けられて機能を遂行するこ
とができ、このような各構成部の統合された実施例及び分離された実施例も本発明の本質
から外れない限り、本発明の権利範囲に含まれる。
また、一部の構成要素は、本発明で本質的な機能を遂行する必須な構成要素ではなく、
単に性能を向上させるための選択的構成要素である。本発明は、単に性能向上のために使
われる構成要素を除いた本発明の本質を具現するのに必須な構成部のみを含んで具現され
ることができ、単に性能向上のために使われる選択的構成要素を除いた必須構成要素のみ
を含む構造も本発明の権利範囲に含まれる。
単に性能を向上させるための選択的構成要素である。本発明は、単に性能向上のために使
われる構成要素を除いた本発明の本質を具現するのに必須な構成部のみを含んで具現され
ることができ、単に性能向上のために使われる選択的構成要素を除いた必須構成要素のみ
を含む構造も本発明の権利範囲に含まれる。
図1は、映像符号化装置の一実施例に係る構成を示すブロック図である。スケーラブル
(scalable)ビデオ符号化/復号化方法または装置は、スケーラビリティ(scal
ability)を提供しない一般的な映像符号化/復号化方法または装置の拡張(ext
ension)により具現されることができ、図1のブロック図は、スケーラブルビデオ
符号化装置のベースになることができる映像符号化装置の一実施例を示す。
(scalable)ビデオ符号化/復号化方法または装置は、スケーラビリティ(scal
ability)を提供しない一般的な映像符号化/復号化方法または装置の拡張(ext
ension)により具現されることができ、図1のブロック図は、スケーラブルビデオ
符号化装置のベースになることができる映像符号化装置の一実施例を示す。
図1を参照すると、前記映像符号化装置100は、動き予測部111、動き補償部11
2、イントラ予測部120、スイッチ115、減算器125、変換部130、量子化部1
40、エントロピー符号化部150、逆量子化部160、逆変換部170、加算器175
、フィルタ部180及び参照映像バッファ190を含む。
2、イントラ予測部120、スイッチ115、減算器125、変換部130、量子化部1
40、エントロピー符号化部150、逆量子化部160、逆変換部170、加算器175
、フィルタ部180及び参照映像バッファ190を含む。
映像符号化装置100は、入力映像に対してイントラ(intra)モードまたはインタ
ー(inter)モードに符号化を実行することで、ビットストリーム(bit strea
m)を出力することができる。イントラ予測は画面内予測を意味し、インター予測は画面
間予測を意味する。イントラモードである場合、スイッチ115がイントラに切り替えら
れ、インターモードである場合、スイッチ115がインターに切り替えられる。映像符号
化装置100は、入力映像の入力ブロックに対する予測ブロックを生成した後、入力ブロ
ックと予測ブロックとの差分を符号化することができる。
ー(inter)モードに符号化を実行することで、ビットストリーム(bit strea
m)を出力することができる。イントラ予測は画面内予測を意味し、インター予測は画面
間予測を意味する。イントラモードである場合、スイッチ115がイントラに切り替えら
れ、インターモードである場合、スイッチ115がインターに切り替えられる。映像符号
化装置100は、入力映像の入力ブロックに対する予測ブロックを生成した後、入力ブロ
ックと予測ブロックとの差分を符号化することができる。
イントラモードである場合、イントラ予測部120は、現在ブロック周辺の既に符号化
されたブロックの画素値を利用して空間的予測を実行することで、予測ブロックを生成す
ることができる。
されたブロックの画素値を利用して空間的予測を実行することで、予測ブロックを生成す
ることができる。
インターモードである場合、動き予測部111は、動き予測過程で参照映像バッファ1
90に格納されている参照映像で入力ブロックと最もよくマッチされる領域を探して動き
ベクトルを求めることができる。動き補償部112は、動きベクトルと参照映像バッファ
190に格納されている参照映像を利用して動き補償を実行することによって、予測ブロ
ックを生成することができる。
90に格納されている参照映像で入力ブロックと最もよくマッチされる領域を探して動き
ベクトルを求めることができる。動き補償部112は、動きベクトルと参照映像バッファ
190に格納されている参照映像を利用して動き補償を実行することによって、予測ブロ
ックを生成することができる。
減算器125は、入力ブロックと生成された予測ブロックとの差分により残余ブロック
(residual block)を生成することができる。変換部130は、残余ブロッ
クに対して変換(transform)を実行することで、変換係数(transform
coefficient)を出力することができる。そして、量子化部140は、入力さ
れた変換係数を量子化パラメータによって量子化し、量子化された係数(quantiz
ed coefficient)を出力することができる。
(residual block)を生成することができる。変換部130は、残余ブロッ
クに対して変換(transform)を実行することで、変換係数(transform
coefficient)を出力することができる。そして、量子化部140は、入力さ
れた変換係数を量子化パラメータによって量子化し、量子化された係数(quantiz
ed coefficient)を出力することができる。
エントロピー符号化部150は、量子化部140で算出された値または符号化過程で算
出された符号化パラメータ値などに基づき、シンボル(symbol)を確率分布によって
エントロピー符号化することで、ビットストリーム(bit stream)を出力するこ
とができる。エントロピー符号化方法は、多様な値を有するシンボルの入力を受け、統計
的な重複性を除去すると共に、復号可能な2進数の列で表現する方法である。
出された符号化パラメータ値などに基づき、シンボル(symbol)を確率分布によって
エントロピー符号化することで、ビットストリーム(bit stream)を出力するこ
とができる。エントロピー符号化方法は、多様な値を有するシンボルの入力を受け、統計
的な重複性を除去すると共に、復号可能な2進数の列で表現する方法である。
ここで、シンボルとは、符号化/復号化対象構文要素(syntax element)及
び符号化パラメータ(coding parameter)、残余信号(residual
signal)の値などを意味する。符号化パラメータは、符号化及び復号化に必要な媒
介変数であって、構文要素のように符号化器で符号化されて復号化器に伝達される情報だ
けでなく、符号化または復号化過程で類推されることができる情報を含むことができ、映
像を符号化または復号化する時に必要な情報を意味する。符号化パラメータは、例えば、
イントラ/インター予測モード、移動/動きベクトル、参照映像索引、符号化ブロックパタ
ーン、残余信号有無、変換係数、量子化された変換係数、量子化パラメータ、ブロックの
大きさ、ブロック分割情報などの値または統計を含むことができる。また、残余信号は、
原信号と予測信号との差を意味し、また、原信号と予測信号との差が変換(transf
orm)された形態の信号または原信号と予測信号との差が変換されて量子化された形態
の信号を意味する。残余信号は、ブロック単位では残余ブロックという。
び符号化パラメータ(coding parameter)、残余信号(residual
signal)の値などを意味する。符号化パラメータは、符号化及び復号化に必要な媒
介変数であって、構文要素のように符号化器で符号化されて復号化器に伝達される情報だ
けでなく、符号化または復号化過程で類推されることができる情報を含むことができ、映
像を符号化または復号化する時に必要な情報を意味する。符号化パラメータは、例えば、
イントラ/インター予測モード、移動/動きベクトル、参照映像索引、符号化ブロックパタ
ーン、残余信号有無、変換係数、量子化された変換係数、量子化パラメータ、ブロックの
大きさ、ブロック分割情報などの値または統計を含むことができる。また、残余信号は、
原信号と予測信号との差を意味し、また、原信号と予測信号との差が変換(transf
orm)された形態の信号または原信号と予測信号との差が変換されて量子化された形態
の信号を意味する。残余信号は、ブロック単位では残余ブロックという。
エントロピー符号化が適用される場合、高い発生確率を有するシンボルに少ない数のビ
ットが割り当てられ、低い発生確率を有するシンボルに多い数のビットが割り当てられて
シンボルが表現されることによって、符号化対象シンボルに対するビット列の大きさが減
少されることができる。したがって、エントロピー符号化を介して映像符号化の圧縮性能
が高まることができる。
ットが割り当てられ、低い発生確率を有するシンボルに多い数のビットが割り当てられて
シンボルが表現されることによって、符号化対象シンボルに対するビット列の大きさが減
少されることができる。したがって、エントロピー符号化を介して映像符号化の圧縮性能
が高まることができる。
エントロピー符号化のために、指数ゴロム(exponential golomb)、
CAVLC(Context-Adaptive Variable Length Cod
ing)、CABAC(Context-Adaptive Binary Arithme
tic Coding)のような符号化方法が使われることができる。例えば、エントロピ
ー符号化部150には、可変長さ符号化(VLC:Variable Lenghth C
oding/Code)テーブルのようなエントロピー符号化を実行するためのテーブルが
格納されることができ、エントロピー符号化部150は、格納された可変長さ符号化(V
LC)テーブルを使用してエントロピー符号化を実行することができる。また、エントロ
ピー符号化部150は、対象シンボルの2進化(binarization)方法及び対象
シンボル/ビン(bin)の確率モデル(probability model)を導出した後
、導出された2進化方法または確率モデルを使用してエントロピー符号化を実行すること
もできる。
CAVLC(Context-Adaptive Variable Length Cod
ing)、CABAC(Context-Adaptive Binary Arithme
tic Coding)のような符号化方法が使われることができる。例えば、エントロピ
ー符号化部150には、可変長さ符号化(VLC:Variable Lenghth C
oding/Code)テーブルのようなエントロピー符号化を実行するためのテーブルが
格納されることができ、エントロピー符号化部150は、格納された可変長さ符号化(V
LC)テーブルを使用してエントロピー符号化を実行することができる。また、エントロ
ピー符号化部150は、対象シンボルの2進化(binarization)方法及び対象
シンボル/ビン(bin)の確率モデル(probability model)を導出した後
、導出された2進化方法または確率モデルを使用してエントロピー符号化を実行すること
もできる。
量子化された係数は、逆量子化部160で逆量子化され、逆変換部170で逆変換され
ることができる。逆量子化、逆変換された係数は、加算器175を介して予測ブロックと
加えられて復元ブロックが生成されることができる。
ることができる。逆量子化、逆変換された係数は、加算器175を介して予測ブロックと
加えられて復元ブロックが生成されることができる。
復元ブロックは、フィルタ部180を経て、フィルタ部180は、デブロッキングフィ
ルタ(deblocking filter)、SAO(Sample Adaptive O
ffset)、ALF(Adaptive Loop Filter)のうち少なくとも一つ
以上を復元ブロックまたは復元ピクチャに適用することができる。フィルタ部180を経
た復元ブロックは、参照映像バッファ190に格納されることができる。
ルタ(deblocking filter)、SAO(Sample Adaptive O
ffset)、ALF(Adaptive Loop Filter)のうち少なくとも一つ
以上を復元ブロックまたは復元ピクチャに適用することができる。フィルタ部180を経
た復元ブロックは、参照映像バッファ190に格納されることができる。
図2は、映像復号化装置の一実施例に係る構成を示すブロック図である。図1で詳述し
たように、スケーラブルビデオ符号化/復号化方法または装置は、スケーラビリティを提
供しない一般的な映像符号化/復号化方法または装置の拡張により具現されることができ
、図2のブロック図は、スケーラブルビデオ復号化装置のベースになることができる映像
復号化装置の一実施例を示す。
たように、スケーラブルビデオ符号化/復号化方法または装置は、スケーラビリティを提
供しない一般的な映像符号化/復号化方法または装置の拡張により具現されることができ
、図2のブロック図は、スケーラブルビデオ復号化装置のベースになることができる映像
復号化装置の一実施例を示す。
図2を参照すると、前記映像復号化装置200は、エントロピー復号化部210、逆量
子化部220、逆変換部230、イントラ予測部240、動き補償部250、フィルタ部
260及び参照映像バッファ270を含む。
子化部220、逆変換部230、イントラ予測部240、動き補償部250、フィルタ部
260及び参照映像バッファ270を含む。
映像復号化装置200は、符号化器から出力されたビットストリームの入力を受けてイ
ントラモードまたはインターモードに復号化を実行することで、再構成された映像、即ち
、復元映像を出力することができる。イントラモードである場合、スイッチがイントラに
切り替えられ、インターモードである場合、スイッチがインターに切り替えられる。映像
復号化装置200は、入力されたビットストリームから復元された残余ブロック(res
idual block)を得て、予測ブロックを生成した後、復元された残余ブロックと
予測ブロックを加えて再構成されたブロック、即ち、復元ブロックを生成することができ
る。
ントラモードまたはインターモードに復号化を実行することで、再構成された映像、即ち
、復元映像を出力することができる。イントラモードである場合、スイッチがイントラに
切り替えられ、インターモードである場合、スイッチがインターに切り替えられる。映像
復号化装置200は、入力されたビットストリームから復元された残余ブロック(res
idual block)を得て、予測ブロックを生成した後、復元された残余ブロックと
予測ブロックを加えて再構成されたブロック、即ち、復元ブロックを生成することができ
る。
エントロピー復号化部210は、入力されたビットストリームを確率分布によってエン
トロピー復号化し、量子化された係数(quantized coefficient)形
態のシンボルを含むシンボルを生成することができる。エントロピー復号化方法は、2進
数の列の入力を受けて各シンボルを生成する方法である。エントロピー復号化方法は、前
述したエントロピー符号化方法と同様である。
トロピー復号化し、量子化された係数(quantized coefficient)形
態のシンボルを含むシンボルを生成することができる。エントロピー復号化方法は、2進
数の列の入力を受けて各シンボルを生成する方法である。エントロピー復号化方法は、前
述したエントロピー符号化方法と同様である。
量子化された係数は、逆量子化部220で逆量子化され、逆変換部230で逆変換され
、量子化された係数が逆量子化/逆変換された結果、復元された残余ブロック(resid
ual block)が生成されることができる。
、量子化された係数が逆量子化/逆変換された結果、復元された残余ブロック(resid
ual block)が生成されることができる。
イントラモードである場合、イントラ予測部240は、現在ブロック周辺の既に符号化
されたブロックの画素値を利用して空間的予測を実行することで、予測ブロックを生成す
ることができる。インターモードである場合、動き補償部250は、動きベクトル及び参
照映像バッファ270に格納されている参照映像を利用して動き補償を実行することによ
って、予測ブロックを生成することができる。
されたブロックの画素値を利用して空間的予測を実行することで、予測ブロックを生成す
ることができる。インターモードである場合、動き補償部250は、動きベクトル及び参
照映像バッファ270に格納されている参照映像を利用して動き補償を実行することによ
って、予測ブロックを生成することができる。
復元された残余ブロックと予測ブロックは、加算器255を介して加えられ、加えられ
たブロックは、フィルタ部260を経る。フィルタ部260は、デブロッキングフィルタ
、SAO、ALFのうち少なくとも一つ以上を復元ブロックまたは復元ピクチャに適用す
ることができる。フィルタ部260は、再構成された映像、即ち、復元映像を出力する。
復元映像は、参照映像バッファ270に格納されて画面間予測に使われることができる。
たブロックは、フィルタ部260を経る。フィルタ部260は、デブロッキングフィルタ
、SAO、ALFのうち少なくとも一つ以上を復元ブロックまたは復元ピクチャに適用す
ることができる。フィルタ部260は、再構成された映像、即ち、復元映像を出力する。
復元映像は、参照映像バッファ270に格納されて画面間予測に使われることができる。
前記映像復号化装置200に含まれているエントロピー復号化部210、逆量子化部2
20、逆変換部230、イントラ予測部240、動き補償部250、フィルタ部260及
び参照映像バッファ270のうち、映像の復号化に直接的に関連した構成要素、例えば、
エントロピー復号化部210、逆量子化部220、逆変換部230、イントラ予測部24
0、動き補償部250、フィルタ部260などを他の構成要素と区分して復号化部または
デコーディング部で表現することができる。
20、逆変換部230、イントラ予測部240、動き補償部250、フィルタ部260及
び参照映像バッファ270のうち、映像の復号化に直接的に関連した構成要素、例えば、
エントロピー復号化部210、逆量子化部220、逆変換部230、イントラ予測部24
0、動き補償部250、フィルタ部260などを他の構成要素と区分して復号化部または
デコーディング部で表現することができる。
また、映像復号化装置200は、ビットストリームに含まれているエンコーディングさ
れた映像に関連した情報をパーシングするパーシング部(図示せず)をさらに含むことがで
きる。パーシング部は、エントロピー復号化部210を含むこともでき、エントロピー復
号化部210に含まれることもできる。また、このようなパーシング部は、デコーディン
グ部の一つの構成要素で具現されることもできる。
れた映像に関連した情報をパーシングするパーシング部(図示せず)をさらに含むことがで
きる。パーシング部は、エントロピー復号化部210を含むこともでき、エントロピー復
号化部210に含まれることもできる。また、このようなパーシング部は、デコーディン
グ部の一つの構成要素で具現されることもできる。
図3は、本発明が適用されることができる、複数階層を利用したスケーラブルビデオコ
ーディング構造の一実施例を概略的に示す概念図である。図3において、GOP(Gro
up of Picture)は、ピクチャ群、即ち、ピクチャのグループを示す。
ーディング構造の一実施例を概略的に示す概念図である。図3において、GOP(Gro
up of Picture)は、ピクチャ群、即ち、ピクチャのグループを示す。
映像データを送信するためには送信媒体が必要であり、その性能は、多様なネットワー
ク環境によって送信媒体別に異なる。このような多様な送信媒体またはネットワーク環境
への適用のためにスケーラブルビデオコーディング方法が提供されることができる。
ク環境によって送信媒体別に異なる。このような多様な送信媒体またはネットワーク環境
への適用のためにスケーラブルビデオコーディング方法が提供されることができる。
スケーラブルビデオコーディング方法は、階層(layer)間のテクスチャ情報、動き
情報、残余信号などを活用して階層間重複性を除去して符号化/復号化性能を高めるコー
ディング方法である。スケーラブルビデオコーディング方法は、送信ビット率、送信エラ
ー率、システムリソースなどの周辺条件によって、空間的、時間的、画質的な観点で多様
なスケーラビリティを提供することができる。
情報、残余信号などを活用して階層間重複性を除去して符号化/復号化性能を高めるコー
ディング方法である。スケーラブルビデオコーディング方法は、送信ビット率、送信エラ
ー率、システムリソースなどの周辺条件によって、空間的、時間的、画質的な観点で多様
なスケーラビリティを提供することができる。
スケーラブルビデオコーディングは、多様なネットワーク状況に適用可能なビットスト
リームを提供することができるように、複数階層(multiple layers)構造
を使用して実行されることができる。例えば、スケーラブルビデオコーディング構造は、
一般的な映像符号化方法を利用して映像データを圧縮処理する基本階層を含むことができ
、基本階層の符号化情報及び一般的な映像符号化方法を共に使用して映像データを圧縮処
理する向上階層を含むことができる。
リームを提供することができるように、複数階層(multiple layers)構造
を使用して実行されることができる。例えば、スケーラブルビデオコーディング構造は、
一般的な映像符号化方法を利用して映像データを圧縮処理する基本階層を含むことができ
、基本階層の符号化情報及び一般的な映像符号化方法を共に使用して映像データを圧縮処
理する向上階層を含むことができる。
ここで、階層(layer)は、空間(spatial、例えば、映像の大きさ)、時間(
temporal、例えば、符号化順序、映像出力順序、フレームレート)、画質、複雑
度などを基準にした区分される映像及びビットストリーム(bit stream)の集合
を意味する。また、基本階層は、参照階層またはBase layerを意味し、向上階
層は、Enhancement layerを意味する。また、複数の階層は、相互間に
従属性を有することもできる。
temporal、例えば、符号化順序、映像出力順序、フレームレート)、画質、複雑
度などを基準にした区分される映像及びビットストリーム(bit stream)の集合
を意味する。また、基本階層は、参照階層またはBase layerを意味し、向上階
層は、Enhancement layerを意味する。また、複数の階層は、相互間に
従属性を有することもできる。
図3を参照すると、例えば、基本階層は、SD(standard definitio
n)、15Hzのフレーム率、1Mbpsビット率で定義されることができ、第1の向上
階層は、HD(high definition)、30Hzのフレーム率、3.9Mbps
ビット率で定義されることができ、第2の向上階層は、4K-UHE(ultra hig
h definition)、60Hzのフレーム率、27.2Mbpsビット率で定義さ
れることができる。前記フォーマット(format)、フレーム率、ビット率等は、一つ
の実施例に過ぎず、必要によって異なるように決まることができる。また、使われる階層
の数も本実施例に限定されるものではなく、状況によって異なるように決まることができ
る。
n)、15Hzのフレーム率、1Mbpsビット率で定義されることができ、第1の向上
階層は、HD(high definition)、30Hzのフレーム率、3.9Mbps
ビット率で定義されることができ、第2の向上階層は、4K-UHE(ultra hig
h definition)、60Hzのフレーム率、27.2Mbpsビット率で定義さ
れることができる。前記フォーマット(format)、フレーム率、ビット率等は、一つ
の実施例に過ぎず、必要によって異なるように決まることができる。また、使われる階層
の数も本実施例に限定されるものではなく、状況によって異なるように決まることができ
る。
例えば、送信帯域幅が4Mbpsの場合、前記第1の向上階層HDのフレームレートを
減らして15Hz以下に送信することができる。スケーラブルビデオコーディング方法は
、前記図3の実施例で詳述した方法により時間的、空間的、画質的スケーラビリティを提
供することができる。
減らして15Hz以下に送信することができる。スケーラブルビデオコーディング方法は
、前記図3の実施例で詳述した方法により時間的、空間的、画質的スケーラビリティを提
供することができる。
以下、スケーラブルビデオコーディングは、符号化観点において、スケーラブルビデオ
符号化と同じ意味を有し、復号化観点において、スケーラブルビデオ復号化と同じ意味を
有する。
符号化と同じ意味を有し、復号化観点において、スケーラブルビデオ復号化と同じ意味を
有する。
前述したように、異種の通信網及び多様な端末によって、スケーラビリティは、現在ビ
デオフォーマットの重要な機能になった。AVC(Advanced Video Cod
ing)の拡張標準であるSVC(Scalable Video Coding)は、圧縮
効率を最大限維持すると共に、多様な範囲のビットレートを有するビットストリームを生
成することができるように開発された。多様なデバイス及びネットワークの特性と変化を
満たすために、SVCビットストリームは、容易に多様な方式で抽出されることができる
。即ち、SVC標準は、空間的(spatial)、時間的(temporal)、画質(S
NR)スケーラビリティを提供する。
デオフォーマットの重要な機能になった。AVC(Advanced Video Cod
ing)の拡張標準であるSVC(Scalable Video Coding)は、圧縮
効率を最大限維持すると共に、多様な範囲のビットレートを有するビットストリームを生
成することができるように開発された。多様なデバイス及びネットワークの特性と変化を
満たすために、SVCビットストリームは、容易に多様な方式で抽出されることができる
。即ち、SVC標準は、空間的(spatial)、時間的(temporal)、画質(S
NR)スケーラビリティを提供する。
一方、複数の階層を含むビットストリームは、パケットスイッチングネットワーク(p
acket-switching network)を介してビデオの適応的送信を容易に
するNAL(Network Abstraction Layer)unitで構成される
。複数の階層と同様に、ビットストリーム内の複数の多視点映像を含むマルチビュービデ
オコーディング(multi-view video coding)における複数の視点間
の関係は、複数のレイヤをサポートするビデオでの空間的階層(spatial laye
r)間の関係と同様である。
acket-switching network)を介してビデオの適応的送信を容易に
するNAL(Network Abstraction Layer)unitで構成される
。複数の階層と同様に、ビットストリーム内の複数の多視点映像を含むマルチビュービデ
オコーディング(multi-view video coding)における複数の視点間
の関係は、複数のレイヤをサポートするビデオでの空間的階層(spatial laye
r)間の関係と同様である。
コンテンツ伝達経路(content delivery path)における全てのノー
ドでビットストリームを効果的且つ効率的に変換するためにはビットストリームのスケー
ラビリティ情報が相当重要である。現在単一レイヤに対するビデオコーディングの標準(
high efficiency video coding)では、NAL Unit(以下
、NALU)ヘッダ(header)に階層情報と関連した2個のフィールドであるtem
poral_idとreserved_one_5bitsが存在する。3bitsの長さ
を有するtemporal_idは、ビデオビットストリームの時間的レイヤ(tempo
ral layer)を示し、reserved_one_5bitsは、以後に他の階層情
報を示すための領域に該当する。
ドでビットストリームを効果的且つ効率的に変換するためにはビットストリームのスケー
ラビリティ情報が相当重要である。現在単一レイヤに対するビデオコーディングの標準(
high efficiency video coding)では、NAL Unit(以下
、NALU)ヘッダ(header)に階層情報と関連した2個のフィールドであるtem
poral_idとreserved_one_5bitsが存在する。3bitsの長さ
を有するtemporal_idは、ビデオビットストリームの時間的レイヤ(tempo
ral layer)を示し、reserved_one_5bitsは、以後に他の階層情
報を示すための領域に該当する。
時間的レイヤは、ビデオコーディングレイヤ(video coding layer、
VCL)NAL unitで構成された時間的にスケールされることができるビットストリ
ームのレイヤを意味し、時間的レイヤは、特定のtemporal_id値を有する。
VCL)NAL unitで構成された時間的にスケールされることができるビットストリ
ームのレイヤを意味し、時間的レイヤは、特定のtemporal_id値を有する。
本発明は、複数のレイヤをサポートするビットストリーム内で映像の抽出情報(ext
raction)及び階層的情報(scalability information)を効
果的に記述し、それをシグナリングするための方法及びそれを具現する装置に関する発明
である。
raction)及び階層的情報(scalability information)を効
果的に記述し、それをシグナリングするための方法及びそれを具現する装置に関する発明
である。
本発明では、ビットストリームを2つのタイプ、時間スケーラビリティ(tempor
al scalability)のみをサポートする基本タイプ(base type)と、
時間を含む空間/画質/視点をサポートするスケーラビリティを有することができる拡張タ
イプ(extended type)とに分けて説明する。
al scalability)のみをサポートする基本タイプ(base type)と、
時間を含む空間/画質/視点をサポートするスケーラビリティを有することができる拡張タ
イプ(extended type)とに分けて説明する。
ビットストリームの第1のタイプは、単一階層ビデオをサポートするビットストリーム
に対するものであり、第2のタイプは、HEVCベースの階層的ビデオ符号化で向上階層
のためのものである。以下、2つのビットストリームタイプのスケーラビリティ情報を表
現するための改善方案を提案する。本発明によると、拡張タイプにおいて、5bitのr
eserved_one_5bitsは、スケーラブル階層の識別子を示すlayer_i
dとして使われることができる。
に対するものであり、第2のタイプは、HEVCベースの階層的ビデオ符号化で向上階層
のためのものである。以下、2つのビットストリームタイプのスケーラビリティ情報を表
現するための改善方案を提案する。本発明によると、拡張タイプにおいて、5bitのr
eserved_one_5bitsは、スケーラブル階層の識別子を示すlayer_i
dとして使われることができる。
NALUヘッダからnal_ref_flag除去
nal_ref_flagは、非参照ピクチャ(non-reference pictu
re)を示すために使われる。この情報は、非参照ピクチャと参照ピクチャ(refere
nce picture)との間の概略的な優先順位を示すが、送信のためのnal_re
f_flagの使用は多少制限的である。
re)を示すために使われる。この情報は、非参照ピクチャと参照ピクチャ(refere
nce picture)との間の概略的な優先順位を示すが、送信のためのnal_re
f_flagの使用は多少制限的である。
参照ピクチャ(Reference picture)は、デコーディング順序上、後続
のピクチャ(subsequent pictures)のデコーディング時、画面間予測
のために使われることができるサンプルを含むピクチャを意味する。
のピクチャ(subsequent pictures)のデコーディング時、画面間予測
のために使われることができるサンプルを含むピクチャを意味する。
非参照ピクチャ(non-reference picture)は、デコーディング順
序上、後続のピクチャのデコーディング時、画面間予測のために使われないサンプルを含
むピクチャを意味する。
序上、後続のピクチャのデコーディング時、画面間予測のために使われないサンプルを含
むピクチャを意味する。
nal_ref_flagは、エンコーディング時、該当nalユニットが全体ビットス
トリーム上で非参照ピクチャであるか、または参照ピクチャであるかを示す情報を示すフ
ラグである。
トリーム上で非参照ピクチャであるか、または参照ピクチャであるかを示す情報を示すフ
ラグである。
nal_ref_flagが1の場合、NALUは、SPS(sequence para
meter set)、PPS(picture parameter set)、APS(a
daptation parameter set)または参照ピクチャのスライスを含む
ことを意味し、nal_ref_flagが0の場合、NALUは、非参照ピクチャの一部
または全部を含むスライスを含むことを意味する。
meter set)、PPS(picture parameter set)、APS(a
daptation parameter set)または参照ピクチャのスライスを含む
ことを意味し、nal_ref_flagが0の場合、NALUは、非参照ピクチャの一部
または全部を含むスライスを含むことを意味する。
このとき、nal_ref_flag値が1であるNALUは、参照ピクチャのスライス
を含むことができ、nal_ref_flagは、VPS(video parameter
set)、SPS(sequence parameter set)、PPS(pictu
re parameter set)のNALUに対して1の値を有する。特定ピクチャの
VCL NALUのうち一つが、nal_ref_flag値が0の場合、該当ピクチャの
全てのVCL NALUに対してnal_ref_flagは、0の値を有する。
を含むことができ、nal_ref_flagは、VPS(video parameter
set)、SPS(sequence parameter set)、PPS(pictu
re parameter set)のNALUに対して1の値を有する。特定ピクチャの
VCL NALUのうち一つが、nal_ref_flag値が0の場合、該当ピクチャの
全てのVCL NALUに対してnal_ref_flagは、0の値を有する。
一方、全ての非参照ピクチャ(non-reference picture)、特に、
大部分最上位時間的レイヤに該当する非参照ピクチャが抽出されると、抽出後に残った全
てのピクチャのnal_ref_flagは1になる。
大部分最上位時間的レイヤに該当する非参照ピクチャが抽出されると、抽出後に残った全
てのピクチャのnal_ref_flagは1になる。
しかし、適応変換された(抽出された)ビットストリームの一部ピクチャ、即ち、残った
ビットストリームで最上位時間的レイヤに該当するピクチャは、nal_ref_flag
が1であるとしても非参照ピクチャになる。
ビットストリームで最上位時間的レイヤに該当するピクチャは、nal_ref_flag
が1であるとしても非参照ピクチャになる。
即ち、NALUヘッダの他のシンタックス要素(例えば、temporal_id)が適
応変換(抽出)をサポートするのに一層効果的である。即ち、ビットストリームが含む全体
時間的レイヤの個数とNALUヘッダのtemporal_id値を利用し、所望の時間
的レイヤを含むビットストリームを抽出することができる。
応変換(抽出)をサポートするのに一層効果的である。即ち、ビットストリームが含む全体
時間的レイヤの個数とNALUヘッダのtemporal_id値を利用し、所望の時間
的レイヤを含むビットストリームを抽出することができる。
また、nal_ref_flagは、nal_ref_flagを含むNALUで構成され
たピクチャをデコーディング(復元)した後、DPB(decoded picture b
uffer)のようなメモリに格納する時、該当ピクチャを以後に参照ピクチャとして使
用するかどうかを表示する時も使われることができる。nal_ref_flagが1の場
合、以後に参照ピクチャとして使われると表示し、nal_ref_flagが0の場合、
以後に参照ピクチャとして使用しないと表示することができる。
たピクチャをデコーディング(復元)した後、DPB(decoded picture b
uffer)のようなメモリに格納する時、該当ピクチャを以後に参照ピクチャとして使
用するかどうかを表示する時も使われることができる。nal_ref_flagが1の場
合、以後に参照ピクチャとして使われると表示し、nal_ref_flagが0の場合、
以後に参照ピクチャとして使用しないと表示することができる。
nal_ref_flagを介して該当NALUが非参照ピクチャであるか、または参照
ピクチャであるかを判断せずに、デコーディングされたピクチャをDPBに格納する時、
参照ピクチャで表示することができる。この場合、デコーディングされたピクチャが非参
照ピクチャであるが、参照ピクチャで表示されても、デコーディング順序上、該当ピクチ
ャの次のピクチャをデコーディングするにあたって、次のピクチャのヘッダ(slice
header)に伝達される参照ピクチャリストに該当ピクチャが含まれていないため、
問題が発生しない。
ピクチャであるかを判断せずに、デコーディングされたピクチャをDPBに格納する時、
参照ピクチャで表示することができる。この場合、デコーディングされたピクチャが非参
照ピクチャであるが、参照ピクチャで表示されても、デコーディング順序上、該当ピクチ
ャの次のピクチャをデコーディングするにあたって、次のピクチャのヘッダ(slice
header)に伝達される参照ピクチャリストに該当ピクチャが含まれていないため、
問題が発生しない。
即ち、次のピクチャをデコーディングする時、スライスヘッダに含まれている参照ピク
チャリストによって以前にデコーディングされたピクチャが参照ピクチャであるか、また
は非参照ピクチャであるかが表示される。したがって、nal_ref_flagを介して
デコーディングされたピクチャが参照ピクチャであるかどうかが判断されずに、参照ピク
チャで表示されても、デコーディングされたピクチャを参照ピクチャまたは非参照ピクチ
ャと判断するのに問題が発生しない。
チャリストによって以前にデコーディングされたピクチャが参照ピクチャであるか、また
は非参照ピクチャであるかが表示される。したがって、nal_ref_flagを介して
デコーディングされたピクチャが参照ピクチャであるかどうかが判断されずに、参照ピク
チャで表示されても、デコーディングされたピクチャを参照ピクチャまたは非参照ピクチ
ャと判断するのに問題が発生しない。
本発明では、NALUヘッダからnal_ref_flagを削除し、またはnal_r
ef_flagの意味(semantics)を変更することを提案する。nal_ref_
flag削除と関連した実施例は、下記の通りである。
ef_flagの意味(semantics)を変更することを提案する。nal_ref_
flag削除と関連した実施例は、下記の通りである。
実施例1
nal_ref_flagをslice_ref_flagに変更し、フラグの位置をNA
LUヘッダからスライスヘッダ(slice header)に移す。スライスヘッダのシ
ンタックスは、表1のように修正されることができる。
LUヘッダからスライスヘッダ(slice header)に移す。スライスヘッダのシ
ンタックスは、表1のように修正されることができる。
表1において、slice_ref_flagの値が1の場合、スライスが参照ピクチャ
の一部であることを指示し、0の場合、スライスが非参照ピクチャの一部であることを指
示する。
の一部であることを指示し、0の場合、スライスが非参照ピクチャの一部であることを指
示する。
実施例2
nal_ref_flagをau_ref_flagに変更し、フラグの位置をNALUヘ
ッダからアクセスユニットデリミタ(access unit delimiter)に移す
。アクセスユニットデリミタのシンタックスは、表2の通りである。
ッダからアクセスユニットデリミタ(access unit delimiter)に移す
。アクセスユニットデリミタのシンタックスは、表2の通りである。
表2において、au_ref_flagが1の場合、アクセスユニットが参照ピクチャを
含むことを指示し、0の場合、アクセスユニットが非参照ピクチャを含むことを指示する
。
含むことを指示し、0の場合、アクセスユニットが非参照ピクチャを含むことを指示する
。
実施例3
nal_ref_flagを他のシンタックスに移動させずに、nal_ref_flag
をNALUヘッダから削除する。
をNALUヘッダから削除する。
エンコーディング時、全体ビットストリームで非参照ピクチャであるか、または参照ピ
クチャであるかを示す1ビットのフラグ情報であるnal_ref_flagが削除される
と、nal_ref_flagによって実行されたピクチャが参照ピクチャであるかどうか
に対する判断は、他の過程を介して実行されることができる。受信されたピクチャをデコ
ーディングした後、デコーディングされたピクチャをDPB(decoded pictu
re buffer)に無条件参照ピクチャで表示する。即ち、デコーディングされたピク
チャが参照ピクチャであるかどうかを判断せずに、参照ピクチャで表示されることができ
る。
クチャであるかを示す1ビットのフラグ情報であるnal_ref_flagが削除される
と、nal_ref_flagによって実行されたピクチャが参照ピクチャであるかどうか
に対する判断は、他の過程を介して実行されることができる。受信されたピクチャをデコ
ーディングした後、デコーディングされたピクチャをDPB(decoded pictu
re buffer)に無条件参照ピクチャで表示する。即ち、デコーディングされたピク
チャが参照ピクチャであるかどうかを判断せずに、参照ピクチャで表示されることができ
る。
その後、デコーディングされたピクチャの次のピクチャに対するスライスヘッダをパー
シングし、スライスヘッダに含まれている参照ピクチャ情報に基づいてデコーディングさ
れたピクチャが参照ピクチャであるか、または非参照ピクチャであるかを表示することが
できる。
シングし、スライスヘッダに含まれている参照ピクチャ情報に基づいてデコーディングさ
れたピクチャが参照ピクチャであるか、または非参照ピクチャであるかを表示することが
できる。
実施例4
NALUヘッダからnal_ref_flagを削除し、非参照ピクチャのNALUとい
う情報を示すためにtemporal_idを使用することができる。temporal_
idは“7”、またはビットストリームに含まれている最大時間的レイヤの個数-1(即
ち、max_temporal_layers_minus1)、または“0”を除いた既設
定された値になることができる。
う情報を示すためにtemporal_idを使用することができる。temporal_
idは“7”、またはビットストリームに含まれている最大時間的レイヤの個数-1(即
ち、max_temporal_layers_minus1)、または“0”を除いた既設
定された値になることができる。
実施例5
NALUヘッダからnal_ref_flagを削除し、非参照ピクチャのNALUとい
う情報を示すためにreserved_one_5bitsをpriority_id構成
要素として使用することができる。priority_idは、該当NALUの優先順位(
priority)を示す識別子であって、異なる空間、時間及び画質に関係なく優先順
位によるビットストリーム抽出機能を提供するために使われる。
う情報を示すためにreserved_one_5bitsをpriority_id構成
要素として使用することができる。priority_idは、該当NALUの優先順位(
priority)を示す識別子であって、異なる空間、時間及び画質に関係なく優先順
位によるビットストリーム抽出機能を提供するために使われる。
即ち、もし、temporal_id=Taが最上位時間的レイヤの識別子である場合
、temporal_id=Taであり、priority_id=31(または、他の特
定値)であるNALUを非参照ピクチャのNALUであることを示すために使用する。
、temporal_id=Taであり、priority_id=31(または、他の特
定値)であるNALUを非参照ピクチャのNALUであることを示すために使用する。
nal_ref_flagをシグナリングするために使われた1bitは、下記のうちい
ずれか一つとして使われることができる。
ずれか一つとして使われることができる。
(1)nal_unit_typeの指示に使われることができる。nal_unit_ty
peは、7bits信号になることができ、NALUタイプの個数は、2倍に増加するこ
とができる。
peは、7bits信号になることができ、NALUタイプの個数は、2倍に増加するこ
とができる。
(2)temporal_idの指示に使われることができる。temporal_idは
、4bits信号になることができ、最大時間的レイヤの数が2倍に増加することができ
る。
、4bits信号になることができ、最大時間的レイヤの数が2倍に増加することができ
る。
(3)layer_idを指示するために使われることができる。layer_idは、階
層的ビットストリームのスケーラブル階層の識別子を意味し、reserved_one_
5bitsシンタックス要素によってシグナリングされることができる。スケーラブル階
層を識別するために使われたreserved_one_5bitsの5bitにnal_
ref_flagのシグナリングのために使用した1bitが追加されることで、lay
er_idは6bit信号になることができる。6bitを使用するようになると、64
個のスケーラブル階層を識別することができる。
層的ビットストリームのスケーラブル階層の識別子を意味し、reserved_one_
5bitsシンタックス要素によってシグナリングされることができる。スケーラブル階
層を識別するために使われたreserved_one_5bitsの5bitにnal_
ref_flagのシグナリングのために使用した1bitが追加されることで、lay
er_idは6bit信号になることができる。6bitを使用するようになると、64
個のスケーラブル階層を識別することができる。
(4)reserved_one_5bitsがpriorityを示すかどうかを知らせ
るflagとして使われることができる。
るflagとして使われることができる。
(5)reserved_bitとして使われることができる。
もし、nal_ref_flagをNALUヘッダから削除しない場合、nal_ref_
flagの意味は、下記のように修正されることができる。
flagの意味は、下記のように修正されることができる。
nal_ref_flagが0の場合、NALUは、非参照ピクチャのスライスのみを含
むことを指示し、nal_ref_flagが1の場合、NALUは、参照ピクチャまたは
非参照ピクチャのスライスを含むことができることを指示する。
むことを指示し、nal_ref_flagが1の場合、NALUは、参照ピクチャまたは
非参照ピクチャのスライスを含むことができることを指示する。
ビデオパラメータセットの活性化シグナリング
ビデオパラメータセット(video parameter set)は、映像をデコーデ
ィングするための最も基本的な情報を含み、既存のSPSに存在した内容を含むことがで
きる。
ィングするための最も基本的な情報を含み、既存のSPSに存在した内容を含むことがで
きる。
ビデオパラメータセットには、時間的スケーラビリティをサポートする時間的レイヤを
示すサブレイヤ(sub-layer)に対する情報と、空間的(spatial)、クオリ
ティ的(quality)及び視点的(view)スケーラビリティをサポートする複数の階
層に対する情報とを含むことができる。即ち、ビデオパラメータセットは、複数の階層情
報、即ち、HEVC extensionのためのシンタックスを含むこともできる。
示すサブレイヤ(sub-layer)に対する情報と、空間的(spatial)、クオリ
ティ的(quality)及び視点的(view)スケーラビリティをサポートする複数の階
層に対する情報とを含むことができる。即ち、ビデオパラメータセットは、複数の階層情
報、即ち、HEVC extensionのためのシンタックスを含むこともできる。
A.ビデオパラメータセット(Video Parameter Set)
ビデオパラメータセットに対するシンタックスは、表3の通りである。
表3において、大部分のシンタックスは、単一レイヤを含むビットストリームに適用さ
れるSPSシンタックスと同じ意味を有し、追加的な部分は、下記の通りである。
れるSPSシンタックスと同じ意味を有し、追加的な部分は、下記の通りである。
-video_parameter_set_idは、ビデオパラメータセット(vide
o parameter set)の識別子を意味し、SPS(sequence para
meter set)、SEI(supplemental enhancement in
formation)、アクセスユニットデリミタ(access unit delimi
ter)で参照されることができる。
o parameter set)の識別子を意味し、SPS(sequence para
meter set)、SEI(supplemental enhancement in
formation)、アクセスユニットデリミタ(access unit delimi
ter)で参照されることができる。
-priority_id_flagが1の場合、reserved_one_5bits
がSVC標準のpriority_idと同じく使われることを意味し、priorit
y_id_flagが0の場合、reserved_one_5bitsがlayer_id
として使われることを意味する。
がSVC標準のpriority_idと同じく使われることを意味し、priorit
y_id_flagが0の場合、reserved_one_5bitsがlayer_id
として使われることを意味する。
-extension_info_flagが0の場合、ビットストリームがHEVCの
単一階層標準に従うことを指示し、1の場合、スケーラビリティのサポートのための向上
階層(HEVC extensionをサポートする場合)を示し、階層と関連した情報が
提供される。
単一階層標準に従うことを指示し、1の場合、スケーラビリティのサポートのための向上
階層(HEVC extensionをサポートする場合)を示し、階層と関連した情報が
提供される。
B.シーケンスパラメータセット(Sequence Parameter Set、S
PS)修正
PS)修正
表4のように、既存シンタックスのうち一部は、VPSに反映され、SPSから削除さ
れることができる。一方、SPSにはvps_idシンタックス要素が追加されることが
できる。vps_idが追加されたSPSシンタックスは、表4の通りである。表4にお
いて、削除されたシンタックスは、シンタックス中間に線を引いて表現される。
れることができる。一方、SPSにはvps_idシンタックス要素が追加されることが
できる。vps_idが追加されたSPSシンタックスは、表4の通りである。表4にお
いて、削除されたシンタックスは、シンタックス中間に線を引いて表現される。
vps_idは、SPSにより参照されるビデオパラメータセット(video par
ameter set)を識別するための識別子を指示し、vps_idは、0~Xの範囲
を有することができる。
ameter set)を識別するための識別子を指示し、vps_idは、0~Xの範囲
を有することができる。
C.ビデオパラメータセット(Video Parameter Set)のための活性化
(activation)シグナリング
(activation)シグナリング
スライスヘッダには、該当スライスが参照するピクチャパラメータセットに対するイン
デックス情報が含まれており、ピクチャパラメータセットには、該当ピクチャが参照する
シーケンスパラメータセットに対するインデックス情報が含まれている。シーケンスパラ
メータセットには、該当シーケンスが参照するビデオパラメータセットに対する情報が含
まれている。このようにパラメータセットに対する情報をパーシングし、パーシングされ
た該当パラメータセット情報を参照することを活性化(activation)という。
デックス情報が含まれており、ピクチャパラメータセットには、該当ピクチャが参照する
シーケンスパラメータセットに対するインデックス情報が含まれている。シーケンスパラ
メータセットには、該当シーケンスが参照するビデオパラメータセットに対する情報が含
まれている。このようにパラメータセットに対する情報をパーシングし、パーシングされ
た該当パラメータセット情報を参照することを活性化(activation)という。
特定パラメータセットに対する情報を利用するために、即ち、パラメータセットを活性
化するためにはスライスヘッダから順次にパーシングされなければならない。いずれのS
PSが活性化されるか(active)を知るために、全てのスライスヘッダ(slice
header)及び関連したPPSが分析されなければならないことを意味する。
化するためにはスライスヘッダから順次にパーシングされなければならない。いずれのS
PSが活性化されるか(active)を知るために、全てのスライスヘッダ(slice
header)及び関連したPPSが分析されなければならないことを意味する。
単一階層を含むビットストリームのうち、サブレイヤ(時間的レイヤ)の中から一部を抽
出する時、抽出器(extractor)は、NALUヘッダと複数のパラメータセット(
parameter set)を分析(パーシング)する必要がある。
出する時、抽出器(extractor)は、NALUヘッダと複数のパラメータセット(
parameter set)を分析(パーシング)する必要がある。
もし、ビデオパラメータセットまたはシーケンスパラメータセットにNALUの抽出の
ための情報が含まれている場合、抽出器は、スライスヘッダから順次に上位のパラメータ
セットをパーシングしなければならない。これは抽出器がパラメータセット(param
eter set)とスライスヘッダ(slice header)の全てのシンタックス要
素を理解しなければならないということを意味する。
ための情報が含まれている場合、抽出器は、スライスヘッダから順次に上位のパラメータ
セットをパーシングしなければならない。これは抽出器がパラメータセット(param
eter set)とスライスヘッダ(slice header)の全てのシンタックス要
素を理解しなければならないということを意味する。
また、映像のデコーディング過程でも複雑なパーシング過程無しでvps_idまたは
sps_idを探し、必要なパラメータセットのみを活性化することができる。この場合
、ビデオパラメータセットまたはシーケンスパラメータセットが活性化されるパラメータ
インデックス情報を含む場合、複雑なスライスヘッダ(slice header)及び関
連したPPSに対するパーシング手順を減少させることができる。
sps_idを探し、必要なパラメータセットのみを活性化することができる。この場合
、ビデオパラメータセットまたはシーケンスパラメータセットが活性化されるパラメータ
インデックス情報を含む場合、複雑なスライスヘッダ(slice header)及び関
連したPPSに対するパーシング手順を減少させることができる。
一方、このようなシンタックスの要素のうち、一部分のみがビットストリーム抽出のた
めに必要な情報を含むことができる。それにも拘わらず、抽出器が全てのシンタックス要
素を分析することは、大きい負担になることができる。このような問題を解決するために
、下記のような方法を提案する。
めに必要な情報を含むことができる。それにも拘わらず、抽出器が全てのシンタックス要
素を分析することは、大きい負担になることができる。このような問題を解決するために
、下記のような方法を提案する。
本発明において、パラメータセットの活性化(activation)は、抽出器がスラ
イスヘッダ(slice header)及びそれと関連したPPS(picture pa
rameter set)の分析無しでいずれのパラメータセットが活性化されるかを知る
ことができるようにシグナリングすることを意味する。
イスヘッダ(slice header)及びそれと関連したPPS(picture pa
rameter set)の分析無しでいずれのパラメータセットが活性化されるかを知る
ことができるようにシグナリングすることを意味する。
本発明によると、いずれのビデオパラメータセット、シーケンスパラメータセットまた
はピクチャパラメータセットが活性化されるかどうかを別途にシグナリングすることで、
抽出器は、全てのスライスヘッダ(slice header)及び関連したPPSを分析
しなければならない負担を減少させることができる。
はピクチャパラメータセットが活性化されるかどうかを別途にシグナリングすることで、
抽出器は、全てのスライスヘッダ(slice header)及び関連したPPSを分析
しなければならない負担を減少させることができる。
ビデオパラメータセットは、アップデートされることもできる。抽出器がスライスヘッ
ダを分析せずに、現在活性化されるVPS及び関連したSPSまたはPPSを知ることが
できるように、下記の方法のうち一つが使われることができる。
ダを分析せずに、現在活性化されるVPS及び関連したSPSまたはPPSを知ることが
できるように、下記の方法のうち一つが使われることができる。
(1)vps_id、sps_id、pps_idをアクセスユニットデリミタ(acces
s unit delimiter)に含ませることができる。vps_id、sps_id
、pps_idは、各々、関連したAU内のNALUのために使われたビデオパラメータ
セット、シーケンスパラメータセット、ピクチャパラメータセットの識別子を示す。
s unit delimiter)に含ませることができる。vps_id、sps_id
、pps_idは、各々、関連したAU内のNALUのために使われたビデオパラメータ
セット、シーケンスパラメータセット、ピクチャパラメータセットの識別子を示す。
アクセスユニットデリミタ(Access unit delimiter)内に各識別子
の存在可否を示すために、vps_id_present_flag、sps_id_pre
sent_flag、pps_id_present_flagを使用し、提案するアクセス
ユニットデリミタのシンタックスは、表5の通りである。
の存在可否を示すために、vps_id_present_flag、sps_id_pre
sent_flag、pps_id_present_flagを使用し、提案するアクセス
ユニットデリミタのシンタックスは、表5の通りである。
(1-1)他の方法は、表6のように、sps_id及びpps_idを除いてvps_i
dのみをアクセスユニットデリミタ(access unit delimiter)に含ま
せることができる。
dのみをアクセスユニットデリミタ(access unit delimiter)に含ま
せることができる。
(2)ビデオパラメータセットの活性化シグナリングのための他の方法は、新たなSEI
メッセージ(parameter_set_reference)を使用することである。S
EIメッセージは、関連したAU内のNALUのために使われたビデオパラメータセット
、シーケンスパラメータセット、ピクチャパラメータセットの識別子を示すvps_id
、sps_id、pps_idの存在可否を知らせるためのシンタックスを含む。
メッセージ(parameter_set_reference)を使用することである。S
EIメッセージは、関連したAU内のNALUのために使われたビデオパラメータセット
、シーケンスパラメータセット、ピクチャパラメータセットの識別子を示すvps_id
、sps_id、pps_idの存在可否を知らせるためのシンタックスを含む。
各識別子の存在可否を示すために、vps_id_present_flag、sps_i
d_present_flag、pps_id_present_flagシンタックスが使
われることができ、SEIシンタックスは、表7の通りである。
d_present_flag、pps_id_present_flagシンタックスが使
われることができ、SEIシンタックスは、表7の通りである。
(2-1)また、表8のようにpps_idを除いてsps_idとvps_idをSEI
メッセージに含ませて活性化を知らせることもできる。SEIメッセージに含まれている
sps_idとvps_idは、該当SEIメッセージと関連したアクセスユニット(ac
cess unit)のビデオコーディングレイヤNALUが参照するsps_idとvp
s_idを含むことができる。したがって、sps_idとvps_idは、活性化される
可能性があるパラメータセットの情報を示すことができる。
メッセージに含ませて活性化を知らせることもできる。SEIメッセージに含まれている
sps_idとvps_idは、該当SEIメッセージと関連したアクセスユニット(ac
cess unit)のビデオコーディングレイヤNALUが参照するsps_idとvp
s_idを含むことができる。したがって、sps_idとvps_idは、活性化される
可能性があるパラメータセットの情報を示すことができる。
表8において、vps_idは、現在活性化されるビデオパラメータセットのvide
o_parameter_set_idを示す。vps_id値は、0~15の値を有するこ
とができる。
o_parameter_set_idを示す。vps_id値は、0~15の値を有するこ
とができる。
sps_id_present_flagが1の値を有する場合、現在活性化されるシー
ケンスパラメータセットのsequence_parameter_set_idが該当S
EIメッセージに含まれていることを示し、sps_id_present_flagが0
の値を有する場合、活性化されるシーケンスパラメータセットのsequence_pa
rameter_set_idが該当SEIメッセージに含まれていないことを示す。
ケンスパラメータセットのsequence_parameter_set_idが該当S
EIメッセージに含まれていることを示し、sps_id_present_flagが0
の値を有する場合、活性化されるシーケンスパラメータセットのsequence_pa
rameter_set_idが該当SEIメッセージに含まれていないことを示す。
sps_idは、現在活性化されるシーケンスパラメータセットのsequence_p
arameter_set_idを示す。sps_idは、0~31の値、より限定的には
、0~15の値を有することができる。
arameter_set_idを示す。sps_idは、0~31の値、より限定的には
、0~15の値を有することができる。
psr_extension_flagが0の場合、parameter set ref
erence SEI message extensionシンタックス要素がpara
meter set reference SEIメッセージに含まれていないことを意味
し、psr_extension_flagが1の場合、parameter set re
ference SEI message extensionシンタックス要素をpar
ameter set reference SEIメッセージが含まれてシンタックスを
拡張して使用することを意味する。
erence SEI message extensionシンタックス要素がpara
meter set reference SEIメッセージに含まれていないことを意味
し、psr_extension_flagが1の場合、parameter set re
ference SEI message extensionシンタックス要素をpar
ameter set reference SEIメッセージが含まれてシンタックスを
拡張して使用することを意味する。
psr_extension_lengthは、psr_extension_dataの
長さを示す。psr_extension_lengthは、0~256の範囲を値を有す
ることができ、psr_extension_data_byteは、どのような値も有す
ることができる。
長さを示す。psr_extension_lengthは、0~256の範囲を値を有す
ることができ、psr_extension_data_byteは、どのような値も有す
ることができる。
(2-2)また、表9のように、pps_idを除いて一つ以上のsps_idとvps_
idをSEIメッセージに含ませてシグナリングすることもできる。
idをSEIメッセージに含ませてシグナリングすることもできる。
表9において、vps_idは、現在活性化されるビデオパラメータセットのvide
o_parameter_set_idを示す。vps_idは、0~15の値を有すること
ができる。
o_parameter_set_idを示す。vps_idは、0~15の値を有すること
ができる。
num_reference_spsは、現在活性化されるvps_idを参照するシー
ケンスパラメータセットの個数を示す。
ケンスパラメータセットの個数を示す。
sps_id(i)は、現在活性化されるシーケンスパラメータセットのsequenc
e_parameter_set_idを示し、sps_idは、0~31の値、より限定的
には、0~15の値を有することができる。
e_parameter_set_idを示し、sps_idは、0~31の値、より限定的
には、0~15の値を有することができる。
(2-3)また、表10のように、sps_id及びpps_idを除いてvps_idの
みをSEIメッセージに含ませてシグナリングすることもできる。
みをSEIメッセージに含ませてシグナリングすることもできる。
(3)ビデオパラメータセットの活性化シグナリングのための他の方法は、Buffer
ing period SEIメッセージにvps_id、sps_id、pps_idを知
らせる情報を含ませることである。表11は、vps_id、sps_id、pps_id
識別子の存在可否を示すためのvps_id_present_flag、sps_id_p
resent_flag、pps_id_present_flagを含んでいるシンタック
スを示す。
ing period SEIメッセージにvps_id、sps_id、pps_idを知
らせる情報を含ませることである。表11は、vps_id、sps_id、pps_id
識別子の存在可否を示すためのvps_id_present_flag、sps_id_p
resent_flag、pps_id_present_flagを含んでいるシンタック
スを示す。
(3-1)また、表12のように、sps_id及びpps_idを除いてvps_idの
みをBuffering period SEIメッセージに含ませてパラメータセットの
活性化をシグナリングすることもできる。
みをBuffering period SEIメッセージに含ませてパラメータセットの
活性化をシグナリングすることもできる。
(4)パラメータセットの活性化シグナリングのための他の方法は、Recovery
point SEIメッセージにvps_id、sps_id、pps_idを知らせる情報
を含ませることである。表13は、vps_id、sps_id、pps_id識別子の存
在可否を示すためのvps_id_present_flag、sps_id_presen
t_flag、pps_id_present_flagを含んでいるシンタックスを示す。
point SEIメッセージにvps_id、sps_id、pps_idを知らせる情報
を含ませることである。表13は、vps_id、sps_id、pps_id識別子の存
在可否を示すためのvps_id_present_flag、sps_id_presen
t_flag、pps_id_present_flagを含んでいるシンタックスを示す。
(4-1)また、表14のように、sps_id及びpps_idを除いてvps_idの
みをRecovery point SEIメッセージに含ませて知らせる方法もある。
みをRecovery point SEIメッセージに含ませて知らせる方法もある。
前述したvps_idまたはsps_idを伝達するメッセージは、IRAP(intr
a random access point)アクセスユニットに含まれることができる。
a random access point)アクセスユニットに含まれることができる。
前述した情報シグナリング方法のうち少なくとも一つがアクセスユニットに含まれて使
われる場合、抽出器は、ビットストリームを抽出するために、前記シグナリング方法を介
してvps_id、sps_id、pps_id値を探し、一つ以上のvps/sps/pp
sを管理することができる。
われる場合、抽出器は、ビットストリームを抽出するために、前記シグナリング方法を介
してvps_id、sps_id、pps_id値を探し、一つ以上のvps/sps/pp
sを管理することができる。
また、デコーディング装置またはデコーディングを実行するデコーディング部は、前記
シグナリング方法を介してvps_id、sps_id、pps_id値を探し、該当パラ
メータセットを活性化してパラメータセットと関連したAUをデコーディングすることが
できる。
シグナリング方法を介してvps_id、sps_id、pps_id値を探し、該当パラ
メータセットを活性化してパラメータセットと関連したAUをデコーディングすることが
できる。
拡張タイプ(Extended type)におけるビットストリームの表現
以下、階層拡張をサポートするビットストリームを含む場合、スケーラブル階層に対す
る情報を表示し、これをシグナリングするためのVPSのextension_info(
)と新たなSEIメッセージを提案する。拡張タイプ(Extended type)におい
て、ビットストリームを表現するためには下記のような情報がシグナリングされることが
できる。
る情報を表示し、これをシグナリングするためのVPSのextension_info(
)と新たなSEIメッセージを提案する。拡張タイプ(Extended type)におい
て、ビットストリームを表現するためには下記のような情報がシグナリングされることが
できる。
layer_idは、レイヤの優先順位(priority)値を伝達するかどうかを示
すものをシグナリングする。
すものをシグナリングする。
このとき、各layer_id値に対応して空間階層(dependency_id値に
より識別)、画質階層(quality_id値により識別)、視点(view_id値により
識別)などをシグナリングすることができ、時間的レイヤは、NALUヘッダのtemp
oral_idにより識別されることができる。
より識別)、画質階層(quality_id値により識別)、視点(view_id値により
識別)などをシグナリングすることができ、時間的レイヤは、NALUヘッダのtemp
oral_idにより識別されることができる。
また、layer_idと関連したビデオの領域はregion_idによりシグナリン
グされることができる。
グされることができる。
また、スケーラブル階層のうち、dependency情報、各スケーラブル階層のb
itrate情報、各スケーラブル階層の品質情報がシグナリングされることができる。
itrate情報、各スケーラブル階層の品質情報がシグナリングされることができる。
extension_info()シンタックスは、表15の通りである。
表15のシンタックスに対する意味は、下記の通りである。
-num_frame_sizes_minus1 plus1は、符号化されたビデオシ
ーケンス内に含まれている他の種類の映像の大きさ情報(例えば、pic_width_i
n_luma_samples[i]、pic_height_in_luma_samples
[i]、pic_cropping_flag[i]、pic_cropping_flag[i]
、pic_crop_left_offset[i]、pic_crop_right_offs
etv[i]、pic_crop_top_offset[i]、pic_crop_botto
m_offset[i])の最大個数を示す。num_frame_sizes_minus1
値は、0~Xの範囲を有することができる。他の種類の映像とは、異なる解像度を有する
映像を含むことができる。
ーケンス内に含まれている他の種類の映像の大きさ情報(例えば、pic_width_i
n_luma_samples[i]、pic_height_in_luma_samples
[i]、pic_cropping_flag[i]、pic_cropping_flag[i]
、pic_crop_left_offset[i]、pic_crop_right_offs
etv[i]、pic_crop_top_offset[i]、pic_crop_botto
m_offset[i])の最大個数を示す。num_frame_sizes_minus1
値は、0~Xの範囲を有することができる。他の種類の映像とは、異なる解像度を有する
映像を含むことができる。
-num_rep_formats_minus1 plus1は、符号化されたビデオシ
ーケンス内に含まれている他の種類のビット深さ(bit depth)と色差フォーマッ
ト(chroma format)(例えば、bit_depth_luma_minus8[i
]、bit_depth_chroma_minus8[i]、及びchroma_forma
t_idc values[i])の最大個数を示す。num_rep_formats_min
us1値は、0~Xの範囲を有する。
ーケンス内に含まれている他の種類のビット深さ(bit depth)と色差フォーマッ
ト(chroma format)(例えば、bit_depth_luma_minus8[i
]、bit_depth_chroma_minus8[i]、及びchroma_forma
t_idc values[i])の最大個数を示す。num_rep_formats_min
us1値は、0~Xの範囲を有する。
-pic_width_in_luma_samples[i]、pic_height_in
_luma_samples[i]、pic_cropping_flag[i]、pic_cr
opping_flag[i]、pic_crop_left_offset[i]、pic_c
rop_right_offsetv[i]、pic_crop_top_offset[i]、
pic_crop_bottom_offset[i]は、符号化されたビデオシーケンスの
i番目のpic_width_in_luma_samples、pic_height_in
_luma_samples、pic_cropping_flag、pic_croppi
ng_flag、pic_crop_left_offset、pic_crop_right
_offsetv、pic_crop_top_offset、pic_crop_botto
m_offset値を示す。
_luma_samples[i]、pic_cropping_flag[i]、pic_cr
opping_flag[i]、pic_crop_left_offset[i]、pic_c
rop_right_offsetv[i]、pic_crop_top_offset[i]、
pic_crop_bottom_offset[i]は、符号化されたビデオシーケンスの
i番目のpic_width_in_luma_samples、pic_height_in
_luma_samples、pic_cropping_flag、pic_croppi
ng_flag、pic_crop_left_offset、pic_crop_right
_offsetv、pic_crop_top_offset、pic_crop_botto
m_offset値を示す。
-bit_depth_luma_minus8[i]、bit_depth_chroma_
minus8[i]、及びchroma_format_idc[i]は、符号化されたビデオ
シーケンスのi番目のbit_depth_luma_minus8、bit_depth_
chroma_minus8、及びchroma_format_idc値を示す。
minus8[i]、及びchroma_format_idc[i]は、符号化されたビデオ
シーケンスのi番目のbit_depth_luma_minus8、bit_depth_
chroma_minus8、及びchroma_format_idc値を示す。
-num_layers_minus1は、ビットストリームで可能なスケーラブル階層
の数を示す。
の数を示す。
-dependency_id_flagが1の場合、layer_id値と関連した一
つ以上のdependency_id値があることを示す。
つ以上のdependency_id値があることを示す。
-quality_id_flagが1の場合、layer_id値と関連した一つ以上
のquality_id値があることを示す。
のquality_id値があることを示す。
-view_id_flagが1の場合、layer_id値と関連した一つ以上のvi
ew_id値があることを示す。
ew_id値があることを示す。
-region_id_flagが1の場合、layer_id値と関連した一つ以上の
region_id値があることを示す。
region_id値があることを示す。
-layer_dependency_info_flagが1の場合、スケーラブル階
層のdependency情報を提供することを示す。
層のdependency情報を提供することを示す。
-frame_size_idx[i]は、layer_id値がiである階層に適用され
るframe sizeのセットに対するインデックスを示す。frame_size_i
dx[i]は、0~X範囲の値を有する。
るframe sizeのセットに対するインデックスを示す。frame_size_i
dx[i]は、0~X範囲の値を有する。
-rep_format_idx[i]は、layer_id値がiである階層に適用され
るビット深さ(bit depth)と色差フォーマット(chroma format)のセ
ットに対するインデックスを示す。rep_format_idx[i]は、0~X範囲の値
を有する。
るビット深さ(bit depth)と色差フォーマット(chroma format)のセ
ットに対するインデックスを示す。rep_format_idx[i]は、0~X範囲の値
を有する。
-one_dependency_id_flag[i]が1の場合、layer_id値が
iと関連した一つのdependency_idのみが存在することを示し、one_de
pendency_id_flag[i]が0の場合、layer_id値がiと関連した二
つまたはそれ以上のdependency_id値が存在することを示す。
iと関連した一つのdependency_idのみが存在することを示し、one_de
pendency_id_flag[i]が0の場合、layer_id値がiと関連した二
つまたはそれ以上のdependency_id値が存在することを示す。
-dependency_id[i]は、layer_id値がiと関連したdepend
ency_id値を示す。
ency_id値を示す。
-dependency_id_min[i]及びdependency_id_max[i]
は、layer_id値がiと関連した最小dependency_id値と最大depe
ndency_id値を各々示す。
は、layer_id値がiと関連した最小dependency_id値と最大depe
ndency_id値を各々示す。
-one_quality_id_flag[i]が1の場合、layer_id値がiと関
連した一つのquality_idのみ存在することを示し、one_quality_i
d_flag[i]が0の場合、layer_id値がiと関連した二つまたはそれ以上のq
uality_id値が存在することを示す。
連した一つのquality_idのみ存在することを示し、one_quality_i
d_flag[i]が0の場合、layer_id値がiと関連した二つまたはそれ以上のq
uality_id値が存在することを示す。
-quality_id[i]は、layer_id値がiと関連したquality_i
d値を示す。
d値を示す。
-quality_id_min[i]及びquality_id_max[i]は、laye
r_id値がiと関連した最小qualtiy_id値と最大quality_id値を各
々示す。
r_id値がiと関連した最小qualtiy_id値と最大quality_id値を各
々示す。
-one_view_id_flag[i]が1の場合、layer_id値がiと関連した
一つのview_idが存在することを示し、0の場合、layer_id値がiと関連し
た二つまたはそれ以上のview_id値が存在することを示す。
一つのview_idが存在することを示し、0の場合、layer_id値がiと関連し
た二つまたはそれ以上のview_id値が存在することを示す。
-view_id[i]はlayer_id値がiと関連したview_id値を示す。
-depth_flag[i]が1の場合、layer_id値がiである現在スケーラブ
ル階層が3Dビデオビットストリームの深さ情報を含んでいることを示す。
ル階層が3Dビデオビットストリームの深さ情報を含んでいることを示す。
-view_id_min[i]及びview_id_max[i]は、layer_id値が
iと関連した最小view_id値と最大view_id値を各々示す。
iと関連した最小view_id値と最大view_id値を各々示す。
-num_regions_minus1 plus1は、layer_id値がiと関連
した領域の個数を示す。
した領域の個数を示す。
-region_id[j]は、layer_id値がiと関連した領域jの識別子を示す
。
。
-num_directly_dependent_layers[i]は、現在スケーラ
ブル階層iが直接的に関連したスケーラブル階層(デコーディング時、予測信号の形成に
必要な階層)の数を示す。
ブル階層iが直接的に関連したスケーラブル階層(デコーディング時、予測信号の形成に
必要な階層)の数を示す。
-directly_dependent_layer_id_delta_minus1[
i][j] plus1は、現在スケーラブル階層であるlayer_id[i]と、現在スケ
ーラブル階層が直接的に関連したj番目のスケーラブル階層の階層識別子との間の差を示
す。j番目の直接的に関連したスケーラブル階層の階層識別子は、(layer_id[i]
-directly_dependent_layer_id_delta_minus1[i
][j]-1)である。
i][j] plus1は、現在スケーラブル階層であるlayer_id[i]と、現在スケ
ーラブル階層が直接的に関連したj番目のスケーラブル階層の階層識別子との間の差を示
す。j番目の直接的に関連したスケーラブル階層の階層識別子は、(layer_id[i]
-directly_dependent_layer_id_delta_minus1[i
][j]-1)である。
他の実施例に係るextension_info()シンタックスは、表16の通りであ
る。
る。
表16に示すように、pic_width_in_luma_samples[i]及びpi
c_height_in_luma_samples[i]、bit_depth_luma_m
inus8[i]、bit_depth_chroma_minus8[i]、及びchrom
a_format_idc[i]は、異なるリプリゼンテーションフォーマットに対する情報
にシグナリングされることができる。
c_height_in_luma_samples[i]、bit_depth_luma_m
inus8[i]、bit_depth_chroma_minus8[i]、及びchrom
a_format_idc[i]は、異なるリプリゼンテーションフォーマットに対する情報
にシグナリングされることができる。
他の実施例によると、pic_width_in_luma_samples[i]、pic
_height_in_luma_samples[i]、bit_depth_luma_mi
nus8[i]、bit_depth_chroma_minus8[i]、及びchroma_
format_idc[i]は、異なる映像、即ち、異なる解像度を有するピクチャに対す
る情報にシグナリングされることができる。
_height_in_luma_samples[i]、bit_depth_luma_mi
nus8[i]、bit_depth_chroma_minus8[i]、及びchroma_
format_idc[i]は、異なる映像、即ち、異なる解像度を有するピクチャに対す
る情報にシグナリングされることができる。
ビットレートとクオリティ情報のシグナリングのための活性化SEIメッセージに対す
るシンタックスは、表17の通りである。
るシンタックスは、表17の通りである。
表17のシンタックスに対する意味は、下記の通りである。
-num_layers_minus1は、ビットストリームで提供可能なスケーラブル
階層の数を示す。
階層の数を示す。
-bitrate_info_flagが1の場合、各々のスケーラブル階層に対するビ
ットレート情報が提供されることを指示する。
ットレート情報が提供されることを指示する。
-quality_info_flagが1の場合、各々のスケーラブル階層に対するク
オリティ値に対する情報が提供されることを示す。
オリティ値に対する情報が提供されることを示す。
-quality_type_flagが1の場合、各々のスケーラブル階層に対するク
オリティタイプに対する情報が提供されることを示す。
オリティタイプに対する情報が提供されることを示す。
-max_bitrate[i]は、layer_id値がiであるスケーラブル階層の最
大ビットレートを示し、average_bitrate[i]は、layer_id値がi
であるスケーラブル階層の平均ビットレートを示す。
大ビットレートを示し、average_bitrate[i]は、layer_id値がi
であるスケーラブル階層の平均ビットレートを示す。
-quality_value[i]は、スケーラブル階層iのクオリティ値を示す。
-quality_type_uri[QualityTypeUriIdx]は、UTF
-8 characterで符号化されたnull0terminated string
のQualityTypeUriIdx-thバイト(byte)であり、クオリティ値の
タイプに対する表現を含むURI(universal resource identi
fier)を示す。
-8 characterで符号化されたnull0terminated string
のQualityTypeUriIdx-thバイト(byte)であり、クオリティ値の
タイプに対する表現を含むURI(universal resource identi
fier)を示す。
以下、効率的なビットストリーム抽出のための記述方式の改善として、VPS(vid
eo parameter set)を改善させる方案を提案する。
eo parameter set)を改善させる方案を提案する。
階層参照(Layer referencing)
複数の階層をサポートするビットストリームでlayer_idとスケーラビリティ次
元ID(scalability dimension ID)との間の関係を指示する方法
として、layer_idとスケーラビリティ次元ID(scalability dim
ension ID)との間のマッピング方法を知らせる第1の方法と、layer_id
のビットを分割(partitioningまたはsplicing)して割り当てられた
ビットにどのような次元タイプが存在するかを知らせる第2の方法とが存在できる。
元ID(scalability dimension ID)との間の関係を指示する方法
として、layer_idとスケーラビリティ次元ID(scalability dim
ension ID)との間のマッピング方法を知らせる第1の方法と、layer_id
のビットを分割(partitioningまたはsplicing)して割り当てられた
ビットにどのような次元タイプが存在するかを知らせる第2の方法とが存在できる。
複数の階層をサポートするビットストリームで次元タイプ(dimension typ
e)とは、空間的スケーラビリティ、クオリティ的スケーラビリティのようなスケーラビ
リティのタイプを意味し、次元ID(dimension ID)は、特定の次元タイプが
有することができるレイヤに対するインデックスを意味する。
e)とは、空間的スケーラビリティ、クオリティ的スケーラビリティのようなスケーラビ
リティのタイプを意味し、次元ID(dimension ID)は、特定の次元タイプが
有することができるレイヤに対するインデックスを意味する。
複数の階層をサポートするビットストリームで、特定次元(dimension)では特
定階層(理解を助けるために、例えば、単一階層のビットストリームで時間的スケーラビ
リティをサポートする場合、時間的レイヤ(sub-layer)3)が次の低い階層(例え
ば、時間的レイヤ(sub-layer))を直接的に参照することは一般的である。
定階層(理解を助けるために、例えば、単一階層のビットストリームで時間的スケーラビ
リティをサポートする場合、時間的レイヤ(sub-layer)3)が次の低い階層(例え
ば、時間的レイヤ(sub-layer))を直接的に参照することは一般的である。
また、例えば、空間スケーラビリティをサポートする場合は、空間レイヤ2が次の低い
空間階層1を直接的に参照することを意味する。
空間階層1を直接的に参照することを意味する。
したがって、前記のような場合を示すために、基本参照(default direct
dependency)を有する次元を先に記述することを提案する。
dependency)を有する次元を先に記述することを提案する。
その後、特定連関性(dependency)を階層(scalable layer)に
対する説明パート(description loop)で具体的に記述することができる
。
対する説明パート(description loop)で具体的に記述することができる
。
以下、前記二つの方法を利用して階層参照に対するシグナリングをするための方案を提
示する。vps_extensionのための改善されたシンタックスは、表18乃至表
21の通りである。
示する。vps_extensionのための改善されたシンタックスは、表18乃至表
21の通りである。
表18は、第1の方法を利用してlayer_idとスケーラビリティ次元ID(sca
lability dimension ID)をマッピングさせているシンタックスを示
している。表18のシンタックスに対する意味は、下記の通りである。
lability dimension ID)をマッピングさせているシンタックスを示
している。表18のシンタックスに対する意味は、下記の通りである。
-all_default_dependency_flagが1の場合、全ての階層次
元が基本参照(default dependency)を有することを指示する。即ち、
特定次元iにおいて、dimension_id[i]=nである階層は、デフォルトとし
てdimension_id[i]=n-1を有する他の階層を直接的に参照することを意
味する。
元が基本参照(default dependency)を有することを指示する。即ち、
特定次元iにおいて、dimension_id[i]=nである階層は、デフォルトとし
てdimension_id[i]=n-1を有する他の階層を直接的に参照することを意
味する。
all_default_dependency_flagが0の場合、全ての階層次元
が基本参照を有するものではないことを示す。all_default_dependen
cy_flagが0の場合、下のnum_default_dim_minus1がシグナリ
ングされる。
が基本参照を有するものではないことを示す。all_default_dependen
cy_flagが0の場合、下のnum_default_dim_minus1がシグナリ
ングされる。
-num_default_dim_minus1は、基本参照(default dep
endency)を有する次元の数を示す。
endency)を有する次元の数を示す。
-dimension[j]は、基本参照(default dependency)を有
する階層次元のタイプを明示する。即ち、基本参照(default dependenc
y)を有する次元の数を一つずつ増加させながら、基本参照を有する階層次元のタイプに
対する情報がシグナリングされる。該当次元において、上位階層(例えば、dimens
ion_id=n)は、次の下位階層(例えば、dimension_id=n-1)を直接
的に参照する。
する階層次元のタイプを明示する。即ち、基本参照(default dependenc
y)を有する次元の数を一つずつ増加させながら、基本参照を有する階層次元のタイプに
対する情報がシグナリングされる。該当次元において、上位階層(例えば、dimens
ion_id=n)は、次の下位階層(例えば、dimension_id=n-1)を直接
的に参照する。
-specific_dependency_flag[i]が1の場合、該当階層のため
に具体的に記述された直接参照(direct dependences/referen
ces)があることを意味する。したがって、specific_dependency_
flag[i]が1の場合、該当階層が直接参照するレイヤの個数と該当レイヤのIDがシ
グナリングされる。
に具体的に記述された直接参照(direct dependences/referen
ces)があることを意味する。したがって、specific_dependency_
flag[i]が1の場合、該当階層が直接参照するレイヤの個数と該当レイヤのIDがシ
グナリングされる。
階層Cが階層Bを直接的に参照するということは、階層Cを復号化するために、デコー
ダは、階層Bの情報(デコーディングされ、またはデコーディングされない)を使用しなけ
ればならないという意味である。しかし、もし、階層Bが直接的に階層Aの情報を使用す
る場合、階層Cは階層Aを直接的に参照すると判断されない。
ダは、階層Bの情報(デコーディングされ、またはデコーディングされない)を使用しなけ
ればならないという意味である。しかし、もし、階層Bが直接的に階層Aの情報を使用す
る場合、階層Cは階層Aを直接的に参照すると判断されない。
表19は、第2の方法を利用してlayer_idのビットをスケーラビリティ次元タ
イプに割り当て、割り当てられた次元タイプの長さをシグナリングするシンタックスを示
している。
イプに割り当て、割り当てられた次元タイプの長さをシグナリングするシンタックスを示
している。
表19に含まれているnum_dimensions_minus1は、NALUヘッダ
内に存在する階層次元の数を示す。即ち、NALUヘッダに存在する階層次元の数を把握
し、該当階層次元毎に存在する階層タイプと次元タイプに割り当てられたビット数を把握
する。
内に存在する階層次元の数を示す。即ち、NALUヘッダに存在する階層次元の数を把握
し、該当階層次元毎に存在する階層タイプと次元タイプに割り当てられたビット数を把握
する。
表19のシンタックス階層参照のためのシンタックスall_default_depe
ndency_flag、num_default_dim_minus1、dimensi
on[j]及びspecific_dependency_flag[i]に対する説明は、表
18に含まれているシンタックスと同じ意味を有する。
ndency_flag、num_default_dim_minus1、dimensi
on[j]及びspecific_dependency_flag[i]に対する説明は、表
18に含まれているシンタックスと同じ意味を有する。
表20及び表21は、表18及び表19と異なる方式のシンタックスを示す。表20は
、第1の方法を利用する場合、基本参照(default dependency)を示す
他のシンタックスを示し、表21は、第2の方法を利用する場合、基本参照(defau
lt dependency)を示す他のシンタックスを示す。
、第1の方法を利用する場合、基本参照(default dependency)を示す
他のシンタックスを示し、表21は、第2の方法を利用する場合、基本参照(defau
lt dependency)を示す他のシンタックスを示す。
表20及び表21のシンタックスのうち、表18及び表19と重複するシンタックスに
対する説明は省略する。
対する説明は省略する。
表20及び表21に含まれている新たなシンタックスdefault_depende
ncy_flag[i]は、次元タイプiが基本参照を使用するかどうかを示す。該当次元
において、高い階層(例えば、dimension_id[i]=n)は、下の階層(例えば、
dimension_id[i]=n-1)を直接的に参照する。
ncy_flag[i]は、次元タイプiが基本参照を使用するかどうかを示す。該当次元
において、高い階層(例えば、dimension_id[i]=n)は、下の階層(例えば、
dimension_id[i]=n-1)を直接的に参照する。
即ち、num_dimensions_minus1とdimension_type[i
]によって特定次元タイプが指定される場合、該当次元タイプが基本参照を使用するかど
うかをシグナリングし、そうでない場合、該当階層が直接的に参照するレイヤに対する情
報をシグナリングする。
]によって特定次元タイプが指定される場合、該当次元タイプが基本参照を使用するかど
うかをシグナリングし、そうでない場合、該当階層が直接的に参照するレイヤに対する情
報をシグナリングする。
本発明による次元タイプ(dimensions type)を示す場合、表22の通り
である。
である。
本発明によると、既存の次元タイプで次元タイプ4及び5、即ち、priority
ID及びregion IDを示すタイプが追加された。
ID及びregion IDを示すタイプが追加された。
dimension_type[i][j]は、基本的に0~5の値を有することができる
。他の値は、以後に定義されることができ、デコーダは、0~5の値でない場合、dim
ension_type[i][j]の値を無視することができる。
。他の値は、以後に定義されることができ、デコーダは、0~5の値でない場合、dim
ension_type[i][j]の値を無視することができる。
dimension_typeが4の値を有する場合、該当dimension_idは
、SVC標準でビットストリームのpriority階層のidを示す。
、SVC標準でビットストリームのpriority階層のidを示す。
dimension_typeが5の値を有する場合、該当dimension_idは
、ビットストリームの特定領域のidを示す。特定領域は、ビットストリーム内で一つ以
上の時空間セグメント(spatial-temporal segment)になること
ができる。
、ビットストリームの特定領域のidを示す。特定領域は、ビットストリーム内で一つ以
上の時空間セグメント(spatial-temporal segment)になること
ができる。
図4は、本発明による映像情報のエンコーディング方法を説明するための制御流れ図で
ある。
ある。
図示されているように、符号化装置は、映像に関連した情報を含むNAL(Netwo
rk Abstraction Layer)ユニットをエンコーディングする(S401)
。
rk Abstraction Layer)ユニットをエンコーディングする(S401)
。
NALユニットのNALユニットヘッダは、NALユニットが非参照ピクチャの少なく
とも一部または全部を含むスライスを含むかどうかを示す情報を含まない。
とも一部または全部を含むスライスを含むかどうかを示す情報を含まない。
一方、NALユニットヘッダは、スケーラブル階層をサポートするビットストリームで
スケーラブル階層を識別するための階層識別情報を含んでいる。
スケーラブル階層を識別するための階層識別情報を含んでいる。
このとき、NALユニットヘッダに含まれないNALユニットが非参照ピクチャの少な
くとも一部または全部を含むスライスを含むかどうかを示す情報をシグナリングするため
に使われたビットは、階層識別情報をシグナリングするために使われることができる。
くとも一部または全部を含むスライスを含むかどうかを示す情報をシグナリングするため
に使われたビットは、階層識別情報をシグナリングするために使われることができる。
また、NALユニットは、映像のデコーディングのために必要な多様な前記パラメータ
セットに対する情報を含むことができる。
セットに対する情報を含むことができる。
符号化装置は、活性化されるパラメータセットに対する情報を含むSEI(Suppl
emental enhancement information)メッセージを独立さ
れたNALユニットにエンコーディングすることができる。
emental enhancement information)メッセージを独立さ
れたNALユニットにエンコーディングすることができる。
活性化されるパラメータセットに対する情報は、活性化されるビデオパラメータセット
をインデクシングする情報及び活性化されるシーケンスパラメータセットをインデクシン
グする情報のうち少なくとも一つを含むことができる。
をインデクシングする情報及び活性化されるシーケンスパラメータセットをインデクシン
グする情報のうち少なくとも一つを含むことができる。
また、活性化されるパラメータセットに対する情報は、活性化されるビデオパラメータ
セットをインデクシングする情報、活性化されるビデオパラメータセットを参照するシー
ケンスパラメータセットの個数を示す情報、及びシーケンスパラメータセットをインデク
シングする情報を含むことができる。
セットをインデクシングする情報、活性化されるビデオパラメータセットを参照するシー
ケンスパラメータセットの個数を示す情報、及びシーケンスパラメータセットをインデク
シングする情報を含むことができる。
このようなパラメータセットに対する情報は、復号化装置が時間的スケーラビリティを
提供するサブレイヤを抽出する時に利用されることができる。
提供するサブレイヤを抽出する時に利用されることができる。
また、デコーディング装置またはデコーディングを実行するデコーディング部は、ビデ
オコーディングレイヤNALUのデコーディング時に必要なパラメータセットを活性化す
る時、前記パラメータセットに対する情報を利用することができる。
オコーディングレイヤNALUのデコーディング時に必要なパラメータセットを活性化す
る時、前記パラメータセットに対する情報を利用することができる。
符号化装置は、エンコーディングされた映像に関連した情報を含むNALユニットをビ
ットストリームに送信する(S402)。
ットストリームに送信する(S402)。
図5は、本発明による映像情報のデコーディング方法を説明するための制御流れ図であ
る。
る。
図5を参照すると、復号化装置は、ビットストリームを介してエンコーディングされた
映像に関連した情報を含むNALユニットを受信する(S501)。
映像に関連した情報を含むNALユニットを受信する(S501)。
復号化装置は、NALユニットのヘッダ及びNALペイロード(payload)をパー
シングする(S502)。映像情報に対するパーシングは、エントロピー復号化部または別
途のパーシング部で実行されることができる。
シングする(S502)。映像情報に対するパーシングは、エントロピー復号化部または別
途のパーシング部で実行されることができる。
復号化装置は、パーシングを介してNALユニットヘッダ及びNALペイロードに含ま
れている多様な情報を取得することができる。
れている多様な情報を取得することができる。
NALユニットヘッダは、スケーラブル階層をサポートするビットストリームでスケー
ラブル階層を識別するための階層識別情報を含み、NALユニットのエンコーディング時
、全体ビットストリームで非参照ピクチャであるか、または参照ピクチャであるかを示す
1ビットのフラグ情報を含まない。
ラブル階層を識別するための階層識別情報を含み、NALユニットのエンコーディング時
、全体ビットストリームで非参照ピクチャであるか、または参照ピクチャであるかを示す
1ビットのフラグ情報を含まない。
このとき、NALユニットヘッダに含まれないNALユニットが非参照ピクチャの少な
くとも一部または全部を含むスライスを含むかどうかを示す情報をシグナリングするため
に使われたビットは、階層識別情報をシグナリングするために使われることができる。
くとも一部または全部を含むスライスを含むかどうかを示す情報をシグナリングするため
に使われたビットは、階層識別情報をシグナリングするために使われることができる。
また、復号化装置は、パーシングを介してSEIメッセージに含まれている該当SEI
メッセージと関連したNALUをデコーディングするために必要なパラメータセットに対
する情報を取得することができる。
メッセージと関連したNALUをデコーディングするために必要なパラメータセットに対
する情報を取得することができる。
活性化されるパラメータセットに対する情報は、活性化されるビデオパラメータセット
をインデクシングする情報及び活性化されるシーケンスパラメータセットをインデクシン
グする情報のうち少なくとも一つを含むことができる。
をインデクシングする情報及び活性化されるシーケンスパラメータセットをインデクシン
グする情報のうち少なくとも一つを含むことができる。
また、活性化されるパラメータセットに対する情報は、活性化されるビデオパラメータ
セットをインデクシングする情報、活性化されるビデオパラメータセットを参照するシー
ケンスパラメータセットの個数を示す情報、及びシーケンスパラメータセットをインデク
シングする情報を含むことができる。
セットをインデクシングする情報、活性化されるビデオパラメータセットを参照するシー
ケンスパラメータセットの個数を示す情報、及びシーケンスパラメータセットをインデク
シングする情報を含むことができる。
このようなパラメータセットに対する情報は、復号化装置が時間的スケーラビリティを
提供するサブレイヤを抽出する時に利用されることができる。
提供するサブレイヤを抽出する時に利用されることができる。
追加的にパラメータセットに対する情報は、ビットストリームを復号化する時またはセ
ッションネゴシエーション(例えば、IP網おけるストリーミング時、session n
egotiation)する時に利用されることができる。
ッションネゴシエーション(例えば、IP網おけるストリーミング時、session n
egotiation)する時に利用されることができる。
前述した実施例において、方法は一連のステップまたはブロックで流れ図に基づいて説
明されているが、本発明は、ステップの順序に限定されるものではなく、あるステップは
、前述と異なるステップと、異なる順序にまたは同時に発生できる。また、当該技術分野
において、通常の知識を有する当業者であれば、流れ図に示すステップが排他的でなく、
他のステップが含まれ、または流れ図の一つまたはそれ以上のステップが本発明の範囲に
影響を及ぼさすに削除可能であることを理解することができる。
明されているが、本発明は、ステップの順序に限定されるものではなく、あるステップは
、前述と異なるステップと、異なる順序にまたは同時に発生できる。また、当該技術分野
において、通常の知識を有する当業者であれば、流れ図に示すステップが排他的でなく、
他のステップが含まれ、または流れ図の一つまたはそれ以上のステップが本発明の範囲に
影響を及ぼさすに削除可能であることを理解することができる。
前述した実施例は、多様な態様の例示を含む。多様な態様を示す全ての可能な組合せを
記述することはできないが、当該技術分野の通常の知識を有する者であれば、他の組合せ
が可能であることを認識することができる。したがって、本発明は、特許請求の範囲内に
属する全ての交替、修正、及び変更を含む。
記述することはできないが、当該技術分野の通常の知識を有する者であれば、他の組合せ
が可能であることを認識することができる。したがって、本発明は、特許請求の範囲内に
属する全ての交替、修正、及び変更を含む。
Claims (3)
- ビデオ復号化を実行する方法であって、
拡張フラグが複数のレイヤに対する情報が提供されることを示す場合に、前記複数のレイヤのリプリゼンテーションフォーマットの数を示すリプリゼンテーションフォーマット数情報を受信するステップと、
前記リプリゼンテーションフォーマット数情報に基づいて前記各リプリゼンテーションフォーマットに対するリプリゼンテーションフォーマット情報を取得するステップであって、前記リプリゼンテーションフォーマット情報は幅情報および高さ情報のうち少なくとも一つを含む、ステップと、
前記リプリゼンテーションフォーマット情報を用いてビデオ復号化を実行するステップと、
を備える方法。 - ビデオ符号化を実行する方法であって、
複数のレイヤに対する情報が提供される場合に、ビデオパラメータの拡張フラグを符号化するステップと、
前記複数のレイヤに対する情報が提供される場合に、前記複数のレイヤのリプリゼンテーションフォーマット情報、および前記複数のレイヤのリプリゼンテーションフォーマットの数を示すリプリゼンテーションフォーマット数情報を符号化するステップであって、前記リプリゼンテーションフォーマット情報は幅情報および高さ情報のうち少なくとも一つを含む、ステップと、
前記リプリゼンテーションフォーマット情報を用いてビデオ符号化を実行するステップと、
を備える方法。 - ビデオデータを送信するための非一時的なコンピュータ読み取り可能な記録媒体であって、
前記ビデオデータは、ビデオパラメータセットを含み、
前記ビデオパラメータセットは、復号化処理において複数のレイヤに対する情報が提供されるか否かを示す拡張フラグを含み、前記拡張フラグが複数のレイヤに対する情報が提供されることを示す場合、リプリゼンテーションフォーマットの数を示すリプリゼンテーションフォーマット数情報が受信され、
前記リプリゼンテーションフォーマット数情報は、前記複数のレイヤに対するリプリゼンテーションフォーマット情報を取得するために使用され、
前記リプリゼンテーションフォーマット情報は、幅情報および高さ情報のうち少なくとも一つを含み、
前記リプリゼンテーションフォーマット情報は、ビデオ復号化を実行するために使用される、記録媒体。
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120038870 | 2012-04-16 | ||
KR10-2012-0038870 | 2012-04-16 | ||
KR20120066606 | 2012-06-21 | ||
KR10-2012-0066606 | 2012-06-21 | ||
KR10-2012-0067925 | 2012-06-25 | ||
KR20120067925 | 2012-06-25 | ||
KR20120071933 | 2012-07-02 | ||
KR10-2012-0071933 | 2012-07-02 | ||
KR20120077012 | 2012-07-16 | ||
KR10-2012-0077012 | 2012-07-16 | ||
KR10-2012-0108925 | 2012-09-28 | ||
KR1020120108925A KR20130116782A (ko) | 2012-04-16 | 2012-09-28 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
KR1020120112598A KR20130116783A (ko) | 2012-04-16 | 2012-10-10 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
KR10-2012-0112598 | 2012-10-10 | ||
KR1020130041862A KR101378861B1 (ko) | 2012-04-16 | 2013-04-16 | 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치 |
KR10-2013-0041862 | 2013-04-16 | ||
JP2021024625A JP7041294B2 (ja) | 2012-04-16 | 2021-02-18 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022037465A JP7305831B2 (ja) | 2012-04-16 | 2022-03-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022128498A JP7432668B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022128498A Division JP7432668B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024050775A true JP2024050775A (ja) | 2024-04-10 |
Family
ID=49635785
Family Applications (30)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506892A Active JP5933815B2 (ja) | 2012-04-16 | 2013-04-16 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016031335A Active JP6186026B2 (ja) | 2012-04-16 | 2016-02-22 | 映像デコーディング装置 |
JP2016092749A Active JP6163230B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092745A Active JP6163229B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092743A Active JP6224162B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092752A Active JP6224163B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2017146933A Active JP6549189B2 (ja) | 2012-04-16 | 2017-07-28 | 映像エンコーディング方法およびビットストリームの生成方法 |
JP2018085634A Active JP6556907B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085564A Active JP6556903B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085588A Active JP6556904B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085608A Active JP6556905B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085624A Active JP6556906B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018087395A Active JP6553245B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087426A Active JP6549283B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087408A Active JP6553246B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087416A Active JP6549282B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2019122072A Active JP6841869B2 (ja) | 2012-04-16 | 2019-06-28 | 映像デコーディング方法および映像エンコーディング方法 |
JP2019122109A Active JP6871312B2 (ja) | 2012-04-16 | 2019-06-28 | 映像デコーディング方法、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2021024625A Active JP7041294B2 (ja) | 2012-04-16 | 2021-02-18 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2021069283A Active JP7123210B2 (ja) | 2012-04-16 | 2021-04-15 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022037465A Active JP7305831B2 (ja) | 2012-04-16 | 2022-03-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127407A Active JP7367143B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127390A Active JP7367141B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127436A Active JP7367145B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127399A Active JP7367142B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127432A Active JP7367144B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022128503A Active JP7431290B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022128498A Active JP7432668B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2023179054A Pending JP2023179726A (ja) | 2012-04-16 | 2023-10-17 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2024015010A Pending JP2024050775A (ja) | 2012-04-16 | 2024-02-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
Family Applications Before (29)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506892A Active JP5933815B2 (ja) | 2012-04-16 | 2013-04-16 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016031335A Active JP6186026B2 (ja) | 2012-04-16 | 2016-02-22 | 映像デコーディング装置 |
JP2016092749A Active JP6163230B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092745A Active JP6163229B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092743A Active JP6224162B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2016092752A Active JP6224163B2 (ja) | 2012-04-16 | 2016-05-02 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2017146933A Active JP6549189B2 (ja) | 2012-04-16 | 2017-07-28 | 映像エンコーディング方法およびビットストリームの生成方法 |
JP2018085634A Active JP6556907B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085564A Active JP6556903B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085588A Active JP6556904B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085608A Active JP6556905B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018085624A Active JP6556906B2 (ja) | 2012-04-16 | 2018-04-26 | 映像エンコーディング装置、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2018087395A Active JP6553245B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087426A Active JP6549283B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087408A Active JP6553246B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2018087416A Active JP6549282B2 (ja) | 2012-04-16 | 2018-04-27 | 映像デコーディング方法および映像エンコーディング方法 |
JP2019122072A Active JP6841869B2 (ja) | 2012-04-16 | 2019-06-28 | 映像デコーディング方法および映像エンコーディング方法 |
JP2019122109A Active JP6871312B2 (ja) | 2012-04-16 | 2019-06-28 | 映像デコーディング方法、映像エンコーディング方法、データストリーム記憶方法、およびデータストリーム生成方法 |
JP2021024625A Active JP7041294B2 (ja) | 2012-04-16 | 2021-02-18 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2021069283A Active JP7123210B2 (ja) | 2012-04-16 | 2021-04-15 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022037465A Active JP7305831B2 (ja) | 2012-04-16 | 2022-03-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127407A Active JP7367143B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127390A Active JP7367141B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127436A Active JP7367145B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127399A Active JP7367142B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022127432A Active JP7367144B2 (ja) | 2012-04-16 | 2022-08-09 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022128503A Active JP7431290B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2022128498A Active JP7432668B2 (ja) | 2012-04-16 | 2022-08-10 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
JP2023179054A Pending JP2023179726A (ja) | 2012-04-16 | 2023-10-17 | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
Country Status (16)
Country | Link |
---|---|
US (9) | US10595026B2 (ja) |
EP (7) | EP2840788B1 (ja) |
JP (30) | JP5933815B2 (ja) |
KR (24) | KR20130116782A (ja) |
CN (12) | CN108769710B (ja) |
CY (1) | CY1122257T1 (ja) |
DK (1) | DK2840788T3 (ja) |
ES (1) | ES2748463T3 (ja) |
HR (1) | HRP20191726T1 (ja) |
HU (1) | HUE045980T2 (ja) |
LT (1) | LT2840788T (ja) |
PL (2) | PL3340630T3 (ja) |
PT (1) | PT2840788T (ja) |
RS (1) | RS59596B1 (ja) |
SI (1) | SI2840788T1 (ja) |
WO (2) | WO2013157826A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130116782A (ko) * | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
EP2876882A4 (en) * | 2012-09-09 | 2016-03-09 | Lg Electronics Inc | IMAGE DECODING METHOD AND APPARATUS USING THE SAME |
US10805605B2 (en) * | 2012-12-21 | 2020-10-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-layer video stream encoding and decoding |
US10129550B2 (en) * | 2013-02-01 | 2018-11-13 | Qualcomm Incorporated | Inter-layer syntax prediction control |
EP3007444A4 (en) * | 2013-06-05 | 2016-11-09 | Sun Patent Trust | PICTURE CODING METHOD, PICTURE DECODING METHOD, PICTURE CODING DEVICE AND IMAGE DECODING DEVICE |
US9648333B2 (en) * | 2013-10-11 | 2017-05-09 | Vid Scale, Inc. | High level syntax for HEVC extensions |
WO2015060699A1 (ko) | 2013-10-26 | 2015-04-30 | 삼성전자 주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
KR20150064678A (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015083985A1 (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
KR101792518B1 (ko) * | 2013-12-16 | 2017-11-02 | 엘지전자 주식회사 | 트릭 플레이 서비스 제공을 위한 신호 송수신 장치 및 신호 송수신 방법 |
KR102266902B1 (ko) * | 2014-01-13 | 2021-06-18 | 삼성전자주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
JP5886341B2 (ja) | 2014-03-07 | 2016-03-16 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP6150134B2 (ja) | 2014-03-24 | 2017-06-21 | ソニー株式会社 | 画像符号化装置および方法、画像復号装置および方法、プログラム、並びに記録媒体 |
WO2016098056A1 (en) * | 2014-12-18 | 2016-06-23 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
WO2016204374A1 (ko) * | 2015-06-18 | 2016-12-22 | 엘지전자 주식회사 | 영상 코딩 시스템에서 영상 필터링 방법 및 장치 |
KR102602690B1 (ko) * | 2015-10-08 | 2023-11-16 | 한국전자통신연구원 | 화질에 기반한 적응적 부호화 및 복호화를 위한 방법 및 장치 |
EP3503564A4 (en) * | 2016-08-22 | 2019-09-04 | Sony Corporation | TRANSMISSION APPARATUS, TRANSMISSION METHOD, RECEIVING APPARATUS, AND RECEIVING METHOD |
JP6350638B2 (ja) * | 2016-11-16 | 2018-07-04 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
US10692262B2 (en) | 2017-01-12 | 2020-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for processing information of multiple cameras |
US10904545B2 (en) * | 2018-12-26 | 2021-01-26 | Tencent America LLC | Method for syntax controlled decoded picture buffer management |
WO2020185878A1 (en) * | 2019-03-11 | 2020-09-17 | Vid Scale, Inc. | Sub-picture bitstream extraction and reposition |
WO2020184673A1 (ja) * | 2019-03-12 | 2020-09-17 | ソニー株式会社 | 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法 |
US11310560B2 (en) * | 2019-05-17 | 2022-04-19 | Samsung Electronics Co., Ltd. | Bitstream merger and extractor |
WO2020235552A1 (en) * | 2019-05-19 | 2020-11-26 | Sharp Kabushiki Kaisha | Systems and methods for signaling picture property information in video coding |
EP3979640A4 (en) * | 2019-05-28 | 2023-05-31 | Samsung Electronics Co., Ltd. | VIDEO CODING METHOD AND APPARATUS AND VIDEO DECODING METHOD AND APPARATUS FOR PREVENTING SMALL SIZE INTRABLOCK |
US20220256194A1 (en) * | 2019-06-20 | 2022-08-11 | Sony Semiconductor Solutions Corporation | Image processing apparatus and method |
US11032548B2 (en) * | 2019-06-24 | 2021-06-08 | Tencent America LLC | Signaling for reference picture resampling |
US11457242B2 (en) * | 2019-06-24 | 2022-09-27 | Qualcomm Incorporated | Gradual random access (GRA) signalling in video coding |
CN114073073B (zh) * | 2019-07-08 | 2023-06-06 | 华为技术有限公司 | 一种支持混合nal单元的编解码方法和编解码器 |
CN110446047A (zh) * | 2019-08-16 | 2019-11-12 | 苏州浪潮智能科技有限公司 | 视频码流的解码方法及装置 |
EP4032308A4 (en) * | 2019-10-07 | 2022-11-23 | Huawei Technologies Co., Ltd. | ENCODER, DECODER AND METHOD THEREOF |
WO2021132963A1 (ko) * | 2019-12-23 | 2021-07-01 | 엘지전자 주식회사 | 슬라이스 또는 픽처에 대한 nal 유닛 타입 기반 영상 또는 비디오 코딩 |
US20230045490A1 (en) * | 2019-12-23 | 2023-02-09 | Lg Electronics Inc. | Image or video coding based on nal unit-associated information |
CN115136604A (zh) * | 2019-12-23 | 2022-09-30 | Lg电子株式会社 | 基于nal单元类型的图像或视频编码 |
EP4082198A4 (en) | 2019-12-27 | 2023-08-16 | Alibaba Group Holding Limited | METHOD AND DEVICE FOR SIGNALING SUBPICTURE PARTITIONING INFORMATION |
CN115211121A (zh) | 2020-01-02 | 2022-10-18 | Lg电子株式会社 | Ph nal单元编码相关图像解码方法及其装置 |
WO2021137588A1 (ko) * | 2020-01-02 | 2021-07-08 | 엘지전자 주식회사 | 픽처 헤더를 포함하는 영상 정보를 코딩하는 영상 디코딩 방법 및 그 장치 |
KR20220100711A (ko) | 2020-01-02 | 2022-07-15 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
MX2022011207A (es) | 2020-03-16 | 2022-09-19 | Bytedance Inc | Unidad de acceso de punto de acceso aleatorio en codificacion de video escalable. |
AU2021238807A1 (en) * | 2020-03-17 | 2022-10-20 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods |
CN113453006B (zh) * | 2020-03-25 | 2024-04-16 | 腾讯美国有限责任公司 | 一种图片封装方法、设备以及存储介质 |
CN115398890B (zh) * | 2020-04-12 | 2023-09-15 | Lg电子株式会社 | 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法 |
CN115552903A (zh) * | 2020-05-12 | 2022-12-30 | Lg电子株式会社 | 处理图像/视频编码系统中的单层比特流内的参数集的参考的方法和装置 |
US11223841B2 (en) * | 2020-05-29 | 2022-01-11 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding on image |
KR102421720B1 (ko) * | 2020-05-29 | 2022-07-18 | 삼성전자주식회사 | 영상의 ai 부호화 및 ai 복호화를 위한 장치, 및 방법 |
WO2021251611A1 (en) | 2020-06-11 | 2021-12-16 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and decoding on image by using low-complexity neural network |
WO2022213006A1 (en) * | 2021-04-02 | 2022-10-06 | Qualcomm Incorporated | Picture orientation and quality metrics supplemental enhancement information message for video coding |
US11895336B2 (en) | 2021-04-02 | 2024-02-06 | Qualcomm Incorporated | Picture orientation and quality metrics supplemental enhancement information message for video coding |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1578136A3 (en) * | 1998-01-27 | 2005-10-19 | AT&T Corp. | Method and apparatus for encoding video shape and texture information |
US6895048B2 (en) * | 1998-03-20 | 2005-05-17 | International Business Machines Corporation | Adaptive encoding of a sequence of still frames or partially still frames within motion video |
KR20040106414A (ko) * | 2002-04-29 | 2004-12-17 | 소니 일렉트로닉스 인코포레이티드 | 미디어 파일에서 진보된 코딩 포맷의 지원 |
US8752197B2 (en) * | 2002-06-18 | 2014-06-10 | International Business Machines Corporation | Application independent system, method, and architecture for privacy protection, enhancement, control, and accountability in imaging service systems |
CN100423581C (zh) * | 2002-12-30 | 2008-10-01 | Nxp股份有限公司 | 动态图形的编码/解码方法及其设备 |
JP4479160B2 (ja) * | 2003-03-11 | 2010-06-09 | チッソ株式会社 | シルセスキオキサン誘導体を用いて得られる重合体 |
MXPA06006117A (es) | 2003-12-01 | 2006-08-11 | Samsung Electronics Co Ltd | Metodo y aparato de codificacion y decodificacion escalables de video. |
KR100596706B1 (ko) * | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
US7415069B2 (en) * | 2003-12-09 | 2008-08-19 | Lsi Corporation | Method for activation and deactivation of infrequently changing sequence and picture parameter sets |
US7586924B2 (en) * | 2004-02-27 | 2009-09-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for coding an information signal into a data stream, converting the data stream and decoding the data stream |
US7706662B2 (en) * | 2004-06-02 | 2010-04-27 | Panasonic Corporation | Picture coding apparatus and picture decoding apparatus |
JP4575129B2 (ja) | 2004-12-02 | 2010-11-04 | ソニー株式会社 | データ処理装置およびデータ処理方法、並びにプログラムおよびプログラム記録媒体 |
KR20060068254A (ko) * | 2004-12-16 | 2006-06-21 | 엘지전자 주식회사 | 비디오 부호화 방법, 복호화 방법 그리고, 복호화 장치 |
JP2006203661A (ja) * | 2005-01-21 | 2006-08-03 | Toshiba Corp | 動画像符号化装置、動画像復号装置及び符号化ストリーム生成方法 |
JP2006211274A (ja) * | 2005-01-27 | 2006-08-10 | Toshiba Corp | 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法 |
WO2006109117A1 (en) * | 2005-04-13 | 2006-10-19 | Nokia Corporation | Method, device and system for effectively coding and decoding of video data |
CN101120593A (zh) | 2005-04-13 | 2008-02-06 | 诺基亚公司 | 可扩展性信息的编码、存储和信号发送 |
EP1897377A4 (en) | 2005-05-26 | 2010-12-22 | Lg Electronics Inc | METHOD FOR PROVIDING AND USING INTERLOCK PREDICTION INFORMATION FOR VIDEO SIGNAL |
KR100878811B1 (ko) | 2005-05-26 | 2009-01-14 | 엘지전자 주식회사 | 비디오 신호의 디코딩 방법 및 이의 장치 |
EP1773063A1 (en) * | 2005-06-14 | 2007-04-11 | Thomson Licensing | Method and apparatus for encoding video data, and method and apparatus for decoding video data |
FR2888424A1 (fr) * | 2005-07-07 | 2007-01-12 | Thomson Licensing Sas | Dispositif et procede de codage et de decodage de donnees video et train de donnees |
KR20080066784A (ko) | 2005-10-11 | 2008-07-16 | 노키아 코포레이션 | 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리 |
WO2007046957A1 (en) * | 2005-10-12 | 2007-04-26 | Thomson Licensing | Method and apparatus for using high-level syntax in scalable video encoding and decoding |
KR100763196B1 (ko) | 2005-10-19 | 2007-10-04 | 삼성전자주식회사 | 어떤 계층의 플래그를 계층간의 연관성을 이용하여부호화하는 방법, 상기 부호화된 플래그를 복호화하는방법, 및 장치 |
CN101292538B (zh) * | 2005-10-19 | 2012-11-28 | 汤姆森特许公司 | 使用可缩放的视频编码的多视图视频编码 |
WO2007081150A1 (en) | 2006-01-09 | 2007-07-19 | Electronics And Telecommunications Research Institute | Method defining nal unit type and system of transmission bitstream and redundant slice coding |
JP4731343B2 (ja) * | 2006-02-06 | 2011-07-20 | 富士通東芝モバイルコミュニケーションズ株式会社 | 復号装置 |
EP1827023A1 (en) * | 2006-02-27 | 2007-08-29 | THOMSON Licensing | Method and apparatus for packet loss detection and virtual packet generation at SVC decoders |
US8767836B2 (en) * | 2006-03-27 | 2014-07-01 | Nokia Corporation | Picture delimiter in scalable video coding |
CN101416518B (zh) * | 2006-03-29 | 2013-07-10 | 汤姆森特许公司 | 多视图视频编码方法和装置 |
CN101455082B (zh) * | 2006-03-30 | 2013-02-13 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
BRPI0713348A2 (pt) * | 2006-07-05 | 2012-03-06 | Thomson Licensing | Método e aparelho para codificação e decodificação de vídeo multivisualização |
KR20080007086A (ko) | 2006-07-14 | 2008-01-17 | 엘지전자 주식회사 | 비디오 신호의 디코딩/인코딩 방법 및 장치 |
WO2008023968A1 (en) | 2006-08-25 | 2008-02-28 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
JP5143829B2 (ja) | 2006-09-07 | 2013-02-13 | エルジー エレクトロニクス インコーポレイティド | スケーラブルビデオコーディングされたビットストリームのデコーディング方法及び装置 |
CN101401433A (zh) * | 2006-09-07 | 2009-04-01 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
KR101329860B1 (ko) * | 2006-09-28 | 2013-11-14 | 톰슨 라이센싱 | 효과적인 레이트 제어 및 비디오 인코딩 품질의 향상을 위한 ρ-도메인 프레임 레벨 비트 할당 방법 |
WO2008048605A2 (en) * | 2006-10-16 | 2008-04-24 | Thomson Licensing | Method for using a network abstract layer unit to signal an instantaneous decoding refresh during a video operation |
EP2087741B1 (en) * | 2006-10-16 | 2014-06-04 | Nokia Corporation | System and method for implementing efficient decoded buffer management in multi-view video coding |
EP2087737A2 (en) * | 2006-10-24 | 2009-08-12 | Thomson Licensing | Picture management for multi-view video coding |
JP2009538084A (ja) * | 2006-11-17 | 2009-10-29 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のデコーディング/エンコーディング方法及び装置 |
JP5157140B2 (ja) * | 2006-11-29 | 2013-03-06 | ソニー株式会社 | 記録装置、記録方法、情報処理装置、情報処理方法、撮像装置およびビデオシステム |
PL2103136T3 (pl) * | 2006-12-21 | 2018-02-28 | Thomson Licensing | Sposoby i urządzenie dla ulepszonej sygnalizacji przy użyciu składni wysokiego poziomu dla kodowania i dekodowania wielo-widokowego wideo |
ZA200904019B (en) | 2007-01-05 | 2010-08-25 | Thomson Licensing | Hypothetical reference decoder for scalable video coding |
US9344362B2 (en) | 2007-01-12 | 2016-05-17 | University-Industry Cooperation Group Of Kyung Hee University | Packet format of network abstraction layer unit, and algorithm and apparatus for video encoding and decoding using the format, QOS control algorithm and apparatus for IPV6 label switching using the format |
JP5023739B2 (ja) | 2007-02-28 | 2012-09-12 | ソニー株式会社 | 画像情報符号化装置及び符号化方法 |
US8494046B2 (en) | 2007-03-23 | 2013-07-23 | Lg Electronics Inc. | Method and an apparatus for decoding/encoding a video signal by performing illumination compensation |
JP5686594B2 (ja) * | 2007-04-12 | 2015-03-18 | トムソン ライセンシングThomson Licensing | スケーラブル・ビデオ符号化のためのビデオ・ユーザビリティ情報(vui)用の方法及び装置 |
US20100142613A1 (en) * | 2007-04-18 | 2010-06-10 | Lihua Zhu | Method for encoding video data in a scalable manner |
US7881259B2 (en) * | 2007-08-24 | 2011-02-01 | Lg Electronics, Inc. | Digital broadcasting system and method of processing data in digital broadcasting system |
JP5264919B2 (ja) * | 2007-10-05 | 2013-08-14 | トムソン ライセンシング | マルチビュービデオ(mvc)符号化システム内にビデオユーザビリティ情報(vui)を取り込む方法及び装置 |
KR101345287B1 (ko) | 2007-10-12 | 2013-12-27 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
US8798145B2 (en) * | 2008-07-22 | 2014-08-05 | Thomson Licensing | Methods for error concealment due to enhancement layer packet loss in scalable video coding (SVC) decoding |
WO2010041856A2 (en) * | 2008-10-06 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for processing a video signal |
US20100226227A1 (en) * | 2009-03-09 | 2010-09-09 | Chih-Ching Yu | Methods and apparatuses of processing readback signal generated from reading optical storage medium |
JP5332773B2 (ja) * | 2009-03-18 | 2013-11-06 | ソニー株式会社 | 画像処理装置および方法 |
CA2711311C (en) | 2009-08-10 | 2016-08-23 | Seawell Networks Inc. | Methods and systems for scalable video chunking |
KR101124723B1 (ko) * | 2009-08-21 | 2012-03-23 | 에스케이플래닛 주식회사 | 해상도 시그널링을 이용한 스케일러블 비디오 재생 시스템 및 방법 |
US8976871B2 (en) * | 2009-09-16 | 2015-03-10 | Qualcomm Incorporated | Media extractor tracks for file format track selection |
KR101751559B1 (ko) | 2009-10-30 | 2017-06-27 | 선 페이턴트 트러스트 | 복호방법, 복호장치, 부호화 방법 및 부호화 장치 |
EP2346261A1 (en) * | 2009-11-18 | 2011-07-20 | Tektronix International Sales GmbH | Method and apparatus for multiplexing H.264 elementary streams without timing information coded |
CN102103651B (zh) | 2009-12-21 | 2012-11-14 | 中国移动通信集团公司 | 一种一卡通系统的实现方法和系统以及一种智能卡 |
US9185439B2 (en) | 2010-07-15 | 2015-11-10 | Qualcomm Incorporated | Signaling data for multiplexing video components |
KR20120015260A (ko) | 2010-07-20 | 2012-02-21 | 한국전자통신연구원 | 스케일러빌리티 및 뷰 정보를 제공하는 스트리밍 서비스를 위한 방법 및 장치 |
KR20120038870A (ko) | 2010-10-14 | 2012-04-24 | 정태길 | 클라우드 컴퓨팅 기반의 모바일 오피스 프린팅 부가 서비스 방법 |
KR101158244B1 (ko) | 2010-12-14 | 2012-07-20 | 주식회사 동호 | 하천 친환경 생태 조성 구조체 및 시스템 |
JP2012142551A (ja) | 2010-12-16 | 2012-07-26 | Nisshin:Kk | 加熱処理方法およびその装置 |
KR101740425B1 (ko) | 2010-12-23 | 2017-05-26 | 에스케이텔레콤 주식회사 | 중계기 및 상기 중계기의 신호 중계 방법 |
KR101214465B1 (ko) | 2010-12-30 | 2012-12-21 | 주식회사 신한엘리베이타 | 가볍고 방수성이 우수한 방수발판부재가 구비된 에스컬레이터 장치 |
JP5738434B2 (ja) | 2011-01-14 | 2015-06-24 | ヴィディオ・インコーポレーテッド | 改善されたnalユニットヘッダ |
US20120230409A1 (en) * | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
JP5833682B2 (ja) | 2011-03-10 | 2015-12-16 | ヴィディオ・インコーポレーテッド | スケーラブルなビデオ符号化のための依存性パラメータセット |
JP5708124B2 (ja) | 2011-03-25 | 2015-04-30 | 三菱電機株式会社 | 半導体装置 |
ES2714756T3 (es) * | 2011-06-30 | 2019-05-29 | Ericsson Telefon Ab L M | Señalización de imágenes de referencia |
CN103650502A (zh) | 2011-07-13 | 2014-03-19 | 瑞典爱立信有限公司 | 用于参考画面管理的编码器、解码器及其方法 |
US10034018B2 (en) | 2011-09-23 | 2018-07-24 | Velos Media, Llc | Decoded picture buffer management |
US10158873B2 (en) * | 2011-11-30 | 2018-12-18 | Qualcomm Incorporated | Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC) |
US9451252B2 (en) * | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
EP3174295B1 (en) | 2012-04-13 | 2018-12-12 | GE Video Compression, LLC | Low delay picture coding |
KR20130116782A (ko) | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
US9426462B2 (en) * | 2012-09-21 | 2016-08-23 | Qualcomm Incorporated | Indication and activation of parameter sets for video coding |
CN105009578B (zh) * | 2012-12-21 | 2018-04-13 | 瑞典爱立信有限公司 | 多层视频流编解码方法和设备 |
WO2014162739A1 (en) | 2013-04-05 | 2014-10-09 | Sharp Kabushiki Kaisha | Decoding of inter-layer reference picture set and reference picture list construction |
US9565437B2 (en) | 2013-04-08 | 2017-02-07 | Qualcomm Incorporated | Parameter set designs for video coding extensions |
-
2012
- 2012-09-28 KR KR1020120108925A patent/KR20130116782A/ko unknown
- 2012-10-10 KR KR1020120112598A patent/KR20130116783A/ko unknown
-
2013
- 2013-04-16 EP EP13777676.1A patent/EP2840788B1/en active Active
- 2013-04-16 CN CN201810384124.2A patent/CN108769710B/zh active Active
- 2013-04-16 CN CN201810384281.3A patent/CN108769713B/zh active Active
- 2013-04-16 CN CN201810384265.4A patent/CN108769712B/zh active Active
- 2013-04-16 WO PCT/KR2013/003204 patent/WO2013157826A1/ko active Application Filing
- 2013-04-16 CN CN201810384705.6A patent/CN108769687B/zh active Active
- 2013-04-16 LT LT13777676T patent/LT2840788T/lt unknown
- 2013-04-16 RS RS20191215A patent/RS59596B1/sr unknown
- 2013-04-16 PL PL18150626T patent/PL3340630T3/pl unknown
- 2013-04-16 EP EP18150626.2A patent/EP3340630B1/en not_active Revoked
- 2013-04-16 EP EP19183291.4A patent/EP3570546A1/en active Pending
- 2013-04-16 CN CN201380025824.8A patent/CN104303503B/zh active Active
- 2013-04-16 US US14/391,151 patent/US10595026B2/en active Active
- 2013-04-16 PT PT137776761T patent/PT2840788T/pt unknown
- 2013-04-16 US US14/391,061 patent/US10602160B2/en active Active
- 2013-04-16 DK DK13777676.1T patent/DK2840788T3/da active
- 2013-04-16 CN CN201810384112.XA patent/CN108769706B/zh active Active
- 2013-04-16 JP JP2015506892A patent/JP5933815B2/ja active Active
- 2013-04-16 SI SI201331581T patent/SI2840788T1/sl unknown
- 2013-04-16 CN CN201810384123.8A patent/CN108769709B/zh active Active
- 2013-04-16 KR KR1020130041863A patent/KR101953703B1/ko active IP Right Grant
- 2013-04-16 HU HUE13777676A patent/HUE045980T2/hu unknown
- 2013-04-16 EP EP13777635.7A patent/EP2840787A4/en not_active Ceased
- 2013-04-16 CN CN201810384111.5A patent/CN108769705B/zh active Active
- 2013-04-16 CN CN201810384113.4A patent/CN108769707B/zh active Active
- 2013-04-16 WO PCT/KR2013/003206 patent/WO2013157828A1/ko active Application Filing
- 2013-04-16 CN CN201810384148.8A patent/CN108769686B/zh active Active
- 2013-04-16 EP EP21177418.7A patent/EP3893511A1/en active Pending
- 2013-04-16 EP EP21167414.8A patent/EP3866472A1/en active Pending
- 2013-04-16 ES ES13777676T patent/ES2748463T3/es active Active
- 2013-04-16 PL PL13777676T patent/PL2840788T3/pl unknown
- 2013-04-16 KR KR1020130041862A patent/KR101378861B1/ko active IP Right Grant
- 2013-04-16 EP EP16163783.0A patent/EP3086556A1/en not_active Ceased
- 2013-04-16 CN CN201810384114.9A patent/CN108769708B/zh active Active
- 2013-04-16 CN CN201810384264.XA patent/CN108769711B/zh active Active
- 2013-10-22 KR KR1020130125869A patent/KR101640583B1/ko active IP Right Grant
-
2014
- 2014-05-07 KR KR1020140054449A patent/KR101673291B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054447A patent/KR101488494B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054446A patent/KR101488495B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054445A patent/KR101488496B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054448A patent/KR101488493B1/ko active IP Right Grant
-
2016
- 2016-02-22 JP JP2016031335A patent/JP6186026B2/ja active Active
- 2016-05-02 JP JP2016092749A patent/JP6163230B2/ja active Active
- 2016-05-02 JP JP2016092745A patent/JP6163229B2/ja active Active
- 2016-05-02 JP JP2016092743A patent/JP6224162B2/ja active Active
- 2016-05-02 JP JP2016092752A patent/JP6224163B2/ja active Active
- 2016-07-12 KR KR1020160088203A patent/KR101719344B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088204A patent/KR101719345B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088205A patent/KR101739748B1/ko active IP Right Grant
-
2017
- 2017-02-02 KR KR1020170015044A patent/KR101843566B1/ko active IP Right Grant
- 2017-07-28 JP JP2017146933A patent/JP6549189B2/ja active Active
- 2017-09-28 KR KR1020170126210A patent/KR101843565B1/ko active IP Right Grant
-
2018
- 2018-03-23 KR KR1020180034089A patent/KR101904242B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034131A patent/KR101931719B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034057A patent/KR101904255B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034107A patent/KR101904234B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034120A patent/KR101904247B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034040A patent/KR101904258B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034113A patent/KR101904237B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034128A patent/KR101904264B1/ko active IP Right Grant
- 2018-04-26 JP JP2018085634A patent/JP6556907B2/ja active Active
- 2018-04-26 JP JP2018085564A patent/JP6556903B2/ja active Active
- 2018-04-26 JP JP2018085588A patent/JP6556904B2/ja active Active
- 2018-04-26 JP JP2018085608A patent/JP6556905B2/ja active Active
- 2018-04-26 JP JP2018085624A patent/JP6556906B2/ja active Active
- 2018-04-27 JP JP2018087395A patent/JP6553245B2/ja active Active
- 2018-04-27 JP JP2018087426A patent/JP6549283B2/ja active Active
- 2018-04-27 JP JP2018087408A patent/JP6553246B2/ja active Active
- 2018-04-27 JP JP2018087416A patent/JP6549282B2/ja active Active
-
2019
- 2019-02-25 KR KR1020190021762A patent/KR102062329B1/ko active IP Right Grant
- 2019-06-28 JP JP2019122072A patent/JP6841869B2/ja active Active
- 2019-06-28 JP JP2019122109A patent/JP6871312B2/ja active Active
- 2019-09-24 HR HRP20191726TT patent/HRP20191726T1/hr unknown
- 2019-09-27 CY CY20191101019T patent/CY1122257T1/el unknown
-
2020
- 2020-01-31 US US16/778,313 patent/US10958918B2/en active Active
- 2020-02-07 US US16/784,714 patent/US10958919B2/en active Active
-
2021
- 2021-01-08 US US17/144,409 patent/US11483578B2/en active Active
- 2021-02-12 US US17/174,843 patent/US11490100B2/en active Active
- 2021-02-18 JP JP2021024625A patent/JP7041294B2/ja active Active
- 2021-04-15 JP JP2021069283A patent/JP7123210B2/ja active Active
-
2022
- 2022-03-10 JP JP2022037465A patent/JP7305831B2/ja active Active
- 2022-08-09 JP JP2022127407A patent/JP7367143B2/ja active Active
- 2022-08-09 JP JP2022127390A patent/JP7367141B2/ja active Active
- 2022-08-09 JP JP2022127436A patent/JP7367145B2/ja active Active
- 2022-08-09 JP JP2022127399A patent/JP7367142B2/ja active Active
- 2022-08-09 JP JP2022127432A patent/JP7367144B2/ja active Active
- 2022-08-10 JP JP2022128503A patent/JP7431290B2/ja active Active
- 2022-08-10 JP JP2022128498A patent/JP7432668B2/ja active Active
- 2022-09-23 US US17/951,797 patent/US11949890B2/en active Active
-
2023
- 2023-10-17 JP JP2023179054A patent/JP2023179726A/ja active Pending
-
2024
- 2024-01-19 US US18/417,415 patent/US20240155140A1/en active Pending
- 2024-02-02 JP JP2024015010A patent/JP2024050775A/ja active Pending
- 2024-02-27 US US18/588,746 patent/US20240205428A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7431290B2 (ja) | 映像情報デコーディング方法、映像デコーディング方法及びそれを利用する装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240202 |