JP4955755B2 - スケーラビリティを有する映像処理 - Google Patents

スケーラビリティを有する映像処理 Download PDF

Info

Publication number
JP4955755B2
JP4955755B2 JP2009503291A JP2009503291A JP4955755B2 JP 4955755 B2 JP4955755 B2 JP 4955755B2 JP 2009503291 A JP2009503291 A JP 2009503291A JP 2009503291 A JP2009503291 A JP 2009503291A JP 4955755 B2 JP4955755 B2 JP 4955755B2
Authority
JP
Japan
Prior art keywords
nal unit
video data
enhancement layer
layer video
syntax elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009503291A
Other languages
English (en)
Other versions
JP2009531999A (ja
Inventor
チェン、ペイソン
ティアン、タオ
シ、ファン
ラビーンドラン、ビジャヤラクシュミ・アール.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2009531999A publication Critical patent/JP2009531999A/ja
Application granted granted Critical
Publication of JP4955755B2 publication Critical patent/JP4955755B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/02Colour television systems with bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

35U.S.C§119に基づく優先権の主張
本特許出願は、各々の全内容が本明細書において参照されることによって本明細書に組み入れられている米国仮特許出願一連番号60/787,310(出願日:2006年3月29日)、米国仮特許出願一連番号60/789,320(出願日:2006年3月29日)、及び米国仮特許出願一連番号60/833,445(出願日:2006年7月25日)の利益を主張するものである。
本開示は、デジタル映像処理に関するものである。本開示は、特に、スケーラブル映像処理に関する技術に関するものである。
デジタル映像能力は、デジタルテレビ、デジタル直接放送システム、無線通信デバイス、パーソナルデジタルアシスタント(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、ビデオゲームコンソール、デジタルカメラ、デジタル録画装置、携帯電話、衛星無線電話、等を含む広範なデバイス内に組み込むことができる。デジタル映像デバイスは、映像シーケンスを処理及び送信する際に従来のアナログ映像システムの重要な改良を提供することができる。
デジタル映像シーケンスを符号化するための幾つかの異なる映像符号化基準が確立されている。例えば、ムービング・ピクチャ・エキスパーツ・グループ(MPEG)は、MPEG−1、MPEG−2及びMPEG−4を含む幾つかの基準を策定している。その他の例は、国際電気通信連合(ITU)−T H.263基準、ITU−T H.264基準及びその同等基準、ISO/IEC MPEG−4、Part10、すなわち、アドバンスト・ビデオ・コーディング(AVC)を含む。これらの映像符号化基準は、データを圧縮して符号化することによって映像シーケンスの向上された送信効率をサポートする。
発明の概要
一般的には、本開示は、映像スケーラビリティを有するマルチメディア処理に関する複雑度が低い拡張をサポートするために構文要素及び意味論を利用する映像処理技術を説明する。前記構文要素及び意味論は、マルチメディア放送に適用可能であり、複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義する。
前記構文要素及び意味論は、ネットワーク抽象化層(NAL)ユニットに適用可能である。幾つかの側面においては、技術は、本来はITU−T H.264基準に準拠するデバイスに関する低複雑性映像スケーラビリティ拡張を実装するために適用することができる。従って、幾つかの側面においては、NALユニットは、一般的には、H.264基準に準拠することができる。特に、基本層映像データを搬送するNALユニットは、H.264に準拠することができ、拡張層映像データを搬送するNALユニットは、1つ以上の追加又は修正された構文要素を含むことができる。
一側面においては、本開示は、スケーラブルデジタル映像データを転送するための方法を提供し、前記方法は、拡張層映像データをネットワーク抽象化層(NAL)ユニット内に含めることと、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素をNALユニット内に含めること、とを具備する。
他の側面においては、本開示は、スケーラブルデジタル映像データを転送するための装置を提供し、前記装置は、符号化された拡張層映像データをNALユニット内に含め、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニット内に含めるネットワーク抽象化層(NAL)ユニットモジュールを具備する。
さらなる側面においては、本開示は、スケーラブルデジタル映像データを転送するためのプロセッサを提供し、前記プロセッサは、拡張層映像データをネットワーク抽象化層(NAL)ユニット内に含め、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニット内に含めるように構成される。
追加の側面においては、本開示は、スケーラブルデジタル映像データを処理するための方法を提供し、前記方法は、ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信することと、前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信することと、前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号すること、とを具備する。
他の側面においては、本開示は、スケーラブルデジタル映像データを処理するための装置を提供し、前記装置は、ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信し、前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信するNALユニットモジュールと、前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号する復号器と、を具備する。
さらなる側面においては、本開示は、スケーラブルデジタル映像データを処理するためのプロセッサを提供し、前記プロセッサは、ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信し、前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信し、前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号するように構成される。
本開示において説明される技術は、デジタル映像符号化及び/又は復号装置においてハードウェア内、ソフトウェア内、ファームウェア内、又はそのいずれかの組合せ内に実装することができる。ソフトウェア内において実装される場合は、前記ソフトウェアは、コンピュータにおいて実行することができる。前記ソフトウェアは、最初に、命令、プログラム符号、等として格納することができる。従って、本開示は、コンピュータによって読み取り可能な媒体であって、本開示によりコンピュータに技術及び機能を実行させるための符号を具備するコンピュータによって読み取り可能な媒体、を具備するデジタル映像符号化のためのコンピュータプログラム製品も企図する。
様々な側面の追加の詳細が添付図面及び以下の説明において示される。その他の特長、目的及び利点が、前記説明と図面から、及び請求項から明確になるであろう。
スケーラブル映像符号化は、映像圧縮アプリケーションにおいて信号対雑音比(SNR)スケーラビリティを提供するために用いることができる。時間的及び空間的スケーラビリティも可能である。一例として、SNRスケーラビリティに関して、符号化された映像は、基本層と、拡張層と、を含む。基本層は、映像符号化に関して必要な最低量のデータを搬送し、基本レベルの品質を提供する。拡張層は、復号された映像の品質を拡張する追加データを搬送する。
一般的には、基本層は、本明細書によって定義された第1のレベルの空間−時間的SNRスケーラビリティを表す符号化された映像データを含むビットストリームを指すことができる。拡張層は、本明細書によって定義された第2のレベルの空間−時間的SNRスケーラビリティを表す符号化された映像データを含むビットストリームを指すことができる。拡張層ビットストリームは、基本層と関連するときのみに復号可能であり、すなわち、最終的な復号された映像データを生成するために用いられる復号された基本層映像データへのレファレンス(reference)を含む。
物理層における階層的変調を用いることで、基本層及び拡張層は、同じ搬送波又は副搬送波で送信することができるが、送信特性が異なるため異なるパケット誤り率(PER)になる可能性がある。基本層は、カバレッジエリア全体を通じて信頼性がより高い受信を確保するためにより低いPERを有する。復号器は、基本層のみ、又は拡張層が信頼できる形で受信される及び/又はその他の判定基準に準拠する場合は基本層+拡張層、を復号することができる。
一般的には、本開示は、映像スケーラビリティを有するマルチメディア処理に関する複雑度が低い拡張をサポートするために構文要素及び意味論を利用する映像処理技術について説明するものである。これらの技術は、マルチメディア放送に特に応用可能であり、複雑度の低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義する。幾つかの側面においては、これらの技術は、本来はH264.基準に準拠するデバイスに関する複雑度が低い映像スケーラビリティ拡張を実装するために応用することができる。例えば、拡張は、H.264又はその他の基準の将来のバージョンに関する潜在的修正又はこれらの基準の拡張を表すことができる。
H264.基準は、ITU−Tビデオ・コーディング・エキスパーツ・グループ及びISO/IECムービング・ピクチャ・エキスパーツ・グループ(MPEG)によって、合同映像チーム(JVT)と呼ばれるパートナー関係の産物として開発されたものである。H.264基準は、ITU−T研究グループによる2005年3月付ITU−T勧告H.264、一般的オーディオビジュアルサービスに関する高度映像コーディング、において説明されており、本明細書においては、H.264基準又はH.264仕様、又はH.264/AVC基準又は仕様と呼ばれることがある。
本開示において説明される技術は、映像復号器による基本層及び拡張層の映像の効率的な処理を促進するように設計された拡張層構文要素及び意味論を利用する。本開示においては様々な構文要素及び意味論が説明され、いっしょに又は別々に選択的に用いることができる。低複雑性映像スケーラビリティは、基本層及び拡張層として表される2つの型の構文上のエンティティにビットストリームをパーティショニングすることによって2つのレベルの空間−時間的SNR スケーラビリティを提供する。
コーディングされた映像データ及びスケーラブルな拡張は、ネットワーク抽象化層(NAL)ユニットで搬送される。各NALユニットは、整数の数のバイトを含むパケットの形態をとることができるネットワーク送信ユニットである。NALユニットは、基本層データ又は拡張層データのいずれも搬送する。本開示の幾つかの側面においては、NALユニットの一部は、H.264/AVC基準に実質的に準拠することができる。しかしながら、本開示の様々な原理は、その他の型のNALユニットに対しても適用することができる。一般的には、NALユニットの最初のバイトは、NALユニット内におけるデータの型を示すヘッダーを含む。NALユニットの残りの部分は、ヘッダーにおいて示される型に対応するペイロードデータを搬送する。ヘッダーnal_unit_typeは、32の異なるNALユニット型のうちの1つを示す5ビット値であり、これらのNALユニット型のうちの9つは、将来用いるために予約される。9つの予約されたNALユニット型のうちの4つは、スケーラビリティ拡張用に予約される。NALユニットがスケーラビリティアプリケーションにおいて用いるための拡張層映像データを含むことができるアプリケーション専用のNALユニットであることを示すためにアプリケーション専用nal_unit_typeを用いることができる。
NALユニット内の基本層ビットストリーム構文及び意味論は、一般的には、おそらく幾つかの制約を受ける形で、H.264基準、等の適用可能な基準に準拠することができる。制約例として、ピクチャパラメータ組は、0に等しいMbaffFRameFlagを有することができ、シーケンスパラメータ組は、1に等しいframe_mbs_only_flagを有することができ、格納されたBピクチャフラグは、0に等しくすることができる。NALユニットに関する拡張層ビットストリーム構文及び意味論は、本開示においては、映像スケーラビリティに関する複雑度の低い拡張を効率的にサポートするように定義される。例えば、拡張層データを搬送するネットワーク抽象化層(NAL)ユニットの意味論は、H.264に関して、拡張層NALユニットに含まれるロービットシーケンスペイロード(RBSP)データ構造の型を指定する新しいNALユニット型を導入するように修正することができる。
拡張層NALユニットは、映像復号器がNALユニットを処理するのを援助するための様々な拡張層表示を有する構文要素を搬送することができる。様々な表示は、NALユニットが拡張層においてイントラコーディングされた拡張層映像データを含むかどうかの表示、復号器が拡張層映像データを基本層データに付加時に画素領域又は変換領域のいずれを用いるべきかを示す表示、及び/又は拡張層映像データが基本層映像データに関する残存データを含むかどうかの表示を含むことができる。
拡張層NALユニットは、NALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを示す構文要素も搬送することができる。その他の構文要素は、非ゼロ変換係数値を含む拡張層映像データ内のブロックを識別し、1よりも大きい規模を有する拡張層映像データ内のイントラコーディングされたブロックにおいて幾つかの非ゼロ係数を示し、拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを示すことができる。上述される情報は、効率的で順序に従った復号をサポートするのに有用であることができる。
本開示において説明される技術は、様々な予測映像符号化基準、例えば、MPEG−1基準、MPEG−2基準、又はMPEG−4基準、ITU H.263基準又はH.264基準、又はH.264基準と実質的に同一であるISO/IEC MPEG−4、Part 10基準、すなわち、アドバンスト・ビデオ・コーディング(AVC)、のうちのいずれかと組合せて用いることができる。本明細書においては、H.264基準と関連づけられた映像スケーラビリティに関する低複雑性拡張をサポートするための該技術の利用は、例示することを目的として説明される。従って、本開示は、低複雑性映像スケーラビリティを提供することを目的として、本明細書において説明される場合におけるH.264基準の適合化、拡張及び修正を企図するが、その他の基準にも適用可能である。
幾つかの側面においては、本開示は、技術基準TIA−1099(“FLO仕様”)として発行予定の順方向リンク専用(FLO)エアインタフェース仕様、“地上モバイルマルチメディアマルチキャストに関する順方向リンク専用エアインタフェース仕様”、を用いる地上モバイルマルチメディアマルチキャスト(TM3)システムにおいてリアルタイム映像サービスを引き渡すためのエンハンストH.264映像コーディングへの適用を企図する。FLO仕様は、FLOエアインタフェースを通じてサービスを引き渡すのに適するビットストリーム構文及び意味論及び復号プロセスを定義する例を含む。
上述されるように、スケーラブル映像コーディングは、2つの層、すなわち基本層及び拡張層、を提供する。幾つかの側面においては、漸増的レベルの品質、例えば信号対雑音比スケーラビリティ、を提供する複数の拡張層を提供することができる。しかしながら、本開示においては、例示することを目的として単一の拡張層が説明される。物理層において階層的変調を用いることによって、基本層及び1つ以上の拡張層を同じ搬送波又は副搬送波で送信することができるが、異なる送信特性を有するために異なるパケット誤り率(PER)になる可能性がある。基本層は、より低いPERを有する。復号器は、利用可能性及び/又はその他の判定基準に依存して基本層のみ又は基本層+拡張層を復号することができる。
モバイルハンドセット、又はその他の小型の携帯デバイス、等のクライアントデバイスにおいて復号が行われる場合は、計算上の複雑さ及びメモリ要求に起因する制限が存在する場合がある。従って、スケーラブル符号化は、基本層+拡張層の復号が単層復号と比較して計算上の複雑さ及びメモリ要求を有意な形で高めないように設計することができる。適切な構文要素及び関連する意味論が、基本層データ及び拡張層データの効率的な復号をサポートすることができる。
可能なハードウェア実装の一例として、加入者デバイスは、3つのモジュール、すなわち、動き補償を取り扱うための動き推定モジュール、逆量子化動作及び逆変換動作を取り扱うための変換モジュール、及び復号された映像のデブロッキングを取り扱うためのデブロッキングモジュールを有するハードウェアコアを具備することができる。各モジュールは、一度に1つのマクロブロック(MB)を処理するように構成することができる。しかしながら、各モジュールのサブステップにアクセスするのは困難な場合がある。
例えば、インターMBの輝度の逆変換は、4x4ブロックに基づくことができ、変換モジュールにおけるすべての4x4ブロックに関して16の変換を順次行うことができる。さらに、復号プロセスを加速するために3つのモジュールのパイプライン化を用いることができる。従って、スケーラブル復号に関するプロセスを受け入れるための割り込みは、実行フローの速度を遅くする可能性がある。
スケーラブル符号化設計においては、例えば汎用プロセッサにおいて、本開示の1つの側面に従い、復号器において、基本層及び拡張層からのデータを結合して単一の層にすることができる。この方法により、マイクロプロセッサから出された着信データは、単一のデータ層のように見え、ハードウェアコアによって単一の層として処理することができる。従って、幾つかの側面においては、スケーラブル復号は、ハードウェアコアにとって透明である。
ハードウェアコアのモジュールを再スケジューリングする必要はないことがある。基本層データ及び拡張層データの単層復号は、幾つかの側面においては、復号の複雑さをほんのわずかに高めることがあり、メモリ要求はほとんど又はまったく高めない。
高PERであることに起因して又はその他の何らかの理由で拡張層が取り除かれるときには、基本層データのみを入手可能である。従って、基本層データには従来の単層復号を行うことができ、一般的には、従来の非スケーラブル復号の変更はほとんど又はまったく要求されない。しかしながら、基本層及び拡張層の両層のデータを入手可能である場合は、復号器は、両層を復号して拡張層品質の映像を生成し、その結果得られた映像の信号対雑音比を表示装置における表示のために高くすることができる。
本開示においては、基本層及び拡張層の両層が受信されていて利用可能である場合に関する復号手順が説明される。しかしながら、説明される復号手順は、基本層のみの単層復号に対しても適用可能であることが当業者にとって明らかなはずである。さらに、スケーラブル復号及び従来の単(基本)層復号は、同じハードウェアコアを共有することができる。さらに、ハードウェアコア内におけるスケジューリング制御は、基本層復号及び基本層+拡張層復号の両方を処理する上でほとんど又はまったく修正を要求しない。
スケーラブル復号に関連するタスクの一部は、汎用マイクロプロセッサにおいて実行することができる。作業は、2層エントロピー復号と、2つの層係数を結合することと、デジタル信号プロセッサ(DSP)に制御情報を提供すること、とを含むことができる。DSPに提供される制御情報は、QP値と、各4x4ブロックにおける非ゼロ係数の数と、を含むことができる。QP値は、逆量子化のためにDSPに送ることができ、デブロッキングのためにハードウェアコア内の非ゼロ係数情報といっしょに機能することができる。DSPは、その他の動作を完了させるためにハードウェアコア内のユニットにアクセスすることができる。しかしながら、本開示において説明される技術は、特定のハードウェア実装又はアーキテクチャに限定する必要がない。
本開示においては、両層においてBフレームを搬送可能であると仮定し、双方向予測(B)フレームを標準的な方法で符号化することができる。本開示は、一般的には、基本層、拡張層、又は両方において現れることができるI及びPフレーム及び/又はスライスの処理に焦点を合わせるものである。一般的には、本開示は、基本層ビットストリームと拡張層ビットストリームに関する動作を結合させて復号の複雑度及び電力消費量を最小にする単層復号プロセスについて説明する。
一例として、基本層及び拡張層を結合させるために、基本層係数を拡張層SNRスケールに変換することができる。例えば、基本層係数は、単純にスケールファクタを乗じることができる。基本層と拡張層との間の量子化パラメータ(QP)差が例えば6の倍数である場合は、基本層係数は、単純なビットシフト動作によって拡張層スケールに変換することができる。その結果、基本層データのスケールアップされたバージョンが得られ、該バージョンを拡張層データと結合することによって、基本層及び拡張層の両方があたかも共通のビットストリーム層内に常駐するかのようにして両層を単層復号することを可能にする。
2つの異なる層を独立して復号するのではなく単一の層を復号することによって、復号器の必要な処理構成要素を単純化することができ、スケジューリング上の制約を緩和することができ、電力消費量を低減させることができる。単純化された、複雑度が低いスケーラビリティを可能にするために、拡張層ビットストリームNALユニットは、映像復号器が異なるNALユニット内における基本層データ及び拡張層データの両方の存在に応じることができるような形で復号を容易にするように設計された様々な構文要素及び意味論を含む。構文要素、意味論、及び処理上の特長の例が以下において図面を参照して説明される。
図1は、映像スケーラビリティをサポートするデジタルマルチメディア放送システム10を例示するブロック図である。図1の例においては、システム10は、放送サーバー12と、送信塔14と、複数の加入者デバイス16A、16Bと、を含む。放送サーバー12は、1つ以上のソースからデジタルマルチメディアコンテンツを入手し、例えば本明細書において説明される映像符号化基準のうちのいずれか、例えばH.264、に従ってマルチメディアコンテンツを符号化する。放送サーバー12によって符号化されるマルチメディアコンテンツは、加入者デバイス16と関連づけられたユーザーによる選択のために異なるチャネルをサポートするように別々のビットストリームにおいて手配することができる。放送サーバー12は、デジタルマルチメディアコンテンツをライブの又は保存されたマルチメディアとして異なるコンテンツプロバイダフィードから入手することができる。
放送サーバー12は、無線チャネルを通じて放送サーバー12から入手された符号化されたマルチメディアを引き渡すために送信塔14と関連づけられた1本以上のアンテナを駆動するための適切な無線周波数(RF)変調、フィルタリング、及び増幅器構成要素を含む変調器/送信機を含むこと又は該変調器/送信機に結合することができる。幾つかの側面においては、放送サーバー12は、一般的には、FLO仕様に従って地上モバイルマルチメディアマルチキャスト(TM3)システムにおいてリアルタイム映像サービスを提供するように構成することができる。変調器/送信機は、様々な無線通信技術、例えば、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交周波数分割多重化(OFDM)、又は該技術の組合せ、のうちのいずれかに従ってマルチメディアデータを送信することができる。
各加入者デバイス16は、デジタルマルチメディアデータを復号して提示することができるあらゆるデバイス、デジタル直接放送システム、無線通信デバイス、例えば、携帯電話又は衛星無線電話、パーソナルデジタルアシスタント(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、ビデオゲームコンソール、等、の内部に常駐することができる。加入者デバイス16は、マルチメディアデータの有線及び/又は無線受信をサポートすることができる。さらに、幾つかの加入者デバイス16は、ビデオテレフォニー、映像ストリーミング、等を含む音声及びデータのアプリケーションをサポートすることに加えて、マルチメディアデータを符号化して送信するために装備することができる。
スケーラブルな映像をサポートするために、放送サーバー12は、複数の映像データチャネルに関して別々の基本層ビットストリーム及び拡張層ビットストリームを生成するためにソース映像を符号化する。チャネルは、加入者デバイス16A、16Bがいずれの時点においても観るために異なるチャネルを選択できるように一般的には同時に送信される。従って、ユーザー制御下にある加入者デバイス16A、16Bは、テレビを観るのとほとんど同じように、スポーツを観るために1つのチャネルを選択し、ニュース又はその他のスケジュールが定められた番組を観るために他のチャネルを選択することができる。一般的には、各チャネルは、異なるPERレベルで送信される基本層及び拡張層を含む。
図1の例においては、2つの加入者デバイス16A、16Bが示される。しかしながら、システム10は、所定のカバレッジエリア内のあらゆる数の加入者デバイス16A、16Bを含むことができる。特に、複数の加入者デバイス16A、16Bが同じチャネルにアクセスして同じコンテンツを同時に閲覧することができる。図1は、一方の加入者デバイス16Aが送信塔により近くなり、他方の加入者デバイス16Bが送信塔からより遠くなるように送信塔14に対する加入者デバイス16A及び16Bの位置を決めることを表す。基本層はより低いPERで符号化されるため、該当するカバレッジエリア内のあらゆる加入者デバイス16によって信頼できる形で受信されて復号されるようにすべきである。図1に示されるように、両加入者デバイス16A、16Bが基本層を受信する。しかしながら、加入者16Bは、送信塔14からより遠くに位置しており、拡張層を信頼できる形で受信しない。
より近い加入者デバイス16Aは、基本層データ及び拡張層データの両方を利用可能であるためより高い品質の映像が可能であり、他方、加入者デバイス16Bは、基本層データによって提供された最低の品質レベルしか提示することができない。従って、加入者デバイス16によって入手される映像は、拡張層を復号して基本層に付加して復号映像の信号対雑音比を増大することが可能であるという意味でスケーラブルである。しかしながら、スケーラビリティは、拡張層データが存在するときにしか可能でない。説明されるように、拡張層データが利用可能であるときには、拡張層NALユニットと関連づけられた構文要素及び意味論は、加入者デバイス16内の映像復号器が映像スケーラビリティを達成させるのを補助する。本開示においては、特に図面においては、“拡張”という用語は、簡潔にするために“ehn”又は“ENH”に略されることがある。
図2は、スケーラブル映像ビットストリームの基本層17及び拡張層18内の映像フレームを示した図である。基本層17は、第1のレベルの空間−時間SNRスケーラビリティを表す符号化された映像データを含むビットストリームである。拡張層18は、第2のレベルの空間−時間SNRスケーラビリティを表す符号化された映像データを含むビットストリームである。一般的には、拡張層ビットストリームは、基本層と関連させたときのみに復号可能であり、独立して復号することができない。拡張層18は、基本層17内の復号された映像データへのレファレンスを含む。該レファレンスは、変換領域又は画素領域のいずれかにおいて用いて最終的な復号された映像データを生成することができる。
基本層17及び拡張層18は、イントラ(I)フレーム、インター(P)フレーム、及び双方向(B)フレームを含むことができる。拡張層18内のPフレームは、基本層17内のPフレームへのレファレンスに依存する。拡張層18及び基本層17内のフレームを復号することによって、映像復号器は、復号された映像の映像品質を向上させることができる。例えば、基本層17は、毎秒15フレームの最低フレームレートで符号化された映像を含むことができ、拡張層18は、毎秒30フレームのより高いフレームレートで符号化された映像を含むことができる。異なる品質レベルでの符号化をサポートするため、基本層17及び拡張層18は、より高い量子化パラメータ(QP)及びより低いQPをそれぞれ用いて符号化することができる。
図3は、図1のデジタルマルチメディア放送システム10における放送サーバー12及び加入者デバイス16の典型的構成要素を示すブロック図である。図3に示されるように、放送サーバー12は、1つ以上の映像ソース20、又は様々な映像ソースへのインタフェースを含む。放送サーバー12は、映像符号器22と、NALユニットモジュール23と、変調器/送信機24と、を同じく含む。加入者デバイス16は、受信機/復調器26と、NALユニットモジュール27と、映像復号器28と、映像表示装置30と、を含む。受信機/復調器26は、通信チャネル15を介して変調器/送信機24から映像データを受信する。映像符号器22は、基本層符号器モジュール32と、拡張層符号器モジュール34と、を含む。映像復号器28は、基本層/拡張(基本/enh)層結合器モジュール38と、基本層/拡張層エントロピー復号器40と、を含む。
基本層符号器32及び拡張層符号器34は、共通の映像データを受信する。基本層符号器32は、第1の品質レベルで映像データを符号化する。拡張層符号器34は、基本層に付加されたときに第2のより高い品質レベルに映像を拡張するリファインメントを符号化する。NALユニットモジュール23は、映像符号器22からの符号化されたビットストリームを処理し、基本層及び拡張層からの符号化された映像データが入ったNALユニットを生成する。NALユニットモジュール23は、図3に示されるような別個の構成要素であること又は映像符号器22内に埋め込むこと又はその他の方法で一体化することができる。幾つかのNALユニットは基本層データを搬送し、その他のNALユニットは拡張層データを搬送する。本開示に従い、NALユニットの少なくとも一部は、映像復号器28が複雑さを実質的に高めずに基本層データ及び拡張層データを復号するのを援助するための構文要素及び意味論を含む。例えば、NALユニット内における拡張層映像データの存在を示す1つ以上の構文要素を、拡張層映像データを含むNALユニット、基本層映像データを含むNALユニット、又は両方において提供することができる。
変調器/送信機24は、NALユニットモジュール23によって生成されたNALユニットの変調及び無線送信をサポートするための適切なモデム、増幅器、フィルタ、周波数変換構成要素を含む。受信機/復調器26は、放送サーバーによって送信されたNALユニットの無線受信をサポートするための適切なモデム、増幅器、フィルタ及び周波数変換構成要素を含む。幾つかの側面においては、放送サーバー12及び加入者デバイス16は、双方向通信のために装備し、放送サーバー12、加入者デバイス16、又は両方が送信構成要素及び受信構成要素の両方を含み、両方が映像を符号化及び復号できるようにすることができる。その他の側面においては、放送サーバー12は、基本層符号化及び拡張層符号化を用いて映像データを符号化、復号、送信及び受信するために装備される加入者デバイス16であることができる。従って、2つ以上の加入者デバイス間において送信された映像に関するスケーラブル映像処理も企図される。
NALユニットモジュール27は、受信されたNALユニットから構文要素を抽出し、関連づけられた情報を、基本層及び拡張層の映像データを復号する際に用いるために映像復号器28に提供する。NALユニットモジュール27は、図3に示される別個の構成要素であること又は映像復号器内に埋め込むこと又は映像復号器28とその他の形で一体化することができる。基本層/拡張層エントロピー復号器40は、受信された映像データに対してエントロピー復号を適用する。拡張層データが利用可能である場合は、基本層/拡張層結合器モジュール38は、結合された情報の単層復号をサポートするために、NALユニットモジュール27によって提供された表示を用いて基本層及び拡張層からの係数を結合する。映像復号器28は、結合された映像データを復号し、表示装置30を駆動するための出力映像を生成する。各NALユニット内に存在する構文要素、及び構文要素の意味論は、受信された基本層及び拡張層の映像データの結合及び復号の際に映像28を導く。
放送サーバー12及び加入者デバイス16内の様々な構成要素は、ハードウェア、ソフトウェア、及びファームウェアの適切な組合せによって実現することができる。例えば、映像符号器22及びNALユニットモジュール23は、NALユニットモジュール27及び映像復号器28と同様に、1つ以上の汎用マイクロプロセッサ、デジタル信号プロセッサ(DSP)、ハードウェアコア、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、又はそのいずれかの組合せによって実現することができる。さらに、様々な構成要素を、映像符号器−復号器(CODEC)内において実装することができる。幾つかの場合においては、開示される技術の幾つかの側面は、符号化プロセスを加速させるためにハードウェアコア内の様々なハードウェア構成要素を呼び出すDSPによって実行することができる。
機能、例えばプロセッサ又はDSPによって実行される機能、がソフトウェア内に実装される側面に関しては、本開示は、コンピュータプログラム製品内において符号を具備するコンピュータによって読み取り可能な媒体も企図する。符号は、機械内において実行されるときには、本開示において説明される技術の1つ以上の側面を機械に実行させる。機械によって読み取り可能な媒体は、ランダムアクセスメモリ(RAM)、例えば、同期ダイナミックランダムアクセスメモリ(SDRAM)、読取専用メモリ(ROM)、非揮発性ランダムアクセスメモリ(NVRAM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、FLASHメモリ、等、を具備することができる。
図4は、加入者デバイス16に関する映像復号器28の典型的構成要素を示すブロック図である。図4の例においては、図3の場合と同じように、映像復号器28は、基本層/拡張層エントロピー復号器モジュール40と、基本層/拡張層結合器モジュール38と、を含む。図4には、基本層+拡張層誤り回復モジュール44、逆量子化モジュール46、及び逆変換及び予測モジュール48も示される。図4は、映像復号器28及び表示装置30の出力を受信する後処理モジュール50も示す。
基本層/拡張層エントロピー復号器40は、映像復号器28によって受信された映像データに対してエントロピー復号を適用する。基本層/拡張層結合器モジュール38は、拡張層データが入手可能であるときに、すなわち、拡張層データが成功裏に受信されているときに、所定のフレーム又はマクロブロックに関する基本層映像データ及び拡張層映像データを結合する。後述されるように、基本層/拡張層結合器モジュール38は、最初に、NALユニット内に存在する構文要素に基づいて、NALユニットが拡張層データを含むかどうかを決定することができる。NALユニットが拡張層データを含む場合は、結合器モジュール38は、例えば基本層データをスケーリングすることによって、対応するフレームに関する基本層データを拡張層データと結合する。この方法により、結合器モジュール38は、複数の層を処理せずに映像復号器28によって復号することができる単層ビットストリームを生成する。NALユニット内のその他の構文要素及び関連づけられた意味論は、基本層データ及び拡張層データが結合されて復号される方法を指定することができる。
誤り回復モジュール44は、結合器モジュール38の復号された出力内における誤りを訂正する。逆量子化モジュール46及び逆変換モジュール48は、逆量子化関数及び逆変換関数を誤り回復モジュール44の出力にそれぞれ適用し、後処理モジュール50のための復号された出力映像を生成する。後処理モジュール50は、様々な映像拡張機能、例えば、デブロッキング、デリンギング、平滑化、シャープ化、等のうちのいずれかを実行することができる。フレーム又はマクロブロックに関して拡張層データが存在するときは、映像復号器28は、後処理モジュール50及び表示装置30に適用するためのより高質の映像を生成することができる。拡張層データが存在しない場合は、復号された映像は、基本層によって提供された最低品質レベルで生成される。
図5は、スケーラブル映像ビットストリーム内の基本層映像データ及び拡張層映像データの復号を示す流れ図である。一般的には、拡張層が高いパケット誤り率に起因して捨てられるか又は受信されないときには、基本層データのみが利用可能である。従って、従来の単層復号が実行される。しかしながら、データの基本層及び拡張層の両方が利用可能である場合は、映像復号器28は、両層を復号して拡張層品質の映像を生成する。図5に示されるように、1つのグループのピクチャ(GOP)の復号が開始され次第(54)、NALユニットモジュール27は、着信したNALユニットが拡張層データ又は基本層データのみを含むかどうかを決定する(58)。NALユニットが基本層データのみを含む場合は、映像復号器28は、従来の単層復号を基本層データに適用し(60)、GOPの最後まで継続する(62)。
NALユニットが基本層データのみを含むだけではない(58)、すなわち、NALユニットの一部が拡張層データを含む、場合は、映像復号器28は、基本層I復号(64)及び拡張層(ENH)層I復号(66)を行う。特に、映像復号器28は、基本層及び拡張層内のすべてのIフレームを復号する。映像復号器28は、基本層及び拡張層の両方に関するIフレームの復号を管理するためにメモリシャッフルを行う(68)。実際には、基本層及び拡張層は、単一のIフレームに関して2つのIフレーム、すなわち、拡張層IフレームI及び基本層IフレームI、を提供する。この理由により、メモリシャッフルを用いることができる。
両層からのデータを利用可能であるときにIフレームを復号するために、一般的には次のように機能する2パス復号を実装することができる。最初に、基本層フレームIbが通常のIフレームとして再構築される。次に、拡張層IフレームがPフレームとして再構築される。再構築された拡張層Pフレームに関する参照フレームは、再構築された基本層Iフレームである。結果的に得られたPフレームにおいてはすべての動きベクトルがゼロである。従って、復号器28は、再構築されたフレームをゼロの動きベクトルを有するPフレームとして復号し、スケーラビリティを透明にする。
単層復号と比較して、拡張層IフレームIを復号することは、一般的には、従来のIフレーム及びPフレームの復号時間に相当する。Iフレームの頻度が毎秒1フレームよりも大きくない場合は、追加の複雑さは有意ではない。例えばシーンの変化又はその他の何らかの理由で頻度が毎秒1つのIフレームよりも大きい場合は、符号化アルゴリズムは、これらの指定されたIフレームのみが基本層において符号化されるように構成しなければならない。
復号器においてIとIの両方が同時に存在することが可能である場合は、Iは、Iとは異なるフレームバッファに保存することができる。この方法により、IがPフレームとして再構築されるときには、メモリインデックスをシャッフルすることができ、Iによって占有されるメモリを解放することができる。復号器28は、拡張層ビットストリームが存在するかどうかに基づいてメモリインデックスシャッフルを処理する。メモリバジェットが厳しすぎるためこのことを考慮できない場合は、すべての動きベクトルがゼロであるため、プロセスは、I上にIを上書きすることができる。
Iフレームの復号(64、66)及びメモリのシャッフル(68)後は、結合器モジュール38は、基本層及び拡張層のPフレームデータを結合して単層に入れる(70)。次に、逆量子化モジュール46及び逆変換モジュール48は、単一のPフレーム層を復号する(72)。さらに、逆量子化モジュール46及び逆変換モジュール48は、Bフレームを復号する(74)。
Pフレームデータ(72)及びBフレームデータ(74)を復号した時点で、プロセスは、GOPが完了した場合は終了する(62)。GOPがまだ完全に復号されていない場合は、プロセスは、基本層及び拡張層のPフレームデータの結合(70)、その結果得られた単層Pフレームデータの復号(72)、及びBフレームの復号(74)のさらなる繰り返しを通じて継続する。このプロセスは、GOPの最後に到達するまで継続し、GOPの最後に到達した時点でプロセスが終了される。
図6は、映像復号器28における基本層係数及び拡張層係数の結合を示すブロック図である。図6に示されるように、基本層Pフレーム係数は、例えば逆量子化モジュール46及び逆変換及び予測モジュール48による逆量子化80及び逆変換82がそれぞれ実施され(図4)、次に、参照フレームを表すバッファ86からの残存データが加算器84によって加算され、復号された基本層Pフレーム出力が生成される。しかしながら、拡張層データが利用可能である場合は、拡張層係数の品質レベルと合致するように基本層係数のスケーリングが行われる(88)。
次に、所定のフレームに関するスケーリングされた基本層係数及び拡張層係数が加算器90において加えられ、結合された基本層/拡張層データが生成される。結合されたデータは、逆量子化92及び逆変換94が行われ、バッファ98からの残存データが加算器96によって加算される。出力は、結合された復号された基本層データ及び拡張層データであり、基本層に関する拡張された品質レベルを生み出すが、単層処理のみを要求することができる。
一般的には、基本層バッファ及び拡張層バッファ86及び98は、動き補償を目的として構成ファイルによって指定された再構築された基準映像データを格納することができる。基本層及び拡張層の両方のビットストリームが受信された場合は、単純に基本層DCT係数をスケーリングし、これらの係数を拡張層DCT係数と合計することは、2つの層のデータに関して単一の逆量子化及び逆DCT動作が行われる単層復号をサポートすることができる。
幾つかの側面においては、基本層データのスケーリングは、単一のビットシフト動作によって完遂することができる。例えば、基本層の量子化パラメータ(QP)が拡張層のQPよりも6レベル大きい場合、すなわち、QP−QP=6である場合は、結合された基本層及び拡張層データは、以下のように表すことができる。
enh’=Q −1((Cbase<<1)+Cenh
ここで、Cenh’は、基本層係数Cbaseをスケーリングして原拡張層係数Cenhに加えた後の結合された係数を表し、Q −1は、拡張層に適用された逆量子化動作を表す。
図7は、映像復号器における基本層係数と拡張層係数の結合を示す流れ図である。図7に示されるように、NALユニットモジュール27は、例えばNALユニット拡張型を示すNALユニット構文要素を参照することによって、基本層映像データ及び拡張層映像データの両方がいつ加入者デバイス16によって受信されるかを決定する(100)。基本層及び拡張層の映像データが受信された場合は、NALユニットモジュール27は、所定のNALユニット内の1つ以上の追加の構文要素を検査し、各々の基本マクロブロック(MB)が非ゼロ係数を有するかどうかを決定する(102)。非ゼロ係数を有する(102の判断ブロックにおいて「はい」)である場合は、結合器28は、拡張層係数を変換し、各々の共配置されたMBに関する既存の拡張層係数+共配置されたMBに関するアップスケーリングされた基本層係数の合計を求める(104)。
この場合は、逆量子化モジュール46及び逆変換モジュール48に関する係数は、COEFF=SCALED BASE_COEFF+ENH_COEFF(104)によって表される、スケーリングされた基本層係数と拡張層係数の和である。この方法により、結合器38は、拡張層データ及び基本層データを結合し、映像復号器28の逆量子化モジュール46及び逆変換モジュール48に関する単層にする。拡張層とともに共配置された基本層MBがゼロでない係数を有さない(102の判断ブロックにおいて「いいえ」である)場合は、拡張層係数は、基本層係数と合計されない。代わりに、逆量子化モジュール46及び逆変換モジュール48に関する係数は、COEFF=ENH_COEFFによって表される拡張層係数である(108)。逆量子化モジュール46及び逆変換モジュール48は、拡張層係数(108)又は結合された基本層及び拡張層係数(104)のいずれかを用いて、MBを復号する(106)。
図8は、低複雑性映像スケーラビリティをサポートするために様々な典型的構文要素を組み入れるためのスケーラブル映像ビットストリームの符号化を示す流れ図である。様々な構文要素は、拡張層映像データを搬送するNALユニット内に挿入することで、NALユニットにおいて搬送されるデータの型を識別すること及び拡張層映像データの復号を援助するための情報を通信することができる。一般的には、構文要素は、関連づけられた意味論を有しており、NALユニットモジュール23によって生成し、放送サーバー12から加入者16への送信前にNALユニット内に挿入することができる。一例として、NALユニットモジュール23は、NALユニット内のNALユニット型パラメータ(例えば、nal_unit_type)を、選択された値(例えば、30)に設定し、NALユニットは拡張層映像データを含むことができるアプリケーション専用NALユニットであることを示すことができる。本明細書において説明されるその他の構文要素及び関連づけられた値は、様々なNALユニットで搬送される拡張層映像データの処理及び復号を容易にするためにNALユニットモジュール23によって生成することができる。第2のNALユニットにおける拡張層映像データの存在を示すために、基本層映像データを含む第1のNALユニット、拡張層映像データを含む第2のNALユニット、又はその両方に1つ以上の構文要素を含めることができる。
以下において構文要素及び意味論がさらに詳細に説明される。図8においては、プロセスは、基本層映像及び拡張層映像の両方の送信に関して示される。ほとんどの場合は、基本層映像及び拡張層映像は両方とも送信される。しかしながら、幾つかの加入者デバイス16は、送信塔14からの距離、干渉又はその他の要因に起因して、基本層映像を搬送するNALユニットのみを受信する。しかしながら、放送サーバー12の観点からは、基本層映像及び拡張層映像は、幾つかの加入者デバイス16が両層を受信する能力を有さないことに留意せずに送信される。
図8に示されるように、基本層符号器32及び拡張層符号器34からのそれぞれの符号化された基本層映像データ及び符号化された拡張層映像データが、NALユニットモジュール23によって受信され、ペイロードとして各々のNALユニット内に挿入される。特に、NALユニットモジュール23は、符号化された基本層映像を第1のNALユニット内に挿入し(110)、符号化された拡張層映像を第2のNALユニット内に挿入する(112)。映像復号器28を援助するため、NALユニットモジュール23は、第1のNALユニットに関するNALユニット型が基本層映像データを含むRBSPであることを示す値を第1のNALユニット内に挿入する。さらに、NALユニットモジュール23は、第2のNALユニットに関する拡張されたNALユニット型が拡張層映像データを含むRBSPであることを示す値を第2のNALユニット内に挿入する。前記値は、特定の構文要素と関連づけることができる。この方法により、加入者デバイス16内のNALユニットモジュール27は、基本層映像データ及び拡張層映像データを含むNALユニットを区別し、どの時点でスケーラブル映像処理を映像復号器28によって開始すべきかを検出することができる。基本層ビットストリームは、正確なH.264フォーマットに従うことができ、他方、拡張層ビットストリームは、拡張されたビットストリーム構文要素、例えば “extended_nal_unit_type”をNALユニットヘッダー内に含むことができる。映像復号器28の観点からは、NALユニットヘッダー内の構文要素、例えば“拡張フラグ”は、拡張層ビットストリームを示し、映像復号器による該当する処理をトリガーする。
拡張層データがイントラコーディングされた(I)データを含む場合は(118)、NALユニットモジュール23は、拡張層データ内におけるイントラデータの存在を示すための構文要素値を第2のNALユニット内に挿入する(120)。この方法により、NALユニットモジュール27は、第2のNALユニットが加入者デバイス16によって信頼できる形で受信されると仮定し、第2のNALユニット内の拡張層映像データのイントラ処理が必要であることを示す情報を映像復号器28に送信することができる。いずれの場合も、拡張層がイントラデータを含むかどうかにかかわらず(118)、NALユニットモジュール23は、基本層映像データと拡張層映像データの付加を、拡張層符号器34によって指定された領域に依存して画素領域又は変換領域のいずれの領域で行うべきかを示すための構文要素値も第2のNALユニット内に挿入する(122)。
拡張層に残存データが存在する場合は(124)、NALユニットモジュール23は、拡張層における残存情報の存在を示すための値を第2のNALユニット内に挿入する(126)。いずれの場合も、残存データが存在するかどうかにかかわらず、NALユニットモジュール23は、第2のNALユニットで搬送されるパラメータ組の適用範囲を示すための値も第2のNALユニット内に挿入する(128)。図8においてさらに示されるように、NALユニットモジュール23は、1よりも大きい非ゼロ係数を有するイントラコーディングされたブロック、例えばマクロブロック(MB)、を識別するための値も第2のNALユニット、すなわち、拡張層映像データを搬送するNALユニット、内に挿入する。
さらに、NALユニットモジュール23は、第2のNALユニットによって搬送される拡張層映像データ内におけるインターコーディングされたブロックに関するコーディングされたブロックパターン(CBP)を示すための値を第2のNALユニット内に挿入する(132)。1を超える非ゼロ係数を有するイントラコーディングされたブロックの識別、及びインターコーディングされたブロックパターンに関するCBPの表示は、加入者デバイス16内の映像復号器28がスケーラブル映像復号を行うのを援助する。特に、NALユニットモジュール27は、様々な構文要素を検出し、基本層及び拡張層の映像データを復号目的で効率的に処理するためのコマンドをエントロピー復号器40及び結合器38に提供する。
一例として、NALユニット内における拡張層映像の存在は、構文要素“nal_unit_type”によって示すことができ、該構文要素は、特定の復号プロセスが規定されるアプリケーション専用NALユニッを示す。H.264の規定されていない範囲内におけるnal_unit_typeの値、例えば30の値、を用いて、NALユニットがアプリケーション専用NALユニットであることを示すことができる。NALユニットヘッダー内の構文要素“extension_flag”は、アプリケーション専用NALユニットが拡張されたNALユニッRBSPを含むことを示す。以上のように、nal_unit_type及びextension_flagは、NALユニッが拡張層データを含むかどうかを共同で示すことができる。構文要素“extended_nal_unit_type”は、NALユニッ内に含まれている拡張層の特定の型を示す。
映像復号器28が画素領域付加又は変換領域付加のいずれを用いるべきかを示す表示は、拡張スライスヘッダー“enh_slice_header”内における構文要素“decoding_mode_flag”によって示すことができる。イントラコーディングされたデータが拡張層内に存在するかどうかの表示は、構文要素“refine_intra_mb_flag”によって提供することができる。非ゼロ係数及びイントラCBPを有するイントラブロックの表示は、拡張層マクロブロック層(enh_macroblock_layer)内のイントラ16x16MBに関しては“enh_intra_16x16_macroblock_cbp()”、enh_macroblock_layer内のイントラ4x4モードに関しては“coded_block_pattern”、等の構文要素によって示すことができる。インターCBPは、enh_macroblock_layer内における構文要素“enh_coded_block_pattern”によって示すことができる。構文要素の特定の名前は、例示することを目的として提供されるが、変化することがある。従って、これらの名前は、該構文要素と関連づけられた機能及び表示を制限するものであるとはみなすべきではない。
図9は、低複雑性映像スケーラビリティをサポートするための様々な典型的構文要素を処理するためのスケーラブル映像ビットストリームの復号を示す流れ図である。図9に示される復号プロセスは、一般的には、受信された拡張層NALユニッ内の様々な構文要素の処理を強調するという意味で図8に示される符号化プロセスと相互関係にある。図9に示されるように、受信機/復調器26によってNALユニットが受信され次第(134)、NALユニットモジュール27は、NALユニットが拡張層映像データを含むことを示す構文要素値をNALユニットが含むかどうかを決定する。含まない場合は、復号器28は、基本層映像処理のみを適用する(138)。しかしながら、NALユニット型が拡張層データを示す場合は(136)、NALユユニットモジュール27は、NALユニットを解析して拡張層映像データと関連づけられたその他の構文要素を検出する。追加の構文要素は、復号器28が基本層映像データ及び拡張層映像データの両方の効率的で順序に従った復号を提供するのを援助する。
例えば、NALユニッモジュール27は、例えば該当する構文要素値の存在を検出することによって、NALユニッ内の拡張層映像データがイントラデータを含むかどうかを決定する(142)。さらに、NALユニッモジュール27は、NALユニッを構文解析し、画素領域又は変換領域のいずれによる基本層及び拡張層の付加が示されているか(144)、拡張層内における残存データの存在が示されているかどうか(146)、及びパラメータ組及びパラメータ組の適用範囲が示されているかどうか(148)を示す構文要素を検出する。NALユニッモジュール27は、拡張層内において1よりも大きい非ゼロ係数を有するイントラコーディングされたブロックを識別する構文要素、及び拡張層映像データ内のインターコーディングされたブロックに関するCBPを示す構文要素も検出する(152)。構文要素によって提供される決定事項に基づき、NALユニッモジュール27は、基本層及び拡張層の映像データを復号する際に用いるための該当する表示を映像復号器28に提供する。
図8及び9の例においては、拡張層NALユニッは、映像復号器28がNALユニットを処理するのを援助するための様々な拡張層表示を有する構文要素を搬送することができる。例として、様々な表示は、NALユニットがイントラコーディングされた拡張層映像データを含むかどうかの表示、
復号器が拡張層映像データと基本層データの付加のために画素領域又は変換領域のいずれを用いるべきかの表示、及び/又は拡張層映像データが基本層映像データに関する残存データを含むかどうかの表示を含むことができる。さらなる例として、拡張層NALユニットは、NALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを示す構文要素を搬送することもできる。
その他の構文要素は、非ゼロ変換係数値を含む拡張層映像データ内のブロックを識別し、1より大きい規模を有する拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を示し、拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを示すことができる。繰り返すと、図8及び9において提供される例は、制限するものであるとはみなすべきでない。拡張層NALユニットにおいては多くの追加の構文要素及び意味論を提供することができ、そのうちの一部が以下において説明される。
次に、拡張層構文例がさらに詳細に説明され、該当する意味論が論じられる。幾つかの側面においては、上述されるように、NALユニットは、基本層映像データ及び拡張層映像データを含むマルチメディアデータの符号化及び/又は復号の際に用いることができる。該場合においては、拡張層NALユニットの一般的構文及び構造は、H.264基準と同じであることができる。しかしながら、その他のユニットも使用可能であることが当業者にとって明らかなはずである。代替として、拡張層NALユニット内に含まれているロービットシーケンスペイロード(RBSP)データ構造の型を指定する新しいNALユニット型(nal_unit_type)値を導入することが可能である。
一般的には、本開示において説明される拡張層構文は、例えば単層復号によってオーバーヘッドが低い意味論であること及び複雑さが小さいことを特徴とすることができる。拡張層マクロブロック層構文は、圧縮効率が高いことを特徴とすることができ、Intra_16x16コーディングされたブロックパターン(CBP)、拡張層インターMB CBP、及び拡張層イントラMBに関するコンテキスト適応型可変長コーディング(CAVLC)コーディングテーブルを用いる新しいエントロピー復号に関する構文要素を指定することができる。
低オーバーヘッドに関しては、スライス及びMB構文は、拡張層スライスと共配置された基本層スライスの関連づけを指定する。マクロブロック予測モード及び動きベクトルは、基本層構文で搬送することができる。拡張層MBモードは、共配置された基本層MBモードから導き出すことができる。拡張層MBコーディングされたブロックパターン(CBP)は、共配置された基本層MB CBPに依存して2つの異なる方法で復号することができる。
低複雑性に関しては、基本層及び拡張層のビットストリームに関する動作を単純に結合して復号器の複雑さを緩和し電力消費量を低減させることによって単層復号を達成させることができる。この場合は、基本層係数は、例えばスケールファクタによる乗算によって、拡張層スケールに変換することができ、基本層と拡張層との間の量子化パラメータ(QP)の差に基づいてビットシフトすることによって達成させることができる。
同じく低複雑性に関して、拡張層Pスライス内におけるイントラMBの存在を示すために構文要素refine_intra_mb_flagを提供することができる。デフォルト設定では、値refine_intra_mb_flag=0に設定することで単層復号を可能することができる。この場合は、拡張層におけるイントラMBに関するリファインメントは存在しない。イントラMBは基本層の品質でコーディングされるため、このことは視覚上の品質に対して悪影響を及ぼさない。特に、イントラMBは、通常は、新しく現れてきた視覚情報に対応し、人間の目は最初はその視覚情報を感じない。しかしながら、refine_intra_mb_flag=1は、拡張のために依然として提供可能である。
高圧縮効率に関して、拡張層イントラ16x16係数のパーティションが基本層luma intra_16x16予測モードに基づいて定義されるようにするために拡張層イントラ16x16 MB CBPを提供することができる。拡張層intra_16x16 MB cbpは、共配置された基本層MB cbpに依存して2つの異なる方法で復号される。基本層AC係数はすべてがゼロであるわけではないケース1においては、拡張層intra_16x16 CBPは、H.264に従って復号される。基本層スライス内の対応するマクロブロックのすべてのAC係数がゼロであるかどうかを示すフラグとして構文要素(例えば、BaseLayerAcCoefficientsAllZero)を提供することができる。基本層AC係数がすべてゼロであるケース2においては、intra_16x16 cbpを搬送するための新しい手法を提供することができる。特に、拡張層MBは、基本層luma intra_16x16予測モードに依存して4つのサブMBパーティションにパーティショニングされる。
6つの8x8ブロック、ルマ及びクロマ、のうちのいずれが非ゼロ係数を含むかを指定するために拡張層インターMB CBPを提供することができる。拡張層MB CBPは、共配置された基本層MB CBPに依存して2つの異なる方法で復号される。共配置された基本層MB CBP(base_coded_block_pattern又はbase_cbp)がゼロであるケース1においては、拡張層MB CBP(enh_coded_block_pattern又はenh_cbp)は、H.264に従って復号される。base_coded_block_patternがゼロに等しくないケース2においては、enh_coded_block_patternを搬送するための新しい手法を提供することができる。非ゼロ係数を有する基本層8x8に関しては、共配置された拡張層8x8が非ゼロ係数を有するかどうかを示すために1ビットが用いられる。その他の8x8ブロックの状態は、可変長コーディング(VLC)によって表される。
さらなるリファインメントとして、拡張層イントラMBが拡張層イントラMB内における非ゼロ係数の数を表すために新しいエントロピー復号(CAVLCテーブル)を提供することができる。構文要素enh_coeff_token0乃至16は、1よりも大きい規模を有する係数が存在しないことを条件として0から16までの非ゼロ係数の数を表すことができる。構文要素enh_coeff_token17は、1よりも大きい規模を有する少なくとも1つの非ゼロ係数が存在することを表す。この場合(enh_coeff_token17)は、標準的な手法を用いて非ゼロ係数の総数及び末尾1(trailing 1)係数の数が復号される。enh_coeff_token(0乃至16)は、コンテキストに基づいて8つのVLCテーブルのうちの1つを用いて復号される。
本開示においては、様々な略語は、H.264基準の条項4において規定されるとおりに解釈すべきである。規約(convention)は、H.264基準の条項5において規定されるとおりに解釈することができ、ソース、コーディングされた、復号された及び出力されたデータフォーマット、走査プロセス、及び近隣関係は、H.264基準の条項6において規定されるとおりに解釈することができる。
さらに、本明細書の目的上、次の定義を適用することができる。用語基本層は、一般的には、本明細書によって定義された第1のレベルの空間−時間SNRスケーラビリティを表す符号化された映像データを含むビットストリームを指す。基本層ビットストリームは、H.264のあらゆる準拠する拡張プロフィール復号器によって復号可能である。構文要素BaseLayerAcCoefficientsAllZeroは、0に等しくないときには、基本層内の共配置されたマクロブロックのすべてのAC係数がゼロであることを示す変数である。
構文要素BaseLayerIntraIntra16x16PredModeは、基本層における共配置されたIntra_16x16予測マクロブロックの予測モードを示す変数である。構文要素BaseLayerIntra16x16PredModeは、Intra_16x16_Vertical、Intra_16x16_Horizontal、Intra_16x16_DC及びIntra_16x16_Planarにそれぞれ対応する値0、1、2、又は3を有する。この変数は、H.264基準の条項8.3.3において規定されるとおりに変数Intra_16x16PreModeに等しい。構文aseLayerMbTtpeは、基本層内における共配置されたマクロブロックのマクロブロック型を示す変数である。この変数は、H.264基準の条項7.3.5において規定されるように構文要素mb_typeに等しくすることができる。
用語基本層スライス(又はbase_layer_slice)は、H.264の条項7.3.3に準拠してコーディングされ、H.264の条項8.2.1において定義されるのと同じピクチャオーダーカウントを持った本開示の規定に従ってコーディングされた対応する拡張層スライスを有するスライス、を指すことができる。要素BaseLayerSliceType(又はbase_layer_slice_type)は、基本層内における共配置されたスライスのスライス型を示す変数である。この変数は、H.264基準の条項7.3.3において規定されるとおりの構文要素slice_typeに等しい。
用語拡張層は、一般的には、第2のレベルの空間−時間SNRスケーラビリティを表す符号化された映像データを含むビットストリームを指す。拡張層ビットストリームは、基本層と関連するときのみに復号可能であり、すなわち、最終的な復号された映像データを生成するために用いられる復号された基本層映像データへのレファレンスを含む。
クォーターマクロブロックは、マクロブロックをパーティショニングした結果得られるマクロブロックのサンプルの1/4を指す。この定義は、クォーターマクロブロックが正方形以外の(例えば長方形の)形をとることができる以外は、H.264基準におけるサブマクロブロックの定義と類似する。用語クォーターマクロブロックパーティションは、インター予測及びイントラリファインメントに関するクォーターマクロブロックのパーティショニングの結果得られる1つのルマサンプルブロック及び2つの対応するクロマサンプルブロックを指す。この定義は、用語“イントラリファインメント”は本明細書によって導入されたものであること以外は、H.264基準におけるサブマクロブロックパーティションの定義と同一であることができる。
用語マクロブロックパーティションは、インター予測又はイントラリファインメントに関するマクロブロックのパーティショニングの結果得られる1つのルマサンプルブロック及び2つの対応するクロマサンプルブロックを指す。この定義は、用語“イントラリファインメント”は本開示によって導入されたものであること以外は、H.264基準における定義と同一である。さらに、本明細書において定義されるマクロブロックパーティションの形状は、H.264の定義と異なることができる。
拡張層構文
RBSP構文
下表1は、低複雑性映像スケーラビリティに関するRBSP型の例を提供する。
Figure 0004955755
上述されるように、拡張層RBSPの構文は、シーケンスパラメータ組及びピクチャパラメータ組は基本層において送信できること以外は、H.264基準と同じであることができる。例えば、拡張層内においてコーディングされたシーケンスパラメータ組RBSP構文、ピクチャパラメータ組RBSP構文及びスライスデータパーティションRBSPは、ITU−T H.264基準の条項7において規定される構文を有することができる。
本開示における様々な表において、すべての構文要素は、別の規定がないかぎりにおいて、該構文要素がH.264基準において説明される範囲で、ITU−T H.264基準において示される該当する構文及び意味論を有することができる。一般的には、H.264基準において説明されない構文要素及び意味論が本開示において説明される。
本開示の様々な表において、“C”が表示される列は、H.264基準におけるカテゴリに準拠することができる、NALユニット内に存在することができる構文要素のカテゴリを記載する。さらに、RBSPデータ構造の構文及び意味論による決定に従い、構文カテゴリ“すべて”を有する構文要素が存在することができる。
特定の記載されたカテゴリの構文要素が存在するか又は存在しないかは、関連づけられたRBSPデータ構造の構文及び意味論から決定される。記述子列は、一般的には、本開示において別の規定がないかぎり、H.264基準において規定される記述子に準拠することができる記述子、例えばf(n)、u(n)、b(n)、ue(v)、se(v)、me(v)、ce(v)、を規定する。
拡張NALユニット構文
本開示の一側面による、映像スケーラビリティに関する拡張のためのNALユニット構文は、一般的には下表2のように規定することができる。
Figure 0004955755
上表2において、値nal_unit_typeは、拡張層処理に関する特定の拡張を示す30に設定される。nal_unit_typeが選択値、例えば30、に設定されたときには、NALユニットは、復号器28による拡張層処理をトリガーする拡張層データを搬送することを示す。nal_unit_type値は、標準的なH.264ビットストリームに加えて追加の拡張層ビットストリーム構文修正の処理をサポートするための一意の専用のnal_unit_typeを提供する。一例として、このnal_unit_type値は、NALユニットが拡張層データを含むことを示すための値30を割り当てることができ、さらに、NALユニット内に存在することができる追加の構文要素、例えば、extension_flag及びextended_nal_unit_type、の処理をトリガーすることができる。例えば、構文要素extended_nal_unit_typeは、拡張の型を指定する値に設定される。特に、extended_nal_unit_typeは、拡張層NALユニット型を示すことができる。要素extended_nal_unit_typeは、NALユニット内における拡張層データのRBSPデータ構造の型を示すことができる。Bスライスに関して、スライスヘッダー構文は、H.264基準に従うことができる。適用可能な意味論が本開示全体においてさらに詳細に説明される。
スライスヘッダー構文
拡張層におけるIスライス及びPスライスに関して、スライスヘッダー構文は、下表3Aにおいて示されるように定義することができる。参照フレーム情報を含む拡張層スライスに関するその他のパラメータは、共配置された基本層スライスから導き出すことができる。
Figure 0004955755
要素base_layer_sliceは、例えばH.264の条項7.3.3に準拠してコーディングされ、例えばH.264の条項8.2.1において定義されるのと同じピクチャオーダーカウントを持った表2に従ってコーディングされた対応する拡張層スライスを有するスライス、を指すことができる。要素base_layer_slice_typeは、例えばH.264基準の条項7.3において規定されるとおりの基本層のスライス型を指す。参照フレーム情報を含む拡張層スライスに関するその他のパラメータは、共配置された基本層スライスから導き出される。
スライスヘッダー構文において、refine_intra_MBは、NALユニット内の拡張層映像データがイントラコーディングされた映像データを含むかどうかを示す。refine_intra_MBが0である場合は、イントラコーディングは基本層のみにおいて存在する。従って、拡張層イントラ復号をスキップすることができる。refine_intra_MBが1である場合は、イントラコーディングされた映像データは、基本層及び拡張層の両方に存在する。この場合は、拡張層イントラデータを処理して基本層イントラデータを拡張することができる。
スライスデータ構文
下表3Bに示されるようなスライス構文例を提供することができる。
Figure 0004955755
マクロブロック層構文
下表4に示されるような拡張層MB構文例を提供することができる。
Figure 0004955755
拡張マクロブロック層に関するその他のパラメータは、対応するbase_layer_slice内の対応するマクロブロックに関する基本層マクロブロック層から導き出される。
上表4において、構文要素enh_coded_block_patternは、一般的には、拡張層MB内の拡張層映像データが基本層データに関する何らかの残存データを含むかどうかを示す。拡張マクロブロック層に関するその他のパラメータは、対応するbase_layer_slice内の対応するマクロブロックに関する基本層マクロブロック層から導き出される。
イントラマクロブロックコーディングされたブロックパターン(CBP)構文
イントラ4x4MBに関しては、CBP構文は、H.264基準、例えばH.264基準の条項7におけるのと同じであることができる。イントラ16x16MBに関して、CBP情報を符号化するための新たな構文を下表5において示されるように提供することができる。
Figure 0004955755
残存データ構文
拡張層内におけるイントラコーディングされたMB残存データに関する構文、すなわち、拡張層残存データ構文、は、下表6Aに示されるとおりであることができる。インターコーディングされたMB残存データに関しては、構文は、H.264基準に準拠することができる。
Figure 0004955755
拡張層残存データに関するその他のパラメータは、対応する基本層スライス内の共配置されたマクロブロックに関する基本層残存データから導き出される。
残存ブロックCAVLC構文
拡張層残存ブロックコンテキスト適応型可変長コーディング(CAVLC)に関する構文は、下表6Bにおいて規定されるとおりであることができる。
Figure 0004955755
拡張層残存ブロックCAVLCに関するその他のパラメータは、対応する基本層スライス内の共配置されたマクロブロックに関する基本層残存ブロックCAVLCから導き出すことができる。
拡張層意味論
ここでは拡張層意味論が説明される。拡張層NALユニットの意味論は、H.264基準において規定された構文要素に関してH.264基準によって規定されたNALユニットの構文と実質的に同じであることができる。H.264基準において説明されない新しい構文要素は、本開示において説明される該当する意味論を有する。拡張層RBSP及びRBSP末尾ビットの意味論は、H.264基準と同じであることができる。
拡張NALユニット意味論
上表2に関して、forbidden_zero_bitは、H.264基準仕様の条項7において規定されるとおりである。0に等しくない値nal_ref_idcは、拡張されたNALユニットの内容が、シーケンスパラメータ組又はピクチャパラメータ組又は参照ピクチャのスライス又は参照ピクチャのスライスデータパーティションを含むことを規定する。スライス又はスライスデータパーティションを含む拡張NALユニットに関して0に等しい値nal_ref_idcは、該スライス又はスライスデータパーティションが非参照ピクチャの一部であることを示す。nal_ref_idcの値は、シーケンスパラメータ組又はピクチャパラメータ組NALユニットに関しては0に等しくないものとする。
nal_ref_idcが、特定のピクチャの1つのスライス又はスライスデータパーティション拡張NALユニットに関して0に等しいときには、該ピクチャのすべてのスライス又はスライスデータパーティション拡張NALユニットに関して0に等しいものとする。値nal_ref_idcは、下表7において示されるように、IDR拡張NALユニット、すなわち、5に等しいextended_nal_unit_typeを有するNALユニット、に関しては0に等しくないものとする。さらに、nal_ref_idcは、下表7において示されるように、6、9、10、11、又は12に等しいextended_nal_unit_typeを有するすべての拡張NALユニットに関しては0に等しいものとする。
値nal_unit_typeは、本開示において復号プロセスが規定されるアプリケーション専用NALユニットを示すためのH.264の“未指定”範囲内の30の値を有する。30に等しくない値nal_unit_typeは、H.264基準の条項7において規定されるとおりである。
値extension_flagは、1ビットのフラグである。extension_flagが0であるときには、後続する6ビットが予約されることを指定する。extension_flagが1であるときには、このNALユニットは拡張されたNALユニットRBSPを含むことを指定する。
値reserved又はreserved_zero_1bitは、30であるnal_unit_typeに対応するアプリケーションへの将来の拡張に関して用いられる1ビットのフラグである。値enh_profile_idcは、ビットストリームが準拠するプロフィールを示す。値reserved_zero_3bitsは、将来用いるために予約された3ビットのフィールドである。
値extended_nal_unit_typeは、下表7において規定されるとおりである。
Figure 0004955755
0に等しいか又は24..63の範囲内にあるextended_nal_unit_typeを用いる拡張NALユニットは、本開示において説明される復号プロセスには影響を与えない。拡張NALユニット型0及び24..63は、アプリケーションによる決定に従って用いることができる。
nal_unit_typeのこれらの値(0及び24.63)に関する復号プロセスは指定されない。この例においては、復号器は、extended_nal_unit_typeの予約値を用いるすべての拡張NALユニットの内容を無視する、すなわちビットストリームから取り除いて捨てることができる。この潜在的要求は、適合可能な拡張に関する将来の定義を可能にする。値rbsp_byte及びemulation_prevention_three_byteは、H.264基準仕様の条項7において規定されるとおりである。
RBSP意味論
拡張層RBSPの意味論は、H.264基準仕様の条項7において規定されるとおりである。
スライスヘッダー意味論
スライスヘッダー意味論に関して、構文要素first_mb_in_sliceは、スライス内における第1のマクロブロックのアドレスを指定する。任意のスライス順序が許容されないときには、first_mb_in_sliceの値は、復号順序において現在のスライスに先行する現在のピクチャのその他のあらゆるスライスに関するfirst_mb_in_sliceの値よりも小さくすべきでない。スライスの第1のマクロブロックアドレスは、次のようにして導き出すことができる。値first_mb_in_sliceは、スライス内の第1のマクロブロックのマクロブロックアドレスであり、first_mb_in_sliceは、0乃至PicSizeInMbs−1の範囲内にあり、ここで、PicSizeInMbsは、ピクチャ内におけるメガバイト数である。
要素enh_slice_typeは、下表8に従ったスライスのコーディング型を指定する。
Figure 0004955755
5乃至9の範囲内のenh_slice_typeの値は、現在のスライスのコーディング型に加えて、現在のコーディングされたピクチャのその他のすべてのスライスが、enh_slice_typeの現在値に等しいか又はslice_type−5の現在値に等しいenh_slice_typeの値を有することを指定する。代替側面においては、enh_slice_type値3、4、8及び9は、未使用であることができる。extended_nal_unit_typeが、瞬時復号リフレッシュ(IDR)ピクチャに対応する5に等しいときには、slice_typeは、2、4、7、又は9に等しくすることができる。
構文要素pic_parameter_set_idは、対応するbase_layer_sliceのpic_parameter_set_idとして指定される。拡張層NALユニット内の要素frame_numは、基本層共配置スライスと同じになる。同様に、拡張層NALユニット内の要素pic_order_cnt_lsbは、基本層共配置スライス(base_layer_slice)に関するpic_order_cnt_lsbと同じになる。delta_pic_order_cnt_bottom、delta_pic_order_cnt[0]、delta_pic_order_cnt[1]に関する意味論、及びredundant_pic_cnt意味論は、H.264基準の条項7.3.3において規定されるとおりである。要素decoding_mode_flagは、下表9において示されるように拡張層スライスに関する復号プロセスを指定する。
Figure 0004955755
上表9において、画素領域付加は、NALユニットにおいて0のdecoding_mode_flag値によって示され、単層復号をサポートするために画素領域において拡張層スライスを基本層スライスに付加すべきであることを意味する。係数領域付加は、NALユニットにおいて1のdecoding_mode_flag値によって示され、単層復号をサポートするために係数領域において拡張層スライスを基本層スライスに付加できることを意味する。従って、decoding_mode_flagは、復号器が画素領域又は変換領域のいずれにおける拡張層映像データと基本層データの付加を用いるべきかを示す構文要素を提供する。
画素領域付加では、拡張層スライスが以下のように画素領域において基本層スライスに付加される。
Y[i][j]=Clip1( Y[i][j]base+Y[i][j]enh
Cb[i][j]=Clip1( Cb[i][j]base+Cb[i][j]enh
Cr[i][j]=Clip1( Cr[i][j]base+Cr[i][j]enh
ここで、Yは、輝度を表し、Cbは、青のクロミナンスを表し、Crは、赤のクロミナンスを表し、ここで、Clip1Yは、以下のような数学関数であり、
Clip1(x)=Clip3(0,(1<<BitDepth)−1,x)
Clip1Cは、以下のような数学関数であり、
Clip1(x)=Clip3(0,(1<<BitDepth)−1,x)
Clip3は、本明細書の別の箇所において説明される。数学関数Clip1y、Clip1c及びClip3は、H.264基準において定義される。
係数領域付加では、以下のように拡張層スライスが係数領域において基本層スライスに付加される。
LumaLevel[i][j]=kLumaLevel[i][j]base+LumaLevel[i][j]enh
ChromaLevel[i][j]=kChromaLevel[i][j]base+ChromaLevel[i][j]enh
ここで、kは、基本層係数を拡張層QPスケールに合わせて調整するために用いられるスケーリングファクタである。
拡張層NALユニット内の構文要素refine_intra_MBは、拡張層において非Iスライス内のイントラMBをリファインメントすべきかどうかを指定する。refine_intra_MBが0に等しい場合は、イントラMBは拡張層においてはリファインメントされず、これらのMBは、拡張層においてはスキップされる。refine_intra_MBが1に等しい場合は、イントラMBは拡張層においてリファインメントされる。
要素slice_qp_deltaは、マクロブロック層内においてmb_qp_deltaの値によって修正されるまでスライス内の全マクロブロックに関して用いられるルマ量子化パラメータQPの初期値を指定する。スライスに関する初期QP量子化パラメータは、以下のように計算される。
SliceQP=26+pic_init_qp_minus26+slice_qp_delta
slice_qp_deltaの値は、QPが0乃至51の範囲内にあるように制限することができる。値pic_init_qp_minus26は、初期QP値を示す。
スライスデータ意味論
拡張層スライスデータの意味論は、H.264基準の条項7.4.4において規定されるとおりであることができる。
マクロブロック層意味論
マクロブロック層意味論に関して、要素enh_coded_block_patternは、6つの8x8ブロック−ルマ及びクロマ−のうちのいずれが非ゼロ変換係数レベルを含むことができるかを指定する。要素mb_qp_delta意味論は、H.264基準の条項7.4.5において規定されるとおりであることができる。構文要素coded_block_patternに関する意味論は、H.264基準の条項7.4.5において規定されるとおりであることができる。
イントラ16x16マクロブロックコーディングされたブロックパターン(CBP)意味論
refine_intra_mb_flagが1に等しい時のIスライス及びPスライスに関して、以下の説明は、イントラ16x16CBP意味論を定義する。Intra_16x16に等しい共配置基本層マクロブロック予測モードを有するマクロブロックは、AC係数の値及び共配置基本層マクロブロックのintra_16x16予測モード(BaseLayerIntra16x16PredMode)に依存して4つのクォーターマクロブロックにパーティショニングすることができる。基本層AC係数がすべてゼロであり、少なくとも1つの拡張層AC係数がゼロでない場合は、拡張層マクロブロックは、BaseLayerIntra16x16PredModeに依存して4つのマクロブロックパーティションに分割される。
マクロブロックパーティショニングは、クォーターマクロブロックと呼ばれるパーティションが結果的に得られる。図10及び11は、マクロブロック及びクォーターマクロブロックのパーティショニングを示す図である。図10は、基本層intra_16x61予測モードに基づく拡張層マクロブロックパーティション及び空間位置に対応するそのインデックスを示す。図11は、図10に示されるマクロブロックパーティションに基づく拡張層クォーターマクロブロックパーティション及び空間位置に対応するそのインデックスを示す。
図10は、各々が416ルマサンプル及び対応するクロマサンプルから成る4つのMBパーティションを有するIntra_16x16_Verticalモード、各々が164ルマサンプル及び対応するクロマサンプルから成る4つのマクロブロックパーティションを有するIntra_16x16_Horizontalモード、及び各々が88ルマサンプル及び対応するクロマサンプルから成る4つのマクロブロックパーティションを有するIntra_16x16_DC又はIntra_16x16_Planarモードを示す。
図11は、各々が4*4ルマサンプル及び対応するクロマサンプルから成る4つのクォーターマクロブロック垂直パーティション、各々が4*4ルマサンプル及び対応するクロマサンプルから成る4つのクォーターマクロブロック水平パーティション、及び各々が4*4ルマサンプル及び対応するクロマサンプルから成る4つのクォーターマクロブロックDC又はプラナー(planar)パーティションを示す。
各マクロブロックパーティションは、mbPartIdxによって参照される。各クォーターマクロブロックパーティションは、qtrMbPartIdxによって参照される。mbPartIdx及びqtrMbPartIdxの両方とも、0、1、2、又は3に等しい値を有することができる。図10及び11において示されるように、イントラリファインメントに関してマクロブロック及びクォーターマクロブロックパーティションが走査される。長方形は、パーティションを指す。各長方形内の数字は、マクロブロックパーティション走査又はクォーターマクロブロックパーティション走査のインデックスを指定する。
1に等しい要素mb_intra16x16_luma_flagは、Intra16x16ACLevel内の少なくとも1つの係数がゼロでないことを指定する。0に等しいintra16x16_luma_flagは、Intra16x16ACLevel内のすべての係数がゼロであることを指定する。
1に等しい要素mb_intra16x16_luma_part_flag[mbPartIdx]は、マクロブロックパーティションmbPartIdx内のIntra16x16ACLevel内に少なくとも1つの非ゼロ係数が存在することを指定する。0に等しいmb_intra16x16_luma_part_flag[mbPartIdx]は、マクロブロックパーティションmbPartIdx内のIntra16x16ACLevel内のすべて係数がゼロであることを指定する。
1に等しい要素qtr_mb_intra16x16_luma_part_flag[mbPartIdx][qtrMbPartIdx]は、クォーターマクロブロックパーティションqtrMbPartIdx内のIntra16x16ACLevel内に少なくとも1つの非ゼロ係数が存在することを指定する。
0に等しい要素qtr_mb_intra16x16_luma_part_flag[mbPartIdx][qtrMbPartIdx]は、クォーターマクロブロックパーティションqtrMbPartIdx内のIntra16x16ACLevel内のすべての係数がゼロであることを指定する。1に等しい要素mb_intra16x16_chroma_flagは、少なくとも1つのクロマ係数がゼロでないことを指定する。
0に等しい要素mb_intra16x16_chroma_flagは、すべてのクロマ係数がゼロであることを指定する。1に等しい要素mb_intra16x16_chroma_AC_flagは、mb_ChromaACLevel内の少なくとも1つのクロマ係数がゼロでないことを指定する。0に等しいmb_intra16x16_chroma_AC_flagは、mb_ChromaACLevel内のすべての係数がゼロであることを指定する。
残存データ意味論
残存データの意味論は、本開示において説明される残存ブロックCAVLC意味論を例外として、H.264基準の条項7.4.5.3における規定と同じであることができる。
残存ブロックCAVLC意味論
残存ブロックCAVLC意味論は、次のように提供することができる。特に、変換係数レベル走査におけるenh_coeff_tokenは、非ゼロ変換係数レベルの総数を指定する。関数TotalCoeff(enh_coeff_token)は、enh_coeff_tokenから導き出された非ゼロ変換係数レベル数を戻す。
1. enh_coeff_tokenが17に等しいときには、TotalCoeff(enh_coeff_token)は、H.264基準の条項7.4.5.3.1において規定されるとおりである。
2. enh_coeff_tokenが17に等しくないときには、TotalCoeff(enh_coeff_token)は、enh_coeff_tokenに等しい。
値enh_coeff_sign_flagは、非ゼロ変換係数レベルの符号を指定する。total_zeros意味論は、H.264基準の条項7.4.5.3.1において規定されるとおりである。run_before意味論は、H.264基準の条項7.4.5.3.1において規定されるとおりである。
拡張に関する復号処理
Iスライス復号
次に、スケーラビリティ拡張に関する復号プロセスがさらに詳細に説明される。基本層及び拡張層の両方からのデータを利用可能であるときにIフレームを復号するために、2パス復号を復号器28において実装することができる。2パス復号プロセスは、一般的には、前述されるように、及び以下において繰り返されるように機能する。最初に、基本層フレームIが通常のIフレームとして再構築される。次に、共配置された拡張層IフレームがPフレームとして再構築される。これで、このPフレームに関する参照フレームが再構築された基本層Iフレームである。繰り返すと、再構築された拡張層Pフレーム内のすべての動きベクトルがゼロである。
拡張層が利用可能であるときには、各拡張層マクロブロックは、基本層内の共配置されたマクロブロックからのモード情報を用いて残存データとして復号される。基本層IスライスIは、H.264基準の条項8における規定のように復号することができる。拡張層マクロブロック及びその共配置された基本層マクロブロックの両方が復号された後は、H.264基準の条項2.1.2.3において規定される画素領域付加を適用して最終的な再構築されたブロックを生成することができる。
Pスライス復号
Pスライスに関する復号プロセスにおいては、基本層及び拡張層の両方が、同じモード、及び基本層において送信される動き情報を共有する。インターマクロブロックに関する情報が両層内に存在する。換言すると、イントラMBに属するビットは、基本層のみにしか存在せず、拡張層にはイントラMBビットは存在しない。他方、インターMBの係数は両層にわたって散在する。共配置された基本層によってスキップされたマクロブロックを有する拡張層マクロブロックもスキップされる。
refine_ intra_mb_flagが1に等しい場合は、イントラマクロブロックに属する情報は両層内に存在し、decoding_mode_flagは0に等しくなければならない。他方、refine_ intra_mb_flagが0に等しい場合は、イントラマクロブロックに属する情報は基本層内のみに存在し、共配置基本層イントラマクロブロックを有する拡張層マクロブロックがスキップされる。
Pスライス復号設計の一側面により、非量子化モジュールがハードウェアコア内に配置されており、その他のモジュールとパイプライン化されているため、エントロピー復号直後でさらに非量子化前に、インターMBの2層係数データを汎用マイクロプロセッサにおいて結合することができる。従って、DSP及びハードウェアコアによって処理すべきMBの総数は、依然として単層復号の場合と同じであることができ、ハードウェアコアは、単一復号のみを経る。この場合は、ハードウェアコアのスケジューリングを変更する必要がない。
図12は、Pスライス復号を示す流れ図である。図12に示されるように、映像復号器28は、基本層MBエントロピー復号を行う(160)。現在の基本層MBがイントラコーディングされたMBであるか又はスキップされる場合は(162)、映像復号器28は、次の基本層MBに進む164。しかしながら、MBがイントラコーディングされず又はスキップされない場合は、映像復号器28は、共配置された拡張層MBに関するエントロピー復号を行い(166)、2つの層のデータ、すなわち、エントロピー復号された基本層MB及び共配置されたエントロピー復号された拡張層MB、を結合し、逆量子化動作及び逆変換動作に関する単層データを生成する。図12に示されるタスクは、単一の結合された層のデータを逆量子化及び逆変換のためにハードウェアコアに手渡す前に汎用マイクロプロセッサ内において実行することができる。図12に示される手順に基づき、復号されたピクチャバッファ(dpb)の管理は、単層復号と同じ又はほぼ同じであり、余分のメモリは必要ないことがある。
拡張層イントラマクロブロック復号
拡張層イントラマクロブロック復号に関しては、変換係数のエントロピー復号中に、CAVLCは、基本層復号及び拡張層復号において異なる形で処理されるコンテキスト情報を要求することができる。コンテキスト情報は、現在のブロック(blkA)の左側に所在する変換係数レベルのブロック及び現在のブロック(blkB)の上方に所在する変換係数レベルのブロック内に(TotalCoeff(coeff_token)によって与えられた)非ゼロ変換係数レベルの数を含む。
非ゼロ係数基本層共配置マクロブロックを有する拡張層イントラマクロブロックのエントロピー復号に関しては、coeff_tokenを復号するためのコンテキストは、共配置された基本層ブロックにおける非ゼロ係数数である。係数がすべてゼロである基本層共配置マクロブロックを有する拡張層イントラマクロブロックのエントロピー復号に関しては、coeff_tokenを復号するためのコンテキストは、拡張層コンテキストであり、nA及びnBは、現在のブロックの左側に所在する拡張層ブロックblkA及び現在のブロックの上方に所在する基本層ブロックblkBのそれぞれにおける(TotalCoeff(coeff_token)によって与えられた)非ゼロ変換係数レベルの数である。
エントロピー復号後は、その他のマクロブロックのエントロピー復号及びデブロッキングのために復号器28によって情報が保存される。拡張層復号を伴わない基本層復号のみに関して、各変換ブロックのTotalCoeff(coeff_token)が保存される。この情報は、その他のマクロブロックのエントロピー復号に関するコンテキストとして及びデブロッキングを制御するために用いられる。拡張層映像復号に関しては、TotalCoeff(enh_coeff_token)は、コンテキストとして及びデブロッキングを制御するために用いられる。
一側面においては、復号器28内のハードウェアコアは、エントロピー復号を処理するように構成される。この側面においては、DSPは、ゼロの動きベクトルを有するPフレームを復号する情報をハードウェアコアに提供するように構成される。ハードウェアコアにとっては、従来のPフレームが復号中であり、スケーラブルな復号が透明である。繰り返すと、単層復号と比較して、拡張層Iフレームを復号することは、一般的には、従来のIフレーム及びPフレームの復号時間と同等である。
Iフレームの頻度が毎秒1フレームよりも大きくない場合は、余分の複雑さは有意ではない。(シーンの変化又はその他の何らかの理由に起因して)頻度が毎秒1フレームよりも大きい場合は、復号アルゴリズムは、これらの指定されたIフレームが基本層でしか符号化されないことを確認することができる。
enh_coeff_tokenに関する導出プロセス
次に、enh_coeff_tokenに関する導出プロセスが説明される。構文要素enh_coeff_tokenは、下表10及び11において指定される8つのVLCのうちの1つを用いて復号することができる。
構文要素enh_coeff_flagは、非ゼロ変換係数レベルの復号を指定する。表10及び11のVLCは、27のMPEG2復号されたシーケンスに関する統計情報に基づく。各VLCは、所定の符号語enh_coeff_tokenに関する値TotalCoeff(enh_coeff_token)を指定する。VLCの選択は、以下のようにして導き出される変数numcoeff_vlcに依存する。基本層共配置ブロックが非ゼロ係数を有する場合は、以下が適用される。
if(base_nC<2)
numcoeff_vlc=0;
else if(base_nC<4)
numcoeff_vlc=1;
else if(base_nC<8)
numcoeff_vlc=2;
Else
numcoeff_vlc=3;
その他の場合は、nCは、H.264基準に準拠する技術を用いて見つけ出され、numcoeff_vlcは以下のようにして導き出される。
if(nC<2)
numcoeff_vlc=4;
Else if(nC<4)
numcoeff_vlc=5;
Else if(nC<8)
numcoeff_vlc=6;
Else
numcoeff_vlc=7;
Figure 0004955755
Figure 0004955755
拡張層インターマクロブロック復号
次に、拡張層インターマクロブロック復号が説明される。インターマクロブロック(スキップされたマクロブロックを除く)に関して、復号器28は、基本層及び拡張層の両方からの残存情報を復号する。従って、復号器28は、各マクロブロックに関して要求することができる2つのエントロピー復号プロセスを提供するように構成することができる。
基本層及び拡張層の両方がマクロブロックに関して非ゼロ係数を有する場合は、両層において近隣のマクロブロックのコンテキスト情報を用いてcoef_tokenが復号される。各層は、異なるコンテキスト情報を用いる。
エントロピー復号後は、情報は、その他のマクロブロックのエントロピー復号及びデブロッキング用のコンテキスト情報として保存される。基本層復号に関しては、復号されたTotalCoeff(coeff_token)が保存される。拡張層復号に関しては、基本層復号されたTotalCoeff(coeff_token)及び拡張層TotalCoeff(enh_coeff_token)が別々に保存される。パラメータTotalCoeff(coeff_token)は、基本層内のみに存在するイントラマクロブロックを含む基本層マクロブロックcoeff_tokenを復号するためのコンテキストとして用いられる。合計TotalCoeff(coeff_token)+TotalCoeff(enh_coeff_token)は、拡張層内におけるインターマクロブロックを復号するためのコンテキストとして用いられる。
拡張層インターマクロブロック復号
スキップされたMBを除くインターMBに関して、実装される場合は、残存情報は、基本層及び拡張層の両方において符号化することができる。従って、例えば図5において例示されるように、2つのエントロピー復号が各MBに関して適用される。両層がMBに関して非ゼロ係数を有すると仮定すると、coeff_tokenを復号するために近隣MBのコンテキスト情報が両層において提供される。各層は、自己のコンテキスト情報を有する。
エントロピー復号後は、その他のMBのエントロピー復号及びデブロッキングのために何らかの情報が保存される。基本層映像復号が行われる場合は、基本層復号されたTotalCoeff(coeff_token)が保存される。拡張層映像復号が行われる場合は、基本層復号されたTotalCoeff(coeff_token)及び拡張層復号されたTotalCoeff(enh_coeff_token)が別個に保存される。
パラメータTotalCoeff(coeff_token)は、基本層のみに存在するイントラMBを含む基本層MBcoeff_tokenを復号するためのコンテキストとして用いられる。基本層TotalCoeff(coeff_token)及び拡張層TotalCoeff(enh_coeff_token)の合計は、拡張層内におけるインターMBを復号するためのコンテキストとして用いられる。さらに、この合計は、拡張層映像をデブロッキングするためのパラメータとしても用いることができる。
非量子化は、集中的な計算が関わるため、2つの層からの係数は、ハードウェアコアが1つのQPを有する各MBに関して1回非量子化を行うようにするために、非量子化前に汎用マイクロプロセッサにおいて結合させることができる。両層は、例えば以下の節において説明されるように、マイクロプロセッサ内において結合することができる。
コーディングされたブロックパターン(CBP)復号
拡張層マクロブロックcbp、enh_coded_block_pattern、は、拡張層映像データ内のインターコーディングされたブロックに関する符号ブロックパターンを示す。幾つかの場合においては、enh_coded_block_patternは、例えば下表12乃至15におけるように、enh_cbpに短縮することができる。高圧縮効率を有するCBP復号に関して、拡張層マクロブロックcbp、enh_coded_block_pattern、は、共配置基本層MBcbp base_coded_block_patternに依存して2つの異なる方法で符号化することができる。
base_coded_block_pattern=0であるケース1の場合は、enh_coded_block_patternは、H.264基準に準拠して、例えば基本層と同じ方法で符号化することができる。base_coded_block_pattern≠0であるケース2の場合は、以下の手法を用いてenh_coded_block_patternを搬送することができる。この手法は、3つのステップを含むことができる。
ステップ1。このステップにおいては、対応する基本層coded_block_patternビットが1に等しい各ルマ8x8ブロックに関して、1ビットをフェッチする。各ビットは、拡張層共配置8x8ブロックに関するenh_coded_block_patternビットである。フェッチされたビットは、リファインメントビットと呼ぶことができる。8x8ブロックは、説明を目的とする一例として用いられることに注目すべきである。従って、異なるサイズのその他のブロックも利用可能である。
ステップ2。基本層における非ゼロルマ8x8ブロック数及びクロマブロックcbpに基づき、下表12に示されるように9つの組合せが存在する。各組合せは、残りのenh_coded_block_pattern情報の復号に関するコンテキストである。表12において、cbpb,Cは、基本層クロマcbpを表し、Σcbpb,Y(b8)は、非ゼロ基本層ルマ8x8ブロック数を表す。cbpe,C及びcbpe,Yの列は、コーディングされないenh_coded_block_pattern情報に関する新しいcbpフォーマットを示し、コンテキスト4及び9を除く。cbpe,Yにおいては、“x”は、ルマ8x8ブロックに関する1ビットを表し、cbpe,Cにおいては、“xx”は、0、1又は2を表す。
異なるコンテキストに基づいてenh_coded_block_patternを復号するための符号表が下表13及び14において規定される。
ステップ3。コンテキスト4及び9に関して、enh_chroma_coded_block_pattern(enh_chroma_cbpに短縮できる)は、下表15における符号表を用いることによって別々に復号される。
Figure 0004955755
異なるコンテキストに関する符号表が下表13及び14に示される。これらの符号表は、27のMPEG2復号されたシーケンスにわたる統計情報に基づくものである。
Figure 0004955755
Figure 0004955755
ステップ3。コンテキスト4乃至9に関して、クロマenh_cbpは、下表15に示される符号表を用いて別々に復号することができる。
Figure 0004955755
量子化パラメータに関する導出プロセス
次に、量子化パラメータ(QP)に関する導出プロセスが説明される。各マクロブロックに関する構文要素mb_qp_deltaは、マクロブロックQPを搬送する。公称基本層QP、QPbは、base_layer_slice内のマクロブロック内のmb_qp_deltaを用いて指定された基本層における量子化に関して用いられるQPでもある。公称拡張層QP、QPeは、enh_macroblock_layer内のマクロブロック内のmb_qp_deltaを用いて指定された拡張層における量子化に関して用いられるQPでもある。QP導出に関して、ビットを保存するために、各拡張層マクロブロックに関するmb_qp_deltaを送信する代わりに、基本層と拡張層との間におけるQP差を一定に保持することができる。この方法により、2つの層間におけるQP差mb_qp_deltaは、フレームのみに基づいて送信される。
QP及びQPに基づき、delta_layer_qpと呼ばれる差QPが以下のように定義される。
delta_layer_qp=QP−QP
拡張層に関して用いられる量子化QP QPe,Yは、2つの要因、すなわち、(a)基本層における非ゼロ係数レベルの存在及び(b)delta_layer_qp、に基づいて導き出される。拡張層係数に関する単一の逆量子化動作を容易にするために、delta_layer_qpは、delta_layer_qp%6=0であるように制限することができる。これらの2つの量が与えられた場合、QPは以下のように導き出される。
1. 基本層共配置MBが非ゼロ係数を有さない場合は、拡張層係数のみを復号する必要があるため、公称QPが用いられる。
QPe,Y=QP
2. delta_layer_qp%6=0である場合は、非ゼロ係数が存在するかどうかにかかわらず、QPが依然として拡張層に関して用いられる。このことは、量子化ステップサイズはQPが6増えるごとに2倍になるという事実に基づく。
以下の動作は、C及びCとしてそれぞれ定義される基本層係数及び拡張層係数を結合するための逆量子化プロセス(Q−1で表される)について説明する。
=Q−1((C(QP)<<(delta_layer_qp/6)+C(QP))
ここで、Fは、逆量子化された拡張層係数を表し、Q−1は、逆量子化関数を示す。
基本層共配置マクロブロックが非ゼロ係数を有し、delta_layer_qp%6≠0の場合は、基本層係数及び拡張層係数の逆量子化は、QP及びQPをそれぞれ用いる。拡張層係数は、以下のように導き出される。
Fe=Q−1(C(QP))+Q−1(C(QP))
クロマQP(QPbase,C及びQPenh,C)の導出は、ルマQP(QPb,Y及びQPe,Y)に基づく。最初に、qPを以下のように計算する。
qP=Clip3(0,51,QPx,Y+chroma_qp_index_offset)
ここで、xは、基本に関する“b”又は拡張に関する“e”を表し、chroma_qp_index_offsetは、ピクチャパラメータ組において定義され、Clip3は、以下の数学関数である。
Figure 0004955755
QPx,Cの値は、下表16において規定されるとおりに決定することができる。
Figure 0004955755
拡張層映像に関して、逆量子化中に導き出されたMB QPがデブロッキングの際に用いられる。
デブロッキング
デブロッキングに関しては、フレームのすべての4x4ブロックエッジに対してデブロックフィルタを適用することができる。ただし、フレームの境界におけるエッジ及びデブロッキングフィルタプロセスがdisable_blocking_filter_idcによってディスエーブルにされるエッジは除く。このフィルタリングプロセスは、フレーム内の全マクロブロックがマクロブロックアドレスの昇順で処理されるフレーム構築プロセスの完了後にマクロブロック(MB)に基づいて実行される。
図13は、ルマ及びクロマデブロッキングフィルタプロセスを示す図である。デブロッキングフィルタプロセスは、ルマ成分及びクロマ成分に関して別々に呼び出される。各マクロブロックに関して、最初に垂直なエッジが左から右にフィルタリングされ、次に、水平なエッジが上から下に向かってフィルタリングされる。図13に示されるように、16x16マクロブロックに関しては、水平方向に関して及び垂直方向に関して、ルマデブロッキングフィルタプロセスが4つの16サンプルエッジに関して行われ、各クロマ成分に関するデブロッキングフィルタプロセスが2つの8サンプルエッジに関して行われる。図13においては、フィルタリングされるべきマクロブロック内のルマ境界は、実線で示される。図13は、フィルタリングされるべきマクロブロック内のクロマ境界をダッシュ線で示す。
図13において、参照数字170、172は、ルマフィルタリング及びクロマフィルタリングに関する垂直エッジをそれぞれ示す。参照数字174、176は、ルマフィルタリング及びクロマフィルタリングに関する水平エッジをそれぞれ示す。以前のマクロブロックに関するデブロッキングフィルタプロセス動作によって既に修正されている現在のマクロブロックの左上のサンプル値は、現在のマクロブロックに関するデブロッキングフィルタプロセスへの入力として用いられ、現在のマクロブロックのフィルタリング中にさらに修正することができる。垂直エッジのフィルタリング中に修正されたサンプル値は、同じマクロブロックに関する水平エッジのフィルタリングに関する入力して用いられる。
H.264基準においては、MBモード、非ゼロ変換係数レベルの数及び動き情報は、境界フィルタリング強度を決定するために用いられる。MB QPは、入力サンプルがフィルタリングされるかどうかを示すしきい値を入手するために用いられる。基本層デブロッキングに関して、これらの情報は直接的である。拡張層映像に関しては、適切な情報が生成される。この例においては、フィルタリングプロセスは、エッジ178がpとqとの間に存在する図14に示されるように、p及びq、ここでi=0、1、2、又は3、で表される4x4ブロック水平エッジ又は垂直エッジにおける一組の8つのサンプルに対して適用される。図14は、p及びqを指定し、ここでi=0乃至3である。
拡張層Iフレームの復号は、復号された基本層Iフレーム及び層間予測残存物を加えることを要求することができる。デブロッキングフィルタは、再構築された基本層Iフレームにおいて拡張層Iフレームを予測するために用いられる前に適用される。拡張層Iフレームをデブロッキングするために標準的なIフレームデブロッキング技術を用いることは、望ましくないことがある。代替として、以下の判定基準を用いて境界フィルタリング強度(bS)を導き出すことができる。変数bSは、以下のようにして導き出すことができる。bSの値は、以下の条件のうちのいずれかが真である場合は2に設定される。
a.サンプルpを含む4x4ルマブロックは、非ゼロ変換係数レベルを含み、イントラ4x4マクロブロック予測モードを用いてコーディングされたマクロブロック内に存在する。
b.サンプルqを含む4x4ルマブロックは、非ゼロ変換係数レベルを含み、イントラ4x4マクロブロック予測モードを用いてコーディングされたマクロブロック内に存在する。
上記の条件のいずれもが真でない場合は、bS値は1に設定される。
Pフレームに関して、スキップされたMBを除くインターMBの残存情報は、基本層及び拡張層の両方において符号化することができる。単一復号に起因して、2つの層からの係数が結合される。非ゼロ変換係数レベル数は、デブロッキングの際に境界強度を決定するために用いられるため、デブロッキング時に用いられる拡張層における各々の4x4ブロックの非ゼロ変換係数レベル数の計算方法を定義することが重要である。この数を不適切に増減することは、ピクチャを過度に平滑化するか又はブロックノイズを生じさせる可能性がある。変数bSは、以下のようにして導き出される。
1. ブロックエッジがマクロブロックエッジでもあり、サンプルp及びqが両方ともフレームマクロブロック内にあり、サンプルp又はqのいずれかがイントラマクロブロック予測モードを用いてコーディングされたマクロブロック内にある場合は、bSに関する値は4である。
2. その他の場合において、サンプルp又はqのいずれかがイントラマクロブロック予測モードを用いてコーディングされたマクロブロック内にある場合は、bSに関する値は3である。
3. その他の場合において、基本層において、サンプルpを含む4x4ルマブロック又はサンプルqを含む4x4ルマブロックが非ゼロ変換係数レベルを含む場合、又は、拡張層において、サンプルpを含む4x4ルマブロック又はサンプルqを含む4x4ルマブロックが非ゼロ変換係数レベルを含む場合は、bSに関する値は2である。
4. その他の場合においては、bSに関する1の値を出力し、又は代替として標準手法を用いる。
チャネルスイッチフレーム
チャネルスイッチフレームは、1つ以上の補足拡張情報(SEI)NALユニットにおいてカプセル化することができ、SEIチャネルスイッチフレーム(CSF)と呼ぶことができる。一例においては、SEI CFSは、22に等しいpayloadTypefieldを有する。SEIメッセージに関するRBSP構文は、H.264基準の7.3.2.3において規定されるとおりである。SEI RBSP及びSEI CSFメッセージ構文は、下表17及び18において示されるように提供することができる。
Figure 0004955755
Figure 0004955755
チャネルスイッチフレームスライスデータの構文は、H.264基準の条項7において規定される基本層Iスライス又はPスライスの構文と同一であることができる。チャネルスイッチフレーム(CSF)は、コーディングされたビットストリーム内のランダムアクセスポイントの可視性を可能にするために独立したトランスポートプロトコルパケット内においてカプセル化することができる。層がチャネルスイッチフレームを通信する上での制約はない。チャネルスイッチフレームは、基本層又は拡張層のいずれかに含めることができる。
チャネルスイッチフレーム復号に関して、チャネル変更要求が開始された場合は、要求されたチャネル内のチャネルスイッチフレームが復号される。チャネルスイッチフレームがSEI CSFメッセージ内に含まれている場合は、基本層Iスライスに関して用いられる復号プロセスが、SEI CSFを復号するために用いられる。SEI CSFと共存するPスライスは復号されず、チャネルスイッチフレームの前方において出力順序を有するBピクチャが捨てられる。将来のピクチャの復号プロセスの(出力順序という意味での)変更はない。
図15は、低複雑性映像データスケーラビリティをサポートするために様々な典型的構文要素を有するスケーラブルデジタル映像データを転送するためのデバイス180を示すブロック図である。デバイス180は、基本層映像データを第1のNALユニットに含めるためのモジュール182と、拡張層映像データを第2のNALユニットに含めるためのモジュール184と、第2のNALユニットにおける拡張層映像データの存在を示すための1つ以上の構文要素を第1及び第2のNALユニットのうちの少なくとも1つに含めるためのモジュール186と、を含む。一例においては、デバイス180は、図1及び3に示されるような放送サーバー12の一部を成すことができ、ハードウェア、ソフトウェア、ファームウェア、又はそのあらゆる適切な組合せによって実現することができる。例えば、モジュール182は、基本層映像データを符号化してNALユニット内に含める、図3の基本層符号器32及びNALユニットモジュール23の1つ以上の側面を含むことができる。さらに、一例として、モジュール184は、拡張層映像データを符号化してNALユニット内に含める、拡張層符号器34及びNALユニットモジュール23の1つ以上の側面を含むことができる。モジュール186は、第2のNALユニット内における拡張層映像データの存在を示すための1つ以上の構文要素を第1及び第2のNALユニットのうちの少なくとも1つに含める、NALユニットモジュール23の1つ以上の側面を含むことができる。一例においては、1つ以上の構文要素は、拡張層映像データが提供される第2のNALユニットにおいて提供される。
図16は、低複雑性映像スケーラビリティをサポートするためにスケーラブル映像ビットストリームを復号して様々な典型的構文要素を処理するデジタル映像復号装置188を示すブロック図である。デジタル映像復号装置188は、加入者デバイス、例えば図1又は図3の加入者デバイス16又は図1の映像復号器14、の中に常駐することができ、ハードウェア、ソフトウェア、ファームウェア、又はそのあらゆる適切な組合せによって実現することができる。装置188は、第1のNALユニットにおける基本層映像データを受信するためのモジュール190と、第2のNALユニットにおける拡張層映像データを受信するためのモジュール192と、第2のNALユニット内における拡張層映像データの存在を示すための第1及び第2のNALユニットのうちの少なくとも1つにおける1つ以上の構文要素を受信するためのモジュール194と、第2のNALユニット内の1つ以上の構文要素によって提供される表示に基づいて第2のNALユニット内のデジタル映像データを復号するためのモジュール196と、を含む。一側面においては、1つ以上の構文要素は、拡張層映像データが提供される第2のNALユニットにおいて提供される。一例として、モジュール190は、図3の加入者デバイス16の受信機/復調器26を含むことができる。この例においては、モジュール192は、受信機/復調器26も含むことができる。モジュール194は、幾つかの構成例においては、NALユニット内の構文要素を処理するNALユニットモジュール、例えば図3のNALユニットモジュール27、を含むことができる。モジュール196は、映像復号器、例えば図3の映像復号器28、を含むことができる。
本明細書において説明される技術は、ハードウェア内、ソフトウェア内、ファームウェア内、又はそのいずれかの組合せ内に実装することができる。ソフトウェア内に実装される場合は、前記技術は、少なくとも部分的には、コンピュータによって読み取り可能な媒体内の1つ以上の格納又は送信された命令又は符号によって実現することができる。コンピュータによって読み取り可能な媒体は、コンピュータ記憶媒体、通信媒体、又はその両方を含むことができ、さらに、1つの場所から他の場所へのコンピュータプログラムの転送を容易にするいずれかの媒体を含むことができる。記憶媒体は、コンピュータによってアクセス可能なあらゆる利用可能な媒体であることができる。
一例として、ただし限定することなしに、該コンピュータによって読み取り可能な媒体は、RAM、例えば、同期ダイナミックランダムアクセスメモリ(SDRAM)、読取専用メモリ(ROM)、非揮発性ランダムアクセスメモリ(NVRAM)、ROM、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、EEPROM、FLASHメモリ、CD−ROM又はその他の光学ディスク記憶装置、磁気ディスク記憶装置又はその他の磁気記憶デバイス、又は、希望されるプログラム符号を命令又はデータ構造の形態で搬送又は格納するために用いることができさらにコンピュータによってアクセス可能なその他のいずれかの媒体を具備することができる。
さらに、いずれの接続もコンピュータによって読み取り可能な媒体と適切に呼ばれる。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、より対線、デジタル加入者ライン(DSL)、又は無線技術、例えば、赤外線、無線、及びマイクロ波、を用いてウェブサイト、サーバー、又はその他の遠隔ソースから送信される場合は、該同軸ケーブル、光ファイバーケーブル、より対線、DSL、又は無線技術、例えば赤外線、無線、及びマイクロ波、は、媒体の定義の中に含まれる。本明細書において用いられるときのディスク(disk及びdisc)は、コンパクトディスク(CD)(disc)と、レーザー(登録商標)ディスク(disc)と、光ディスク(disc)と、デジタルバーサタイルディスク(DVD)(disc)と、フロッピー(登録商標)ディスク(disk)と、ブルーレイディスク(disc)と、を含み、ここで、diskは通常はデータを磁気的に複製し、discは、例えばレーザーを用いて光学的にデータを複製する。上記の組合せも、コンピュータによって読み取り可能な媒体の適用範囲に含めるべきである。
コンピュータプログラム製品のコンピュータによって読み取り可能な媒体と関連づけられた符号は、コンピュータによって、例えば1つ以上のプロセッサ、例えば、1つ以上のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、又はその他の同等の集積回路又はディスクリート論理回路によって実行することができる。幾つかの側面においては、本明細書において説明される機能は、符号化及び復号を目的として構成される専用ソフトウェアモジュール又はハードウェアモジュール内において提供すること、又は結合された映像符号器−復号器(CODEC)内に組み込むことができる。
様々な側面が説明されている。これらの及びその他の側面は、以下の請求項の適用範囲内にある。
映像スケーラビリティをサポートするデジタルマルチメディア放送システムを示したブロック図である。 スケーラブル映像ビットストリームの基本層及び拡張層内の映像フレームを示した図である。 図1のデジタルマルチメディア放送システムにおける放送サーバー及び加入者デバイスの典型的構成要素を示したブロック図である。 加入者デバイスに関する映像復号器の典型的構成要素を示したブロック図である。 スケーラブル映像ビットストリーム内の基本層映像データ及び拡張層映像データの復号を示した流れ図である。 単層復号に関する映像復号器における基本層係数及び拡張層係数の組合せを示したブロック図である。 映像復号器における基本層係数及び拡張層係数の組合せを示した流れ図である。 低複雑性映像のスケーラビリティをサポートするために様々な典型的構文要素を組み入れるためのスケーラブル映像ビットストリームの符号化を示した流れ図である。 低複雑性映像のスケーラビリティをサポートするために様々な典型的構文要素を処理するためのスケーラブル映像ビットストリームの復号を示した流れ図である。 ルマ空間予測モードに関するマクロブロック(MB)及びクォーターマクロブロックのパーティショニングを示した図である。 ルマ空間予測モードに関するマクロブロック(MB)及びクォーターマクロブロックのパーティショニングを示した図である。 基本層及び拡張層のマクロブロック(MB)を復号して単一MB層を生成することを示した流れ図である。 ルマ及びクロマデブロッキングフィルタプロセスを示した図である。 4x4ブロックの水平又は垂直境界を越えるサンプルを説明するための規約を示した図である。 スケーラブルデジタル映像データを転送するための装置を示したブロック図である。 スケーラブルデジタル映像データを復号するための装置を示したブロック図である。

Claims (58)

  1. スケーラブルデジタル映像データを転送するための方法であって、
    拡張層映像データをネットワーク抽象化層(NAL)ユニットに含めることと、
    前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めることと、を具備し、
    前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられ、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロック内の非ゼロ係数の数を示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する、方法。
  2. 前記NALユニット内の前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項1記載の方法。
  3. 前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項1記載の方法。
  4. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めることと、復号器が拡張層映像データを基本層映像データに付加するために画素領域又は変換領域のいずれを用いるべきかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含めること、とをさらに具備する請求項1に記載の方法。
  5. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めることと、前記拡張層映像データが前記基本層映像データに関する残存データを含むかどうかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含めること、とをさらに具備する請求項1に記載の方法。
  6. 前記NALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項1に記載の方法。
  7. 非ゼロ変換係数構文要素を含む拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項1に記載の方法。
  8. 前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項1に記載の方法。
  9. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めることをさらに具備し、前記拡張層映像データは、前記基本層映像データの信号対雑音比を拡張するために符号化される請求項1に記載の方法。
  10. 前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めることは、前記NALユニットが拡張層映像データを含むことを示すために前記NALユニット内のNALユニット型パラメータを選択された値に設定することを具備する請求項1に記載の方法。
  11. スケーラブルデジタル映像データを転送するための装置であって、
    符号化された拡張層映像データをNALユニットに含め、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるネットワーク抽象化層(NAL)ユニットモジュールを具備し、
    前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられ、
    前記NALユニットモジュールは、1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を示すための1つ以上の構文要素を前記NALユニットに含める、装置。
  12. 前記NALユニットモジュールは、前記NALユニット内における前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を示すための1つ以上の構文要素を前記NALユニットに含める請求項12に記載の装置。
  13. 前記NALユニットモジュールは、前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含める請求項11に記載の装置。
  14. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、基本層映像データを第2のNALユニットに含め、前記NALユニットモジュールは、復号器が拡張層映像データを基本層映像データに付加するために画素領域又は変換領域のいずれを用いるべきかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含めることをさらに具備する請求項11に記載の装置。
  15. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、基本層映像データを第2のNALユニットに含め、前記NALユニットモジュールは、前記拡張層映像データが基本層映像データに関する残存データを含むかどうかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含める請求項11に記載の装置。
  16. 前記NALユニットモジュールは、前記NALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めることをさらに具備する請求項11に記載の装置。
  17. 前記NALユニットモジュールは、非ゼロ変換係数構文要素を含む前記拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記NALユニットに含める請求項11に記載の装置。
  18. 前記NALユニットモジュールは、前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを示すための1つ以上の構文要素を前記NALユニットに含める請求項11に記載の装置。
  19. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、基本層映像データを第2のNALユニットに含め、前記符号器は、前記基本層映像データの信号対雑音比を拡張するために前記拡張層映像データを符号化する請求項11に記載の装置。
  20. 前記NALユニットモジュールは、前記NALユニットが拡張層映像データを含むことを示すために前記NALユニット内のNALユニット型パラメータを選択された値に設定する請求項11に記載の装置。
  21. スケーラブルデジタル映像データを転送するためのプロセッサであって、拡張層映像データをネットワーク抽象化層(NAL)ユニットに含め、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるように構成され、
    前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられ、
    前記プロセッサはさらに、1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロック内の非ゼロ係数の数を示すための1つ以上の構文要素を前記NALユニットに含めるように構成される、プロセッサ。
  22. スケーラブルデジタル映像データを転送するための装置であって、
    拡張層映像データをネットワーク抽象化(NAL)ユニットに含めるための手段と、
    前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるための手段と、を具備し、
    前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられ、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を示すための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する装置。
  23. 前記NALユニット内における前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を示すための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する請求項22に記載の装置。
  24. 前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する請求項22に記載の装置。
  25. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めるための手段と、復号器が拡張層映像データを基本層映像データに付加するために画素領域付加又は変換領域付加のいずれを用いるべきかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含めるための手段と、をさらに具備する請求項22に記載の装置。
  26. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めるための手段と、前記拡張層映像データが前記基本層映像データに関する残存データを含むかどうかを示すための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つに含めるための手段と、をさらに具備する請求項22に記載の装置。
  27. 前記NALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する請求項22に記載の装置。
  28. 非ゼロ変換係数構文要素を含む前記拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する請求項22に記載の装置。
  29. 前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを示すための1つ以上の構文要素を前記NALユニットに含めるための手段をさらに具備する請求項22に記載の装置。
  30. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めるための手段をさらに具備し、前記拡張層映像データは、前記基本層映像データの信号対雑音比を拡張する請求項22に記載の装置。
  31. 前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含めるための手段は、前記NALユニットが拡張層映像データを含むことを示すために前記NALユニット内のNALユニット型パラメータを選択された値に設定するための手段を具備する請求項22に記載の装置。
  32. スケーラブルデジタル映像データを転送するためのコンピュータプログラム製品であって、
    拡張層映像データをネットワーク抽象化層(NAL)ユニットに含め、前記NALユニットが拡張層映像データを含むかどうかを示すための1つ以上の構文要素を前記NALユニットに含め、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられ、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロック内の非ゼロ係数の数を示すための1つ以上の構文要素を前記NALユニットに含める、ことをコンピュータに行わせるための符号を具備する、コンピュータによって読み取り可能な媒体を具備する、コンピュータプログラム製品。
  33. スケーラブルデジタル映像データを処理するための方法であって、
    ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信することと、
    前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信することであって、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられることと、
    前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号することと、を具備し、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を決定するための1つ以上の構文要素を前記NALユニットにおいて検出することをさらに具備する、方法。
  34. 前記NALユニット内における前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を決定するための1つ以上の構文要素を前記NALユニット内において検出することをさらに具備する請求項33に記載の方法。
  35. 前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを決定するための1つ以上の構文要素を前記NALユニット内において検出することをさらに具備する請求項33に記載の方法。
  36. 前記NALユニットは第1のNALユニットであり、
    第2のNALユニットにおける基本層映像データを受信することと、
    前記拡張層映像データが前記基本層映像データに関する残存データを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出することと、
    前記拡張層映像データが前記基本層映像データに関する残存データを含まないことが決定された場合は前記拡張層映像データの復号をスキップすること、とをさらに具備する請求項33に記載の方法。
  37. 前記NALユニットは第1のNALユニットであり、
    第2のNALユニットにおける基本層映像データを受信することと、
    前記第1のNALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出することと、
    非ゼロ変換係数構文要素を含む前記拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記第1及び第2のNALユニットのちの少なくとも1つにおいて検出することと、
    前記デジタル映像データを復号するために拡張層映像データを基本層映像データに付加するために画素領域付加又は変換領域付加のいずれを用いるべきかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出すること、とをさらに具備する請求項33に記載の方法。
  38. 前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを決定するための1つ以上の構文要素を前記NALユニットにおいて検出することをさらに具備する請求項33に記載の方法。
  39. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めることをさらに具備し、前記拡張層映像データは、前記基本層映像データの信号対雑音比を拡張するために符号化される請求項33に記載の方法。
  40. 前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信することは、前記NALユニットが拡張層映像データを含むことを示すために選択値に設定された前記NALユニットにおけるNALユニット型パラメータを受信することを具備する請求項33に記載の方法。
  41. スケーラブルデジタル映像データを処理するための装置であって、
    NALユニットにおける拡張層映像データを受信し、前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信するネットワーク抽象化層(NAL)ユニットモジュールであって、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられるネットワーク抽象化層(NAL)ユニットモジュールと、
    前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号する復号器と、を具備し、
    前記NALユニットモジュールは、1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロック内の非ゼロ係数の数を決定するための1つ以上の構文要素を前記NALユニットにおいて検出する、装置。
  42. 前記NALユニットモジュールは、前記NALユニット内における前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を決定するための1つ以上の構文要素を前記NALユニットにおいて検出する請求項41に記載の装置。
  43. 前記NALユニットモジュールは、前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを決定するための1つ以上の構文要素を前記NALユニットにおいて検出する請求項41に記載の装置。
  44. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、第2のNALユニットにおける基本層映像データを受信し、前記NALユニットモジュールは、前記拡張層映像データが前記基本層映像データに関する残存データを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出し、前記復号器は、前記拡張層映像データが前記基本層映像データに関する残存データを含まないことが決定された場合は前記拡張層映像データの復号をスキップする請求項41に記載の装置。
  45. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、
    第2のNALユニットにおける基本層映像データを受信し、
    前記第1のNALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出し、
    非ゼロ変換係数構文要素を含む前記拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出し、
    前記デジタル映像データを復号するために拡張層映像データを基本層映像データに付加するために画素領域付加又は変換領域付加のいずれを用いるべきかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出する請求項41に記載の装置。
  46. 前記NAL処理モジュールは、前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを決定するための1つ以上の構文要素を前記NALユニットにおいて検出する請求項41に記載の装置。
  47. 前記NALユニットは第1のNALユニットであり、前記NALユニットモジュールは、基本層映像データを第2のNALユニットに含め、前記拡張層映像データは、前記基本層映像データの信号対雑音比を拡張するために符号化される請求項41に記載の装置。
  48. 前記NALユニットモジュールは、前記NALユニットが拡張層映像データを含むかどうかを示すために選択値に設定された前記NALユニットにおけるNALユニット型パラメータを受信する請求項41に記載の装置。
  49. スケーラブルデジタル映像データを処理するためのプロセッサであって、
    ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信し、
    前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信し、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられるものであり、
    前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号するように構成され
    さらに、前記プロセッサは、1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を決定するための1つ以上の構文要素を前記NALユニットにおいて検出するように構成される、プロセッサ。
  50. スケーラブルデジタル映像データを処理するための装置であって、
    ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信するための手段と、
    前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信するための手段であって、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられる手段と、
    前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号するための手段と、を具備し、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を決定するための1つ以上の構文要素を前記NALユニットにおいて検出するための手段をさらに具備する、装置。
  51. 前記NALユニット内における前記拡張層データの1つの型のローバイトシーケンスペイロード(RBSP)データ構造を決定するための1つ以上の構文要素を前記NALユニットにおいて検出するための手段をさらに具備する請求項50記載の装置。
  52. 前記NALユニット内の前記拡張層映像データがイントラコーディングされた映像データを含むかどうかを決定するための1つ以上の構文要素を前記NALユニットにおいて検出するための手段をさらに具備する請求項50に記載の装置。
  53. 前記NALユニットは第1のNALユニットであり、
    第2のNALユニットにおける基本層映像データを受信するための手段と、
    前記拡張層映像データが前記基本層映像データに関する残存データを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出するための手段と、
    前記拡張層映像データが前記基本層映像データに関する残存データを含まないことが決定された場合は前記拡張層映像データの復号をスキップするための手段と、をさらに具備する請求項50に記載の装置。
  54. 前記NALユニットは第1のNALユニットであり、
    第2のNALユニットにおける基本層映像データを受信するための手段と、
    前記第1のNALユニットがシーケンスパラメータ、ピクチャパラメータ組、参照ピクチャの1つのスライス又は参照ピクチャのスライスデータパーティションを含むかどうかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出するための手段と、
    非ゼロ変換係数構文要素を含む拡張層映像データ内のブロックを識別するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出するための手段と、
    前記デジタル映像データを復号するために前記拡張層映像データを前記基本層映像データに付加するために画素領域付加又は変換領域付加のいずれを用いるべきかを決定するための1つ以上の構文要素を前記第1及び第2のNALユニットのうちの少なくとも1つにおいて検出するための手段と、をさらに具備する請求項50に記載の装置。
  55. 前記拡張層映像データ内のインターコーディングされたブロックに関するコーディングされたブロックパターンを決定するための1つ以上の構文要素を前記NALユニットにおいて検出するための手段をさらに具備する請求項50に記載の装置。
  56. 前記NALユニットは第1のNALユニットであり、基本層映像データを第2のNALユニットに含めるための手段をさらに具備し、前記拡張層映像データは、前記基本層映像データの信号対雑音比を拡張するために符号化される請求項50に記載の装置。
  57. 前記各々のNALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信するための手段は、前記NALユニットが拡張層映像データを含むことを示すために選択値に設定された前記NALユニットにおけるNALユニット型パラメータを受信するための手段を具備する請求項50に記載の装置。
  58. スケーラブルデジタル映像データを処理するためのコンピュータプログラム製品であって、
    ネットワーク抽象化層(NAL)ユニットにおける拡張層映像データを受信し、
    前記NALユニットが拡張層映像データを含むかどうかを示すための前記NALユニットにおける1つ以上の構文要素を受信し、前記構文要素は複雑度が低い映像スケーラビリティをサポートするビットストリームフォーマット及び符号化プロセスを定義するために用いられるものであり、
    前記表示に基づいて前記NALユニット内の前記デジタル映像データを復号し、
    1よりも大きい規模を有する前記拡張層映像データ内のイントラコーディングされたブロックにおける非ゼロ係数の数を決定するための1つ以上の構文要素を前記NALユニットにおいて検出する、ことをコンピュータに行わせるための符号を具備する、コンピュータによって読み取り可能な媒体を具備する、コンピュータプログラム製品。
JP2009503291A 2006-03-29 2007-03-29 スケーラビリティを有する映像処理 Expired - Fee Related JP4955755B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US78731006P 2006-03-29 2006-03-29
US60/787,310 2006-03-29
US78932006P 2006-04-04 2006-04-04
US60/789,320 2006-04-04
US83344506P 2006-07-25 2006-07-25
US60/833,445 2006-07-25
US11/562,360 US20070230564A1 (en) 2006-03-29 2006-11-21 Video processing with scalability
US11/562,360 2006-11-21
PCT/US2007/065550 WO2007115129A1 (en) 2006-03-29 2007-03-29 Video processing with scalability

Publications (2)

Publication Number Publication Date
JP2009531999A JP2009531999A (ja) 2009-09-03
JP4955755B2 true JP4955755B2 (ja) 2012-06-20

Family

ID=38308669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009503291A Expired - Fee Related JP4955755B2 (ja) 2006-03-29 2007-03-29 スケーラビリティを有する映像処理

Country Status (10)

Country Link
US (1) US20070230564A1 (ja)
EP (1) EP1999963A1 (ja)
JP (1) JP4955755B2 (ja)
KR (1) KR100991409B1 (ja)
CN (1) CN101411192B (ja)
AR (1) AR061411A1 (ja)
BR (1) BRPI0709705A2 (ja)
CA (1) CA2644605C (ja)
TW (1) TWI368442B (ja)
WO (1) WO2007115129A1 (ja)

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330060B1 (en) 2003-04-15 2016-05-03 Nvidia Corporation Method and device for encoding and decoding video image data
US8660182B2 (en) 2003-06-09 2014-02-25 Nvidia Corporation MPEG motion estimation based on dual start points
WO2005109899A1 (en) * 2004-05-04 2005-11-17 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion
WO2006007527A2 (en) * 2004-07-01 2006-01-19 Qualcomm Incorporated Method and apparatus for using frame rate up conversion techniques in scalable video coding
RU2377737C2 (ru) * 2004-07-20 2009-12-27 Квэлкомм Инкорпорейтед Способ и устройство для преобразования с повышением частоты кадров с помощью кодера (ea-fruc) для сжатия видеоизображения
US8553776B2 (en) * 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
JP4680608B2 (ja) * 2005-01-17 2011-05-11 パナソニック株式会社 画像復号装置及び方法
US8731071B1 (en) 2005-12-15 2014-05-20 Nvidia Corporation System for performing finite input response (FIR) filtering in motion estimation
US8724702B1 (en) 2006-03-29 2014-05-13 Nvidia Corporation Methods and systems for motion estimation used in video coding
US8750387B2 (en) * 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
KR100781524B1 (ko) * 2006-04-04 2007-12-03 삼성전자주식회사 확장 매크로블록 스킵 모드를 이용한 인코딩/디코딩 방법및 장치
US8634463B2 (en) * 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
US8130822B2 (en) * 2006-07-10 2012-03-06 Sharp Laboratories Of America, Inc. Methods and systems for conditional transform-domain residual accumulation
US8660380B2 (en) 2006-08-25 2014-02-25 Nvidia Corporation Method and system for performing two-dimensional transform on data value array with reduced power consumption
CN102158697B (zh) 2006-09-07 2013-10-09 Lg电子株式会社 用于解码/编码视频信号的方法及装置
KR100842544B1 (ko) * 2006-09-11 2008-07-01 삼성전자주식회사 스케일러블 영상 코딩을 이용한 전송 방법 및 이를 이용한이동통신 시스템
US8054885B2 (en) 2006-11-09 2011-11-08 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
KR100896289B1 (ko) 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
US8467449B2 (en) 2007-01-08 2013-06-18 Qualcomm Incorporated CAVLC enhancements for SVC CGS enhancement layer coding
EP1944978A1 (en) * 2007-01-12 2008-07-16 Koninklijke Philips Electronics N.V. Method and system for encoding a video signal. encoded video signal, method and system for decoding a video signal
WO2008087602A1 (en) 2007-01-18 2008-07-24 Nokia Corporation Carriage of sei messages in rtp payload format
KR101341111B1 (ko) * 2007-01-18 2013-12-13 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 화질 스케일러블 비디오 데이터 스트림
US8767834B2 (en) * 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
CN103281563B (zh) * 2007-04-18 2016-09-07 汤姆森许可贸易公司 解码方法
US20140072058A1 (en) 2010-03-05 2014-03-13 Thomson Licensing Coding systems
CN101682466A (zh) * 2007-05-16 2010-03-24 汤姆森特许公司 编码和解码信号的装置和方法
US8756482B2 (en) * 2007-05-25 2014-06-17 Nvidia Corporation Efficient encoding/decoding of a sequence of data frames
US9118927B2 (en) 2007-06-13 2015-08-25 Nvidia Corporation Sub-pixel interpolation and its application in motion compensated encoding of a video signal
KR20100030648A (ko) * 2007-06-26 2010-03-18 노키아 코포레이션 시간 레이어 스위칭 포인트들을 표시하는 시스템 및 방법
US8144784B2 (en) 2007-07-09 2012-03-27 Cisco Technology, Inc. Position coding for context-based adaptive variable length coding
US8873625B2 (en) 2007-07-18 2014-10-28 Nvidia Corporation Enhanced compression in representing non-frame-edge blocks of image frames
MX2010004149A (es) 2007-10-15 2010-05-17 Thomson Licensing Preambulo para un sistema de television digital.
EP2201777A2 (en) * 2007-10-15 2010-06-30 Thomson Licensing Apparatus and method for encoding and decoding signals
CA2650151C (en) * 2008-01-17 2013-04-02 Lg Electronics Inc. An iptv receiving system and data processing method
US8700792B2 (en) * 2008-01-31 2014-04-15 General Instrument Corporation Method and apparatus for expediting delivery of programming content over a broadband network
US8369415B2 (en) * 2008-03-06 2013-02-05 General Instrument Corporation Method and apparatus for decoding an enhanced video stream
US9167246B2 (en) * 2008-03-06 2015-10-20 Arris Technology, Inc. Method and apparatus for decoding an enhanced video stream
US8752092B2 (en) 2008-06-27 2014-06-10 General Instrument Corporation Method and apparatus for providing low resolution images in a broadcast system
IT1394245B1 (it) * 2008-09-15 2012-06-01 St Microelectronics Pvt Ltd Convertitore per video da tipo non-scalabile a tipo scalabile
JP5369599B2 (ja) * 2008-10-20 2013-12-18 富士通株式会社 映像符号化装置、映像符号化方法
US8666181B2 (en) 2008-12-10 2014-03-04 Nvidia Corporation Adaptive multiple engine image motion detection system and method
US8774225B2 (en) * 2009-02-04 2014-07-08 Nokia Corporation Mapping service components in a broadcast environment
EP2399395A4 (en) * 2009-02-17 2016-11-30 Ericsson Telefon Ab L M SYSTEMS AND METHOD FOR QUICK CHANNEL SWITCHING
US20100262708A1 (en) * 2009-04-08 2010-10-14 Nokia Corporation Method and apparatus for delivery of scalable media data
US8654838B2 (en) * 2009-08-31 2014-02-18 Nxp B.V. System and method for video and graphic compression using multiple different compression techniques and compression error feedback
US8345749B2 (en) * 2009-08-31 2013-01-01 IAD Gesellschaft für Informatik, Automatisierung und Datenverarbeitung mbH Method and system for transcoding regions of interests in video surveillance
CN102656885B (zh) * 2009-12-14 2016-01-27 汤姆森特许公司 合并编码比特流
US9357244B2 (en) 2010-03-11 2016-05-31 Arris Enterprises, Inc. Method and system for inhibiting audio-video synchronization delay
WO2011121715A1 (ja) * 2010-03-30 2011-10-06 株式会社 東芝 画像復号化方法
US9225961B2 (en) 2010-05-13 2015-12-29 Qualcomm Incorporated Frame packing for asymmetric stereo video
DK3177017T3 (da) * 2010-06-04 2020-03-02 Sony Corp Kodning af en qp og en delta qp for billedblokke, der er større end en minimumsstørrelse
US9049497B2 (en) 2010-06-29 2015-06-02 Qualcomm Incorporated Signaling random access points for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
EP2596633B1 (en) * 2010-07-20 2016-11-23 Nokia Technologies Oy A media streaming apparatus
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
TWI497983B (zh) * 2010-09-29 2015-08-21 Accton Technology Corp Internet video playback system and its method
JP5875236B2 (ja) 2011-03-09 2016-03-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2012124300A1 (ja) * 2011-03-11 2012-09-20 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置および動画像復号装置
WO2012124347A1 (en) * 2011-03-17 2012-09-20 Panasonic Corporation Methods and apparatuses for encoding and decoding video using reserved nal unit type values of avc standard
JP6039163B2 (ja) * 2011-04-15 2016-12-07 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP5874725B2 (ja) 2011-05-20 2016-03-02 ソニー株式会社 画像処理装置及び画像処理方法
CN103636220B (zh) 2011-06-28 2017-10-13 寰发股份有限公司 编码/解码帧内预测模式的方法及装置
US20130083856A1 (en) * 2011-06-29 2013-04-04 Qualcomm Incorporated Contexts for coefficient level coding in video compression
WO2013002709A1 (en) * 2011-06-30 2013-01-03 Telefonaktiebolaget L M Ericsson (Publ) Indicating bit stream subsets
US10237565B2 (en) 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
US9338458B2 (en) * 2011-08-24 2016-05-10 Mediatek Inc. Video decoding apparatus and method for selectively bypassing processing of residual values and/or buffering of processed residual values
US9591318B2 (en) * 2011-09-16 2017-03-07 Microsoft Technology Licensing, Llc Multi-layer encoding and decoding
CN108989806B (zh) 2011-09-20 2021-07-27 Lg 电子株式会社 用于编码/解码图像信息的方法和装置
US9143802B2 (en) * 2011-10-31 2015-09-22 Qualcomm Incorporated Fragmented parameter set for video coding
US9756353B2 (en) 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
AR092786A1 (es) 2012-01-09 2015-05-06 Jang Min Metodos para eliminar artefactos de bloque
US11089343B2 (en) 2012-01-11 2021-08-10 Microsoft Technology Licensing, Llc Capability advertisement, configuration and control for video coding and decoding
JP5926856B2 (ja) * 2012-04-06 2016-05-25 ヴィディオ・インコーポレーテッド 階層化されたビデオ符号化のためのレベル信号伝達
CA2870067C (en) * 2012-04-16 2017-01-17 Nokia Corporation Video coding and decoding using multiple parameter sets which are identified in video unit headers
US20130272371A1 (en) * 2012-04-16 2013-10-17 Sony Corporation Extension of hevc nal unit syntax structure
US20130287109A1 (en) * 2012-04-29 2013-10-31 Qualcomm Incorporated Inter-layer prediction through texture segmentation for video coding
US9591302B2 (en) 2012-07-02 2017-03-07 Microsoft Technology Licensing, Llc Use of chroma quantization parameter offsets in deblocking
US9414054B2 (en) 2012-07-02 2016-08-09 Microsoft Technology Licensing, Llc Control and use of chroma quantization parameter values
RU2612577C2 (ru) * 2012-07-02 2017-03-09 Нокиа Текнолоджиз Ой Способ и устройство для кодирования видеоинформации
US9648322B2 (en) 2012-07-10 2017-05-09 Qualcomm Incorporated Coding random access pictures for video coding
GB2496015B (en) * 2012-09-05 2013-09-11 Imagination Tech Ltd Pixel buffering
US20140079135A1 (en) * 2012-09-14 2014-03-20 Qualcomm Incoporated Performing quantization to facilitate deblocking filtering
US9554146B2 (en) 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US10021394B2 (en) 2012-09-24 2018-07-10 Qualcomm Incorporated Hypothetical reference decoder parameters in video coding
US9479782B2 (en) * 2012-09-28 2016-10-25 Qualcomm Incorporated Supplemental enhancement information message coding
KR101812615B1 (ko) 2012-09-28 2017-12-27 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
WO2014050731A1 (ja) * 2012-09-28 2014-04-03 ソニー株式会社 画像処理装置および方法
US9332257B2 (en) * 2012-10-01 2016-05-03 Qualcomm Incorporated Coded black flag coding for 4:2:2 sample format in video coding
US9781413B2 (en) * 2012-10-02 2017-10-03 Qualcomm Incorporated Signaling of layer identifiers for operation points
US9154785B2 (en) * 2012-10-08 2015-10-06 Qualcomm Incorporated Sub-bitstream applicability to nested SEI messages in video coding
US9462268B2 (en) * 2012-10-09 2016-10-04 Cisco Technology, Inc. Output management of prior decoded pictures at picture format transitions in bitstreams
US9756613B2 (en) 2012-12-06 2017-09-05 Qualcomm Incorporated Transmission and reception timing for device-to-device communication system embedded in a cellular system
US9621906B2 (en) 2012-12-10 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
WO2014092445A2 (ko) * 2012-12-11 2014-06-19 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
CN109068136B (zh) * 2012-12-18 2022-07-19 索尼公司 图像处理装置和图像处理方法、计算机可读存储介质
US10021388B2 (en) 2012-12-26 2018-07-10 Electronics And Telecommunications Research Institute Video encoding and decoding method and apparatus using the same
GB201300410D0 (en) * 2013-01-10 2013-02-27 Barco Nv Enhanced video codec
US9307256B2 (en) * 2013-01-21 2016-04-05 The Regents Of The University Of California Method and apparatus for spatially scalable video compression and transmission
KR20140106121A (ko) * 2013-02-26 2014-09-03 한국전자통신연구원 계층적 위성 방송을 제공하는 다계층 위성방송 시스템
MX352631B (es) 2013-04-08 2017-12-01 Arris Entpr Llc Señalización para adición o remoción de capas en codificación de video.
JP6361866B2 (ja) * 2013-05-09 2018-07-25 サン パテント トラスト 画像処理方法および画像処理装置
EP2997732A1 (en) * 2013-05-15 2016-03-23 VID SCALE, Inc. Single loop decoding based inter layer prediction
WO2015009693A1 (en) 2013-07-15 2015-01-22 Sony Corporation Layer based hrd buffer management for scalable hevc
WO2015100522A1 (en) * 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
JP2015136060A (ja) * 2014-01-17 2015-07-27 ソニー株式会社 通信装置、通信データ生成方法、および通信データ処理方法
US9584334B2 (en) * 2014-01-28 2017-02-28 Futurewei Technologies, Inc. System and method for video multicasting
JP6233121B2 (ja) * 2014-03-17 2017-11-22 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US9712837B2 (en) * 2014-03-17 2017-07-18 Qualcomm Incorporated Level definitions for multi-layer video codecs
US9794626B2 (en) * 2014-05-01 2017-10-17 Qualcomm Incorporated Partitioning schemes in multi-layer video coding
US10057582B2 (en) 2014-05-21 2018-08-21 Arris Enterprises Llc Individual buffer management in transport of scalable video
MX364550B (es) 2014-05-21 2019-04-30 Arris Entpr Llc Señalización y selección para la mejora de capas en vídeo escalable.
US9838697B2 (en) * 2014-06-25 2017-12-05 Qualcomm Incorporated Multi-layer video coding
KR20160014399A (ko) 2014-07-29 2016-02-11 쿠도커뮤니케이션 주식회사 영상 데이터 제공 방법, 영상 데이터 제공 장치, 영상 데이터 수신 방법, 영상 데이터 수신 장치 및 이의 시스템
GB2533775B (en) 2014-12-23 2019-01-16 Imagination Tech Ltd In-band quality data
USD776641S1 (en) 2015-03-16 2017-01-17 Samsung Electronics Co., Ltd. Earphone
CN107333133B (zh) * 2016-04-28 2019-07-16 浙江大华技术股份有限公司 一种码流接收设备的码流编码的方法及装置
US10944976B2 (en) * 2016-07-22 2021-03-09 Sharp Kabushiki Kaisha Systems and methods for coding video data using adaptive component scaling
US20180213202A1 (en) * 2017-01-23 2018-07-26 Jaunt Inc. Generating a Video Stream from a 360-Degree Video
EP3454556A1 (en) 2017-09-08 2019-03-13 Thomson Licensing Method and apparatus for video encoding and decoding using pattern-based block filtering
CN110650343B (zh) * 2018-06-27 2024-06-07 中兴通讯股份有限公司 图像的编码、解码方法及装置、电子设备及系统
US11653007B2 (en) 2018-07-15 2023-05-16 V-Nova International Limited Low complexity enhancement video coding
KR102581186B1 (ko) * 2018-10-12 2023-09-21 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US10972755B2 (en) * 2018-12-03 2021-04-06 Mediatek Singapore Pte. Ltd. Method and system of NAL unit header structure for signaling new elements
EP3935860A1 (en) * 2019-03-08 2022-01-12 Canon Kabushiki Kaisha An adaptive loop filter
GB2617304B (en) * 2019-03-20 2024-04-03 V Nova Int Ltd Residual filtering in signal enhancement coding
WO2020224581A1 (en) * 2019-05-05 2020-11-12 Beijing Bytedance Network Technology Co., Ltd. Chroma deblocking harmonization for video coding
US11245899B2 (en) 2019-09-22 2022-02-08 Tencent America LLC Method and system for single loop multilayer coding with subpicture partitioning
CN117956189A (zh) * 2019-09-24 2024-04-30 华为技术有限公司 支持空间可适性和snr可适性的ols
KR102557904B1 (ko) * 2021-11-12 2023-07-21 주식회사 핀텔 동적프레임이 존재하는 구간의 검출방법
GB2620996B (en) * 2022-10-14 2024-07-31 V Nova Int Ltd Processing a multi-layer video stream

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3670096A (en) * 1970-06-15 1972-06-13 Bell Telephone Labor Inc Redundancy reduction video encoding with cropping of picture edges
GB2247587B (en) * 1990-08-31 1994-07-20 Sony Broadcast & Communication Movie film and video production
US5784107A (en) * 1991-06-17 1998-07-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for picture coding and method and apparatus for picture decoding
KR0151410B1 (ko) * 1992-07-03 1998-10-15 강진구 영상신호의 운동벡터 검출방법
CN1052840C (zh) * 1993-06-01 2000-05-24 汤姆森多媒体公司 用于对数字视频信号进行插值的方法及装置
JP2900983B2 (ja) * 1994-12-20 1999-06-02 日本ビクター株式会社 動画像帯域制限方法
FR2742900B1 (fr) * 1995-12-22 1998-02-13 Thomson Multimedia Sa Procede d'interpolation de trames progressives
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
WO1997046020A2 (en) * 1996-05-24 1997-12-04 Philips Electronics N.V. Motion vector processing
DE69712537T2 (de) * 1996-11-07 2002-08-29 Matsushita Electric Industrial Co., Ltd. Verfahren zur Erzeugung eines Vektorquantisierungs-Codebuchs
US6043846A (en) * 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
US6008865A (en) * 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
FR2764156B1 (fr) * 1997-05-27 1999-11-05 Thomson Broadcast Systems Dispositif de pretraitement pour codage mpeg ii
US6560371B1 (en) * 1997-12-31 2003-05-06 Sarnoff Corporation Apparatus and method for employing M-ary pyramids with N-scale tiling
US6192079B1 (en) * 1998-05-07 2001-02-20 Intel Corporation Method and apparatus for increasing video frame rate
JP4004653B2 (ja) * 1998-08-03 2007-11-07 カスタム・テクノロジー株式会社 動きベクトル検出方法および装置、記録媒体
US6229570B1 (en) * 1998-09-25 2001-05-08 Lucent Technologies Inc. Motion compensation image interpolation—frame rate conversion for HDTV
US6597738B1 (en) * 1999-02-01 2003-07-22 Hyundai Curitel, Inc. Motion descriptor generating apparatus by using accumulated motion histogram and a method therefor
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
US7003038B2 (en) * 1999-09-27 2006-02-21 Mitsubishi Electric Research Labs., Inc. Activity descriptor for video sequences
US6704357B1 (en) * 1999-09-28 2004-03-09 3Com Corporation Method and apparatus for reconstruction of low frame rate video conferencing data
CN1182726C (zh) * 1999-10-29 2004-12-29 皇家菲利浦电子有限公司 视频编码方法
AU2000257047A1 (en) * 2000-06-28 2002-01-08 Mitsubishi Denki Kabushiki Kaisha Image encoder and image encoding method
US7042941B1 (en) * 2001-07-17 2006-05-09 Vixs, Inc. Method and apparatus for controlling amount of quantization processing in an encoder
KR100850705B1 (ko) * 2002-03-09 2008-08-06 삼성전자주식회사 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치
KR100850706B1 (ko) * 2002-05-22 2008-08-06 삼성전자주식회사 적응적 동영상 부호화 및 복호화 방법과 그 장치
US7386049B2 (en) * 2002-05-29 2008-06-10 Innovation Management Sciences, Llc Predictive interpolation of a video signal
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
KR100517504B1 (ko) * 2003-07-01 2005-09-28 삼성전자주식회사 B-픽처의 움직임 보상 모드 결정방법 및 장치
FR2857205B1 (fr) * 2003-07-04 2005-09-23 Nextream France Dispositif et procede de codage de donnees video
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
WO2005109899A1 (en) * 2004-05-04 2005-11-17 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion
WO2006007527A2 (en) * 2004-07-01 2006-01-19 Qualcomm Incorporated Method and apparatus for using frame rate up conversion techniques in scalable video coding
RU2377737C2 (ru) * 2004-07-20 2009-12-27 Квэлкомм Инкорпорейтед Способ и устройство для преобразования с повышением частоты кадров с помощью кодера (ea-fruc) для сжатия видеоизображения
US8553776B2 (en) * 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
US8649436B2 (en) * 2004-08-20 2014-02-11 Sigma Designs Inc. Methods for efficient implementation of skip/direct modes in digital video compression algorithms
KR100703744B1 (ko) * 2005-01-19 2007-04-05 삼성전자주식회사 디블록을 제어하는 fgs 기반의 비디오 인코딩 및디코딩 방법 및 장치
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
WO2007080491A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation System and apparatus for low-complexity fine granularity scalable video coding with motion compensation
US8634463B2 (en) * 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
US8750387B2 (en) * 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
US8045783B2 (en) * 2006-11-09 2011-10-25 Drvision Technologies Llc Method for moving cell detection from temporal image sequence model estimation

Also Published As

Publication number Publication date
AR061411A1 (es) 2008-08-27
TWI368442B (en) 2012-07-11
KR100991409B1 (ko) 2010-11-02
WO2007115129A1 (en) 2007-10-11
CA2644605A1 (en) 2007-10-11
CN101411192A (zh) 2009-04-15
US20070230564A1 (en) 2007-10-04
CA2644605C (en) 2013-07-16
JP2009531999A (ja) 2009-09-03
BRPI0709705A2 (pt) 2011-07-26
EP1999963A1 (en) 2008-12-10
KR20090006091A (ko) 2009-01-14
CN101411192B (zh) 2013-06-26

Similar Documents

Publication Publication Date Title
JP4955755B2 (ja) スケーラビリティを有する映像処理
US11632572B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
JP5925416B2 (ja) ビデオブロックヘッダ情報の適応可能なコーディング
US9277228B2 (en) Adaptation parameter sets for video coding
US8873621B2 (en) Method, medium, and apparatus for encoding and/or decoding video by generating scalable bitstream
EP1656793B1 (en) Slice layer in video codec
EP2868083B1 (en) Random access and signaling of long-term reference pictures in video coding
KR102474636B1 (ko) 크로스-채널 잔차 인코딩 및 디코딩을 위한 양자화 파라미터 도출
US9510016B2 (en) Methods and apparatus for video coding and decoding with reduced bit-depth update mode and reduced chroma sampling update mode
RU2406254C2 (ru) Видеообработка с масштабируемостью
US20110194613A1 (en) Video coding with large macroblocks
KR102515017B1 (ko) 영상 부호화/복호화 방법 및 장치
US20150365686A1 (en) Image encoding/decoding method and device
US20240364907A1 (en) Signaling general constraints information for video coding
US20240364910A1 (en) Signaling general constraints information for video coding
AU2022431236A1 (en) Signaling general constraints information for video coding
Dhingra Project proposal topic: Advanced Video Coding
Dong et al. Present and future video coding standards
Ohm et al. MPEG video compression advances
Samitha et al. Study of H. 264/Avc Algorithm and It’s Implementation In Matlab
Nemethova Principles of video coding
Notebaert Bit rate transcoding of H. 264/AVC based on rate shaping and requantization

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110719

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees