JP6322713B2 - スクリーンコンテンツコーディングのための2次元パレットコーディング - Google Patents

スクリーンコンテンツコーディングのための2次元パレットコーディング Download PDF

Info

Publication number
JP6322713B2
JP6322713B2 JP2016544550A JP2016544550A JP6322713B2 JP 6322713 B2 JP6322713 B2 JP 6322713B2 JP 2016544550 A JP2016544550 A JP 2016544550A JP 2016544550 A JP2016544550 A JP 2016544550A JP 6322713 B2 JP6322713 B2 JP 6322713B2
Authority
JP
Japan
Prior art keywords
palette
color
predictor
coding unit
palette table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016544550A
Other languages
English (en)
Other versions
JP2017511990A (ja
Inventor
チャミン ツァイ
チャミン ツァイ
シアオユー シウ
シアオユー シウ
イエ イエン
イエ イエン
ユーウェン ホー
ユーウェン ホー
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2017511990A publication Critical patent/JP2017511990A/ja
Application granted granted Critical
Publication of JP6322713B2 publication Critical patent/JP6322713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本出願は、スクリーンコンテンツコーディングのための2次元パレットコーディングに関する。
関連出願の相互参照
本出願は、2014年1月2日に出願された米国仮特許出願第61/923,132号、2014年3月14日に出願された米国仮特許出願第61/953,704号、2014年4月3日に出願された米国仮特許出願第61/974,961号、2014年5月22日に出願された米国仮特許出願第62/002,144号、および、2014年6月24日に出願された米国仮特許出願第62/016,562号の利益を主張するものであり、それらの米国仮特許出願の開示はここに、参照により本明細書に組み込まれている。
スクリーンコンテンツ共有アプリケーションは、近時の年では、リモートデスクトップ、ビデオ会議、および移動メディアプレゼンテーションアプリケーションの増大される人気とともに、非常に人気のあるものとなった。産業界からのアプリケーション要件が存し得る。スクリーンコンテンツは、例えば、(例えば、モニタ上に同時に示される2つの別々のピクチャを視覚的に分離するための)アウトライン(outline)、単語(words)、線画(line drawings)、その他を含み得るビデオを指し得る。スクリーンコンテンツは、ビデオコンテンツに、鮮明な曲線、テキスト、および類するものの流行に起因して、数個の主要色および鮮明な縁部を伴う数多くのブロックを含む場合がある。
ビデオ圧縮方法が、スクリーンコンテンツを符号化するために使用され得る。一部の圧縮方法は、スクリーンコンテンツの特徴を最大限に特徴付けない場合があり、そのことは、非効率的な圧縮性能につながり得る。さらに、受信器での再構築されるピクチャは、品質問題点を有する場合がある。例えば曲線およびテキストは、ぼやけさせられ、認識するのが困難である場合がある。
スクリーンコンテンツに対して効率的であるビデオ圧縮方法は、より多くの人々がそれらのデバイスコンテンツをメディアプレゼンテーションおよびリモートデスクトップ目的で共有していることにつれて、増大的に重要になってきている。さらに移動デバイスのスクリーンディスプレイ分解能は、高精細度または超高精細度分解能へと実質的に増大している。ブロックコーディングモードおよび変換などのビデオコーディングツールは、スクリーンコンテンツ符号化に対して最適化されない場合があり、スクリーンコンテンツを送信するための帯域幅消費を増大する場合がある。
パレットコーディングモードによるビデオデータコーディング、例えばスクリーンコンテンツビデオデータコーディングのための方法、システム、および手段が開示される。ビデオデータ、例えばスクリーンコンテンツビデオデータがパレットコーディングされ得る。1つまたは複数の色インデックスを含むパレット表が生み出され得る。色インデックスは色に対応し得る。パレットインデックスマップが創出され得る。パレットインデックスマップは、ビデオデータの1つまたは複数の画素を、パレット表内の色インデックスにマッピングし得る。トラバースラスタスキャンが行われ得る。スキャンラインは、先行する平行なスキャンラインの反対の方向でスキャンされ得る。トラバーススキャンに基づいて、ビデオデータの少なくとも一部の小部分に関連付けられるパレットインデックスマップ内の値を指示し得る、パレットインデックスマップ予測データが生成され得る。
スキャンラインは水平スキャンラインであり得る。スキャンラインは垂直スキャンラインであり得る。スキャンラインは、水平スキャンラインであるか、それとも垂直スキャンラインであるかがシグナリングされ得る。パレット表は、少なくとも、パレット表を符号化するためのコストを表すコスト関数に基づいて生み出され得る。パレットインデックスマップ予測データは、ビデオデータのベース小部分からのラン値の見地での、ビデオデータの少なくとも一部の小部分に対する値を指示し得るデータを備え得る。ラン値は、ベース小部分と同じ色インデックスを有する、ビデオ小部分のシーケンス内の連続のビデオ小部分の数を表し得るものであり、第1の行および第2の行のそれぞれのラン値の間の差としてコーディングされ得る。
パレット表は、パレット表予測子から生成される複数の色からコピーされ得る。複数の以前の色値を備える、辞書またはパレット表予測子が生成され得る。以前の色値は、パレット表の色インデックスによって更新され得る。
より詳述される理解が、付随する図面と合わせて例示により与えられる、後に続く説明から有され得る。
スクリーンコンテンツ共有システムのブロック線図である。 ビデオ復号器のブロック線図である。 ビデオ符号化器のブロック線図である。 HEVCでの8つの予測ユニット(prediction unit)モードを例解する図である。 単語の形式でのスクリーンコンテンツの例示的な断片を例解する図である。 図5Aのスクリーンコンテンツの断片のパレットインデックスマップを示す図である。 実施形態による2次元パターン予測に対して使用され得る複数の2次元パターンを示す図である。 実施形態による2次元パターン予測に対する例示的な予測順序体系を例解する図である。 実施形態による複数の例示的なPPUスキャン順序を例解する図である。 先行するCUからCUに対するパレット表エントリを予測するための例示的な技法を例解する図である。 パレット表生成の例を例解する図である。 辞書に基づくパレット表予測のための例示的な更新プロセスを例解するフロー線図である。 ランコーディングの例を例解する図である。 例示的な通信システムのシステム線図であり、その通信システムで、1つまたは複数の開示される実施形態が実装され得る。 図13Aで例解される通信システム内部で使用され得る、例示的なワイヤレス送信/受信ユニット(WTRU:wireless transmit/receive unit)のシステム線図である。 図13Aで例解される通信システム内部で使用され得る、例示的な無線アクセスネットワーク(radio access network)および例示的なコアネットワークのシステム線図である。 図13Aで例解される通信システム内部で使用され得る、例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム線図である。 図13Aで例解される通信システム内部で使用され得る、例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム線図である。
図1は、例示的なスクリーンコンテンツ共有システムを例解するブロック線図である。スクリーンコンテンツ共有システムは、受信器10、復号器12、およびディスプレイ(例えば、レンダラ)14を含み得る。受信器10は、ビデオ信号を受信し得るものであり、それらを、復号器12へのフォワーディングのために復調し得るものであり、その復号器12は、ビデオストリームを復号し得るものであり、多重のピクチャバッファ16に記憶される複数の別々のピクチャを生成し得るものであり、それらのピクチャは、ディスプレイ14に出力され得る。
図2は、図1での復号器12として使用され得る例示的なブロックに基づく単一レイヤ復号器を例解するブロック線図である。それは、符号化器により生み出されるビデオビットストリーム201を受信し得るものであり、表示されることになるビデオ信号を再構築する。ビデオ復号器ではビットストリーム201は、エントロピー復号器203によりパースされ得る。残差係数が、再構築される残差信号209を取得するために、逆量子化器論理ブロック205で逆量子化され、逆変換論理ブロック207で逆変換され得る。コーディングモードおよび予測情報が、予測信号を、空間的予測(例えば、空間的予測論理ブロック213)または時間的予測(例えば、時間的予測論理ブロック211)のいずれかを使用して取得するために使用され得る。予測信号215、および、再構築される残差信号209は、再構築されるビデオ信号217を取得するために一体に加算され得る。再構築されるビデオは追加的には、モニタ223上で表示される、および/または、将来ビデオ信号を復号するために使用されるために、参照ピクチャ記憶機構221に記憶される前に、ループフィルタリング(例えば、ループフィルタ論理ブロック219)を通って進行し得る。
図3は、図1のスクリーンコンテンツ共有システムで受信される、符号化されるビデオデータを生成するために使用され得る、例示的なブロックに基づく単一レイヤビデオ符号化器を例解するブロック線図である。図3で示されるように、効率的な圧縮を実現するために、単一レイヤ符号化器は例えば、ブロック301での空間的予測(例えば、イントラ予測)、および/または、ブロック303での時間的予測(例えば、インター予測、および/または、動き補償される予測)を用いて、入力ビデオ信号300を予測し得る。符号化器はさらには、モード判断論理305を有し得るものであり、そのモード判断論理305は、予測の適した形式(例えば、最も適した形式)を、例えば、レートおよび歪み考慮の組み合わせなどの決まった判定基準に基づいて選定し得るものである。符号化器は次いで、予測残差310(例えば、入力信号300と予測信号311との間の差信号)を、ブロック307で変換し、および/または、ブロック309で量子化し得る。量子化される残差313は、モード情報(例えば、イントラまたはインター予測)および予測情報311(例えば、動きベクトル、参照ピクチャインデックス、イントラ予測モード、その他)と一体でさらに、エントロピーコーダ315で圧縮され、出力ビデオビットストリーム317にパックされ得る。図3で示されるように符号化器は、ブロック319で逆量子化を、および/または、ブロック321で逆変換を、量子化される残差に適用して、再構築される残差323を取得し、それを、予測信号311に戻るように加算することにより、再構築されるビデオ信号325を生成し得る。再構築されるビデオ信号325は追加的には、ループフィルタ327(例えば、デブロッキングフィルタ、サンプル適応オフセット、および/または適応ループフィルタ)を通って進行し得るものであり、参照ピクチャ記憶機構329に記憶され、将来ビデオ信号を予測するために使用され得る。
MPEGは、送信帯域幅および記憶を節約するために、ビデオコーディング標準に取り組んでいる。高効率ビデオコーディング(HEVC)は、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)およびISO/IECムービングピクチャエキスパートグループ(MPEG)により共同で開発された新興のビデオ圧縮標準である。HEVCは、H.264と比較されると帯域幅で50%を節約し、一方で、同じビデオ品質を復号器/受信器で生み出し得る。HEVCは、その符号化器および復号器が、図2および3によって動作し得るということにおいて、ブロックに基づくハイブリッドビデオコーディング標準であり得る。HEVCは、より大きなビデオブロックの使用を可能とし得るものであり、クワッドツリー区分を信号ブロックコーディング情報に対して使用し得る。ピクチャまたはスライスは、同じサイズ(例えば、64x64)を伴うコーディングツリーブロック(CTB:coding tree block)に区分され得る。CTBは、クワッドツリーによってコーディングユニット(CU:coding unit)に区分され得るものであり、CUは、クワッドツリーを使用して、予測ユニット(PU)および変換ユニット(transform unit)(TU)にさらに区分され得る。各々のインターコーディングされるCUに対して、そのPUは、図4で示されるような、8つの区分モードの1つを有し得る。動き補償される予測とも呼ばれる時間的予測が、インターコーディングされるPUを再構築するために適用され得る。HEVCでは最高で4分の1画素であり得る、動きベクトルの精密度に依存して、線形補間フィルタが、小数の位置での画素値を、整数位置での近隣画素から取得するために適用され得る。HEVCでは補間フィルタは、ルーマに対する7つまたは8つのタップ、および、クロマに対する4つのタップを有し得る。HEVCでのデブロッキングフィルタは、コンテンツ依存であり得る。異なるデブロッキングフィルタ動作が、コーディングモード差、動きベクトル差、参照ピクチャ差、画素値差、その他などのいくつかの要因に依存して、TUおよびPU境界で適用され得る。エントロピーコーディングに対してHEVCは、コンテキストに基づく適応算術2値コーディング(CABAC:context-based adaptive arithmetic binary coding)を、高レベルパラメータを除く大部分のブロックレベルシンタックス要素に対して採用し得る。CABACコーディングは、コンテキストに基づくコーディングされる規則的なビン、および/または、コンテキストなしでのバイパスコーディングされるビンを使用し得る。
HEVC設計は様々なブロックコーディングモードを含むが、それは、スクリーンコンテンツ内で見出される空間的冗長性の利点を最大限に活用しない場合がある。HEVCは、4:2:0フォーマットでの連続的なトーンビデオコンテンツに重点を置かれ得るものであり、モード判断および変換コーディングツールは、4:4:4ビデオのフォーマットで取り込まれ得る離散的なトーンコンテンツに対して最適化されない場合がある。テキストおよびグラフィックスなどのスクリーンコンテンツ素材は、自然のビデオコンテンツとは異なる特性を示し得る。コーディングツールは、スクリーンコンテンツコーディングのコーディング効率を、例えばパレットコーディングおよび/またはイントラブロックコピーに基づいて改善し得る。
図5Aで示されるように、スクリーンコンテンツブロックは、制限された数の色を含む場合があり、各々の画素の色値は、近接する(例えば、上方または左の)画素から繰り返される場合がある。パレット表は、有意な画素値を記録するための辞書として使用され得るものであり、対応するパレットインデックスマップは、図5Bで示されるように、各々の画素の色値を表すために使用され得る。空間的冗長性を低減するために、「ラン」値が、同じ有意の画素値(例えば、パレットインデックス)を有する連続の画素の長さを指示するために使用され得る。ブロックコーディングモードよりむしろ、パレットに基づくコーディング方法を使用することが、スクリーンコンテンツをコーディングするための圧縮性能を改善し得る。
スクリーンコンテンツを効果的に圧縮するための2次元パレットコーディング方法は、2次元コーディングパターンに基づき得るものであり、その2次元コーディングパターンは、「ラン」の大きさ、および、コーディングシンボルの量が低減され得るように、画素を一体に、より大きなユニットにグループ化し得るものである。パレット表生成、パレット表予測、および/またはパレット表インデックスグループ化は、例えばスクリーンコンテンツコーディングに対する、パレットコーディングの様々なコンポーネントの性能を改善し得る。追加的に、符号化器が、効率的なスクリーンコンテンツビットストリームを生成することを可能とする、符号化方法および装置が開示される。本明細書で開示されるパレットコーディング技法は、HEVCまたは他のビデオコーデックに適用され得る。
一部のビデオコーディング標準は、スクリーンコンテンツコーディングの圧縮性能を最大限に最適化しない場合がある。例えば一部の汎用符号化器は、自然のビデオシーケンスに対して最適化され得る。スクリーンコンテンツは、離散的な色配分、および、不連続なトーンを伴う、多くの、自然のビデオシーケンスより鮮明な縁部を含む場合がある。従来型のモード判断および変換に基づくコーディングプロセスを適用した後、大部分の残差値は高周波数エリア内に配置され、そのことによって残差スキャン方法は、後に続き得るエントロピーコーディングプロセスに対して非効率的であり得る。パレットに基づくコーディング方法は、スクリーンコンテンツブロックのコーディング性能を改善し得る。例えばパレットは、色ヒストグラムから符号化されている、ブロック内の共通に出現する色を選択することにより形成され得る。CU画素は、パレット表内の最も類似する要素を探索することにより、パレットインデックスに転換され得る。ラン値は、同じパレットインデックスを共有する連続の画素位置の数を指示し得る。ランモードおよびコピーモードなどの、1つまたは複数の予測モードは、現在の画素のパレットインデックスが、水平ラスタスキャン順序での現在の画素位置の左への画素のパレットインデックスから予測されるか、それとも、現在の画素位置の上方で位置決めされる画素から予測されるかを指示するために使用され得る。
CU画素は、パレット表を形成するために、主要色およびエスケープ色(escape color)にクラスタリングされ得る。ラインモードが、パレットインデックスを符号化するために使用され得る。画素ごとのパレットインデックスマップの空間的冗長性(例えばランレングスが、1x1画素のユニットで生成され得る)が役立てられ得る。大きな数のビットが、コピーモードまたはランモード、およびラン値をシグナリングするために生成され得るものであり、そのことは、例えばより大きなサイズブロックをコーディングすることに対して、非効率的であり得る。
ヒストグラムに基づく方法が、パレット表を生成するために使用され得る。例えば、CU内で最も多く出現する第1のN個の画素値が、CUのパレット表を生成するために使用され得る。有損失コーディング(例えば、復号されるビデオは、元のビデオと数値的に非同一であり得る)の事例では、パレット表のエントリに近い画素値が、そのエントリにより表される色に量子化され得る。元のCU内に存在する画素値は、パレット表の要素として選択され得る。
CUのパレット表の要素は、その左または上方の近隣物のパレット表の対応する要素から予測され得る。そのような要素単位の予測は、パレット表の要素に対する予測動作を指示するためのシグナリングフラグを必然的に含み得る。
パレット表コーディングおよびパレットマップコーディングが遂行され得る。例えば2次元パレットインデックスグループ化方法は、ランレングスの大きさが低減され得るように、パレットインデックスをより大きなユニットにグループ化し得る。
平均値に基づくパレット表生成方法が、CUのパレット表内の色を形成し得る。例えば、同じ量子化区域内にある色の平均が、パレット表内の代表色として使用され得る。
パレットマージ方法が、以前にコーディングされたCUの代表色を組み合わせることにより、CUのパレット表内の色要素を予測するために使用される色を生成し得る。
パレット表再使用モードではCUは、そのパレット表を、パレット表予測子から生成される色からコピーし得る。パレット表がコピーされるならば、パレット表をシグナリングすることは省略され得る。
スクリーンコンテンツコーディングのための2次元パレットコーディング方法は、パレット表生成、パレットインデックスマップ生成、および/またはパレットインデックス予測を必然的に含み得る。
スクリーンコンテンツのブロックは、離散的な色配分を伴う鮮明な縁部を含む場合がある。パレット表は、ビデオのブロック内のk個の最も共通に出現する色値を記録するために使用され得る。3つの個々のパレット表が、YUVまたはRGB色フォーマットの色コンポーネントを記録するために使用される場合があり、パレット表のエントリは、1つのコンポーネントを有し得る。パレット表は、すべての3つの色コンポーネントを一体で記録するために使用される場合があり、パレット表のエントリは、3つのコンポーネントを有し得る。例えば図5(a)では、9つの色がスクリーンコンテンツブロック内に存する。パレット表が使用されるならば、9つの色要素が、表内に記録され、0から8でインデックス付けされ得る。
ヒストグラムに基づく方法が、1つのCUのパレット表内の代表色を生成するために使用され得る。現在のコーディングされるCU内で最も頻繁に出現する第1のN個の色が、パレット表の色として選択され得る。量子化プロセスが、有損失コーディングでのパレット表生成に対して使用され得る。代表色に近い色値は、その代表色に量子化され得る。このヒストグラムに基づく方法は、1つの特定の色の発生がそのCU内の他の色に対して統計的に優位であり得る場合に、バランスのとられない色配分を伴う、CUに対するパレット表を生成するときに遂行され得る。しかしながらこの方法は、他の色配分を伴うCUに対しては非効率的であり得るものであり、パレットコーディングモードを使用する再構築されるCUの品質悪化を結果として生じさせ得る。例えば図10では、量子化ステップはqであり得るものであり、C3は、元のヒストグラムに基づくパレット表生成方法により選択される1つの代表色であり得る。4つの他の色、例えばC1、C2、C4、およびC5は、量子化プロセスの後で、センタをC3に置かれる量子化区域(2qの長さを伴う、図10での点を打たれたラインにより囲まれる)内にあり得る。C1、C2、C3、C4、およびC5の発生パーセンテージは、それぞれ18%、6%、36%、6%、および34%であり得る。ヒストグラムに基づくパレット表生成方法を使用すると、C1、C2、C4、およびC5の色値は、パレットインデックスマッピングプロセス(例えば、元のピクチャの色を、生成されるパレット表のエントリにマッピングする)の間にC3にマッピングされ得る。これは、現在のCU内のC5の比較的大きな発生パーセンテージ(34%)に起因して、色C5に対する大きな再構築誤差を生み出し得るものであり、全体として、再構築されるCUに対する大きな歪みにつながり得る。平均値に基づく再調整方法は、1つの量子化区域の代表色を、その量子化区域に初期にマッピングされる色の発生に基づいて再算出し得る。例えば、各々の量子化区域の更新される代表色は、量子化区域内にある色の、発生のそれらの相対的なパーセンテージによる重み付けされた平均として導出され得るものであり、例えば次式である。
ただしPjiおよびCjiは、第jの量子化区域内の第iの色の画素値および発生パーセンテージであり得るものであり、Pj’は、導出される代表色であり得る。さらに、2乗される差の和(SSD:sum of squared difference)、および、絶対差の和(SAD:sum of absolute difference)などの他の重み付けメトリックが、代表色を算出するために適用され得る。式(1)は、次式として具象され得る。
j’=argminXΣiji・Dist(X,Pji) (3)
ただし関数Distは、2つの色間の距離を評価するための重み付けメトリック関数であり得る。式(2)は、Pjに対する存在する色セット内の最適な代表色を見出すために使用され得る。式(3)は、何らの制約も伴わずに最適な代表色を見出すために使用され得るものであり、例えば最適な色は、量子化区域の色セット内にある場合があり、または、色セット内に存在しない場合がある。
パレット表生成は、最適化制約が満たされ得るまで反復して適用され得る。例えば、第kの反復の後のコスト関数は次式であり得る。
反復パレット表生成プロセスは、第kの反復でのコストと、第(k−1)の反復でのコストとの差がDThより少なくなる(|D(k)−D(kー1)|<DTh)まで連続し得る(例えば、反復して繰り返され得る)ものであり、ただしDThは閾値値であり得る。反復は、あらかじめ定義された時間まで、例えば、あらかじめ定義された持続時間の間、連続し得る。反復は、
との間の差が(例えば、あらかじめ定義された)閾値より少なくなるまで連続し得る。
パレット表は、予測コーディングによって、例えば、以前にコーディングされたパレット表、パレット辞書、パレット表予測子、および/または類するものを使用して符号化され得る。パレット辞書は、パレット表予測子と同意義であり得る。パレット表生成は、パレット表を符号化することに関連付けられるオーバーヘッドを考慮し得る。パレット表を符号化することに関連付けられるオーバーヘッドは、例えば、色クラスタリングの後のパレット表精緻化により考慮され得る。予測コーディングが考慮され得る。クラスタの数が閾値、例えば、可能とされる最大パレット表サイズより大であるならば、決まったクラスタ、例えば最も効果的なクラスタが選択され得る。
パレット表内の代表色がその予測子で見出されるならば、代表色は残り得る。そうでなければ、代表色は選択され得る。選択される代表色は、式(5)を使用して決定され得る、最小レート歪み(RD)コストを伴う色であり得る。
RDCost(k)=Distortion(k)+lambda×R(k) (5)
代表色は色候補から選択され得るものであり、それらの色候補は、クラスタリングから導出される代表色、および、以前のパレット表またはパレット辞書などの予測子内の色を含み得る。式(5)ではDistortion(k)は、クラスタ内の画素を、特定の色kによってコーディングすることに関連付けられる歪みであり得る。kが予測子からのものであるならば、R(k)は、予測子リスト内のどのエントリがkを予測するために使用されるかを指定するための(例えば、ビットでの)コストを指示し得る値であり得る。R(k)は、次式のように近似され得る。
R(k)=size(predictor)/size(palette_table) (6)
kが予測子から予測されないならば、R(k)は、予測なしでのそのパレット表エントリのコーディングの(例えば、ビットでの)コストを表し得る値であり得る。パレット表エントリは、無損失コーディングされ得る。R(k)は、次式のように推定され得る。
クラスタの代表色が決定される後で、同じ、または実質的に類似する代表色を伴うクラスタがマージされ得る。
クラスタの数が閾値、例えば、最大の可能とされるパレット表サイズを上回るならば、一部のクラスタの代表色は、パレット表内で表され得ない。決まったクラスタ、例えば最も効果的なクラスタが、パレット表内での表しのために選択され得る。パレット表によってコーディングされ得ない画素は、例えば明示的にコーディングされ得る、エスケープ色としてコーディングされ得る。それは、クラスタがパレット表の内側にない場合に、ペナルティと考慮され得る。クラスタcのコストは、次式のように推定され得る。
Cost(c)=DistPLT(c)+lambda×RPLT(c)
−(Dist_Esc(c)+lambda×R_Esc(c)) (8)
式(8)では、Dist_PLT(c)およびR_PLT(c)は、クラスタcがパレット表内で表される場合の、歪みおよびビットであり得る。Dist_Esc(c)およびR_Esc(c)は、クラスタcがパレット表内で表されない場合の、例えば、クラスタcがエスケープ色として表される場合の、歪みおよびビットであり得る。コストに基づいてクラスタは、上昇する順序でソートされ得る。順序の前方でのクラスタ(例えば、最も少ないコストに関連付けられる)が選択され得る。パレット表内で選択されないクラスタをマージすることの効果が考慮され得る。パレット表内で選択されないクラスタをマージすることを考慮するために、判定基準は、クラスタ内の画素をエスケープ色としてコーディングすることのRDコスト、および/または、クラスタ内の画素を、パレット表内で表される尤度が高い色としてコーディングすることのRDコストを含み得る。
無損失コーディングに対しては、予測コーディングは無視され得るものであり、例えば、予測コーディングを考慮することは、適用可能でない場合がある。クラスタの代表色は、無損失コーディングでは変化させられない場合がある。クラスタをパレット表内での表しのために選択するとき、ビットコストが考慮され得る(例えば、歪みは0であり得る)。マージングが、無損失コーディングで適用される場合がある。マージングは、無損失コーディングでは適用可能でない場合がある。
パレット表再調整が、パレット表生成のために代表色(例えば、最適な代表色)を見出すために、他の色クラスタリング方法に適用され得る。例えば色分割方法が、全体のスペクトル内の色(例えば、色すべて)を等しい量子化区域に分割するために使用され得るものであり、そのことは、再構築される色の品質を低下させることの犠牲で、パレット表プロセスを簡略化し得る。
パレット表は、復号器で、パレットコーディングされるCUの画素を復号するために再生成され得る。パレット表予測体系が適用され得る。例えば、CUのパレット表内の色要素が、近隣CUのパレット表内の対応する色要素から予測され得る。例えば近隣CUは、その上方または左の近隣CUを含み得る。近隣CUは、その下方または右の近隣CUを含み得る。このパレット表予測技法は、CUであって、そのCUに対してその上方および左の近隣CUの少なくとも1つが利用可能である、CUに適用され得る。上方および左の近隣CUの両方がパレットコーディングモードで符号化されないならば、パレットコーディングされないCUに対して存在するパレット表は存し得ないので、そのようなパレット表予測方法は適用され得ない。
パレット表マージ方法が、現在のCUのパレット表を予測するために使用され得る辞書を創出および/または更新するために遂行され得る。辞書は、創出され、および/または、デフォルト値に(例えば、汎用または代表色のセットに)初期化され得るものであり、1つまたは複数の符号化されるCUのパレット表での使用のために実際に選択される色に基づいて更新され得る。辞書更新プロセスは、辞書の更新されるバージョンを生み出すために、最も近時に符号化されたCUのパレット色を、辞書の以前のバージョンの色(例えば、最もしばしば使用される、または、最も重要な色)とマージし得る。辞書の更新されるバージョンは、1つまたは複数の将来CUのパレット表を、予測するために、および/または、予測的に符号化するために使用され得る。辞書の更新されるバージョンは、マージングプロセスの追加的な適用によって更新され得る。
パレット辞書は、近時にコーディングされる色、例えば、1つまたは複数の近時にコーディングされるCUの代表色を、現在のCUのパレット表をコーディングする前に記憶し得る。このパレット辞書を与えられると、現在のCUのパレット表内の色要素は、パレット辞書の対応する色要素から予測され得る。
パレット辞書の妥当なサイズ(例えば、一定のサイズ、または、最大サイズ)が維持され得る。パレット辞書更新プロセスは、CUをコーディングする後に、例えば、パレット辞書内に存在しない、最も近時にコーディングされるCUの代表色を追加し、より少なく使用される色要素を取り外すことにより適用され得る。符号化/復号順序での近隣CUの色値間には強い相関が存し得るので、最も近時にコーディングされるCUの代表色は、更新されるパレット辞書の始まりに置かれ得る。プルーニングが、一意的な色がパレット辞書内で保たれ得るように、何らかの冗長なエントリを取り外すために、パレット辞書を更新する後に、または、更新プロセスの間に遂行され得る。
図11は、辞書に基づくパレット表予測のための例更新プロセス1100を例解するフロー線図である。1102で、CUに対するパレット表の予測、またはそのパレット表の予測符号化のために使用され得る現在のパレット辞書を記憶し得る、バッファCurrentPaletteDictionaryに記憶される色が、バッファTempDictionaryBufferにコピーされ得る。CurrentPaletteDictionaryは、以前のCUに対するパレット表のエントリを予測または符号化するために以前使用された辞書を記憶し得る。更新手順の間、CurrentPaletteDictionaryは、更新されるパレット辞書が中に構築され得るワーキングバッファであり得る。TempDictionaryBufferは、以前のパレット辞書のコンテンツがコピーされるバッファであり得る。これらのコンテンツは、更新されるパレット辞書を構築するために、ワーキングバッファに選択的にマージされ得る。カウンタjが初期化され得る。
1104で、パレット表CurrentCUPaletteTableからの色が、バッファCurrentPaletteDictionaryの開始に、例えばバッファの以前のコンテンツを置換してコピーされ得る。CurrentCUPaletteTableは、現在のCUのパレット表であり得る。このパレット表のコンテンツは、ワーキングバッファの開始位置に、以前のコンテンツを置換してコピーされ得る。現在のCUのパレット表のエントリは、更新されるパレット辞書内で優先性を与えられ得る。辞書バッファのサイズは、現在のCUのパレット表サイズより大きくあり得る。マージプロセスは、ワーキングバッファの残っているエントリに、例えば最大サイズまたは容量まで記入するために使用され得る。
1106で、TempDictionaryBufferの第jの要素がバッファCurrentPaletteDictionaryに存在しないならば、それは、バッファCurrentPaletteDictionaryの終了に付け加えられ得る。この評価は、色値の比較(例えば、正確な比較)に基づき得るものであり、または、色値の類似性を試験し得る。例えば試験は、TempDictionaryBufferの第jの要素を、CurrentPaletteDictionaryの各々のエントリと、YUVまたはRGB空間内のベクトルとして具象される色エントリ間の差のL2ノルムなどの比較メトリックを使用して比較し得る。エントリの比較される対が、比較メトリックが閾値より下であることに十分に類似するならば、試験は肯定的であり得る(例えば、TempDictionaryBufferの第jの要素は、CurrentPaletteDictionaryにすでに存在するように考慮され得る)。
1108で、TempDictionaryBufferの第jの要素がパレット辞書にまさに存在するならば、カウンタjがインクリメントされ得る。1110で、バッファCurrentPaletteDictionaryがその容量に達したならば、または、TempDictionaryBuffer内のエントリが使い果たされたならば、更新プロセス1100は終了し得る。
パレット辞書エントリは、より重要である、または、より頻繁に使用されるエントリが、パレット辞書の始めで位置決めされ得るように、および、より重要でない、または、より頻繁には使用されないエントリが、順序において後で位置決めされ得るように、順序付けされ得る。
大きなパレット辞書は、より多くの色を予測に対して提供し、一方で、予測子の位置を符号化することのオーバーヘッドを増大し得る。より小さなパレット辞書は、オーバーヘッドを低減し得るが、より少ない色を予測に対して提供し得る。予測効率とオーバーヘッドとの間のより良好な折り合いを取得するために、パレット辞書のサイズは、例えばピクチャレベルで、またはシーケンスレベルで、適応的に変化させられ得る。例えばパレット辞書のサイズは、コンテンツ、ならびに、無損失コーディング、有損失コーディング、および予測構造(例えば、すべてイントラ、ランダムアクセス、および/または低遅延)などのコーディング選好によるサイズにセットされ得る。パレット辞書のサイズは、無損失コーディングでは、有損失コーディングと比較される際に、より大きくセットされ得る。有損失コーディングでは、パレット辞書のサイズは、すべてイントラコーディング構成に対して、ランダムアクセスおよび/または低遅延構成と比較される際に、より大きくセットされ得る。パレット辞書のサイズは、ピクチャパラメータセット(PPS)内で、および/または、シーケンスパラメータセット(SPS)内でシグナリングされ得る。パレット辞書内の色が予測に対して使用されるか否かを指示する予測フラグがコーディングされ得る。予測フラグの数は、パレット辞書のサイズに等しくあり得る。パレット辞書サイズが増大されるとき、予測フラグをシグナリングすることの方法は、調整され、例えば最適化され得る。例えば予測フラグが1であるならば、終了フラグが、予測フラグの後で直に、後に続く「1」フラグが存するかどうかを指示するためにシグナリングされ得る。終了フラグが1であるならば、後に続く「1」フラグは存し得ないものであり、予測フラグをこれ以上コーディングする必要性は存し得ない。
パレット表予測は、要素単位の様式で遂行され得るものであり、その場合シグナリングフラグが、現在のパレット表の色要素に対して、対応する要素が予測されるか否かを指示するために使用され得る。パレット表再使用モードでは、CUのパレット表は、パレット表予測子から生成される色からコピーされ得る。CUのパレット表に対する色の新しいセット。パレット表がコピーされる(例えば、全体的にコピーされる)とき、パレット表をシグナリングすることは省略され得る。フラグは、パレット表予測子のエントリが、現在のCUのパレット表の色要素として使用されるかどうかをシグナリングするために使用され得る。そうであるならば、現在のCUのパレット表に対する符号化プロセスは省かれ得るものであり、復号器は、パレット表予測子を、現在のCUのパレット表として再使用し得る。そうでないならば、別のフラグが、現在のCUのパレット表が、先行するCUのパレット表から予測されるかどうかをシグナリングするために使用され得る。例えば、図9で示され、本明細書で開示されるように、表エントリが、その予測子の対応するエントリ位置を使用することにより予測され得る。さらに、現在の表エントリとその予測子との間の差は、スケーリングまたはシフティングされ得る。パレット表サイズは、先行するCUのパレット表サイズからの予測による差分コーディングを使用することによりシグナリングされ得る。
パレット表再使用モードは、本明細書で開示されるようなパレット表マージングとは独立して、または、そのパレット表マージングとの組み合わせで動作させられ得る。例えばパレット表マージングは、パレットモードでコーディングされるCUのパレット表情報を予測的に符号化するために、パレット表再使用モードと組み合わされ得る。
ブロック(例えば、CU)内の画素を、パレット表に記憶される色にマッピングする、パレットインデックスが築造され得る。画素に対するパレットインデックスを決定するために、画素に関する最小限の誤差を伴うパレット表要素が決定され得る。誤差は例えば、差の絶対値、または、差の2乗により測定され得る。ブロックの画素は、図5Bで示されるようなパレットインデックスに転換され得る。しかしながら、パレット表の記憶サイズ制限に起因して、画素は、パレット表内で正確なマッチを有さない場合がある。したがって、対応するパレット表要素に関する画素の残差値が、それが、復号器サイドで画像を精緻化するために使用され得るように符号化され得る。無損失圧縮モードが使用されるならば、残差値は、エントロピーコーディングプロセスにより符号化され得る。実施形態では残差値は、直接、例えば変換および量子化なしで符号化され得る。有損失圧縮モードが使用されるならば、残差値は、変換、量子化、およびエントロピーコーディングプロセスにより符号化され得る。
コーディングツールが、パレットインデックスマップを記憶することのオーバーヘッドを低減するために使用され得る。これらのコーディングツールは例えば、ラン算出、2次元パターン予測、および/またはパレットインデックススキャン順序を含み得る。
「ラン」値は、パレットインデックスを有する連続の位置の長さを指示するために使用され得る。多重の種類の予測モード、例えば、ランモードおよびコピーモードが存し得る。ランモードでは、位置でのインデックス値が、以前の位置(例えば、ランモードでの通常の水平ラスタスキャン順序を想定すると、左への位置、または、コピーモードでの通常の垂直スキャン順序を想定すると、上方の位置)でのインデックス値と比較され得る。ランモードが指示されるならば、現在の画素のインデックス値が、以前の位置での画素のインデックス値と同じであるならば、ラン値は、異なるインデックス値を伴う画素が遭遇されるまで増大され得る。コピーモードが指示されるならば、パレットインデックスマップ内の位置でのインデックス値が、現在の位置の直に上方の位置でのインデックス値と比較され得る。それらが同じインデックス値を共有するならば、ラン値は増大され得る。
ランモードでは、インデックスマップ内の第1の画素の色値のインデックスおよび/またはラン値がコーディングされ得るものであり、例えば、インデックスがコーディングされ得るものであり、ラン値がコーディングされ得る。コピーモードでは、ラン値(例えば、ラン値のみ)がコーディングされ得るものであり、例えば、画素色値を表すインデックスが、以前にコーディングされた行からコピーされ得る。符号化器は、両方のモードが同じラン値を有するならば、コピーモードを選択し得るものであり、なぜならば、コピーモードを選択することが、より少ないサイド情報を結果として生じさせ得るからである(例えばコピーモードは、より少ないビットを使用して、同じ数の画素を表し得る)。図12で示されるように、現在の位置C0がランモードとしてコーディングされ、C0の色値インデックスがその上部画素T0と同じであるならば、C0で始まる現在の行のランは、上方の行のT0によって開始する同一の画素の数より大きくあり得るものであり、そうでなければ、符号化器は、コピーモードを選択し得たものである。図12で示される例では、上部行のランは6であり得る。この例では、現在の行のランは6より大であり得る。現在の行のランと、上部行のランとの間の差(例えば、差のみ)がコーディングされ得る。
例えば符号化器は、ランモードのラン値がコピーモードのラン値より大であるときに、ランモードを選択し得る。例えば制約フラグが、ビットストリームが制約によって生成されるということをシグナリングするために、ビットストリームに(例えば、シーケンスパラメータセットに)含まれ得る。
セグメントは、ランモードで、またはコピーモードでコーディングされる画素のグループを含み得る。ランモードでは、2つのシンタックス要素(例えば、インデックス、ラン)がコーディングされ得る。コピーモードでは、シンタックス要素(例えば、ラン)がコーディングされ得る。C0は、現在のセグメントの第1の位置であり得る。T0は、C0の上方の位置であり得る。Row(x)は、位置xの行数であり得る。Run(x)は、位置xでのランの値であり得る。符号化器判断が、例えば後に続くものによって、例えば、ラン値をRun(C0)−run_top−1として、または、Run(C0)として符号化することによりなされ得る。
復号器では、ランモードに対する「ラン」の値が、例えば後に続くものによって解釈され得る。
図12で例解される例が行単位の符号化を使用し得る一方で、類似する技法が、ランの他の方向性符号化に対して適用され得る。例えば、図8で示されるスキャン順序付けの任意のものが使用され得る。図8(b)での列単位の符号化が使用されるならば、比較は、現在の列内の画素と、以前に符号化された近接する列内の画素との間のものであり得る。図8(e)での斜線スキャン符号化が使用されるならば、比較は、現在の斜線に沿った画素と、以前に符号化された近接する斜線に沿った画素との間のものであり得る。
パレットに基づくスクリーンコンテンツコーディングでは、各々の画素のパレットインデックスが、画素に対して次々に予測され得る。2次元パターンは、ラン値の大きさ、および、ランの数が低減され得るように、画素を一体に、より大きなユニット(例えば、画素パターンユニットまたはPPU)にグループ化し得る。2次元パターンの一部の例が図6で例解され、実ラインは、PPU間の分離を画定し得るものであり、ダッシュドラインは、PPU内部の個々の画素を画定し得る。例えば1×2パターンが、(a)で示されるように使用されるならば、各々のPPU内の2つの画素は、同じラン値を共有し得る。1×1パターンを使用することと比較される際に、1x2パターンは、ラン要素の量を低減して、ビデオ信号を符号化し得る。2つの画素のインデックスが同じであるならば、ラン値の大きさは低減され得る。
図6でのパターン(a)から(h)は、PPUに対する一部の例示的なパターンである。パターン(a)は、2つの垂直に近接する画素を含み得る2画素パターンである。パターン(b)は、2つの水平に近接する画素を含み得る2画素パターンである。パターン(c)は、4つの垂直に近接する画素を含み得る4画素パターンである。パターン(d)は、4つの水平に近接する画素を含み得る4画素パターンである。パターン(e)は、正方形での4つの近接する画素を含み得る4画素パターンである。
ハイブリッドパターンは、パターン(f)〜(h)により示されるように、多重の不均一な2次元パターンを組み合わせ得る。実例としてPPUパターン(f)は、4つのパターン(a)の上方に位置決めされる4つのパターン(b)として配置構成される、16個の画素を含み得る。パターン(g)は、2つのパターン(d)の上方の2つのパターン(c)として配置構成される、16個の画素を含み得る。パターン(h)は、2つのパターン(d)の上方に位置決めされる2つのパターン(e)を含み得る。多くの他のパターンおよびパターンサイズが可能であり得る。
2次元パターン予測の使用状況をシグナリングするために、Nの値が、2次元パターン予測が現在のCUで使用されるか否かをシグナリングするためにコーディングされ得る。実例として、Nが0に等しいならば、1×1パターンが現在のCUで使用され得る。そうでなければ、Nの値は、様々なあらかじめ定義された2次元パターンのどれが現在のCUで使用され得るかを指示するために使用され得る。
この2次元パターン予測方法が使用されるならば、ランモード予測を遂行するときに、パターンの内側の画素は、パレットインデックススキャン順序の逆方向に沿った最も近傍のパターンの対応する位置での画素と比較され得る。例えば図7は、2つの画素を使用するPPU703、図6からの1x2PPUパターン(a)で構成されるCU701を示す。これらのPPUでは、PPUごとに、例えば上部および下部で、2つの画素705、706が存し得る。現在のPPUの上部画素C0は、(例えば、行内の第1のPPUを除いて)現在のPPUの直に左へのPPUの上部画素P0から予測され得るものであり、現在のPPUの下部画素C1は、現在のPPUの直に左へのPPUの下部画素P1から予測され得る。
コピーモード予測が使用される(そのことによって、スキャン順序での先行するPPUは、現在のPPUの左へのPPUよりむしろ、現在のPPUの上方のPPUであり得る)ならば、パターンの内側の画素は、その先行するPPU内のそのコロケートされる画素場所と比較され得る。先行するPPU内のコロケートされる画素(例えば、対応する位置を有する画素)を高速で探索するために、2つのルックアップ表が、ランおよびコピーモードに対して使用され得るものであり、各々のブロックサイズおよび2次元パターンに対する2つのルックアップ表が、符号化器および復号器サイドであらかじめ定義され得る。
パレットインデックススキャン順序に対して、CU(または、ビデオデータの他のブロックセグメント)の小部分または位置(例えば、画素またはPPU)が、それぞれ図8のパターン(a)および(b)で示されるような、垂直または水平ラスタスキャン順序で予測され得る。CUの小部分または位置は、例えば図8のパターン(c)および(d)で示されるような、スキャンライン順序で予測され得る。スキャンラインは、例えば水平または垂直であり得るものであり、1つまたは複数の、水平および/または垂直ライン小部分を含み得る。
スキャンライン(例えば、ラスタライン)は、それぞれ、ランモードおよびコピーモードに対して、図8でのパターン(c)および(d)により示されるように、先行する平行なスキャンラインの反対の方向でスキャンされ得る。スキャン順序経路内の逐次的にスキャンされるPPU間のパレットインデックスの類似性の尤度が保存され得る。例えばラスタラインの終了で、逐次的に次のPPUは、実際のビデオ画像内の以前にスキャンされたPPUに物理的に近接して配置される。例ではスキャン順序は、図8でのスキャン順序パターン(e)および(f)により例解されるように、斜線ジグザグであり得る。
インデックス予測に対する基礎として使用されることになるPPUの値は、ランモード予測をラスタスキャン順序によって行うときに、各々の行の第1の位置でのPPUに対して、現在のPPUの直に上方のPPUにリセットされ得る。
例えばブロックは、4x2パターンで配置構成される8つの画素を含み得るものであり、1つのブロックは、後に続く値を有する画素を含み得る。
ABCD
AAAD
ランモードでの第2の行の第1の位置に対する予測はDであり得るものであり、なぜならばそれは、先行する位置、例えば、第1の行の最後の位置での画素の値であるからである。画素予測の値が、現在のPPUの直に上方のPPUにリセットされるならば、ランモードでの予測はAであり得るものであり、なぜならばそれは、その画素の直に上方の(例えば、第1の行の第1の位置での)画素の値であるからである。第2の行内の次の2つの連続のAもまたAであるので、符号化は、3(例えば、第2の行内の第1の3つの画素に対応する)のラン値を伴うA(例えば、第1の行内の第1の画素の色値に対応する)であり得る。スキャニングモードは、ラン値の中間で、ランモードとコピーモードとの間で切り替わり得る。
同じ概念が、ランモードで、垂直スキャン順序で適用され得るものであり、その事例では、各々の列の第1の位置でのPPUに対する画素予測に対する基礎として使用されることになるPPUの値は、そのPPUの直に左へのPPUにリセットされ得る。
シンタックス要素は、パレットコーディングされるモードによってコーディングされ得るCUがシグナリングされ得るということをシグナリングし得る。本明細書で開示されるようなパレットコーディングは、ビットストリームで、シンタックス要素を使用してシグナリングされ得る。例えばCUレベルで、palette_table_reuse_flagは、現在のCUが、パレット表予測子の色要素を、現在のCUのパレット表として再使用するか否かを指示し得る。palette_table_reuse_flagが1に等しいならば、パレット表再使用モードが現在のCUに適用され得る。現在のCUのパレット表内の色要素は、パレット表予測子のそれからコピーされ得る。palette_table_reuse_flagが0に等しいならば、現在のCUは、色の新しいセットを、そのパレット表として使用し得る。
palette_pattern_modeなどのシンタックス要素は、2次元パレットコーディングが可能にされるかどうか、および、どのコーディングパターンが使用されるかを指示し得る。palette_pattern_modeが0に等しいならば、1×1パターンが使用され得る。そうでなければ、palette_pattern_modeの値は、どのあらかじめ定義された2次元パターン(例えば、図6での例示的なパターンを確認されたい)が現在のCUで使用されるかを指示するために使用され得る。
palette_index_scan_orderなどのシンタックス要素は、どのパレットインデックススキャン順序が使用されるかをシグナリングするために使用され得る。例えばpalette_index_scan_orderが0に等しいならば、ラスタスキャン順序が、パレットインデックス予測プロセスで使用され得る。そうでなければ、palette_index_scan_orderの値は、どのあらかじめ定義されたスキャン順序(例えば、図8での例示的なパターンを確認されたい)が使用されるかを指示するために使用され得る。例えば、トラバーススキャンが、水平に、水平スキャンラインによって遂行されるか、それとも、垂直に、垂直スキャンラインによって遂行されるかがシグナリングされ得る。
表1は、例シンタックス要素を例解する。
図13Aは、例示的な通信システム100の線図であり、その通信システム100との接続で、1つまたは複数の開示される実施形態が実装され得る。通信システム100は、ボイス、データ、ビデオ、メッセージング、ブロードキャスト、その他などのコンテンツを多重のワイヤレスユーザに提供する多重アクセスシステムであり得る。通信システム100は、多重のワイヤレスユーザが、ワイヤレス帯域幅を含むシステムリソースの共有によって、そのようなコンテンツにアクセスすることを可能にし得る。例えば通信システム100は、コード分割多重アクセス(CDMA:code division multiple access)、時間分割多重アクセス(TDMA:time division multiple access)、周波数分割多重アクセス(FDMA:frequency division multiple access)、直交FDMA(OFDMA:orthogonal FDMA)、単一キャリアFDMA(SC−FDMA:single-carrier FDMA)、および類するものなどの、1つまたは複数のチャネルアクセス方法を用い得る。
図13Aで示されるように通信システム100は、ワイヤレス送信/受信ユニット(WTRU)102a、102b、102c、102d、無線アクセスネットワーク(RAN)104、コアネットワーク106、公衆交換電話ネットワーク(PSTN:public switched telephone network)108、インターネット110、および、他のネットワーク112を含み得るが、開示される実施形態は、任意の数のWTRU、基地局(base station)、ネットワーク、および/またはネットワーク要素を企図するということが察知されよう。WTRU102a、102b、102c、102dの各々は、ワイヤレス環境で動作および/または通信するように構成される任意のタイプのデバイスであり得る。例の方途によりWTRU102a、102b、102c、102dは、ワイヤレス信号を送信および/または受信するように構成され得るものであり、ユーザ機器(UE:user equipment)、移動局、固定された、または移動の加入者ユニット、ページャ、セルラー電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、ワイヤレスセンサ、消費者電子機器、および類するものを含み得る。
通信システム100はさらには、基地局114aおよび基地局114bを含み得る。基地局114a、114bの各々は、WTRU102a、102b、102c、102dの少なくとも1つとワイヤレスでインターフェイス接続して、コアネットワーク106、インターネット110、および/またはネットワーク112などの、1つまたは複数の通信ネットワークへのアクセスを容易にするように構成される、任意のタイプのデバイスであり得る。例の方途により基地局114a、114bは、BTS(base transceiver station)、ノード−B、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、ワイヤレスルータ、および類するものであり得る。基地局114a、114bは各々、単一の要素として図示されるが、基地局114a、114bは、任意の数の相互接続される基地局および/またはネットワーク要素を含み得るということが察知されよう。
基地局114aは、RAN104の部分であり得るものであり、そのRAN104はさらには、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC:radio network controller)、中継ノード、その他などの、他の基地局および/またはネットワーク要素(示されない)を含み得る。基地局114aおよび/または基地局114bは、セル(示されない)と称され得る個別の地理的領域内部でワイヤレス信号を送信および/または受信するように構成され得る。セルは、セルセクタにさらに分割され得る。例えば基地局114aに関連付けられるセルは、3つのセクタに分割され得る。したがって1つの実施形態では基地局114aは、3つのトランシーバを、例えば、セルの各々のセクタに対して1つを含み得る。別の実施形態では基地局114aは、多入力多出力(MIMO:multiple-input multiple output)技術を用い得るものであり、したがって、多重のトランシーバをセルの各々のセクタに対して利用し得る。
基地局114a、114bは、WTRU102a、102b、102c、102dの1または複数と、エアインターフェイス116を介して通信し得るものであり、そのエアインターフェイス116は、任意の適したワイヤレス通信リンク(例えば、無線周波数(RF)、マイクロウェーブ、赤外線(IR)、紫外線(UV)、可視光、その他)であり得る。エアインターフェイス116は、任意の適した無線アクセス技術(RAT:radio access technology)を使用して確立され得る。
より詳細には、上記で言及されたように通信システム100は、多重アクセスシステムであり得るものであり、CDMA、TDMA、FDMA、OFDMA、SC−FDMA、および類するものなどの、1つまたは複数のチャネルアクセス体系を用い得る。例えば、RAN104内の基地局114a、およびWTRU102a、102b、102cは、広帯域CDMA(WCDMA(登録商標):wideband CDMA)を使用してエアインターフェイス116を確立し得る、ユニバーサル移動電気通信システム(UMTS:Universal Mobile Telecommunications System)、地上無線アクセス(UTRA:UMTS Terrestrial Radio Access)などの無線技術を実装し得る。WCDMAは、高速度パケットアクセス(HSPA:High-Speed Packet Access)および/またはエボルブドHSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速度ダウンリンクパケットアクセス(HSDPA)および/または高速度アップリンクパケットアクセス(HSUPA)を含み得る。
別の実施形態では、基地局114a、およびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)および/またはLTE−アドバンスト(LTE−A)を使用してエアインターフェイス116を確立し得る、エボルブドUMTS地上無線アクセス(E−UTRA:Evolved UMTS Terrestrial Radio Access)などの無線技術を実装し得る。
他の実施形態では、基地局114a、およびWTRU102a、102b、102cは、IEEE802.16(例えば、ワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX:Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動通信用グローバルシステム(GSM(登録商標):Global System for Mobile communications)、エンハンストデータレートフォーGSMエボリューション(EDGE:Enhanced Data rates for GSM Evolution)、GSM EDGE(GERAN)、および類するものなどの無線技術を実装し得る。
図13Aでの基地局114bは、例えば、ワイヤレスルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり得るものであり、仕事の場、ホーム、乗物、構内、および類するものなどの局限されたエリアでワイヤレス接続性を容易にするために、任意の適したRATを利用し得る。1つの実施形態では、基地局114b、およびWTRU102c、102dは、IEEE802.11などの無線技術を実装して、ワイヤレスローカルエリアネットワーク(WLAN)を確立し得る。別の実施形態では、基地局114b、およびWTRU102c、102dは、IEEE802.15などの無線技術を実装して、ワイヤレスパーソナルエリアネットワーク(WPAN)を確立し得る。さらに別の実施形態では、基地局114b、およびWTRU102c、102dは、セルラーに基づくRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−A、その他)を利用して、ピコセルまたはフェムトセルを確立し得る。図13Aで示されるように基地局114bは、インターネット110への直接接続を有し得る。したがって基地局114bは、コアネットワーク106を経由してインターネット110にアクセスすることを求められない場合がある。
RAN104は、コアネットワーク106との通信の状態にあり得るものであり、そのコアネットワーク106は、ボイス、データ、アプリケーション、および/またはボイスオーバーインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dの1または複数に提供するように構成される、任意のタイプのネットワークであり得る。例えばコアネットワーク106は、呼制御、課金サービス、移動場所に基づくサービス、プリペイド呼、インターネット接続性、ビデオ配信、その他を提供し、および/または、ユーザ認証などの高レベルセキュリティ機能を遂行し得る。図13Aでは示されないが、RAN104および/またはコアネットワーク106は、RAN104と同じRAT、または異なるRATを用いる他のRANとの、直接または間接の通信の状態にあり得るということが察知されよう。例えば、E−UTRA無線技術を利用している場合があるRAN104に接続されていることへの追加で、コアネットワーク106はさらには、GSM無線技術を用いる別のRAN(示されない)との通信の状態にあり得る。
コアネットワーク106はさらには、WTRU102a、102b、102c、102dが、PSTN108、インターネット110、および/または、他のネットワーク112にアクセスするためのゲートウェイとしてサービングし得る。PSTN108は、単純な古い電話サービス(POTS:plain old telephone service)を提供する回線交換電話ネットワークを含み得る。インターネット110は、相互接続されるコンピュータネットワークおよびデバイスのグローバルシステムを含み得るものであり、それらのコンピュータネットワークおよびデバイスは、送信制御プロトコル(TCP:transmission control protocol)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)などの、TCP/IPインターネットプロトコルスイートでの共通通信プロトコルを使用するものである。ネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、ワイヤードまたはワイヤレス通信ネットワークを含み得る。例えばネットワーク112は、RAN104と同じRAT、または異なるRATを用い得る、1つまたは複数のRANに接続される別のコアネットワークを含み得る。
通信システム100内のWTRU102a、102b、102c、102dの一部またはすべては、マルチモード能力を含み得るものであり、例えばWTRU102a、102b、102c、102dは、異なるワイヤレスリンクを介して異なるワイヤレスネットワークと通信するための多重のトランシーバを含み得る。例えば図13Aで示されるWTRU102cは、セルラーに基づく無線技術を用い得る基地局114aと、および、IEEE802無線技術を用い得る基地局114bと通信するように構成され得る。
図13Bは、例WTRU102のシステム線図である。図13Bで示されるようにWTRU102は、プロセッサ118、トランシーバ120、送信/受信要素122、スピーカ/マイクロホン124、キーパッド126、ディスプレイ/タッチパッド128、取り外し不能メモリ130、取り外し可能メモリ132、電力源134、全地球測位システム(GPS:global positioning system)チップセット136、および、他の周辺装置138を含み得る。WTRU102は、実施形態と矛盾しない状態に残りながら、前述の要素の任意の副組み合わせを含み得るということが察知されよう。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアとの関連の状態にある1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、ステートマシン、および類するものであり得る。プロセッサ118は、信号コーディング、データ処理、電力制御、入力/出力処理、および/または、WTRU102がワイヤレス環境で動作することを可能にする任意の他の機能性を遂行し得る。プロセッサ118は、トランシーバ120に結合され得るものであり、そのトランシーバ120は、送信/受信要素122に結合され得る。図13Bは、プロセッサ118およびトランシーバ120を別々のコンポーネントとして図示するが、プロセッサ118およびトランシーバ120は、電子パッケージまたはチップ内に一体に集積され得るということが察知されよう。
送信/受信要素122は、エアインターフェイス116を介して、信号を基地局(例えば、基地局114a)に送信する、または、信号をその基地局から受信するように構成され得る。例えば1つの実施形態では送信/受信要素122は、RF信号を送信および/または受信するように構成されるアンテナであり得る。別の実施形態では送信/受信要素122は、例えばIR信号、UV信号、または可視光信号を、送信および/または受信するように構成される放射器/検出器であり得る。さらに別の実施形態では送信/受信要素122は、RF信号および光信号の両方を、送信および受信するように構成され得る。送信/受信要素122は、ワイヤレス信号の任意の組み合わせを送信および/または受信するように構成され得るということが察知されよう。
追加で、送信/受信要素122は、図13Bで単一の要素として図示されるが、WTRU102は、任意の数の送信/受信要素122を含み得る。より詳細にはWTRU102は、MIMO技術を用い得る。したがって1つの実施形態ではWTRU102は、ワイヤレス信号を、エアインターフェイス116を介して送信および受信するための、2つまたはより多い送信/受信要素122(例えば、多重のアンテナ)を含み得る。
トランシーバ120は、送信/受信要素122により送信されることになる信号を変調するように、および、送信/受信要素122により受信される信号を復調するように構成され得る。上記で言及されたようにWTRU102は、マルチモード能力を有し得る。したがってトランシーバ120は、WTRU102が、例えばUTRAおよびIEEE802.11などの多重のRATによって通信することを可能にするための多重のトランシーバを含み得る。
WTRU102のプロセッサ118は、スピーカ/マイクロホン124、キーパッド126、および/または、ディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)ディスプレイユニット、または、有機発光ダイオード(OLED)ディスプレイユニット)に結合され得るものであり、ユーザ入力データを、それらのスピーカ/マイクロホン124、キーパッド126、および/または、ディスプレイ/タッチパッド128から受信し得る。プロセッサ118はさらには、ユーザデータを、スピーカ/マイクロホン124、キーパッド126、および/または、ディスプレイ/タッチパッド128に出力し得る。追加でプロセッサ118は、取り外し不能メモリ130および/または取り外し可能メモリ132などの任意のタイプの適したメモリからの情報にアクセスし、データをそのメモリに記憶し得る。取り外し不能メモリ130は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ハードディスク、または、任意の他のタイプのメモリ記憶デバイスを含み得る。取り外し可能メモリ132は、加入者アイデンティティモジュール(SIM)カード、memory stick、セキュアデジタル(SD)メモリカード、および類するものを含み得る。他の実施形態ではプロセッサ118は、サーバまたはホームコンピュータ(示されない)上など、WTRU102上に物理的に配置されないメモリからの情報にアクセスし、データをそのメモリに記憶し得る。
プロセッサ118は、電力を電力源134から受信し得るものであり、WTRU102内の他のコンポーネントに対する電力を配分および/または制御するように構成され得る。電力源134は、WTRU102に電力供給するための任意の適したデバイスであり得る。例えば電力源134は、1つまたは複数のセル電池バッテリ(例えば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル金属水素化物(NiMH)、リチウムイオン(Liイオン)、その他)、ソーラーセル、燃料セル、および類するものを含み得る。
プロセッサ118はさらには、GPSチップセット136に結合され得るものであり、そのGPSチップセット136は、WTRU102の現在の場所に関する場所情報(例えば、経度および緯度)を提供するように構成され得る。GPSチップセット136からの情報への追加で、またはその情報の代わりで、WTRU102は、場所情報を、エアインターフェイス116を介して基地局(例えば、基地局114a、114b)から受信し、および/または、その場所を、2つもしくはより多い付近の基地局から受信されている信号のタイミングに基づいて決定し得る。WTRU102は、実施形態と矛盾しない状態に残りながら、場所情報を、任意の適した場所決定方法の方途により入手し得るということが察知されよう。
プロセッサ118は、他の周辺装置138にさらに結合され得るものであり、それらの周辺装置138は、追加的な特徴、機能性、および/または、ワイヤードもしくはワイヤレス接続性を提供する、1つまたは複数のソフトウェアおよび/またはハードウェアモジュールを含み得る。例えば周辺装置138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレイヤ、メディアプレイヤ、ビデオゲームプレイヤモジュール、インターネットブラウザ、および類するものを含み得る。
図13Cは、実施形態によるRAN104およびコアネットワーク106のシステム線図である。上記で言及されたようにRAN104は、UTRA無線技術を用いて、WTRU102a、102b、102cと、エアインターフェイス116を介して通信し得る。RAN104はさらには、コアネットワーク106との通信の状態にあり得る。図13Cで示されるようにRAN104は、ノード−B140a、140b、140cを含み得るものであり、それらのノード−Bは各々、WTRU102a、102b、102cと、エアインターフェイス116を介して通信するための、1つまたは複数のトランシーバを含み得る。ノード−B140a、140b、140cは各々、RAN104内部の個別のセル(示されない)に関連付けられ得る。RAN104はさらには、RNC142a、142bを含み得る。RAN104は、実施形態と矛盾しない状態に残りながら、任意の数のノード−BおよびRNCを含み得るということが察知されよう。
図13Cで示されるように、ノード−B140a、140bは、RNC142aとの通信の状態にあり得る。追加的にノード−B140cは、RNC142bとの通信の状態にあり得る。ノード−B140a、140b、140cは、それぞれのRNC142a、142bと、Iubインターフェイスによって通信し得る。RNC142a、142bは、互いとのIurインターフェイスによる通信の状態にあり得る。RNC142a、142bの各々は、それが接続されるそれぞれのノード−B140a、140b、140cを制御するように構成され得る。追加で、RNC142a、142bの各々は、アウターループ電力制御、負荷制御、受付制御、パケットスケジューリング、ハンドオーバー制御、マクロダイバーシティ、セキュリティ機能、データ暗号化、および類するものなどの、他の機能性を履行またはサポートするように構成され得る。
図13Cで示されるコアネットワーク106は、メディアゲートウェイ(MGW:media gateway)144、移動交換センタ(MSC:mobile switching center)146、サービングGPRSサポートノード(SGSN:serving GPRS support node)148、および/または、ゲートウェイGPRSサポートノード(GGSN:gateway GPRS support node)150を含み得る。前述の要素の各々は、コアネットワーク106の部分として図示されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが察知されよう。
RAN104内のRNC142aは、コアネットワーク106内のMSC146に、IuCSインターフェイスによって接続され得る。MSC146は、MGW144に接続され得る。MSC146およびMGW144は、WTRU102a、102b、102cに、PSTN108などの回路交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前のランドライン通信デバイスとの間の通信を容易にし得る。
RAN104内のRNC142aはさらには、コアネットワーク106内のSGSN148に、IuPSインターフェイスによって接続され得る。SGSN148は、GGSN150に接続され得る。SGSN148およびGGSN150は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。
上記で言及されたようにコアネットワーク106はさらには、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得るネットワーク112に接続され得る。
図13Dは、別の実施形態によるRAN104およびコアネットワーク106のシステム線図である。上記で言及されたようにRAN104は、E−UTRA無線技術を用いて、WTRU102a、102b、102cと、エアインターフェイス116を介して通信し得る。RAN104はさらには、コアネットワーク106との通信の状態にあり得る。
RAN104は、eノード−B160a、160b、160cを含み得るが、RAN104は、実施形態と矛盾しない状態に残りながら、任意の数のeノード−Bを含み得るということが察知されよう。eノード−B160a、160b、160cは各々、WTRU102a、102b、102cと、エアインターフェイス116を介して通信するための、1つまたは複数のトランシーバを含み得る。1つの実施形態では、eノード−B160a、160b、160cは、MIMO技術を実装し得る。したがってeノード−B160aは、例えば、多重のアンテナを使用して、ワイヤレス信号をWTRU102aに送信し、ワイヤレス信号をWTRU102aから受信し得る。
eノード−B160a、160b、160cの各々は、個別のセル(示されない)に関連付けられ得るものであり、無線リソース管理判断、ハンドオーバー判断、アップリンクおよび/またはダウンリンクでのユーザのスケジューリング、ならびに類するものに対処するように構成され得る。図13Dで示されるようにeノード−B160a、160b、160cは、互いにX2インターフェイスを介して通信し得る。
図13Dで示されるコアネットワーク106は、モビリティ管理ゲートウェイ(MME:mobility management gateway)162、サービングゲートウェイ164、および、パケットデータネットワーク(PDN)ゲートウェイ166を含み得る。前述の要素の各々は、コアネットワーク106の部分として図示されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが察知されよう。
MME162は、RAN104内のeノード−B160a、160b、160cの各々に、S1インターフェイスによって接続され得るものであり、制御ノードとしてサービングし得る。例えばMME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラアクティブ化/非アクティブ化、WTRU102a、102b、102cの初期アタッチの間に個別のサービングゲートウェイを選択すること、および類するものに対して責任を負い得る。MME162はさらには、RAN104と、GSMまたはWCDMAなどの他の無線技術を用いる他のRAN(示されない)との間で交換するための制御プレーン機能を提供し得る。
サービングゲートウェイ164は、RAN104内のeノードB160a、160b、160cの各々に、S1インターフェイスによって接続され得る。サービングゲートウェイ164は一般的には、WTRU102a、102b、102cへの/からのユーザデータパケットを、ルーティングおよびフォワーディングし得る。サービングゲートウェイ164はさらには、インターeノードBハンドオーバーの間にユーザプレーンをアンカリングすること、ダウンリンクデータがWTRU102a、102b、102cに対して利用可能であるときにページングをトリガリングすること、WTRU102a、102b、102cのコンテキストを管理および記憶すること、ならびに類することなどの、他の機能を遂行し得る。
サービングゲートウェイ164はさらには、PDNゲートウェイ166に接続され得るものであり、そのPDNゲートウェイ166は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。
コアネットワーク106は、他のネットワークとの通信を容易にし得る。例えばコアネットワーク106は、WTRU102a、102b、102cに、PSTN108などの回路交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前のランドライン通信デバイスとの間の通信を容易にし得る。例えばコアネットワーク106は、コアネットワーク106とPSTN108との間のインターフェイスとしてサービングする、IPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得る、または、そのIPゲートウェイと通信し得る。追加でコアネットワーク106は、WTRU102a、102b、102cに、ネットワーク112へのアクセスを提供し得るものであり、それらのネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得るものである。
図13Eは、別の実施形態によるRAN104およびコアネットワーク106のシステム線図である。RAN104は、IEEE802.16無線技術を用いて、WTRU102a、102b、102cと、エアインターフェイス116を介して通信する、アクセスサービスネットワーク(ASN:access service network)であり得る。下記でさらに論考されることになるように、WTRU102a、102b、102c、RAN104、およびコアネットワーク106の異なる機能エンティティ間の通信リンクは、参照ポイントとして定義され得る。
図13Eで示されるようにRAN104は、基地局170a、170b、170c、およびASNゲートウェイ172を含み得るが、RAN104は、実施形態と矛盾しない状態に残りながら、任意の数の基地局およびASNゲートウェイを含み得るということが察知されよう。基地局170a、170b、170cは各々、RAN104内の個別のセル(示されない)に関連付けられ得るものであり、各々、WTRU102a、102b、102cと、エアインターフェイス116を介して通信するための、1つまたは複数のトランシーバを含み得る。1つの実施形態では、基地局170a、170b、170cは、MIMO技術を実装し得る。したがって基地局170aは、例えば、多重のアンテナを使用して、ワイヤレス信号をWTRU102aに送信し、ワイヤレス信号をWTRU102aから受信し得る。基地局170a、170b、170cはさらには、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービスの品質(QoS)ポリシー強制、および類するものなどのモビリティ管理機能を提供し得る。ASNゲートウェイ172は、トラフィック集約ポイントとしてサービングし得るものであり、ページング、加入者プロファイルのキャッシング、コアネットワーク106へのルーティング、および類するものに対して責任を負い得る。
WTRU102a、102b、102cと、RAN104との間のエアインターフェイス116は、IEEE802.16仕様を実装するR1参照ポイントとして定義され得る。追加で、WTRU102a、102b、102cの各々は、コアネットワーク106との論理インターフェイス(示されない)を確立し得る。WTRU102a、102b、102cと、コアネットワーク106との間の論理インターフェイスは、認証、許可、IPホスト構成管理、および/またはモビリティ管理に対して使用され得る、R2参照ポイントとして定義され得る。
基地局170a、170b、170cの各々の間の通信リンクは、WTRUハンドオーバー、および、基地局間のデータの転送を容易にするためのプロトコルを含む、R8参照ポイントとして定義され得る。基地局170a、170b、170cと、ASNゲートウェイ172との間の通信リンクは、R6参照ポイントとして定義され得る。R6参照ポイントは、WTRU102a、102b、102cの各々に関連付けられるモビリティイベントに基づくモビリティ管理を容易にするためのプロトコルを含み得る。
図13Eで示されるようにRAN104は、コアネットワーク106に接続され得る。RAN104とコアネットワーク106との間の通信リンクは、例えば、データ転送およびモビリティ管理能力を容易にするためのプロトコルを含む、R3参照ポイントとして定義され得る。コアネットワーク106は、移動IPホームエージェント(MIP−HA:mobile IP home agent)174、認証、許可、アカウンティング(AAA:authentication, authorization, accounting)サーバ176、およびゲートウェイ178を含み得る。前述の要素の各々は、コアネットワーク106の部分として図示されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが察知されよう。
MIP−HA174は、IPアドレス管理に対して責任を負い得るものであり、WTRU102a、102b、102cが、異なるASNおよび/または異なるコアネットワークの間でローミングすることを可能にし得る。MIP−HA174は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。AAAサーバ176は、ユーザ認証に対して、および、ユーザサービスをサポートすることに対して責任を負い得る。ゲートウェイ178は、他のネットワークとのインターワーキングを容易にし得る。例えばゲートウェイ178は、WTRU102a、102b、102cに、PSTN108などの回路交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前のランドライン通信デバイスとの間の通信を容易にし得る。追加でゲートウェイ178は、WTRU102a、102b、102cに、ネットワーク112へのアクセスを提供し得るものであり、それらのネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得るものである。
図13Eでは示されないが、RAN104は他のASNに接続され得るものであり、コアネットワーク106は他のコアネットワークに接続され得るということが察知されよう。RAN104と他のASNとの間の通信リンクは、R4参照ポイントとして定義され得るものであり、そのR4参照ポイントは、RAN104と他のASNとの間の、WTRU102a、102b、102cのモビリティを協調させるためのプロトコルを含み得る。コアネットワーク106と他のコアネットワークとの間の通信リンクは、R5参照として定義され得るものであり、そのR5参照は、ホームコアネットワークと、訪問されるコアネットワークとの間のインターワーキングを容易にするためのプロトコルを含み得る。
本明細書で説明されるプロセスおよび手段は、任意の組み合わせで適用し得るものであり、他のワイヤレス技術に、および他のサービスに対して適用し得る。
WTRUは、物理デバイスのアイデンティティを、または、加入に関係付けられるアイデンティティ、例えばMSISDN、SIP URI、その他などの、ユーザのアイデンティティを参照し得る。WTRUは、アプリケーションに基づくアイデンティティ、例えば、アプリケーションごとに使用され得るユーザ名を参照し得る。
上記で説明されたプロセスは、コンピュータおよび/またはプロセッサによる実行のためにコンピュータ可読メディアに組み込まれる、コンピュータプログラム、ソフトウェア、および/またはファームウェアで実装され得る。コンピュータ可読メディアの例は、電子信号(ワイヤードおよび/またはワイヤレス接続を介して送信される)、および/またはコンピュータ可読記憶メディアを含むが、それらに制限されない。コンピュータ可読記憶メディアの例は、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび取り外し可能ディスクなどの、ただしそれらに制限されない磁気メディア、磁気光学メディア、ならびに/または、CD−ROMディスクおよび/もしくはデジタルバーサタイルディスク(DVD)などの光学メディアを含むが、それらに制限されない。ソフトウェアとの関連の状態にあるプロセッサは、WTRU、UE、端末、基地局、RNC、および/または、任意のホストコンピュータでの使用のための無線周波数トランシーバを実装するために使用され得る。

Claims (22)

  1. パレットモードによるビデオデータコーディングのための方法であって、
    前のコーティングユニットに関連付けられた前のパレット表および前記前のコーティングユニットに関連付けられた前のパレット表予測子に基づいて現在のコーディングユニットについてのパレット表予測子を生成することであり、前記パレット表予測子は複数の予測子色を含む、ことと、
    前記現在のコーディングユニットの複数の代表色を識別することと、
    前記現在のコーディングユニットの前記複数の代表色を前記複数の予測子色と比較し、前記パレット表予測子の中にない各代表色について、
    前記パレット表予測子の中の対応する予測子色を識別し、
    前記代表色と前記対応する予測子色から、それぞれのレート歪みコストに基づいて、前記現在のコーディングユニットに関連付けられたパレット表に含めるパレット色を選択し、
    前記現在のコーディングユニットに関連付けられた前記パレット表に前記選択されたパレット色を含めるかどうかを決定し、
    前記決定に基づいて前記現在のコーディングユニットに関連付けられた前記パレット表を更新する、ことと、
    前記現在のコーディングユニットについての前記パレット表予測子に基づいて、前記現在のコーティングユニットに関連付けられたパレット表を予測することと、
    前記現在のコーディングユニットに関連付けられた前記パレット表を使用して前記現在のコーディングユニットをパレットコーディングすることと
    を備える、方法。
  2. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記前のコーティングユニットに関連付けられた前記前のパレット表および前記前のコーティングユニットに関連付けられた前記前のパレット表予測子をマージすることをさらに含む、請求項1に記載の方法。
  3. 前記マージすることは、最大パレット予測子サイズによ制限されている、請求項2に記載の方法。
  4. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記現在のコーディングユニットについての前記パレット表予測子に、前記前のコーディングユニットに関連付けられた前記前のパレット表のうちの複数のエントリを加えることをさらに備える、請求項1に記載の方法。
  5. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記現在のコーディングユニットについての前記パレット表予測子に、前記前のコーディングユニットに関連付けられた前記前のパレット表のうちの前記複数のエントリの後ろに前記前のコーディングユニットに関連付けられた前記前のパレット表予測子の少なくとも1つのエントリを加えることをさらに備える、請求項4に記載の方法。
  6. 前記前のコーディングユニットに関連付けられた前記前のパレット表予測子の少なくとも1つのエントリは、前記前のコーディングユニットに関連付けられた前記前のパレット表において代表されていない色に対応する、請求項5に記載の方法。
  7. 前記現在のコーディングユニットに関連付けられた前記パレット表は、1つまたは複数の色インデックスを含み、色インデックスは、前記現在のコーディングユニット内の色に対応する、請求項1に記載の方法。
  8. 前記現在のコーディングユニットの1つまたは複数のピクセルを、前記現在のコーティングユニットに関連づけられた前記パレット表中の色インデックスへ、マッピングするパレットインデックスマップを生成することと、
    前記現在のコーティングユニットの少なくとも一部分に関連付けられた前記パレットインデックスマップ内の値を表示するパレットインデックスマップ予測子データを生成することと
    をさらに備える、請求項1に記載の方法。
  9. パレットモードでビデオデータをコーディングするためのビデオコーダであって、
    プロセッサ実行可能命令を実行するように構成されたプロセッサと、
    前記プロセッサにより実行されるときに、前記プロセッサに、
    前のコーティングユニットに関連付けられた前のパレット表および前記前のコーティングユニットに関連付けられた前のパレット表予測子に基づいて現在のコーディングユニットについてのパレット表予測子を生成することであり、前記パレット表予測子は複数の予測子色を含む、ことと、
    前記現在のコーディングユニットの複数の代表色を識別することと、
    前記現在のコーディングユニットの前記複数の代表色を前記複数の予測子色と比較し、前記パレット表予測子の中にない各代表色について、
    前記パレット表予測子の中の対応する予測子色を識別し、
    前記代表色と前記対応する予測子色から、それぞれのレート歪みコストに基づいて、前記現在のコーディングユニットに関連付けられたパレット表に含めるパレット色を選択し、
    前記現在のコーディングユニットに関連付けられた前記パレット表に前記選択されたパレット色を含めるかどうかを決定し、
    前記決定に基づいて前記現在のコーディングユニットに関連付けられた前記パレット表を更新する、ことと、
    前記現在のコーディングユニットについての前記パレット表予測子に基づいて、前記現在のコーティングユニットに関連付けられたパレット表を予測することと、
    前記現在のコーディングユニットに関連付けられた前記パレット表を使用して前記現在のコーディングユニットをパレットコーディングすることと
    を生じさせる命令を記憶しているメモリと
    を備えた、ビデオコーダ。
  10. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記前のコーティングユニットに関連付けられた前記前のパレット表および前記前のコーティングユニットに関連付けられた前記前のパレット表予測子をマージすることをさらに含む、請求項9に記載のビデオコーダ。
  11. 前記マージすることは、最大パレット予測子サイズによ制限されている、請求項10に記載のビデオコーダ。
  12. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記現在のコーディングユニットについての前記パレット表に、前記前のコーディングユニットに関連付けられた前記前のパレット表のうちの複数のエントリを加えることをさらに備える、請求項9に記載のビデオコーダ。
  13. 前記現在のコーディングユニットについての前記パレット表予測子を生成することは、
    前記現在のコーディングユニットについての前記パレット表予測子に、前記前のコーディングユニットに関連付けられた前記前のパレット表のうちの前記複数のエントリの後ろに前記前のコーディングユニットに関連付けられた前記前のパレット表予測子の少なくとも1つのエントリを加えることをさらに備える、請求項12に記載のビデオコーダ。
  14. 前記前のコーディングユニットに関連付けられた前記前のパレット表予測子の少なくとも1つのエントリは、前記前のコーディングユニットに関連付けられた前記前のパレット表において代表されていない色に対応する、請求項13に記載のビデオコーダ。
  15. 前記現在のコーディングユニットに関連付けられた前記パレット表は、1つまたは複数の色インデックスを含み、色インデックスは、前記現在のコーディングユニット内の色に対応する、請求項9に記載のビデオコーダ。
  16. 前記プロセッサは、
    前記現在のコーディングユニットの1つまたは複数のピクセルを、前記現在のコーティングユニットに関連づけられた前記パレット表中の色インデックスへ、マッピングするパレットインデックスマップを生成し、
    前記現在のコーティングユニットの少なくとも一部分に関連付けられた前記パレットインデックスマップ内の値を表示するパレットインデックスマップ予測子データを生成する
    ようにさらに構成された、請求項9に記載のビデオコーダ。
  17. 前記パレット色を選択することは、
    前記現在のコーディングユニットに関連付けられた前記パレット表に前記代表色を含めることに関連付けられた第1のレート歪みコストを計算することと、
    前記現在のコーディングユニットに関連付けられた前記パレット表に前記対応する予測子色を含めることに関連付けられた第2のレート歪みコストを計算することと、
    前記第2のレート歪みコストが前記第1のレート歪みコストよりも小さいという条件で、前記パレット表の中の前記対応する予測子色を選択することと
    をさらに備える、請求項1に記載の方法。
  18. 前記パレット表に前記代表色を含めることに関連付けられた前記第1のレート歪みコストは、前記代表色をコーディングすることに関連付けられた前記予測子色およびビット数を用いて対応する色クラスタの複数のピクセルをコーディングすることに関連付けられた歪みの関数として、計算される、請求項17に記載の方法。
  19. 前記パレット表に前記予測子色を含めることに関連付けられた前記第2のレート歪みコストは、前記パレット表に前記予測子色を含めることに関連付けられた前記予測子色およびビット数を用いて対応する色クラスタの複数のピクセルをコーディングすることに関連付けられた歪みの関数として、計算される、請求項17に記載の方法。
  20. 前記パレット表に前記予測子色を含めることに関連付けられた前記ビット数は、前記パレット表予測子および前記パレット表のサイズに基づいて計算される、請求項19に記載の方法。
  21. 前記パレット表に前記選択されたパレット色を含めるかどうかを決定することは、
    前記現在のコーディングユニットに関連付けられた前記パレット表から前記選択されたパレット色を除外することに関連付けられた第3のレート歪みコストを計算することであって、前記第3のレート歪みコストが前記第1のレート歪みコストまたは前記第2のレート歪みコストよりも大きいという条件で前記選択されたパレット色が前記現在のコーディングユニットに関連付けられた前記パレット表に含められ、前記第3のレート歪みコストが前記第1のレート歪みコストまたは前記第2のレート歪みコストよりも小さいという条件で前記選択されたパレット色が前記現在のコーディングユニットに関連付けられた前記パレット表から除外される、ことをさらに備える、請求項17に記載の方法。
  22. 前記現在のコーディングユニットに関連付けられた前記パレット表から前記選択されたパレット色を除外することに関連付けられた前記第3のレート歪みコストは、エスケープ色として前記選択されたパレット色をコーディングすることに関連付けられたコーディングビット数およびエスケープ色として前記選択されたパレット色をコーディングすることに関連付けられた歪みの関数として、計算される、請求項21に記載の方法。
JP2016544550A 2014-01-02 2015-01-02 スクリーンコンテンツコーディングのための2次元パレットコーディング Active JP6322713B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201461923132P 2014-01-02 2014-01-02
US61/923,132 2014-01-02
US201461953704P 2014-03-14 2014-03-14
US61/953,704 2014-03-14
US201461974961P 2014-04-03 2014-04-03
US61/974,961 2014-04-03
US201462002144P 2014-05-22 2014-05-22
US62/002,144 2014-05-22
US201462016562P 2014-06-24 2014-06-24
US62/016,562 2014-06-24
PCT/US2015/010067 WO2015103496A2 (en) 2014-01-02 2015-01-02 Two-demensional palette coding for screen content coding

Publications (2)

Publication Number Publication Date
JP2017511990A JP2017511990A (ja) 2017-04-27
JP6322713B2 true JP6322713B2 (ja) 2018-05-09

Family

ID=52432933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544550A Active JP6322713B2 (ja) 2014-01-02 2015-01-02 スクリーンコンテンツコーディングのための2次元パレットコーディング

Country Status (9)

Country Link
US (2) US10055189B2 (ja)
EP (1) EP3090559A2 (ja)
JP (1) JP6322713B2 (ja)
KR (1) KR101951083B1 (ja)
CN (1) CN105900432B (ja)
CA (1) CA2935559C (ja)
SG (1) SG11201605410UA (ja)
TW (1) TWI658721B (ja)
WO (1) WO2015103496A2 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11259020B2 (en) 2013-04-05 2022-02-22 Qualcomm Incorporated Determining palettes in palette-based video coding
US9558567B2 (en) * 2013-07-12 2017-01-31 Qualcomm Incorporated Palette prediction in palette-based video coding
CA2925183C (en) 2013-10-14 2020-03-10 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
US10291827B2 (en) 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution
US10972742B2 (en) * 2013-12-19 2021-04-06 Canon Kabushiki Kaisha Encoding process using a palette mode
US9699468B2 (en) * 2014-02-10 2017-07-04 Microsoft Technology Licensing, Llc Adaptive screen and video coding scheme
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
CN106030651B (zh) 2014-03-21 2019-06-07 华为技术有限公司 利用改进的颜色表和索引图编码方法的高级屏幕内容编码
US10264285B2 (en) 2014-05-22 2019-04-16 Qualcomm Incorporated Coding runs in palette-based video coding
US10750198B2 (en) 2014-05-22 2020-08-18 Qualcomm Incorporated Maximum palette parameters in palette-based video coding
US10091512B2 (en) 2014-05-23 2018-10-02 Futurewei Technologies, Inc. Advanced screen content coding with improved palette table and index map coding methods
US10136141B2 (en) * 2014-06-11 2018-11-20 Qualcomm Incorporated Determining quantization parameter (QP) values and delta QP values for palette coded blocks in video coding
US9924175B2 (en) 2014-06-11 2018-03-20 Qualcomm Incorporated Determining application of deblocking filtering to palette coded blocks in video coding
CN110278437B (zh) * 2014-06-20 2022-03-08 寰发股份有限公司 一种视频数据块的编码方法
CA2959682C (en) 2014-09-30 2022-12-06 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
CN105491379A (zh) * 2014-10-01 2016-04-13 财团法人工业技术研究院 解码器、编码器、解码方法、编码方法与编解码系统
US9848198B2 (en) 2014-10-06 2017-12-19 Qualcomm Incorporated Diagonal copy for palette mode coding
WO2016057323A1 (en) * 2014-10-06 2016-04-14 Huawei Technologies Co., Ltd. Improved palette mode in high efficiency video coding (hevc) screen content coding (scc)
EP3007423A1 (en) * 2014-10-06 2016-04-13 Industrial Technology Research Institute Method of color palette coding applicable to electronic device and electronic device using the same
US20160112724A1 (en) 2014-10-15 2016-04-21 Qualcomm Incorporated Hrd descriptor and buffer model of data streams for carriage of hevc extensions
JP6122516B2 (ja) * 2015-01-28 2017-04-26 財團法人工業技術研究院Industrial Technology Research Institute エンコーディング方法及びエンコーダ
US10212434B2 (en) 2015-01-30 2019-02-19 Qualcomm Incorporated Palette entries coding in video coding
US9942551B2 (en) * 2015-01-30 2018-04-10 Qualcomm Incorporated Palette index grouping for video coding
US9900624B2 (en) * 2015-02-05 2018-02-20 Mediatek Inc. Methods and apparatus of decoding process for palette syntax
US9460365B1 (en) * 2015-03-24 2016-10-04 Intel Corporation Clustered palette compression
WO2016197314A1 (en) 2015-06-09 2016-12-15 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
US20160366439A1 (en) * 2015-06-12 2016-12-15 Qualcomm Incorporated Palette copy extension
GB2539486B (en) * 2015-06-18 2019-07-31 Gurulogic Microsystems Oy Encoder, decoder and method employing palette compression
US10356432B2 (en) * 2015-09-14 2019-07-16 Qualcomm Incorporated Palette predictor initialization and merge for video coding
US10390071B2 (en) * 2016-04-16 2019-08-20 Ittiam Systems (P) Ltd. Content delivery edge storage optimized media delivery to adaptive bitrate (ABR) streaming clients
CN110024383B (zh) * 2016-09-23 2024-03-08 弗劳恩霍夫应用研究促进协会 图像压缩技术
CN106604032B (zh) * 2016-11-29 2020-02-04 西安万像电子科技有限公司 图像中文字块的压缩方法和装置及图像压缩方法和装置
CN106851294B (zh) * 2017-01-03 2018-08-14 西安万像电子科技有限公司 图像的压缩方法和装置及其文字块的压缩方法和装置
US11171665B2 (en) * 2017-09-11 2021-11-09 Nyriad Limited Dictionary-based data compression
WO2019190907A1 (en) * 2018-03-30 2019-10-03 Vid Scale, Inc Template-based inter prediction techniques based on encoding and decoding latency reduction
US10848787B2 (en) 2018-08-28 2020-11-24 Google Llc Lossy image compression using palettization of locally mixed colors
US11695919B2 (en) 2018-08-28 2023-07-04 Google Llc Lossy image compression using palettization of locally mixed colors
US10951895B2 (en) 2018-12-31 2021-03-16 Alibaba Group Holding Limited Context model selection based on coding unit characteristics
EP3977731A4 (en) * 2019-05-31 2023-03-15 Beijing Dajia Internet Information Technology Co., Ltd. METHODS AND APPARATUS FOR SEGMENT-BASED VIDEO CODING USING PALETTE MODE
BR112022001981A2 (pt) 2019-08-06 2022-05-10 Beijing Bytedance Network Tech Co Ltd Método e aparelho de processamento de vídeo, e, mídia legível por computador
CN114930822A (zh) 2019-08-15 2022-08-19 字节跳动有限公司 用于调色板逸出符号的熵编解码
EP4000269A4 (en) 2019-08-15 2022-09-07 ByteDance Inc. PALLET MODE WITH DIFFERENT DIVISION STRUCTURES
WO2021040460A1 (ko) * 2019-08-30 2021-03-04 주식회사 케이티 비디오 신호 처리 방법 및 장치
MX2022002188A (es) 2019-09-02 2022-03-11 Beijing Bytedance Network Tech Co Ltd Determinacion de modo de codificacion basada en formato de color.
JP2022548737A (ja) 2019-09-19 2022-11-21 バイトダンス インコーポレイテッド パレット・モードのための量子化パラメータ導出
KR102649584B1 (ko) 2019-09-21 2024-03-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 인트라 모드에 기초한 크기 제한
WO2021060845A1 (ko) * 2019-09-23 2021-04-01 엘지전자 주식회사 사용자 정의 팔레트 엔트리를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN114208172A (zh) * 2019-09-24 2022-03-18 北京达佳互联信息技术有限公司 执行用于调色板模式的率失真分析的方法和装置
US11076151B2 (en) * 2019-09-30 2021-07-27 Ati Technologies Ulc Hierarchical histogram calculation with application to palette table derivation
US11120289B2 (en) * 2019-09-30 2021-09-14 Ati Technologies Ulc Parallel histogram calculation with application to palette table derivation
US11451801B2 (en) * 2019-12-26 2022-09-20 Alibaba Group Holding Limited Methods for coding video data in palette mode
US11792408B2 (en) 2020-03-30 2023-10-17 Alibaba Group Holding Limited Transcoder target bitrate prediction techniques
US11470327B2 (en) 2020-03-30 2022-10-11 Alibaba Group Holding Limited Scene aware video content encoding
US11386873B2 (en) 2020-04-01 2022-07-12 Alibaba Group Holding Limited Method and apparatus for efficient application screen compression
CN112231685B (zh) * 2020-10-16 2023-11-24 广州零世纪信息科技有限公司 设备认证方法、装置、计算机设备和存储介质
CN113032699B (zh) * 2021-03-04 2023-04-25 广东博智林机器人有限公司 机器人的模型构建方法、模型构建装置和处理器
WO2023200302A1 (ko) * 2022-04-14 2023-10-19 주식회사 케이티 영상 부호화/복호화 방법 및 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385337B1 (en) * 1998-12-21 2002-05-07 Xerox Corporation Method of selecting colors for pixels within blocks for block truncation encoding
US7091985B1 (en) * 2000-05-16 2006-08-15 International Business Machines Corporation System and method for compressing color data using expandable color palette
JP4033836B2 (ja) * 2002-02-01 2008-01-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可変長カラー・コードを用いる、パレット化されたカラー画像の圧縮
US7016547B1 (en) * 2002-06-28 2006-03-21 Microsoft Corporation Adaptive entropy encoding/decoding for screen capture content
US8243340B2 (en) * 2006-02-23 2012-08-14 Microsoft Corporation Pre-processing of image data for enhanced compression
CN101645173B (zh) * 2008-12-16 2012-05-16 中国科学院声学研究所 一种随机调色板编码系统及方法
CN102611888B (zh) * 2011-11-18 2014-07-23 北京工业大学 一种对屏幕内容的编码方法
US11259020B2 (en) * 2013-04-05 2022-02-22 Qualcomm Incorporated Determining palettes in palette-based video coding
US9558567B2 (en) * 2013-07-12 2017-01-31 Qualcomm Incorporated Palette prediction in palette-based video coding
US10291827B2 (en) * 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution
PL3425914T3 (pl) 2013-12-10 2022-02-14 Canon Kabushiki Kaisha Sposób i aparatura do kodowania lub dekodowania palety w trybie kodowania palety
RU2679566C1 (ru) * 2013-12-10 2019-02-11 Кэнон Кабусики Кайся Улучшенный палитровый режим в hevc
US10972742B2 (en) * 2013-12-19 2021-04-06 Canon Kabushiki Kaisha Encoding process using a palette mode
WO2015096157A1 (en) * 2013-12-27 2015-07-02 Mediatek Inc. Patterns of major color index map in palette coding
US9906799B2 (en) * 2014-06-20 2018-02-27 Qualcomm Incorporated Copy from previous rows for palette mode coding

Also Published As

Publication number Publication date
TWI658721B (zh) 2019-05-01
SG11201605410UA (en) 2016-07-28
US10055189B2 (en) 2018-08-21
WO2015103496A8 (en) 2016-08-11
WO2015103496A2 (en) 2015-07-09
US11036459B2 (en) 2021-06-15
TW201536027A (zh) 2015-09-16
EP3090559A2 (en) 2016-11-09
JP2017511990A (ja) 2017-04-27
KR20160104695A (ko) 2016-09-05
CN105900432A (zh) 2016-08-24
CN105900432B (zh) 2019-05-10
US20150186100A1 (en) 2015-07-02
CA2935559A1 (en) 2015-07-09
CA2935559C (en) 2018-11-20
US20180307457A1 (en) 2018-10-25
WO2015103496A3 (en) 2015-08-27
KR101951083B1 (ko) 2019-05-10

Similar Documents

Publication Publication Date Title
JP6322713B2 (ja) スクリーンコンテンツコーディングのための2次元パレットコーディング
JP6684867B2 (ja) Rgbビデオコーディングエンハンスメントのためのシステムおよび方法
JP6725596B2 (ja) スクリーンコンテンツ符号化のためのパレット符号化
KR102131142B1 (ko) 인트라-블록 카피 검색
CN107431817B (zh) 用于调色板译码的方法及装置
CN110677656A (zh) 执行调色板解码的方法及解码设备
CN111601110A (zh) 用于调色编码模式的逃逸色彩编码

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6322713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250