JP2019013029A - 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法 - Google Patents

3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法 Download PDF

Info

Publication number
JP2019013029A
JP2019013029A JP2018167265A JP2018167265A JP2019013029A JP 2019013029 A JP2019013029 A JP 2019013029A JP 2018167265 A JP2018167265 A JP 2018167265A JP 2018167265 A JP2018167265 A JP 2018167265A JP 2019013029 A JP2019013029 A JP 2019013029A
Authority
JP
Japan
Prior art keywords
vidx
image
layer
bits
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018167265A
Other languages
English (en)
Other versions
JP6694031B2 (ja
Inventor
ユーウェン ホー
yu-wen He
ユーウェン ホー
イエ イエン
Yan Ye
イエ イエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of JP2019013029A publication Critical patent/JP2019013029A/ja
Application granted granted Critical
Publication of JP6694031B2 publication Critical patent/JP6694031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】カラーガマット変換を伴うスケーラブル符号化において3次元ルックアップ表を効率的に復号する方法を提供する。【解決手段】SHVCエンコーダにおいて、3次元ルックアップ表のカラーマッピング係数に関連付けられた予測残差値のエントロピーコーディング時に全体的なコストを最小化するよう適応的に決定された固定長のLSBのビット数を示す情報に基づいてLSBを復号し、LSBのビット数とMSBを示す情報に基づいてMSBを復号することにより予測残差値を導出する。【選択図】図5

Description

関連出願の相互参照
本出願は、2014年6月19日に出願された米国特許仮出願第62/014610号明細書、および、2014年6月26日に出願された米国特許仮出願第62/017743号明細書に対する優先権を主張するものであり、それらの米国特許仮出願の各々は、「SYSTEMS AND METHODS FOR MODEL PARAMETER OPTIMIZATION IN THREE DIMENSIONAL BASED COLOR MAPPING」と表題を付けられ、それらの米国特許仮出願の各々は、本明細書に参照によりその全体が組み込まれている。
近年では無線技術は、より高いデータスループットレート、および、より低いレイテンシを要望してきている。この要望の動因となる1つのありふれた用途は、移動デバイス(さらには「ユーザ機器」または簡単に「UE」と呼称される)上のビデオレンダリングである。キャリアアグリゲーションおよびマルチRAT(無線アクセス技術(Radio Access Technology))能力が、そのような用途、および、大きな数量のデータを使用する他のサービスにより要望される、より高いデータレートに対する必要性に対処する一助となるように導入されている。キャリアアグリゲーションは、オペレータが、それらのデータトラフィックの一部をセカンダリセルにオフロードすることを可能とし得る(例えば、セカンダリコンポーネントキャリア上で送信される)。RATアグリゲーションなどのマルチRAT技術の使用は、多重のRATによる受信および/または送信を、例えば同時に可能とし得る。一体で使用され得るそのようなRATは、広帯域コード分割多重アクセス(WCDMA(登録商標):Wideband Code Division Multiple Access)とともに使用されるロングタームエボリューション(LTE)、WiFi(登録商標)とともに使用されるLTE、その他を含み得る。そのようなアグリゲーション手法では、evolvedノードB(eNB)およびUEは、多重の並行経路によって通信し得る。
様々なデジタルビデオ圧縮技術が、効率的なデジタルビデオ通信、分配、および消費を支援するために開発されてきた。広く配備された標準は、H.261、H.263、およびH.264などの国際電気通信連合(ITU)コーディング標準、ならびに、MPEG−1、MPEG−2、MPEG−4パート2、およびMPEG−4パート10アドバンストビデオコーディング(AVC:Advanced Video Coding)などの他の標準を含む。別のビデオコーディング標準、高効率ビデオコーディング(HEVC)が、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)、および、国際標準化機構/国際電気標準会議(ISO/IEC)ムービングピクチャエキスパートグループ(MPEG)により開発されてきた。HEVC標準は、H.264およびMPEG−4パート10AVCを使用して可能なものの2倍の圧縮効率を達成し得る。したがって帯域幅利用の見地では、HEVCは、同じまたは同様のビデオ品質を提供しながら、H.264またはMPEG−4パート10AVCの半分のビットレートを要する。
スマートフォン、タブレット、その他などの移動デバイスの使用が増大するにつれて、無線ネットワークによるビデオコンテンツおよびサービスに対する、対応する増大される要望が存する。したがって、コンピューティングパワー、メモリ、記憶サイズ、ディスプレイ分解能、ディスプレイフレームレート、ディスプレイカラーガマット、その他の見地での、広く変動する能力の移動デバイスは、今日の移動デバイス市場で成功となるように、ビデオ消費に順応することを求められることになる。同じように、そのようなデバイスが通信する無線ネットワークがさらには、ビデオサービス、ならびに、他の帯域幅集中型サービスおよびアプリケーションに順応することを求められることになる。
ビデオ復号での使用のための3次元ルックアップ表パラメータを復号するためのシステム、方法、およびデバイスが開示される。実施形態では方法、システム、およびデバイスは、デルタ値、予測残差値の最上位ビット、および、予測残差値の最下位ビットを受信することにより、ビデオ復号での使用のための3次元ルックアップ表パラメータを復号するために実行され得る。予測残差値は、固定された長さコーディング(以下、固定長コーディング)される最下位ビットの量を表す第1の値を、デルタ値をベースにして決定することと、予測残差値の最下位ビットを、第1の値をベースにして決定することと、予測残差値を、予測残差値の最上位ビット、および、予測残差値の最下位ビットを使用して組み立てることとにより生成され得る。予測残差値は、Yカラーコンポーネント、Uカラーコンポーネント、またはVカラーコンポーネントの1つに関連付けられ得る。予測残差値の正負符号は、受信され、予測残差値を組み立てるために使用され得る。予測残差値を組み立てることは、予測残差値の最上位ビットを第1の値だけ左ビットシフトすること、予測残差値の最下位ビットを予測残差値に加算すること、および/または、予測残差値の正負符号を予測残差値に付与することを含み得る。予測残差値は、カラーコンポーネント、3次元ルックアップ表パラメータ、および3次元ルックアップ表オクタントの少なくとも1つに関連付けられ得る。
ビデオ符号化での使用のための3次元ルックアップ表パラメータを符号化するためのシステム、方法、およびデバイスが、さらには開示される。実施形態では方法、システム、およびデバイスは、予測残差値を決定することと、デルタ値を、予測残差値の最下位ビットの量をベースにして決定することと、デルタ値を符号化することとにより、ビデオ符号化での使用のための3次元ルックアップ表パラメータをコーディングするために実行され得る。予測残差値の最上位ビットおよび/または最下位ビットは、デルタ値をベースにして符号化され得る。デルタ値を決定することは、3次元ルックアップ表データを決定すること、および/または、デルタ値を、3次元ルックアップ表データをベースにして決定することを含み得る。デルタ値を決定することはさらには、3次元ルックアップ表データをコーディングするために要されるビットの第1の量を、第1のデルタ値をベースにして決定することと、3次元ルックアップ表データをコーディングするために要されるビットの第2の量を、第2のデルタ値をベースにして決定することと、第1のデルタ値および第2のデルタ値の1つをデルタ値として、ビットの第1の量およびビットの第2の量をベースにして選択することとを含み得る。第1のデルタ値および第2のデルタ値の1つを選択することは、ビットの第1の量はビットの第2の量より小さいか、それとも、ビットの第2の量はビットの第1の量より小さいかをベースにし得る。3次元ルックアップ表データをコーディングするために要されるビットの量を、デルタ値をベースにして決定することは、モデルパラメータを3次元ルックアップ表の1つのオクタントに対してコーディングするために要されるビットの量を合計することを含み得る。予測残差値の正負符号は、さらには符号化され得る。開示される主題のこれらおよび他の態様が、下記で論述される。
開示される実施形態を実行するための例システムを例示する図である。 開示される実施形態を実行するための例システムを例示する図である。 HDTVおよびUHDTVをCIE鮮明度で比較する例グラフを例示する図である。 例イメージを示す図である。 別の例イメージを示す図である。 開示される実施形態を実行するための例システムを例示する図である。 実施形態による例3D LUTベースのマッピングを例示する図である。 実施形態による例3D LUTベースのマッピングを例示する図である。 実施形態による例予測構造を例示する図である。 実施形態による別の例予測構造を例示する図である。 開示される実施形態を実行する例方法を例示する図である。 開示される主題が実行され得る、例通信システムのシステム線図である。 図11Aで例示される通信システムの内部で使用され得る、例無線送受信ユニット(WTRU)のシステム線図である。 図11Aで例示される通信システムの内部で使用され得る、例無線アクセスネットワーク、および例コアネットワークのシステム線図である。 図11Aで例示される通信システムの内部で使用され得る、別の例無線アクセスネットワーク、および例コアネットワークのシステム線図である。 図11Aで例示される通信システムの内部で使用され得る、別の例無線アクセスネットワーク、および例コアネットワークのシステム線図である。
例示的な例の詳細な説明が、次に、様々な図への参照によって説明されることになる。本説明は、可能な実行の詳細な例を提供するが、詳細は、例示的でのみあることを意図され、用途の範囲を決して制限しないということが留意されるべきである。
様々なデジタルビデオ圧縮技術が、効率的なデジタルビデオ通信、分配、および消費を可能にするために使用され得る。そのような効率的なデジタルビデオ通信、分配、および消費を可能にするために使用され得る標準の例は、H.261、MPEG−1、MPEG−2、H.263、MPEG−4パート2、およびH.264/MPEG−4パート10AVCなどの、ISO/IECおよび/またはITU−Tにより開発されたものを含み得る。HEVCは、そのような標準の別の例である。HEVCのバージョンは、ITU−T VCEGおよびISO/IEC MPEGにより共同で標準化されてきた。本明細書で記されるように、HEVC標準は、H.264/AVCによって達成可能であり得る圧縮効率の2倍の圧縮効率を達成し得る。
デジタルビデオサービスは、衛星、ケーブル、および/または地上ブロードキャスティングチャネルによるTVサービスを使用して提供され得る。移動デバイス上でのインターネットが、分解能、メモリ、記憶、および計算能力での増大される能力を伴う、スマートフォンおよびタブレットの近時の成長とともに、よりありふれたものとなるにつれて、より多くのビデオアプリケーション(例えば、ビデオチャット、移動ビデオ記録および共有、ならびにビデオストリーミング)は、よりありふれたものとなり得るものであり、異種環境(すなわち、変動する能力のデバイスを含み得る環境)でのビデオ送信を要し得る。そのようなシナリオでのデバイスは、3スクリーンまたはNスクリーンデバイスと呼称され得るものであり、コンピューティングパワー、メモリ/記憶サイズ、ディスプレイ分解能、ディスプレイフレームレート、ディスプレイカラーガマット、その他の見地での、様々なタイプおよび能力を有し得る。そのようなデバイスの例は、PC、スマートフォン、タブレット、TV、その他を含み得る。そのようなデバイスは、インターネットによるビデオ消費に順応して、ユーザを満足させ得る。
ビデオ消費を容易にし得るネットワークおよび送信チャネルは、例えば、パケット損失レート、利用可能なチャネル帯域幅、バーストエラーレート、その他の見地での、広く変動する特性を有し得る。ビデオコンテンツトラフィックは、有線ネットワークおよび無線ネットワークの組み合わせによって送信され得るので、基礎となる送信チャネル特性は、複雑にされたものとなり得る。そのようなシナリオではスケーラブルビデオコーディング技術が、異種ネットワークによって、異なる能力を伴うデバイス上で走るビデオアプリケーションに対するエクスペリエンスの品質を改善し得る、魅力的な解決策を提供し得る。スケーラブルビデオコーディングは、信号を一旦、その最も高い表現(時間的分解能、空間的分解能、品質、その他)で符号化し得るものであり、ならびに/または、一部の実施形態では、与えられるアプリケーションにより、および/もしくは、与えられるクライアントデバイスにより要求される、特定のレートおよび/もしくは表現に依存して、1もしくは複数のビデオストリームのサブセットから復号することを可能にし得る。スケーラブルビデオコーディングは、非スケーラブル解決策と比較されると、帯域幅および/または記憶を節約し得る。国際ビデオ標準MPEG−2ビデオ、H.263、MPEG4ビジュアル、およびH.264は各々、スケーラビリティの少なくとも一部のモードをサポートする、ツールおよび/またはプロファイルを有し得る。
図1は、ブロックベースのハイブリッドスケーラブルビデオ符号化システムを表し得る、例示的なシステム1000を例示するブロック線図である。レイヤ1 1071(例えば、ベースレイヤ)により表されることになる空間的/時間的信号分解能は、第一に、入力ビデオ信号1081をダウンサンプリングすること1031と、それをレイヤ1エンコーダ1001に提供することとにより生成され得る。量子化器セッティングQ1061が、エンコーダ1001を、決まった品質レベルのベースレイヤ信号を提供するように構成するために、エンコーダ1001に提供され得る。レイヤ1 1071符号化された信号は、再構築されたビデオ信号1091を生成し得るレイヤ1デコーダ1021に提供され得る。レイヤ1デコーダ1021は、符号化されたレイヤ1信号を復号するための品質レベルを指定する量子化器セッティング1064によって構成され得る。
ベースレイヤ再構築されたビデオ信号1091は、より高いレイヤ分解能レベルの一部またはすべての近似であり得る。再構築されたビデオ信号1091は、例えば、後続のより高いレイヤをより効率的に符号化するために、後続のレイヤの符号化および/または復号で利用され得る。アップサンプリングユニット1043は、ベースレイヤ再構築された信号1091の、レイヤ2 1072の分解能へのアップサンプリングを実行し、そのようなアップサンプリングされた信号を、レイヤ2デコーダ1022により復号されるレイヤ2 1072復号された信号に加算すること1054のために提供し得る。レイヤ2デコーダ1022は、符号化されたレイヤ2信号を復号するための品質レベルを指定する量子化器セッティング1065によって構成され得る。同様のアップサンプリングおよび信号加算が、一部またはすべてのレイヤ(例えば、レイヤ1、2、…N)の全体を通して、例えば信号加算1055、アップサンプリング1044、およびレイヤNデコーダ1023を使用して、再構築されたビデオ信号1093を、レイヤNエンコーダ1003により生成されるレイヤN1073符号化された信号から生成するために実行され得る。レイヤNデコーダ1023は、レイヤN1073信号を復号するための品質レベルを指定する量子化器セッティングQ1066によって構成され得る。ダウンサンプリングおよびアップサンプリング比率は、変動し得るものであり、2つの与えられるレイヤの間のスケーラビリティの次元に関係付けられ得るということに留意されたい。
図1のシステム1000では、任意の与えられる、より高いレイヤn(例えば、レイヤ2≦n≦N)に対して、差分信号が、アップサンプリングされた、より低いレイヤ信号(例えば、レイヤn−1信号)を、現在のレイヤn信号から減算することにより生成され得るものであり、差信号は符号化され得る。2つのレイヤ、例えばn1およびn2により表されるビデオ信号が同じ空間的分解能を有するならば、対応するダウンサンプリングおよびアップサンプリング動作は回避され得る。任意の与えられるレイヤn(例えば、ここで1≦n≦N)または複数のレイヤは、より高いレイヤからの任意の復号された情報を使用することなしで復号され得る。例えばレイヤ1エンコーダ1001出力は、レイヤ1デコーダ1011により復号され、アップサンプリングされ(1041)、ビデオ信号1081から減算され(1051)得るものであり、そのビデオ信号1081は、そのような減算に先行してダウンサンプリングされ(1032)得るものである。同様にレイヤ2エンコーダ1002出力は、レイヤ2デコーダ1012により復号され、アップサンプリング1041により生成される信号に加算され(1052)、アップサンプリングされ(1042)、レイヤNエンコーダ1003で、生成されたレイヤN1073符号化された信号に符号化する前に、より高いレイヤNでのビデオ信号から減算され(1053)得る。エンコーダ1002および1003は、量子化器セッティングQ1062および1063をそれぞれ使用して、信号を符号化するための品質レベルを決定し得るということに留意されたい。本明細書で企図される任意の他のエンコーダおよびデコーダは、さらには、任意の入力、セッティング、または信号を使用して、信号を符号化および/または復号するための品質レベルを決定し得るものであり、すべてのそのような実施形態は、本開示の範囲内にあるものとして企図される。
例えば図1のシステム1000で示されるような、ベースレイヤを除くすべてのレイヤに対する、残差信号(例えば、2つのレイヤの間の差信号)のコーディングに依拠することが、そのような残差信号の、そのダイナミックレンジを限定するための量子化および正規化、ならびに、残差信号のコーディングの間に実行され得る追加的な量子化に起因するビジュアルアーチファクトを、結果として生じさせることがある。より高いレイヤエンコーダの1または複数は、動き推定および/または動き補償された予測を、符号化モードとして採用し得る。残差信号での動き推定および動き補償は、従来型の動き推定と異なり得るものであり、ビジュアルアーチファクトになりやすいことがある。そのようなビジュアルアーチファクトを最小化するために、残差信号を、そのダイナミックレンジを限定するために量子化および正規化することと、残差のコーディングの間に実行される追加的な量子化との間の、より精巧化された残差量子化、および共同量子化が使用され得る。
スケーラブルビデオコーディング(SVC)は、ITU−T標準H.264およびISO/IEC/MPEG4パート10の拡張と考えられ得るものであり、その拡張は、部分的ビットストリームの送信および復号が、より低い時間的および/もしくは空間的分解能、ならびに/または、低減される忠実度を伴うビデオサービスを、部分的ビットストリームのレートに対する相対的に高い再構築品質を保持しながら提供することを可能にし得るものである。単一ループ復号と呼称されるSVCの特徴は、1つの動き補償ループを、復号されているレイヤでセットアップし得るものであり、1または複数の動き補償ループを、1または複数の他の、より低いレイヤでセットアップし得るものでない、SVCデコーダを指し得る。例えば、ビットストリームが2つのレイヤ、レイヤ1(例えば、ベースレイヤ)およびレイヤ2(例えば、エンハンスメントレイヤ)を内包するならば、ならびに、デコーダがレイヤ2ビデオを再構築するように構成されるならば、復号された画像バッファ(decoded picture buffer)および/または動き補償された予測は、レイヤ2に対してセットアップされ得るものであるが、レイヤ1(例えば、レイヤ2が依存し得るベースレイヤ)に対してセットアップされ得るものでない。単一ループ復号によって、デブロッキングフィルタリングがさらには、復号されているレイヤに制限され得る。したがってSVCは、完全に再構築されることになる、より低いレイヤからの基準画像を要するものでなくともよく、そのことは、デコーダでの計算的複雑度およびメモリ使用量を低減し得る。
単一ループ復号は、制約されるインターレイヤテクスチャ予測により達成され得るものであり、その場合、与えられるレイヤでの現在のブロックに対して、より低いレイヤからの空間的テクスチャ予測は、対応する、より低いレイヤブロックが、イントラモードでコーディングされるならば許され得る(そのことはさらには、限定されるイントラ予測と呼称され得る)。実施形態ではこれは、イントラモードでコーディングされている、より低いレイヤブロックに起因し得るものであり、その場合そのようなブロックは、動き補償動作、および/または、復号された画像バッファに対する必要性なしで再構築され得る。
エンハンスメントレイヤのレート歪み効率をさらに改善するために、SVCは、より低いレイヤからの、動きベクトル予測、残差予測、モード予測、その他などの追加的なインターレイヤ予測技法を使用し得る。SVCの単一ループ復号特徴は、デコーダでの計算的複雑度および/またはメモリ使用量を低減し得るが、単一ループ復号は、ブロックレベルインターレイヤ予測方法を使用することにより、実行複雑度を増大し得る。単一ループ復号制約を課すことにより招かれ得る性能不利に対して補償するために、エンコーダ設計および計算複雑度が、所望されるレベルの性能が達成され得るように増大され得る。
HEVCのスケーラブル拡張は、SHVCと呼称され得る。HEVCに対する標準スケーラビリティは、ベースレイヤが、H.264/AVCまたはMPEG2などのより早期の標準によって符号化されることを可能とし得る、スケーラビリティのタイプを指し得るものであり、一方で、1または複数のエンハンスメントレイヤは、HEVC標準などのより近時の標準を使用して符号化され得る。標準スケーラビリティは、以前の標準を使用して符号化されたものであり得るレガシーコンテンツに対する後方互換性を提供し得る。標準スケーラビリティは、そのようなレガシーコンテンツの品質を、より良好なコーディング効率を提供する、HEVCに類する、より現在の標準によって符号化され得る、1または複数のエンハンスメントレイヤによってエンハンスし得る。
図2は、2レイヤスケーラブルシステムに対するSHVCデコーダの例ブロック線図200を示す。SHVCは、高レベルシンタックスベースのスケーラブルコーディングフレームワークを使用し得るものであり、その場合、ベースレイヤからの再構築された画像は、インターレイヤ基準(ILR:inter-layer reference)画像へと処理され得る。これらのILR画像は次いで、エンハンスメントレイヤ復号された画像バッファ(DPB)内に、エンハンスメントレイヤ画像の予測のために挿入され得る。SHVCでのインターレイヤ処理モジュールは、空間的スケーラビリティおよびビット深度スケーラビリティに対するアップサンプリング、ならびに、カラーガマットスケーラビリティに対するカラーマッピングを含み得る。
図2で示されるようにSHVCビットストリーム240は、エンハンスメントレイヤ(EL)ストリーム241およびベースレイヤ(BL)ストリーム242へと、逆多重化器210により逆多重化され得る。BLストリーム242は、ベースレイヤデコーダ231により、再構築された画像を生成するために復号され得るものであり、それらの再構築された画像は、ベースレイヤ復号された画像バッファ(BL DPB)232に提供され得る、および、ベースレイヤビデオ出力252として提供され得るものである。BL DPBは、ベースレイヤ再構築された画像をインターレイヤ処理250に提供し(262)得るものであり、そのインターレイヤ処理250は、そのようなベースレイヤ再構築された画像を処理して、エンハンストレイヤ復号された画像バッファ(EL DPB)222に提供され(261)得るILR画像を生成し得る。HEVCデコーダ221は、ELストリーム241を復号し、その再構築された画像をEL DPB222に提供し得るものであり、そのEL DPB222は、そのようなHEVC再構築された画像、および、インターレイヤ処理250から受信されるILR画像を使用して、エンハンスメントレイヤビデオ出力251を生成し得る。
実施形態では、超高精細度TV(UHDTV)仕様が、イメージおよびビデオを、アドバンストなディスプレイ技術を使用して提示するために使用され得る。高精細度TV(HDTV)仕様と比較されると、UHDTV仕様は、より大きな空間的分解能、より高いフレームレート、より高いサンプルビット深度、および/または、より広いカラーガマットをサポートし得る。ユーザエクスペリエンスが、UHDTVが提供し得る、より高い忠実度、および、より高い画像品質に起因して改善され得る。UHDTVは、1つは4K(3840×2160)での、および1つは8K(7680×4320)での2つの空間的分解能、最大で120Hzのフレームレート、ならびに/または、10ビットおよび12ビットでの画像サンプルの2つのビット深度をサポートし得る。加えてUHDTVのカラー空間は、可視カラー情報のより大きな分量のレンダリングをサポートし得る。図3は、国際照明委員会(CIE)鮮明度でのHDTVとUHDTVとの間の比較を例示するグラフ300を示す。図4は、エンドユーザにより、HDTVカラーガマットとUHDTVカラーガマットとの間で知覚され得るビジュアル差の例を示す。図4では、同じコンテンツが、2回、異なるカラー空間を使用してカラーグレーディングされる。図4Aは、HDTVでカラーグレーディングされ、HDTVディスプレイ上でレンダリング/表示されたものであり得るイメージを表し得るイメージ410を示す。図4Bは、UHDTVでカラーグレーディングされ、HDTVディスプレイ上でレンダリング/表示されたものであり得るイメージを表し得るイメージ420を示す。
SHVCは、HDTV対UHDTVマイグレーションをサポートし得る。ビット深度スケーラビリティおよび/またはカラーガマットスケーラビリティに対して設計される効率的なコーディング技術が、SHVC内に含まれ得る。下記の表1は、SHVCが、開示される実施形態によってサポートし得る、異なるタイプのスケーラビリティをリスティングする。そのようなスケーラビリティタイプの1または複数はさらには、以前のSVC標準によりサポートされ得る。


表1.SHVCスケーラビリティタイプ
スケーラビリティのタイプは、カラーガマットスケーラビリティと呼称されることがある。カラーガマットスケーラブル(CGS)コーディングは、マルチレイヤコーディングであり得るものであり、その場合、2つまたはより多くのレイヤは、異なるカラーガマットを有し得る。例えば表1で示されるように、2レイヤスケーラブルシステムでは、ベースレイヤはHDTVカラーガマットであり得るものであり、一方で、エンハンスメントレイヤはUHDTVカラーガマットであり得る。CGSコーディングに対するインターレイヤ処理は、カラーガマット変換方法を使用して、ベースレイヤカラーガマットをエンハンスメントレイヤカラーガマットに変換し得る。カラーガマット変換(例えば、カラーマッピング)方法により生成されるインターレイヤ基準画像は、改善された正確度を伴うエンハンスメントレイヤ画像を予測するために使用され得る。図4で示される画像を例として使用すると、カラーガマット変換プロセスは、異なるカラーグレーディングに起因し得る、図4Aおよび図4Bで示されるイメージの間のカラー差を、有意に低減および/または軽減し得る。カラーガマット変換方法の使用によって、HDTV空間でのカラーは、UHDTV空間内に転換され得るものであり、UHDTV空間でのエンハンスメントレイヤ信号を予測するために使用され得る。
図5は、図2の例示的なSHVCデコーダなどのSHVCデコーダに対応し得る、例示的なSHVCエンコーダのブロック線図500を示す。エンハンスメントレイヤ(EL)ビデオ541は、実施形態ではHEVCエンコーダ、またはそのコンポーネントであり得る、ELエンコーダ521に提供され得る。ベースレイヤ(BL)ビデオ542は、実施形態ではHEVCエンコーダ、またはそのコンポーネントであり得る、BLエンコーダ531に提供され得る。ELビデオ541は、カラーグレーディング、ダウンサンプリング、および/または、ビット深度変換のためのトーンマッピングのための前処理510を、BLビデオ542を生成するために受けたものであり得る。ELエンコーダ521は、画像をEL DPB522に提供し得るものであり、BLエンコーダ531は、画像をBL DPB532に提供し得る。
示されるように、例示的なインターレイヤ(IL)処理モジュール520は、ベースレイヤカラーガマットからエンハンスメントレイヤカラーガマットへのカラーガマット変換、ベースレイヤ空間的分解能からエンハンスメントレイヤ空間的分解能へのアップサンプリング、および/または、BLサンプルビット深度からELサンプルビット深度への逆トーンマッピングを実行し得る。そのような処理は、それぞれELエンコーダ521およびBLエンコーダ531により提供されたものであり得る、エンハンスメントレイヤビデオ情報524および/またはベースレイヤビデオ情報534を使用して実行され得る。IL処理モジュール520は、その処理でBL DPB532からの画像を使用し得るものであり、および/または、データ、画像、もしくは他の情報をEL DPB522に、EL画像を予測することでの使用のために提供し得る。IL処理モジュール520により生成されるカラーマッピング情報553は、多重化器540に提供され得る。
多重化器540は、ELエンコーダ521により生成されるELビットストリーム551、および、BLエンコーダ531により生成されるBLビットストリーム552を使用して、SHVCビットストリーム550を生成し得る。実施形態では多重化器540はさらには、カラーマッピング情報553を使用して、SHVCビットストリーム550を生成し得る。
様々なカラーガマット変換方法が、線形、区分的線形、および多項式を含めて、ただしそれらに制限されずに使用され得る。映画産業およびポストプロダクションプロセスでは、3次元ルックアップ表(3D LUT)が、カラーグレーディング、および/または、1つのガマットから別のものへのカラーガマット変換のために使用され得る。3D LUTベースのカラーガマット変換プロセスが、SHVCで、本明細書で説明されるようなCGSコーディングのためのインターレイヤ予測方法として使用され得る。
SHVCカラーマッピングプロセスは、3D LUTをベースにし得る。図6は、(0,0,0)から(255,255,255)のレンジを伴う、8ビットBLビデオから8ビットELビデオへのマッピングであり得る、例3D LUTベースのマッピング600を示す。3Dカラーマッピング表を使用すると、3D LUT610は第一に、620での2×2×2個のオクタントに(センタ立方体)、均一に各々の次元でスプリットさせられ得る。SHVCプロファイル(例えば、SHVCスケーラブルメイン10プロファイル)は、多くて1つのスプリットを3つのカラー次元で可能とし得る。ルーマコンポーネントは追加的に、一部の実施形態では、630で示されるように、多くて4つのパートにスプリットさせられ得る。3Dカラー空間は、最大で8×2×2個の、直方体に形状を定められたオクタントにスプリットさせられ得る。オクタントの内部では、クロスカラーコンポーネント線形モデルが、カラーマッピングを実行するために付与され得る。オクタントに対して、4つの頂点が、クロスコンポーネント線形モデルを表すために送信され得る。カラーマッピング表は別々に、Y’、Cb、およびCrコンポーネントに対して送信され得る。したがって、最大で8×2×2×4×3=384個の表エントリが、CGSコーディングのために記憶され得る。
カラーマッピングをSHVCで実行するために、図7の例立方体700で示されるように配置される、与えられるBL入力サンプルトリプレットP(y,u,v)に対して、それが属するオクタントは、カラー次元は2進で区画されるので、カラーコンポーネント(y,u,v)の第1のN個の最上位ビット(MSB)の値をベースにして決定され得る。
ルーマおよびクロマサンプルは、典型的なYCbCr4:2:0ビデオフォーマットでは位相整合されないことがあるので、入力P(y,u,v)は、ルーマおよびクロマサンプル場所を整合するために、4タップまたは2タップフィルタによってフィルタリングされ得る。
識別されるオクタントのカラーコンポーネントC(Cは、Y、U、またはVであり得る)に対する線形モデルは、図7で示されるような頂点P0、P4、P6、およびP7に対応し得る、lutC[P0]、lutC[P4]、lutC[P6]、およびlutC[P7]と表象され得る。したがって、カラーマッピングプロセスのカラーコンポーネントCの出力は、式(1)を使用して下記で、図7で示されるようなdy、du、およびdvによって算出され得る。BLとELとの間に空間的分解能差が存する場合、アップサンプリングが、カラーマッピングの後に付与され得る。
Cout=lutC[P0]+dy×(lutC[P7])−lutC[P6])+du×(lutC[P4]−lutC[P0])+dv×(lutC[P6]−lutC[P4]) (1)
3D LUTパラメータは、エンコーダにより、例えば、1つのカラー空間でのBL信号、および、別のカラー空間でのEL信号を使用して推定され得る。最小二乗(LS)推定方法が、最適な3D LUTパラメータを推定するために利用され得る。これらのモデルパラメータは、3D LUTのサイズ(例えば、クロマコンポーネントの区画の数、および、ルーマコンポーネントの区画の数)、ならびに/または、オクタントに対する頂点P0、P4、P6、およびP7での線形モデルパラメータを含み得る。SHVCではこれらのLUTパラメータは、ビットストリームで、画像パラメータセット(PPS:Picture Parameter Set)の内側でシグナリングされ得るものであり、そのことによってデコーダは、同じカラーガマット変換プロセスを実行し得る。PPSは、相対的に静的である、および、頻繁に画像ごとに変わり得るものでない、パラメータを搬送し得る。画像レベルでのPPS更新が使用され得るものであり、そのことは、3D LUTパラメータが、シーケンスレベルでシグナリングされ、画像レベルで更新されることを可能とする。3D LUTシグナリングコストを低減するために、例えば、オクタントに対する頂点P0、P4、P6、およびP7でのモデルパラメータは、それらの近隣のオクタントから予測され得る。
3D LUTのモデルパラメータをシグナリングするために使用されるビットの数は、3D LUTのサイズをベースにして大幅に変動し得る。3D LUTがより大きくあり得る(例えば、3D LUTの区画がより多い)ほど、それは、より多くのビットを消費し得る。より大きな3D LUTは、図6で630により表されるものなどの、カラー空間のより細かい区画を提供し得る。より大きな3D LUTの使用は、元のEL信号と、カラーマッピングされたBL信号との間の歪みを低減し得るものであり、および/または、ELのコーディング効率を増大し得る。
インテリジェントエンコーダは、3D LUTのシグナリングオーバーヘッドと、3D LUTの歪み低減能力との間のトレードオフを考えに入れて、3D LUTサイズを選択または決定し得る。例えばレート歪み最適化方法が、適切な3D LUTサイズを選択するために使用され得る。実施形態では3D LUTサイズは、あらかじめ選択されたしきい値を使用して、相対的なシグナリングオーバーヘッドを(例えば、それのみを)考えに入れることにより選択され得る。実施形態では3D LUTサイズは、3D LUTのシグナリングコストが、以前にコーディングされた画像のしきい値(例えば、3%)より上であるときに低減され、そのシグナリングコストが、以前にコーディングされた画像のしきい値(例えば、0.5%)より下であるときに増大され得る。
実施形態では、レート歪みコストをベースにする、改善された3D LUTサイズ選択方法が、本明細書で論述されるように使用され得る。最大サイズ制約を満足させ得る3D LUTサイズのレート歪みコストを考えることにより、開示される実施形態は、所望されるオーバーヘッド対歪み低減トレードオフを達成する、3D LUTサイズ(および実施形態では、その関連付けられた頂点パラメータ)を決定し得る。階層的B予測構造が、3D LUT表のレート歪みコストを算出するときに考慮に入れられ得る。
オクタントに対するP0、P4、P6、およびP7に関連付けられたモデルパラメータは、左側の近隣のオクタントからの頂点値を使用して予測され得る。XがY、U、またはVであるカラーコンポーネントXに対して、2つの予測子predXaおよびpredXbが算出され得る。実際のモデルパラメータと、関連付けられた予測子との間の差が算出され、ビットストリームでシグナリングされ得る。
第1の予測子predXaは、一部の実施形態では適正なビットシフトを伴う、オクタント座標として算出され得る。適正なビットシフトは、3D LUTの入力および出力が、異なるビット深度を有するときに使用され得る。例えば、BL信号が8ビットであり、EL信号が10ビットであるとき、2のビットシフトが使用され得る。第1の予測子は、すべてのオクタントに対するP0、P4、P6、およびP7に対して算出され得る。より具体的には、Y、U、またはVであるXに対する予測子predXaは、下記で示される式(2)、(3)、および(4)を使用して算出され得る。
predYa[yIdx][uIdx][vIdx][vertex]=(vertex<3)?(yIdx<<yShift):(yIdex+1)<<yShift) (2)
predUa[yIdx][uIdx][vIdx][vertex]=(vertex==0)?(uIdx<<cShift):(uIdex+1)<<cShift) (3)
predVa[yIdx][uIdx][vIdx][vertex]=(vertex<2)?(vIdx<<cShift):(vIdex+1)<<cShift) (4)
式(2)、(3)、および(4)では、yIdx、uIdx、およびvIdxは、オクタントを識別するために使用され得る、Y、U、およびV次元でのインデックスであり得るものであり、0、1、2、3に等しいvertexは、それぞれ頂点P0、P4、P6、およびP7を示し得る。
第2の予測子predXbは、左の近隣のオクタントに対するモデルパラメータと、左の近隣のオクタントの第1の予測子predAとの間の差として算出され得る。より具体的には、Y、U、またはVであるXに対する第2の予測子predXbは、後に続く例擬似コードセクションで示されるように導出され得る。
第1の予測子predXaおよび第2の予測子predXbは、現在のオクタントのモデルパラメータを予測するために使用され得る。予測誤差は、predXaおよびpredXbを、現在のオクタントのモデルパラメータから減算することにより算出され得る。予測誤差は、cm_res_quant_bitsによって量子化され得る。デコーダ側では、XがY、U、またはVであるLutX[yIdx][uIdx][vIdx][vertex]と表象され得る、オクタントに対するモデルパラメータは、以下の式(5)を使用して導出され得る。
LutX[yIdx][uIdx][vIdx][vertex]=(res_x[yIdx][uIdx][vIdx][vertex]<<cm_res_quant_bits)+predXa[yIdx][uIdx][vIdx][vertex]+predXb[yIdx][uIdx][vIdx][vertex] (5)
ここで、Y、U、またはVにより置換されるxに対するres_xは、ビットストリームでシグナリングされ得る、量子化された予測誤差であり得る。
予測誤差の量子化に起因して、モデルパラメータ予測方法を使用すると、導出されるモデルパラメータLutX[yIdx][uIdx][vIdx][vertex]は、最下位ビット(LSB)位置のcm_res_quant_bitsでゼロビットを有し得る。これは、カラーマッピングプロセスの精度に影響を及ぼし得る。本明細書で論述されるように、CGSコーディングに対する頂点予測方法は、導出されるモデルパラメータLutX[yIdx][uIdx][vIdx][vertex]のLSB位置が、非ゼロ値を、およびゆえに、カラーマッピングプロセスに対する改善された精度を有することを可能とし得る。
実施形態では、与えられる表サイズsに対して、関連付けられたレート歪みコストが、以下のような式(6)を使用して算出され得る。
cost(s)=D(s)+λ・bits(s) (6)
ここでD(s)は、元のEL信号と、サイズsが付与された3D LUTを使用するカラーマッピングの後のマッピングされたBL信号との間の歪みであり得るものであり、bits(s)は、サイズsを伴う3D LUTをコーディングするために使用されるビットの数であり得るものであり、λはラグランジュ乗数であり得る。最適な表サイズは、以下のような式(7)を使用して選択され得る。
opt=arg min(Jcost(s)) (7)
ビデオ分解能が増大するにつれて、全体的な歪み(画像内のすべての画素の歪みの合計として算出され得る)は、より有意に増減し得るものであり、式(6)での第2の項λ・bits(s)を、非常に大きなλが選択されない限りは圧倒し得る。これは、所望されるよりも大きな表サイズの選択を、より頻繁に、結果として生じさせ得る。別の結果は、より頻繁に画像ごとに、選択される3D LUTサイズの変化であり得るものであり、そのことは、より頻繁なPPS更新を結果として生じさせ得る。本明細書で論述されるように、開示されるILR使用量ベースの重み付けされた歪み算出が使用され得る。
図8は、ビデオアプリケーションをストリーミングおよびブロードキャスティングするために使用され得る例、階層的B予測構造800を例示する。図8で画像0と描写されるランダムアクセスポイント(RAP)から開始して、画像は、順序を外れて(例えば、ディスプレイ順序から変動する順序で)、構造800などの階層的B予測構造を使用してコーディングされ得る。サイズ8の画像のグループ(GOP:Group of Pictures)によって、図8で示されるようなGOP801および802の各々に対して、8つごとの画像が、一体にグループ化され得るものであり、むしろ、ディスプレイ順序を外れてコーディングされ得る。例えばコーディング順序は、GOP801が画像0、1、2、3、4、5、6、7、および8を含み得るように、GOP801に付与され得るものであり、そのGOP801は、画像9、10、11、12、13、14、15、および16を含み得るGOP802により後に続かれる。GOP801の内部では、画像のコーディング順序は、画像0、画像8、画像4、画像2、画像1、画像3、画像6、画像5、および画像7であり得るものであり、一方でGOP802の内部では、画像のコーディング順序は、画像16、画像12、画像10、画像9、画像11、画像14、画像13、および画像15であり得る。
図8での矢印は、画像を予測するために使用される時間的基準画像を示す。例えば画像0は、画像1、2、3、4、8、および16を予測するために使用され得るものであり、一方で画像4は、画像1、2、3、5、6、7、および16を予測するために使用され得るものであり、その他も同様である。基準画像と現在の画像との間の時間的距離は、どこに現在の画像が予測階層の内部で配置されるかに依存して変動し得る。例えば、予測階層800の下部での画像8および画像16に対しては、これらの画像と、それらのそれぞれの基準画像との間の時間的距離は、大きくあり得る。例えば画像8は、その基準画像として0を有し得る。例示的な予測階層800の上部にある、画像1、3、5、7等々の各々に対しては、これらの画像の各々と、それらのそれぞれの基準画像との間の時間的距離は、非常に小さくあり得る。例えば画像3は、その基準の中に、時間的に近接の画像であり得る画像2および4を含み得る。基準画像と、予測するために基準画像が使用され得る現在の画像との間の時間的距離は、与えられる基準画像の使用量に影響を及ぼし得る。実施形態では、基準画像が現在の画像に近いほど、それが、現在の画像を予測するために使用され得る公算はより大きい。図8で示されるように予測階層は、どれほど遠く時間的基準画像が現在の画像からあるかを決定し得るものであり、したがって、これらの時間的基準画像の使用量を決定し得る。
図9は、2レイヤスケーラブルビデオコーディングシステムに拡張され得る、階層的B時間的予測構造900を例示する。インターレイヤ基準(ILR)画像は、例えば、ベースレイヤ912内の画像をエンハンスメントレイヤ911内の画像に接続する垂直矢印により示されるように、現在の画像の予測に対して利用可能であり得る。例えば、ベースレイヤ912、GOP901内の画像2は、垂直矢印により、エンハンスメントレイヤ911、GOP901内の画像2に接続され得るものであり、そのことは、ベースレイヤ912、GOP901内の画像2が、エンハンスメントレイヤ911、GOP901内の画像2の予測に対して利用可能であり得るということを例示する。インターレイヤ基準画像および時間的基準画像は、現在の画像の予測のために使用され得る。インターレイヤ基準画像の使用量は、予測階層に直接関係付けられ得る。例えば、エンハンスメントレイヤ911内の低い時間的レベル画像であって、それら自体に近い時間的基準画像を有し得るものでない、低い時間的レベル画像(例えば、構造900のエンハンスメントレイヤ911、GOP901内の画像8)に対しては、ILR画像の使用量は、より高くあり得る。エンハンスメントレイヤ911内の高い時間的レベル画像(例えば、構造900のエンハンスメントレイヤ911、GOP901内の画像3などの、時間的に近接の基準画像を有し得る画像)に対するILR画像の使用量は、より低くあり得る。ILR画像使用量をベースにする重みが決定され、式(6)の歪み項D(s)に付与され得るものであり、そのことによって、異なる3D LUTモデルパラメータを選定することの影響力が、より正確に推定され得る。すなわち、式(6)でのレート歪みコストは、式(8)で示されるように変更され得る。
cost(s)=w・D(s)+λ・bits(s) (8)
ここでwは、ILR画像使用量をベースにする重み付け因子であり得る。実施形態では、異なる重みが、コーディングされている現在の画像の時間的レベルに依存して付与され得る。lが現在の画像の時間的レベルであり得る場合、重み付け因子はw(l)と表象され得る。実施形態ではw(l)は、全体のビデオシーケンスに対して固定され得る。あるいは適応的な重みw(l)が維持され、時間的レベルlでの画像に対する実際のILR画像使用量をベースにして動的に更新され得る。
ILR画像使用量は、コーディングされているビデオコンテンツに依存的であり得る。実施形態では、w(l)の動的な更新をすることは、より良好なコンテンツ適応を可能とし得る。図10は、重み付けされた歪みを使用するレート歪み最適化をベースにして最適なサイズを選択することの例プロセス1000を例示する。1101で、時間的レベルlでの現在の画像に対して、コストJ(si)が、LUTサイズsiに対して式9を使用して算出され得る。
J(si)=D(si)*w(l)+λ*r(si) (9)
ここでlは、現在の画像の時間的レベルを表し得るものであり、重み付け因子はw(l)と表象され得るものであり、D(si)は歪みであり得るものであり、λはラグランジュ乗数であり得るものであり、r(si)は、LUTサイズsiに対するコーディングビットの数であり得る。
1102で、決定が、1101で決定されたコストJ(si)が最小コストしきい値Jminより少ないかどうかに関してなされ得る。そうであるならば、1103で、最小コストしきい値Jminが、1101で決定されたコストJ(si)にセットされ得るものであり、最適な表サイズsoptが、現在の表サイズsiにセットされ得る。1101で決定されたコストが、最小コストしきい値Jminより大である、もしくは、そのJminに等しいならば、または、コストJ(si)が最小コストしきい値Jminより少ない場合に1103の機能を実行した後、方法は1104に移り、その1104で、一部またはすべてのLUTサイズが試験され終えたかどうかが決定され得る。LUTサイズが試験され終えていないならば、プロセス1000は、1101に戻って、さらなる試験を実行する。
LUTサイズが試験され終えたならば、1105で、カラーマッピングが、ILR画像を、最も近時に決定またはセットされたような3D LUTサイズsoptを使用して導出するために付与され得る。1106で、現在の画像は、決定された情報を使用してコーディングされ得るものであり、1107で、w(l)は、ILR使用量をベースにして更新され得る。
追加的な考えが、最適な3D LUTサイズを決定して、性能を改善する、および/または、エンコーダ複雑度を低減するときに使用され得る。実施形態では、ILR使用量w(l)がさらには、時間的レベルでの画像またはスライスタイプに対して探知され得る。例えば重み付け因子は、w(l,t)として探知され得るものであり、ここでlは、時間的レベルであり得るものであり、tは、画像/スライスタイプであり得る(例えばtは、I_SLICE、P_SLICE、またはB_SLICEであり得る)。コーディングされるEL画像はさらには、コーディング順序での他の将来のEL画像を符号化するために使用され得るので、レート歪みベースの3D LUTパラメータ選択はさらには、将来のEL画像のコーディングに対する現在の画像の影響力に依存し得る。例えば、EL内の非基準画像に対して、3D LUTの画像レベル更新は、非基準EL画像の増大される品質(例えば、より正確なカラーマッピングに起因する)は任意の他の画像の利益になり得るものでないので、不可能にされ得る。画像レベル3D LUT更新は、決まったしきい値より上の時間的レベルでの画像に対して不可能にされ得る。例えば画像レベル3D LUT更新は、2つの最も高い時間的レベルでの画像に対して不可能にされ得る。例えば図9では、画像レベル3D LUT更新は、任意の奇数番号付けされた画像、または、画像2、6、10、および14に付与され得るものでない。
HEVCでは、1つの、または各々のクリーンランダムアクセス(CRA)画像の後に続いて、ディスプレイ順序ではより早期であり、コーディング順序ではより後期である、および、以前のランダムアクセス期間内の画像が破棄されるならば復号可能であり得るものでない、画像が存し得る。これは、例えば、ユーザがチャネルを交換するときに起こり得る。これらの画像は、HEVCでは、ランダムアクセススキップトリーディング(RASL:Random Access Skipped Leading)画像と呼称され得る。実施形態では画像レベル3D LUT更新は、RASL画像に対して不可能にされ得る。
実施形態では、最大3D LUTサイズを与えられると、最大サイズより小さい一部またはすべての3D LUTサイズは、考えられないことがある。例えば、各々の画像をコーディングするために使用されるビットの数(例えば、各々の時間的レベルでの各々の画像タイプに対する)、および、3D LUTをコーディングするために使用されるビットの数(例えば、最大より小さい各々の3D LUTサイズに対する)が探知され得る。与えられる3D LUTサイズが予想される場合、現在の画像をコーディングすることを求められるビットの数の決まったパーセンテージしきい値(例えば、25%)より大きいシグナリングオーバーヘッドを生成し、この3D LUTサイズは、図10でのプロセス1000のレート歪み判断から除外され得る。
再び図7を参照すると、オクタントの頂点位置は、P0からP7と名付けられ得る。一部の頂点は、近隣のオクタントの間で共有され得る。例えば、現在のオクタントの頂点位置P0は、左の近隣のオクタント内のP1と同じ位置であり得るものであり、現在のオクタントの頂点位置P4は、左の近隣のオクタント内のP5と同じ位置であり得るものであり、等々である。例えば、図7で示されるような現在のオクタントの頂点位置P0を考えてみる。左の近隣のオクタントに対して受信されるモデルパラメータを使用して、左の近隣のオクタントのP1の頂点位置のパラメータ値が導出され得る。例えば、XがY、U、またはVであるカラーコンポーネントXに対して、以下の例擬似コードセクションが、左の近隣のオクタントのP1の値を導出するために使用され得る。下記のセクションで示されるような(yIdx,uIdx,vIdx)は、コーディングされることになる現在のオクタントのインデックスであり得る。
この導出される値valueXP1は、現在のオクタントの頂点P0に対する予測子として使用され得る。予測誤差は、この予測子valueXP1を使用して算出され得る。予測誤差は、因子cm_res_quant_bitsを使用して量子化され得る。デコーダでは、現在のオクタントのP0に対するモデルパラメータは、以下の式(10)で示されるように、valueXP1を、逆量子化された予測誤差に加算することにより算出され得る。
Lutx[yIdx][uIdx][0]=(res[yIdx][uIdx][vIdx][vertex]<<cm_res_quant_bits)+valueXP1 (10)
量子化された予測誤差は、cm_res_quant_bits LSB位置でゼロ値を有し得るが、予測子valueXP1は、そうでないことがある。したがって、現在のオクタントの頂点位置P0に対する導出されるモデルパラメータ、LutX[yIdx][uIdx][vIdx][0]は、改善された精度を有し得る。
本明細書で論述される実施形態は、現在のオクタントの頂点P0を例として使用して論考され得るが、残る頂点P4およびP6に対する予測子が、同様の様式で導出され得る。頂点位置P7に対しては、P7は左の近隣のオクタントとの共有される頂点であり得ないので、内部補間の代わりに外部補間が使用され得る。しかしながら外部補間は、3D LUTは内部補間を(例えば、内部補間のみを)ベースにしてトレーニングされ得るので、良好な品質予測を生み出さないことがある。実施形態では、P7に対するモデルパラメータの予測は、現在のオクタントの頂点P6から算出され得る。YとUとの間の相関は、UHDTVカラー空間に対しては、YとVとの間の相関より弱くあり得る。したがって、オクタントインデックス(yIdx,uIdx−1,vIdx)を伴う、その近隣のオクタント内のP7とP6との間のルーマコンポーネント差が導出され得る。この導出プロセスは、下記で、擬似コードの、以下の例セクションで示されるように実行され得る。
uIdxが0より大であるならば、valueXP7は、次のように算出され得る。
そうでなければ、valueXP7は、次のように算出され得る。
実施形態では、左の近隣のオクタント(例えば、オクタントインデックス(yIdx−1,uIdx,vIdx)を伴うオクタント)を使用して、現在のオクタントに対するモデルパラメータを予測する代わりに、他の近隣のオクタントが使用され得る。例えば、オクタントインデックス(yIdx,uIdx−1,vIdx)、(yIdx,uIdx,vIdx−1)、(yIdx−1,uIdx−1,vIdx)、(yIdx−1,uIdx,vIdx−1)、(yIdx,uIdx−1,vIdx−1)、および/または、(yIdx−1,uIdx−1,vIdx−1)を伴うオクタントが使用され得る。予測子はさらには、これらの近隣のオクタントからの2つまたはより多くの予測子を組み合わせて、精度をさらに改善することにより算出され得る。
実施形態では、3D LUTパラメータに対するエントロピーコーディング方法が、本明細書で説明されるように実行され得る。予測残差値はresCoeffと表象され得る。resCoeffは、resCoeffの絶対値のMSBの指数ゴロムコーディング、resCoeffの絶対値の残るLSBの7ビット固定長コーディング、および、resCoeffの絶対値が非ゼロであるならば正負符号に対する1つのビットフラグをセットすることによりコーディングされ得る。より具体的には、下記の表2は、実施形態で使用され得る、セマンティクスにより後に続かれるシンタックス表であり、その表では、res_coeff_qはMSBを表し得るものであり、res_coeff_rはLSBを表し得るものであり、res_coeff_sは正負符号を表し得る。
表2.エントロピーコーディングシンタックス表
表2では、res_coeff_q[yIdx][uIdx][vIdx][i][c]は、インデックス[yIdx][uIdx][vIdx][i][c]を伴うカラーマッピング係数に対する残差の商を指定し得る。存在しないとき、res_coeff_qの値は、0に等しいと推論され得る。
表2では、res_coeff_r[yIdx][uIdx][vIdx][i][c]は、インデックス[yIdx][uIdx][vIdx][i][c]を伴うカラーマッピング係数に対する残差の余りを指定し得る。存在しないとき、res_coeff_qの値は、0に等しいと推論され得る。
表2では、res_coeff_s[yIdx][uIdx][vIdx][pIdx][cIdx]は、インデックス[yIdx][uIdx][vIdx][i][c]を伴うカラーマッピング係数に対する残差の正負符号を指定し得る。存在しないとき、res_coeff_sの値は、0に等しいと推論され得る。
resCoeffの値を再構築するために、res_coeff_q、res_coeff_r、およびres_coeff_sは、一体に組み立てられ得る。より具体的には、後に続く復号プロセスが、カラーコンポーネント、パラメータ、およびオクタントに対する予測残差を再構築するために使用され得る。
変数CMResY[yIdx][uIdx][vIdx][i]、CMResU[yIdx][uIdx][vIdx][i]、およびCMResV[yIdx][uIdx][vIdx][i]は、後に続くように、それぞれ式11、12、および13を使用して導出され得る。
CMResY[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][0])*((res_coeff_q[yIdx][uIdx][vIdx][i][0]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][0]) (11)
CMResU[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][1])*((res_coeff_q[yIdx][uIdx][vIdx][i][1]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][1]) (12)
CMResU[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][2])*((res_coeff_q[yIdx][uIdx][vIdx][i][2]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][2]) (13)
LSBの数は、7であるように固定され得る。あるいは、LSBの異なる数が使用され得る。例えば、LSBの異なる数は、予測残差resCoeffの大きさ(例えば、絶対)値を2つのパートに分割するための7の固定された値が所望されない場合に使用され得る。resCoeffの大きさは、2つのパート、整数パートおよび小数パートを有し得るが、これらの2つのパートが分割されるポイントは、固定されないことがあり、CGSシステムでの2つの因子、現在の3D LUTに対するcm_res_quant_bitsの値、および、入力ビット深度と出力ビット深度との間のデルタに依存し得るnMappingShiftの値の、1つまたは両方に依存し得る。実施形態ではnMappingShiftは、10分からoutputDepthとinputDepthとの間の差を引いたものに等しくあり得る。
実施形態では、resCoeffの大きさを表すために使用されるビットの総数はNと表象され得る。resCoeff大きさの小数パートは、(nMappingShift−cm_res_quant_bits)個の数のビットで表され得るものであり、resCoeff大きさの整数パートは、残る(N−nMappingShift+cm_res_quant_bits)個の数のビットにより表され得る。
実施形態では、固定長コーディングされ得るLSBの長さが適応的に選定され得る。(nMappingShift−cm_res_quant_bits−cm_delta_flc_bits)の値が、固定長コーディングされ得るLSBの数を決定するために使用され得るものであり、その場合cm_delta_flc_bitsは、0、1、2、または3などの、相対的に小さい整数値であり得る。cm_delta_flc_bitsの値は、エンコーダ/デコーダによりあらかじめ選択され得るものであり、固定され得る。cm_delta_flc_bitsの値は、エンコーダにより適応的に選択され、以下のシンタックス表3およびセマンティクスを使用して、3D LUT表のパートとしてシグナリングされ得る。cm_delta_flc_bitsを決定するために、エンコーダは、cm_delta_flc_bitsの可能とされる値(例えば、0から3)に対する、一部またはすべてのカラーコンポーネント、一部またはすべてのモデルパラメータ、および、一部またはすべてのオクタントに対する、一部またはすべてのresCoeff値をコーディングするために必要とされるビットの数を計数し得る。エンコーダは、すべてのresCoeff値をコーディングすることの全体的なコストを最小化するcm_delta_flc_bitsを選択し得る。そのようなしらみつぶしの探索の複雑度は、ビットの数のみが計数され、実際のコーディングは実行されなくてもよいときは、非常に小さくあり得る。
表3.シンタックス表
実施形態ではcm_res_quant_bitsは、頂点残差値res_y、res_u、およびres_vに加算されることになる最下位ビットの数を指定し得る。各々のカラーコンポーネント、各々のパラメータ、および、各々のオクタントに対する予測残差の再構築が、本明細書で説明されるように手直しされ得る。変数CMResY[yIdx][uIdx][vIdx][i]、CMResU[yIdx][uIdx][vIdx][i]、およびCMResV[yIdx][uIdx][vIdx][i]は、下記で、式14、15、16、および17で示されるように導出され得る。
nFLCBits=nMappingShift−res_quant_bits−cm_delta_flc_bits (14)
CMResY[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][0])*((res_coeff_q[yIdx][uIdx][vIdx][i][0]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][0]) (15)
CMResU[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][1])*((res_coeff_q[yIdx][uIdx][vIdx][i][1]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][1]) (16)
CMResV[yIdx][uIdx][vIdx][i]=(1−2*res_coeff_s[yIdx][uIdx][vIdx][i][2])*((res_coeff_q[yIdx][uIdx][vIdx][i][2]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][2]) (17)
図11Aは、1または複数の開示される実施形態が実行され得る、例通信システム100の線図である。通信システム100は、ボイス、データ、ビデオ、メッセージング、ブロードキャスト、その他などのコンテンツを、多重の無線ユーザに提供する多重アクセスシステムであり得る。通信システム100は、多重の無線ユーザが、そのようなコンテンツに、無線帯域幅を含むシステムリソースの共有によってアクセスすることを可能にし得る。例えば通信システム100は、コード分割多重アクセス(CDMA)、時間分割多重アクセス(TDMA:time division multiple access)、周波数分割多重アクセス(FDMA:frequency division multiple access)、直交FDMA(OFDMA)、単一キャリアFDMA(SC−FDMA:single carrier FDMA)、および類するものなどの、1または複数のチャネルアクセス方法を用い得る。
図11Aは、1または複数の開示される実施形態が実行され得る、例通信システム100の線図である。通信システム100は、ボイス、データ、ビデオ、メッセージング、ブロードキャスト、その他などのコンテンツを、多重の無線ユーザに提供する多重アクセスシステムであり得る。通信システム100は、多重の無線ユーザが、そのようなコンテンツに、無線帯域幅を含むシステムリソースの共有によってアクセスすることを可能にし得る。例えば通信システム100は、コード分割多重アクセス(CDMA)、時間分割多重アクセス(TDMA)、周波数分割多重アクセス(FDMA)、直交FDMA(OFDMA)、単一キャリアFDMA(SC−FDMA)、および類するものなどの、1または複数のチャネルアクセス方法を用い得る。
図11Aで示されるように通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、および/または102d(概括的または集合的に、WTRU102と呼称され得る)、無線アクセスネットワーク(RAN)103/104/105、コアネットワーク106/107/109、公衆交換電話ネットワーク(PSTN:public switched telephone network)108、インターネット110、ならびに、他のネットワーク112を含み得るが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図するということが認識されよう。WTRU102a、102b、102c、102dの各々は、無線環境で動作および/または通信するように構成される、任意のタイプのデバイスであり得る。例として、WTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成され得るものであり、ユーザ機器(UE)、移動局、固定された、または移動の加入者ユニット、ページャ、セルラー電話、携帯情報端末(PDA:personal digital assistant)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、消費者電子機器、および類するものを含み得る。
通信システム100はさらには、基地局114aおよび基地局114bを含み得る。基地局114a、114bの各々は、WTRU102a、102b、102c、102dの少なくとも1つと無線でインターフェイス接続して、コアネットワーク106/107/109、インターネット110、および/またはネットワーク112などの、1または複数の通信ネットワークへのアクセスを容易にするように構成される、任意のタイプのデバイスであり得る。例として、基地局114a、114bは、ベーストランシーバ局(BTS)、ノード−B、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータ、および類するものであり得る。基地局114a、114bは各々、単一の要素として描写されるが、基地局114a、114bは、任意の数の相互接続される基地局および/またはネットワーク要素を含み得るということが認識されよう。
基地局114aは、RAN103/104/105のパートであり得るものであり、そのRAN103/104/105はさらには、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノード、その他などの、他の基地局および/またはネットワーク要素(図示せず)を含み得る。基地局114aおよび/または基地局114bは、セル(図示せず)と呼称され得る個別の地理的領域の内部で無線信号を送信および/または受信するように構成され得る。セルは、セルセクタにさらに分割され得る。例えば、基地局114aに関連付けられたセルは、3つのセクタに分割され得る。したがって、1つの実施形態では基地局114aは、3つのトランシーバを、例えば、セルの各々のセクタに対して1つを含み得る。別の実施形態では基地局114aは、多重入力多重出力(MIMO:multiple-input multiple output)技術を用い得るものであり、したがって、多重のトランシーバをセルの各々のセクタに対して利用し得る。
基地局114a、114bは、WTRU102a、102b、102c、102dの1または複数と、エアインターフェイス115/116/117によって通信し得るものであり、そのエアインターフェイス115/116/117は、任意の適した無線通信リンク(例えば、無線周波数(RF)、マイクロウェーブ、赤外線(IR)、紫外線(UV)、可視光、その他)であり得る。エアインターフェイス115/116/117は、任意の適した無線アクセス技術(RAT)を使用して確立され得る。
より具体的には、上記で記されたように通信システム100は、多重アクセスシステムであり得るものであり、CDMA、TDMA、FDMA、OFDMA、SC−FDMA、および類するものなどの、1または複数のチャネルアクセス体系を用い得る。例えば、RAN103/104/105内の基地局114a、およびWTRU102a、102b、102cは、広帯域CDMA(WCDMA)を使用してエアインターフェイス115/116/117を確立し得る、ユニバーサル移動電気通信システム(UMTS:Universal Mobile Telecommunications System)地上無線アクセス(UTRA:UMTS Terrestrial Radio Access)などの無線技術を実行し得る。WCDMAは、高速パケットアクセス(HSPA:High-Speed Packet Access)および/またはEvolved HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含み得る。
別の実施形態では、基地局114a、およびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)および/またはLTE−アドバンスト(LTE−A)を使用してエアインターフェイス115/116/117を確立し得る、Evolved UMTS地上無線アクセス(E−UTRA)などの無線技術を実行し得る。
他の実施形態では、基地局114a、およびWTRU102a、102b、102cは、IEEE802.16(例えば、ワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX:Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動通信用グローバルシステム(GSM:登録商標)、エンハンストデータレートフォーGSMエボリューション(EDGE:Enhanced Data rates for GSM Evolution)、GSM EDGE(GERAN)、および類するものなどの無線技術を実行し得る。
図11Aでの基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり得るものであり、仕事の場、ホーム、乗物、構内、および類するものなどの局限されたエリアで無線接続性を容易にするために、任意の適したRATを利用し得る。1つの実施形態では、基地局114b、およびWTRU102c、102dは、IEEE802.11などの無線技術を実行して、無線ローカルエリアネットワーク(WLAN)を確立し得る。別の実施形態では、基地局114b、およびWTRU102c、102dは、IEEE802.15などの無線技術を実行して、無線パーソナルエリアネットワーク(WPAN)を確立し得る。さらに別の実施形態では、基地局114b、およびWTRU102c、102dは、セルラーベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−A、その他)を利用して、ピコセルまたはフェムトセルを確立し得る。図11Aで示されるように、基地局114bは、インターネット110への直接接続を有し得る。したがって基地局114bは、コアネットワーク106/107/109によってインターネット110にアクセスすることを要され得るものでない。
RAN103/104/105は、コアネットワーク106/107/109との通信の状態にあり得るものであり、そのコアネットワーク106/107/109は、ボイス、データ、アプリケーション、および/またはボイスオーバーインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dの1または複数に提供するように構成される、任意のタイプのネットワークであり得る。例えばコアネットワーク106/107/109は、呼制御、課金サービス、移動場所ベースのサービス、プリペイド呼、インターネット接続性、ビデオ分配、その他を提供し、および/または、ユーザ認証などの高レベルセキュリティ機能を実行し得る。図11Aでは示されないが、RAN103/104/105、および/またはコアネットワーク106/107/109は、RAN103/104/105と同じRATを、または異なるRATを用いる他のRANとの、直接または間接の通信の状態にあり得るということが認識されよう。例えば、E−UTRA無線技術を利用していることがあるRAN103/104/105に接続されていることに加えて、コアネットワーク106/107/109はさらには、GSM無線技術を用いる別のRAN(図示せず)との通信の状態にあり得る。
コアネットワーク106/107/109はさらには、WTRU102a、102b、102c、102dが、PSTN108、インターネット110、および/または、他のネットワーク112にアクセスするためのゲートウェイとしてサービングし得る。PSTN108は、単純な古い電話サービス(POTS:plain old telephone service)を提供する回線交換電話ネットワークを含み得る。インターネット110は、相互接続されるコンピュータネットワークおよびデバイスのグローバルシステムを含み得るものであり、それらのコンピュータネットワークおよびデバイスは、送信制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)などの、TCP/IPインターネットプロトコルスイートの形での、ありふれた通信プロトコルを使用するものである。ネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、有線または無線通信ネットワークを含み得る。例えばネットワーク112は、RAN103/104/105と同じRATを、または異なるRATを用い得る、1または複数のRANに接続される別のコアネットワークを含み得る。
通信システム100内のWTRU102a、102b、102c、102dの一部またはすべては、マルチモード能力を含み得るものであり、例えば、WTRU102a、102b、102c、102dは、異なる無線リンクによって、異なる無線ネットワークと通信するための多重のトランシーバを含み得る。例えば、図11Aで示されるWTRU102cは、セルラーベースの無線技術を用い得る基地局114aと、および、IEEE802無線技術を用い得る基地局114bと通信するように構成され得る。
図11Bは、例WTRU102のシステム線図である。図11Bで示されるようにWTRU102は、プロセッサ118、トランシーバ120、送受信要素122、スピーカ/マイクロホン124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、パワーソース134、グローバル位置決定システム(GPS)チップセット136、および、他の周辺装置138を含み得る。WTRU102は、実施形態と矛盾しない状態でありながら、前述の要素の任意の副組み合わせを含み得るということが認識されよう。さらには、実施形態は、基地局114aおよび114b、ならびに/または、中でも、トランシーバ局(BTS)、ノード−B、サイトコントローラ、アクセスポイント(AP)、ホームノード−B、evolvedホームノード−B(eノードB)、ホームevolvedノード−B(HeNB)、ホームevolvedノード−Bゲートウェイ、およびプロキシノードなどの、ただしそれらに制限されない、基地局114aおよび114bが表し得るノードが、図11Bで描写され本明細書で説明される要素の一部またはすべてを含み得るということを企図する。
プロセッサ118は、汎用プロセッサ、特殊目的プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアとの関連の状態にある1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、状態機械、および類するものであり得る。プロセッサ118は、信号コーディング、データ処理、パワー制御、入力/出力処理、および/または、WTRU102が無線環境で動作することを可能にする任意の他の機能性を実行し得る。プロセッサ118はトランシーバ120に結合され得るものであり、そのトランシーバ120は送受信要素122に結合され得る。図11Bはプロセッサ118およびトランシーバ120を別々のコンポーネントとして描写するが、プロセッサ118およびトランシーバ120は、電子パッケージまたはチップ内に一体に集積され得るということが認識されよう。
送受信要素122は、エアインターフェイス115/116/117によって、信号を基地局(例えば、基地局114a)に送信し、または、信号をその基地局から受信するように構成され得る。例えば、1つの実施形態では送受信要素122は、RF信号を送信および/または受信するように構成されるアンテナであり得る。別の実施形態では送受信要素122は、例えばIR信号、UV信号、または可視光信号を、送信および/または受信するように構成される放射器/検出器であり得る。さらに別の実施形態では送受信要素122は、RF信号および光信号の両方を、送信および受信するように構成され得る。送受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成され得るということが認識されよう。
加えて、送受信要素122は、図11Bで単一の要素として描写されるが、WTRU102は、任意の数の送受信要素122を含み得る。より具体的にはWTRU102は、MIMO技術を用い得る。したがって、1つの実施形態ではWTRU102は、エアインターフェイス115/116/117によって無線信号を送信および受信するための、2つまたはより多くの送受信要素122(例えば、多重のアンテナ)を含み得る。
トランシーバ120は、送受信要素122により送信されることになる信号を変調するように、および、送受信要素122により受信される信号を復調するように構成され得る。上記で記されたようにWTRU102は、マルチモード能力を有し得る。したがってトランシーバ120は、WTRU102が、例えばUTRAおよびIEEE802.11などの多重のRATによって通信することを可能にするための多重のトランシーバを含み得る。
WTRU102のプロセッサ118は、スピーカ/マイクロホン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)ディスプレイユニット、または、有機発光ダイオード(OLED)ディスプレイユニット)に結合され得るものであり、ユーザ入力データを、それらのスピーカ/マイクロホン124、キーパッド126、および/またはディスプレイ/タッチパッド128から受信し得る。プロセッサ118はさらには、ユーザデータを、スピーカ/マイクロホン124、キーパッド126、および/またはディスプレイ/タッチパッド128に出力し得る。加えてプロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132などの、任意のタイプの適したメモリからの情報にアクセスし、データをそのメモリに記憶し得る。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ハードディスク、または、任意の他のタイプのメモリ記憶デバイスを含み得る。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック(登録商標)、セキュアデジタル(SD)メモリカード、および類するものを含み得る。他の実施形態ではプロセッサ118は、サーバまたはホームコンピュータ(図示せず)上など、WTRU102上に物理的に配置されないメモリからの情報にアクセスし、データをそのメモリに記憶し得る。
プロセッサ118は、パワーをパワーソース134から受信し得るものであり、WTRU102内の他のコンポーネントに対するパワーを分配および/または制御するように構成され得る。パワーソース134は、WTRU102にパワー供給するための任意の適したデバイスであり得る。例えばパワーソース134は、1または複数の乾電池バッテリ(例えば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル金属水素化物(NiMH)、リチウムイオン(Liイオン)、その他)、ソーラーセル、燃料セル、および類するものを含み得る。
プロセッサ118はさらには、GPSチップセット136に結合され得るものであり、そのGPSチップセット136は、WTRU102の現在の場所に関する場所情報(例えば、経度および緯度)を提供するように構成され得る。GPSチップセット136からの情報に加えて、またはその情報の代わりに、WTRU102は、基地局(例えば、基地局114a、114b)からエアインターフェイス115/116/117によって場所情報を受信し、および/または、2つもしくはより多くの付近の基地局から受信されている信号のタイミングをベースにしてその場所を決定し得る。WTRU102は、実施形態と矛盾しない状態でありながら、任意の適した場所決定方法によって場所情報を入手し得るということが認識されよう。
プロセッサ118は、他の周辺装置138にさらに結合され得るものであり、それらの他の周辺装置138は、追加的な特徴、機能性、および/または、有線もしくは無線接続性を提供する、1または複数のソフトウェアおよび/またはハードウェアモジュールを含み得る。例えば周辺装置138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレイヤ、メディアプレイヤ、ビデオゲームプレイヤモジュール、インターネットブラウザ、および類するものを含み得る。
図11Cは、実施形態によるRAN103およびコアネットワーク106のシステム線図である。上記で記されたようにRAN103は、UTRA無線技術を用いて、エアインターフェイス115によってWTRU102a、102b、102cと通信し得る。RAN103はさらには、コアネットワーク106との通信の状態にあり得る。図11Cで示されるようにRAN103は、ノード−B140a、140b、140cを含み得るものであり、それらのノード−Bは各々、エアインターフェイス115によってWTRU102a、102b、102cと通信するための1または複数のトランシーバを含み得る。ノード−B140a、140b、140cは各々、RAN103の内部の個別のセル(図示せず)に関連付けられ得る。RAN103はさらには、RNC142a、142bを含み得る。RAN103は、実施形態と矛盾しない状態でありながら、任意の数のノード−BおよびRNCを含み得るということが認識されよう。
図11Cで示されるように、ノード−B140a、140bは、RNC142aとの通信の状態にあり得る。追加的にノード−B140cは、RNC142bとの通信の状態にあり得る。ノード−B140a、140b、140cは、IubインターフェイスによってそれぞれのRNC142a、142bと通信し得る。RNC142a、142bは、Iurインターフェイスによって互いとの通信の状態にあり得る。RNC142a、142bの各々は、それが接続されるそれぞれのノード−B140a、140b、140cを制御するように構成され得る。加えてRNC142a、142bの各々は、アウターループパワー制御、負荷制御、受付制御、パケットスケジューリング、ハンドオーバー制御、マクロダイバーシティ、セキュリティ機能、データ暗号化、および類するものなどの、他の機能性を実行またはサポートするように構成され得る。
図11Cで示されるコアネットワーク106は、メディアゲートウェイ(MGW)144、移動交換センタ(MSC:mobile switching center)146、サービングGPRSサポートノード(SGSN)148、および/またはゲートウェイGPRSサポートノード(GGSN)150を含み得る。前述の要素の各々は、コアネットワーク106のパートとして描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられることがあるということが認識されよう。
RAN103内のRNC142aは、IuCSインターフェイスによってコアネットワーク106内のMSC146に接続され得る。MSC146は、MGW144に接続され得る。MSC146およびMGW144は、WTRU102a、102b、102cに、PSTN108などの回線交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前の陸線通信デバイスとの間の通信を容易にし得る。
RAN103内のRNC142aはさらには、IuPSインターフェイスによってコアネットワーク106内のSGSN148に接続され得る。SGSN148は、GGSN150に接続され得る。SGSN148およびGGSN150は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。
上記で記されたようにコアネットワーク106はさらには、他のサービスプロバイダにより所有される、および/または動作させられる、他の有線または無線ネットワークを含み得る、ネットワーク112に接続され得る。
図11Dは、実施形態によるRAN104およびコアネットワーク107のシステム線図である。上記で記されたようにRAN104は、E−UTRA無線技術を用いて、エアインターフェイス116によってWTRU102a、102b、102cと通信し得る。RAN104はさらには、コアネットワーク107との通信の状態にあり得る。
RAN104は、eノード−B160a、160b、160cを含み得るが、RAN104は、実施形態と矛盾しない状態でありながら、任意の数のeノード−Bを含み得るということが認識されよう。eノード−B160a、160b、160cは各々、エアインターフェイス116によってWTRU102a、102b、102cと通信するための1または複数のトランシーバを含み得る。1つの実施形態では、eノード−B160a、160b、160cは、MIMO技術を実行し得る。したがってeノード−B160aは、例えば、多重のアンテナを使用して、無線信号をWTRU102aに送信し、無線信号をWTRU102aから受信し得る。
eノード−B160a、160b、160cの各々は、個別のセル(図示せず)に関連付けられ得るものであり、無線リソース管理判断、ハンドオーバー判断、アップリンクおよび/またはダウンリンクでのユーザのスケジューリング、ならびに類するものを統御するように構成され得る。図11Dで示されるように、eノード−B160a、160b、160cは、X2インターフェイスによって互いに通信し得る。
図11Dで示されるコアネットワーク107は、モビリティ管理ゲートウェイ(MME:mobility management gateway)162、サービングゲートウェイ164、およびパケットデータネットワーク(PDN)ゲートウェイ166を含み得る。前述の要素の各々は、コアネットワーク107のパートとして描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられることがあるということが認識されよう。
MME162は、S1インターフェイスによってRAN104内のeノード−B160a、160b、160cの各々に接続され得るものであり、制御ノードとしてサービングし得る。例えばMME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラアクティブ化/非アクティブ化、WTRU102a、102b、102cの初期アタッチの間に個別のサービングゲートウェイを選択すること、および類することに対して責任を負い得る。MME162はさらには、RAN104と、GSMまたはWCDMAなどの他の無線技術を用いる他のRAN(図示せず)との間で交換するための制御プレーン機能を提供し得る。
サービングゲートウェイ164は、S1インターフェイスによってRAN104内のeノード−B160a、160b、160cの各々に接続され得る。サービングゲートウェイ164は概括的には、WTRU102a、102b、102cへの/からのユーザデータパケットを、ルーティングおよびフォワーディングし得る。サービングゲートウェイ164はさらには、インターeノードBハンドオーバーの間にユーザプレーンをアンカリングすること、ダウンリンクデータがWTRU102a、102b、102cに対して利用可能であるときにページングをトリガリングすること、WTRU102a、102b、102cのコンテキストを管理および記憶すること、ならびに類することなどの、他の機能を実行し得る。
サービングゲートウェイ164はさらには、PDNゲートウェイ166に接続され得るものであり、そのPDNゲートウェイ166は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。
コアネットワーク107は、他のネットワークとの通信を容易にし得る。例えばコアネットワーク107は、WTRU102a、102b、102cに、PSTN108などの回線交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前の陸線通信デバイスとの間の通信を容易にし得る。例えばコアネットワーク107は、コアネットワーク107とPSTN108との間のインターフェイスとしてサービングする、IPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得る、または、そのIPゲートウェイと通信し得る。加えてコアネットワーク107は、WTRU102a、102b、102cに、ネットワーク112へのアクセスを提供し得るものであり、それらのネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、他の有線または無線ネットワークを含み得るものである。
図11Eは、実施形態によるRAN105およびコアネットワーク109のシステム線図である。RAN105は、IEEE802.16無線技術を用いて、エアインターフェイス117によってWTRU102a、102b、102cと通信する、アクセスサービスネットワーク(ASN)であり得る。下記でさらに論考されることになるように、WTRU102a、102b、102c、RAN105、およびコアネットワーク109の、異なる機能的エンティティの間の通信リンクは、基準ポイントと定義され得る。
図11Eで示されるようにRAN105は、基地局180a、180b、180c、およびASNゲートウェイ182を含み得るが、RAN105は、実施形態と矛盾しない状態に残りながら、任意の数の基地局およびASNゲートウェイを含み得るということが認識されよう。基地局180a、180b、180cは各々、RAN105内の個別のセル(図示せず)に関連付けられ得るものであり、各々、エアインターフェイス117によってWTRU102a、102b、102cと通信するための1または複数のトランシーバを含み得る。1つの実施形態では、基地局180a、180b、180cは、MIMO技術を実行し得る。したがって基地局180aは、例えば、多重のアンテナを使用して、無線信号をWTRU102aに送信し、無線信号をWTRU102aから受信し得る。基地局180a、180b、180cはさらには、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービスの品質(QoS)ポリシー強制、および類するものなどのモビリティ管理機能を提供し得る。ASNゲートウェイ182は、トラフィックアグリゲーションポイントとしてサービングし得るものであり、ページング、加入者プロファイルのキャッシング、コアネットワーク109へのルーティング、および類するものに対して責任を負い得る。
WTRU102a、102b、102cと、RAN105との間のエアインターフェイス117は、IEEE802.16仕様を実行するR1基準ポイントと定義され得る。加えて、WTRU102a、102b、102cの各々は、コアネットワーク109との論理インターフェイス(図示せず)を確立し得る。WTRU102a、102b、102cと、コアネットワーク109との間の論理インターフェイスは、認証、許可、IPホスト構成管理、および/またはモビリティ管理のために使用され得る、R2基準ポイントと定義され得る。
基地局180a、180b、180cの各々の間の通信リンクは、WTRUハンドオーバー、および、基地局の間のデータの転送を容易にするためのプロトコルを含む、R8基準ポイントと定義され得る。基地局180a、180b、180cと、ASNゲートウェイ182との間の通信リンクは、R6基準ポイントと定義され得る。R6基準ポイントは、WTRU102a、102b、102cの各々に関連付けられたモビリティイベントをベースにするモビリティ管理を容易にするためのプロトコルを含み得る。
図11Eで示されるようにRAN105は、コアネットワーク109に接続され得る。RAN105とコアネットワーク109との間の通信リンクは、例えば、データ転送およびモビリティ管理能力を容易にするためのプロトコルを含む、R3基準ポイントと定義され得る。コアネットワーク109は、移動IPホームエージェント(MIP−HA:mobile IP home agent)184、認証、許可、アカウンティング(AAA:authentication, authorization, accounting)サーバ186、およびゲートウェイ188を含み得る。前述の要素の各々は、コアネットワーク109のパートとして描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられることがあるということが認識されよう。
MIP−HAは、IPアドレス管理に対して責任を負い得るものであり、WTRU102a、102b、102cが、異なるASNおよび/または異なるコアネットワークの間でローミングすることを可能にし得る。MIP−HA184は、WTRU102a、102b、102cに、インターネット110などのパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、IPが可能にされるデバイスとの間の通信を容易にし得る。AAAサーバ186は、ユーザ認証に対して、および、ユーザサービスをサポートすることに対して責任を負い得る。ゲートウェイ188は、他のネットワークとのインターワーキングを容易にし得る。例えばゲートウェイ188は、WTRU102a、102b、102cに、PSTN108などの回線交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cと、従前の陸線通信デバイスとの間の通信を容易にし得る。加えてゲートウェイ188は、WTRU102a、102b、102cに、ネットワーク112へのアクセスを提供し得るものであり、それらのネットワーク112は、他のサービスプロバイダにより所有される、および/または動作させられる、他の有線または無線ネットワークを含み得るものである。
図11Eでは示されないが、RAN105は他のASNに接続され得るものであり、コアネットワーク109は他のコアネットワークに接続され得るということが認識されよう。RAN105と他のASNとの間の通信リンクは、R4基準ポイントと定義され得るものであり、そのR4基準ポイントは、RAN105と他のASNとの間の、WTRU102a、102b、102cのモビリティを調和させるためのプロトコルを含み得る。コアネットワーク109と他のコアネットワークとの間の通信リンクは、R5基準と定義され得るものであり、そのR5基準は、ホームコアネットワークと、ビジットされるコアネットワークとの間のインターワーキングを容易にするためのプロトコルを含み得る。
特徴および要素が、上記で、個別の組み合わせで説明されているが、当業者は、各々の特徴または要素が、単独で、または、他の特徴および要素との任意の組み合わせで使用され得るということを認識するであろう。加えて、本明細書で説明された方法は、コンピュータまたはプロセッサによる実行のためにコンピュータ可読メディアに組み込まれる、コンピュータプログラム、ソフトウェア、またはファームウェアの形で実行され得る。コンピュータ可読メディアの例は、電子信号(有線または無線接続によって送信される)、およびコンピュータ可読記憶メディアを含む。コンピュータ可読記憶メディアの例は、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内部ハードディスクおよびリムーバブルディスクなどの磁気メディア、磁気光学メディア、ならびに、CD−ROMディスクおよびデジタルバーサタイルディスク(DVD)などの光学メディアを含み、ただしそれらに制限されない。ソフトウェアとの関連の状態にあるプロセッサは、WTRU、UE、端末、基地局、RNC、または、任意のホストコンピュータでの使用のための無線周波数トランシーバを実行するために使用され得る。

Claims (1)

  1. ビデオ復号における使用のために3次元ルックアップ表パラメータを復号する方法であって、
    ビデオデコーダで、3次元ルックアップ表のカラーマッピング係数に関連付けられた予測残差値の最上位ビットのインジケーション、および前記予測残差値の最下位ビットのインジケーション、および前記予測残差値の固定長コーディングされた最下位ビットの量を示している固定長コーディングされたビット量インジケーションを含む前記3次元ルックアップ表パラメータを受信するステップと、
    前記固定長コーディングされたビット量インジケーションに基づいて、固定長コーディングされた最下位ビットの前記量を決定するステップと、
    固定長コーディングされた最下位ビットの前記量に基づいて、前記予測残差値の最下位ビットの前記インジケーションを復号し、前記予測残差値の前記最下位ビットを生成するステップと、
    前記予測残差値の最上位ビットの前記インジケーションおよび固定長コーディングされた最下位ビットの前記量に基づいて、前記予測残差値の前記最上位ビットを決定するステップと、
    前記予測残差値の前記最上位ビットおよび前記予測残差値の前記最下位ビットに基づいて、前記カラーマッピング係数に関連付けられた前記予測残差値を組み立てるステップと
    を備えたことを特徴とする方法。
JP2018167265A 2014-06-19 2018-09-06 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法 Active JP6694031B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462014610P 2014-06-19 2014-06-19
US62/014,610 2014-06-19
US201462017743P 2014-06-26 2014-06-26
US62/017,743 2014-06-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016574146A Division JP6401309B2 (ja) 2014-06-19 2015-06-17 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2019013029A true JP2019013029A (ja) 2019-01-24
JP6694031B2 JP6694031B2 (ja) 2020-05-13

Family

ID=53496976

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016574146A Active JP6401309B2 (ja) 2014-06-19 2015-06-17 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法
JP2018167265A Active JP6694031B2 (ja) 2014-06-19 2018-09-06 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016574146A Active JP6401309B2 (ja) 2014-06-19 2015-06-17 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法

Country Status (9)

Country Link
US (2) US10154286B2 (ja)
EP (1) EP3158742A1 (ja)
JP (2) JP6401309B2 (ja)
KR (2) KR101884408B1 (ja)
CN (2) CN110913217B (ja)
BR (1) BR112016029843A8 (ja)
RU (1) RU2017101574A (ja)
TW (1) TWI689196B (ja)
WO (1) WO2015195849A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9530226B2 (en) * 2014-02-18 2016-12-27 Par Technology Corporation Systems and methods for optimizing N dimensional volume data for transmission
US9893831B2 (en) * 2015-07-31 2018-02-13 Hughes Network Systems, Llc Congestion control for Scrambled Coded Multiple Access (SCMA)
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
GB2574575A (en) * 2018-04-27 2019-12-18 V Nova Int Ltd Video decoder chipset
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
KR20240007299A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
JP7137008B2 (ja) 2018-06-29 2022-09-13 北京字節跳動網絡技術有限公司 1つまたは複数のルックアップテーブルを使用して、以前コーディングされた動き情報を順に記憶させてそれらを後続のブロックのコーディングに使用する概念
KR102611261B1 (ko) 2018-06-29 2023-12-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 업데이트 대상 lut 또는 비업데이트 lut의 구별
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
WO2020008350A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
EP3861738A4 (en) * 2018-11-06 2022-01-26 Beijing Bytedance Network Technology Co., Ltd. POSITION-BASED INTRA PREDICTION
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
KR20210113188A (ko) * 2018-12-21 2021-09-15 브이아이디 스케일, 인크. 템플릿 기반 비디오 코딩을 위한 개선된 선형 모델 추정에 관한 방법들, 아키텍처들, 장치들 및 시스템들
WO2020143741A1 (en) 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Invoke of lut updating
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
BR112021014853A2 (pt) 2019-02-22 2021-10-05 Beijing Bytedance Network Technology Co., Ltd. Método e aparelho para processar e codificar dados de vídeo, e, mídias de armazenamento e registro legíveis por computador não transitórias
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN117880494A (zh) 2019-03-24 2024-04-12 北京字节跳动网络技术有限公司 用于帧内预测的参数推导的条件
CN113826382B (zh) * 2019-05-16 2023-06-20 北京字节跳动网络技术有限公司 视频编解码中的自适应比特深度转换
WO2020253864A1 (en) 2019-06-21 2020-12-24 Beijing Bytedance Network Technology Co., Ltd. Selective enablement of adaptive in-loop color-space transform in video coding
WO2021088951A1 (en) 2019-11-07 2021-05-14 Beijing Bytedance Network Technology Co., Ltd. Quantization properties of adaptive in-loop color-space transform for video coding
WO2021118556A1 (en) 2019-12-11 2021-06-17 Google Llc Color calibration of display modules using a reduced number of display characteristic measurements
BR112022019770A2 (pt) * 2020-03-30 2022-11-16 Bytedance Inc Método de processamento de vídeo, aparelho para processar dados de vídeo, meios de armazenamento e de gravação não transitórios legíveis por computador
US11726941B2 (en) 2021-08-03 2023-08-15 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
WO2023014390A1 (en) * 2021-08-03 2023-02-09 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
KR102617175B1 (ko) * 2022-08-04 2023-12-27 주식회사 라온텍 화면 왜곡 보정이 가능한 디스플레이 장치 및 그의 화면 왜곡 보정 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69942078D1 (de) * 1998-07-24 2010-04-15 Canon Kk Bildverarbeitungsvorrichtung und -verfahren
EP1331824A3 (en) * 2001-11-27 2005-09-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
JP2004120217A (ja) 2002-08-30 2004-04-15 Canon Inc 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR100970621B1 (ko) 2003-05-26 2010-07-15 엘지전자 주식회사 영상 보정 장치
JP4067532B2 (ja) 2004-05-28 2008-03-26 シャープ株式会社 色変換装置、画像形成装置、色変換方法、コンピュータプログラム及び記録媒体
JP4479683B2 (ja) 2006-03-16 2010-06-09 セイコーエプソン株式会社 色補正回路およびそれを備えた画像表示装置
US20070223823A1 (en) * 2006-03-21 2007-09-27 Nokia Corporation Method, apparatus, system and computer program product for providing compression of image files
TW200845723A (en) * 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
CN101663896A (zh) * 2007-04-23 2010-03-03 汤姆森许可贸易公司 用于对视频数据进行编码的方法和设备、用于对编码的视频数据和编码的视频信号进行解码的方法和设备
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US8275208B2 (en) 2008-07-02 2012-09-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using image separation based on bit location
KR20120114812A (ko) 2011-04-08 2012-10-17 삼성디스플레이 주식회사 액정 표시 장치, 액정 표시 장치를 위한 영상 신호 보정 장치 및 영상 신호 보정 방법
JP2013009272A (ja) * 2011-06-27 2013-01-10 Toshiba Corp 画像符号化装置、方法及びプログラム、並びに、画像復号化装置、方法及びプログラム
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
TWI575933B (zh) * 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
TWI578758B (zh) 2012-01-31 2017-04-11 Vid衡器股份有限公司 視訊資料解碼的裝置及方法
US20160050426A1 (en) 2013-01-04 2016-02-18 Samsung Electronics Co., Ltd. Lossless-coding-mode video encoding method and device, and decoding method and device
CN105230019B (zh) * 2013-04-08 2019-04-09 杜比国际公司 对lut进行编码的方法和进行解码的方法以及对应的设备
GB2516021A (en) * 2013-07-05 2015-01-14 Canon Kk Method, device, and computer program for pre-encoding and post-decoding high bit-depth content in video encoder and decoder
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction

Also Published As

Publication number Publication date
KR20170021845A (ko) 2017-02-28
US10841615B2 (en) 2020-11-17
US20190052904A1 (en) 2019-02-14
KR101884408B1 (ko) 2018-08-02
CN110913217B (zh) 2022-01-25
BR112016029843A2 (pt) 2017-08-22
KR20180088515A (ko) 2018-08-03
US10154286B2 (en) 2018-12-11
WO2015195849A1 (en) 2015-12-23
JP6401309B2 (ja) 2018-10-10
TWI689196B (zh) 2020-03-21
CN106664410A (zh) 2017-05-10
TW201620304A (zh) 2016-06-01
EP3158742A1 (en) 2017-04-26
JP6694031B2 (ja) 2020-05-13
BR112016029843A8 (pt) 2021-07-06
US20150373372A1 (en) 2015-12-24
CN106664410B (zh) 2019-12-03
CN110913217A (zh) 2020-03-24
RU2017101574A (ru) 2018-07-19
RU2017101574A3 (ja) 2018-07-19
JP2017527153A (ja) 2017-09-14
KR102284995B1 (ko) 2021-08-04

Similar Documents

Publication Publication Date Title
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
JP7448572B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
JP6701310B2 (ja) 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法
JP6480555B2 (ja) スケーラブルな高効率ビデオコーディング(hevc)のための参照ピクチャセット(rps)シグナリング
KR102118524B1 (ko) 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화
US9973751B2 (en) Slice base skip mode signaling for multiple layer video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200416

R150 Certificate of patent or registration of utility model

Ref document number: 6694031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250