JP2022516094A - 組みあわせたインターおよびイントラ予測 - Google Patents

組みあわせたインターおよびイントラ予測 Download PDF

Info

Publication number
JP2022516094A
JP2022516094A JP2021537807A JP2021537807A JP2022516094A JP 2022516094 A JP2022516094 A JP 2022516094A JP 2021537807 A JP2021537807 A JP 2021537807A JP 2021537807 A JP2021537807 A JP 2021537807A JP 2022516094 A JP2022516094 A JP 2022516094A
Authority
JP
Japan
Prior art keywords
mode
prediction
mmvd
ciip
intra
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021537807A
Other languages
English (en)
Inventor
シウ、シャオユウ
フ、ユーウェン
ルオ、チャンコン
Original Assignee
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2022516094A publication Critical patent/JP2022516094A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

システム、方法、および手段は、組みあわせたインターおよびイントラ予測(combined inter and intra prediction)に対して開示される。ビデオ符号化デバイスは、動きベクトル差分(MMVD)モードが、符号化単位(CU)のインター予測を生成するのに使用されるかどうかを示すMMVDモードインディケーションを受信し得る。ビデオ符号化デバイスは、例えば、MMVDモードインディケーションが、MMVDモードがCUのインター予測を生成するのに使用されないことを示すとき、組みあわせたインターマージ/イントラ予測(CIIP)インディケーションを受信し得る。ビデオ符号化デバイスは、例えば、MMVDモードインディケーションおよび/またはCIIPインディケーションに基づいて、CUに対して三角形のマージモードを使用するかどうかを決定し得る。CIIPインディケーションが、CIIPがCUに対して適用される、またはMMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されることを示すという条件にて、ビデオ符号化デバイスは、CUに対して三角形のマージモードを無効にし得る。

Description

本発明は、組みあわせたインターおよびイントラ予測に関し、より詳細には、ビデオ処理における組みあわせたインターおよびイントラ予測に関する。
関連出願への相互参照
本出願は、2018年12月31日に出願された米国仮特許出願第62/786,653号の優先権を主張しており、本明細書に参照によって全体として組み入れられる。
背景技術
ビデオ符号化システムは、デジタルビデオ信号を圧縮するのに広く使用されて、ストレージニーズ、および/または上記信号の伝送帯域幅を減らす。例えば、ブロックベース、ウェーブレットベース、およびオブジェクトベースのシステムのような種々のタイプのビデオ符号化システムに、ブロックベースのハイブリッドビデオ符号化システムは、広く使用され開発されている。
システム、方法、および手段は、組みあわせたインターおよびイントラ予測(combined inter and intra prediction)に対して開示される。ビデオ符号化デバイスは、MMVD(motion vector difference:動きベクトル差分)モードが、符号化単位のインター予測を生成するのに使用されるかどうかを示すMMVDモードインディケーションを受信することがある。ビデオ符号化デバイスは、例えば、MMVDモードインディケーションが、MMVDモードが符号化単位のインター予測を生成するのに使用されないことを示すとき、CIIP(combined inter merge/intra prediction:組みあわせたインターマージ/イントラ予測)インディケーションを受信することがある。ビデオ符号化デバイスは、例えば、MMVDモードインディケーションおよび/またはCIIPインディケーションに基づいて、符号化単位に対して三角形のマージモードを使用するかどうかを決定し得る。CIIPインディケーションは、MMVDモードインディケーションが、MMVDモードが符号化単位に対して使用されることを示すとき、受信されないことがある。MMVDモードインディケーションは、符号化単位ごとに受信されることがある。
CIIPインディケーションが、CIIPが符号化単位に対して適用されることを示すという条件にて、ビデオ符号化デバイスは、符号化単位に対して三角形のマージモードを無効にすることがある。MMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されることを示すという条件にて、ビデオ符号化デバイスは、符号化単位に対して三角形のマージモードを無効にすることがある。CIIPインディケーションが、CIIPが符号化単位に対して適用されないことを示し、MMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されないことを示すという条件にて、ビデオ符号化デバイスは、符号化単位に対して三角形のマージモードを有効にすることがある。ビデオ符号化デバイスは、三角形マージフラグを受信することなく、符号化単位に対して三角形のマージモードを有効にすることがある。ビデオ符号化デバイスは、MMVDモードインディケーションまたはCIIPインディケーションのうちの1つまたは複数に基づいて、符号化単位に対して三角形のマージモードを有効にするかどうかを推論し得る。CIIPインディケーションは、MMVDモードインディケーションが、MMVDモードが符号化単位に対して使用されることを示すとき、受信されないことがある。MMVDモードインディケーションは、符号化単位ベースごとに受信されることがある。
ブロックベースのビデオエンコーダーの例示的な図を例示する。 図2(a)は、マルチタイプの木構造および四分割におけるブロック分割に関連付けられた例を例示し、図2(b)は、マルチタイプの木構造および垂直二分割におけるブロック分割に関連付けられた例を例示し、図2(c)は、マルチタイプの木構造および水平二分割におけるブロック分割に関連付けられた例を例示し、図2(d)は、マルチタイプの木構造および垂直三分割におけるブロック分割に関連付けられた例を例示し、図2(e)は、マルチタイプの木構造および水平三分割におけるブロック分割に関連付けられた例を例示する。 ブロックベースのビデオデコーダーの例示的な図を例示する。 図4(a)は、組みあわせたインターおよびイントラ予測、ならびにDCプレーンモード(planar mode)に関連付けられた例を例示し、図4(b)は、組みあわせたインターおよびイントラ予測、ならびに水平方向モードに関連付けられた例を例示し、図4(c)は、組みあわせたインターおよびイントラ予測、ならびに垂直方向モードに関連付けられた例を例示する。 選択的時間動きベクトル予測に関連付けられた例を例示する。 アフィン動き場のモデリングに関連付けられた例を例示する。 図7Aは、ダイアゴナルトライアングル分割ベースの動き補償予測に関連付けられた例を例示し、図7Bは、逆ダイアゴナルトライアングル分割ベースの動き補償予測に関連付けられた例を例示する。 三角形モードにおける単方向予測MV(動きベクトル)を生成することに関連付けられた例を例示する。 イントラモード導出に関連付けられた例を例示する。 イントラモード導出に対するテンプレートサンプルの勾配算出に関連付けられた例を例示する。 CCLM(cross-component linear model)色差予測サンプルを使用する組みあわせたインターおよびイントラ予測に対する色差予測に関連付けられた例を例示する。 色差インター予測サンプルおよびCCLM色差予測サンプルを組み合わせることによって組みあわせたインターおよびイントラ予測に対する色差予測に関連付けられた例を例示する。 1つまたは複数の開示されている態様が実装されることがある例示的な通信システムのシステム図である。 図13Aに例示された通信システム内において使用されることがある例示的なWTRU(ワイヤレス送信/受信ユニット)のシステム図である。 図13Aに例示された通信システム内において使用されることがある例示的なRAN(無線アクセスネットワーク)および例示的なCN(コアネットワーク)のシステム図である。 図13Aに例示された通信システム内において使用されることがあるさらなる例示的なRANおよびさらなる例示的なCNのシステム図である。
高い符号化効率と適度な実装の複雑さとを与えることがある符号化ツールは、次の、アフィン動きモデル、選択的時間動きベクトル予測(alternative temporal motion vector prediction)またはATMVP(advanced temporal motion vector prediction)、IMV(整数動きベクトル)、GBi(generalized bi-prediction)、BDOF(bi-directional optical flow)、CIIP(combined inter merge/intra prediction)、MMVD(merge with motion vector difference)、ペアワイズ平均マージ候補(pairwise average merge candidate)、インター符号化のための三角形のインター予測(triangular inter prediction)、CCLM(cross-component linear model)、マルチラインイントラ予測(multi-line intra prediction)、イントラ予測のためのCPR(current picture referencing)、EMT(enhanced multiple transform)、量子化および変換符号化のための従属量子化(dependent quantization)、およびループ内フィルタのためのALF(adaptive loop filtering)のうちの少なくとも1つを含むことがある。
図1は、例示的なブロックベースのハイブリッドビデオエンコーダーシステム200のブロック図を示す。入力ビデオ信号202は、ブロックずつ処理され得る。拡張されたブロックサイズ(たとえば、符号化単位またはCUと言われる)は、高解像度(たとえば、1080pおよび/またはより上)のビデオ信号を圧縮するのに使用されることがある。CUは、128x128ピクセルまでのサイズを含むことがある。ブロックは、四分木に基づいて分割されることがある。CTU(coding tree unit)は、四分木/二分木/三分木に基づいて、変化する局所的な特性に適応させるCUに割られることがある。CUは、別個の予測が適用され得る予測単位またはPUに分割されることがある、または分割されないことがある。CUは、さらなる分割なしに予測および変換のための基本単位として使用され得る。マルチタイプの木構造において、(たとえば、1つの)CTUは、四分木の構造によって分割され得る(たとえば、最初に分割され得る)。四分木の葉ノード(たとえば、各四分木葉ノード)は、二分木構造および三分木構造によってさらに分割されることがある。図2に示されるように、1つまたは複数(たとえば、5つ)の割る型がある。次の、四分割(たとえば、(a))、水平二分割(たとえば、(c))、垂直二分割(たとえば、(b))、水平三分割(たとえば、(e))、および垂直三分割(たとえば、(d))のうちの1つまたは複数は、例示的な割る型であり得る。
図1を参照して、入力ビデオブロック(たとえば、MB(マクロブロック)またはCU)に対して、空間予測260または動き予測262が、行われることがある。空間予測(たとえば、またはイントラ予測)は、カレントビデオブロックを予測する同一のビデオピクチャおよび/またはスライスにおいて既に符号化された隣接ブロックからピクセルを使用することがある。空間予測は、ビデオ信号に固有の空間的な冗長性を減らすことがある。動き予測(たとえば、インター予測または時間予測と言われる)は、カレントビデオブロックを予測する既に符号化されたビデオピクチャからピクセルを使用することがある。動き予測は、ビデオ信号に固有の時間的な冗長性を減らすことがある。与えられているビデオブロックに対する動き予測信号は、カレントブロックとその参照ブロックとの間の動きの量および/または方向を示す動きベクトルによってシグナリングされることがある。複数の参照ピクチャがサポートされるならば、ビデオブロックの参照ピクチャインデックスは、デコーダーにシグナリングされ得る。参照インデックスは、時間予測信号が参照ピクチャストア464におけるどの参照ピクチャから来ることがあるかを特定するのに使用され得る。
空間予測および/または動き予測の後に、エンコーダーにおけるモード決定280は、例えば、レート歪み最適化に基づいて予測モードを選択することがある。予測ブロックは、216にて、カレントビデオブロックから減じられ得る。予測残差は、変換モジュール204および量子化モジュール206を使用して非相関化されて、目標ビットレートを達成し得る。量子化された残差係数は、210にて逆量子化され、212にて逆変換されて、再構成された残差を形成し得る。再構成された残差は、226にて、予測ブロックに戻して加えられて、再構成されたビデオブロックを形成し得る。例えば、デブロッキングフィルタおよび/または適応的なループフィルタなどのループ内フィルタは、基準ピクチャストア264に入れられる前に、266にて、再構成されたビデオブロックに適応されることがある。参照ピクチャストア264における参照ピクチャは、将来のビデオブロックを符号化するのに使用され得る。出力ビデオビットストリーム220が形成され得る。符号化モード(たとえば、インターまたはイントラ)、予測モード情報、動き情報、および/または量子化された残差係数は、エントロピー符号化ユニット208へ送られて、ビットストリーム220を形成するために圧縮されパックされることがある。
図3は、例示的なブロックベースのビデオエンコーダーの一般的なブロック図を示す。ビデオビットストリーム302は、エントロピーデコードユニット308にて、受信され、アンパックされ、および/またはエントロピーデコードされ得る。符号化モードおよび/または予測情報は、空間予測ユニット360(たとえば、イントラ符号化されている場合)に、および/または時間予測ユニット362(たとえば、インター符号化されている場合)に送られることがある。予測ブロックは、空間予測ユニット360および/または時間予測ユニット362にて形成されることがある。残差変換係数は、逆量子化ユニット310および逆変換ユニット312へ送られて、残差ブロックを再構成し得る。予測ブロックおよび残差ブロックは、326にて加えられ得る。再構成されたブロックは、ループ内フィルタリング366を通り抜けることがあり、参照ピクチャストア364に格納されることがある。参照ピクチャストア364における再構成されたビデオは、ディスプレイデバイスを駆動するのに、および/または将来のビデオブロックを予測するのに使用され得る。
1つまたは複数の符号化モジュール、例えば、インター予測に関連付けられたものは、強化されてインター符号化効率を向上させることがある。1つまたは複数の符号化ツールが、本明細書にて説明され得る。
組みあわせたインターおよびイントラ予測(combined inter and intra prediction)が行われることがある。
図1および3に示されるように、インター予測およびイントラ予測は、ビデオ信号に存在する時間的なおよび空間的な冗長性を利用するのに使用され得る。例にて、PUは、時間領域または空間領域のいずれかにおいて元のビデオの相関を利用し得る。インター予測およびイントラ予測の特性を考えて、上記のスキームは、あるビデオコンテンツに対して、最善ではないことがある。例えば、古いオブジェクトと新出現のオブジェクトとが混じり合っているビデオ領域に対して、たとえば、インター予測およびイントラ予測を一緒に組み合わせるやり方があるならば、より良い符号化効率が期待されることがある。上記考慮に基づいて、組みあわせたインターおよびイントラ予測ツール(combined inter and intra prediction tool)が行われることがある。組みあわせたインターおよびイントラ予測ツールは、イントラ予測を、マージモードから生成されるインター予測と組み合わせることがある。例にて、マージモードで符号化される各CUに対して、フラグは、シグナリングされて、組みあわせたインターおよびイントラモードが適用されるかされないかを示し得る。フラグが真であるとき、追加のシンタックスがシグナリングされて、例えば、予め定義されたイントラモード候補リストからイントラモードを選択することがある。輝度成分に対して、イントラモード候補は、4度(4-frequently)、選択されるイントラモード、たとえば、プレーン(planar)、DC、水平方向、および垂直方向を含むことある。色差成分に対して、DMモード(たとえば、色差成分が輝度イントラモードを再利用して予測サンプルを生成することを示す)は、どんなシグナリングもなしに適用されることがある。重みは、インター予測サンプルとイントラ予測サンプルとを組み合わせるのに適用され得る。次のうちの1つまたは複数が適用されることがある。
DCモードまたはプレーンモード(planar mode)によって予測されるCUと、幅または高さが4以下のCUとに対して、相等しい重み(たとえば、0.5)が適用されることがある。
CUが水平方向モードまたは垂直方向モードのいずれかによって予測され、CUが幅および高さにおいて4つのサンプルより大きいならば、CUは、(たとえば、適用されるイントラモードに従属する)水平方向または垂直方向に割られることがあり、割ることは、4つの相等しいサイズの領域の中にあり得る。(W_intrai,W_interi)として示される重みの組み合わせ、ただし、i=0,・・・,3。例にて、(W_intra0,W_inter0)=(0.75, 0.25)、(W_intra1,W_inter1)=(0.625,0.375)、(W_intra2,W_inter2)=(0.375,0.625)、および(W_intra3,W_inter3)=(0.25,0.75)、ただし、(W_intra0,W_inter0)は、再構成隣接サンプル(たとえば、イントラ参照サンプル)に最も近いリージョンに対応することがあり、(W_intra3,W_inter3)は、再構成隣接サンプルから最も遠く離れたリージョンに対応し得る。図4は、組みあわせたインターおよびイントラ予測モード(inter and intra prediction mode)に対して、インター予測サンプルとイントラ予測サンプルとを組み合わせるのに適用され得る例示的な重みを例示する。例えば、(a)は、DCおよび/またはプレーンモードにおいて適用され得る例示的な重みを例示し、(b)は、水平方向モードにおいて適用され得る例示的な重みを例示し、(c)は、垂直方向モードにおいて適用され得る例示的な重みを例示する。表1は、組みあわせたインターおよびイントラ予測に対して追加されるシンタックスエレメントを組み入れた後の例示的な符号化単位シンタックステーブルを示す。
Figure 2022516094000002

表1を参照して、次のうちの1つまたは複数が適用され得る。mh_intra_flag[x0][y0]は、カレント符号化単位に対して組みあわせたインターおよびイントラ予測が適用されるかどうかを示し得る。mh_intra_flag[x0][y0]が存在しないとき、0に等しいと推論され得る。mh_intra_luma_mpm_flag[x0][y0]およびmh_intra_luma_mpm_idx[x0][y0]は、例えば、入力として、サンプル位置(x0,y0)、カレント符号化ブロックの幅、カレント符号化ブロックの高さ、mh_intra_luma_mpm_flag[x0][y0]、およびmh_intra_luma_mpm_idx[x0][y0]を有するmhイントラモードに対して、輝度イントラ予測モードの導出処理を呼び出すことによって、輝度サンプルに対してイントラ予測モードを示し得る。
例えば、組みあわせたインターおよびイントラ予測モードは、カレントCUが、従来のマージモード、たとえば、HEVCのマージモードのために使用されることのように5つの空間的に隣接したものおよび2つの時間的に隣接したものによって符号化されるとき、有効にされることがある。ビットストリームにおいてMVをシグナリングするインターCU、または他のマージモード(たとえば、アフィンマージ、ATMVP、MMVDおよび三角形予測)において符号化されるインターCUに対して、組みあわせたインターおよびイントラ予測は、無効にされることがある。
サブブロックマージモードが行われることがある。
マージモードによって符号化されるCU(たとえば、各CU)は、予測方向(たとえば、各予測方向)に対して、動きパラメーターのセット(たとえば、1つの動きベクトルおよび1つの参照ピクチャインデックス)を有することがある。サブブロックレベルにて動き情報の導出を可能にする1つまたは複数のマージ候補は、マージモードに含まれることがある。サブブロックマージ候補のカテゴリは、ATMVP(alternative temporal motion vector prediction:選択的時間動きベクトル予測)を含むことがある。ATMVPは、TMVP(時間動きベクトル予測)ツールの同一のコンセプトにおいて構築されることがあり、CUに、時間的な隣接ピクチャ(たとえば、同一位置の参照ピクチャ)からの複数の小さなブロックからサブブロックの動き情報をフェッチすることを可能にすることがある。サブブロックマージ候補のカテゴリは、CUの内側のサブブロックの動きをアフィンモデルに基づいてモデル化することがある、アフィンマージモードを含み得る。
ATMVPが行われることがある。
ATMVPにおいて、時間動きベクトル予測は、例えば、ブロックに、カレントブロックの中のサブブロックに対して、動き情報(たとえば、動きベクトルおよび参照インデックスを含む、複数の動き情報)を導出することを可能にすることによって向上され得る。サブブロック(たとえば、各サブブロック)に対する動き情報は、カレントピクチャの時間的に隣接するピクチャの対応する小さなブロックから導出され得る。
ATMVPは、ブロックのサブブロックの動き情報を導出し得る。次のうちの1つまたは複数が適用されることがある。カレントブロックの対応するブロック(たとえば、同一位置のブロック(collocated block)と呼ばれることがある)は、選択された時間的な参照ピクチャにおいて特定され得る。カレントブロックは、サブブロックに割られることがあり、各サブブロックの動き情報は、例えば、図5に示されるように、同一位置のピクチャにおいて対応する小ブロックから導出され得る。
図5は、例示的なサブブロック動き情報導出500を描く。カレントブロックは、サブブロックに割られることがあり、各サブブロックの動き情報は、例えば、図5に示されるように、同一位置のピクチャにおいて対応する小ブロックから導出され得る。選択された時間的な参照ピクチャは、同一位置のピクチャ(collocated picture)と呼ばれることがある。次のうちの1つまたは複数が適用されることがある。同一位置のブロックおよび同一位置のピクチャは、カレントブロックの空間的な隣接ブロックの動き情報によって特定され得る。図5は、ATMVPに関連付けられた例を例示する。図5を参照して、ブロックAは、カレントブロックのマージ候補リストにおいて第1の利用可能なマージ候補として特定され得る。ブロックAの対応する動きベクトル(たとえば、MVA)と参照インデックスとは、同一位置のピクチャおよび同一位置のブロックを特定するのに使用され得る。同一位置のピクチャにおける同一位置のブロックの位置は、ブロックAの動きベクトル(MVA)を、カレントブロックの座標に加えることによって決定され得る。
カレントブロックは、サブブロックに割られることがあり、各サブブロックの動き情報は、例えば、図5に示されるように、同一位置のピクチャにおいて対応する小ブロックから導出され得る。例にて、カレントブロックにおいて各サブブロックに対する動き情報は、(たとえば、図5にて赤い矢印によって示されるように)同一位置のブロックにおいて対応する小ブロックから導出され得る。小ブロック(たとえば同一位置のブロックの中の各小ブロック)の動き情報は、特定され、カレントブロックにおいて対応するサブブロックの動きベクトルおよび参照インデックスに変換され得る(たとえば、時間動きベクトルのスケーリングが適用され得るHEVCにおけるTMVPと同様のやり方において)。
アフィンモデルは、動き情報を示すのに使用され得る。ビデオシーケンスに存在する動きについて1つまたは複数のタイプ、たとえば、次のうちの1つまたは複数、並進運動、ズームイン/アウト、回転、遠近法の動き(perspective motion)、または他の不規則な動きがあり得る。アフィン動き場のモデリングに基づく動き補償予測が適用され得る。図6は、アフィン動き場のモデリング600の例を例示する。図6に示すように、ブロックのアフィン動き場は、1つまたは複数、たとえば、3つの、制御点の動きベクトルによって説明されることがある。三制御点動き(three control-point motion)に基づいて、1つのアフィンブロックの動き場は、次のように説明され得る。
Figure 2022516094000003
動きベクトル(v0x,v0y)は、左上の角の制御点の動きベクトルであることがあり、動きベクトル(v1x,v1y)は、右上の角の制御点の動きベクトルであり得る。1つのビデオブロックがアフィンモードによって符号化されるとき、動き場は、4x4ブロックの粒度に基づいて導出され得る。各4x4ブロックの動きベクトルを導出するために、各4x4サブブロックの中心サンプルの動きベクトルは、(1)に従って算出され得る。それは、1/16pelの正確さの概数で表され得る。導出された動きベクトルは、動き補償段階にて使用されて、カレントブロックの内側の各サブブロックの予測信号を生成し得る。
三角形インター予測(triangle inter prediction)が行われることがある。図7は、例示的な三角形の予測分割(prediction partition)700、702を描く。
あるコンテンツ(たとえば、自然のビデオコンテンツ)にて、2つの動く物体の間の境界は、水平または垂直(たとえば、完全に水平または垂直)ではないことがあり、長方形ブロックによって正確に近似することが難しいことがある。三角形の予測は、たとえば、動き補償予測に対して三角の分割を可能にするように適用され得る。図7に示すように、三角形の予測は、CUを、1つまたは複数(たとえば、2つ)の三角形の予測単位に、たとえば、対角方向または逆対角方向において割ることがある。三角形の予測単位(たとえば、CUの中の各三角形の予測単位)は、単方向予測候補リストから導出され得る、それ自体の単方向予測動きベクトルおよび参照フレームインデックスを使用してインター予測されることがある。
図8は、例示的な単方向予測動きベクトル候補導出800を描く。単方向予測候補リストは、1つまたは複数(たとえば、5つ)の単方向予測動きベクトル候補を含むことがある。単方向予測動きベクトル候補は、マージ処理(たとえば、HEVCのマージ処理)のために使用されるのと同様の(たとえば、同じ)空間的な/時間的な隣接ブロックから導出され得る。例にて、単方向予測MV候補は、図8に示されるように、5つの空間的に隣接するブロックと、2つの時間的に同一位置されるブロックとから導出され得る。図8を参照して、7つの隣接ブロックの動きベクトルは、(たとえば、隣接ブロックが双方向予測されるならば)隣接ブロックのL0動きベクトル、隣接ブロックのL1動きベクトル、隣接ブロックのL0およびL1動きベクトルの平均化動きベクトルの順に、収集され、単方向予測MV候補に加えられることがある。MV候補の数が5未満であるならば、零(0)動きベクトルがMV候補リストに加えられる。
色差イントラ予測に対してクロスコンポーネント予測(cross-component prediction)が行われることがある。あるビデオコンテンツ(たとえば、自然のビデオコンテンツ)の輝度成分と色差成分との間に相関が存在し得る。CCLM(cross-component linear model)予測モードは、色差イントラ予測に対して使用され得る。CCLM予測モードにて、色差サンプルは、ブロック(たとえば、同一のブロック)の再構成された輝度サンプルから、線形モデル、たとえば、(2)を使用することによって予測され得る。
Figure 2022516094000004
(2)を参照して、predc(i,j)は、ブロックにおける色差サンプルの予測を示すことがあり、predL(i,j)は、4:2:0色差フォーマットコンテンツに対してダウンサンプリングされ得る、色差ブロックと同じ解像度にて同一のブロックの再構成された輝度サンプルを示すことがある。パラメーターαおよびβは、それぞれ、線形モデルのスケーリングパラメーターおよびオフセットを示し得る。
本明細書に説明されるように、輝度成分に対して、たとえば、プレーンモード、DCモード、水平方向モード、および垂直方向モードを含む、1つまたは複数の(たとえば、最大4度使用される)イントラモードは、(たとえば、組みあわせたインターおよびイントラ予測モードによって)サポートされることがある。符号化デバイス(たとえば、エンコーダー)は、複数のイントラモードを試験し得る。符号化デバイスは、複数のイントラモードのうち、(たとえば、レート歪みのトレードオフの観点から)最高性能を提供するイントラモードを選択し得る。符号化デバイスは、選択されたイントラモードをシグナリングし得る(たとえば、デコーダーへ明示的にシグナリングされる)。組みあわせたインターおよびイントラ予測モードに対して、ビットレートの無視できない(たとえば、著しい)量が、イントラモードの符号化に費やされることがある。例にて、計算能力の増加により、現代のデバイス(たとえば、デコーダーを装備したワイヤレスモバイルデバイスなどのバッテリー式デバイスでさえ)は、いくつかの洗練された動作を行うことがある。デコーダー側にて組みあわせたインターおよびイントラ予測に対して使用されるイントラモードが導出され得る。デコーダー側の導出が正確であるならば、イントラモードのシグナリングがスキップされることがあり、符号化効率が向上され得る。
組みあわせたインターおよびイントラ予測は、CUがマージモードによって符号化されるときに有効にされ得る。マージモードは、(たとえば、図8に示されるように)マージモードに対して5つの空間的に隣接したものおよび2つの時間的に隣接したものを使用することを含み得る。他のマージモード(たとえば、アフィンマージ、ATMVP、MMVDおよび三角形予測)によって予測されるインターCUに対して、組みあわせたインターおよびイントラ予測は、無効にされることがある(たとえば、常にされることがある)。例えば、MMVDに対して組みあわせたインターおよびイントラ予測は、MMVDモードが真の双方向予測シナリオ(たとえば、参照リストL0およびL1から前の予測および後の予測がある)においてで主に選択されるので、無効にされることがある。動き補償予測(たとえば、インター予測)は、カレントCUを予測するのに正確であり得る。追加のインター予測が不必要であり得る。組みあわせたインターおよびイントラ予測(combined inter and intra prediction)が他のマージモードに対して無効にされることがある。1つまたは複数のマージモード(たとえば、ATMVPおよび三角形予測モード)に対して、同一の参照ピクチャにおいて空間的に隣接したものから、または時間的な参照ピクチャの同一位置のブロックから導出されるサブブロックの動きは、正確ではないことがある。今述べた場合に、組みあわせたインターおよびイントラ予測のこれらのマージモードとの組み合わせを可能にすることは、(たとえば、符号化性能の観点から)有益であり得る。
組みあわせたインターおよびイントラ予測モードの符号化性能が向上され得る。イントラモード導出は、例えば、符号化デバイス(たとえば、デコーダー)の計算能力を利用することによって、イントラモードをシグナリングすることのオーバーヘッドをスキップすることがある。組みあわせたインターおよびイントラ予測モードに対して色差の符号化が向上され得る。組みあわせたインターおよびイントラ予測モードの適用は、例えば、三角形インター予測および/またはサブブロックマージモードを含む、1つまたは複数の符号化ツールにより拡張され得る。
組みあわせたインターおよびイントラ予測が、例えば、デコーダーイントラモード導出により行われることがある。例えば、組みあわせたインターおよびイントラ予測において、輝度成分の選択されたイントラモード(たとえば、プレーンモード、DCモード、水平方向モード、または垂直方向モード)は、符号化デバイス(たとえば、エンコーダーまたはデコーダー)へ、および/または符号化デバイスからシグナリングされ得る。選択されたイントラモードをシグナリングすることは、ビットストリームの無視できない部分(たとえば、アウトプットビットスチーム(output bit-steam))をのせることがある、および/または全体的な符号化性能を減らすことがある。組みあわせたインターおよびイントラ予測に対して使用されるイントラモードは、符号化デバイス(たとえば、デコーダー)にて導出されることがあり、オーバーヘッドを減らし得る。換言すれば、デコーダーは、(たとえば、1つまたは複数の隣接再構成サンプルに基づいて)組みあわせたインターおよびイントラ予測に対してイントラモードを導出し得る。例えば、組みあわせたインターおよびイントラ予測が(たとえば、ビットストリームにてイントラモードを直にシグナリングする代わりに)CUに適用されるとき、イントラモードは、CUの隣接再構成サンプルから導出されることがある。
図9は、例示的なイントラモード導出900(たとえば、組みあわせたインターおよびイントラ予測に対するイントラモードのデコーダー側の導出)を例示する。図9に示されるように、組みあわせたインターおよびイントラ予測が適用されるカレントCUは、N×N(幅×高さ)のサイズを含むことがある。テンプレートは、カレントCUのイントラモードを導出するのに使用される再構成されたサンプルのセットを指定することがある。図9にて影を付けられたリージョンは、テンプレートを表し得る。テンプレートサイズは、ターゲットブロックの上および左に拡張されるL型リージョン内のサンプルの数、たとえば、Lとして示され得る。例えば、勾配解析は、カレントCUのサンプルと隣接ブロックとの間に強い相関(たとえば、テンプレート)があるとき、テンプレートサンプルの上に適用され得る。勾配解析は、カレントCUの組みあわせたインターおよびイントラ予測に対して使用されるイントラモードを推定するのに使用され得る。例にて、(3)に示されるように、3×3のSobelフィルタを適用して、テンプレートのサンプルの水平および垂直勾配を算出し得る。
Figure 2022516094000005
2つの行列(たとえばMxおよびMy)は、サンプル(たとえば、テンプレートサンプルの中心に置かれたサンプル)の3×3のウインドウと乗じられ得る。2つの勾配値、GxおよびGyと、アクティビティ値Acthとは、各テンプレートサンプルの水平および垂直勾配を、たとえば、(4)を使用して合計することによって算出され得る。
Figure 2022516094000006
(4)を参照して、
Figure 2022516094000007
および
Figure 2022516094000008
は、それぞれ、座標(i,j)におけるテンプレートサンプルの水平および垂直勾配を示し得る。Ωは、テンプレートにおけるサンプルの座標の集合を示すことがある。図10は、イントラモード導出に対するテンプレートサンプルの例示的な勾配算出1000を例示する。(4)にて算出された勾配値およびアクティビティ値を与えられ、最終的なイントラモード(たとえば、カレントCUに適用された最終的なイントラモード)は、(5)によって決定され得る。
Figure 2022516094000009
(5)を参照して、thgおよびthactは、符号化デバイス(たとえば、エンコーダーおよび/またはデコーダー)にて固定され使用され得る、勾配値およびアクティビティ値に対する2つの予め定義されたしきい値を示すことがある。例にて、勾配値およびアクティビティ値に対するしきい値は、符号化デバイス(たとえば、エンコーダー)によって決定され、ビットストリームにおいて他の符号化デバイス(たとえば、デコーダー)へシグナリングされることがある。
図9にて、L型のリージョンを形成する再構成サンプル(たとえば、カレントCUに最も近い再構成サンプル)は、テンプレートとして使用されることがある。例にて、異なったかたちおよび/またはサイズを有するテンプレートが選択されることがあり、異なった複雑さ/性能のトレードオフを提供することがある。大きなテンプレートサイズを選択すると、テンプレートのサンプルは、ターゲットブロックから遠く離れることがある。テンプレートとターゲットブロックとの間の相関は、不十分であり得る。大きいテンプレートサイズは、エンコードおよびデコードの(たとえば、より多くのサンプルが勾配およびアクティビティ算出に対して考慮され得ることが与えられる)複雑さを増すことがある。大きいテンプレートサイズは、ノイズが与えられるとき信頼できる推定を手放すことがある。例にて、適応的なテンプレートサイズは、イントラモードの推定に対して使用され得る。例えば、テンプレートサイズは、CUサイズに基づいて決定されることがある。テンプレートサイズは、図9において「L」の値によって表されることがある。例にて、第1のテンプレートサイズは、あるCUサイズ(たとえば、64サンプル未満)に対して使用されることがあり、第2のテンプレートサイズは、他のCUのサイズ(たとえば、64サンプル以上を有するCU)に対して使用され得る。第1のテンプレートサイズは、3(たとえば、図9に示されるようなL=3)であり得る。第2のテンプレートサイズは、5(たとえば、図9に示されるようなL=5)であり得る。
デコーダーは、組みあわせたインターおよびイントラ予測に対して輝度イントラモードを選択することがある。組みあわせたインターおよびイントラ予測に対する輝度イントラモードは、例えば、インター予測サンプルとイントラ予測サンプルとの間の差分を最小にすることによって、選択されることがある。組みあわせたインターおよびイントラ予測に対する輝度イントラモードは、(たとえば、各イントラ予測モードに対して)インター予測信号とイントラ予測信号との間において測定されたコストを算出することによって、選択されることがある。次のコスト測定値のうちの1つまたは複数(たとえばテンプレートコスト測定)は、例えば、差分絶対値和(SAD:sum of absolute difference)、差分二乗和(SSD:sum of square difference)、および/またはSATD(sum of absolute transformed difference)など、適用され得る。コストの比較に基づいて、最小のテンプレートコストを生じるイントラ予測モードは、カレントCUのイントラ予測モード(たとえば、カレントCUの最善なイントラ予測モード)として選択されることがある。例にて、最も低い測定コストに関連付けられたイントラ予測モードは、(たとえば、デコーダーによって)選択されることがある。
組みあわせたインターおよびイントラ予測は、色差CCLMにより行われることがある。組みあわせたインターおよびイントラ予測において、DM(direct mode)は、1つまたは複数の色差成分に、例えば、シグナリングすることなく適用され得る。DMにおいて、輝度成分イントラモードは、1つまたは複数の色差成分に対して再利用され得る。輝度成分と色差成分との間にチャネル間相関が存在することがある。例えば、輝度成分は、色差成分とチャネル間相関を有し得る。色差成分は、輝度成分とチャネル間相関を有し得る。CCLMは、色差イントラ予測に対して使用され得る。例えば、CCLMは、色差サンプルが、線形モデルに基づいて適用されているサブサンプリングにより、対応する輝度サンプルから予測される、色差イントラ予測に対して使用され得る。1つまたは複数のCCLMモデルパラメーターは、1つまたは複数の隣接輝度および/または色差サンプル(たとえば、カレントCUの周りのおざなりの隣接輝度および色差サンプル)から導出され得る。DMモードは、例えば、組みあわせたインターおよびイントラ予測がCUに適用されるとき、色差サンプルのイントラ予測に対してCCLMモードと取り替えられ得る。換言すれば、CCLMモードは、(たとえば、DMモードの代わりに)1つまたは複数の色差成分へ適用され得る。
CCLMモードは、次のやり方のうちの1つまたは複数において色差成分へ適用され得る。例にて、CUの1つまたは複数の輝度予測サンプルは、(たとえば、ビットストリームにおいてシグナリングされるイントラモードに基づく)イントラ予測、および(たとえば、マージボックスによって示される隣接ブロックのMVに基づく)インター予測から生成される予測サンプルを混合することによって生成され得る。輝度成分の1つまたは複数の輝度予測サンプルおよび残差サンプルは、一緒に加えられて、例えば、1つまたは複数の再構成された輝度サンプルを生成する(たとえば、形成する)ことがある。1つまたは複数の再構成された輝度サンプルは、サブサンプリングされ得る。1つまたは複数の再構成された輝度サンプルは、CCLMモードに基づいて、1つまたは複数の彩度予測サンプルを生成するのに使用され得る。
例にて、1つまたは複数の色差予測サンプル(たとえば、CCLM予測サンプル)は、色差インター予測サンプルと組み合わされて、色差成分に対して最終的な予測サンプルを生成し得る。1つまたは複数の色差予測サンプルは、色差インター予測サンプルと言われることがある。
図11は、CCLM色差予測サンプルを使用する(たとえば、直に使用する)組みあわせたインターおよびイントラ予測に対して例示的な色差予測1100を例示する。CCLMモードを色差成分に適用する(たとえば、図11にて示されるような)第1の例示的な方法において、色差LM予測サンプルは、直に使用され得る。
図12は、色差インター予測サンプルおよびCCLM色差予測サンプルを組み合わせることによって組みあわせたインターおよびイントラ予測に対して例示的な色差予測1200を例示する。CCLMモードを色差成分に適用する(たとえば、図12にて示されるような)第2の例示的な方法において、色差イントラ予測サンプルは、色差インター予測サンプルと組み合わされ得る。
DMおよびCCLMモードは、組みあわせたインターおよびイントラ予測の色差イントラ予測に対して有効にされ得る。フラグは、例えば、組みあわせたインターおよびイントラ予測がカレントCUに対して有効にされるとき、シグナリングされ得る。フラグは、DMモードまたはCCLMモードが適用されるかどうかを示すことがある。次のうちの1つまたは複数が適用されることがある。フラグが真に設定されるとき、DMモードは、たとえば、色差成分の同一のイントラモードが再利用されて、色差イントラ予測サンプルを生成するように、色差成分に適用され得る。フラグが偽に設定されるとき、CCLMモードは、色差サンプルのイントラ予測に適用され得る、たとえば、色差インター予測サンプルが、サブサンプリングされた輝度再構成サンプルから線形モードに基づいて生成されるだろう。
組みあわせたインターおよびイントラ予測は、他の符号化ツールと相互作用することがある。組みあわせたインターおよびイントラ予測は、CUがマージモード(たとえば、従来のマージモード)によって符号化されるときに有効にされ得る。組みあわせたインターおよびイントラ予測モードは、1つまたは複数の他のインター符号化ツール(たとえば、アフィンマージ、ATMVP、および三角形予測を含む)と相互作用することがある。組みあわせたインターおよびイントラ予測モードと、1つまたは複数の他のインター符号化ツールとの間の相互作用(複数可)(たとえば、相互作用の共力作用)は、向上され得る。次のうちの1つまたは複数が適用されることがある。
組みあわせたインターおよびイントラ予測は、サブブロックマージモードに対して有効にされることがある。動き情報は、サブブロックレベルにおいて導出され得る。例えば、動き情報のサブブロック導出は、サブブロックマージモード、たとえば、ATMVPおよびアフィンモードを通じて有効にされ得る。例にて、組みあわせたインターおよびイントラ予測は、(たとえば、サブブロックモードによって予測されるCUに対して)無効にされることがある。サブブロック動き情報は、1つまたは複数の空間的に隣接したものから(たとえば、アフィンマージモードにおいて)導出される(たとえば、完全に導出される)ことがある。サブブロック動き情報は、1つまたは複数の時間的に隣接したものから(たとえば、ATMVPモードにおいて)導出されることがある。サブブロック動き情報は、カレントCUの予測サンプルを生成するのに十分正確ではないことがある。サブブロックマージモードに対して組みあわせたインターおよびイントラ予測は、有効にされることがある。例にて、組みあわせたインターおよびイントラ予測は、ATMVPモードに対して有効にされる(たとえば、単に有効にされる)ことがあり、アフィンマージモードに対して無効にされる(たとえば、常に無効にされる)ことがある。組みあわせたインターおよびイントラ予測フラグは、例えば、組みあわせたインターおよびイントラ予測を有効にするためにシグナリングされ得る。組みあわせたインターおよびイントラ予測フラグは、サブブロックマージモードインデックスの後にシグナリングされ得る。サブブロックマージインデックスがアフィン候補を参照するとき、組みあわせたインターおよびイントラ予測フラグは、スキップされることがある。サブブロックマージインデックスがアフィン候補を参照するとき、組みあわせたインターおよびイントラ予測フラグは、偽である、たとえば、組みあわせたインターおよびイントラ予測を無効にする、と推論されることがある。サブブロックマージインデックスがATMVP候補を参照するならば、組みあわせたインター/イントラフラグは、組みあわせたインターおよびイントラ予測がカレントCUに対して有効にされるかどうかを示すのにシグナリングされ得る。
組みあわせたインターおよびイントラ予測は、三角形モード(たとえば、三角形のマージモード)に対して有効にされることがある。三角形予測にて、カレントCUのPU(たとえば、各PU)は、カレントCUに関する単方向予測候補からMV(たとえば、動きベクトル候補)を使用してインター予測され得る。単方向予測候補リストにおいてMV候補は、CUの動きを説明するのに十分正確ではないことがある、カレントCUの空間的におよび/または時間的に隣接するブロックから導出され得る。組みあわせたインターおよびイントラ予測は、例えば、三角形インター予測の効率を向上させる三角形予測モード用であり得る。イントラ予測モード(たとえば、単一のイントラ予測モード)は、1つまたは複数(たとえば、2)のPUに対してシグナリングされ得る。イントラ予測モードは、例えば、各PUに対して別個にシグナリングされ得る。
三角形モードは、組みあわせたインターおよびイントラ予測および/またはMMVDモードに対して無効にされ得る。三角形モードは、三角形のマージモードと言われることがある。三角形のマージモードは、CIIPが適用されず、MMVDモードが使用されないとき、有効にされ得る。例えば、ビデオ符号化デバイス(たとえば、図1に示されるように構成されたエンコーダー)は、三角形のマージモードを有効にするかどうかを決定することがある。エンコーダーが三角形のマージモードを有効にすると決定するとき、エンコーダーは、CIIPを適用せず、MMVDモードを使用しないと決定することがある。例えば、ビデオ符号化デバイスは、三角形のマージモードインディケーション(たとえば、三角形のマージモードフラグ)を受信することなく、三角形のマージモードを有効にすることがある。ビデオ符号化デバイス(たとえば、図3に示されるように構成されたデコーダー)は、MMVDモードインディケーション(たとえば、MMVDフラグ)を受信することがある。例えば、エンコーダーは、MMVDモードインディケーションをビデオ符号化デバイスに送ることがある。ビデオ符号化デバイスは、(たとえば、図13A~13Dに示されるWTRU102のような)WTRUであり得る。ビデオ符号化デバイスは、(たとえば、図13A~13Dに示されるWTRU102のような)WTRUを含み得る。MMVDモードインディケーションは、MMVDモードがCUのインター予測を生成するのに使用されるかどうかを示すことがある。MMVDモードインディケーションは、符号化単位ベースごとに受信されることがある。ビデオ符号化デバイスは、CIIP(combine inter merge/intra prediction:組みあわせたインターマージ/イントラ予測)インディケーション(たとえば、CIIPフラグ)を受信することがある。例えば、エンコーダーは、CIIPインディケーションをビデオ符号化デバイスに送ることがある。CIIPインディケーションは、MMVDモードインディケーションが、MMVDモードがCUに対して使用されることを示すとき、受信されないことがある。CIIPインディケーションは、CIIPがCUに対して適用されることを示し得る。
例にて、三角形マージフラグは、例えば、サブブロックマージフラグ、組みあわせたインター/イントラフラグ、および/またはMMVDフラグの後に、シグナリングされ得る。上のフラグのうちの1つまたは複数が真に設定されるならば、三角形フラグは、シグナリングされないことがある。CIIPインディケーションが、CIIPがCUに対して適用されることを示すとき、三角形マージフラグは、シグナリングされないことがある。例えば、エンコーダーは、CIIPインディケーションが、CIIPがCUに対して適用されないことを示すとき、ビデオ符号化デバイス(たとえば、デコーダー)へのメッセージにおいて三角形マージフラグを含まないと決定されることがある。MMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されることを示すとき、三角形マージフラグは、シグナリングされないことがある。例えば、エンコーダーは、MMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されることを示すとき、ビデオ符号化デバイス(たとえば、デコーダー)へのメッセージにおいて三角形マージフラグを含まないと決定されることがある。三角形マージフラグがシグナルされないとき、三角形マージフラグは、偽(たとえば三角形モードを無効にする)と推論されることがある。例えば、ビデオ符号化デバイスは、MMVDモードインディケーションおよび/またはCIIPインディケーションに基づいて、CUに対して三角形のマージモードを有効にするかどうかを推論し得る。ビデオ符号化デバイスは、例えば、MMVDモードインディケーションが、MMVDモードがインター予測を生成するのに使用されることを示すとき、CUに対して三角形のマージモードを無効にすることがある。ビデオ符号化デバイスは、例えば、CIIPインディケーションが、CIIPがCUに対して適用されることを示すとき、三角形のマージモードを無効にすることがある。3つのフラグが偽に設定されるならば、三角形フラグは、例えば、三角形モードがカレントCUに適用されるかどうかを示すのにシグナリングされ得る。
図13Aは、1つまたは複数の開示されている態様が実装され得る例示的な通信システム100を例示する図である。通信システム100は、例えば、音声、データ、ビデオ、メッセージング、ブロードキャストなどのようなコンテンツを、複数のワイヤレスユーザーに提供するマルチプルアクセスのシステムであることがあり得る。通信システム100は、複数のワイヤレスユーザーに、ワイヤレス帯域幅を含むシステムリソースの共有を通じて、上記のコンテンツにアクセスできるようにすることがあり得る。例えば、通信システム100は、例えば、CDMA(符号分割多元接続)、TDMA(時分割多元接続)、FDMA(周波数分割多元接続)、OFDMA(直交周波数分割多元接続)、SC-FDMA(シングルキャリアFDMA)、ZT UW DTS-s OFDM(zero-tail unique-word DFT-Spread OFDM)、UW-OFDM(unique word OFDM)、リソースブロックフィルターされた(resource block-filtered)OFDM、FBMC(filter bank multicarrier)などのような1つまたは複数のチャネルアクセスの方法を採用することがあり得る。
図13Aに示すように、通信システム100は、WTRU(ワイヤレス送信/受信ユニット)102a、102b、102c、102d、RAN104/113、CN106/115、公衆交換電話網(PSTN)108、インターネット110、および他のネットワーク112を含むことがあり得るが、開示される態様は、いくつものWTRU、基地局、ネットワーク、および/またはネットワークエレメントを予想すると理解されるであろう。WTRU102a、102b、102c、102dの各々は、ワイヤレス環境において動作するおよび/または通信するように構成されるどのタイプのデバイスであってもよい。例として、WTRU102a、102b、102c、102dは、いずれも、「局」および/または「STA」ということがあり、ワイヤレス信号を送信するおよび/または受信するように構成されることがあり、UE(ユーザー機器)、移動局、固定または移動の加入者ユニット、サブスクリプションベースのユニット、ページャー、セルラー電話、PDA(パーソナルデジタルアシスタント)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピューター、ワイヤレスセンサー、ホットスポットまたはMi-Fiデバイス、IoT(モノのインターネット)デバイス、腕時計または他のウェアラブル、HMD(ヘッドマウントディスプレイ)、車両、ドローン、医療用のデバイスおよびアプリケーション(たとえば、遠隔手術)、工業用のデバイスおよびアプリケーション(たとえば、工業のおよび/または自動化された処理チェーンのコンテキストにおいて動作するロボットおよび/または他のワイヤレスデバイス)、家電デバイス、商業および/または工業のワイヤレスネットワーク上に動作するデバイスなどを含むことがあり得る。どのWTRU102a、102b、102c、および102dをとっても、UEと交換可能にいうことがあり得る。
さらに、通信システム100は、基地局114aおよび/または基地局114bを含むこともあり得る。基地局114a、114bの各々は、1つまたは複数の通信ネットワーク、例えば、CN106/115、インターネット110、および/またはその他のネットワーク112などへのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つとワイヤレスにインターフェイスするように構成されるどのタイプのデバイスであってもよい。例として、基地局114a、114bは、BTS(無線基地局装置)、Node-B、eNode B、ホームNode B、ホームeNode B、gNB、NR NodeB、サイトコントローラー、AP(アクセスポイント)、ワイヤレスルータなどであることがあり得る。基地局114a、114bは、各々、単一の要素として描かれる一方、基地局114a、114bは、相互接続された基地局および/またはネットワークエレメントをいくつでも含むことがあり得ると理解されるであろう。
基地局114aは、さらに、他の基地局および/または、例えば、BSC(基地局制御装置)、RNC(無線ネットワーク制御装置)、中継ノードなどのようなネットワークエレメント(図示せず)を含むこともあり得るRAN104/113の一部であることがあり得る。基地局114aおよび/または基地局114bは、1つまたは複数のキャリア周波数上にワイヤレス信号を送信するおよび/または受信するように構成されることがあり、セル(図示せず)ということがあり得る。今述べた周波数は、許可されたスペクトル、許可されていないスペクトル、または許可されたスペクトルと、許可されていないスペクトルとの組合せであることがあり得る。セルは、相対的に固定されることがあり、またはやがて変化することがあり得る特定の地理的なエリアに対して、カバレッジをワイヤレスサービスに提供することがあり得る。さらに、セルは、セルのセクターに分割されることがあり得る。例えば、基地局114aに関連付けられたセルは、3つのセクターに分割されることがあり得る。したがって、一態様において、基地局114aは、3つのトランシーバー、すなわち、セルの各セクターに対して1つを含むことがあり得る。態様において、基地局114aは、MIMO(multiple-input multiple output)の技術を採用することがあり、セルの各セクターに対して複数のトランシーバーを利用することがあり得る。例えば、ビームフォーミングは、望ましい空間方向に信号を送信するおよび/または受信するために使用されることがあり得る。
基地局114a、114bは、適切な、どんなワイヤレス通信リンク(たとえば、RF(無線周波数)、マイクロ波、センチメートル波、マイクロメートル波、IR(赤外線)、UV(紫外線)、可視光など)でもあることがあり得るエアインターフェイス116を介して、WTRU102a、102b、102c、102dのうちの1つまたは複数と通信することがあり得る。エアインターフェイス116は、適切な、どのRAT(無線アクセス技術)を使用しても確立されることがあり得る。
より具体的には、上に述べたように、通信システム100は、マルチプルアクセスのシステムであることがあり、例えば、CDMA、TDMA、FDMA、OFDMA、SC-FDMAなどのような1つまたは複数のチャネルアクセススキームを採用することがあり得る。例えば、RAN104/113における基地局114a、およびWTRU102a、102b、102cは、例えば、WCDMA(wideband CDMA)を使用してエアインターフェイス115/116/117を確立することがあり得るUTRA(UMTS(Universal Mobile Telecommunications System) Terrestrial Radio Access)などの無線技術を実装することがあり得る。WCDMAは、例えば、HSPA(High-Speed Packet Access)および/またはHSPA+(Evolved HSPA)などの通信プロトコルを含むことがあり得る。HSPAは、HSDPA(High-Speed DL(Downlink) Packet Access)および/またはHSUPA(High-Speed UL Packet Access)を含むことがあり得る。
態様において、基地局114aおよびWTRU102a、102b、102cは、LTE(Long Term Evolution)および/またはLTE-A(LTE-Advanced)および/またはLTE-A Pro(LTE-Advanced Pro)を使用してエアインターフェイス116を確立することがあり得る、例えばE-UTRA(Evolved UMTS Terrestrial Radio Access)などの無線技術を実装することがあり得る。
態様において、基地局114aおよびWTRU102a、102b、102cは、NR(New Radio)を使用してエアインターフェイス116を確立することがあり得る、例えばNRの無線アクセスなどの無線技術を実装することがあり得る。
態様において、基地局114aおよびWTRU102a、102b、102cは、複数の無線アクセス技術を実装することがあり得る。例えば、基地局114aおよびWTRU102a、102b、102cは、例えばDC(dual connectivity;デュアルコネクティビティ)の原理を使用して、LTEの無線アクセスおよびNR無線のアクセスをともに実装することがあり得る。したがって、WTRU102a、102b、102cによって利用されるエアインターフェイスは、複数の種類の無線アクセス技術、および/または複数の種類の基地局(たとえば、eNBおよびgNB)に/から送られる送信によって、特徴付けられることがあり得る。
他の態様において、基地局114aおよびWTRU102a、102b、102cは、例えば、IEEE802.11(すなわち、WiFi(Wireless Fidelity))、IEEE802.16(すなわち、WiMAX(Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV-DO、IS-2000(Interim Standard 2000)、IS-95(Interim Standard 95)、IS-856(Interim Standard 856)、GSM(Global System for Mobile communications)、EDGE(Enhanced Data rates for GSM Evolution)、GERAN(GSM EDGE)などのような無線技術を実装することがあり得る。
図13Aにおける基地局114bは、例えば、ワイヤレスルータ、ホームNode B、ホームeNode B、またはアクセスポイントであることがあり、例えば、事業所、家庭、車両、キャンパス、工業施設、空中回廊(たとえば、ドローンによる使用のための)、車道などのような局所的なエリアにおいてワイヤレス接続を容易にするのに適したどんなRATでも利用してよい。一態様において、基地局114bおよびWTRU102c、102dは、WLAN(wireless local area network)を確立するために、例えばIEEE802.11などの無線技術を実装することがあり得る。態様において、基地局114bおよびWTRU102c、102dは、WPAN(wireless personal area network)を確立するために、例えばIEEE802.15などの無線技術を実装することがあり得る。さらに別の態様において、基地局114bおよびWTRU102c、102dは、ピコセルまたはフェムトセルを確立するために、セルラーベースのRAT(たとえば、WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NRなど)を利用することがあり得る。図13Aに示すように、基地局114bは、インターネット110への直接接続を有することがあり得る。したがって、基地局114bは、CN106/115を介してインターネット110にアクセスすることが要求されないことがあり得る。
RAN104/113は、CN106/115と通信状態であることがあり、音声、データ、アプリケーション、および/またはVoIP(voice over internet protocol)サービスを、WTRU102a、102b、102c、102dのうちの1つまたは複数に提供するように構成されるどのタイプのネットワークであってもよい。データは、例えば、異なるスループットの要件、待ち時間の要件、エラーの許容範囲の要件、信頼性の要件、データスループットの要件、モビリティの要件などのような様々なQoS(quality of service)の要件を有することがあり得る。CN106/115は、コール制御、料金請求サービス、モバイルロケーションベースサービス(mobile location-based service)、プリペイドコーリング、インターネット接続、ビデオ配信などを提供すること、および/または例えばユーザー認証などのハイレベルなセキュリティー機能を実行することがあり得る。図13Aに示されないが、RAN104/113および/またはCN106/115は、RAN104/113と同一のRATまたは異なるRATを採用する他のRANと直接または間接の通信状態にあることがあり得ると理解されるであろう。例えば、CN106/115は、NRの無線技術を利用していることがあり得るRAN104/113に接続されていることに加えて、さらに、GSM、UMTS、CDMA2000、WiMAX、E-UTRA、またはWiFiの無線技術を採用する別のRAN(図示せず)と通信状態にあることもあり得る。
さらに、CN106/115は、WTRU102a、102b、102c、102dがPSTN108、インターネット110、および/またはその他のネットワーク112にアクセスするためのゲートウェイとしての役割を果たすこともあり得る。PSTN108は、POTS(plain old telephone service)を提供する回線交換の電話網を含むことがあり得る。インターネット110は、一般的な通信プロトコル、例えば、TCP(transmission control protocol)/IP(internet protocol)のインターネットプロトコルスイートにおけるTCP、UDP(user datagram protocol)、および/またはIPなどを使用する相互接続されたコンピューターネットワークおよびデバイスからなるグローバルシステムを含むことがあり得る。ネットワーク112は、他のサービスプロバイダによって所有されるおよび/または運営される有線および/またはワイヤレスの通信ネットワークを含むことがあり得る。例えば、ネットワーク112は、RAN104/113と同一のRATまたは異なるRATを採用することがあり得る1つまたは複数のRANに接続される別のCNを含むことがあり得る。
通信システム100におけるWTRU102a、102b、102c、102dのうちのいくつかまたはすべては、マルチモードの性能を含むことがあり得る(たとえば、WTRU102a、102b、102c、102dは、別個のワイヤレスリンクを介して別個のワイヤレスネットワークと通信するために複数のトランシーバーを含むことがあり得る)。例えば、図13Aに示されるWTRU102cは、セルラーベースの無線技術を採用することがあり得る基地局114aと、およびIEEE802の無線技術を採用することがあり得る基地局114bと通信するように構成されることがあり得る。
図13Bは、例示的なWTRU102を例示するシステム図である。図13Bに示すように、WTRU102は、数ある中でも、プロセッサー118、トランシーバー120、送信/受信エレメント122、スピーカー/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、取り外しできないメモリー130、取り外し可能なメモリー132、電源134、GPS(グローバルポジショニングシステム)のチップセット136、および/または他の周辺機器138を含むことがあり得る。WTRU102は、態様に矛盾しないまま、上述の要素のどんな部分的な組合せ(sub-combination)でも含むことあり得ると理解されるであろう。
プロセッサー118は、汎用プロセッサー、専用プロセッサー、従来型プロセッサー、DSP(digital signal processor)、複数のマイクロプロセッサー、DSPコアとともに1つまたは複数のマイクロプロセッサー、コントローラー、マイクロコントローラー、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)回路、他種類のIC(集積回路)のいずれか、ステートマシンなどであることがあり得る。プロセッサー118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102にワイヤレス環境において動作できるようにする他のどんな機能でも実行することがあり得る。プロセッサー118は、送信/受信エレメント122に結合することがあり得るトランシーバー120に結合されることがあり得る。図13Bは、プロセッサー118およびトランシーバー120を別々のコンポーネントとして描く一方、プロセッサー118およびトランシーバー120は、電子パッケージまたはチップにおいてともに統合されることがあり得ると理解されるであろう。
送信/受信エレメント122は、エアインターフェイス116を介して、基地局(たとえば、基地局114a)に対して信号を送信するまたは受信するように構成されることがあり得る。例えば、一態様においては、送信/受信エレメント122は、RF信号を送信するおよび/または受信するように構成されるアンテナであることがあり得る。態様において、送信/受信エレメント122は、例えば、IR信号、UV信号もしくは可視光信号を送信する、および/または受信するように構成されるエミッター/ディテクターであることがあり得る。さらに別の態様において、送信/受信エレメント122は、RFおよび光の信号の両方を送信するおよび/または受信するように構成されることがあり得る。送信/受信エレメント122は、ワイヤレス信号のどんな組合せでも送信するおよび/または受信するように構成されることがあり得ると理解されるであろう。
送信/受信エレメント122は、図13Bにおいて単一の要素として描かれるが、WTRU102は、送信/受信エレメント122をいくつでも含むことがあり得る。より具体的には、WTRU102は、MIMOの技術を採用することがあり得る。したがって、一態様において、WTRU102は、エアインターフェイス116を介して、ワイヤレス信号を送信し受信するために、2つ以上の送信/受信エレメント122(たとえば、複数のアンテナ)を含むことがあり得る。
トランシーバー120は、送信/受信エレメント122によって送信されることである信号を変調するように、および送信/受信エレメント122によって受信される信号を復調するように構成されることがあり得る。上に述べたように、WTRU102は、マルチモードの性能を有することがあり得る。したがって、例えば、トランシーバー120は、WTRU102に、例えばNRおよびIEEE802.11などの複数のRATによって通信できるようにするために、複数のトランシーバーを含むことがあり得る。
WTRU102のプロセッサー118は、スピーカー/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(たとえば、LCD(液晶ディスプレイ)ディスプレイユニットもしくはOLED(有機発光ダイオード)ディスプレイユニット)により、結合されることがありおよびユーザー入力データを受信することがあり得る。さらに、プロセッサー118は、ユーザーデータを、スピーカー/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128に出力することもあり得る。加えて、プロセッサー118は、適切な、どんなタイプのメモリーでも、例えば、取り外しできないメモリー130および/または取り外し可能なメモリー132などに対して、情報にアクセスしデータを格納することがあり得る。取り外しできないメモリー130は、RAM(random-access memory)、ROM(読み出し専用メモリー)、ハードディスク、または他のどんなタイプのメモリーストレージデバイスでも含むことがあり得る。取り外し可能なメモリー132は、SIM(subscriber identity module)カード、メモリースティック、SD(secure digital)メモリーカードなどを含むことがあり得る。他の態様において、プロセッサー118は、WTRU102に物理的に配置されない、例えば、サーバーまたはホーコンピューター(図示せず)などのメモリーに対して、情報にアクセスしデータを格納することがあり得る。
プロセッサー118は、電源134から電力を受け取ることがあり、WTRU102におけるその他のコンポーネントへの電力を分配および/または制御するように構成されることがあり得る。電源134は、WTRU102に電力を供給するのに適したどのデバイスでもあってもよい。例えば、電源134は、1つまたは複数の乾電池(たとえば、NiCd(ニッケルカドミウム)、NiZn(ニッケル亜鉛)、NiMH(ニッケル水素)、Li-ion(リチウムイオン)など)、太陽電池、燃料電池などを含むことがあり得る。
さらに、プロセッサー118は、WTRU102の現在のロケーションに関する位置情報(たとえば、経度および緯度)を提供するように構成されることがあり得るGPSチップセット136に結合されることもあり得る。GPSチップセット136からの情報に加えてまたは代わりに、WTRU102は、基地局(たとえば、基地局114a、114b)からエアインターフェイス116を介して位置情報を受信する、および/または2つ以上の近隣の基地局から受信されている信号のタイミングに基づいてそのロケーションを決定することがあり得る。WTRU102は、態様に矛盾しないまま、適切な、どんな位置決定(location-determination)の方法を通じてでも位置情報を取得することがあり得るということが理解されるであろう。
さらに、プロセッサー118は、追加の特徴、機能性、および/または有線接続もしくはワイヤレス接続を提供する1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことがあり得る他の周辺機器138に結合されることがあり得る。例えば、周辺機器138は、加速度計、eコンパス、衛星トランシーバー、デジタルカメラ(写真および/またはビデオ用)、USB(ユニバーサルシリアルバス)ポート、振動デバイス、テレビジョントランシーバー、ハンドフリーヘッドセット、Bluetooth(登録商標)モジュール、FM(frequency modulated)ラジオユニット、デジタルミュージックプレーヤー、メディアプレーヤー、ビデオゲームプレーヤーモジュール、インターネットブラウザー、VR/AR(仮想現実および/または拡張現実)デバイス、アクティビティートラッカーなどを含むことがあり得る。周辺機器138は、1つまたは複数のセンサーを含むことがあり、センサーは、ジャイロスコープ、加速度計、ホール効果センサー、磁力計、方位センサー、近接センサー、温度センサー、時間センサー、ジオロケーションセンサー(geolocation sensor)、高度計、光センサー、タッチセンサー、磁力計、気圧計、ジェスチャーセンサー、生体認証センサー、および/または湿度センサーのうちの1つまたは複数であることがあり得る。
WTRU102は、(たとえば、UL(たとえば、送信用)およびダウンリンク(たとえば、受信用)の両方に関して特定のサブフレームに関連付けられた)信号のうちのいくつかまたはすべての送信および受信が並列および/または同時であることがあり得る全二重無線を含むことがあり得る。全二重無線は、ハードウェア(たとえば、チョーク)か、プロセッサー(たとえば、別々のプロセッサー(図示せず)、またはプロセッサー118による)による信号処理かのいずれかによる自己干渉を減らすおよびまたは実質的になくすための干渉管理ユニットを含むことがあり得る。態様において、WRTU102は、(たとえば、UL(たとえば、送信用)かダウンリンク(たとえば、受信用)かのいずれかに関して特定のサブフレームに関連付けられた)信号のうちのいくつかまたはすべての送信および受信が半二重無線を含むことがあり得る。
図13Cは、態様によるRAN104およびCN106を例示するシステム図である。上に述べたように、RAN104は、エアインターフェイス116を介してWTRU102a、102b、102cと通信するためにE-UTRAの無線技術を採用することがあり得る。さらに、RAN104は、CN106と通信状態にあることもあり得る。
RAN104は、eNode-B160a、160b、160cを含むことがあり得るが、RAN104は、態様に矛盾しないまま、eNode-Bをいくつでも含むことがあり得ると理解されるであろう。eNode-B160a、160b、160cは、各々、エアインターフェイス116を介してWTRU102a、102b、102cと通信するために1つまたは複数のトランシーバーを含むことがあり得る。一態様において、eNode-B160a、160b、160cは、MIMOの技術を実装することがあり得る。したがって、例えば、eNode-B160aは、WTRU102aに対して、ワイヤレス信号を送信するおよび/またはワイヤレス信号を受信するために複数のアンテナを使用することがあり得る。
eNode-B160a、160b、160cの各々は、特定のセル(図示せず)に関連付けられることがあり、無線リソース管理の決定、ハンドオーバーの決定、ULおよび/またはDLにおけるユーザーのスケジューリングなどを取り扱うように構成されることがあり得る。図13Cに示すように、eNode-B160a、160b、160cは、X2インターフェイスを介して互いに通信することがあり得る。
図13Cに示すCN106は、MME(mobility management entity)162、SGW(サービングゲートウェイ)164、およびPDN(packet data network)ゲートウェイ(またはPGW)166を含むことがあり得る。上述の要素の各々は、CN106の一部として描かれる一方、今述べた要素のうちのいずれかが、CNオペレーター以外のエンティティーによって所有されるおよび/または運営されることがあり得るということが理解されるであろう。
MME162は、S1インターフェイスを介して、RAN104におけるeNode-B162a、162b、162cの各々に接続されることがあり、制御ノードとしての役割を果たすことがあり得る。例えば、MME162は、WTRU102a、102b、102cのユーザーを認証すること、ベアラのアクティベーション/非アクティベーション、WTRU102a、102b、102cの初期の接続中に特定のサービングゲートウェイを選択することなどに対して責任があることがあり得る。MME162は、RAN104と、例えば、GSMおよび/またはWCDMAなどの他の無線技術を採用する他のRAN(図示せず)との間の切り替えに、制御プレーン機能を提供することがあり得る。
SGW164は、S1インターフェイスを介して、RAN104におけるeNode B160a、160b、160cの各々に接続されることがあり得る。一般に、SGW164は、ユーザーデータパケットを、WTRU102a、102b、102cに対して、ルーティングし転送することがあり得る。SGW164は、例えば、eNode B間ハンドオーバーの間にユーザープレーンを固定すること、DLデータがWTRU102a、102b、102cに利用可能なときページングをトリガーすること、WTRU102a、102b、102cのコンテキストを管理し格納することなどのような他の機能を実行することがあり得る。
SGW164は、WTRU102a、102b、102cと、IP対応デバイスとの間における通信を容易にするために、パケット交換ネットワーク、例えばインターネット110などへのアクセスを、WTRU102a、102b、102cに提供することがあり得るPGW166に接続されることがあり得る。
CN106は、他のネットワークとの通信を容易にすることがあり得る。例えば、CN106は、WTRU102a、102b、102cと、従来の地上通信線の通信デバイスとの間における通信を容易にするために、回線交換ネットワーク、例えばPSTN108などへのアクセスを、WTRU102a、102b、102cに提供することがあり得る。例えば、CN106は、CN106とPSTN108との間におけるインターフェイスとしての役割を果たすIPゲートウェイ(たとえば、IMS(IPマルチメディアサブシステム)サーバー)を含むことがあり、またはIPゲートウェイと通信することがあり得る。加えて、CN106は、他のサービスプロバイダによって所有されるおよび/または運営される他の有線および/またはワイヤレスのネットワークを含むことがあり得る他のネットワーク112へのアクセスを、WTRU102a、102b、102cに提供することがあり得る。
WTRUは、図13A~図13Dにおいてワイヤレス端末として説明されるが、ある代表的な態様において、上記の端末は、通信ネットワークとの有線通信インターフェイスを(たとえば、一時的にまたは永久に)使用することがあり得ると予想される。
代表的な態様において、その他のネットワーク112は、WLANであることがあり得る。
インフラストラクチャーのBSS(Basic Service Set)のモードにおけるWLANは、BSS用のAP(アクセスポイント)と、APに関連付けられた1つまたは複数のSTA(ステーション)とを有することがあり得る。APは、DS(配信システム)、またはBSSに出入りするトラフィックを搬送する別のタイプの有線ネットワーク/ワイヤレスネットワークに対するアクセスまたはインターフェイスを有することがあり得る。BSSの外部から生じるSTAへのトラフィックは、APを通じて届くことがあり得て、STAへ配信されることがあり得る。STAからBSSの外部の宛先へ生じるトラフィックは、APへ送られて、それぞれの宛先へ配信されることがあり得る。BSS内のSTA間のトラフィックは、例えば、発信元のSTAがトラフィックをAPに送ることがあり得て、APがトラフィックを送信先のSTAに配信することがあり得る場合に、APを通じて送られることがあり得る。BSS内のSTA間のトラフィックは、ピアツーピアのトラフィックと考えられる、および/またはいわれることがあり得る。ピアツーピアのトラフィックは、DLS(direct link setup)によって、発信元および送信先のSTA間に(たとえば、の間でダイレクトに)送られることがあり得る。ある代表的な態様において、DLSは、802.11eのDLSまたは802.11zのTDLS(tunneled DLS)を使用することがあり得る。IBSS(Independent BSS)モードを使用するWLANは、APを有さないことがあり、IBSS内のまたはIBSSを使用するSTA(たとえば、すべてのSTA)は、互いに直接通信することがあり得る。通信のIBSSモードは、本明細書においは、時には、通信の「アドホック」モードということがあり得る。
動作の802.11acインフラストラクチャーモードまたは動作の同様のモードを使用するとき、APは、例えば、プライマリーチャネルなどの固定されたチャネル上にビーコンを送信することがあり得る。プライマリーチャネルは、固定された幅(たとえば、20MHz幅の帯域幅)、またはシグナリングにより動的に設定される幅であることがあり得る。プライマリーチャネルは、BSSの動作チャネルであることがあり、APとの接続を確立するためにSTAによって使用されることがあり得る。ある代表的な態様において、CSMA/CA(搬送波感知多重アクセス/衝突回避)は、例えば、802.11システムに実装されることがあり得る。CSMA/CAに関し、APを含むSTA(たとえば、あらゆるSTA)は、プライマリーチャネルを感知することがあり得る。プライマリーチャネルが、特定のSTAによって、感知される/検出される、および/または、ビジーであると決定されるならば、特定のSTAは、バックオフをすることがあり得る。1つのSTA(たとえば、ただ1つのステーション)は、与えられたBSSにおいて、与えられたどんなときにでも送信することがあり得る。
HT(高スループット)のSTAは、例えば、40MHz幅のチャネルを構成するために、20MHzのプライマリーチャネルと、隣接するまたは隣接していない20MHzのチャネルとの組み合わせによって、通信用に40MHz幅のチャネルを使用することがあり得る。
VHT(Very High Throughput)のSTAは、20MHz、40MHz、80MHz、および/または160MHzの幅のチャネルをサポートすることがあり得る。40MHzおよび/または80MHzのチャネルは、連続的な(contiguous)20MHzを組み合わせることによって構成されることがあり得る。160MHzのチャネルは、8つの連続的な20MHzのチャネルを組み合わせることによって、または80+80構成ということがあり得る2つの非連続的な(non-contiguous)80MHzのチャネルを組み合わせることによって、構成されることがあり得る。80+80構成に関し、データは、チャネルエンコーディングの後に、データを2つのストリームへと分割することがあり得るセグメントパーサー(segment parser)にすすむことがあり得る。IFFT(逆高速フーリエ変換)処理、および時間領域処理は、別々に、各ストリーム上において行われることがあり得る。ストリームは、2つの80MHzのチャネル上にマップされることがあり、データは、送信側のSTAによって送信されることがあり得る。受信側のSTAのレシーバーにおいて、上に述べた80+80構成に対する動作は、反転されることがあり、組み合わされたデータは、MAC(メディアアクセス制御)に送られることがあり得る。
動作のサブの1GHzモードは、802.11afおよび802.11ahによってサポートされる。チャネルの動作帯域幅、およびキャリアは、802.11nおよび802.11acに使用されるのと比較して802.11afおよび802.11ahにおいて減らされる。802.11afは、TVWS(TVホワイトスペース)のスペクトルにおける5MHz、10MHz、および20MHzの帯域幅をサポートし、802.11ahは、TVWSでない(non-TVWS)スペクトルを使用する1MHz、2MHz、4MHz、8MHz、および16MHzの帯域幅をサポートする。代表的な態様によれば、802.11ahは、メータタイプ制御(Meter Type Control)/マシンタイプ通信(Machine-Type Communication)を、例えば、マクロカバレッジエリアにおけるMTCデバイスなどをサポートすることがあり得る。MTCデバイスは、ある程度の性能、例えば、ある程度のおよび/または制限された帯域幅用のサポート(たとえば、サポートのみ)を含む制限された性能を有することがあり得る。MTCデバイスは、(たとえば、非常に長いバッテリー寿命を維持するために)しきい値を超えるバッテリー寿命を有するバッテリーを含むことがあり得る。
複数のチャネル、およびチャネル帯域幅、例えば、802.11n、802.11ac、802.11af、および802.11ahなどをサポートすることがあり得るWLANシステムは、プライマリーチャネルとして指定されることがあり得るチャネルを含む。プライマリーチャネルは、BSSにおいて、すべてのSTAによってサポートされる最大の共通の動作帯域幅に等しい帯域幅を有することがあり得る。プライマリーチャネルの帯域幅は、BSSにおいて動作しているすべてのSTAの中から、最小の帯域幅の動作モードをサポートするSTAによって設定および/または制限されることがあり得る。802.11ahの例において、たとえAP、およびBSSにおける他のSTAが、2MHz、4MHz、8MHz、16MHz、および/または他のチャネル帯域幅の動作モードをサポートしても、プライマリーチャネルは、1MHzモードをサポートする(たとえば、サポートするだけの)STA(たとえば、MTCタイプデバイス)に対して1MHz幅であることがあり得る。キャリアセンシングおよび/またはNAV(Network Allocation Vector;ネットワーク割当てベクトル)設定は、プライマリーチャネルの状態に依存することがあり得る。プライマリーチャネルが、例えば、APに送信している(1MHzの動作モードだけをサポートする)STAに起因してビジーであるならば、利用可能な全周波数帯域は、たとえ周波数帯域の大部分がアイドルのままであり利用可能であることがあり得ても、ビジーと考えられることがあり得る。
米国において、802.11ahによって使用されることがあり得る利用可能な周波数帯域は、902MHzから928MHzまでである。韓国において、利用可能な周波数帯域は、917.5MHzから923.5MHzまでである。日本において、利用可能な周波数帯域は、916.5MHzから927.5MHzまでである。802.11ahに利用可能な合計の帯域幅は、国コードによって、6MHzから26MHzまでである。
図13Dは、態様によるRAN113およびCN115を例示するシステム図である。上に述べたように、RAN113は、エアインターフェイス116を介してWTRU102a、102b、102cと通信するためにNRの無線技術を採用することがあり得る。さらに、RAN113は、CN115と通信状態にあることもあり得る。
RAN113は、gNB180a、180b、180cを含むことがあり得るが、RAN113は、態様に矛盾しないまま、gNBをいくつでも含むことがあり得るということが理解されるであろう。gNB180a、180b、180cは、各々、エアインターフェイス116を介してWTRU102a、102b、102cと通信するために1つまたは複数のトランシーバーを含むことがあり得る。一態様において、gNB180a、180b、180cは、MIMOの技術を実装することがあり得る。例えば、gNB180a、108bは、gNB180a、180b、180cに対して、信号を送信するおよび/または信号を受信するためにビームフォーミングを利用することがあり得る。したがって、例えば、gNB180aは、WTRU102aに対して、ワイヤレス信号を送信するために、および/またはワイヤレス信号を受信するために、複数のアンテナを使用することがあり得る。態様において、gNB180a、180b、180cは、キャリアアグリゲーションの技術を実装することがあり得る。例えば、gNB180aは、複数のコンポーネントキャリアをWTRU102a(図示せず)に送信することがあり得る。今述べたコンポーネントキャリアのサブセットは、残りのコンポーネントキャリアが、許可されたスペクトラム上にあることがあり得る間、許可されないスペクトラム上にあることがあり得る。態様において、gNB180a、180b、180cは、CoMP(Coordinated Multi-Point)の技術を実装することがあり得る。例えば、WTRU102aは、gNB180aおよびgNB180b(および/またはgNB180c)から協調送信を受信することがあり得る。
WTRU102a、102b、102cは、スケーラブルなニューメロロジー(numerology)に関連付けられた送信を使用して、gNB180a、180b、180cと通信することがあり得る。例えば、OFDMのシンボル間隔および/またはOFDMのサブキャリア間隔は、別個の送信、別個のセル、および/またはワイヤレス送信のスペクトルについての別個の部分に対して、変わることがあり得る。WTRU102a、102b、102cは、種々のまたはスケーラブルな長さのサブフレームまたはTTI(送信時間間隔)(たとえば、様々な数のOFDMシンボルおよび/または永続的な様々な長さの絶対時間を含む)を使用して、gNB180a、180b、180cと通信することがあり得る。
gNB180a、180b、180cは、スタンドアロンの構成および/またはスタンドアロンでない構成において、WTRU102a、102b、102cと通信するように構成されることがあり得る。スタンドアロンの構成において、WTRU102a、102b、102cは、他のRAN(例えば、eNode-B160a、160b、160cなど)にアクセスすることもなく、gNB180a、180b、180cと通信することがあり得る。スタンドアロンの構成において、WTRU102a、102b、102cは、gNB180a、180b、180cのうちの1つまたは複数を、モビリティアンカーポイント(mobility anchor point)として利用することがあり得る。スタンドアロンの構成において、WTRU102a、102b、102cは、許可されない帯域における信号を使用して、gNB180a、180b、180cと通信することがあり得る。スタンドアロンではない構成において、WTRU102a、102b、102cは、例えば、eNode-B160a、160b、160cなどの別のRANと通信している/接続している間にも、gNB180a、180b、180cと通信する/接続することがあり得る。例えば、WTRU102a、102b、102cは、DCの原理を実装して、1つまたは複数のgNB180a、180b、180cおよび1つまたは複数のeNode-B160a、160b、160cと実質的に同時に通信することがあり得る。スタンドアロンではない構成において、eNode-B160a、160b、160cは、WTRU102a、102b、102cのためのモビリティアンカーとして役割を果たすことがあり、gNB180a、180b、180cは、WTRU102a、102b、102cにサービスを提供することに、追加のカバレッジおよび/またはスループットを提供することがあり得る。
gNB180a、180b、180cの各々は、特定のセル(図示せず)に関連付けられることがあり、無線リソース管理の決定、ハンドオーバーの決定、ULおよび/またはDLにおけるユーザーのスケジューリング、ネットワークスライシングのサポート、デュアルコネクティビティ、NRとE-UTRAとの間におけるインターワーキング、UPF(User Plane Function)184a、184bに対するユーザープレーンのデータのルーティング、AMF(Access and Mobility Management Function)182a、182bに対する制御プレーンの情報のルーティングなどを取り扱うように構成されることがあり得る。図13Dに示すように、gNB180a、180b、180cは、Xnインターフェイスを介して互いに通信することがあり得る。
図13Dに示すCN115は、少なくとも1つのAMF182a、182b、少なくとも1つのUPF184a、184b、少なくとも1つのSMF(セッション管理機能)183a、183b、およびことによるとDN(データネットワーク)185a、185bを含むことがあり得る。上述の要素の各々は、CN115の一部として描かれる一方、今述べた要素のうちのいずれかが、CNオペレーター以外のエンティティーによって所有されるおよび/または運営されることがあり得るということが理解されるであろう。
AMF182a、182bは、N2インターフェイスを介して、RAN113におけるgNB180a、180b、180cのうちの1つまたは複数に接続されることがあり、制御ノードとしての役割を果たすことがあり得る。例えば、AMF182a、182bは、WTRU102a、102b、102cのユーザーを認証すること、ネットワークスライシングに対するサポート(たとえば、別個の要件を有する別個のPDUのセッションを取り扱うこと)、特定のSMF183a、183bを選択すること、登録エリアの管理、NASシグナリングの終了、モビリティ管理などに対して責任があることがあり得る。ネットワークスライシングは、WTRU102a、102b、102cに利用されているサービスのタイプに基づいて、WTRU102a、102b、102c用のCNのサポートをカスタマイズするために、AMF182a、182bによって使用されることがあり得る。例えば、別個のネットワークスライスは、例えば、超高信頼低遅延(URLLC)アクセスに依存するサービス、eMBB(enhanced massive mobile broadband)のアクセスに依存するサービス、MTC(マシンタイプ通信)のアクセスに関するサービスなどのような別個のユースケース(use case)に関して確立されることがあり得る。AMF162は、制御プレーン機能を、RAN113と、例えばLTE、LTE-A、LTE-A Proなどの他の無線技術および/または例えばWiFiなどの非3GPPアクセス技術を採用する他のRAN(図示せず)との間の切り替えに、提供することがあり得る。
SMF183a、183bは、N11インターフェイスを介して、CN115におけるAMF182a、182bに接続されることがあり得る。さらに、SMF183a、183bは、N4インターフェイスを介して、CN115におけるUPF184a、184bに接続されることもあり得る。SMF183a、183bは、UPF184a、184bを選択し制御し、UPF184a、184bを通るトラフィックのルーティングを構成することがあり得る。SMF183a、183bは、例えば、UEのIPアドレスを管理し割当てること、PDUのセッションを管理すること、ポリシーの実施(policy enforcement)およびQoSを制御すること、ダウンリンクデータ通知を提供することなどのような他の機能を実行することがあり得る。PDUのセッションタイプは、IPベース、非IPベース、イーサネットベースなどであることがあり得る。
UPF184a、184bは、N3インターフェイスを介してRAN113におけるgNB180a、180b、180cのうちの1つまたは複数に接続されることがあり、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、WTRU102a、102b、102cに、例えば、インターネット110などのパケット交換ネットワークへのアクセスを提供することがあり得る。UPF184、184bは、例えば、パケットをルーティングし転送すること、ユーザープレーンのポリシーを実施すること、マルチホームのPDUのセッションをサポートすること、ユーザープレーンのQoSを取り扱うこと、ダウンリンクのパケットをバッファリングすること、モビリティアンカリング(mobility anchoring)を提供することなどのような他の機能を実行することがあり得る。
CN115は、他のネットワークとの通信を容易にすることがあり得る。例えば、CN115は、CN115とPSTN108との間におけるインターフェイスとしての役割を果たすIPゲートウェイ(たとえば、IMS(IPマルチメディアサブシステム)サーバー)を含むことがあり、またはIPゲートウェイと通信することがあり得る。加えて、CN115は、他のサービスプロバイダによって所有されるおよび/または運営される他の有線および/またはワイヤレスのネットワークを含むことがあり得る他のネットワーク112へのアクセスを、WTRU102a、102b、102cに提供することがあり得る。一態様において、WTRU102a、102b、102cは、UPF184a、184bへのN3インターフェイス、およびUPF184a、184bとDN(データネットワーク)185a、185bとの間におけるN6インターフェイスを介するUPF184a、184bを通じて、ローカルなDN185a、185bに接続されることがあり得る。
図13A~13D、および図13A~13Dに対応する説明の観点から、WTRU102a~d、基地局114a~b、eNode-B160a~c、MME162、SGW164、PGW166、gNB180a~c、AMF182a~b、UPF184a~b、SMF183a~b、DN185a~b、および/または本明細書において説明される他のどのデバイス(複数可)をとっても、1つまたは複数に関連して、本明細書において説明される機能のうちの1つもしくは複数またはすべては、1つまたは複数のエミュレーションデバイス(図示せず)によって実行されることがあり得る。エミュレーションデバイスは、本明細書において説明される機能のうちの1つもしくは複数またはすべてをエミュレートするように構成される1つまたは複数のデバイスであることがあり得る。例えば、エミュレーションデバイスは、他のデバイスをテストするために、ならびに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために使用されることがあり得る。
エミュレーションデバイスは、ラボ環境において、および/またはオペレーターのネットワーク環境において、他のデバイスの1つまたは複数のテストを実装するように設計されることがあり得る。例えば、1つまたは複数のエミュレーションデバイスは、通信ネットワーク内の他のデバイスをテストするために、有線および/またはワイヤレスの通信ネットワークの一部として全体的にもしくは部分的に実装されているおよび/または展開されている間、1つもしくは複数のまたはすべての機能を実行することがあり得る。1つまたは複数のエミュレーションデバイスは、有線および/またはワイヤレスの通信ネットワークの一部として一時的に実装されている/展開されている間、1つもしくは複数のまたはすべての機能を実行することがあり得る。エミュレーションデバイスは、テスティングの目的のために別のデバイスに直接結合されることがあり、および/またはOTA(over-the-air)のワイヤレス通信を使用してテスティングを実行することがあり得る。
1つまたは複数のエミュレーションデバイスは、有線および/またはワイヤレスの通信ネットワークの一部として実装されていない/展開されていない間、すべてを含む、1つまたは複数の機能を実行することがあり得る。例えば、エミュレーションデバイスは、1つまたは複数のコンポーネントのテスティングを実装するために、テスティングラボラトリーならびに/または展開されない(たとえば、テスティングの)有線および/もしくはワイヤレスの通信ネットワークにおけるテスティングのシナリオにおいて利用されることがあり得る。1つまたは複数のエミュレーションデバイスは、テスト機器であることがあり得る。ダイレクトなRFカップリング(direct RF coupling)、および/または(たとえば、1つもしくは複数のアンテナを含むことがあり得る)RF回路を介したワイヤレス通信は、データを送信するおよび/または受信するために、エミュレーションデバイスによって使用されることがあり得る。
本明細書において説明される処理および技法は、コンピュータープログラム、ソフトウェア、ならびに/またはコンピューターおよび/もしくはプロセッサーによる実行のためにコンピューター読み取り可能な媒体に組み入れられたファームウェアにおいて実装されることがあり得る。コンピューター読み取り可能な媒体の例は、限定されないが、(有線および/またはワイヤレス接続を通じて送信される)電気信号および/またはコンピューター読み取り可能な記録媒体を含む。コンピューター読み取り可能な記録媒体の例は、限定されないが、ROM(described)、RAM(random access memory)、レジスター、キャッシュメモリー、半導体メモリーデバイス、例えば、限定されないが、内蔵ハードディスクおよび取り外し可能なディスクなどの磁気メディア、光磁気メディア、ならびに/または例えば、CD-ROMディスクおよび/もしくはDVD(digital versatile disk)などの光メディアを含む。ソフトウェアに関連付けられたプロセッサーは、WTRU、端末、基地局、RNC、および/またはどんなホストコンピューターにおいてでも、使用するための無線周波数トランシーバーを実装するために使用されることがあり得る。

Claims (13)

  1. マージ動きベクトル差分(MMVD)モードが符号化単位のインター予測を生成するのに使用されるかどうかを示すMMVDモードインディケーションを受信し、
    前記MMVDモードインディケーションが、MMVDモードが前記符号化単位の前記インター予測を生成するのに使用されないことを示すとき、組みあわせたインターマージ/イントラ予測(CIIP)が前記符号化単位に対して適用されるかどうかを示すCIIPインディケーションを受信し、
    前記MMVDモードインディケーションまたは前記CIIPインディケーションのうちの1つまたは複数に基づいて、前記符号化単位に対して三角形マージモードを使用するかどうかを決定する
    ように構成されたプロセッサーを備えたことを特徴とするビデオ符号化デバイス。
  2. 前記プロセッサーは、前記CIIPインディケーションが、CIIPが前記符号化単位に対して適用されることを示すという条件にて、前記符号化単位に対して前記三角形マージモードを無効にするようにさらに構成されることを特徴とする請求項1に記載のビデオ符号化デバイス。
  3. 前記プロセッサーは、前記MMVDモードインディケーションが、MMVDモードが前記インター予測を生成するのに使用されることを示すという条件にて、前記符号化単位に対して前記三角形マージモードを無効にするようにさらに構成されることを特徴とする請求項1に記載のビデオ符号化デバイス。
  4. 前記プロセッサーは、前記CIIPインディケーションが、CIIPが前記符号化単位に対して適用されないことを示し、前記MMVDモードインディケーションが、MMVDモードが前記インター予測を生成するのに使用されないことを示すという条件にて、前記符号化単位に対して前記三角形マージモードを有効にするようにさらに構成されることを特徴とする請求項1に記載のビデオ符号化デバイス。
  5. 前記三角形マージモードは、三角形マージフラグを受信することなく前記符号化単位に対して有効にされることを特徴とする請求項4に記載のビデオ符号化デバイス。
  6. 前記CIIPインディケーションは、前記MMVDモードインディケーションが、MMVDモードが前記符号化単位に対して使用されることを示すとき、受信されないことを特徴とする請求項1に記載のビデオ符号化デバイス。
  7. 前記MMVDモードインディケーションは、符号化単位ごとに受信されることを特徴とする請求項1に記載のビデオ符号化デバイス。
  8. マージ動きベクトル差分(MMVD)モードが符号化単位のインター予測を生成するのに使用されるかどうかを示すMMVDモードインディケーションを受信するステップと、
    前記MMVDモードインディケーションが、MMVDモードが前記符号化単位の前記インター予測を生成するのに使用されないことを示すとき、組みあわせたインターマージ/イントラ予測(CIIP)が前記符号化単位に対して適用されるかどうかを示すCIIPインディケーションを受信するステップと、
    前記MMVDモードインディケーションまたは前記CIIPインディケーションのうちの1つまたは複数に基づいて、前記符号化単位に対して三角形マージモードを使用するかどうかを決定するステップと
    を備えることを特徴とする方法。
  9. 前記CIIPインディケーションが、CIIPが前記符号化単位に対して適用されることを示すという条件にて、前記符号化単位に対して前記三角形マージモードを無効にするステップをさらに備えることを特徴とする請求項8に記載の方法。
  10. 前記MMVDモードインディケーションが、MMVDモードが前記インター予測を生成するのに使用されることを示すという条件にて、前記符号化単位に対して前記三角形マージモードを無効にするステップをさらに備えることを特徴とする請求項8に記載の方法。
  11. 前記CIIPインディケーションが、CIIPが前記符号化単位に対して適用されないことを示し、前記MMVDモードインディケーションが、MMVDモードが前記インター予測を生成するのに使用されないことを示すという条件にて、前記符号化単位に対して前記三角形マージモードを有効にするステップをさらに備えることを特徴とする請求項8に記載の方法。
  12. 前記三角形マージモードは、三角形マージフラグを受信することなく前記符号化単位に対して有効にされることを特徴とする請求項11に記載の方法。
  13. 前記CIIPインディケーションは、前記MMVDモードインディケーションが、MMVDモードが前記符号化単位に対して使用されることを示すとき、受信されないことを特徴とする請求項8に記載の方法。
JP2021537807A 2018-12-31 2019-12-20 組みあわせたインターおよびイントラ予測 Pending JP2022516094A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862786653P 2018-12-31 2018-12-31
US62/786,653 2018-12-31
PCT/US2019/068008 WO2020142279A1 (en) 2018-12-31 2019-12-20 Combined inter and intra prediction

Publications (1)

Publication Number Publication Date
JP2022516094A true JP2022516094A (ja) 2022-02-24

Family

ID=69374365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537807A Pending JP2022516094A (ja) 2018-12-31 2019-12-20 組みあわせたインターおよびイントラ予測

Country Status (8)

Country Link
US (1) US20220070441A1 (ja)
EP (1) EP3906672A1 (ja)
JP (1) JP2022516094A (ja)
KR (1) KR20210118070A (ja)
CN (1) CN113228634A (ja)
AU (1) AU2019419454A1 (ja)
MX (1) MX2021007785A (ja)
WO (1) WO2020142279A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083316A (ko) * 2018-12-28 2020-07-08 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN113661704A (zh) * 2019-01-09 2021-11-16 北京达佳互联信息技术有限公司 用于改进帧间帧内联合预测的系统和方法
US20220264142A1 (en) * 2019-07-24 2022-08-18 Sharp Kabushiki Kaisha Image decoding apparatus, image coding apparatus, and image decoding method
CN116389756A (zh) * 2020-07-28 2023-07-04 北京达佳互联信息技术有限公司 视频编码方法、电子装置和存储介质
US20220417511A1 (en) * 2021-06-27 2022-12-29 Alibaba Singapore Holding Private Limited Methods and systems for performing combined inter and intra prediction
WO2023055193A1 (ko) * 2021-10-01 2023-04-06 현대자동차주식회사 결합된 인트라/인터 예측 모드 또는 기하학적 분할 모드에 움직임 벡터 차분을 사용한 머지 모드를 적용하는 비디오 부호화/복호화 방법 및 장치
EP4258662A1 (en) * 2022-04-07 2023-10-11 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for dimd edge detection adjustment, and encoder/decoder including the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147332A (ja) * 2011-01-13 2012-08-02 Sony Corp 符号化装置および符号化方法、並びに復号装置および復号方法
EP3080987B1 (en) * 2013-12-13 2021-04-07 Qualcomm Incorporated Signaling of simplified depth coding (sdc) for depth intra-and inter prediction modes in 3d video coding
KR102216947B1 (ko) * 2015-06-08 2021-02-18 브이아이디 스케일, 인크. 화면 내용 코딩을위한 인트라 블록 복사 모드
US10715827B2 (en) * 2017-01-06 2020-07-14 Mediatek Inc. Multi-hypotheses merge mode
CN113678434A (zh) * 2018-11-14 2021-11-19 腾讯美国有限责任公司 视频编解码的方法和装置
US11122272B2 (en) * 2018-12-26 2021-09-14 Mediatek Inc. Triangle prediction with applied-block settings and motion storage settings

Also Published As

Publication number Publication date
CN113228634A (zh) 2021-08-06
WO2020142279A1 (en) 2020-07-09
MX2021007785A (es) 2021-08-24
AU2019419454A1 (en) 2021-07-15
KR20210118070A (ko) 2021-09-29
EP3906672A1 (en) 2021-11-10
US20220070441A1 (en) 2022-03-03
TW202038607A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
JP7390300B2 (ja) ビデオコーディングにおける適応ループフィルタを簡略化する方法
CN110199523B (zh) 用于帧内平面编码的预测方法
JP2021520710A (ja) 簡易化された勾配導出による双方向オプティカルフロー方法
JP2024010171A (ja) マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化
JP2022516094A (ja) 組みあわせたインターおよびイントラ予測
CN111345041A (zh) 重叠块运动补偿的复杂度降低
JP2020526964A (ja) 双方向オプティカルフローに基づいた動き補償予測
CN111630855A (zh) 基于局部照明补偿的运动补偿双向预测
JP2022525399A (ja) サブピクチャ適応解像度変更のための方法および装置
CN111316649A (zh) 重叠块运动补偿
JP7432505B2 (ja) マルチタイプツリーコーディング
JP2022516433A (ja) 対称的な動きベクトル差分符号化
CN113396591A (zh) 针对用于基于模板的视频译码的改进的线性模型估计的方法、架构、装置和系统
JP2023130415A (ja) オプティカルフローを用いたインター予測リファインメントのためのシステム、装置、および方法
JP2021529462A (ja) アフィン動きモデルを基にしたビデオコーディングのためのアダプティブ制御点の選択
JP2022525401A (ja) 対称的マージモード動きベクトル符号化
JP2022526943A (ja) オプティカルフローによるデコーダ側動きベクトル精緻化についての予測精緻化のための方法および装置
CN114556920A (zh) 用于通用视频编码的系统和方法
CN115104304A (zh) 用于帧间预测的视频数据的变换编码
JP2022516091A (ja) 履歴ベースの動きベクトル予測
JP2022518382A (ja) マージモード動きベクトル候補を用いる改良されたイントラプラナー予測
JP2022524523A (ja) ビデオ符号化におけるイントラサブパーティション
TWI842802B (zh) 結合的間和內預測的裝置及方法
TW202416715A (zh) 非幀內預測編碼區塊的等效幀內模式
JP2024513939A (ja) 重複ブロック動き補償

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210818

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20211029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240422