JP7382332B2 - マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 - Google Patents

マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 Download PDF

Info

Publication number
JP7382332B2
JP7382332B2 JP2020543735A JP2020543735A JP7382332B2 JP 7382332 B2 JP7382332 B2 JP 7382332B2 JP 2020543735 A JP2020543735 A JP 2020543735A JP 2020543735 A JP2020543735 A JP 2020543735A JP 7382332 B2 JP7382332 B2 JP 7382332B2
Authority
JP
Japan
Prior art keywords
picture
colocated
block
neighboring
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020543735A
Other languages
English (en)
Other versions
JP2021502038A5 (ja
JP2021502038A (ja
Inventor
シャオユ・シュ
ユウェン・ヘ
ヤン・イェ
Original Assignee
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2021502038A publication Critical patent/JP2021502038A/ja
Publication of JP2021502038A5 publication Critical patent/JP2021502038A5/ja
Priority to JP2023189419A priority Critical patent/JP2024010171A/ja
Application granted granted Critical
Publication of JP7382332B2 publication Critical patent/JP7382332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化に関する。
関連出願の相互参照
本出願は、それらの内容が参照によって本明細書に組み込まれる、2017年11月1日に出願された米国特許仮出願第62/580184号、2018年1月29日に出願された米国特許仮出願第62/623001号、2018年5月31日に出願された米国特許仮出願第62/678576号、および2018年6月27日に出願された米国特許仮出願第62/690661号に基づく利益を主張する。
デジタルビデオ信号を圧縮して、例えば、そのような信号のために必要とされるストレージおよび/または送信帯域幅を低減させるために、ビデオ符号化システムが使用され得る。ビデオ符号化システムは、ブロックベースの、ウェーブレットベースの、および/またはオブジェクトベースのシステムを含み得る。ブロックベースのハイブリッドビデオ符号化システムが展開され得る。
マージモード用のサブブロック動き導出および動きベクトル精緻化のためのシステム、方法、および手段が、本明細書において開示される。
マージモード用のサブブロック動き導出および動きベクトル精緻化のためのシステム、方法、および手段が、本明細書において開示され得る。ビデオデータは、符号化(例えば、エンコードおよび/またはデコード)され得る。ビデオデータの現在のスライスについてのコロケートした(collocated)ピクチャが識別され得る。コロケートしたピクチャは、例えば、スライスヘッダ内の、コロケートしたピクチャインジケーションに基づいて識別され得る。現在のスライスは、1つまたは複数の符号化ユニット(CU:Coding Unit)を含み得る。現在のCUに対して、1つまたは複数の近隣CU(neighboring CU)が識別され得る。近隣CU(例えば、各近隣CU)は、参照ピクチャに対応し得る。(例えば、1つの)近隣CUは、近隣CUの参照ピクチャと、コロケートした(Collocated:同一位置にある)ピクチャとに基づいて、候補近隣CUとするために、選択され得る。動きベクトル(MV:Motion Vector)(例えば、コロケートしたMV)が、候補近隣CUのMV(例えば、参照MV:reference MV)に基づいて、コロケートしたピクチャから識別され得る。コロケートしたMV(collocated MV:同一位置にあるMV)は、時間的MVであり得、参照MVは、空間的MVであり得る。現在のCUは、コロケートしたMVを使用して、符号化(例えば、エンコードおよび/またはデコード)され得る。
近隣CUの参照ピクチャとコロケートしたピクチャとの間のそれぞれの時間的差分に基づいて、候補近隣CUとするために、近隣CUが選択され得る。例えば、参照ピクチャ(例えば、各参照ピクチャ)は、ピクチャ順序カウント(POC:Picture Order Count)と関連付けられ得、コロケートしたピクチャからのPOC差が最も小さい近隣CUが選択され得る。選択された近隣CUは、コロケートしたピクチャと同じ参照ピクチャを有し得る。コロケートしたピクチャと同じ参照ピクチャを有する近隣CUは、他の近隣CUについてのさらなる検討なしに選択され得る。
例えば、候補近隣CUの参照ピクチャが、コロケートしたピクチャと同じでない場合、参照MVに対して時間的スケーリングが実行され得る。例えば、参照MVは、スケーリング係数(Scaling factor)で乗算され得る。スケーリング係数は、候補近隣CUの参照ピクチャとコロケートしたピクチャとの間の時間的差分に基づき得る。
コロケートしたピクチャは、1つまたは複数のコロケートしたブロック(Collocated blocks:同一位置にあるブロック)を含み得る。コロケートしたブロックのうちの1つまたは複数は、有効な(valid)コロケートしたブロックであり得る。有効なコロケートしたブロックは、連続的(contiguous)であり得、有効なコロケートしたブロック領域を形成し得る。領域は、例えば、現在のスライスに基づいて、識別され得る。コロケートしたMVは、有効なこともまたは有効でないこともある、第1のコロケートしたブロックと関連付けられ得る。第1のコロケートしたブロックが有効でない場合、有効な第2のコロケートしたブロックが選択され得る。第1のコロケートしたブロックからのコロケートしたMVは、第2のコロケートしたブロックと関連付けられた第2のコロケートしたMVで置き換えられ得る。第2のコロケートしたMVは、現在のCUを符号化(例えば、エンコードおよび/またはデコード)するために使用され得る。第2のコロケートしたブロックは、例えば、第1のコロケートしたブロックまでの距離が最も小さい第2のコロケートしたブロックに基づいて、選択され得る。例えば、第2のコロケートしたブロックは、第1のコロケートしたブロックに最も近い有効なブロックであり得る。
現在のCUは、1つまたは複数のサブブロックに細分化され得る。サブブロック(例えば、各サブブロック)は、参照MVに対応し得る。サブブロックのための参照MVに基づいて、サブブロック(例えば、各サブブロック)について、コロケートしたピクチャから、コロケートしたMVが識別され得る。現在のCUの時間的レイヤに基づいて、サブブロックのサイズが決定され得る。
例示的な通信システムを例示するシステム図である。 図1Aの通信システム内で使用され得る、例示的な無線送受信ユニット(WTRU)を示すシステム図である。 図1Aの通信システム内で使用され得る、例示的な無線アクセスネットワーク(RAN)およびコアネットワーク(CN)示すシステム図である。 図1Aの通信システム内で使用され得る、さらなる例示的なRANおよびCNを示すシステム図である。 ブロックベースのビデオエンコーダの例示的な図である。 ビデオデコーダの例示的なブロック図である。 例示的な空間的マージ候補を示す図である。 高度化された時間的動きベクトル予測の例を示す図である。 空間的-時間的動きベクトル予測の例を示す図である。 通常のマージモードについての例示的なデコーダサイド動きベクトル精緻化(DMVR)を示す図である。 ATMVP/STMVP導出粒度を適応的に決定するとき、高度化された時間的動きベクトル予測/空間的-時間的動きベクトル予測ブロックサイズ統計が0にリセットされる、ピクチャの例示的リフレッシングを示す図である。 DMVR早期打ち切りが適用されるときの、マージモードについての例示的な動き補償のフローチャートである。 2つの予測信号の平均が中間ビット深度において算出される、例示的な双予測を示す図である。 ATMVPのためのコロケートしたブロック導出の例を示す図である。 ATMVPのコロケートしたブロックの非制限アクセスを示す図である。 ATMVP符号化ユニットについてのコロケートしたブロックを導出するための制限された領域を示す図である。 ATMVPのためのコロケートしたブロック導出の例を示す図である。 コロケートしたピクチャを使用して、現在のブロックのためのMVを導出する例を示す図である。
より詳細な理解は、添付の図面と併せて、例として与えられる以下の説明から得られ得る。
図1Aは、1つまたは複数の開示される例が実施され得る、例示的な通信システム100を例示する図である。通信システム100は、音声、データ、ビデオ、メッセージング、放送などのコンテンツを複数の無線ユーザに提供する、多元接続システムであり得る。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通して、そのようなコンテンツにアクセスすることを可能にし得る。例えば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC-FDMA)、ゼロテールユニークワードDFT拡散OFDM(ZT UW DTS-s OFDM)、ユニークワードOFDM(UW-OFDM)、リソースブロックフィルタードOFDM、およびフィルタバンクマルチキャリア(FBMC)など、1つまたは複数のチャネルアクセス方法を利用し得る。
図1Aに示されるように、通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、102dと、RAN104/113と、CN106/115と、公衆交換電話網(PSTN)108と、インターネット110と、他のネットワーク112とを含み得るが、開示される例は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図し得ることが理解されよう。WTRU102a、102b、102c、102dの各々は、無線環境において動作および/または通信するように構成された任意のタイプのデバイスであり得る。例として、それのどれもが、「局」および/または「STA」と呼ばれることがある、WTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成され得、ユーザ機器(UE)、移動局、固定または移動加入者ユニット、サブスクリクションベースのユニット、ページャ、セルラ電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポットまたはMi-Fiデバイス、モノノインターネット(IoT)デバイス、ウォッチまたは他のウェアラブル、ヘッドマウントディスプレイ(HMD)、乗物、ドローン、医療用デバイスおよびアプリケーション(例えば、遠隔手術)、工業用デバイスおよびアプリケーション(例えば、工業用および/または自動化された処理チェーン状況において動作するロボットおよび/または他の無線デバイス)、家電デバイス、ならびに商業用および/または工業用無線ネットワーク上において動作するデバイスなどを含み得る。WTRU102a、102b、102c、102dのいずれも、交換可能に、UEと呼ばれることがある。
通信システム100は、基地局114aおよび/または基地局114bも含み得る。基地局114a、114bの各々は、CN106/115、インターネット110、および/または他のネットワーク112など、1つまたは複数の通信ネットワークへのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つと無線でインターフェースをとるように構成された任意のタイプのデバイスであり得る。例として、基地局114a、114bは、基地送受信機局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、gNB、NRノードB、サイトコントローラ、アクセスポイント(AP)、および無線ルータなどであり得る。基地局114a、114bは、各々が単一の要素として描かれているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含み得ることが理解されよう。
基地局114aは、RAN104/113の一部であり得、RAN104/113は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示されず)も含み得る。基地局114aおよび/または基地局114bは、セル(図示されず)と呼ばれることがある、1つまたは複数のキャリア周波数上において、無線信号を送信および/または受信するように構成され得る。これらの周波数は、免許要スペクトル、免許不要スペクトル、または免許要スペクトルと免許不要スペクトルとの組み合わせの中にあり得る。セルは、相対的に固定され得る、または時間とともに変化し得る特定の地理的エリアに、無線サービス用のカバレージを提供し得る。セルは、さらに、セルセクタに分割され得る。例えば、基地局114aと関連付けられたセルは、3つのセクタに分割され得る。したがって、例においては、基地局114aは、送受信機を3つ、すなわち、セルの各セクタに対して1つずつ含み得る。例においては、基地局114aは、多入力多出力(MIMO)技術を利用し得、セルの各セクタに対して複数の送受信機を利用し得る。例えば、所望の空間方向において信号を送信および/または受信するために、ビームフォーミングが使用され得る。
基地局114a、114bは、エアインターフェース116上において、WTRU102a、102b、102c、102dのうちの1つまたは複数と通信し得、エアインターフェース116は、任意の適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であり得る。エアインターフェース116は、任意の適切な無線アクセス技術(RAT)を使用して確立され得る。
より具体的には、上で言及されたように、通信システム100は、多元接続システムであり得、CDMA、TDMA、FDMA、OFDMA、およびSC-FDMAなど、1つまたは複数のチャネルアクセス方式を利用し得る。例えば、RAN104/113内の基地局114aと、WTRU102a、102b、102cは、広帯域CDMA(WCDMA)を使用して、エアインターフェース115/116/117を確立し得る、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施し得る。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンク(DL)パケットアクセス(HSDPA)、および/または高速アップリンク(UL)パケットアクセス(HSUPA)を含み得る。
例においては、基地局114aと、WTRU102a、102b、102cは、ロングタームエボリューション(LTE)、および/またはLTEアドバンスト(LTE-A)、および/またはLTEアドバンストプロ(LTE-A Pro)を使用して、エアインターフェース116を確立し得る、進化型UMTS地上無線アクセス(E-UTRA)などの無線技術を実施し得る。
例においては、基地局114aと、WTRU102a、102b、102cは、ニューラジオ(NR)を使用して、エアインターフェース116を確立し得る、NR無線アクセスなどの無線技術を実施し得る。
例においては、基地局114aと、WTRU102a、102b、102cは、複数の無線アクセス技術を実施し得る。例えば、基地局114aと、WTRU102a、102b、102cは、例えば、デュアルコネクティビティ(DC)原理を使用して、LTE無線アクセスと、NR無線アクセスとを一緒に実施し得る。したがって、WTRU102a、102b、102cによって利用されるエアインターフェースは、複数のタイプの無線アクセス技術、ならびに/または複数のタイプの基地局(例えば、eNBおよびgNB)に/から送信される送信によって特徴付けられ得る。
例においては、基地局114aと、WTRU102a、102b、102cは、IEEE802.11(すなわち、ワイヤレスフィデリティ(WiFi))、IEEE802.16(すなわち、マイクロ波アクセス用世界的相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、暫定標準2000(IS-2000)、暫定標準95(IS-95)、暫定標準856(IS-856)、移動体通信用グローバルシステム(GSM)、GSMエボリューション用高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実施し得る。
図1Aにおける基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり得、事業所、自宅、乗物、キャンパス、産業用施設、(例えば、ドローンによって使用される)エアコリドー(air corridor)、および車道など、局所化されたエリアにおける無線接続性を容易にするために、任意の適切なRATを利用し得る。例においては、基地局114bと、WTRU102c、102dは、IEEE802.11などの無線技術を実施して、無線ローカルエリアネットワーク(WLAN)を確立し得る。例においては、基地局114bと、WTRU102c、102dは、IEEE802.15などの無線技術を実施して、無線パーソナルエリアネットワーク(WPAN)を確立し得る。例においては、基地局114bと、WTRU102c、102dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NRなど)を利用して、ピコセルまたはフェムトセルを確立し得る。図1Aに示されるように、基地局114bは、インターネット110への直接的な接続を有することがある。したがって、基地局114bは、CN106/115を介してインターネット110にアクセスする必要がないことがある。
RAN104/113は、CN106/115と通信し得、CN106/115は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dのうちの1つまたは複数に提供するように構成された任意のタイプのネットワークであり得る。データは、異なるスループット要件、遅延要件、エラー耐性要件、信頼性要件、データスループット要件、およびモビリティ要件など、様々なサービス品質(QoS)要件を有し得る。CN106/115は、呼制御、ビリングサービス、モバイルロケーションベースのサービス、プリペイド発呼、インターネット接続性、ビデオ配信などを提供し得、および/またはユーザ認証など、高レベルセキュリティ機能を実行し得る。図1Aには示されていないが、RAN104/113および/またはCN106/115は、RAN104/113と同じRATまたは異なるRATを利用する他のRANと直接的または間接的通信を行い得ることが理解されよう。例えば、NR無線技術を利用していることがあるRAN104/113に接続されていることに加えて、CN106/115は、GSM、UMTS、CDMA2000、WiMAX、E-UTRA、またはWiFi無線技術を利用する別のRAN(図示されず)とも通信し得る。
CN106/115は、WTRU102a、102b、102c、102dが、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするためのゲートウェイとしての役割も果たし得る。PSTN108は、基本電話サービス(POTS)を提供する、回線交換電話網を含み得る。インターネット110は、TCP/IPインターネットプロトコルスイート内の伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、および/またはインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなる地球規模のシステムを含み得る。ネットワーク112は、他のサービスプロバイダによって所有および/または運営される、有線および/または無線通信ネットワークを含み得る。例えば、ネットワーク112は、RAN104/113と同じRATまたは異なるRATを利用し得る1つまたは複数のRANに接続された、別のCNを含み得る。
通信システム100内のWTRU102a、102b、102c、102dのうちのいくつかまたはすべては、マルチモード機能を含み得る(例えば、WTRU102a、102b、102c、102dは、異なる無線リンク上において、異なる無線ネットワークと通信するための、複数の送受信機を含み得る)。例えば、図1Aに示されるWTRU102cは、セルラベースの無線技術を利用し得る基地局114aと通信するように、またIEEE802無線技術を利用し得る基地局114bと通信するように構成され得る。
図1Bは、例示的なWTRU102を例示するシステム図である。図1Bに示されるように、WTRU102は、とりわけ、プロセッサ118、送受信機120、送信/受信要素122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(GPS)チップセット136、および/または他の周辺機器138を含み得る。WTRU102は、上記の要素の任意のサブコンビネーションを含み得ることができることが理解されよう。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などであり得る。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境において動作することを可能にする他の任意の機能性を実行し得る。プロセッサ118は、送受信機120に結合され得、送受信機120は、送信/受信要素122に結合され得る。図1Bは、プロセッサ118と送受信機120を別個の構成要素として描いているが、プロセッサ118と送受信機120は、電子パッケージまたはチップ内に一緒に統合され得ることが理解されよう。
送信/受信要素122は、エアインターフェース116上において、基地局(例えば、基地局114a)に信号を送信し、または基地局から信号を受信するように構成され得る。例えば、例においては、送信/受信要素122は、RF信号を送信および/または受信するように構成されたアンテナであり得る。例においては、送信/受信要素122は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器であり得る。例においては、送信/受信要素122は、RF信号および光信号の両方を送信および/または受信するように構成され得る。送信/受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成され得ることが理解されよう。
図1Bにおいては、送信/受信要素122は単一の要素として描かれているが、WTRU102は、任意の数の送信/受信要素122を含み得る。より具体的には、WTRU102は、MIMO技術を利用し得る。したがって例においては、WTRU102は、エアインターフェース116上において無線信号を送信および受信するための2つ以上の送信/受信要素122(例えば、複数のアンテナ)を含み得る。
送受信機120は、送信/受信要素122によって送信されることになる信号を変調し、送信/受信要素122によって受信された信号を復調するように構成され得る。上で言及されたように、WTRU102は、マルチモード機能を有し得る。したがって、送受信機120は、WTRU102が、例えば、NRおよびIEEE802.11など、複数のRATを介して通信することを可能にするための、複数の送受信機を含み得る。
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合され得、それらからユーザ入力データを受信し得る。プロセッサ118は、また、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力し得る。加えて、プロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132など、任意のタイプの適切なメモリから情報を入手し得、それらにデータを記憶し得る。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含み得る。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含み得る。例においては、プロセッサ118は、サーバまたはホームコンピュータ(図示されず)上などに配置された、WTRU102上に物理的に配置されていないメモリから情報を入手し得、それらにデータを記憶し得る。
プロセッサ118は、電源134から電力を受け取り得、WTRU102内の他の構成要素に電力を分配するように、および/またはそれらへの電力を制御するように構成され得る。電源134は、WTRU102に給電するための任意の適切なデバイスであり得る。例えば、電源134は、1つまたは複数の乾電池(例えば、ニッケル-カドミウム(NiCd)、ニッケル-亜鉛(NiZn)、ニッケル水素(NiMH)、リチウム-イオン(Li-ion)など)、太陽電池、および燃料電池などを含み得る。
プロセッサ118は、GPSチップセット136にも結合され得、GPSチップセット136は、WTRU102の現在ロケーションに関するロケーション情報(例えば、経度および緯度)を提供するように構成され得る。GPSチップセット136からの情報に加えて、またはそれの代わりに、WTRU102は、基地局(例えば、基地局114a、114b)からエアインターフェース116上においてロケーション情報を受信し得、および/または2つ以上の近くの基地局から受信されている信号のタイミングに基づいて、自らのロケーションを決定し得る。WTRU102は、任意の適切なロケーション決定方法を用いて、ロケーション情報を獲得し得ることが理解されよう。
プロセッサ118は、さらに他の周辺機器138に結合され得、他の周辺機器138は、追加の特徴、機能性、および/または有線もしくは無線接続性を提供する、1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含み得る。例えば、周辺機器138は、加速度計、eコンパス、衛星送受信機、(写真および/またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、仮想現実および/または拡張現実(VR/AR)デバイス、ならびにアクティビティトラッカなどを含み得る。周辺機器138は、1つまたは複数のセンサを含み得、センサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、気圧計、ジェスチャセンサ、バイオメトリックセンサ、および/または湿度センサのうちの1つまたは複数であり得る。
WTRU102は、(例えば、(例えば、送信用の)ULと(例えば、受信用の)ダウンリンクの両方のための特定のサブフレームと関連付けられた)信号のいくつかまたはすべての送信および受信が、並列および/または同時であり得る、全二重無線を含み得る。全二重無線は、ハードウェア(例えば、チョーク)を介して、またはプロセッサ(例えば、別個のプロセッサ(図示されず)もしくはプロセッサ118)を介する信号処理を介して、自己干渉を低減させ、および/または実質的に除去するために、干渉管理ユニット139を含み得る。例においては、WTRU102は、(例えば、(例えば、送信用の)ULまたは(例えば、受信用の)ダウンリンクのどちらかのための特定のサブフレームと関連付けられた)信号のいくつかまたはすべての送信および受信のための、半二重無線を含み得る。
図1Cは、例示的なRAN104およびCN106を例示するシステム図である。上で言及されたように、RAN104は、E-UTRA無線技術を利用して、エアインターフェース116上において、WTRU102a、102b、102cと通信し得る。RAN104は、CN106とも通信し得る。
RAN104は、eノードB160a、160b、160cを含み得るが、RAN104は、任意の数のeノードBを含み得ることが理解されよう。eノードB160a、160b、160cは、各々が、エアインターフェース116上においてWTRU102a、102b、102cと通信するための、1つまたは複数の送受信機を含み得る。例においては、eノードB160a、160b、160cは、MIMO技術を実施し得る。したがって、eノードB160aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、および/またはWTRU102aから無線信号を受信し得る。
eノードB160a、160b、160cの各々は、特定のセル(図示されず)と関連付けられ得、無線リソース管理決定、ハンドオーバ決定、ならびにULおよび/またはDLにおけるユーザのスケジューリングなどを処理するように構成され得る。図1Cに示されるように、eノードB160a、160b、160cは、X2インターフェース上において、互いに通信し得る。
図1Cに示されるCN106は、モビリティ管理エンティティ(MME)162と、サービングゲートウェイ(SGW)164と、パケットデータネットワーク(PDN)ゲートウェイ(またはPGW)166とを含み得、上記の要素の各々はCN106の部分として描かれているが、これらの要素のうちのいずれも、CNオペレータとは異なるエンティティによって所有および/または運営され得ることが理解されよう。
MME162は、S1インターフェースを介して、RAN104内のeノードB160a、160b、160cの各々に接続され得、制御ノードとしての役割を果たし得る。例えば、MME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラアクティブ化/非アクティブ化、およびWTRU102a、102b、102cの初期アタッチ中に特定のサービングゲートウェイを選択することなどを担い得る。MME162は、RAN104と、GSMおよび/またはWCDMAなどの他の無線技術を利用する他のRAN(図示されず)との間における交換のためのコントロールプレーン機能を提供し得る。
SGW164は、S1インターフェースを介して、RAN104内のeノードB160a、160b、160cの各々に接続され得る。SGW164は、一般に、ユーザデータパケットをWTRU102a、102b、102cに/からルーティングおよび転送し得る。SGW164は、eノードB間ハンドオーバ中にユーザプレーンをアンカリングすること、DLデータがWTRU102a、102b、102cに利用可能なときにページングをトリガすること、ならびにWTRU102a、102b、102cのコンテキストを管理および記憶することなど、他の機能を実行し得る。
SGW164は、PGW166に接続され得、PGW166は、インターネット110など、パケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にし得る。
CN106は、他のネットワークとの通信を容易にし得る。例えば、CN106は、PSTN108など、回線交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cと従来の固定電話回線通信デバイスとの間の通信を容易にし得る。例えば、CN106は、CN106とPSTN108との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得、またはそれと通信し得る。加えて、CN106は、他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供し得、他のネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線および/または無線ネットワークを含み得る。
図1A~図1Dにおいては、WTRUは、無線端末として説明されるが、ある例においては、そのような端末は、通信ネットワークとの有線通信インターフェースを(例えば、一時的または永続的に)使用し得ることが企図されている。
例においては、他のネットワーク112は、WLANであり得る。
インフラストラクチャ基本サービスセット(BSS)モードにあるWLANは、BSSのためのアクセスポイント(AP)と、APと関連付けられた1つまたは複数の局(STA)とを有し得る。APは、トラフィックをBSS内および/またはBSS外に搬送する、ディストリビューションシステム(DS)または別のタイプの有線/無線ネットワークへのアクセスまたはインターフェースを有し得る。BSS外部から発信されたSTAへのトラフィックは、APを通して到着し得、STAに配送され得る。STAからBSS外部の送信先に発信されたトラフィックは、それぞれの送信先に配送されるように、APに送信され得る。BSS内のSTA間のトラフィックは、APを通して送信され得、例えば、送信元STAは、トラフィックをAPに送信し得、APは、トラフィックを送信先STAに配送し得る。BSS内のSTA間のトラフィックは、ピアツーピアトラフィックと見なされ得、および/またはピアツーピアトラフィックと呼ばれることがある。ピアツーピアトラフィックは、直接リンクセットアップ(DLS)を用いて、送信元STAと送信先STAとの間で(例えば、直接的に)送信され得る。例においては、DLSは、802.11e DLSまたは802.11zトンネルDLS(TDLS)を使用し得る。独立BSS(IBSS)モードを使用するWLANは、APを有さないことがあり、IBSS内の、またはIBSSを使用するSTA(例えば、STAのすべて)は、互いに直接的に通信し得る。IBSSモードの通信は、本明細書においては、ときに「アドホック」モードの通信と呼ばれることがある。
802.11acインフラストラクチャモードの動作または類似したモードの動作を使用するとき、APは、プライマリチャネルなどの固定されたチャネル上において、ビーコンを送信し得る。プライマリチャネルは、固定された幅(例えば、20MHz幅帯域幅)、またはシグナリングを介して動的に設定された幅であり得る。プライマリチャネルは、BSSの動作チャネルであり得、APとの接続を確立するために、STAによって使用され得る。例においては、例えば、802.11システムにおいては、キャリアセンス多重アクセス/衝突回避(CSMA/CA)が実施され得る。CSMA/CAの場合、APを含むSTA(例えば、あらゆるSTA)は、プライマリチャネルをセンスし得る。プライマリチャネルが、特定のSTAによって、センス/検出され、および/またはビジーであると決定された場合、特定のSTAはバックオフし得る。与えられたBSS内においては、任意の与えられた時間に、1つのSTA(例えば、ただ1つの局)が、送信し得る。
高スループット(HT)STAは、例えば、プライマリ20MHzチャネルを隣接または非隣接20MHzチャネルと組み合わせて、40MHz幅のチャネルを形成することを介して、通信のために40MHz幅チャネルを使用し得る。
超高スループット(VHT)STAは、20MHz、40MHz、80MHz、および/または160MHz幅チャネルをサポートし得る。40MHzおよび/または80MHzチャネルは、連続する20MHzチャネルを組み合わせることによって形成され得る。160MHzチャネルは、8つの連続する20MHzチャネルを組み合わせることによって形成され得、または2つの非連続な80MHzチャネルを組み合わせることによって形成され得、これは、80+80構成と呼ばれることがある。80+80構成の場合、データは、チャネルエンコーディングの後、データを2つのストリームに分割し得るセグメントパーサを通過させ得る。各ストリームに対して別々に、逆高速フーリエ変換(IFFT)処理および時間領域処理が、行われ得る。ストリームは、2つの80MHzチャネル上にマッピングされ得、データは、送信STAによって送信され得る。受信STAの受信機においては、80+80構成のための上で説明された動作が、逆転され得、組み合わされたデータは、媒体アクセス制御(MAC)に送信され得る。
1GHz未満モードの動作は、802.11afおよび802.11ahによってサポートされる。チャネル動作帯域幅およびキャリアは、802.11nおよび802.11acにおいて使用されるそれらと比べて、802.11afおよび802.11ahにおいては低減させられる。802.11afは、TVホワイトスペース(TVWS)スペクトルにおいて、5MHz、10MHz、および20MHz帯域幅をサポートし、802.11ahは、非TVWSスペクトルを使用して、1MHz、2MHz、4MHz、8MHz、および16MHz帯域幅をサポートする。例に従うと、802.11ahは、マクロカバレージエリアにおけるMTCデバイスなど、メータタイプ制御/マシンタイプコミュニケーションをサポートし得る。MTCデバイスは、一定の機能を、例えば、一定の帯域幅および/または限られた帯域幅のサポート(例えば、それらのサポートだけ)を含む限られた機能を有し得る。MTCデバイスは、(例えば、非常に長いバッテリ寿命を維持するために)閾値を上回るバッテリ寿命を有するバッテリを含み得る。
802.11n、802.11ac、802.11af、および802.11ahなど、複数のチャネルおよびチャネル帯域幅をサポートし得る、WLANシステムは、プライマリチャネルとして指定され得るチャネルを含む。プライマリチャネルは、BSS内のすべてのSTAによってサポートされる最大の共通動作帯域幅に等しい帯域幅を有し得る。プライマリチャネルの帯域幅は、BSS内において動作するすべてのSTAの中の、最小帯域幅動作モードをサポートするSTAによって設定および/または制限され得る。802.11ahの例においては、BSS内のAPおよび他のSTAが、2MHz、4MHz、8MHz、16MHz、および/または他のチャネル帯域幅動作モードをサポートする場合であっても、1MHzモードをサポートする(例えば、それだけをサポートする)STA(例えば、MTCタイプデバイス)のために、プライマリチャネルは、1MHz幅であり得る。キャリアセンシングおよび/またはネットワークアロケーションベクトル(NAV)設定は、プライマリチャネルのステータスに依存し得る。例えば、(1MHz動作モードだけをサポートする)STAが、APに送信しているせいで、プライマリチャネルがビジーである場合、周波数バンドの大部分が、アイドルのままであり、利用可能であり得るとしても、利用可能な周波数バンド全体がビジーと見なされ得る。
米国においては、802.11ahによって使用され得る利用可能な周波数バンドは、902MHzから928MHzである。韓国においては、利用可能な周波数バンドは、917.5MHzから923.5MHzである。日本においては、利用可能な周波数バンドは、916.5MHzから927.5MHzである。802.11ahのために利用可能な合計帯域幅は、国の規則に応じて、6MHzから26MHzである。
図1Dは、例示的なRAN113およびCN115を示すシステム図である。上で言及されたように、RAN113は、NR無線技術を利用して、エアインターフェース116上において、WTRU102a、102b、102cと通信し得る。RAN113は、CN115とも通信し得る。
RAN113は、gNB180a、180b、180cを含むことができるが、RAN113は、任意の数のgNBを含み得ることが理解されよう。gNB180a、180b、180cは、各々が、エアインターフェース116上においてWTRU102a、102b、102cと通信するための、1つまたは複数の送受信機を含み得る。例においては、gNB180a、180b、180cは、MIMO技術を実施し得る。例えば、gNB180a、108bは、ビームフォーミングを利用して、gNB180a、180b、180cに信号を送信し、および/またはgNB180a、180b、180cから信号を受信し得る。したがって、gNB180aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、および/またはWTRU102aから無線信号を受信し得る。例においては、gNB180a、180b、180cは、キャリアアグリゲーション技術を実施し得る。例えば、gNB180aは、WTRU102aに複数のコンポーネントキャリアを送信し得る(図示されず)。これらのコンポーネントキャリアのサブセットは、免許不要スペクトル上にあり得るが、残りのコンポーネントキャリアは、免許要スペクトル上にあり得る。例においては、gNB180a、180b、180cは、多地点協調(CoMP)技術を実施し得る。例えば、WTRU102aは、gNB180aとgNB180b(および/またはgNB180c)から調整された送信を受信し得る。
WTRU102a、102b、102cは、スケーラブルなヌメロロジ(numerology)と関連付けられた送信を使用して、gNB180a、180b、180cと通信し得る。例えば、OFDMシンボル間隔、および/またはOFDMサブキャリア間隔は、異なる送信、異なるセル、および/または無線送信スペクトルの異なる部分ごとに様々であり得る。WTRU102a、102b、102cは、(例えば、様々な数のOFDMシンボルを含む、および/または様々な長さの絶対時間だけ持続する)様々なまたはスケーラブルな長さのサブフレームまたは送信時間間隔(TTI)を使用して、gNB180a、180b、180cと通信し得る。
gNB180a、180b、180cは、スタンドアロン構成および/または非スタンドアロン構成で、WTRU102a、102b、102cと通信するように構成され得る。スタンドアロン構成においては、WTRU102a、102b、102cは、(例えば、eノードB160a、160b、160cなどの)他のRANにアクセスすることもなしに、gNB180a、180b、180cと通信し得る。スタンドアロン構成においては、WTRU102a、102b、102cは、gNB180a、180b、180cのうちの1つまたは複数を、モビリティアンカポイントとして利用し得る。スタンドアロン構成においては、WTRU102a、102b、102cは、免許不要バンド内において信号を使用して、gNB180a、180b、180cと通信し得る。非スタンドアロン構成においては、WTRU102a、102b、102cは、eノードB160a、160b、160cなどの別のRANとも通信し/別のRANにも接続しながら、gNB180a、180b、180cと通信し/gNB180a、180b、180cに接続し得る。例えば、WTRU102a、102b、102cは、DC原理を実施して、1つまたは複数のgNB180a、180b、180c、および1つまたは複数のeノードB160a、160b、160cと実質的に同時に通信し得る。非スタンドアロン構成においては、eノードB160a、160b、160cは、WTRU102a、102b、102cのためのモビリティアンカとしての役割を果たし得、gNB180a、180b、180cは、WTRU102a、102b、102cにサービスするための追加のカバレージおよび/またはスループットを提供し得る。
gNB180a、180b、180cの各々は、特定のセル(図示されず)と関連付けられ得、無線リソース管理決定、ハンドオーバ決定、ULおよび/またはDLにおけるユーザのスケジューリング、ネットワークスライシングのサポート、デュアルコネクティビティ、NRとE-UTRAとの間のインターワーキング、ユーザプレーンデータのユーザプレーン機能(UPF)184a、184bへのルーティング、ならびにコントロールプレーン情報のアクセスおよびモビリティ管理機能(AMF)182a、182bへのルーティングなどを処理するように構成され得る。図1Dに示されるように、gNB180a、180b、180cは、Xnインターフェース上において、互いに通信し得る。
図1Dに示されるCN115は、少なくとも1つのAMF182a、182bと、少なくとも1つのUPF184a、184bと、少なくとも1つのセッション管理機能(SMF)183a、183bと、おそらくは、データネットワーク(DN)185a、185bとを含み得る。上記の要素の各々は、CN115の部分として描かれているが、これらの要素のうちのいずれも、CNオペレータとは異なるエンティティによって所有および/または運営され得ることが理解されよう。
AMF182a、182bは、N2インターフェースを介して、RAN113内のgNB180a、180b、180cのうちの1つまたは複数に接続され得、制御ノードとしての役割を果たし得る。例えば、AMF182a、182bは、WTRU102a、102b、102cのユーザを認証すること、ネットワークスライシングのサポート(例えば、異なる要件を有する異なるPDUセッションの処理)、特定のSMF183a、183bを選択すること、レジストレーションエリアの管理、NASシグナリングの終了、およびモビリティ管理などを担い得る。ネットワークスライシングは、WTRU102a、102b、102cによって利用されるサービスのタイプに基づいて、WTRU102a、102b、102cに対するCNサポートをカスタマイズするために、AMF182a、182bによって使用され得る。例えば、超高信頼低遅延(URLLC)アクセスに依存するサービス、高速大容量モバイルブロードバンド(eMBB)アクセスに依存するサービス、および/またはマシンタイプコミュニケーション(MTC)アクセスのためのサービスなど、異なる使用事例のために、異なるネットワークスライスが、確立され得る。AMF162は、RAN113と、LTE、LTE-A、LTE-A Pro、および/またはWiFiのような非3GPPアクセス技術など、他の無線技術を利用する他のRAN(図示されず)との間の交換のためのコントロールプレーン機能を提供し得る。
SMF183a、183bは、N11インターフェースを介して、CN115内のAMF182a、182bに接続され得る。SMF183a、183bは、N4インターフェースを介して、CN115内のUPF184a、184bにも接続され得る。SMF183a、183bは、UPF184a、184bを選択および制御し、UPF184a、184bを通したトラフィックのルーティングを構成し得る。SMF183a、183bは、UE IPアドレスの管理および割り当てを行うこと、PDUセッションを管理すること、ポリシ実施およびQoSを制御すること、ならびにダウンリンクデータ通知を提供することなど、他の機能を実行し得る。PDUセッションタイプは、IPベース、非IPベース、およびイーサネットベースなどであり得る。
UPF184a、184bは、N3インターフェースを介して、RAN113内のgNB180a、180b、180cのうちの1つまたは複数に接続され得、それらは、インターネット110など、パケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にし得る。UPF184a、184bは、パケットをルーティングおよび転送すること、ユーザプレーンポリシを実施すること、マルチホーミングPDUセッションをサポートすること、ユーザプレーンQoSを処理すること、ダウンリンクパケットをバッファすること、ならびにモビリティアンカリングを提供することなど、他の機能を実行し得る。
CN115は、他のネットワークとの通信を容易にし得る。例えば、CN115は、CN115とPSTN108との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得、またはそれと通信し得る。加えて、CN115は、他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供し得、他のネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線および/または無線ネットワークを含み得る。例においては、WTRU102a、102b、102cは、UPF184a、184bへのN3インターフェース、およびUPF184a、184bとDN185a、185bとの間のN6インターフェースを介して、UPF184a、184bを通して、ローカルデータネットワーク(DN)185a、185bに接続され得る。
図1A~図1D、および図1A~図1Dについての対応する説明に鑑みて、WTRU102a~d、基地局114a~b、eノードB160a~c、MME162、SGW164、PGW166、gNB180a~c、AMF182a~b、UPF184a~b、SMF183a~b、DN185a~b、および/または本明細書において説明される他の任意のデバイスのうちの1つまたは複数に関する、本明細書において説明される機能の1つもしくは複数またはすべては、1つまたは複数のエミュレーションデバイス(図示されず)によって実行され得る。エミュレーションデバイスは、本明細書において説明される機能の1つもしくは複数またはすべてをエミュレートするように構成された、1つまたは複数のデバイスであり得る。例えば、エミュレーションデバイスは、他のデバイスをテストするために、ならびに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために、使用され得る。
エミュレーションデバイスは、実験室環境において、および/またはオペレータネットワーク環境において、他のデバイスの1つまたは複数のテストを実施するように設計され得る。例えば、1つまたは複数のエミュレーションデバイスは、通信ネットワーク内の他のデバイスをテストするために、有線および/または無線通信ネットワークの一部として、完全または部分的に実施および/または展開されながら、1つもしくは複数またはすべての機能を実行し得る。1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として、一時的に実施/展開されながら、1つもしくは複数またはすべての機能を実行し得る。エミュレーションデバイスは、テストの目的で、別のデバイスに直接的に結合され得、および/またはオーバザエア無線通信を使用して、テストを実行し得る。
1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として実施/展開されずに、すべての機能を含む1つまたは複数の機能を実行し得る。例えば、エミュレーションデバイスは、1つまたは複数の構成要素のテストを実施するために、テスト実験室ならびに/または展開されていない(例えば、テスト)有線および/もしくは無線通信ネットワークにおける、テストシナリオにおいて利用され得る。1つまたは複数のエミュレーションデバイスは、テスト機器であり得る。データを送信および/または受信するために、直接RF結合、および/または(例えば、1つもしくは複数のアンテナを含み得る)RF回路を介した無線通信が、エミュレーションデバイスによって使用され得る。
ブロックベースのハイブリッドビデオ符号化フレームワークが、提供され得る。図2は、例示的なブロックベースのハイブリッドビデオエンコーディングフレームワークのブロック図を与える。入力ビデオ信号2は、ブロックごとに処理され得る。ブロックサイズ(例えば、符号化ユニット(CU)など、拡張されたブロックサイズ)は、高解像度(例えば、1080pおよびそれ以上)ビデオ信号を圧縮し得る。例えば、CUは、64×64ピクセルを含み得る。CUは、予測ユニット(PU)に区分化され得、それらに対して、別個の予測が使用され得る。(例えば、各)入力ビデオブロック(例えば、MBおよび/またはCU)に対して、空間的予測60および/または時間的予測62が実行され得る。空間的予測(例えば、イントラ予測)は、現在のビデオブロックを予測するために、ビデオピクチャ/スライス内の符号化された近隣ブロックのサンプル(例えば、参照サンプル)からのピクセルを使用し得る。空間的予測は、例えば、ビデオ信号に内在し得る、空間的冗長性を低減させ得る。時間的予測(インター予測および/または動き補償された予測)は、例えば、現在のビデオブロックを予測するために、符号化されたビデオピクチャからの再構成されたピクセルを使用し得る。時間的予測は、例えば、ビデオ信号に内在し得る、時間的冗長性を低減させ得る。ビデオブロックについての時間的予測信号は、1つまたは複数の動きベクトル(MV)によってシグナリングされ得る。MVは、現在のブロックと現在のブロックの参照ブロックとの間の動きの量および/または方向を示し得る。(例えば、各)ビデオブロックに対して、複数の参照ピクチャが、サポートされる場合、ビデオブロックの参照ピクチャインデックスが、送信され得る。時間的予測信号が、参照ピクチャストア64内のどの参照ピクチャから由来するかを識別するために、参照インデックスが、使用され得る。空間的および/または時間的予測の後、エンコーダ内のモード決定ブロック80は、例えばレート-歪み最適化に基づいて、予測モード(例えば、最良の予測モード)を決定し得る。予測ブロックが、16において、現在のビデオブロックから減算され得る。予測残差が、変換4および/または量子化6を使用して、脱相関され得る。量子化された残差係数は、例えば、再構成された残差を形成するために、10において、逆量子化され、および/または12において、逆変換され得る。再構成された残差は、例えば、再構成されたビデオブロックを形成するために、26において、予測ブロックに加算され得る。再構成されたビデオブロックが、参照ピクチャストア64内に置かれる前、および/またはビデオブロック(例えば、将来のビデオブロック)を符号化するために使用される前に、66において、インループフィルタ(例えば、デブロッキングフィルタおよび/または適応ループフィルタ)が、再構成されたビデオブロックに対して適用され得る。出力ビデオビットストリーム20を形成するために、符号化モード(例えば、インターもしくはイントラ)、予測モード情報、動き情報、および/または量子化された残差係数が(例えば、すべて)、エントロピ符号化ユニット8に送信されて、例えば、圧縮および/またはパッキングされ、ビットストリームを形成し得る。
図3は、例示的なブロックベースのビデオデコーダのブロック図を示している。ビデオビットストリーム202は、エントロピデコーディングユニット208において、アンパッキングされ(例えば最初にアンパッキングされ)、および/またはエントロピデコードされ得る。予測ブロックを形成するために、符号化モードおよび予測情報が、(例えばイントラ符号化の場合は)空間的予測ユニット260に、および/または(例えば、インター符号化の場合は)時間的予測ユニット262に送信され得る。例えば、残差ブロックを再構成するために、残差変換係数が、逆量子化ユニット210および/または逆変換ユニット212に送信され得る。予測ブロックと残差ブロックは、226において、一緒に加算され得る。例えば、再構成されたブロックが、参照ピクチャストア264内に記憶される前に、再構成されたブロックは、インループフィルタリングを通過し得る。参照ピクチャストア内の再構成されたビデオは、表示デバイスを駆動するために送信され得、および/またはビデオブロック(例えば将来のビデオブロック)を予測するために使用され得る。
動き補償された予測においては、(例えば、各)インター符号化されたブロックについて、例えば、エンコーダおよび/またはデコーダによって同期させられ得る、対応する参照ピクチャ内の対応する一致ブロックを追跡するために、動き情報(例えば動きベクトル(MV)および参照ピクチャインデックス)が使用され得る。インターブロックの動き情報を符号化するために、2つのモード(例えば、マージモードおよび非マージモード)が使用され得る。ブロックが、非マージモードによって符号化される場合、MVは、MV予測子を使用して、符号化(例えば、差分的にに符号化)され得る。MVとMV予測子との間の差分が、デコーダに送信され得る。マージモードによって符号化される(例えば、各)ブロックについては、ブロックの動き情報は、空間的および/または時間的近隣ブロックから導出され得る。例えば、利用可能な候補から近隣ブロック(例えば、最良の近隣ブロック)を選択するために、競合ベースのスキームが適用され得る。デコーダにおいて、動き情報(例えば、同じ動き情報)を再確立するために、候補(例えば、最良の候補)のインデックス(例えばインデックスだけ)が送信され得る。
マージモードが実行され得る。マージモードにおける候補(例えば、候補のセット)は、1つまたは複数の空間的近隣候補と、例えば、時間的近隣候補と、1つまたは複数の生成された候補とから構成され得る。図4は、空間的候補の例示的な位置を示している。マージ候補のリストを構成するために、空間的候補が、チェックされ、および/または例えば、A1、B1、B0、A0、およびB2の順番で、リストに追加され得る。空間的位置に配置されたブロックが、イントラ符号化されており、および/または現在のスライスの境界の外にある場合、ブロックは、利用不可能とし得る。空間的候補の冗長性を低減させるために、冗長なエントリ(例えば、候補が既存の候補と同じ動き情報を有するエントリ)は、リストから排除され得る。有効な空間的候補を含めた後、時間的動きベクトル予測(TMVP)によって、同一場所に配置された(co-located)参照ピクチャ内の同一場所に配置されたブロックの動き情報から、時間的候補が、生成され得る。マージ候補リストのサイズ(例えば、N)が設定され得る。例えば、Nは、5とし得る。(例えば、空間的および時間的候補を含む)マージ候補の数が、Nよりも大きい場合、最初のN-1個の空間的候補、および/または時間的候補が、リスト内に保たれ得る。例えば、最初のN-1個の空間的候補(例えば、それだけ)と、時間的候補が、リスト内に保たれ得る。マージ候補の数がNよりも小さい場合は、例えば、マージ候補の数がNに達するまで、1つまたは複数の候補(例えば、組み合わされた候補と、ゼロ候補)が、候補リストに追加され得る。
マージ候補リスト内に、1つまたは複数の候補が含められ得る。例えば、マージ候補リスト内に、図4に示されるような5つの空間的候補と、TMVP候補とが含められ得る。マージモード用の動き導出の1つまたは複数の態様は、例えば、サブブロックベースの動き導出と、デコーダサイド動きベクトル精緻化とを含むように、変更され得る。
マージモード用のサブブロックベースの動き導出が実行され得る。(例えば、各)マージブロックは、(例えば、各)予測方向についての動きパラメータのセット(例えば、動きベクトルおよび参照ピクチャインデックス)を含み得る。マージ候補リスト内に、サブブロックレベルにおける動き情報の導出を可能にし得る、1つまたは複数(例えば、2つ)のマージ候補が含められ得る。マージ候補リスト内に、サブブロックレベルの動き情報を有するマージ候補を含めることは、マージ候補リストの最大サイズ(例えば、N)を、例えば、5から7に、増加させることによって、達成され得る。候補のうちの1つまたは複数が選択されたとき、エンコーダ/デコーダは、CU(例えば、現在のCU)を4×4のサブブロックに分割し得、(例えば、各)サブブロックのための動き情報を導出し得る。高度化された時間的動きベクトル予測(ATMVP)が使用され得る。例えば、ATMVPは、CUをサブブロック(例えば、4×4のサブブロック)に分割し得る。ATMVPは、TMVPの上に構築され得、CUが、現在のピクチャの時間的近隣ピクチャ(例えば、コロケートした参照ピクチャ)に属する複数の小さいブロックから、CUのサブブロックの動き情報を獲得することを可能にし得る。空間的-時間的動きベクトル予測(STMVP)においては、サブブロックの動きパラメータは、時間的な近隣者(temporal neighbors:間的に隣接するもの)の動きベクトルを空間的な近隣者(spatial neighbors:空間的に隣接するもの)の動きベクトルと平均することによって、(例えば、再帰的recursivelyに)導出され得る。
高度化された時間的動きベクトル予測が実行され得る。ATMVPにおいては、ブロックが、ブロック内のサブブロックについての複数の動き情報(例えば、動きベクトルおよび/または参照インデックス)を、現在のピクチャの時間的近隣ピクチャの複数のより小さいブロックから導出することを可能にし得る。例えば、ATMVPは、以下のように、ブロックのサブブロックの動き情報を導出し得る。時間的参照ピクチャ内において、現在のブロックの対応するブロック(例えば同一位置にあるブロック:Collocated blocks, コロケートしたブロック)が識別され得る。選択された時間的参照ピクチャは、コロケートしたピクチャ(Collocated picture:同一位置にあるピクチャ)であり得る。現在のブロックは、サブブロックに分割され得、(例えば、各)サブブロックの動き情報は、図5に示されるように、コロケートしたピクチャ内の対応する小さいブロックから導出され得る。
コロケートしたブロックおよび/またはコロケートしたピクチャは、現在のブロックの空間的近隣ブロックの動き情報によって、識別され得る。マージ候補リスト内の利用可能な候補(例えば、第1の利用可能な候補)が検討され得る。図5は、検討されるマージ候補リスト内の利用可能な候補の例を示している。ブロックAは、例えば、マージ候補リストのスキャニング順序に基づいて、ブロック(例えば、現在のブロック)の利用可能な(例えば、第1の利用可能な)マージ候補として、識別され得る。コロケートしたピクチャおよび/またはコロケートしたブロックを識別するために、ブロックAの動きベクトル(例えば、対応する動きベクトル)(例えば、MVA)、および/またはブロックAの参照インデックスが、使用され得る。コロケートしたピクチャ内のコロケートしたブロックのロケーションは、ブロックAの動きベクトル(例えば、MVA)を現在のブロックの座標に加算することによって、決定され得る。
ブロック(例えば、現在のブロック)内の(例えば、各)サブブロックについて、サブブロックの動き情報を導出するために、コロケートしたブロック内の(例えば、図5において矢印によって示されるような)サブブロックの対応する小さいブロックの動き情報が、使用され得る。例えば、コロケートしたブロック内の(例えば、各)小さいブロックの動き情報が識別された後、小さいブロックの動き情報は、例えば、時間的動きベクトルスケーリングが適用され得る、時間的動きベクトル予測(TMVP)と同じ方法で、現在のブロック内の対応するサブブロックの動きベクトルおよび/または参照インデックスに変換され得る。
空間的-時間的動きベクトル予測(STMVP)が実行され得る。STMVPにおいては、(例えば、1つの)符号化ブロック内のサブブロックの動き情報が、再帰的な方式で導出され得る。図6は、STMVPの例を示している。例えば、現在のブロックは、1つまたは複数(例えば、4つ)のサブブロック、例えば、A、B、C、Dを含み得る。現在のブロックに対する空間的近隣者(空間的に隣接するもの)である近隣の小さいブロックには、それぞれ、a、b、c、dというラベルが付けられ得る。サブブロックAについての動き導出は、ブロックAの空間的近隣者(例えば、2つの空間的近隣者)を識別することから開始し得る。ブロックAの近隣者(例えば、第1の近隣者)は、上方近隣者cであり得る。小さいブロックcが、利用可能でない、またはイントラ符号化されていない場合、現在のブロックの上方の近隣の小さいブロックが、例えば、順番に、(例えば、左から右に)チェックされ得る。サブブロックAの近隣者(例えば、第2の近隣者)は、左方近隣者bであり得る。小さいブロックbが、利用可能でない、またはイントラ符号化されていない場合、現在のブロックの左方の近隣の小さいブロックが、例えば、順番に、(例えば、上から下に)チェックされ得る。空間的近隣者の動き情報を取得した後、サブブロックAの時間的近隣者の動き情報が、TMVPに類似した(例えば、同じ)方式で、獲得され得る。利用可能な空間的および/または時間的近隣者(隣接するもの)(例えば、最大で3つ)の動き情報(例えば、すべての動き情報)は、平均され、および/またはサブブロックAの動き情報として使用され得る。例えば、現在のビデオブロック内のサブブロック(例えば、すべての他のサブブロック)の動き情報を導出するために、ラスタスキャン順序に基づいて、STMVPが繰り返され得る。
通常のマージ候補についてのデコーダサイド動きベクトル精緻化が実行され得る。マージモードの場合、選択されたマージ候補が双予測される(bi-predicted)とき、例えば、候補の参照リストL0およびL1と関連付けられた2つのMVを使用する2つの予測ブロックを平均することによって、現在のCUの予測信号が形成され得る。空間的/時間的近隣者(隣接するもの)の動きパラメータは、不正確なことがあり、現在のCUの真の動きを表さないことがある。双予測される通常のマージ候補のMVを精緻化するために、デコーダサイド動きベクトル精緻化(DMVR)が、適用され得る。例えば、従来のマージ候補(例えば、空間的マージ候補および/またはTMVPマージ候補)が、選択されるとき、例えば、それぞれ、参照リストL0およびL1からの動きベクトルに基づいて、平均として、双予測テンプレートが、生成(例えば、最初に生成)され得る。例えば、加重された予測が有効化されるとき、平均は、加重平均であり得る。本明細書において説明されるように、双予測テンプレートを使用して、初期MVの周りで、DMVRによって、テンプレートマッチングに基づいた局所的動き精緻化が実行され得る。
図7は、DMVRにおいて適用され得る、例示的な動き精緻化を示している。DMVRは、例えば、以下のように、通常のマージ候補のMVを精緻化し得る。図7に示されるように、マージ候補のL0およびL1内の初期MV(例えば、MV0およびMV1)を使用して、予測ブロック(例えば、2つの予測ブロック)を平均することによって、双予測テンプレートが、生成され得る。(例えば、各)参照リスト(例えば、L0またはL1)について、テンプレートマッチングベースの動き探索が、初期MVの周りの局所的領域において、実行され得る。リスト内の初期MVの周りの、対応する参照リストの(例えば、各)動きベクトル(例えば、MV0またはMV1)について、双予測テンプレートと、動きベクトルを使用する対応する予測ブロックとの間のコスト値(例えば、差分絶対値の和(SAD))が、測定され得る。予測方向について、予測方向におけるテンプレートコストを最小化するMVは、通常のマージ候補の参照リスト内の最後のMVと見なされ得る。予測方向について、(例えば、1の整数サンプルオフセットを有する)初期MVを取り囲む1つまたは複数(例えば、8つ)の近隣MVが、動き精緻化の間に、検討され得る。現在のCUの最後の双予測信号を生成するために、精緻化されたMV(例えば、図7に示されるような、MV0’およびMV1’などの、2つの精緻化されたMV)が、使用され得る。
本明細書において説明されるように、サブブロックベースの動き導出(例えば、ATMVPおよびSTMVP)、ならびに/またはDMVRは、例えば、導出された動きベクトルの粒度および/または正確性を改善することによって、マージモードの効率を高め得る。
ATMVPおよび/またはSTMVPについて、例えば、4×4ブロックの粒度に基づいて、現在のCUの動きパラメータが導出され得る。例えば、現在のCUの動き情報(例えば、すべての動き情報)を生成するために、動き導出が繰り返され得る。時間的参照ピクチャから、参照サンプルが獲得され得る。エンコーダ/デコーダは、メモリアクセスを、参照ピクチャ内部の1つまたは複数の(例えば、異なる)領域に切り換え得る。
ATMVPおよび/またはSTMVPにおいて、粒度(例えば、4×4ブロックサイズ)が、適用され得、1つまたは複数のピクチャ内のATMVP/STMVP符号化されたCUの動きパラメータを導出するために、使用され得る。異なるピクチャ内のビデオブロックの動きは、異なる特徴を示し得る。例えば、現在のピクチャと現在のピクチャの参照ピクチャとの間の相関に基づいて、1つまたは複数のピクチャ(例えば、ランダムアクセス構成の高い時間的レイヤにおけるピクチャ)内のビデオブロックは、安定した動きを示し得る。1つまたは複数のピクチャ(例えば、ランダムアクセス構成の低い時間的レイヤにおけるピクチャ)内のビデオブロックの動きは、不安定なことがある。ATMVP/STMVP符号化されたCUの動きパラメータを導出するための粒度レベルは、例えば、異なるピクチャに応じて、調整され得る。
例えば、現在のCUの空間的/時間的近隣者(隣接するもの)の動きを使用することによって引き起こされる、動きの不正確さを補償するために、DMVRが使用され得る。DMVRは、通常のマージモードによって符号化されたCUに対して、有効化され得る。通常のマージ候補によって提供される動きパラメータが、正確であるとき、DMVRによって達成される改善は、無視可能であり得る。例えば、DMVRは、スキップされ得る。
シグナリングは、ATMVP符号化されたCUおよび/またはSTMVP符号化されたCUの動きパラメータを算出するための導出粒度(例えば、サブブロックサイズ)のピクチャ/スライスレベル変化をサポートし得る。現在のピクチャについてのATMVPおよび/またはSTMVPの動き導出のための最適な粒度が、決定され得る。
DMVRベースのマージモードの動き導出のために、早期打ち切りが実行され得る。通常のマージモードにおいて、DMVRが適用され得る。2つ以上の予測信号(例えば、2つの予測信号)が、通常のマージ候補から生成され得る。例えば、DMVRをスキップするかどうかを決定するために、予測信号間の類似性が測定され得る。
中間ビット深度における局所的な動き精緻化が行われ得る。DMVRの動き精緻化は、入力ビット深度において実行され得る。いくつかのビットシフトおよび丸め演算(例えば、不必要なビットシフトおよび丸め演算)が、DMVRから取り除かれ得る。
ATMVPおよびSTMVPに基づいたサブブロックベースの動き導出が、実行され得る。ATMVPおよび/またはSTMVPについて、動き導出は、固定された粒度において実行され得る。粒度は、シンタックス要素シンタックスlog2_sub_pu_tmvp_sizeとして、シーケンスパラメータセット(SPS)に収めてシグナリングされ得る。同じ導出粒度が、ATMVPおよびSTMVPに適用され得、シーケンス内のピクチャ内のATMVP/STMVP符号化されたCUの動きパラメータを算出するために、使用され得る。
ATMVPおよび/またはSTMVPによって生成された動き場は、異なる特徴を提供し得る。本明細書において説明されるように、STMVP符号化されたCUのサブブロックの動きパラメータは、ラスタスキャン順序に基づいて、CU内部の(例えば、各)サブブロックの空間的および/または時間的近隣者の動き情報を平均することによって、再帰的に導出され得る。ATMVP符号化されたCUの動きパラメータは、CU内のサブブロックの時間的近隣者から導出され得る。STMVPは、安定した動きをもたらし得、CU内部のサブブロックの動きパラメータは、一貫性があり得る。ATMVPおよびSTMVPのための動きパラメータを導出するために、異なる粒度が使用され得る。
ATMVPおよび/またはSTMVPは、例えば、現在のブロックの動きパラメータを算出するために、参照ピクチャ内の時間的近隣者の動きパラメータを使用し得る。現在のブロックと、参照ピクチャ内の現在のブロックのコロケートしたブロックとの間に、小さい動きが存在するとき、ATMVPおよび/またはSTMVPは、動き推定(例えば、信頼できる動き推定)を提供し得る。現在のブロックとコロケートしたブロックとの間に小さい動きを有するブロック(例えば、ランダムアクセス(RA)構成の最も高い時間的レイヤ内のブロック)について、ATMVPおよび/またはSTMVPによって生成されるサブブロック動きパラメータは、同様であり得る。コロケートしたブロックから大きい動きを示すビデオブロック(例えば、RA構成の最も低い時間的レイヤ内のブロック)について、(例えば、各)サブブロックについてのATMVPおよび/またはSTMVPによって算出される動きパラメータは、サブブロックの空間的近隣サブブロックのそれから逸脱し得る。動き導出は、小さいサブブロック上において実行され得る。例えば、現在の符号化ユニット(CU)は、1つまたは複数のサブブロックに細分化され得、サブブロック(例えば、各サブブロック)は、MV(例えば、参照MV)に対応する。MV(例えば、コロケートしたMV)は、サブブロック(例えば、各サブブロック)についてのコロケートしたピクチャから、そのサブブロックについての参照MVに基づいて、識別され得る。動きパラメータは、1つまたは複数の(例えば、異なる〉ピクチャから、ATMVP/STMVP符号化されたCUについての1つまたは複数の(例えば、異なる)粒度で、導出され得る。ATMVPおよび/またはSTMVPについての導出粒度(例えば、サブブロックのサイズ)は、例えば、ピクチャ/スライスレベルで、選択(例えば、適応的に選択)され得る。例えば、サブブロックのサイズは、現在のCUの時間的レイヤに基づいて、決定され得る。
ピクチャ/スライスレベルで適応的に選択されたATMVP/STMVP導出粒度のシグナリングが、実行され得る。1つまたは複数(例えば、2つ)の粒度フラグが、SPSに収めてシグナリングされ得る。例えば、ATMVPおよび/またはSTMVPの導出粒度が、それぞれ、スライスレベルで調整し得るかどうかを示すために、a slice_atmvp_granularity_enabled_flag、および/またはa slice_stmvp_granularity_enabled_flagが、SPSに収めてシグナリングされ得る。
値(例えば、1)は、対応するATMVP/STMVPベースの導出粒度が、スライスレベルでシグナリングされることを示し得る。値(例えば、0)は、対応するATMVP/STMVP導出粒度が、スライスレベルでシグナリングされないこと、また例えば、現在のSPSを参照するスライスのために使用され得る、対応するATMVP/STMVPベースの導出粒度を指定するために、シンタックス要素(sps_log2_subblk_atmvp_size、またはsps_log2_subblk_stmvp_size)が、SPSに収めてシグナリングされることを示し得る。表1は、SPSに収めてシグナリングされ得る、例示的なシンタックス要素を例示している。表1におけるシンタックス要素は、ビデオパラメータセット(VPS)および/またはピクチャパラメータセット(PPS)など、他の高レベルシンタックス構造において、使用され得る。
Figure 0007382332000001
パラメータslice_atmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_atmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_atmvp_sizeが、存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_atmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。
パラメータsps_log2_subblk_atmvp_sizeは、SPSを参照するスライスについての高度化された時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
パラメータslice_stmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_stmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_stmvp_sizeが、存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_stmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。
パラメータsps_log2_subblk_stmvp_sizeは、SPSを参照するスライスについての空間的-時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
表1においては、シンタックス要素sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeは、指定(例えば、1回指定)され得、ビデオシーケンスに対して適用され得る。1つまたは複数の(例えば、異なる)時間的レベルにおけるピクチャに対して、sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeの1つまたは複数の(例えば、異なる)値が、指定され得る。SPSを参照する現在のピクチャについて、現在のピクチャが属する時間的レベルに応じて、sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeの値が、決定および/または適用され得る。シンタックス要素sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeは、正方形の形をしたサブブロックユニットに適用され得る。サブブロックユニットは、長方形であり得る。例えば、サブブロックユニットが長方形である場合、ATMVPおよび/またはSTMVPのためのサブブロック幅および高さが指定され得る。
ATMVP/STMVPベースの導出粒度のスライスレベル適応が、有効化され得る。例えば、SPS内のslice_atmvp_granularity_enabled_flag、および/またはslice_stmvp_granularity_enabled_flagは、シンタックス要素の存在を示す値(例えば、1)に設定され得る。シンタックス要素は、スライスについてのATMVP/STMVPベースの動き導出の対応する粒度レベルを指定するために、SPSを参照する(例えば、各)スライスのスライスセグメントヘッダに収めてシグナリングされ得る。例えば、表2は、スライスセグメントヘッダに収めてシグナリングされ得る、例示的なシンタックス要素を例示している。
Figure 0007382332000002
パラメータslice_log2_subblk_atmvp_sizeは、現在のスライスについての高度化された時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
パラメータslice_log2_subblk_stmvp_sizeは、現在のスライスについての空間的-時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
表1および表2に示されるように、ATMVPベースおよび/またはSTMVPベースの動き導出のサブブロック粒度を(例えば、別々に)制御するために、シンタックス要素の1つまたは複数(例えば、2つ)のセットが、使用され得る。ATMVPベースおよび/またはSTMVPベースの動き導出のサブブロック粒度は、例えば、ATMVPおよび/またはSTMVPによって導出された動きパラメータの特徴(例えば、動きの規則性)が異なるとき、別々に制御され得る。例えば、シーケンスレベルおよびスライスレベルで、ATMVPおよび/またはSTMVPの導出粒度を(例えば、共同で)制御するために、シンタックス要素slice_atmvp_stmvp_granularity_enabled_flagおよびsps_log2_subblk_atmvp_stmvp_sizeのセットは、SPSに収めて、またslice_log2_subblk_atmvp_stmvp_sizeは、スライスセグメントヘッダに収めて、シグナリングされ得る。表3および表4は、例えば、ATMVPおよびSTMVPベースの導出粒度のサブブロック粒度が、(例えば、共同で)調整されるときの、SPSおよびスライスセグメントヘッダにおける例示的なシンタックス変化を示している。
Figure 0007382332000003
パラメータslice_atmvp_stmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeが存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。
パラメータsps_log2_subblk_atmvp_stmvp_sizeは、SPSを参照するスライスについてのATMVPおよび/またはSTMVPのための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
Figure 0007382332000004
パラメータslice_log2_subblk_atmvp_stmvp_sizeは、現在のスライスについての高度化された時間的動きベクトル予測および/または空間的-時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。
ピクチャ/スライスレベルにおけるATMVP/STMVPベースの動き導出のサブブロック粒度が、決定され得る。
ピクチャ/スライスについてのATMVP/STMVPベースの動き導出の粒度レベルは、例えば、ピクチャ/スライスの時間的レイヤに基づいて、決定され得る。本明細書において説明されるように、同じビデオシーケンス内のピクチャ間に相関が与えられた場合、ATMVP/STMVP導出粒度は、例えば、同じ時間的レイヤ内の、ピクチャ/スライスの近隣ピクチャのそれと類似し得る。例えば、RAの最も高い時間的レイヤ内のピクチャについて、ATMVP/STMVPベースの動き推定は、大きいブロック区画をもたらし得る。粒度値は、(例えば、より大きい値に)調整され得る。RAの最も低い時間的レイヤ内のピクチャについて、ATMVPおよび/またはSTMVPによって導出された動きパラメータは、あまり正確でないことがある。例えば、現在のピクチャにおいて、ATMVP/STMVPベースの動き導出のために使用され得る、サブブロック粒度を算出するために、先に符号化されたピクチャからATMVPおよび/またはSTMVPによって符号化されるCUの平均サイズが、同じ時間的レイヤにおいて、使用され得る。例えば、現在のピクチャは、第kの時間的レイヤ内の第iのピクチャであり得る。ATMVPおよび/またはSTMVPによって符号化され得る、M個のCUが、現在のピクチャ内に存在し得る。M個のCUが、s0、s1、...、sM-1のサイズである場合、現在のピクチャ内のATMVP/STMVP符号化されるCUの平均サイズ、例えば、σkは、
Figure 0007382332000005
のように算出され得る。
式(1)に基づいて、第kの時間的レイヤ内の第(i+1)のピクチャを符号化するとき、ATMVP/STMVPベースの動き導出の対応するサブブロックサイズ
Figure 0007382332000006
は、
Figure 0007382332000007
によって決定され得る。
RA構成のために、並列エンコーディングがサポートされ得る。並列エンコーディングが有効化されるとき、全長のシーケンスは、例えば、より短い持続時間(例えば、約1秒)のシーケンス再生にわたり得る、複数の独立したランダムアクセスセグメント(RAS)に分割され得、(例えば、各)ビデオセグメントは、別々にエンコードされ得る。近隣RASは、独立であり得る。(例えば、シーケンス全体をフレーム順にエンコードする)順次符号化の結果は、並列エンコーディングと同じであり得る。(例えば、並列エンコーディングに加えて)適応的サブブロック粒度導出が、適用されるとき、ピクチャは、例えば、先行するRASからのピクチャのATMVP/STMVPブロックサイズ情報を使用することを回避し得る。例えば、RAS内の最初のインターピクチャをエンコードするとき、(例えば、4×4サブブロックを使用する)1つまたは複数(例えば、すべて)の時間的レイヤについて、σkの値は、0にリセットされ得る。図8は、並列エンコーディングが有効化されるときに、ATMVP/STMVPブロックサイズ統計が0にリセットされ得る、リフレッシングピクチャの位置を示すための(例えば、イントラ期間が8に等しい)例を例示している。図8において、破線および/または実線によって囲まれたブロックは、それぞれ、イントラピクチャおよびインターピクチャを表し得、パターンブロックは、リフレッシングピクチャを表し得る。ひとたび算出されると、
Figure 0007382332000008
値のlog2()は、例えば、表1および表2におけるシンタックスに従って、スライスヘッダに収めて、ビットストリームで送信され得る。
例においては、ATMVP/STMVPベースの動き導出のために使用されるサブブロックサイズは、エンコーダにおいて決定され、デコーダに送信され得る。例においては、ATMVP/STMVPベースの動き導出のために使用されるサブブロックサイズは、デコーダにおいて決定され得る。サブブロック粒度の適応的な決定は、デコーダサイド技術として使用され得る。例えば、(例えば、式(1)に示されるような)ATMVP/STMVPブロックサイズ統計は、エンコーディングおよび/またはデコーディングの間、維持され得、例えば、エンコーダおよびデコーダが、例えば、式(1)および(2)を使用して、ピクチャ/スライスのATMVP/STMVPベースの動き導出のために、それぞれのサブブロックサイズを決定するときに、エンコーダとデコーダとを同期させるために、使用され得る。例えば、エンコーディングおよびデコーディングの間、ATMVP/STMVPブロックサイズ統計が、維持される場合、
Figure 0007382332000009
の値は、送信されないことがある。
予測ブロックの類似性に基づいたDMVRの早期打ち切りが、実行され得る。通常のマージ候補(例えば、空間的候補および/またはTMVP候補)を使用して符号化されたCUに対して、DMVRが、実行され得る。通常のマージ候補によって提供された動きパラメータが正確であるとき、符号化損失なしに、DMVRがスキップされ得る。通常のマージ候補が、現在のCUについての正確な動き推定を提供することができるかどうかを決定するために、2つの予測ブロックの間の平均差が、例えば、
Figure 0007382332000010
と算出され得、ここで、I(0)(x,y)およびI(1)(x,y)は、マージ候補の動き情報を使用して生成された、L0およびL1動き補償されたブロックの、座標(x,y)におけるサンプル値であり得、BおよびNは、それぞれ、サンプル座標の集合、および現在のCU内において定義されるサンプルの数であり得、Dは、歪み測定(例えば、誤差の平方和(SSE)、差分絶対値の和(SAD)、および/または変換された差分絶対値の和(SATD))であり得る。式(3)が与えられた場合、例えば、2つの予測信号の間の差分測定値が、最大でも事前定義されたしきい値である(例えば、Diff≦Dthresである)場合、DMVRは、スキップされ得る。2つの予測信号の間の差分測定値が、事前定義されたしきい値よりも大きい場合、マージ候補によって生成された予測信号は、あまり相関がないことがあり、DMVRが適用され得る。図9は、早期打ち切りがDMVRに適用された後の、例示的な動き補償を例示している。
サブCUレベルの動き導出は、例えば、予測類似性に基づいて、無効化(例えば、適応的に無効化)され(disabled)得る。DMVRが実行される前に、マージ候補のMVを使用する1つまたは複数(例えば、2つ)の予測信号が、利用可能であり得る。DMVRが無効化されるべきかどうかを決定するために、予測信号が使用され得る。
DMVRのための高精度予測が実行され得る。双予測ブロックの予測信号は、例えば、入力ビット深度の精度で、L0およびL1からの予測信号を平均することによって、生成され得る。MVが、分数サンプル位置をポイントする(指す:point)場合、例えば、補間を使用して、(例えば、補間操作のために、入力ビット深度よりも高くなり得る)中間精度において、予測信号が、獲得され得る。中間精度信号は、平均演算の前に、入力ビット深度に丸められ得る。平均演算への入力信号は、例えば、生成された双予測信号に丸め誤差を導入し得る、より低い精度にシフトさせられ得る。例えば、ブロックのために分数MVが使用される場合、入力ビット深度における2つの予測信号は、中間精度で平均され得る。MVが分数サンプル位置に対応する場合、補間フィルタリングは、中間値を入力ビット深度に丸めないことがあり、中間値を高い精度(例えば、中間ビット深度)に保ち得る。2つのMVの一方が、整数動きである(例えば、対応する予測が、補間を適用せずに生成される)ケースにおいては、対応する予測の精度は、平均化が適用される前に、中間ビット深度まで増加させられ得る。例えば、2つの予測信号の精度は、同じであり得る。図10は、2つの中間予測信号を高い精度で平均するときの、例示的な双予測を例示しており、ここで、
Figure 0007382332000011
および
Figure 0007382332000012
は、中間ビット深度(例えば、14ビット)において、リストL0およびL1から獲得された、2つの予測信号のことであり得、BitDepthは、入力ビデオのビット深度を示し得る。
DMVRにおいては、DMVRベースの動き探索のために使用され得る、双予測信号(例えば、I(0)(x,y)およびI(1)(x,y))は、入力信号ビット深度の精度で定義され得る。入力信号ビット深度は、例えば、(例えば、入力信号が8ビットである場合は)8ビット、または(例えば、入力信号が10ビットである場合は)10ビットであり得る。予測信号は、例えば、動き精緻化の前に、低い精度に変換され得る。歪みコストを測定するときに、丸め誤差が導入されることがある。予測信号の中間ビット深度から入力ビット深度への変換は、1つまたは複数の丸め演算および/またはクリッピング操作を含み得る。DMVRベースの動き精緻化は、高いビット深度で生成され得る予測信号(例えば、図10における中間ビット深度における
Figure 0007382332000013
および
Figure 0007382332000014
)を使用して、実行され得る。式(3)における2つの予測ブロックの間の対応する歪みは、以下のように、高い精度で算出され得、
Figure 0007382332000015
ここで、
Figure 0007382332000016
および
Figure 0007382332000017
は、それぞれ、L0およびL1から生成された予測ブロックの、座標(x,y)における、高精度サンプルであり得る。Diffhは、中間ビット深度において算出された、対応する歪み測定値を表し得る。増加させられたビット深度のせいで、DMVRを早期に打ち切るために使用され得るしきい値(例えば、歪み測定値しきい値)は、しきい値が予測信号と同じビット深度で定義されるように、調整され得る。L1ノルム歪み(例えば、SAD)が使用される場合、歪みしきい値を入力ビット深度から中間ビット深度に調整するために、以下の式が使用され得る。
Figure 0007382332000018
高度化された時間的動きベクトル予測(ATMVP)が、導出され得る。ATMVPのために、コロケートしたピクチャおよびコロケートしたブロックが、選択され得る。空間的近隣CUからの動きベクトルが、候補リスト(例えば、潜在的な候補近隣CUのリスト)に追加され得る。例えば、近隣CUが利用可能であり、近隣CUのMVが、既存の候補リスト内の1つまたは複数のMVと異なる場合、空間的近隣CUからの動きベクトルが追加され得る。例えば、図4に示されるように、近隣ブロックからのMVは、A1、B1、B0、A0の順番で、追加され得る。利用可能な空間的候補の数は、N0で表し得る。ATMVPは、N0個のMVを使用して、導出され得る。
0は、0よりも大きくし得る。N0が、0よりも大きい場合、コロケートしたピクチャ、および/または動きを取得するためのオフセットを決定するために、MV(例えば、第1の利用可能なMV)が、使用され得る。図5に示されるように、第1の利用可能なMVは、近隣CU Aからのものであり得る。ATMVPのためのコロケートしたピクチャは、CU AからのMVと関連付けられた参照ピクチャであり得る。動き場を取得するためのオフセットは、MVから導出され得る。N0は、0に等しくし得る。N0が、0に等しい場合、コロケートしたピクチャは、スライスヘッダでシグナリングされたコロケートしたピクチャに設定され得、動き場を取得するためのオフセットは、0に設定され得る。
例えば、複数の参照ピクチャが使用される場合、異なるCUのATMVP導出のためのコロケートしたピクチャは異なり得る。例えば、複数の参照ピクチャが使用される場合、コロケートしたピクチャの決定は、それらの近隣CUに依存し得るので、異なるCUのATMVP導出のためのコロケートしたピクチャは、異なり得る。現在のピクチャのデコーディングについて、ATMVPのためのコロケートしたピクチャは、固定されないことがあり、ATMVPは、複数の参照ピクチャの動き場を参照し得る。現在のピクチャのデコーディングのためのコロケートしたピクチャは、例えば、スライスヘッダにおいてシグナリングされ得る、(例えば、1つの)参照ピクチャに設定され得る。コロケートしたピクチャは、識別され得る。近隣CU Aの参照ピクチャは、コロケートしたピクチャと異なり得る。CU Aの参照ピクチャは、RAと表し得、コロケートしたピクチャは、Rcolと表し得、現在のピクチャは、Pと表し得る。ピクチャxのPOCを示すために、POC(x)が、使用され得る。式(6)で算出されるように、CU AのMVは、例えば、オフセット位置についての予測を獲得するために、ピクチャRAからコロケートしたピクチャにスケーリングされ得る。
MVcol=MV(A)×(POC(Rcol)-POC(P))/(POC(RA)-POC(P)) (6)
スケーリングされたMVcolは、例えば、コロケートしたピクチャRcolにおける動き場を取得するために、オフセットとして使用され得る。式(6)におけるスケーリングは、ピクチャの時間的距離に基づき得る。例えば、空間的CUからの第1の利用可能なMVが、スケーリングのために選択され得る。スケーリング誤差を最小化し得るMVが、選択され得る。例えば、スケーリング誤差を最小化するために、1つまたは複数(例えば、2つ)の方向(例えば、リストL0、リストL1)のN0個のMVから、スケーリングされるMV(例えば、最良のMV)が、選択され得る。例えば、近隣ブロックのうちの(例えば、各)近隣ブロック(例えば、近隣CU)は、対応する参照ピクチャを有し得る。近隣ブロックの参照ピクチャとコロケートしたピクチャとの間の差分に基づいて、候補近隣ブロック(例えば、候補近隣CU)とするために、近隣ブロックが、選択され得る。候補近隣ブロックとするために選択された近隣ブロックは、それの参照ピクチャとコロケートしたピクチャとの間に、最小の時間的距離を有し得る。例えば、参照ピクチャ(例えば、各参照ピクチャ)およびコロケートしたピクチャは、ピクチャ順序カウント(POC)を有し得、参照ピクチャのPOCとコロケートしたピクチャのPOCとの間の(例えば、最小の差分を有する)差分に基づいて、候補近隣ブロックが、選択され得る。MV(例えば、コロケートしたMV)は、参照ピクチャからのMV(例えば、参照MV)に基づいて、コロケートしたピクチャから識別され得る。近隣CUは、コロケートしたピクチャと同じ参照ピクチャを有し得、参照ピクチャとコロケートしたピクチャが同じであると決定されたとき、(例えば、他の近隣CUの検討なしに)近隣CUが、選択され得る。参照ピクチャからのMVは、空間的MVであり得、コロケートしたピクチャからのMVは、時間的MVであり得る。
例えば、参照ピクチャが、コロケートしたピクチャと同じでない場合、参照ピクチャからのMVは、スケーリングされ得る。例えば、参照ピクチャからのMVは、スケーリング係数で乗算され得る。スケーリング係数は、参照ピクチャとコロケートしたピクチャとの間の時間的差分に基づき得る。スケーリング係数は、((POC(Rcol)-POC(P))/(POC(RA)-POC(P))と定義され得る。スケーリング係数は、スケーリングなしを表す値(例えば、1)を有し得る。スケーリングなしを表す値を有するスケーリング係数は、RAとRcolが同じピクチャであることを示し得る。スケーリング誤差は、以下の方法のうちの1つまたは複数で、測定され得る。例えば、スケーリング誤差は、式(7)において提供されるように、および/または式(8)において提供されるように、測定され得る。与えられたMVについてのスケール係数と、スケーリングなしを表すスケール係数値との間の差分絶対値は、例えば、式(7)において提供されるように、測定され得る。
ScaleError=abs((POC(Rcol)-POC(RA))/(POC(RA)-POC(P)) (7)
与えられたMVの参照ピクチャと、コロケートしたピクチャとの間の差分絶対値は、例えば、式(8)において提供されるように、測定され得る。
ScaleError=abs((POC(Rcol)-POC(RA))) (8)
最良MV探索は、打ち切られ得る。例えば、スケーリングされるMV候補の探索中に、あるMVについて、ScaleErrorが0に等しい場合、探索は打ち切り(例えば、早期に打ち切り)得る。
ATMVP導出のためのコロケートしたピクチャの動き場を一致させるために、近隣MVが使用され得る。近隣MVは、例えば、MVスケーリングによって引き起こされる精度損失を最小化することによって、選択され得る。これは、スケーリングされたMVの精度を改善し得る。参照ブロック内における有効な動き情報の存在は、コロケートしたピクチャ内における選択された近隣MVによって、示され得る。例えば、参照ブロックが、(例えば、1つの)イントラブロックであるとき、例えば、参照ブロックと関連付けられた動き情報が存在しないので、ATMVPは、利用不可能と見なされ得る。
コロケートしたピクチャ内のそれぞれのインター符号化されたブロックをポイントする近隣MVから、最良の近隣MVが選択され得る。MVスケーリング誤差は、最小化され得る。例えば、(例えば、式(7)および(8)に示されるように)最良の近隣MVを決定するときに、選択された近隣MVが、コロケートしたピクチャ内の(例えば、1つの)インター符号化されたブロックをポイントすることを保証するために、制限が、課され得る。最良の近隣MVの選択は、式(9)において提供されるように、定式化され得る。
Figure 0007382332000019
(x,y)は、現在のCUの中心位置であり得る。ColPic(x,y)は、コロケートしたピクチャ内部の位置(x,y)におけるブロックを示し得る。inter()は、入力ブロックがインターブロックであるかどうかを示し得る、インジケータ関数を表し得る。Sは、利用可能な空間的近隣ブロックの集合を示し得、例えば、S={A1,B1,B0,A0}である。ScaleErrorは、式(7)および(8)で算出されるような、MVスケーリング誤差を示し得る。
Figure 0007382332000020
は、近隣ブロックNのスケーリングされた動きベクトルであり得る。N*は、例えば、ATMVPに基づいて、現在のCUの動き場を導出するために、それのMVが使用される、選択された空間的近隣者を表し得る。例においては、現在のブロックは、スケーリング誤差を増大させる(例えば、ScaleError(A)<ScaleError(B)<ScaleError(C))、3つの空間的近隣者A、B、Cを有し得る。
Figure 0007382332000021
が、偽である場合(例えば、スケーリングの後、ブロックAの動きが、コロケートしたピクチャ内のイントラ符号化された参照ブロックを識別した場合)、コロケートしたピクチャ内の参照ブロックを識別するために、(例えば、それのスケーリング誤差が2番目に小さい)ブロックBの動きが、使用され得る。Bのスケーリングされた動きが、イントラ符号化された参照ブロックを識別する場合、コロケートしたピクチャ内の参照ブロックを識別するために、ブロックCの動きが、使用され得る。
例えば、式(7)に示されるような、MVスケーリング誤差は、例えば、式(9)に示されるような、最良の近隣ブロックを識別するための基準として、使用され得る。コロケートしたピクチャからコロケートしたブロックを選択するために、最良の近隣ブロックの動きが、使用され得る。例えば、式(7)に示されるような、MVスケーリング誤差の算出は、例えば、2つの減算、1つの除算、および1つの絶対値演算を含み得る。除算は、(例えば、LUTに基づいた)乗算および/または右シフトによって実施され得る。ATMVPのためのコロケートしたブロックを決定するために、現在のCUの最良の空間的近隣ブロックが、選択され得る。コロケートしたピクチャは、スライスおよび/またはピクチャレベルで、シグナリングされ得る。コロケートしたピクチャは、ATMVP導出のために、使用され得る。既存のマージ候補のMVは、(例えば、図4に示されるような、A1、B1、B0、A0の)順番で、検査され得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられ、インター予測によって符号化された(例えば、1つの)ブロックを識別する、第1のマージ候補のMVが、選択され得る。例えば、そのような候補が存在しない場合、ゼロ動きが選択され得る。例えば、選択されたMVが、インター符号化された(例えば、1つの)コロケートしたブロックをポイントする場合、ATMVPは、有効化され得る。例えば、選択されたMVが、イントラ符号化された(例えば、1つの)コロケートしたブロックをポイントする場合、ATMVPは、無効化(disabled)され得る。図11は、本明細書において説明されるような、コロケートしたブロック導出を例示する例示的なフローチャートを示している。
既存のマージ候補のMVは、順番に検査され得る。例えば、図4を参照すると、順番は、A1、B1、B0、A0であり得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられた第1のマージ候補のMVが、選択され得る。ATMVPは、コロケートしたブロックの符号化モードに基づいて、有効化され得る。例えば、コロケートしたブロックがイントラ符号化されている場合、例えば、コロケートしたブロックは、動き情報を提供しないことがあるので、ATMVPは無効化され得る。例えば、マージ候補のうちのどれも、コロケートしたピクチャと関連付けられない場合、ATMVPは無効化され得る。チェックの早期打ち切りが、行われ得る。例えば、コロケートしたピクチャと関連付けられた第1のマージ候補が見つけられると直ちに、チェックは打ち切られ得る。図14は、マージ候補のチェックを使用する、ATMVPのためのコロケートしたブロック導出を例示するフローチャートを示している。
コロケートしたピクチャ内のコロケートしたブロックを取得するために、ゼロ動きが使用され得る。ATMVPを有効化すべきかどうかを決定するために、コロケートしたピクチャ内において現在のCUと同じ位置に配置されたブロックがチェックされ得る。例えば、ブロックがインター符号化されている場合、ATMVPは、有効化され得る。例えば、ブロックがイントラ符号化されている場合、ATMVPは、無効化され得る。
ATMVPのためのコロケートしたブロックを取得するためのエリアは、制限され得る。異なるATMVPブロックについてのATMVP導出のためのコロケートしたピクチャは、(例えば、1つの)参照ピクチャに制限され得る。対応するコロケートしたブロックは、近隣ブロックの選択されたマージ候補のMVによって、示され得る。対応するコロケートしたブロックは、互いに離れていることがある。エンコーダまたはデコーダは、コロケートしたピクチャ内の異なる領域の動き(例えば、MVおよび/または参照ピクチャインデックス)へのアクセスを、(例えば、頻繁に)切り換え得る。図12は、ATMVPのためのコロケートしたブロックの制限されないアクセスの例を示している。図12に示されるように、現在のCTU内に1つまたは複数(例えば、3つ)のATMVP CUが、存在し得、CU(例えば、各CU)は、例えば、図12において異なる色によって示されるように、動きオフセット(例えば、異なる動きオフセット)を使用する。オフセットは、例えば、図12において破線ブロックによって示されるような、コロケートしたピクチャ内の対応するコロケートしたブロックを見つけるために、使用され得る。コロケートしたブロックは、例えば、異なる値を有する動きオフセットのせいで、コロケートしたピクチャの異なる領域内に見つけられ得る。
ATMVP CU(例えば、各ATMVP CU)のコロケートしたブロックは、(例えば、1つの)制限された範囲内で、導出され得る。図13は、ATMVPのためのコロケートしたブロックを導出するために、制限された領域を適用する例を示している。図13は、図12と同じコロケートしたピクチャおよびCTUを示し得る。図13に示されるように、現在のCUの位置が与えられると、コロケートしたピクチャ内の制限されたエリア(例えば、領域)が、決定され得る。例えば、制限されたエリアは、現在のスライスに基づいて、決定され得る。現在のCUのATMVP導出のために使用されるコロケートしたブロックの位置は、エリア内にあり得る。エリア内のコロケートしたブロックは、有効なコロケートしたブロックであり得る。エリア内にない近隣ブロック(例えば、候補近隣ブロック)からのMVは、有効なコロケートしたブロックからのMVで置き換えられ得る。例えば、図13に示されるように、B1およびB2の最初のコロケートしたブロック(例えば、ColB1およびColB2)は、制限されたエリア内部にあり得る。最初のコロケートしたブロックColB1およびColB2は、B1およびB2のATMVP導出のために使用され得る。B0の最初のコロケートしたブロック(例えば、ColB0)は、制限されたエリア外部にあるので、(例えば、1つの)コロケートしたブロック(例えば、ColB0’)は、制限されたエリアの最も近い境界に向かってColB0の位置をクリップ(clip)することによって、生成され得る。例えば、ColB0’は、ColB0に最も近い有効なブロックであり得る。ColB0’の位置は、コロケートしたピクチャ内において現在のブロックと同じロケーションに配置されたブロックとして、設定され得る(例えば、B0の動きは、ゼロに設定され得る)。CUを符号化(例えば、エンコードおよび/またはデコード)するために、(例えば、ColB0からのMVの代わりに)ColB0’からのMVが、使用され得る。例えば、ColB0が境界の外にあるとき、ATMVPは無効化され得る。
ATMVPのコロケートしたブロック導出のための制限されたエリアのサイズが、決定され得る。例えば、(例えば、1つの)ビデオシーケンス内の、ATMVPによって符号化されるCU(例えば、すべてのCU)に、(例えば、1つの)固定されたエリアが適用され得る。現在のCTU(例えば、現在のCUを含むCTU)の(例えば、1つの)ATMVP CUのコロケートしたブロックの導出は、コロケートしたピクチャ内部の同じエリアのコロケートしたCTU内にあるように、制限され得る。例えば、現在のCTUと同じロケーションに位置付けられた、コロケートしたピクチャ内のCTU内のコロケートしたブロック(例えば、それだけ)が、導出され得る。(例えば、1つの)CUのTMVPプロセスのためのコロケートしたブロックの導出は、現在のCTU内および4×4ブロックの(例えば、1つの)列内にあるように、制限され得る。CTUは、W×H(例えば、幅×高さ)のサンプルを含み得る。TMVPのコロケートしたブロックを導出する領域は、(W+4)×Hであり得る。ATMVPおよびTMVP両方のコロケートしたブロックを導出するために、同じ制限されたエリアのサイズ(例えば、現在のCTUプラス4×4ブロックの(例えば、1つの)列)が、使用され得る。制限されたエリアのサイズは、選択され、エンコーダからデコーダにシグナリングされ得る。シンタックス要素は、シーケンスおよび/もしくはピクチャ、またはスライスレベルで、追加され得る。様々なアプリケーション要件のために、異なるプロファイルおよび/またはレベルが、定義され得る。例えば、シンタックス要素は、シーケンスパラメータセット(SPS)および/もしくはピクチャパラメータセット(PPS)に収めてシグナリングされ得、またはスライスヘッダに収めてシグナリングされ得る。
ATMVPのためのコロケートしたブロックの選択と、コロケートしたブロック導出のためのエリアの制限は、組み合わせられ得る。例えば、図14に示されるように、コロケートしたブロックは、1つまたは複数のマージ候補の特徴に基づいて、選択され得る。既存のマージ候補のMVは、(例えば、図4に示されるような、A1、B1、B0、A0の)順番で、検査され得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられた第1のマージ候補のMVが選択され得る。例えば、コロケートしたブロックが、イントラ符号化されている場合、またはマージ候補のどれも、コロケートしたピクチャと関連付けられない場合、ATMVPは、無効化され得る。有効なマージ候補が見つけられ得る。例えば、有効なマージ候補は、A1であり得る。A1に対応するコロケートしたピクチャ内のコロケートしたブロックは、ColA1と表され得る。ColA1は、制限された範囲の境界の外にあり得る。ColA1が、制限された範囲の境界の外にある場合、ColA1は、制限されたエリアの最も近い境界にクリップバック(clip back)され、コロケートしたピクチャ内における、現在のブロックと同じロケーションに配置されたブロックに設定され得(例えば、A1の動きは、ゼロに設定され得)、および/またはATMVPは、無効(disabled)としてマークされ得る。
図15は、コロケートしたピクチャを使用して、現在のブロックのためのMVを導出する例を示している。現在のピクチャのためのコロケートしたピクチャは、例えば、スライスヘッダに収めて、シグナリングされ得る。コロケートしたピクチャは、現在のピクチャ上においてATMVPを実行する際に、使用され得る。例えば、現在のピクチャ内の現在のブロックの近隣ブロックのための参照ピクチャは、コロケートしたピクチャと比較され得る。コロケートしたピクチャまでの時間的距離が最も小さい近隣ブロックの参照ピクチャに基づいて、近隣ブロックが選択され得る。時間的距離は、POC差であり得る。近隣ブロックの参照ピクチャは、コロケートしたピクチャと同じであり得る。コロケートしたピクチャからのMVを決定するために、選択された近隣ブロックのための参照ピクチャからのMVが使用され得る。現在のブロックを符号化するために、コロケートしたピクチャからのMVが使用され得る。例えば、選択された近隣ブロックの参照ピクチャが、コロケートしたピクチャと同じでない場合、コロケートしたピクチャからのMVは、スケーリングされ得る。
上では、特徴および要素が特定の組み合わせで説明されたが、各特徴または要素は、単独で使用され得、または他の特徴および要素との任意の組み合わせで使用され得ることを当業者は理解されよう。加えて、本明細書において説明された方法は、コンピュータまたはプロセッサによって実行される、コンピュータ可読媒体内に含まれる、コンピュータプログラム、ソフトウェア、またはファームウェアで実施され得る。コンピュータ可読媒体の例は、(有線または無線接続上において送信される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、限定されることなく、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよびリムーバブルディスクなどの磁気媒体、光磁気媒体、ならびにCD-ROMディスクおよびデジタル多用途ディスク(DVD)などの光媒体を含む。WTRU、UE、端末、基地局、RNC、または任意のホストコンピュータにおいて使用される、無線周波数送受信機を実施するために、ソフトウェアと関連付けられたプロセッサが使用され得る。

Claims (15)

  1. ビデオデコーディングのための方法であって
    デオの現在のスライスについてのコロケートしたピクチャを識別するステップであって、前記現在のスライスは、現在のブロックと、前記現在のブロックの近隣ブロックとを含み、前記近隣ブロックは、参照ピクチャと関連付けられている、ステップと、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間のピクチャ順序カウント差(POC差)を決定するステップと、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の前記POC差に基づいて、前記コロケートしたピクチャにおけるコロケートしたサブブロックを取得するため時間的動きベクトル(MV)を決定するステップであって、前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと異なることを示している条件に基づいて、前記時間的MVデフォルト値であると決定される、ステップと、
    前記時間的MVに基づいて、前記コロケートしたピクチャにおける前記コロケートしたサブブロックを取得するステップと、
    前記コロケートしたピクチャにおける前記コロケートしたサブブロックに基づいて、前記現在のブロックデコードするステップと
    を備える方法。
  2. 前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと同じであることを示している条件で、前時間的MVが、前記近隣ブロックのMVであると決定される請求項1に記載の方法。
  3. 前記コロケートしたピクチャは、スライスヘッダ内のコロケートしたピクチャインジケーションに基づいて識別され、
    前記近隣ブロックは、前記現在のCUの複数の近隣ブロックのうちの1つであり、前記近隣ブロックは、前記近隣ブロックのそれぞれの参照ピクチャと前記コロケートしたピクチャとの間のそれぞれのPOC差に基づいて、選択される請求項1に記載の方法。
  4. ビデオデコーディングデバイスであって、
    ビデオの現在のスライスについてのコロケートしたピクチャを識別し、前記現在のスライスは、現在のブロックと、前記現在のブロックの近隣ブロックとを含み、前記近隣ブロックは、参照ピクチャと関連付けられており、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間のピクチャ順序カウント差(POC差)を決定し、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の前記POC差に基づいて、前記コロケートしたピクチャにおけるコロケートしたサブブロックを取得するため時間的の動きベクトル(MV)を決定し、前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと異なることを示している条件に基づいて、前記時間的MVデフォルト値であると決定され
    前記時間的MVに基づいて、前記コロケートしたピクチャにおける前記コロケートしたサブブロックを取得し、
    前記コロケートしたピクチャにおける前記コロケートしたサブブロックに基づいて、前記現在のブロックデコードする
    ように構成されたプロセッサ
    を備えたビデオデコーディングデバイス。
  5. 前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと同じであることを示している条件に基づいて、前記時間的MVが、前記近隣ブロックのMVであると決定される請求項に記載のビデオデコーディングデバイス。
  6. 記POC差は、前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の時間的距離を示している請求項に記載のビデオデコーディングデバイス。
  7. 前記コロケートしたピクチャは、スライスヘッダ内のコロケートしたピクチャインジケーションに基づいて識別され、
    前記近隣ブロックは、前記現在のブロックの複数の近隣ブロックのうちの1つであり、前記近隣ブロックは、前記近隣ブロックのそれぞれの参照ピクチャと前記コロケートしたピクチャとの間のそれぞれのPOC差に基づいて、選択される請求項に記載のビデオデコーディングデバイス。
  8. 前記近隣ブロックは、前記現在のブロックの複数の近隣ブロックのうちの1つであり、前記近隣ブロックの前記参照ピクチャが前記コロケートしたピクチャと同じであることの決定に基づいて、他の近隣ブロックを検討せずに、前記近隣ブロックが選択される請求項に記載のビデオデコーディングデバイス。
  9. 1つ以上のプロセッサに、
    ビデオの現在のスライスについてのコロケートしたピクチャを識別させ、前記現在のスライスは、現在のブロックと、前記現在のブロックの近隣ブロックとを含み、前記近隣ブロックは、参照ピクチャと関連付けられており、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間のピクチャ順序カウント差(POC差)を決定させ、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の前記POC差に基づいて、前記コロケートしたピクチャにおけるコロケートしたサブブロックを取得するため時間的動きベクトル(MV)を決定させ、前記POC差が、前記参照ピクチャ前記コロケートしたピクチャと異なることを示している条件で、前記時間的MVデフォルト値であると決定され
    前記時間的MVに基づいて、前記コロケートしたピクチャにおける前記コロケートしたサブブロックを取得させ、
    前記コロケートしたピクチャにおける前記コロケートしたサブブロックに基づいて、前記現在のブロックデコードさせる
    ための命令を含んでいるコンピュータ読取り可能媒体。
  10. 前記近隣ブロックは空間的MVと関連付けられており、前記現在のブロックをデコードするステップは、前記コロケートしたサブブロックを使用して時間的動きベクトル予測(TMVP)を実施することを含み、前記TMVPは、前記現在のスライスの参照ピクチャと関連付けられた第1のPOC、前記現在のスライスと関連付けられた第2のPOC、および、前記コロケートしたピクチャと関連付けられた第3のPOCに基づいた前記コロケートしたサブブロックのMVの時間的スケーリングを含む請求項1に記載の方法
  11. 前記プロセッサは、
    前記コロケートしたサブブロックのMVを取得し、
    前記現在のスライスの参照ピクチャと関連付けられた第1のPOC、前記現在のスライスと関連付けられた第2のPOC、および、前記コロケートしたピクチャと関連付けられた第3のPOCに基づいて、前記コロケートしたサブブロックのスケ―リングされたMVを生成し、
    前記コロケートしたサブブロックの前記スケ―リングされたMVを使用して、前記現在のブロックのサブブロックを予測する
    ようさらに構成された請求項4に記載のビデオデコーディングデバイス
  12. ビデオエンコーディングデバイスであって、
    ビデオの現在のスライスについてのコロケートしたピクチャを識別し、前記現在のスライスは、現在のブロックと、前記現在のブロックの近隣ブロックとを含み、前記近隣ブロックは、参照ピクチャと関連付けられており、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間のピクチャ順序カウント差(POC差)を決定し、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の前記POC差に基づいて、前記コロケートしたピクチャにおけるコロケートしたサブブロックを取得するための時間的動きベクトル(MV)を決定し、前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと異なることを示している条件に基づいて、前記時間的MVはデフォルト値であると決定され、
    前記時間的MVに基づいて、前記コロケートしたピクチャにおける前記コロケートしたサブブロックを取得し、
    前記コロケートしたピクチャにおける前記コロケートしたサブブロックに基づいて、前記現在のブロックをエンコードする
    ように構成されたプロセッサ
    を備えたビデオエンコーディングデバイス
  13. 前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと同じであることを示している条件に基づいて、前記時間的MVが前記近隣ブロックのMVであると決定される請求項12に記載のビデオエンコーディングデバイス
  14. ビデオをエンコーディングするための方法であって、
    前記ビデオの現在のスライスについてのコロケートしたピクチャを識別するステップであって、前記現在のスライスは、現在のブロックと、前記現在のブロックの近隣ブロックとを含み、前記近隣ブロックは、参照ピクチャと関連付けられている、ステップと、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間のピクチャ順序カウント差(POC差)を決定するステップと、
    前記近隣ブロックの前記参照ピクチャと前記コロケートしたピクチャとの間の前記POC差に基づいて、前記コロケートしたピクチャにおけるコロケートしたサブブロックを取得するための時間的動きベクトル(MV)を決定するステップであって、前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと異なることを示している条件に基づいて、前記時間的MVはデフォルト値であると決定される、ステップと、
    前記時間的MVに基づいて、前記コロケートしたピクチャにおける前記コロケートしたサブブロックを取得するステップと、
    前記コロケートしたピクチャにおける前記コロケートしたサブブロックに基づいて、前記現在のブロックをエンコードするステップと
    を備える方法
  15. 前記POC差が、前記参照ピクチャが前記コロケートしたピクチャと同じであることを示している条件に基づいて、前記時間的MVが前記近隣ブロックのMVであると決定される請求項14に記載の方法
JP2020543735A 2017-11-01 2018-11-01 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 Active JP7382332B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023189419A JP2024010171A (ja) 2017-11-01 2023-11-06 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201762580184P 2017-11-01 2017-11-01
US62/580,184 2017-11-01
US201862623001P 2018-01-29 2018-01-29
US62/623,001 2018-01-29
US201862678576P 2018-05-31 2018-05-31
US62/678,576 2018-05-31
US201862690661P 2018-06-27 2018-06-27
US62/690,661 2018-06-27
PCT/US2018/058719 WO2019089933A1 (en) 2017-11-01 2018-11-01 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023189419A Division JP2024010171A (ja) 2017-11-01 2023-11-06 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化

Publications (3)

Publication Number Publication Date
JP2021502038A JP2021502038A (ja) 2021-01-21
JP2021502038A5 JP2021502038A5 (ja) 2021-12-09
JP7382332B2 true JP7382332B2 (ja) 2023-11-16

Family

ID=64557134

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020543735A Active JP7382332B2 (ja) 2017-11-01 2018-11-01 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化
JP2023189419A Pending JP2024010171A (ja) 2017-11-01 2023-11-06 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023189419A Pending JP2024010171A (ja) 2017-11-01 2023-11-06 マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化

Country Status (9)

Country Link
US (2) US11558633B2 (ja)
EP (1) EP3704856A1 (ja)
JP (2) JP7382332B2 (ja)
KR (1) KR20200095463A (ja)
CN (1) CN111480341A (ja)
CA (1) CA3081335A1 (ja)
SG (1) SG11202003925XA (ja)
WO (1) WO2019089933A1 (ja)
ZA (1) ZA202002074B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108506A (ko) * 2018-03-14 2019-09-24 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR102600670B1 (ko) * 2018-07-02 2023-11-08 후아웨이 테크놀러지 컴퍼니 리미티드 움직임 벡터 예측 방법 및 장치, 인코더, 그리고 디코더
WO2020017892A1 (ko) * 2018-07-17 2020-01-23 엘지전자 주식회사 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치
CN118055249A (zh) * 2018-09-22 2024-05-17 Lg 电子株式会社 使用间预测处理视频信号的方法和装置
WO2020084553A1 (en) * 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Motion candidate derivation based on multiple information in sub-block motion vector prediction
KR102660160B1 (ko) 2018-11-22 2024-04-24 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브 블록 기반 인터 예측을 위한 조정 방법
US11146810B2 (en) 2018-11-27 2021-10-12 Qualcomm Incorporated Decoder-side motion vector refinement
WO2020140243A1 (zh) 2019-01-03 2020-07-09 北京大学 视频图像处理方法与装置
CN112514384A (zh) 2019-01-28 2021-03-16 株式会社 Xris 视频信号编码/解码方法及其装置
EP3922028A4 (en) * 2019-03-08 2022-08-10 Beijing Dajia Internet Information Technology Co., Ltd. BIDIRECTIONAL OPTICAL FLOW AND DECODER-SIDE MOTION VECTOR REFINEMENT FOR VIDEO ENCODING
WO2020232269A1 (en) * 2019-05-15 2020-11-19 Futurewei Technologies, Inc. Handling of decoder-side motion vector refinement (dmvr) coding tool for reference picture resampling in video coding
CN111953995A (zh) * 2019-05-17 2020-11-17 华为技术有限公司 一种帧间预测的方法和装置
CN117440169A (zh) * 2019-06-21 2024-01-23 华为技术有限公司 编码器、解码器及对应方法
CN114208184A (zh) * 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
US11223840B2 (en) * 2019-08-19 2022-01-11 Tencent America LLC Method and apparatus for video coding
WO2021050234A1 (en) 2019-09-12 2021-03-18 Alibaba Group Holding Limited Method and apparatus for signaling video coding information
WO2021050226A1 (en) * 2019-09-12 2021-03-18 Alibaba Group Holding Limited Method and apparatus for encoding or decoding video
JP7323710B2 (ja) * 2019-09-13 2023-08-08 北京字節跳動網絡技術有限公司 映像符号化における重み付けサンプルの双予測
CN114424553A (zh) 2019-09-22 2022-04-29 北京字节跳动网络技术有限公司 基于子块的帧间预测的缩放方法
US20220201315A1 (en) * 2020-12-22 2022-06-23 Qualcomm Incorporated Multi-pass decoder-side motion vector refinement
US20230388529A1 (en) * 2022-05-24 2023-11-30 Tencent America LLC Method and apparatus for temporal interpolated prediction in video bitstream

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520477A (ja) 2011-09-09 2014-08-21 ケィティ、コーポレーション 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
US20150085929A1 (en) 2013-09-26 2015-03-26 Qualcomm Incorporated Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc
US20160219278A1 (en) 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101039427B (zh) * 2002-07-15 2010-06-16 株式会社日立制作所 动态图像的解码方法
US20100316129A1 (en) * 2009-03-27 2010-12-16 Vixs Systems, Inc. Scaled motion search section with downscaling filter and method for use therewith
CN105915901B (zh) * 2011-03-08 2017-09-19 Jvc 建伍株式会社 动图像解码装置以及动图像解码方法
CN105187838A (zh) * 2011-05-31 2015-12-23 Jvc建伍株式会社 动图像解码装置、动图像解码方法、接收装置及接收方法
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
GB2495990A (en) * 2011-10-28 2013-05-01 Canon Kk Motion compensated image coding with omission of coding mode cost calculation for a motion predictor in a set.
US9762904B2 (en) * 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US10218999B2 (en) * 2012-01-19 2019-02-26 Electronics And Telecommunications Research Institute Method and apparatus for image coding/decoding
US20130258052A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Inter-view residual prediction in 3d video coding
CN108156463B (zh) * 2012-08-29 2022-07-01 Vid拓展公司 用于可分级视频编码的运动矢量预测的方法和装置
US10057594B2 (en) * 2013-04-02 2018-08-21 Vid Scale, Inc. Enhanced temporal motion vector prediction for scalable video coding
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
GB2534136A (en) * 2015-01-12 2016-07-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10057574B2 (en) * 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
US20180249176A1 (en) * 2015-03-11 2018-08-30 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal
US10250904B2 (en) * 2015-05-05 2019-04-02 Avago Technologies International Sales Pte. Limited Apparatus and method for overlapped motion compensation for video coding
US10187653B2 (en) * 2015-05-18 2019-01-22 Avago Technologies International Sales Pte. Limited Motor vector prediction using co-located prediction units
US10306240B2 (en) * 2015-06-08 2019-05-28 Vid Scale, Inc. Intra block copy mode for screen content coding
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
US10462457B2 (en) * 2016-01-29 2019-10-29 Google Llc Dynamic reference motion vector coding mode
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
JP2019525577A (ja) * 2016-07-18 2019-09-05 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 画像符号化/復号方法、装置、及び、ビットストリームを保存した記録媒体
US20190182505A1 (en) * 2016-08-12 2019-06-13 Mediatek Inc. Methods and apparatuses of predictor-based partition in video processing system
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US10812791B2 (en) * 2016-09-16 2020-10-20 Qualcomm Incorporated Offset vector identification of temporal motion vector predictor
US10616582B2 (en) * 2016-09-30 2020-04-07 Qualcomm Incorporated Memory and bandwidth reduction of stored data in image/video coding
KR102435500B1 (ko) * 2016-10-06 2022-08-23 세종대학교산학협력단 비디오 신호의 복호화 방법 및 이의 장치
EP3525460A4 (en) * 2016-10-06 2020-06-17 LG Electronics Inc. -1- METHOD FOR PROCESSING A VIDEO BASED ON AN INTRAPREDICATION MODE AND DEVICE THEREFOR
US10291928B2 (en) * 2017-01-10 2019-05-14 Blackberry Limited Methods and devices for inter-prediction using motion vectors for video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520477A (ja) 2011-09-09 2014-08-21 ケィティ、コーポレーション 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
US20150085929A1 (en) 2013-09-26 2015-03-26 Qualcomm Incorporated Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc
JP2016537839A (ja) 2013-09-26 2016-12-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計
US20160219278A1 (en) 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
WO2016123081A1 (en) 2015-01-26 2016-08-04 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
JP2018506908A (ja) 2015-01-26 2018-03-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated サブ予測ユニットベース高度時間動きベクトル予測

Also Published As

Publication number Publication date
CN111480341A (zh) 2020-07-31
KR20200095463A (ko) 2020-08-10
US20230156215A1 (en) 2023-05-18
JP2021502038A (ja) 2021-01-21
JP2024010171A (ja) 2024-01-23
WO2019089933A1 (en) 2019-05-09
US20210185338A1 (en) 2021-06-17
US11558633B2 (en) 2023-01-17
EP3704856A1 (en) 2020-09-09
SG11202003925XA (en) 2020-05-28
CA3081335A1 (en) 2019-05-09
ZA202002074B (en) 2023-10-25

Similar Documents

Publication Publication Date Title
JP7382332B2 (ja) マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化
JP7448600B2 (ja) 局所照明補償に基づいた動き補償双予測
CN111345041B (zh) 解码、编码视频数据的方法和设备
JP7398442B2 (ja) ビデオコーディングのための双予測
CN110832858B (zh) 用于视频编解码的设备、方法
US20230188748A1 (en) Bi-directional optical flow method with simplified gradient derivation
CN113615186B (zh) 对称运动矢量差译码
JP7307184B2 (ja) オプティカルフローを用いたインター予測リファインメントのためのシステム、装置、および方法
CN113228634A (zh) 组合的帧内及帧间预测
CN113316936A (zh) 基于历史的运动向量预测
CN113016186A (zh) 用于基于仿射模型的视频译码的仿射运动估计
TWI835958B (zh) 對稱運動向量差寫碼的裝置及方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200618

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7382332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150