JP2022511308A - オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化又は復号化 - Google Patents

オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化又は復号化 Download PDF

Info

Publication number
JP2022511308A
JP2022511308A JP2021513830A JP2021513830A JP2022511308A JP 2022511308 A JP2022511308 A JP 2022511308A JP 2021513830 A JP2021513830 A JP 2021513830A JP 2021513830 A JP2021513830 A JP 2021513830A JP 2022511308 A JP2022511308 A JP 2022511308A
Authority
JP
Japan
Prior art keywords
block
extension
prediction
current block
expansion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021513830A
Other languages
English (en)
Other versions
JPWO2020096898A5 (ja
Inventor
ギャルピン,フランク
ロベール,アントワーヌ
ボルデ,フィリップ
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2022511308A publication Critical patent/JP2022511308A/ja
Publication of JPWO2020096898A5 publication Critical patent/JPWO2020096898A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

異なる実装形態、特に、オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化及び復号化のための実装形態が説明される。本方法は、符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得することであって、少なくとも1つの部分が現在のブロックに隣り合っている、取得することと、現在のブロック及び拡張部分を用いて拡張ブロックを形成することと、拡張ブロックのための予測サンプルを決定するための予測を遂行することと、を含む。

Description

技術分野
本開示は映像圧縮の技術分野のものである。それは、圧縮効率を、既存の映像圧縮システムと比べて改善することを目的とする。
背景
映像データの圧縮ために、映像ソース信号の異なるピクチャの間の時間冗長性を利用するためのインターピクチャ予測を用いて、又はソース信号の単一のピクチャ内の空間冗長性を利用するためのイントラピクチャ予測を用いて、ピクチャのブロック状領域が符号化される。この目的のために、用いられる圧縮規格に応じて、ピクチャ内の種々のブロックサイズが指定され得る。次に、予測残差が、それが量子化される前に残差の内部の相関を除去するための変換を用いてさらに圧縮され、最後に、エントロピー符号化を用いてなおいっそう圧縮され得る。
勧告ITU-T H.265としても知られる、HEVCなどの従来のブロックベースの映像圧縮規格では、ピクチャが、以前の規格におけるマクロブロックと類似した、符号化の基本ユニットである、いわゆる符号化ツリーユニット(CTU(Coding Tree Unit))に分割される。CTUは、通常、3つの符号化ツリーブロック、ルミナンスサンプルのためのブロック、及びクロミナンスサンプルのための2つのブロック、並びに関連付けられた構文要素を含む。符号化ツリーユニットは、予測の種類、すなわち、インターピクチャ予測を遂行するべきか、それともイントラピクチャ予測を遂行するべきかの決定のための最小符号化要素である、符号化ユニット(CU(Coding Unit))にさらに分けられ得る。最後に、予測効率を改善するために、符号化ユニットは1つ以上の予測ユニット(PU(Prediction Unit))にさらに分けられ得る。
ちょうど1つの動きベクトルが単方向予測のPUに付与され、動きベクトルの1つの対がHEVCにおける双方向予測PUのために付与される。この動きベクトルは、考慮されているPUの動き補償時間予測のために用いられる。したがって、HEVCでは、予測ブロック及びその参照ブロックを連結する動きモデルは単純に平行移動に依拠する。
既存のツールの変更によって、及び新たな符号化ツールを追加することによって、基礎をなすHEVCフレームワークを拡張する、共同探索モデル(JEM(Joint Exploration Model))では、いくつかの特別な場合を除いて、CU、PU及びTU(変換ユニット(Transform Unit))の概念の分離が取り除かれている。JEM符号化ツリー構造内において、CUは正方形又は長方形のどちらかの形状を有することができる。まず、符号化ツリーユニット(CTU)が4分木構造によって分割され、次に、4分木葉ノードがマルチタイプツリー構造によってさらに分割され得る。JEMでは、PUは、共通パラメトリック動きモデル(例えば、アフィンモード)を用いた、又は記憶された時間的動き(例えば、ATMVP)を用いた、サブブロック動き(例えば、4x4正方形サブブロック)を包含することができる。すなわち、PUは、HEVCにおける平行移動モデルを拡張する(サブブロックレベルにおける)動き場を包含することができる。概して、PUは、パラメータのセット(例えば、単一の動きベクトル、又は動きベクトルの対、又はアフィンモデル)を所与として、予測が計算される予測ユニットである。さらなる予測パラメータはより深いレベルにおいて与えられない。
JEMでは、動き補償ステップに続いて、全てのインターCUのために、それらの符号化モード(例えば、サブブロックベースのものであるか否か等)にかかわりなく、ブロッキングアーチファクトとのデブロッキングフィルタに幾分似た、CU間の動き遷移を軽減することを目的とするオーバーラップブロック動き補償(OBMC(Overlapped Block Motion Compensation))と呼ばれるプロセスが行われる。しかし、CU符号化モード(例えば、アフィンモード、ATMVP、平行移動モード)によっては、適用されるOBMC方法は同じでない。2つの異質のプロセスが存在し、一方は、より小さい部分に分割されたCUのためのものであり(アフィン、FRUC、…)、一方は、他のCU(元のままのもの)のものである。
上述されたように、OBMCは、CUの間、及びサブブロックに分割されたものの内部における動き遷移によって生じるブロッキングアーチファクトを低減することを目的とする。現状技術において、OBMCプロセスの第1のステップは、ブロック境界上、又はさらに、ブロックの内部のサブブロック上のいずれかにおいてOBMCを遂行するために、CUの種類を検出することに依拠する。
概要
本開示の一態様によれば、ピクチャのブロックを符号化及び/又は復号化するための方法が開示される。このような方法は、符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得することであって、少なくとも1つの部分が現在のブロックに隣り合っている、取得することと、現在のブロック及び拡張部分を用いて拡張ブロックを形成することと、拡張ブロックのための予測サンプルを決定するための予測を遂行することと、を含む。
本開示の一態様によれば、ピクチャのブロックを符号化及び/又は復号化するための装置が開示される。このような装置は1つ以上のプロセッサを備え、前記1つ以上のプロセッサは、符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得することであって、少なくとも1つの部分が現在のブロックに隣り合っている、取得することと、現在のブロック及び拡張部分を用いて拡張ブロックを形成することと、拡張ブロックのための予測サンプルを決定するための予測を遂行することと、を行うように構成されている。
本開示の一態様によれば、ピクチャのブロックを符号化及び/又は復号化するための装置が開示される。このような装置は、符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得するための手段であって、少なくとも1つの部分が現在のブロックに隣り合っている、手段と、現在のブロック及び拡張部分を用いて拡張ブロックを形成するための手段と、拡張ブロックのための予測サンプルを決定するための予測を遂行するための手段と、を備える。
本開示はまた、コンピュータによって実行されたときに、コンピュータに上述の方法を実施させる命令を含むコンピュータプログラム製品も提供する。
上述のことは、主題の実施形態のいくつかの態様の基本的理解をもたらすために、主題の単純化された概要を提示している。この概要は主題の広範なあらましではない。実施形態の主要/重要要素を識別すること、又は主題の範囲を記述することは意図されていない。その唯一の目的は、主題のいくつかの概念を、後に提示されるより詳細な説明への前置きとして、単純化された形態で提示することである。
添付の図面を参照して進行する例示的な実施形態の以下の詳細な説明から、本開示の追加の特徴及び利点が明らかにされるであろう。
図面の簡単な説明
図1は、一般的な映像圧縮方式の一例のブロック図を示す。 図2は、一般的な映像復元方式の一例のブロック図を示す。 図3は、a)において、圧縮されたHEVCピクチャを表すいくつかの符号化ツリーユニットを示す。 図3は、b)において、符号化ユニット、予測ユニット、及び変換ユニットへの符号化ツリーユニットの分割を示す。 図4は、既知のOBMCの原理の概要を示す。 図5は、インター予測されたブロックを構築するための処理パイプラインの一例を示す。 図6は、OBMCのためのブロック拡張部を示す。 図7は、本開示の一実施形態に係る方法のための一般的なフローチャートを示す。 図8は、現在のブロックを、本開示の一実施形態に係る、現在のブロックの本提案のOBMC処理のフローチャートと共に示す。 図9は、バッファされたOBMCバンドを用いる、変更された処理パイプラインを示す。 図10は、CTU内のCUを処理した際にバッファされた拡張バンドを示す。 図11は、拡大されたブロックのための双方向予測オプティカルフロープロセスを示す。 図12は、追加されたバンドのためのイントラ予測プロセスを示す。 図13は、プロセスがCTUの内部のCUのためにのみ活動化される方式を示す。 図14は、例示的な実施形態の様々な態様が実施され得るシステムの一例のブロック図を示す。
図面は、様々な態様の例を示す目的のためのものであり、実施形態は必ずしも唯一の可能な構成ではないことを理解されたい。様々な図面全体を通して、同様の参照符号は、同じ、又は類似の特徴を指す。
詳細な説明
説明を明瞭にするために、以下の説明は、例えば、HEVC、JEM、及び/又はH.266などの映像圧縮技術を伴う実施形態を参照して態様を説明することになる。しかし、説明される態様は、他の映像処理技術及び規格にも適用可能である。
図1は例示的な映像符号器100を示す。この符号器100の変形例が企図されるが、以下においては、明快にする目的のために、符号器100は、全ての予想される変形例を説明することなく説明される。
符号化される前に、映像シーケンスは、符号化前処理(101)、例えば、色変換を入力カラーピクチャに適用すること(例えば、RGB4:4:4からYCbCr4:2:0への変換)、又は圧縮に対してより弾力的な信号分布を得るために、入力ピクチャ成分のリマッピングを遂行すること(例えば、色成分のうちの1つのヒストグラム等化を用いる)を経てもよい。メタデータを前処理に関連付け、ビットストリームに添付することができる。
1つ以上のピクチャを有する映像シーケンスを符号化するために、ピクチャは、例えば、各スライスが1つ以上のスライスセグメントを含むことができる1つ以上のスライスに分割される(102)。HEVCでは、スライスセグメントは、符号化ユニット、予測ユニット、及び変換ユニットに編成される。HEVC仕様は「ブロック」と「ユニット」とを区別し、「ブロック」はサンプルアレイ内の特定の区域(例えば、ルマ、Y)を扱い、「ユニット」は、全ての符号化された色成分(Y、Cb、Cr、若しくは単色)の配列されたブロック、構文要素、及びブロックに関連付けられた予測データ(例えば、動きベクトル)を含む。
符号器100では、ピクチャが、以下において説明されるように、符号器要素によって符号化される。符号化されるべきピクチャは、例えば、CUのユニットで処理される。各ユニットは、例えば、イントラモード又はインターモードのいずれかを用いて符号化される。ユニットがイントラモードで符号化されるときには、それはイントラ予測(160)を遂行する。インターモードでは、動き推定(175)及び補償(170)が遂行される。符号器は、ユニットを符号化するためにイントラモード又はインターモードのうちのどちらのものを用いるべきかを決定し(105)、例えば、予測モードフラグによって、イントラ/インターの決定を指示する。例えば、予測ブロックを元の画像ブロックから減算すること(110)によって、予測残差が算出される。
次に、予測残差は変換され(125)、量子化される(130)。量子化変換係数、並びに動きベクトル及び他の構文要素は、ビットストリームを出力するためにエントロピー符号化される(145)。符号器は変換を飛ばし、量子化を、変換されていない残差信号に直接適用することができる。符号器は変換及び量子化の両方を迂回することができ、すなわち、残差は、変換又は量子化プロセスの適用を行わずに直接符号化される。
符号器は、さらなる予測のための参照を提供するために、符号化されたブロックを復号化する。量子化変換係数は逆量子化され(140)、予測残差を復号化するために逆変換される(150)。復号化された予測残差及び予測ブロックを組み合わせ(155)、画像ブロックが再構成される。符号化アーチファクトを低減するべく、例えば、デブロッキング/SAO(サンプルアダプティブオフセット(Sample Adaptive Offset))フィルタリングを遂行するためのループ内フィルタ(165)が、再構成されたピクチャに適用される。フィルタリングされた画像は参照ピクチャバッファ(180)において記憶される。
図2は映像復号器200のブロック図を示す。復号器200では、ビットストリームが、以下において説明されるように、復号器要素によって復号化される。映像復号器200は、概して、図1において説明されたとおりの符号化パスと逆の復号化パスを遂行する。符号器100も、概して、映像データを符号化する部分として映像復号化を遂行する。
具体的には、復号器の入力は、映像符号器100によって生成され得る、映像ビットストリームを含む。ビットストリームは、まず、変換係数、動きベクトル、及び他の符号化された情報を取得するために、エントロピー復号化される(230)。ピクチャ分割情報は、ピクチャがどのように分割されているのかを指示する。したがって、復号器は、復号化されたピクチャ分割情報に従ってピクチャを分割し得る(235)。変換係数は逆量子化され(240)、予測残差を復号化するために逆変換される(250)。復号化された予測残差及び予測ブロックを組み合わせ(255)、画像ブロックが再構成される。予測ブロックはイントラ予測(260)又は動き補償予測(すなわち、インター予測)(275)から取得され得る(270)。ループ内フィルタ(265)が、再構成された画像に適用される。フィルタリングされた画像は参照ピクチャバッファ(280)において記憶される。
復号化されたピクチャは、復号化後処理(285)、例えば、逆色変換(例えば、YCbCr4:2:0からRGB4:4:4への変換)、又は符号化前処理(101)において遂行されたリマッピングプロセスの逆を遂行する逆リマッピングをさらに経ることができる。復号化後処理は、符号化前処理において導出され、ビットストリームに含めて信号で通信されたメタデータを用いることができる。
図1及び図2は、HEVC規格の改善がなされているか、又はHEVCと同様の技術が採用された、符号器及び復号器をそれぞれ示し得る。
HEVC映像圧縮規格では、ピクチャが、(通例、64x64、128x128、又は256x256画素における)構成可能なサイズを有する正方形状の符号化ツリーブロック(CTB(coding tree block))に分割され、符号化ツリーブロックの連続したセットがスライスにグループ化される。符号化ツリーユニット(CTU)は、符号化された色成分のCTBを包含する。図3aに、ピクチャの部分をCTU0、1、2に分割するための一例が示されている。図において、左側のCTU0はそのままで直接用いられ、その一方で、その右側のCTU1は、CTUによって覆われたピクチャ領域の信号特徴に基づいて複数のより小さい区分に分割される。矢印はそれぞれの区分の予測動きベクトルを指示する。
CTBは、符号化ブロック(CB(Coding Block))への4分木分割のルートであり、符号化ブロックは1つ以上の予測ブロック(PB(Prediction Block))に分割されてもよく、変換ブロック(TB(Transform Block))への4分木分割のルートを形成する。4x4よりも大きい変換ブロック(TB)は、係数グループ(CG(Coefficient Group))と呼ばれる量子化係数の4x4サブブロックに分割される。符号化ブロック、予測ブロック、及び変換ブロックに対応して、符号化ユニット(CU)は、予測ユニット(PU)、及び変換ユニット(TU)のツリー構造化セットを含み、PUは全ての色成分のための予測情報を含み、TUは色成分ごとの残差符号化構文構造を含む。ルマ成分のCB、PB、及びTBのサイズは、対応するCU、PU、及びTUに適用される。図3bに、符号化ユニット、予測ユニット、及び変換ユニットへの符号化ツリーユニットの分割のための一例が示されている。
以下においては、簡潔にするために、CU及びPUが同一であると仮定される。しかし、1つのCUがいくつかのPUを有する場合には、以下において説明されるOBMCプロセスは、PUごとに、別々に、又はラスタ走査順序で、PUを次から次へと、適用され得る。さらに、以下において提示される様々な実施形態は、サブブロックPU(動きがPUの内部で均一でない)、及び非サブブロックPU(動きがPUの内部で均一である(例えば、HEVC PU))の両方に適用される。
図4に、JEMにおいて用いられるOBMCの原理が、上部ブロック隣接者T0及びT1並びに左側ブロック隣接者Lを有する現在のブロックCのために示されている:
- まず、現在のブロックの動きベクトルを用いて現在のブロックCを動き補償する(310)、
- 上方ブロック隣接者T0及びT1の動きベクトルを用いて現在のブロックCの上部バンドを動き補償する(320)、
- 左側ブロック隣接者Lの動きベクトルを用いて現在のブロックCの左側バンドを動き補償する(330)、
- 次に、最終的な動き補償ブロック予測を計算するために、(ブロックレベル又は画素レベルのいずれかにおける)重み付き合計を遂行する(340)。
- 最後に、現在のブロックのための再構成されたサンプルを取得するために、残差を予測サンプルに加算する(350)。
このOBMCプロセスはブロックの再構成の間に特定のブロックのために遂行される。これは、各バンドの動き補償を遂行するために必要とされるパラメータが各隣接ブロック内に保存されなければならないことを意味する。
図5は、JEM復号器において周知のOBMCの原理を用いてブロックを再構成するための処理パイプラインの一例を示す。段階のうちのいくつかは、処理ブロック230に対応し得るエントロピー復号化のための段階500、又は処理ブロック285に対応し得るポストフィルタリングのための段階595などの、図2の復号器において示されるものに対応し得る。さらに、段階のうちのいくつかは迂回され得る。
予測ブロックの復号化に関しては、以下のプロセスが必要とされ得るであろう(“Algorithm description for Versatile Video Coding and Test Model 2 (VTM 2)”、JVET-K1002, July 2018、参照):
- (ブロック又はサブブロックのどちらかによる)動き補償MCのための段階510。
- 局部照明補償(Local Illumination compensation)LICのための段階520。この段階では、予測サンプル値が、例えば、線形適応を用いて変更される。
- 双方向予測オプティカルフロー(bi-prediction optical flow)BIOのための段階530。この段階では、予測サンプル値が、ブロックを再構成するために用いられる2つの参照ブロックの間のオプティカルフロー推定の結果を用いて変更される。別の変形例は、図5には示されていない、復号器側動きベクトル精密化(DMVR(decoder-side motion vector refinement))である。
- 一般化双方向予測(generalized bi-prediction)GBI(双方向予測合成重み付け(bi-prediction combination weighting)、BCWとしても知られる)のための段階540。この段階では、ブロックを再構成するために2つの参照ブロックの重み付き平均が用いられる。
- オーバーラップブロック動き補償OBMCのための段階550。この段階では、図4に示されるとおりの隣接ブロックからの異なる動きベクトルを用いて、動き補償ブロックの重み付き平均が算出される。
- 残差を再構成するための逆量子化及び変換(inverse quantization and transform)IQ/ITのための段階560。
- 周囲のサンプル値を用いてブロックのルマ及びクロマ成分を予測するためのイントラ予測のための段階570及び575。
- 予測サンプルの位置及び/又は隣接ブロックの符号化モードに応じた重み付き平均を用いていくつかの予測(通例、インター及びイントラ)を融合させる、多重仮説(複合イントラ-インター予測(CIIP(combination intra-inter prediction))としても知られる)のための段階580。また、いくつかのインター予測をブロックの内部で融合させることができる三角多重仮説(triangular multi-hypothesis)を用いることもできる。
- 線形モデルを用いて現在の成分を予測するために別のすでに再構成された成分を用いるクロスコンポーネント線形モデル(Cross Components Linear Model)CCLMのための段階590。
以上において説明されたように、JEMでは、OBMCプロセスは、特定のPUを再構成する際にオンザフライで適用された。動き補償バンドを計算する際に、いくつかのパラメータが欠けているか、又は計算が過度に不経済であるか、若しくは実行不可能であるため、動き補償バンドは、LIC、BIO、又は多重仮説のようないくつかの他のプロセスを用いることなく、単純な動き補償を用いて再構成される。
図6、図7、及び図8は本開示の提案の技法の基本原理を示す。図6に示されるように、特定の現在のブロックCのブロック予測のために、ブロックは、拡張ブロックを形成するために、下縁及び右縁上の追加のサンプルの部分によって拡張される。例えば、現在のブロックCはM x M個のサンプルのサイズを有し得、(M+N)×(M+N)-1のサイズを有する拡張ブロックを形成するよう、下縁及び右縁上のN個のサンプルによって拡張される。典型的な値はN=2のサンプルであるが、他の値も可能である。別の例では、拡張ブロックは(M+N)×(M+N)のサイズを有する。復号器は拡張ブロックに基づいて予測を遂行する。
図7は、このブロック拡張部を用いる方法のための対応する一般的なフローチャートを示す。ステップ710において、ピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得する。少なくとも1つの部分は現在のブロックに隣り合っている。ステップ720において、現在のブロック及び拡張部分を用いて拡張ブロックを形成する。最後に、拡張ブロックのために、すなわち、現在のブロック及び拡張部分の両方のために、予測サンプルを決定するための予測を遂行する。
図8に、本開示に係るブロック予測の計算がより詳細に示される。ピクチャの左手側は、この場合も先と同様に、右側ブロック拡張部及び下側ブロック拡張部を伴う現在のブロックCを示す。これらの拡張部は、サイズ2 x N x Mの一時的バッファ((360)において薄灰色で表されている)内に記憶され得る。これらの右側ブロック拡張部及び下側ブロック拡張部は、概略的に指示されたHバッファ及びVバッファ内にそれぞれさらに記憶される(390)。
拡張ブロック、すなわち、現在のブロックC及びブロック拡張部は、右手側に示されるフローチャートのステップ360において全予測構成を用いて処理される。現在のブロックのためのOBMCプロセスは、現在のブロックの追加された右縁及び下縁に影響を及ぼさないことに留意されたい。
予測再構成のOBMC段階のために、ステップ370において、Hバッファ内に記憶されたサンプルを上部バンドの重み付けのために読み出し、ステップ380において、Vバッファ内に記憶されたサンプルを左側バンド重み付けのために読み出す。左上のN x Nの隅部は両方のバンド内にあり、その理由は、それが、現在のブロックの隅部サブブロックのために左側及び上側の両方から用いられるためであることに留意されたい。
読み出されたサンプル、及び現在のブロックのための予測を用いて、ステップ340において、現在の予測の重み付き平均を算出する。しかし、それ以上のオンザフライの時間予測はOBMCのために現在のブロックのために遂行されず、その代わりに、現在のブロック予測プロセス、及びバンドバッファへのアクセスのみが用いられる。オンザフライの時間予測が存在しないため、参照ピクチャバッファにアクセスする必要がなく、メモリ帯域幅要求が低減され得る。
OBMC混合プロセスの後に、ステップ350において、このブロックのために決定された予測及び残差値を加算することが、再構成されたサンプルを通常どおり構築することを可能にする。
最後に、ステップ390において、下側及び右側拡張部バンドを後の利用のためにバッファ内に保存する。有利に、バッファは、それぞれ、サイズN x S及びN x S x Widthpictureの2つのバッファ(H、V)のみに低減され得る。ここで、(S、S)はCTUの最大サイズであり(通例、S=S=128)、Widthpictureは、1つのピクチャ内の1行当たりのCTUの数である。一変形例では、OBMCがCTUの上部で無効にされる場合には、バッファは、それぞれ、サイズN x S及びN x Sの2つのバッファのみに低減され得る。本ステップでは、ラインが次のCUのOBMCプロセスによる後の利用のためにH、Vバッファ内に保存される。さらに、CUサイズが拡張前のその元のサイズに復元される。Vバッファは、簡潔にするために、並びに列バッファ内のサンプルがラインバッファに、及び逆に配置され得るので、ラインバッファとさらに呼ばれることになる、列バッファであることに留意されたい。
図9は、バッファされたOBMCバンドを用いる変更された処理パイプラインを示す。処理ステップのうちのいくつかは図5の処理パイプラインと比べて不変のままであり、したがって、これらの処理ステップは、繰り返しを回避するために、ここでは再び説明されない。
インター予測処理の開始時に、現在のブロックのために、拡張ブロックが、上述されたように処理ブロック910において構築される。次に、拡張ブロックは、全予測構成(LIC、BIO等を含む)を用いて処理される。LIC、BIO、及び/又はGBIなどの異なる予測方法は拡張バンドのために特定の現在のブロックCの場合と同じ仕方で遂行されるため、異なる予測プロセスのためのモード情報は予測ブロック内に本質的に保持されており、これらの拡張バンドを用いてブロックのためにOBMCを遂行するためのパラメータを記憶することは今や必要ない。LIC及びBIOなどのいくつかの予測方法は、拡張バンドに対してのみ遂行されることが可能でなく、又は容易でなく、したがって、現在のJEM設計では飛ばされることに留意されたい。ブロックを拡張することによって、LIC及びBIOは、これらの拡張バンドを覆う、拡張ブロック内で遂行することができる。したがって、拡張ブロックを用いることは、より多くの予測方法(例えば、LIC、BIO)をOBMC内に組み込むことによって、予測を改善することができる。
次に、現在のブロックのためのOBMCプロセス(930)が、以上において図8において説明されたように遂行される。上述されたように、これは、現在のブロックの追加された右縁及び下縁に影響を及ぼさない。次に、下側及び右側バンドが後の利用のためにバッファ内に保存される(940)。
図10は、CTU内のCUを処理した際にバッファされた拡張バンドを示す。本例では、CTUは16個のCU0~15に分けられ、図は、CU11が処理されたときのバッファ内容を示す。
このCTUを処理する一番最初に、CU0の予測が計算された後に、CU0の下側及び右側拡張部はH及びVバッファ内に記憶された。しかし、後続のCUの処理の最中には、CU0の右側拡張部は、隣接する右側のCUの右側拡張部によって置き換えられている。最後に、CU3、5、及び7については、さらなる隣接する右側のCUが同じCTU内に存在せず、したがって、それらの右側拡張部は、右側に隣接するCTUの処理のためにバッファ内に残る。図10に示されるさらなる記憶された右側拡張部は、すでに処理されたCU9及び10のもの、並びにCU13については、現在のCTUの左側に隣接するCTU内のCUからの右側拡張部である。CU11の処理が完遂された後に、CU10の図示の右側拡張部はCU11の右側拡張部によってバッファ内で上書きされることになる。同様に、CU0のバッファされた下側拡張部は、CU1~5及び8のものと同様に、下方にあるCUの下側拡張部によって部分的に上書きされている。CU11の処理が完遂された後に、CU9の図示の下方拡張部はCU11の下方拡張部によってバッファ内で上書きされることになる。
(例えば、アフィン又はATMVPの場合に生じる)サブブロック動きベクトルの場合には、同じ原理が適用され得る。2つの変形例が可能である:
- CUの外縁は、キャッシュされたラインバッファを用いる、ここで提示されたOBMCプロセスに従い、その一方で、サブブロックの内部の内部境界は、(キャッシングを用いない)通常のOBMCプロセスに従う。
- 代替的に、CUの外縁は、キャッシュされたラインバッファを用いる、ここで提示されたOBMCプロセスに従い、その一方で、内部境界は同様のプロセスに従う(各サブブロックが拡張され、拡張部がキャッシュされる)。唯一の相違は、この場合には、拡張が(下側及び右側のみの代わりに)サブブロックの4つの縁上にあることである。
OBMCの変更に伴って、以下においてさらに詳細に説明されるように、他のモジュールも適応させられる。
動き補償
非サブブロックモード
通常のモード(ブロック全体のために1つの動きベクトルのみ又は動きベクトルの対)では、ブロック拡張部を用いた動き補償は簡単である:拡張部分はブロック全体と同じ動き補償を受ける。
サブブロック動きの拡張
サブブロック生成動きベクトルの場合には(通例、アフィン又はATMVPの場合)、ブロックの拡張は動き場の拡張も必要とする。2つの場合が可能である:
- アフィンの場合については、PU全体のアフィン動きモデルを用いて拡張部の内部の動きベクトルを計算することが常に可能である。同様に、ATMVPについては、拡張部分の内部の動きベクトルが、平行移動させられた位置において時間的動きバッファ内で利用可能であるときには、これらのベクトルが用いられる。
- 拡張部分内で利用できない動きベクトルについては、動きベクトルは、PUの内部の隣接サブブロックから単にコピーされる。
別の実施形態では、サブブロックによる動きベクトル導出のプロセスを同じに維持するために、動きベクトルの利用可能性がどうであれ、第2の場合が常に適用される。
局部照明補償
LIC段階の際には、それが画素単位のプロセスであるため、現在のブロックの場合と同じプロセスが下側及び右側バンド上で適用される。
BIO
双方向予測の場合には、BIOの目標は、2つの参照ピクチャ間の直線変位を仮定し、及びオプティカルフローのエルミート補間に基づいて、サンプルごとの動きを精緻化することである(“Bi-directional optical flow for future video codec,” A. Alshin and E. Alshina, 2016 Data Compression Conference、参照)。
BIOプロセスは、下及び右縁のブロックサイズを単純に拡張することによって適応させられ、BIOプロセスは拡張ブロックに適用される。
代替的に、BIOプロセスを高速化するために、特に、ブロックが2の非べき乗による乗算を回避するために、BIOプロセスは同じに維持されるが、図11の場合のように示されるように、現在のブロックC上でBIOを計算した後に(810)、現在の拡張ブロックに追加する(830)、得られたBIOバッファをパディングする(820)。BIOバッファは、2つの参照ブロックから導出されたオプティカルフローから計算された、現在の予測に適用するべき補正を包含する。
代替的に、BIOプロセスは、追加されたバンドに対して適用されない。
GBI(BCWとしても知られる)
GBI(双方向予測重み付け)プロセスは、OBMCモードにおける下側及び右側ブロックのための再構成された予測を改善するために、追加された下側及び右側バンドに対して適用される。同じ重みが、追加されたバンドに対して適用される。
多重仮説(CIIPとしても知られる)/三角融合
多重仮説プロセスは再構成プロセスの一番最後に行われる。拡大ブロックのために、プロセスは同じに維持される:
- 各仮説が拡大ブロック(すなわち、拡張ブロック)に対して遂行される、
- 最終拡大ブロックを形成するために2つの仮説が融合させられる。
仮説を計算する際にいくつかの適応が行われる:
- イントラ仮説については、追加バンド内のイントラ予測は、単純に、PUの縁上におけるイントラ予測のパディングである。それは、イントラ予測が、あたかもPUサイズが不変のままとどまるように計算されることを意味する。
- 一変形例では、イントラ予測プロセスは、図12に示されるように、拡大ブロックサイズに適応させられる。2つの場合が生じ得る:図の左部分に示される第1のものでは、イントラ予測角度は、それが、参照サンプルバッファ内ですでに利用可能な参照サンプルへのアクセスを必要とするなどするというものである。この場合には、通例のイントラ予測プロセスが、追加バンド内の画素を再構成するために適用される(再構成プロセスは、PDPC、広角イントラ予測等であることができる。さらなる情報は、JVET-G1001(J. Chen, E. Alshina, G. J. Sullivan, J.-R. Ohm, J. Boyce, “Algorithm Description of Joint Exploration Test Model 7 (JEM 7)”. In JVET document JVET-G1001、参照)、及びJVET-K1002(“Algorithm description for Versatile Video Coding and Test Model 2 (VTM 2)”, JVET-K1002.、参照)において入手可能である)。図の右部分に示される第2の場合には、参照サンプルが参照サンプルバッファ内で利用可能でない場合ときには、追加バンド内の画素は、拡張バンド内のブロックCの縁の画素を複製することによって再構成される。
精度の改善
追加バンドの画素を構築する際には、OBMCプロセスの重み付き平均を改善し、ひいては圧縮効率を改善するために、最高精度が維持される。例えば、GBIモード又は多重仮説モードでは、予測は以下のように計算される:
gbi=(αP+(β-α)P)/β (式1)
ここで、P及びPは第1及び第2の予測又は仮説であり、βは、通常、整数除算を回避するために、2のべき乗である。最高精度を維持するために、βによる最後の正規化が追加バンドのために除去され、OBMCプロセスへ転送される。追加バンド内の予測は以下のように変換される:
gbi=(αP+(β-α)P
次に、OBMC混合プロセスは次式によって与えられる:
obmc=(γPcurrent+(δ-γ)Pneighbor)/δ
ここでPcurrent及びPneighborは、現在のブロック予測パラメータを用いた予測ブロック、及び隣接する予測パラメータ(ここでは追加バンド内でアクセスされる)によってもたらされる予測である。隣接者上でのGBIモードを仮定すると、次に、OBMC予測は以下のように変換される:
obmc=(γβPcurrent+(δ-γ)(αP+(β-α)P))/(δβ) (式2)
ここで、β正規化はOBMCプロセスのδ正規化と同時に適用される。ここで、我々は、Pcurrentは現在のブロックの予測(ブロックが双方向予測される場合には、P及びPの平均をすでに包含する)であると仮定することに留意されたい。ここで、P及びPは隣接者のモードに関連する。
同じ原理が、通常の双方向予測、三角融合モード、多重仮説、又はLIC正規化に適用され得る。
例えば、通常の双方向予測モードでは、α=1及びβ=2であり、それは次式を与える:
obmc=(2γPcurrent+(δ-γ)(P+P))/(2δ)
一変形例では、βによる最後の正規化は部分的に除去され(式1においては、βはβによって置換され、ここで、β<βであり、式2の分母においては、βは(β-β)によって置換される)、これにより、高い精度が維持され、その一方で、数値の一時的バッファ記憶は許容値(例えば、32ビット又は64ビット又は128ビット)未満にとどまる。
依存性の低減
一実施形態では、CTU間の依存性を低減するために、上述のプロセスはCTUの内部のCUのためにのみ活動化され得る。すなわち、バンドがCTUの外側にあるときには、バンドは追加されない。図13の左側部分に示される例では、CU Aは上述のプロセスを用い、CU Bは下側バンドのためにのみプロセスを用い、CU Cはプロセスを用いない。
CTUの上縁及び/又は左縁上のCUについては、上側及び/又は左側拡張バンドが利用可能でないため、OBMCは適用されない。図13に示される例については、CU Aはその上縁及び左縁のためにOBMCを用いず、CU Bはその左縁のためにのみOBMCを用い、CU Cはその上縁及び左縁の両方のためにOBMCを用いる。
本実施形態のために、図13の右側部分は、図10のように、CU11の処理時にバッファされた拡張バンドを示す。CTUの間のCUの縁については、記憶された拡張部は同じである。しかし、CTUの外側のバンドが追加されないため、CU3、5、及び7については、右側拡張部がバッファ内に記憶されない。同様に、CU 13は、現在のCTUの左側に隣接するCTU内のCUからの右側拡張部を有しない。
任意選択的に、拡張バンドが利用可能でないときには、CUの対応する縁は現状技術のOBMCを用いることができる。
図14は、様々な態様及び実施形態が実施されるシステムの一例のブロック図を示す。システム1000は、以下において説明される様々な構成要素を含むデバイスとして具体化され得、本文書において説明される態様のうちの1つ以上を遂行するように構成されている。このようなデバイスの例としては、限定するものではないが、パーソナルコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、デジタルマルチメディアセットトップボックス、デジタルテレビ受信器、パーソナルビデオ録画システム、接続された家庭電化製品、及びサーバなどの、様々な電子デバイスが挙げられる。システム1000の要素は、単独で、又は組み合わせて、単一の集積回路(IC(integrated circuit))、複数のIC、及び/又は個別構成要素において具体化され得る。例えば、少なくとも1つの実施形態では、システム1000の処理及び符号器/復号器要素は複数のIC及び/又は個別構成要素にわたって分散している。様々な実施形態では、システム1000は、例えば、通信バスを介して、又は専用入力及び/又は出力ポートを通じて、1つ以上の他のシステム、又は他の電子デバイスに通信可能に結合されている。様々な実施形態では、システム1000は、本文書において説明される態様のうちの1つ以上を実施するように構成されている。
システム1000は、少なくとも1つのプロセッサ1010であって、例えば、本文書において説明される様々な態様を実施するためのそれにロードされた命令を実行するように構成された、少なくとも1つのプロセッサ1010を含む。プロセッサ1010は、組み込みメモリ、入出力インターフェース、及び当技術分野において知られているとおりの様々な他の回路機構を含むことができる。システム1000は少なくとも1つのメモリ1020(例えば、揮発性メモリデバイス、及び/又は不揮発性メモリデバイス)を含む。システム1000は、限定するものではないが、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM(Electrically Erasable Programmable Read-Only Memory))、リードオンリーメモリ(ROM(Read-Only Memory))、プログラマブルリードオンリーメモリ(PROM(Programmable Read-Only Memory))、ランダムアクセスメモリ(RAM(Random Access Memory))、ダイナミックランダムアクセスメモリ(DRAM(Dynamic Random Access Memory))、スタティックランダムアクセスメモリ(SRAM(Static Random Access Memory))、フラッシュ、磁気ディスクドライブ、及び/又は光ディスクドライブを含む、不揮発性メモリ及び/又は揮発性メモリを含むことができる、記憶デバイス1040を含む。記憶デバイス1040は、非限定例として、内部記憶デバイス、付属の記憶デバイス(着脱式及び非着脱式記憶デバイスを含む)、及び/又はネットワークアクセス可能記憶デバイスを含むことができる。
システム1000は、例えば、符号化された映像又は復号化された映像を提供するためにデータを処理するように構成された符号器/復号器モジュール1030を含み、符号器/復号器モジュール1030はそれ自体のプロセッサ及びメモリを含むことができる。符号器/復号器モジュール1030は、符号化及び/又は復号化機能を遂行するためにデバイス内に含まれ得るモジュールを表す。周知のとおり、デバイスは符号化及び復号化モジュールのうちの一方又は両方を含むことができる。加えて、符号器/復号器モジュール1030はシステム1000の別個の要素として実施され得るか、又は当業者に周知のように、ハードウェア及びソフトウェアの組み合わせとしてプロセッサ1010内に組み込まれ得る。
本文書において説明される様々な態様を遂行するためにプロセッサ1010又は符号器/復号器1030上にロードされるべきプログラムコードは、記憶デバイス1040内に記憶され、その後、プロセッサ1010による実行のためにメモリ1020上にロードされ得る。様々な実施形態によれば、プロセッサ1010、メモリ1020、記憶デバイス1040、及び符号器/復号器モジュール1030のうちの1つ以上は、本文書において説明されるプロセスの遂行の最中に様々な項目のうちの1つ以上を記憶することができる。このような記憶される項目は、限定するものではないが、入力映像、復号化された映像、若しくは復号化された映像の部分、ビットストリーム、行列、変数、並びに式、公式、演算、及び動作論理の処理からの中間若しくは最終結果を含むことができる。
実施形態によっては、プロセッサ1010及び/又は符号器/復号器モジュール1030の内部のメモリは、命令を記憶するため、及び符号化若しくは復号化の最中に必要とされる処理のための作業メモリを提供するために用いられる。しかし、他の実施形態では、処理デバイス(例えば、処理デバイスはプロセッサ1010又は符号器/復号器モジュール1030のどちらかであることができる)の外部のメモリがこれらの機能のうちの1つ以上のために用いられる。外部メモリは、メモリ1020及び/又は記憶デバイス1040、例えば、動的揮発性メモリ及び/又は不揮発性フラッシュメモリであることができる。いくつかの実施形態では、外部の不揮発性フラッシュメモリが、例えば、テレビのオペレーティングシステムを記憶するために用いられる。少なくとも1つの実施形態では、RAMなどの高速な外部の動的揮発性メモリが、MPEG-2(MPEGはムービングピクチャーエクスパーツグループ(Moving Picture Experts Group)を指し、MPEG-2はISO/IEC13818とも称され、13818-1はH.222としても知られ、13818-2はH.262としても知られる)、HEVC(HEVCは、H.265及びMPEG-H Part2としても知られる、高効率ビデオコーディング(High Efficiency Video Coding)を指す)、又はVVC(多用途ビデオコーディング(Versatile Video Coding)、JVET、ジョイントビデオエクスパーツチーム(Joint Video Experts Team)によって開発されている新たな規格)などのための、映像符号化及び復号化動作のための作業メモリとして用いられる。
システム1000の要素への入力は、ブロック1130において指示されるように、様々な入力デバイスを通じて提供され得る。このような入力デバイスは、限定するものではないが、(i)放送業者によって、例えば、空中で伝送されたRF信号を受信する無線周波数(RF(radio frequency))部分、(ii)コンポーネント(COMP(Component))入力端子(若しくはCOMP入力端子のセット)、(iii)ユニバーサルシリアルバス(USB(Universal Serial Bus))入力端子、及び/又は(iv)高精細マルチメディアインターフェース(HDMI(High Definition Multimedia Interface))入力端子を含む。図14に示されていない、他の例は複合映像を含む。
様々な実施形態では、ブロック1130の入力デバイスは、当技術分野において知られているように、関連付けられたそれぞれの入力処理要素を有する。例えば、RF部分は、(i)所望の周波数を選択し(信号を選択する、又は信号を周波数の帯域に帯域制限するとも言及される)、(ii)選択された信号をダウンコンバートし、(iii)(例えば)特定の実施形態においてチャネルと称され得る信号周波数帯域を選択するために、周波数のより狭い帯域に再び帯域制限し、(iv)ダウンコンバートされた帯域制限信号を復調し、(v)誤り訂正を遂行し、(vi)データパケットの所望のストリームを選択するべく多重分離するために適した要素に関連付けられ得る。様々な実施形態のRF部分は、これらの機能を遂行するための1つ以上の要素、例えば、周波数セレクタ、信号セレクタ、帯域制限器、チャネルセレクタ、フィルタ、ダウンコンバータ、復調器、誤り訂正器、及びデマルチプレクサを含む。RF部分は、例えば、受信信号をより低い周波数(例えば、中間周波数若しくはベースバンド付近の周波数)へ、又はベースバンドへダウンコンバートすることを含む、これらの機能のうちの様々なものを遂行するチューナを含むことができる。1つのセットトップボックスの実施形態では、RF部分及びその関連入力処理要素は、有線(例えば、ケーブル)媒体を通じて伝送されたRF信号を受信し、フィルタリングし、ダウンコンバートし、所望の周波数帯域へ再びフィルタリングすることによって周波数選択を遂行する。様々な実施形態は、上述の(及び他の)要素の順序を並べ替え、これらの要素のうちのいくつかを除去し、及び/又は同様の、若しくは異なる機能を遂行する他の要素を追加する。要素を追加することは、例えば、増幅器及びアナログ-デジタル変換器を挿入するなど、要素を既存の要素の間に挿入することを含むことができる。様々な実施形態では、RF部分はアンテナを含む。
加えて、USB及び/又はHDMI端子は、USB及び/又はHDMI接続を通じてシステム1000を他の電子デバイスに接続するためのそれぞれのインターフェースプロセッサを含むことができる。入力処理の様々な態様、例えば、リード・ソロモン誤り訂正は、例えば、必要に応じて、別個の入力処理IC内、又はプロセッサ1010内で実施され得ることを理解されたい。同様に、USB又はHDMIインターフェース処理の態様は、必要に応じて、別個のインターフェースIC内、又はプロセッサ1010内で実施され得る。復調され、誤り訂正され、多重分離されたストリームは、例えば、出力デバイス上における提示のために必要に応じてデータストリームを処理するためにメモリ及び記憶要素と組み合わせて動作する、プロセッサ1010、及び符号器/復号器1030を含む、様々な処理要素に提供される。
システム1000の様々な要素は一体ハウジング内に提供され得る。一体ハウジング内において、様々な要素は、好適な接続機構、例えば、IC間(I2C)バス、配線、及びプリント回路板を含む、当技術分野において知られているとおりの内部バスを用いて相互接続され、それらの間でデータを伝送することができる。
システム1000は、通信チャネル1060を介した他のデバイスとの通信を可能にする通信インターフェース1050を含む。通信インターフェース1050は、限定するものではないが、通信チャネル1060を通じてデータを伝送及び受信するように構成されたトランシーバを含むことができる。通信インターフェース1050は、限定するものではないが、モデム又はネットワークカードを含むことができ、通信チャネル1060は、例えば、有線及び/又は無線媒体の形で実施され得る。
データは、様々な実施形態では、Wi-Fiネットワーク、例えばIEEE802.11(IEEEは、Institute of Electrical and Electronics Engineers(米国電気電子技術者協会)を指す)などの無線ネットワークを用いて、システム1000へストリーミングされるか、又は他の仕方で提供される。これらの実施形態のWi-Fi信号は、Wi-Fi通信のために適応させられた通信チャネル1060及び通信インターフェース1050を通じて受信される。これらの実施形態の通信チャネル1060は、通例、ストリーミングアプリケーション及び他のオーバーザトップ通信を可能にするためのインターネットを含む外部ネットワークへのアクセスを提供するアクセスポイント又はルータに接続される。他の実施形態は、入力ブロック1130のHDMI接続を通じてデータを配信するセットトップボックスを用いて、ストリーミングされたデータをシステム1000に提供する。さらに他の実施形態は、入力ブロック1130のRF接続を用いて、ストリーミングされたデータをシステム1000に提供する。以上において指示されたように、様々な実施形態は非ストリーミング方式でデータを提供する。加えて、様々な実施形態はWi-Fi以外の無線ネットワーク、例えば、セルラーネットワーク又はBluetoothネットワークを用いる。
システム1000は、ディスプレイ1100、スピーカ1110、及び他の周辺デバイス1120を含む、様々な出力デバイスへ出力信号を提供することができる。様々な実施形態のディスプレイ1100は、例えば、タッチスクリーンディスプレイ、有機発光ダイオード(OLED(organic light-emitting diode))ディスプレイ、曲面ディスプレイ、及び/又は折り畳み式ディスプレイのうちの1つ以上を含む。ディスプレイ1100は、テレビ、タブレット、ラップトップ、セルフォン(携帯電話)、又は他のデバイスのためのものであることができる。ディスプレイ1100はまた、(例えば、スマートフォンの場合のように)他の構成要素と統合されるか、又は別個のもの(例えば、ラップトップのための外部モニタ)であることができる。他の周辺デバイス1120は、実施形態の様々な例では、独立型デジタルビデオディスク(若しくはデジタル多目的ディスク)(両方の用語に対して、DVR)、ディスクプレーヤ、ステレオシステム、及び/又は照明システムのうちの1つ以上を含む。様々な実施形態は、システム1000の出力に基づく機能を提供する1つ以上の周辺デバイス1120を用いる。例えば、ディスクプレーヤは、システム1000の出力を再生する機能を遂行する。
様々な実施形態では、制御信号は、AV.Link、家電制御(CEC(Consumer Electronics Control))、又はユーザの介入を用いる、又は用いないデバイス対デバイス制御を可能にする他の通信プロトコルなどの信号方式を用いて、システム1000と、ディスプレイ1100、スピーカ1110、又は他の周辺デバイス1120との間で通信される。出力デバイスは、それぞれのインターフェース1070、1080、及び1090を通じた専用接続を介してシステム1000に通信可能に結合され得る。代替的に、出力デバイスは、通信インターフェース1050を介した通信チャネル1060を用いてシステム1000に接続され得る。ディスプレイ1100及びスピーカ1110は、例えば、テレビなどの電子デバイス内でシステム1000の他の構成要素と共に単一のユニットに統合され得る。様々な実施形態では、ディスプレイインターフェース1070は、例えば、タイミングコントローラ(T Con)チップなどの、ディスプレイドライバを含む。
例えば、入力1130のRF部分が別個のセットトップボックスの部分である場合には、ディスプレイ1100及びスピーカ1110は、代替的に、他の構成要素のうちの1つ以上とは別個であることができる。ディスプレイ1100及びスピーカ1110が外部構成要素である様々な実施形態では、出力信号は、例えば、HDMIポート、USBポート、又はCOMP出力を含む、専用出力接続を介して提供され得る。
実施形態は、プロセッサ1010によって実施されるコンピュータソフトウェアによって、又はハードウェアによって、或いはハードウェア及びソフトウェアの組み合わせによって実施され得る。非限定例として、実施形態は1つ以上の集積回路によって実施され得る。メモリ1020は、技術環境に適した任意の種類のものであり得、非限定例として、光メモリデバイス、磁気メモリデバイス、半導体ベースのメモリデバイス、固定式メモリ、及び着脱式メモリなどの、任意の好適なデータ記憶技術を用いて実施され得る。プロセッサ1010は、技術環境に適した任意の種類のものであることができ、マイクロプロセッサ、汎用コンピュータ、専用コンピュータ、及びマルチコアアーキテクチャに基づくプロセッサのうちの1つ以上を非限定例として包含することができる。
本出願は、ツール、特徴、実施形態、モデル、アプローチ等を含む、種々の態様を説明する。これらの態様のうちの多くは特異的に説明され、少なくとも、個々の特徴を示すために、しばしば、限定と思われるかもしれない仕方で説明される。しかし、これは、説明を明快にする目的のためのものであり、それらの態様の適用又は範囲を限定しない。実際に、異なる態様の全ては、さらなる態様をもたらすよう組み合わせられ、交換され得る。さらに、態様は、以前の出願において説明された態様とも組み合わせられ、交換され得る。
本出願において説明され、企図される態様は多くの異なる形態で実施され得る。図1、図2、図9、及び図14はいくつかの実施形態を提供するが、他の実施形態も企図され、図1、図2、図9、及び図14における説明は実装形態の広さを限定しない。態様のうちの少なくとも1つは、概して、映像符号化及び復号化に関し、少なくとも1つの他の態様は、概して、生成又は符号化されたビットストリームを伝送することに関する。これら及び他の態様は、方法、装置、上述された方法のうちのいずれかに従って映像データを符号化若しくは復号化するための命令が記憶されたコンピュータ可読記憶媒体、及び/又は上述された方法のうちのいずれかに従って生成されたビットストリームが記憶されたコンピュータ可読記憶媒体として実施され得る。
本出願において、用語「再構成される(reconstructed)」及び「復号化される(decoded)」は互換的に使用され得、用語「画素」及び「サンプル」は互換的に使用され得、用語「画像」、「ピクチャ」、及び「フレーム」は互換的に使用され得る。通常、必ずしもそうとは限らないが、用語「再構成される」は符号器側において使用され、その一方で、「復号化される」は復号器側において使用される。
様々な方法が本明細書において説明されており、方法の各々は、上述の方法を達成するための1つ以上のステップ又はアクションを含む。方法の適切な動作のためにステップ又はアクションの特定の順序が必要とされない限り、特定のステップ及び/又はアクションの順序及び/又は使用は変更されるか、又は組み合わせられてもよい。
本出願において説明される様々な方法及び他の態様は、図1及び図2に示されるとおりの映像符号器100及び復号器200のモジュール、例えば、動き補償モジュール(170、175)を変更するために用いることができる。さらに、本態様はVVC又はHEVCに限定されず、例えば、既存のものであるのか、又は将来開発されるものであるのかにかかわらず、他の規格及び勧告、並びに任意のこのような規格及び勧告(VVC及びHEVCを含む)の拡張に適用することができる。別段の指示がないか、又は技術的に除外されない限り、本出願において説明される態様は、個々に、又は組み合わせて用いることができる。
様々な数値、例えば、拡張部分の長さが本出願において用いられる。特定の値は例示目的のためのものであり、説明される態様はこれらの特定の値に限定されない。
様々な実装形態は復号化を含む。「復号化」は、本出願において使用されるとき、表示のために適した最終出力を生成するために、例えば、受信された符号化シーケンスに対して遂行されるプロセスの全て又は部分を包含することができる。様々な実施形態では、このようなプロセスは、復号器によって通例遂行されるプロセス、例えば、エントロピー復号化、逆量子化、逆変換、差動復号化のうちの1つ以上を含む。様々な実施形態では、このようなプロセスは、さらに、又は代替的に、本出願において説明される様々な実装形態の復号器によって遂行されるプロセスを含む。
さらなる例として、一実施形態では「復号化」はエントロピー復号化のみを指し、別の実施形態では「復号化」は差動復号化のみを指し、別の実施形態では「復号化」はエントロピー復号化及び差動復号化の組み合わせを指す。表現「復号化プロセス」が、動作の部分セットを特定的に指すことを意図されているのか、それともより広い復号化プロセスを全体的に指すことを意図されているのかは、具体的記述の文脈に基づいて明らかになり、当業者によって十分理解されると考えられる。
様々な実装形態は符号化を含む。「復号化」に関する上述の説明と類似した形で、「符号化」は、本出願において使用されるとき、符号化ビットストリームを生成するために、例えば、入力映像シーケンスに対して遂行されるプロセスの全て又は部分を包含することができる。様々な実施形態では、このようなプロセスは、符号器によって通例遂行されるプロセス、例えば、分割、差動符号化、変換、量子化、及びエントロピー符号化のうちの1つ以上を含む。様々な実施形態では、このようなプロセスは、さらに、又は代替的に、本出願において説明される様々な実装形態の符号器によって遂行されるプロセスを含む。
さらなる例として、一実施形態では、「符号化」はエントロピー符号化のみを指し、別の実施形態では、「符号化」は差動符号化のみを指し、別の実施形態では、「符号化」は差動符号化及びエントロピー符号化の組み合わせを指す。表現「符号化プロセス」が、動作の部分セットを特定的に指すことを意図されているのか、それともより広い符号化プロセスを全体的に指すことを意図されているのかは、具体的記述の文脈に基づいて明らかになり、当業者によって十分理解されると考えられる。
図がフロー図として提示されるときには、それは、対応する装置のブロック図も提供することを理解されたい。同様に、図がブロック図として提示されるときには、それは、対応する方法/プロセスのフロー図も提供することを理解されたい。
本明細書において説明されている実装形態及び態様は、例えば、方法又はプロセス、装置、ソフトウェアプログラム、データストリーム、或いは信号の形で実施され得る。たとえ、単一の形の実装形態との関連で説明されているのみである場合でも(例えば、方法として説明されているのみである場合でも)、説明されている特徴の実装形態は他の形(例えば、装置又はプログラム)でも実施され得る。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアの形で実施され得る。方法は、例えば、例として、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能論理デバイスを含む、概して処理デバイスを指す、プロセッサの形で実施され得る。プロセッサはまた、例えば、コンピュータ、携帯電話、ポータブル/パーソナルデジタルアシスタント(portable/personal digital assistant)(「PDA」)、及びエンドユーザ間の情報の通信を促進するその他のデバイスなどの、通信デバイスを含む。
「一実施形態(one embodiment)」、又は「一実施形態(an embodiment)」、又は「一実装形態(one implementation)」、又は「一実装形態(an implementation)」、並びに他のそれらの変形への言及は、実施形態に関連して説明される特定の特徴、構造、特徴等が少なくとも1つの実施形態に含まれることを意味する。それゆえ、本出願全体を通して様々な場所において出現する、表現「一実施形態では(in one embodiment)」、又は「一実施形態では(in an embodiment)」、又は「一実装形態では(in one embodiment)」、又は「一実装形態では(in an implementation)」、また、任意の他の変形の出現は、必ずしも全て同じ実施形態に言及しているわけではない。
加えて、本出願は、様々な情報を「決定すること」に言及する場合がある。情報を決定することは、例えば、情報を推定すること、情報を算出すること、情報を予測すること、又は情報をメモリから取り込むことのうちの1つ以上を含むことができる。
さらに、本出願は、様々な情報に「アクセスすること」に言及する場合がある。情報にアクセスすることは、例えば、情報を受信すること、情報を(例えば、メモリから)取り込むこと、情報を記憶すること、情報を移すこと、情報をコピーすること、情報を算出すること、情報を決定すること、情報を予測すること、又は情報を推定することのうちの1つ以上を含むことができる。
加えて、本出願は、様々な情報を「受信すること」に言及する場合がある。受信することは、「アクセスすること」と同様に、幅広い用語であることが意図される。情報を受信することは、例えば、情報にアクセスすること、又は情報を(例えば、メモリから)取り込むことのうちの1つ以上を含むことができる。さらに、「受信すること」は、通例、例えば、情報を記憶すること、情報を処理すること、情報を伝送すること、情報を移すこと、情報をコピーすること、情報を消去すること、情報を算出すること、情報を決定すること、情報を予測すること、又は情報を推定することなどの動作の最中に何らかの形で含まれる。
例えば、「A/B」、「A及び/又はB」及び「A及びBのうちの少なくとも一方」の場合における、以下の「/」、「及び/又は」、及び「~のうちの少なくとも一方」のうちのいずれかの使用は、第1の列挙された選択肢(A)のみの選択、或いは第2の列挙された選択肢(B)のみの選択、或いは両方の選択肢(A及びB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、B、及び/又はC」及び「A、B、及びCのうちの少なくとも1つ」の場合には、このような表現法は、第1の列挙された選択肢(A)のみの選択、或いは第2の列挙された選択肢(B)のみの選択、或いは第3の列挙された選択肢(C)のみの選択、或いは第1及び第2の列挙された選択肢(A及びB)のみの選択、或いは第1及び第3の列挙された選択肢(A及びC)のみの選択、或いは第2及び第3の列挙された選択肢(B及びC)のみの選択、或いは全ての3つの選択肢(A及びB及びC)の選択を包含することが意図される。これは、本技術分野及び関連技術分野における当業者に明らかであるように、列挙されたとおりの数の項目のために拡張され得る。
当業者には明らかであろうように、実装形態は、例えば、記憶又は伝送され得る情報を伝達するためにフォーマットされた種々の信号を生成することができる。情報は、例えば、方法を遂行するための命令、又は上述の実装形態のうちの1つによって生成されたデータを含むことができる。例えば、信号は、上述の実施形態のビットストリームを伝達するためにフォーマットされ得る。このような信号は、例えば、(例えば、スペクトルの無線周波数部分を使用する)電磁波として、又はベースバンド信号としてフォーマットされ得る。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームを用いて搬送波を変調することを含むことができる。信号が伝達する情報は、例えば、アナログ又はデジタル情報であることができる。信号は、周知のように、種々の異なる有線又は無線リンクを通じて伝送され得る。信号はプロセッサ可読媒体上に記憶され得る。

Claims (16)

  1. 符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得することであって、前記少なくとも1つの部分が前記現在のブロックに隣り合っている、取得することと、
    前記現在のブロック及び前記拡張部分を用いて拡張ブロックを形成することと、
    前記拡張ブロックのための予測サンプルを決定するための予測を遂行することと、
    を含む、方法。
  2. 1つ以上のプロセッサを備える装置であって、前記1つ以上のプロセッサが、
    符号化又は復号化されるべきピクチャの現在のブロックのために、隣接ブロックの少なくとも1つの部分に対応する拡張部分を取得することであって、前記少なくとも1つの部分が前記現在のブロックに隣り合っている、取得することと、
    前記現在のブロック及び前記拡張部分を用いて拡張ブロックを形成することと、
    前記拡張ブロックのための予測サンプルを決定するための予測を遂行することと、
    を行うように構成されている、装置。
  3. 前記拡張部分のために決定された予測サンプルを1つ以上のバッファメモリ内に記憶することをさらに含む、請求項1に記載の方法、又は請求項2に記載の装置。
  4. 前記拡張ブロックのための前記予測を遂行することが、前記現在のブロックのための動き情報に基づく、動き補償予測を含む、請求項1若しくは3に記載の方法、又は請求項2若しくは3に記載の装置。
  5. 1つ以上のバッファから、前記ピクチャの少なくとも1つの以前に処理されたブロックの拡張部分の記憶された予測サンプルを取得することと、
    前記現在のブロックの前記予測サンプル、及び前記少なくとも1つの以前に処理されたブロックの前記拡張部分の前記記憶された予測サンプルに基づいて、前記現在のブロックのためのオーバーラップブロック動き補償を遂行することと、
    をさらに含む、請求項4に記載の方法又は装置。
  6. 前記現在のブロックのための前記オーバーラップブロック動き補償を遂行した後に、前記少なくとも1つの以前に処理されたブロックの前記拡張部分の前記記憶された予測サンプルが、前記1つ以上のバッファ内において前記現在のブロックの前記拡張部分の予測サンプルによって上書きされる、請求項5に記載の方法又は装置。
  7. 前記拡張部分が下側拡張部及び右側拡張部のうちの一方又は両方に対応し、前記下側拡張部が下方隣接ブロックの上部分に対応し、前記右側拡張部が右側隣接ブロックの左部分に対応する、請求項1及び3~6のいずれか一項に記載の方法、又は請求項2~6のいずれか一項に記載の装置。
  8. 前記オーバーラップブロック動き補償を遂行することが、前記現在のブロックの動き補償予測サンプル、並びに以前に処理された上側隣接ブロックの下側拡張部及び以前に処理された左側隣接ブロックの右側拡張部のうちの一方又は両方の前記記憶された予測サンプルの重み付き平均を取得することを含む、請求項7に記載の方法又は装置。
  9. 前記拡張ブロックのための前記オーバーラップブロック動き補償を遂行することが、前記動き補償予測の後に、前記現在のブロックのためのパラメータに基づく、前記拡張ブロックに対して遂行される、1つ以上のさらなる処理ステップを含む、請求項7又は8に記載の方法又は装置。
  10. 前記1つ以上のさらなる処理ステップが、局部照明補償、双方向予測オプティカルフロー、及び一般化双方向予測のうちの少なくとも1つである、請求項9に記載の方法又は装置。
  11. 前記現在のブロックの前記拡張部分のために、中間予測サンプルの正規化が前記1つ以上のさらなる処理ステップの最中には適用されず、前記オーバーラップブロック動き補償の最中に適用される、請求項9又は10に記載の方法又は装置。
  12. 前記1つ以上のバッファメモリがラインバッファである、請求項1及び3~11のいずれか一項に記載の方法、又は請求項2~11のいずれか一項に記載の装置。
  13. 前記下側拡張部の前記予測サンプルが第1のラインバッファ内に記憶され、前記右側拡張部の前記予測サンプルが記憶された第2のラインバッファである、請求項12に記載の方法又は装置。
  14. 前記ピクチャが、符号化ユニットにさらに分けられる符号化ツリーユニットに分割され、前記現在のブロックが符号化ユニット又は予測ユニットに対応する、請求項1及び3~13のいずれか一項に記載の方法、又は請求項2~13のいずれか一項に記載の装置。
  15. 前記拡張部分が、前記現在のブロックが対応する前記符号化ツリーユニット内にある場合にのみ、拡張ブロックが現在のブロックのために形成される、請求項14に記載の方法又は装置。
  16. コンピュータによって実行されたときに、前記コンピュータに、請求項1~15のいずれか一項に記載の方法を実施させる命令を含む、コンピュータプログラム製品。
JP2021513830A 2018-11-05 2019-11-01 オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化又は復号化 Pending JP2022511308A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18306449.2 2018-11-05
EP18306449 2018-11-05
PCT/US2019/059415 WO2020096898A1 (en) 2018-11-05 2019-11-01 Video encoding or decoding using block extension for overlapped block motion compensation

Publications (2)

Publication Number Publication Date
JP2022511308A true JP2022511308A (ja) 2022-01-31
JPWO2020096898A5 JPWO2020096898A5 (ja) 2022-11-11

Family

ID=67436899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021513830A Pending JP2022511308A (ja) 2018-11-05 2019-11-01 オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化又は復号化

Country Status (6)

Country Link
US (1) US20220038681A1 (ja)
EP (1) EP3878178A1 (ja)
JP (1) JP2022511308A (ja)
CN (1) CN112913244A (ja)
MX (1) MX2021005253A (ja)
WO (1) WO2020096898A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113424525B (zh) * 2019-02-14 2023-11-10 北京字节跳动网络技术有限公司 解码器侧细化工具的尺寸选择性应用
WO2022191525A1 (ko) * 2021-03-08 2022-09-15 현대자동차주식회사 나선스캔 순서를 이용하는 비디오 코딩방법 및 장치
EP4349017A1 (en) * 2021-05-24 2024-04-10 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for overlapped block motion compensation for inter prediction
US20230090025A1 (en) * 2021-09-22 2023-03-23 Alibaba Singapore Holding Private Limited Methods and systems for performing combined inter and intra prediction

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130177081A1 (en) * 2010-05-14 2013-07-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding video using expanded block filtering
KR20120009861A (ko) * 2010-07-22 2012-02-02 에스케이 텔레콤주식회사 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
US9813730B2 (en) * 2013-12-06 2017-11-07 Mediatek Inc. Method and apparatus for fine-grained motion boundary processing
US9848199B2 (en) * 2014-03-17 2017-12-19 Qualcomm Incorporated Device and method for scalable coding of video information
US10382791B2 (en) * 2015-03-06 2019-08-13 Qualcomm Incorporated Data structure for video coding unit
US10382781B2 (en) * 2016-09-28 2019-08-13 Qualcomm Incorporated Interpolation filters for intra prediction in video coding
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
CN110476424B (zh) * 2017-03-16 2022-03-04 联发科技股份有限公司 一种视频编解码方法及装置
US11570470B2 (en) * 2017-09-28 2023-01-31 Vid Scale, Inc. Complexity reduction of overlapped block motion compensation

Also Published As

Publication number Publication date
MX2021005253A (es) 2021-06-18
CN112913244A (zh) 2021-06-04
WO2020096898A1 (en) 2020-05-14
EP3878178A1 (en) 2021-09-15
US20220038681A1 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
JP2024001165A (ja) イントラ予測の方法及び装置
JP7450611B2 (ja) 一般化された双予測および重み付き予測
JP7420807B2 (ja) マージリストにおける動きベクトル予測子候補の順序付け
JP2022511308A (ja) オーバーラップブロック動き補償のためのブロック拡張を用いた映像符号化又は復号化
JP2022509962A (ja) ピクチャエンコードおよびデコードのための方法およびデバイス
KR20210089747A (ko) 비디오 인코딩 및 디코딩을 위한 가상 파이프라인
JP2022506628A (ja) 隣接サンプル依存パラメトリックモデルに基づいたコーディングモードの簡易化
JP2022513433A (ja) 画像をデブロッキングするための方法及び装置
KR20210058856A (ko) 저장된 파라미터들을 사용하는 비디오 인코딩 및 디코딩을 위한 로컬 조명 보상
KR20210058938A (ko) 픽처 인코딩 및 디코딩을 위한 방법 및 디바이스
CN113302924A (zh) 用于视频编码和解码的量化
JP2024023456A (ja) コード化/復号化におけるデータ依存関係
JP2021528893A (ja) 可変重みを使用する複数参照イントラ予測
JP2024505900A (ja) 空間局所照明補償
JP2024513873A (ja) 切り替え可能な補間フィルタを用いる幾何学的分割
JP2023500503A (ja) 符号化及び復号化方法並びに装置
KR20220123643A (ko) 삼각형 병합 모드에서의 서브-블록 병합 후보들
KR20220027173A (ko) 비디오 인코딩 및 디코딩에서의 모션 벡터 예측
US11563975B2 (en) Motion compensation boundary filtering
JP2024513657A (ja) ビデオエンコード及びデコードのためのテンプレートマッチング予測
JP2022541723A (ja) アフィン及びsbtmvp動きベクトル予測モードのためのhmvc
JP2022537222A (ja) 局所照明補正フラグインヘリタンス
JP2024075598A (ja) 一般化された双予測および重み付き予測
JP2024510433A (ja) ビデオ圧縮のための時間的構造ベースの条件付き畳み込みニューラルネットワーク
KR20220061137A (ko) 비디오 코딩을 위한 코딩 모드 정보 전파

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240401