JP7482232B2 - 時間変形可能畳み込みによるディープループフィルタ - Google Patents
時間変形可能畳み込みによるディープループフィルタ Download PDFInfo
- Publication number
- JP7482232B2 JP7482232B2 JP2022538953A JP2022538953A JP7482232B2 JP 7482232 B2 JP7482232 B2 JP 7482232B2 JP 2022538953 A JP2022538953 A JP 2022538953A JP 2022538953 A JP2022538953 A JP 2022538953A JP 7482232 B2 JP7482232 B2 JP 7482232B2
- Authority
- JP
- Japan
- Prior art keywords
- frames
- image frames
- dnn
- feature map
- tdc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本出願は、米国特許商標庁に2020年10月9日に出願された米国仮出願第63/090,126号、及び2021年8月5日に出願された米国出願第17/394,504号に基づき、これらに対して優先権を主張するものであり、これらの開示はその全体を参照により本明細書に組み込まれる。
本開示は、ビデオコーディングの分野に関し、特に、時間変形可能畳み込み(TDC)を有するディープニューラルネットワーク(DNN)に基づいてデコードされたビデオを処理するためにループフィルタを使用するデバイス及び方法に関する。
H.264/アドバンストビデオコーディング(Advanced Video Coding)(H.264/AVC)、高効率ビデオコーディング(High-Efficiency Video Coding、HEVC)、及び汎用ビデオコーディング(Versatile Video Coding、VVC)などの従来のビデオコーディング標準は、同様の(再帰的な)ブロックベースのハイブリッド予測/変換フレームワークを共有しており、これにおいて、イントラ/インター予測、整数変換、及びコンテキスト適応エントロピーコーディングなどの個々のコーディングツールは、全体効率を最適化するために集中的に手作りされている。基本的に、時空間的な画素近傍は、後続の変換、量子化、及びエントロピーコーディングのための対応する残差を取得するために、予測信号構築に利用される。一方、ディープニューラルネットワーク(DNN)の性質は、近隣画素の受容野からの時空間情報を分析することにより、異なるレベルの時空間刺激を抽出することである。高度な非線形性及び非局所的な時空間相関を探索する能力は、大きく改善された圧縮品質の有望な機会を提供する。
との間の動きベクトルのセットmtが、各空間ブロックについて計算される。ここで、下付き文字tは、カレントの第tのエンコーディングサイクルを表し、これは、画像フレームのタイムスタンプと一致しないことがある。さらに、前の再構成フレームのセット
は、複数の前のエンコーディングサイクルからのフレームを含むことができる。第2の動き補償ステップにおいて、予測されたフレーム
が、動きベクトルmtに基づいて前の再構成フレーム
の対応する画素をコピーすることにより得られ、カレントの元の画像フレームxtと、予測フレーム
との間の残差rtが、
により得られる。第3の推定ステップにおいて、空間ブロック上で離散コサイン変換(DCT)を実行した後、残差rtのDCT係数は、量子化された残差
を得るために量子化される。したがって、動きベクトルmtと、量子化残差
の双方が、エントロピーコーディングによりビットストリームにエンコードされ、ビットストリームは、1つ以上のデコーダに送信される。デコーダ側において、量子化残差
は、まず、復元された残差
を得るために(例えば、逆離散コサイン変換(IDCT)などの逆変換を通して)量子化解除され(de-quantized)、次いで、復元残差
は、予測フレーム
に加算され、
により、再構成フレームが得られる。
の視覚品質を改善するために、さらなるコンポーネントが使用されてもよい。デブロッキングフィルタ(Deblocking Filter、DF)、サンプル適応オフセット(Sample-Adaptive Offset、SAO)、適応ループフィルタ(Adaptive Loop Filter、ALF)、クロスコンポーネント適応フィルタ(Cross-Component Adaptive Filter、CCALF)等などのエンハンスメントモジュールの1つ以上が、再構成フレーム
を処理するために選択されてもよい。例えば、デブロッキングフィルタ(DF)は、ブロックコーディング手法を使用するときにマクロブロック間に形成される鋭いエッジを平滑化することにより視覚品質及び予測性能を改善するために、デコードされたビデオに適用され得るビデオフィルタである。サンプル適応オフセット(SAO)は、各サンプルにオフセット値を加えることにより平均サンプル歪みを低減するためのループ内フィルタ手法である。SAOは、2つのタイプのオフセット手法を含み、それらは、エッジオフセット(EO)とバンドオフセット(BO)である。EOは、フィルタリングされる画像フレーム内の局所的な方向構造により駆動され、BOは、近傍への依存なしに画像フレームの強度値を修正する。適応ループフィルタ(ALF)は、元のサンプル画像とデコードされたサンプル画像との間の平均二乗誤差を最小化するために使用され得る。エンハンスメントモジュールを処理する順序及びエンハンスメントモジュールの選択は、ユーザ設定に従って様々に修正されてもよい。
が、DNN LFモジュール310への入力として提供される。DNN LFモジュール310は、エンドツーエンド(E2E)LF DNNネットワークを使用することにより、高品質フレーム
を生成することができる。生成された高品質フレーム
は、次いで、再構成品質計算モジュール320により元の画像フレームxtの再構成品質を評価するために計算される。次いで、再構成品質計算モジュール320は、再構成品質
を逆伝搬モジュール330に出力する。逆伝搬モジュール330は、再構成品質計算モジュール320により評価された再構成品質に従ってDNN LFモジュール310を訓練するために、再構成品質
をDNN LFモジュール310にフィードバックする。
が、逆伝搬モジュール330に供給され得、これは次いで、DNN LFモジュール310を訓練するために、逆伝搬モジュール330を通じてDNN LFモジュール310にフィードバックされる。整合損失のより詳細な説明は、図4を参照して以下に記載される。
と、元の画像フレームxtは、高品質フレーム
と、元の画像フレームxtとの間の差を認識及び検出するために、識別モジュール(discrimination module)340に入力され得る。すなわち、識別モジュール340は、
及びxtに基づいて、識別損失
を計算し、識別損失を逆伝搬モジュール330に送ることができる。識別損失
は、DNN LFモジュール310及び識別モジュール340を訓練するために、逆伝搬モジュール330を通じてDNN LFモジュール310及び識別モジュール340にフィードバックされ得る。
又はd(xt)を計算するために、入力として
及びxtのうちの少なくとも1つを使用する分類ネットワークでもよい。識別特徴マップ
又はd(xt)に基づいて、識別DNNは、入力が元の画像フレームxtであるか、又は生成された(又は合成された)高品質フレーム
であるかを分類する。カテゴリ的交差エントロピー損失などの誤分類損失を測定するために、分類損失
を計算することができる。さらに、生成された高品質画像フレーム
に基づいて計算された識別特徴マップと、元の画像フレームxtに基づいて計算された識別特徴マップとの間の差を測定するために、特徴識別損失
が計算されてもよい。
は、
の線形結合でもよく、これは、以下の式(1)に従って計算される。
及びd(xt)に関連づけられた重みである。
、DNN LF 310により出力される整合損失
、識別モジュール340により出力される識別損失
は、逆伝搬モジュール330に送られる。それぞれのモジュールからこれらの計算を受け取ることに基づいて、逆伝搬モジュール330は、結合損失(joint loss)Ljointの勾配を計算することができ、これは、DNN LFモジュール310及び識別モジュール340にフィードバックされ得る。結合損失Ljointの勾配は、次の式(2)に従って計算されてもよい。
は、N個の前の再構成フレームのセット
を更新するために追加される。例えば、カレントフレームから最大の距離にある最も古いフレームが、N個の前の再構成フレームのセットから除去されてもよく、予測フレーム
が、除去された最も古いフレームを置き換えるために追加されてもよい。その後、エンコーダは、tからt+1へ、次のエンコーディングサイクルに入ることができる。
の視覚品質を改善するために、上述したさらなるコンポーネント(例えば、DF、SAO、ALF、CCALFなど)の1つ以上と組み合わせて使用されてもよい。例えば、再構成フレーム
は、DF、DNN LFモジュール、SAO、及びALFを通じて順次処理され得る。しかしながら、1つ以上の実施形態はこれに限定されず、さらなるコンポーネントを処理する順序が様々に構成されてもよい。一実施形態において、DNN LFモジュール310は、再構成フレーム
の視覚品質を向上させるために、全ての他のさらなるコンポーネントの代替として単独で使用されてもよい。
を受け取り、フォワード推論(forward inference)を通じて特徴抽出DNNを使用することにより特徴マップ
を計算するように構成され得る。例えば、フレーム
が、全ての他のフレームが整合されなければならない参照フレームとして使用されると仮定し、オフセット生成モジュール420は、
に基づいて、特徴マップ
を連結し(concatenating)、連結された特徴マップをオフセット生成DNNに通すことにより、オフセットマップΔPj→i,tを計算することができる。ここで、フレーム
は、N個の前の再構成フレームのセット
の、任意のフレームであってよい。一般性を損なうことなく、N個の前の再構成フレームのセット
は、それらのタイムスタンプに従って昇順にランク付けされる。したがって、視覚品質を向上させるためのフレームは、N個の再構成フレーム
のタイムスタンプに基づいて選択されてもよい。例えば、ターゲットが、カレント再構成フレーム
を向上させることであるとき、
である。すなわち、全ての他の前に再構成された近隣フレームは、
の前であり得る。別の実施形態において、前に再構成された近隣フレームの一部が、
の前であってよく、残りのフレームは、
の後であってもよい。
と、オフセット生成モジュール420により出力されるオフセットマップΔPj→i,tとに基づいて、整合された特徴マップ
を計算する。
を計算して、
の間の不整合の誤差を測定するように構成され得る。例えば、不整合を計算するために、L1ノルム(又は絶対誤差の平均)、又はL2ノルム(二乗根誤差の平均)が使用されてもよい。フレーム再構成モジュール440は、フィードフォワード推論計算を通じてフレーム再構成DNNを使用して、特徴抽出モジュール410により出力される特徴マップ
と、TDCモジュール430により出力される整合された特徴マップ
とに基づいて、整合されたフレーム
を生成することができる。整合されたフレーム
は、フレーム合成モジュール450への入力として使用されてもよく、フレーム合成モジュール450は、フレーム合成DNNを使用して合成された高品質フレーム
を生成することができる。
は、サイズ(n、c、h、w)の4D入力テンソルを取得するために一緒に積み重ねられてもよく、ここで、cは、チャネルの数(例えば、カラーフレームに対して3)であり、(h、w)は、ビデオフレームの解像度を提供する。特徴抽出モジュール510は、フォワード推論を通じて特徴抽出DNNを使用して、特徴マップ
の4D特徴テンソルを計算するように構成され得る。一実施形態において、特徴抽出DNNは、3D畳込み層(例えば、C3D)を使用して、特徴マップ
を計算し、ビデオの時空間特性を捕捉する。別の実施形態において、各個々の特徴マップは、図4を参照して説明したように、2D畳み込み層を使用して計算されてもよい。ここで、特徴マップ
は、各個々の入力フレームについて特徴マップ
を計算した後、4Dテンソルに連結されてもよい。したがって、特徴抽出モジュール510は、4D特徴テンソルを出力することができる。
が、全ての他のフレームが整合される必要がある参照フレームであり、TDC及び特徴融合モジュール520は、TDC及び特徴融合DNNを使用して、4D特徴テンソル
に基づいて、融合された整合された特徴マップ
を計算すると仮定する。フレーム再構成モジュール530は、フレーム再構成DNNを使用して、融合された整合された特徴マップ
に基づいて、再構成された高品質フレーム
を計算する。ここで、DNN LFモジュール500を訓練する際に実行される明示的な空間整合はない。代わりに、3D変形可能畳み込みは、時空間オフセットを直接学習して、整合された融合された特徴を生成する。
Claims (10)
- ループフィルタを有する1つ以上のニューラルネットワークを使用してビデオコーディングを実行する方法であって、
ビデオシーケンスにおける複数の画像フレームを取得するステップと、
前記複数の画像フレームの各々について特徴マップを決定するステップと、
前記複数の画像フレームの中から参照フレームを選択するステップであって、前記参照フレームは、前記複数の画像フレームにおける他のフレームが整合される必要があるフレームである、選択するステップと、
前記参照フレームの参照特徴マップと前記複数の画像フレームにおける前記他のフレームの各々の特徴マップと、を連結し、前記連結された特徴マップをオフセット生成ディープニューラルネットワーク(DNN)に通して、オフセットマップを決定するステップと、
前記特徴マップ及び前記オフセットマップに対して時間変形可能畳み込み(TDC)を実行することにより整合された特徴マップを決定するステップと、
前記整合された特徴マップに基づいて複数の整合されたフレームを生成するステップと、
を含む方法。 - 前記複数の整合されたフレームを合成して前記複数の画像フレームに対応する複数の高品質フレームを出力するステップ、
をさらに含む請求項1に記載の方法。 - 前記特徴マップと前記整合された特徴マップとの間の不整合の誤差を示す整合損失を決定するステップ、
をさらに含み、
前記1つ以上のニューラルネットワークは、前記整合損失により訓練される、請求項1に記載の方法。 - 前記複数の画像フレームを取得することは、前記複数の画像フレームを積み重ねて4次元(4D)入力テンソルを取得することを含む、請求項1に記載の方法。
- 前記複数の画像フレームは、デブロッキングフィルタ(DF)、サンプル適応オフセット(SAO)、適応ループフィルタ(ALF)、又はクロスコンポーネント適応フィルタ(CCALF)のうちの少なくとも1つを使用してさらに処理される、請求項1に記載の方法。
- 前記複数の高品質フレームは、前記複数の画像フレームの再構成品質を決定するために評価され、
前記複数の画像フレームの前記再構成品質は、前記1つ以上のニューラルネットワーク内で逆伝搬され、
前記1つ以上のニューラルネットワークは、前記複数の画像フレームの前記再構成品質により訓練される、請求項2に記載の方法。 - 前記複数の画像フレームの各々が元の画像フレームであるか又は高品質フレームであるかの分類における誤差を示す識別損失を決定するステップ、
をさらに含み、
前記1つ以上のニューラルネットワークは、前記識別損失により訓練される、請求項1に記載の方法。 - 前記整合された特徴マップを決定することは、時間変形可能畳み込みディープニューラルネットワーク(TDC DNN)を使用することを含み、
前記TDC DNNは、積み重ねにおける複数のTDC層を含み、
前記複数のTDC層の各々は、正規化線形ユニット(ReLU)を含む非線形活性化層が後に続く、請求項1に記載の方法。 - 装置であって、
コンピュータプログラムコードを記憶する少なくとも1つのメモリと、
前記少なくとも1つのメモリにアクセスし、前記コンピュータプログラムコードを実行するように構成された少なくとも1つのプロセッサと、
を含み、
前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに請求項1乃至8のうちいずれか1項に記載の方法を実行させる、装置。 - 少なくとも1つのプロセッサに請求項1乃至8のうちいずれか1項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063090126P | 2020-10-09 | 2020-10-09 | |
US63/090,126 | 2020-10-09 | ||
US17/394,504 US11601661B2 (en) | 2020-10-09 | 2021-08-05 | Deep loop filter by temporal deformable convolution |
US17/394,504 | 2021-08-05 | ||
PCT/US2021/046471 WO2022076085A1 (en) | 2020-10-09 | 2021-08-18 | Deep loop filter by temporal deformable convolution |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023509395A JP2023509395A (ja) | 2023-03-08 |
JP7482232B2 true JP7482232B2 (ja) | 2024-05-13 |
Family
ID=81078440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538953A Active JP7482232B2 (ja) | 2020-10-09 | 2021-08-18 | 時間変形可能畳み込みによるディープループフィルタ |
Country Status (6)
Country | Link |
---|---|
US (1) | US11601661B2 (ja) |
EP (1) | EP4052214A4 (ja) |
JP (1) | JP7482232B2 (ja) |
KR (1) | KR20220107028A (ja) |
CN (1) | CN114651270A (ja) |
WO (1) | WO2022076085A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114827616B (zh) * | 2022-04-28 | 2023-03-10 | 电子科技大学 | 一种基于时空信息平衡的压缩视频质量增强方法 |
WO2024076163A1 (ko) * | 2022-10-06 | 2024-04-11 | 오픈엣지테크놀로지 주식회사 | 신경망 연산방법과 이를 위한 npu 및 컴퓨팅 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200265567A1 (en) | 2019-02-18 | 2020-08-20 | Samsung Electronics Co., Ltd. | Techniques for convolutional neural network-based multi-exposure fusion of multiple image frames and for deblurring multiple image frames |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017036370A1 (en) * | 2015-09-03 | 2017-03-09 | Mediatek Inc. | Method and apparatus of neural network based processing in video coding |
EP3573520A4 (en) * | 2017-01-27 | 2020-11-04 | Arterys Inc. | AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS |
-
2021
- 2021-08-05 US US17/394,504 patent/US11601661B2/en active Active
- 2021-08-18 KR KR1020227021939A patent/KR20220107028A/ko active Search and Examination
- 2021-08-18 WO PCT/US2021/046471 patent/WO2022076085A1/en unknown
- 2021-08-18 EP EP21878177.1A patent/EP4052214A4/en active Pending
- 2021-08-18 JP JP2022538953A patent/JP7482232B2/ja active Active
- 2021-08-18 CN CN202180006326.3A patent/CN114651270A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200265567A1 (en) | 2019-02-18 | 2020-08-20 | Samsung Electronics Co., Ltd. | Techniques for convolutional neural network-based multi-exposure fusion of multiple image frames and for deblurring multiple image frames |
Non-Patent Citations (2)
Title |
---|
Deng Jianing et al.,Spatio-Temporal Deformable Convolution for Compressed Video Quality Enhancement,PROCEEDINGS OF THE AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE,vol.34, no.07,2020年03月04日,pp 10696-10700,インターネットより入手 |
Yapeng Tian et al.,TDAN: Temporally-Deformable Alignment Network for Video Super-Resolution,2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),IEEE,2020年06月13日,pp. 3357-3360,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9156615,IEL Online (IEEE Xplore) |
Also Published As
Publication number | Publication date |
---|---|
US11601661B2 (en) | 2023-03-07 |
JP2023509395A (ja) | 2023-03-08 |
CN114651270A (zh) | 2022-06-21 |
EP4052214A4 (en) | 2023-01-04 |
US20220116633A1 (en) | 2022-04-14 |
KR20220107028A (ko) | 2022-08-01 |
EP4052214A1 (en) | 2022-09-07 |
WO2022076085A1 (en) | 2022-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110370B2 (ja) | ビデオ符号化のための機械学習モデルの量子化パラメータに適用される非線形関数の使用 | |
CN111801945B (zh) | 用于对视频流进行编译的方法和装置 | |
US10425649B2 (en) | Method and apparatus for performing graph-based prediction using optimization function | |
CN105191309B (zh) | 用于下一代视频编码的内容自适应预测距离分析器和分层运动估计系统 | |
JP7345654B2 (ja) | ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成 | |
WO2019160622A1 (en) | Video compression through motion warping using learning-based motion segmentation | |
US11490078B2 (en) | Method and apparatus for deep neural network based inter-frame prediction in video coding | |
JP7482232B2 (ja) | 時間変形可能畳み込みによるディープループフィルタ | |
Perra | Assessing the quality of experience in viewing rendered decompressed light fields | |
US20240037802A1 (en) | Configurable positions for auxiliary information input into a picture data processing neural network | |
US20240161488A1 (en) | Independent positioning of auxiliary information in neural network based picture processing | |
Li et al. | Space-time quantization and motion-aligned reconstruction for block-based compressive video sensing | |
Rizkallah et al. | Graph-based spatio-angular prediction for quasi-lossless compression of light fields | |
US20240296594A1 (en) | Generalized Difference Coder for Residual Coding in Video Compression | |
RU2646358C2 (ru) | Способ устранения избыточности при сжатии последовательности изображений | |
US10051268B2 (en) | Method for encoding, decoding video signal and device therefor | |
CN116934647A (zh) | 基于空间角度可变形卷积网络的压缩光场质量增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7482232 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |