JP7425870B2 - 積み重ね可能な入れ子モデル構造及びマイクロ構造化された重み統一によるマルチレートニューラル画像圧縮のための方法及び装置 - Google Patents
積み重ね可能な入れ子モデル構造及びマイクロ構造化された重み統一によるマルチレートニューラル画像圧縮のための方法及び装置 Download PDFInfo
- Publication number
- JP7425870B2 JP7425870B2 JP2022531362A JP2022531362A JP7425870B2 JP 7425870 B2 JP7425870 B2 JP 7425870B2 JP 2022531362 A JP2022531362 A JP 2022531362A JP 2022531362 A JP2022531362 A JP 2022531362A JP 7425870 B2 JP7425870 B2 JP 7425870B2
- Authority
- JP
- Japan
- Prior art keywords
- weights
- stackable
- neural network
- neural
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 86
- 230000006835 compression Effects 0.000 title claims description 25
- 238000007906 compression Methods 0.000 title claims description 25
- 230000001537 neural effect Effects 0.000 title claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 118
- 238000013138 pruning Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 39
- 238000012360 testing method Methods 0.000 description 33
- 238000012549 training Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000006837 decompression Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008685 targeting Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000011773 genetically engineered mouse model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本願は、2020年8月14日に出願された米国仮特許出願第63/065,602号、及び2021年7月1日に出願された米国特許出願第17/365,304号に基づき、それらの優先権を主張し、かつ、それらの開示内容を全て参照により本明細書に組み込むものとする。
(以降、「y-」)を計算する。そして、圧縮表現y-に基づいて、画像
(以降、「x-」)を再構築し、再構築された画像x-は、元の入力画像xxと類似している必要がある。
(以降、「y-′」)にデコードする(それに対してデコード及び非量子化を行う)ことである。二つ目は、DNNデコードプロセスで、テストDNNデコーダ340を使用して、復元表現y-′を再構築された画像x-にデコードすることである。本開示では、DNNデコードに使用されるテストDNNエンコーダ310又はDNNデコードに使用されるテストDNNデコーダ340のネットワーク構造には、いかなる制限もない。また、エンコード又はデコードに使用される方法(量子化法及びエントロピーコーディング法)にも、いかなる制限もない。
を使用して、画像xとx-の間の、ピーク信号対雑音比(PSNR)及び/又は構造類似度指標測定(SSIM)などの、歪み損失と呼ばれる再構築誤差を測定する。レート損失
を計算して、圧縮表現y-のビット消費量を測定する。したがって、トレードオフハイパーパラメータλを使用して、結合されたレート歪み(R-D)損失を最適化する。
φe(λi)={φe(λi-1),{We ij}}とする。同様に、
φd(λi)={φd(λi-1),{Wd ij}}とする。{We ij}は、ハイパーパラメータλi-1に対するテストDNNエンコーダ310のトップに積み重ねられる、ハイパーパラメータλiに対する積み重ね可能なDNNエンコーダ350A、350B、・・・、又は350Nの重み係数のセットである。{Wd ij}は、ハイパーパラメータλi-1に対するテストDNNデコーダ340のトップに積み重ねられる、ハイパーパラメータλiに対する積み重ね可能なDNNデコーダ360A、360B、・・・、又は360Nの重み係数のセットである。各We ij(Wd ij)は、テストDNNエンコーダ310(テストDNNデコーダ360)に対する積み重ね可能なDNNエンコーダ350A、350B、・・・、又は350N(積み重ね可能なDNNデコーダ360A、360B、・・・、又は360N)のj番目の層の重み係数である。また、ハイパーパラメータλiの値ごとの積み重ね可能なDNNエンコーダ350A、350B、・・・、及び350Nと積み重ね可能なDNNデコーダ360A、360B、・・・、及び360Nは、異なるDNN構造を有することが可能である。本開示では、基礎となるDNNエンコーダ/デコーダのネットワークモデルには、いかなる制限もない。
We ij(Wd ij)、i=0,・・・,N(共通のものと積み重ね可能なものとの両方を含む)の各々は、サイズ(c1,k1,k2,k3,c2)の一般的な5次元(5D)テンソルである。層の入力は、サイズ(h1,w1,d1,c1)の4次元(4D)テンソルAであり、層の出力はサイズ(h2,w2,d2,c2)の4次元テンソルBである。サイズc1,k1,k2,k3,c2,h1,w1,d1,h2,w2,d2は、1以上の整数である。サイズc1,k1,k2,k3,c2,h1,w1,d1,h2,w2,d2のいずれかが数1を取るとき、対応するテンソルは低次元化される。各テンソルにおける各アイテムは浮動小数点数である。パラメータh1,w1,及びd1(h2,w2,及びd2)は、入力テンソルA(出力テンソルB)の高さ、重さ、及び深さである。パラメータc1(c2)は、入力(出力)チャンネルの数である。パラメータk1,k2,及びk3は、それぞれ高さ、重み、深さの軸に対応する畳み込みカーネルのサイズである。Me ij(Md ij)が、We ij(Wd ij)と同じ形状のバイナリマスクを表すとする。出力Bは、入力A、Me ij(Md ij)及びWe ij(Wd ij)に基づく畳み込み演算
We′ ij=We j・Me ij(Wd′ ij=Wd j・Md ij)(ただし、・は要素ごとの乗算)で畳み込む入力Aとして計算される。
φe(λN)={φe(λN-1),{We Nj}}={φe(λN-2),{We N-1j},{We Nj}}
=・・・={{We 1j},・・・,{We Nj}}φe(λN)={φe(λN-1),{Wd Nj}}
={φd(λN-2),{Wd N-1j},{Wd Nj}}=・・・
={{Wd 1j},・・・,{Wd Nj}}
を学習することである。漸進的な多段階トレーニング枠組みはこの目標を達成し得る。
{Wd 1j(0)},・・・,{Wd Nj(0)}が存在すると想定される。これらの初期重み係数は、ある分布に従ってランダムに初期化され得る。また、何らかの事前トレーニングデータセットを用いて事前トレーニングされてもよい。一実施形態では、重み更新モジュール410は、ハイパーパラメータλNをターゲットとする式(1)のR-D損失を最適化することにより、トレーニングデータセットStrを使用する通常のバックプロパゲーションを使用した重み更新プロセスを通じて、モデル重みのセット
{Wd 1j(0)},・・・,{Wd Nj(0)}に設定する。
Claims (7)
- 少なくとも1つのプロセッサが実行する、積み重ね可能な入れ子モデル構造によるマルチレートニューラル画像圧縮の方法であって、
第1のニューラルネットワークの第1の重みのセット上に、現在のハイパーパラメータに対応する第1の複数の積み重ね可能なニューラルネットワークの第1の複数の重みのセットを反復して積み重ねるステップであり、前記第1のニューラルネットワークの前記第1の重みのセットは変わらないままである、ステップと、
エンコード表現を取得するために、前記第1の複数の積み重ね可能なニューラルネットワークの前記第1の複数の重みのセットが積み重ねられた後で前記第1のニューラルネットワークの前記第1の重みのセットを使用して、入力画像をエンコードするステップと、
圧縮表現を決定するために、取得された前記エンコード表現をエンコードするステップと、
を含み、さらに、
第2のニューラルネットワークの第2の重みのセット上に、前記現在のハイパーパラメータに対応する第2の複数の積み重ね可能なニューラルネットワークの第2の複数の重みのセットを反復して積み重ねるステップあり、前記第2のニューラルネットワークの前記第2の重みのセットは変わらないままである、ステップと、
復元表現を決定するために、決定された前記圧縮表現をデコードするステップと、
出力画像を再構築するために、前記第2の複数の積み重ね可能なニューラルネットワークの前記第2の複数の重みのセットが積み重ねられた後で前記第2のニューラルネットワークの前記第2の重みのセットを使用して、決定された前記復元表現をデコードするステップと、
を含み、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、
前記第1のニューラルネットワークの前記第1の重みのセット上に、前記現在のハイパーパラメータに対応する前記第1の複数の積み重ね可能なニューラルネットワークの前記第1の複数の重みのセットを反復して積み重ねるステップであり、前記第1のニューラルネットワークの前記第1の重みのセットは変わらないままである、ステップと、
前記第2のニューラルネットワークの前記第2の重みのセット上に、前記現在のハイパーパラメータに対応する前記第2の複数の積み重ね可能なニューラルネットワークの前記第2の複数の重みのセットを反復して積み重ねるステップであり、前記第2のニューラルネットワークの前記第2の重みのセットは変わらないままである、ステップと、
前記入力画像、前記出力画像、及び前記圧縮表現に基づいて決定されるレート歪み損失を最適化するために、積み重ねられた前記第1の複数の積み重ね可能なニューラルネットワークの前記第1の複数の重みのセット、及び、積み重ねられた前記第2の複数の積み重ね可能なニューラルネットワークの前記第2の複数の重みのセットを更新するステップと、
によってトレーニングされ、
前記ハイパーパラメータは、前記レート歪み損失における損失関数とレート損失とのトレードオフを定めている、
方法。 - 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、前記入力画像、前記出力画像、及び前記圧縮表現に基づいて決定されるレート歪み損失を最適化するために、前記第1のニューラルネットワークの第1の初期の重みのセット及び前記第2のニューラルネットワークの第2の初期の重みのセットを更新することによってトレーニングされる、
請求項1に記載の方法。 - 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、さらに、
更新された前記第1の複数の重みのセットの各々が刈り込まれるか否かを示す第1の刈り込みマスク、及び、更新された前記第2の複数の重みのセットの各々が刈り込まれるか否かを示す第2の刈り込みマスクを決定するために、前記第1の複数の積み重ね可能なニューラルネットワークの更新された前記第1の複数の重みのセット、及び、前記第2の複数の積み重ね可能なニューラルネットワークの更新された前記第2の複数の重みのセットを刈り込むステップと、
前記レート歪み損失を最適化するために、決定された前記第1の刈り込みマスク及び決定された前記第2の刈り込みマスクに基づいて、刈り込まれた前記第1の複数の重みのセット及び刈り込まれた前記第2の複数の重みのセットに対して第2の更新を行うステップと、
によってトレーニングされる、
請求項1に記載の方法。 - 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、さらに、
第2の更新が行われた前記第1の複数の重みのセットの各々が統一されるか否かを示す第1の統一マスク、及び、第2の更新が行われた前記第2の複数の重みのセットの各々が統一されるか否かを示す第2の統一マスクを決定するために、前記第1の複数の積み重ね可能なニューラルネットワークの第2の更新が行われた前記第1の複数の重みのセット、及び、前記第2の複数の積み重ね可能なニューラルネットワークの第2の更新が行われた前記第2の複数の重みのセットを統一するステップと、
前記レート歪み損失を最適化するために、決定された前記第1の統一マスク及び決定された前記第2の統一マスクに基づいて、前記第1の複数の重みのセット及び前記第2の複数の重みのセットのうち統一されていない残りのものに対して第3の更新を行うステップと、
によってトレーニングされる、
請求項3に記載の方法。 - 前記第1の複数の積み重ね可能なニューラルネットワークの前記第1の複数の重みのセット及び前記第2の複数の積み重ね可能なニューラルネットワークの前記第2の複数の重みのセットのうちの1つ又は複数が、前記現在のハイパーパラメータに対応しない、
請求項1に記載の方法。 - 積み重ね可能な入れ子モデル構造によるマルチレートニューラル画像圧縮のための装置であって、
プログラムコードを記憶するように構成される少なくとも1つのメモリと、
前記プログラムコードを読み取り、前記プログラムコードの指示通りに動作するように構成される少なくとも1つのプロセッサと、を備え、
前記プログラムコードは、前記少なくとも1つのプロセッサによって実行されると、
前記少なくとも1つのプロセッサに、請求項1乃至5のうちのいずれか1項に記載の方法を実行させる、
装置。 - コンピュータに、請求項1乃至5のうちのいずれか1項に記載の方法を実行させるように構成されるコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063065602P | 2020-08-14 | 2020-08-14 | |
US63/065,602 | 2020-08-14 | ||
US17/365,304 | 2021-07-01 | ||
US17/365,304 US20220051102A1 (en) | 2020-08-14 | 2021-07-01 | Method and apparatus for multi-rate neural image compression with stackable nested model structures and micro-structured weight unification |
PCT/US2021/042535 WO2022035571A1 (en) | 2020-08-14 | 2021-07-21 | Method and apparatus for multi-rate neural image compression with stackable nested model structures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023509829A JP2023509829A (ja) | 2023-03-10 |
JP7425870B2 true JP7425870B2 (ja) | 2024-01-31 |
Family
ID=80222965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531362A Active JP7425870B2 (ja) | 2020-08-14 | 2021-07-21 | 積み重ね可能な入れ子モデル構造及びマイクロ構造化された重み統一によるマルチレートニューラル画像圧縮のための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220051102A1 (ja) |
EP (1) | EP4032310A4 (ja) |
JP (1) | JP7425870B2 (ja) |
KR (1) | KR20220084174A (ja) |
CN (1) | CN114667544B (ja) |
WO (1) | WO2022035571A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019115865A1 (en) | 2017-12-13 | 2019-06-20 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
JP2019159694A (ja) | 2018-03-12 | 2019-09-19 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016102001A1 (en) * | 2014-12-23 | 2016-06-30 | Telecom Italia S.P.A. | Method and system for dynamic rate adaptation of a stream of multimedia contents in a wireless communication network |
EP3398090B1 (en) * | 2015-12-31 | 2022-11-16 | Services Pétroliers Schlumberger | Geological imaging and inversion using object storage |
US10192327B1 (en) * | 2016-02-04 | 2019-01-29 | Google Llc | Image compression with recurrent neural networks |
CN106682688B (zh) * | 2016-12-16 | 2020-07-28 | 华南理工大学 | 基于粒子群优化的堆叠降噪自编码网络轴承故障诊断方法 |
AU2018313841B2 (en) * | 2017-08-09 | 2023-10-26 | Allen Institute | Systems, devices, and methods for image processing to generate an image having predictive tagging |
US11250325B2 (en) * | 2017-12-12 | 2022-02-15 | Samsung Electronics Co., Ltd. | Self-pruning neural networks for weight parameter reduction |
US11423312B2 (en) * | 2018-05-14 | 2022-08-23 | Samsung Electronics Co., Ltd | Method and apparatus for universal pruning and compression of deep convolutional neural networks under joint sparsity constraints |
CN108805802B (zh) * | 2018-06-05 | 2020-07-31 | 东北大学 | 一种基于约束条件的堆叠步进自编码器的正面人脸重建系统及方法 |
CN109086807B (zh) * | 2018-07-16 | 2022-03-18 | 哈尔滨工程大学 | 一种基于空洞卷积堆叠网络的半监督光流学习方法 |
US10747956B2 (en) * | 2018-08-30 | 2020-08-18 | Dynamic Ai Inc. | Artificial intelligence process automation for enterprise business communication |
CN109635936A (zh) * | 2018-12-29 | 2019-04-16 | 杭州国芯科技股份有限公司 | 一种基于重训练的神经网络剪枝量化方法 |
CN110443359A (zh) * | 2019-07-03 | 2019-11-12 | 中国石油大学(华东) | 基于自适应联合剪枝-量化的神经网络压缩算法 |
CN111310787B (zh) * | 2020-01-15 | 2024-03-22 | 江苏大学 | 一种基于堆叠编码器的脑功能网络多核模糊聚类方法 |
-
2021
- 2021-07-01 US US17/365,304 patent/US20220051102A1/en active Pending
- 2021-07-21 CN CN202180006408.8A patent/CN114667544B/zh active Active
- 2021-07-21 KR KR1020227017503A patent/KR20220084174A/ko active Search and Examination
- 2021-07-21 JP JP2022531362A patent/JP7425870B2/ja active Active
- 2021-07-21 EP EP21856421.9A patent/EP4032310A4/en active Pending
- 2021-07-21 WO PCT/US2021/042535 patent/WO2022035571A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019115865A1 (en) | 2017-12-13 | 2019-06-20 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
JP2019159694A (ja) | 2018-03-12 | 2019-09-19 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
Rige Su 他3名,Scalable Learned Image Compression Based on Recurrent Neural Networks,電子情報通信学会2020年総合大会講演論文集 情報・システム2,日本,一般社団法人電子情報通信学会,2020年03月03日,第29頁 |
Also Published As
Publication number | Publication date |
---|---|
EP4032310A4 (en) | 2022-12-07 |
US20220051102A1 (en) | 2022-02-17 |
EP4032310A1 (en) | 2022-07-27 |
CN114667544A (zh) | 2022-06-24 |
WO2022035571A1 (en) | 2022-02-17 |
JP2023509829A (ja) | 2023-03-10 |
KR20220084174A (ko) | 2022-06-21 |
CN114667544B (zh) | 2024-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7323715B2 (ja) | 微細構造化マスクを用いたマルチレートニューラル画像圧縮のための方法、装置およびコンピュータプログラム | |
JP7374340B2 (ja) | ニューラル画像圧縮のためのタスク適応型前処理のための方法、装置およびコンピュータプログラム | |
JP7418570B2 (ja) | スタック可能ネスト化モデル構造を用いたマルチレート・ニューラルイメージ圧縮のための方法および装置 | |
JP7420942B2 (ja) | 敵対的生成器を用いたレート適応ニューラル画像圧縮のための方法及び装置 | |
JP7425870B2 (ja) | 積み重ね可能な入れ子モデル構造及びマイクロ構造化された重み統一によるマルチレートニューラル画像圧縮のための方法及び装置 | |
JP2023526180A (ja) | 滑らかな品質制御による適応ニューラル画像圧縮のための代替の入力最適化 | |
JP7447253B2 (ja) | エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム | |
JP7342265B2 (ja) | μ構造化ネストマスク及び重み単一化によるマルチレートニューラル画像圧縮モデルを圧縮及び加速するための方法及び装置 | |
JP7411117B2 (ja) | メタ学習による柔軟なハイパー事前モデルを用いる適応画像圧縮のための方法、装置及びコンピュータプログラム | |
JP7434605B2 (ja) | メタ学習によるスムーズな品質制御を用いた適応ニューラル画像圧縮のための方法、装置、非一時的コンピュータ可読媒体、およびコンピュータプログラム | |
JP7471730B2 (ja) | メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム | |
JP7408835B2 (ja) | マルチタスクニューラルネットワークを使用するマルチ品質ループフィルタによるビデオ処理の方法、装置及びコンピュータプログラム | |
JP2024512652A (ja) | ニューラル画像圧縮における複数ブロック用のコンテンツ適応型オンライン訓練のためのシステム、方法、およびコンピュータプログラム | |
JP2024513432A (ja) | ニューラルネットワークを使用する、エンドツーエンド(e2e)ニューラル画像圧縮(nic)用のコンテンツ適応型オンライン訓練の方法、装置及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7425870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |