JP7236873B2 - オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム - Google Patents
オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム Download PDFInfo
- Publication number
- JP7236873B2 JP7236873B2 JP2019022744A JP2019022744A JP7236873B2 JP 7236873 B2 JP7236873 B2 JP 7236873B2 JP 2019022744 A JP2019022744 A JP 2019022744A JP 2019022744 A JP2019022744 A JP 2019022744A JP 7236873 B2 JP7236873 B2 JP 7236873B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- resolution
- neural network
- layer
- compression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/565—Conversion or adaptation of application format or content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/04—Protocols for data compression, e.g. ROHC
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
(1)多値量子化関数に最適化したオートエンコーダによる圧縮(非可逆)。
(2)ニューラルネットによる予測値を基に多値量子化テンソルの算術符号化(可逆)。
図2は、第1圧縮装置12の機能を示すブロック図である。第1圧縮装置12は、第1データ入力部120と、第1圧縮モデル記憶部121と、第1圧縮モデル生成部122と、第1データ圧縮部123と、第1圧縮データ出力部124と、を備える。
一般的に、バッチ正規化は、パラメータに線形変換を施すことにより、その平均、標準偏差といった統計量が特定の値をもつように正規化を行う。たとえば、出力Oに対するバッチ正規化はγ(O+β)のように出力と定数βの和とそれらへの定数γの積で表わされる。定数βとγは、たとえばγ(O+β)の平均が0、標準偏差が1となるように学習の間に調整され、その値を使うことで正規化が行われる。
続いて、バッチ正規化されたデータをクリッピングする。クリッピングは、例えば、[t,u](ただし、t<u)といった定められた範囲にデータを整形することを指す。
量子化後のデータを0,1,・・・,N-1とする場合、グラフにより変換されたデータを、(N-1)/u倍する。このようにクリッピング及び倍率を掛けることにより、量子化後のデータを、0,1,・・・,N-1のN値に制限することが可能となる。
スケール変換後のデータを量子化することによりデータを離散化する。ここでいう量子化とは、データの小数点以下の値を何らかの手法により丸め、整数にする処理のことを言う。例えば、QAを、小数値を四捨五入して整数値へと変換する関数、すなわち、QA(z)=round(z)とする。round(z)は、扱うシステムにより異なる関数であってもよく、例えば、スカラー値aに対して、QA(a)=i,if a∈[i-0.5,i+0.5)等の関数である。エンコーダの出力層において、量子化関数として多値に量子化されるような関数を用いることにより、エンコーダの出力を量子化する。
上述したエンコーダ、デコーダの最適化においては、量子化という微分不可能な演算を近似することにより勾配法を用いた最適化を可能とした。本変形例では、量子化の演算を確率的に行い、その確率について微分をすることにより、バイアスなしに勾配を求め最適化を行う手法について説明する。
上述したエンコーダ、デコーダは、学習中から完全に量子化することにより、量子化された出力に適したエンコーダ、量子化された入力に適したデコーダの作成を行う例を説明した。本変形例においては、学習中には完全に量子化を実行せずに、量子化された出力に適したエンコーダ、量子化された入力に適したデコーダの作成を可能とする方法を説明する。
図11は、第2圧縮装置14の機能を示すブロック図である。第2圧縮装置14は、第2データ入力部140と、第2圧縮モデル記憶部141と、第2圧縮モデル生成部142と、第2データ圧縮部143と、第2圧縮データ出力部144と、を備える。各機能の説明において、第1圧縮装置12の機能と重なる部分に関しては、詳しい説明は省略する。
図13は、第2圧縮処理の概略を示す図である。
前述した実施形態のデータ処理システム1としての全体の処理は以下のようにまとめることができる。
入力されたデータは、第1圧縮装置12において、オートエンコーダにより出力層から入力されたデータが出力されるようなモデルを生成する。このオートエンコーダは、CNNにより形成される。オートエンコーダのエンコーダ層における中間層に最も近い所定数の層(上述では3層)においては、一般的なCNNの各層の出力に加え、圧縮データの本体を形成するようなデータが出力されるように最適化される。当該所定数の層からの出力用のデータは、量子化され、非可逆圧縮されたデータとして出力される。オートエンコーダの最適化において、デコーダGは、この量子化されたデータが入力されたデータへとデコードされるように最適化される。上述したように、オートエンコーダはあらかじめ学習により最適化されていてもよい。この場合、圧縮率等により使用するエンコーダF、デコーダGを、例えば、第1圧縮モデル記憶部121から取得して、さらに、必要であれば取得したパラメータ等からモデルを生成して使用してもよい。
非可逆圧縮されたデータは、第2圧縮装置14において、周辺のピクセルに対する確率分布が推定できるようなCNNに基づいたモデルを生成することにより、当該確率分布を用いて算術符号化等の手法により可逆圧縮される。
可逆圧縮されたデータは、第2復元装置24において、復元される。この復元は、算術符号化等により圧縮されたデータの復元である。復元されたデータは、上記の第1圧縮装置12から出力された非可逆圧縮されたデータと同じものとなる。
非可逆圧縮されたデータは、第1圧縮装置12により生成されたモデルのデコーダGの層を第1復元装置22において、そのパラメータを取得することにより再現し、デコーダGの中間層に近い層に入力されることにより、復元され、出力される。
第1圧縮及び第2圧縮をしたデータには、各復元装置における復元モデルを生成するためのパラメータが格納される。当該データは、圧縮されるデータの内容を示すデータと比較して小さいものであるので、圧縮率等にはほとんど寄与しない。そこで、このようなパラメータ以外のデータについての格納方法について説明する。
前述した第1データ処理システム2、又は、第2データ処理システム3は、信号の近似的な生成確率を表現することによりデータの圧縮及び復元を行っている。この信号の生成確率は、ベイズ推定における事前分布として用いることもできる。事前分布として用いることにより、統計推定の精度を向上させることも考えられる。
10:圧縮装置、12:第1圧縮装置、14:第2圧縮装置、120:第1データ入力部、121:第1圧縮モデル記憶部、122:第1圧縮モデル生成部、123:第1データ圧縮部、124:第1圧縮データ出力部、140:第2データ入力部、141:第2圧縮モデル記憶部、142:第2圧縮モデル生成部、143:第2データ圧縮部、144:第2圧縮データ出力部、
20:復元装置、22:第1復元装置、24:第2復元装置、220:第1圧縮データ入力部、221:第1復元モデル記憶部、222:第1復元モデル生成部、223:第1データ復元部、224:第1復元データ出力部、240:第2圧縮データ入力部、243:第2データ復元部、244:第2復元データ出力部
Claims (27)
- 少なくとも1つの制御部、を備え、
前記少なくとも1つの制御部は、
圧縮対象となるデータを取得し、
第1ニューラルネットワークに前記データを入力して取得される前記第1ニューラルネットワークからの出力に基づいて、第1圧縮データを生成し、
前記第1圧縮データのサイズは、前記データのサイズより小さく、
前記第1圧縮データは、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
復元装置において、前記第1解像度に係る特徴量は第2ニューラルネットワークの1つの層に入力され、前記第2解像度に係る特徴量は前記第2ニューラルネットワークの他の層に入力される、
圧縮装置。 - 前記第1ニューラルネットワークは、少なくとも1つの層と他の層とを有し、
前記第1解像度に係る特徴量は、前記第1ニューラルネットワークの前記他の層からの出力に基づいて生成され、
前記第2解像度に係る特徴量は、前記第1ニューラルネットワークの前記1つの層からの出力に基づいて生成される、
請求項1に記載の圧縮装置。 - 前記第1ニューラルネットワークの前記1つの層からの出力が前記第1ニューラルネットワークの前記他の層に入力される、
請求項2に記載の圧縮装置。 - 圧縮対象となる前記データは画像であって、
前記第1ニューラルネットワークの前記他の層から出力されるデータの高さは、前記第1ニューラルネットワークの前記1つの層からの出力のデータの高さの1/2であり、
前記第1ニューラルネットワークの前記他の層から出力されるデータの幅は、前記第1ニューラルネットワークの前記1つの層からの出力のデータの幅の1/2である、
請求項3に記載の圧縮装置。 - 前記第2ニューラルネットワークの前記1つの層からの出力が前記第2ニューラルネットワークの前記他の層に入力される、
請求項1乃至請求項4の何れか一項に記載の圧縮装置。 - 前記第1ニューラルネットワークからの出力は、バッチ正規化されたデータである、
請求項1乃至請求項5の何れか一項に記載の圧縮装置。 - 前記少なくとも1つの制御部は、
前記第1ニューラルネットワークからの出力を量子化することで、前記第1解像度に係る特徴量及び前記第2解像度に係る特徴量を生成する、
請求項1乃至請求項6の何れか一項に記載の圧縮装置。 - 前記量子化は、少なくとも、微分可能な量子化関数、微分可能な疑似量子化関数、又は、確率的量子化の何れかを用いて実行される、
請求項7に記載の圧縮装置。 - 前記少なくとも1つの制御部は、更に、
前記量子化の前に、前記第1ニューラルネットワークからの出力に対して、少なくとも、クリッピング処理、又は、スケール変換処理の何れかを適用する、
請求項7又は請求項8に記載の圧縮装置。 - 前記第1圧縮データに含まれる特徴量の解像度は、ユーザによって選択される、
請求項1乃至請求項9の何れか一項に記載の圧縮装置。 - 前記第1圧縮データは、復元モデルのパラメータを含む、
請求項1乃至請求項10の何れか一項に記載の圧縮装置。 - 前記第1ニューラルネットワークは、圧縮率に基づいて複数のモデルから選択されたものである、
請求項1乃至請求項11の何れか一項に記載の圧縮装置。 - 前記少なくとも1つの制御部は、更に、
第3ニューラルネットワークを用いて前記第1圧縮データを可逆圧縮した第2圧縮データを生成する、
請求項1乃至請求項12の何れか一項に記載の圧縮装置。 - 前記第3ニューラルネットワークは、前記第1圧縮データの生起確率を推定するものであって、
前記少なくとも1つの制御部は、
推定された前記生起確率に基づく算術符号によって前記第2圧縮データを生成する、
請求項13に記載の圧縮装置。 - 請求項1乃至請求項14の何れか一項に記載の圧縮装置を用いて、圧縮データを生成する、
データ生成方法。 - 少なくとも1つの制御部、を備え、
前記少なくとも1つの制御部は、
復元対象となる圧縮データを取得し、
少なくとも1つの層と他の層とを有するニューラルネットワークに前記圧縮データを入力して、復元データを生成し、
前記復元データのサイズは、前記圧縮データのサイズより大きく、
前記圧縮データは、他のニューラルネットワークに圧縮対象となるデータを入力した際の出力に基づいて生成されたデータであって、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
前記第1解像度に係る特徴量は前記1つの層に入力され、
前記第2解像度に係る特徴量は前記他の層に入力される、
復元装置。 - 前記1つの層の出力は前記他の層に入力される、
請求項16に記載の復元装置。 - 前記ニューラルネットワークはデコーダであり、前記他のニューラルネットワークはエンコーダである、
請求項16又は請求項17に記載の復元装置。 - 前記ニューラルネットワークのパラメータは、他の装置から受信したものである、
請求項16乃至請求項18の何れか一項に記載の復元装置。 - 前記圧縮データは、前記ニューラルネットワークのパラメータを含み、
前記少なくとも1つの制御部は、前記パラメータを用いて前記復元データを生成する、
請求項16乃至請求項19の何れか一項に記載の復元装置。 - 請求項16乃至請求項20の何れか一項に記載の復元装置を用いて、前記復元データを生成する、
データ生成方法。 - 少なくとも1つの制御部を用いてモデルを生成するモデル生成方法であって、
少なくとも1つの制御部によって、
圧縮対象となるデータをエンコードネットワークに入力することで圧縮データを生成し、
前記圧縮データをデコードネットワークに入力することで復元データを生成し、
前記圧縮データと前記復元データとの差分に基づいて、前記エンコードネットワークと前記デコードネットワークを学習する、
ことを備え、
前記圧縮データは、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
前記第1解像度に係る特徴量は前記デコードネットワークの1つの層に入力され、前記第2解像度に係る特徴量は前記デコードネットワークの他の層に入力される、
モデル生成方法。 - 少なくとも1つの制御部は、更に、
前記エンコードネットワークの出力を量子化して前記第1解像度に係る特徴量及び前記第2解像度に係る特徴量を生成し、
前記量子化は、微分可能な演算を用いた量子化である、
請求項22に記載のモデル生成方法。 - 少なくとも1つの制御部に、
圧縮対象となるデータを取得し、
第1ニューラルネットワークに前記データを入力して取得される前記第1ニューラルネットワークからの出力に基づいて、第1圧縮データを生成する、
ことを実行させるプログラムであって、
前記第1圧縮データのサイズは、前記データのサイズより小さく、
前記第1圧縮データは、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
復元装置において、前記第1解像度に係る特徴量は第2ニューラルネットワークの1つの層に入力され、前記第2解像度に係る特徴量は前記第2ニューラルネットワークの他の層に入力される、
プログラム。 - 少なくとも1つの制御部に、
復元対象となる圧縮データを取得し、
少なくとも1つの層と他の層とを有するニューラルネットワークに前記圧縮データを入力して、復元データを生成する、
ことを実行させるプログラムであって、
前記復元データのサイズは、前記圧縮データのサイズより大きく、
前記圧縮データは、他のニューラルネットワークに圧縮対象となるデータを入力した際の出力に基づいて生成されたデータであって、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
前記第1解像度に係る特徴量は前記1つの層に入力され、
前記第2解像度に係る特徴量は前記他の層に入力される、
プログラム。 - 少なくとも1つの制御部を用いてデータを圧縮するデータ圧縮方法であって、
前記少なくとも1つの制御部によって、
圧縮対象となるデータを取得し、
第1ニューラルネットワークに前記データを入力して取得される前記第1ニューラルネットワークからの出力に基づいて、第1圧縮データを生成する、
ことを備え、
前記第1圧縮データのサイズは、前記データのサイズより小さく、
前記第1圧縮データは、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
復元装置において、前記第1解像度に係る特徴量は第2ニューラルネットワークの1つの層に入力され、前記第2解像度に係る特徴量は前記第2ニューラルネットワークの他の層に入力される、
データ圧縮方法。 - 少なくとも1つの制御部を用いてデータを復元するデータ復元方法であって、
前記少なくとも1つの制御部によって、
復元対象となる圧縮データを取得し、
少なくとも1つの層と他の層を有するニューラルネットワークに前記圧縮データを入力して、復元データを生成する、
ことを備え、
前記復元データのサイズは、前記圧縮データのサイズより大きく、
前記圧縮データは、他のニューラルネットワークに圧縮対象となるデータを入力した際の出力に基づいて生成されたデータであって、少なくとも第1解像度に係る特徴量と前記第1解像度より解像度が高い第2解像度に係る特徴量を含み、
前記第1解像度に係る特徴量は前記1つの層に入力され、
前記第2解像度に係る特徴量は前記他の層に入力される、
データ復元方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018022349 | 2018-02-09 | ||
JP2018022349 | 2018-02-09 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019140680A JP2019140680A (ja) | 2019-08-22 |
JP2019140680A5 JP2019140680A5 (ja) | 2022-04-25 |
JP7236873B2 true JP7236873B2 (ja) | 2023-03-10 |
Family
ID=67541769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019022744A Active JP7236873B2 (ja) | 2018-02-09 | 2019-02-12 | オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11902369B2 (ja) |
JP (1) | JP7236873B2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7233875B2 (ja) * | 2018-09-26 | 2023-03-07 | 株式会社Preferred Networks | 作成方法、コンピュータ及びプログラム |
KR102621118B1 (ko) * | 2018-11-01 | 2024-01-04 | 삼성전자주식회사 | 영상 적응적 양자화 테이블을 이용한 영상의 부호화 장치 및 방법 |
US11588499B2 (en) * | 2018-11-05 | 2023-02-21 | Samsung Electronics Co., Ltd. | Lossless compression of neural network weights |
JP7328799B2 (ja) * | 2019-06-12 | 2023-08-17 | 株式会社日立製作所 | ストレージシステムおよび記憶制御方法 |
JP7205640B2 (ja) * | 2019-09-24 | 2023-01-17 | 富士通株式会社 | 学習方法、学習プログラム、および学習装置 |
JP7205641B2 (ja) * | 2019-09-24 | 2023-01-17 | 富士通株式会社 | 学習方法、学習プログラム、および学習装置 |
WO2021075009A1 (ja) * | 2019-10-16 | 2021-04-22 | 日本電信電話株式会社 | 学習装置、推定装置、学習方法及び学習プログラム |
JP7355622B2 (ja) * | 2019-11-29 | 2023-10-03 | 株式会社日立製作所 | エンコーダを有するストレージシステム |
CN113038134B (zh) * | 2019-12-25 | 2023-08-01 | 武汉Tcl集团工业研究院有限公司 | 一种图片处理方法、智能终端及存储介质 |
CN113034625B (zh) * | 2019-12-25 | 2023-06-20 | 武汉Tcl集团工业研究院有限公司 | 一种基于图片的无损压缩方法、智能终端及存储介质 |
CN111126589B (zh) * | 2019-12-31 | 2022-05-20 | 昆仑芯(北京)科技有限公司 | 神经网络数据处理装置、方法和电子设备 |
US11575938B2 (en) * | 2020-01-10 | 2023-02-07 | Nokia Technologies Oy | Cascaded prediction-transform approach for mixed machine-human targeted video coding |
US20230063344A1 (en) * | 2020-02-17 | 2023-03-02 | Nec Corporation | Communication system, transmission apparatus, reception apparatus, matrix generation apparatus, communication method, transmission method, reception method, matrix generation method and recording medium |
WO2021205067A1 (en) * | 2020-04-07 | 2021-10-14 | Nokia Technologies Oy | Feature-domain residual for video coding for machines |
US11823060B2 (en) * | 2020-04-29 | 2023-11-21 | HCL America, Inc. | Method and system for performing deterministic data processing through artificial intelligence |
US11955995B2 (en) * | 2020-05-11 | 2024-04-09 | Intel Corporation | Apparatus and method for two-stage lossless data compression, and two-stage lossless data decompression |
KR102510881B1 (ko) * | 2020-07-01 | 2023-03-16 | 주식회사 딥브레인에이아이 | 신경망 기반의 특징점 학습 장치 및 방법 |
CN111898698B (zh) * | 2020-08-10 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 对象的处理方法及装置、存储介质和电子设备 |
CN117157645A (zh) * | 2020-10-20 | 2023-12-01 | 诺基亚通信法国公司 | 上行链路ran中使用神经网络的预处理 |
US11915457B2 (en) * | 2021-01-19 | 2024-02-27 | Tencent America LLC | Method and apparatus for adaptive neural image compression with rate control by meta-learning |
CN113720399B (zh) * | 2021-11-02 | 2022-04-15 | 国网湖北省电力有限公司检修公司 | 特高压带电作业用绝缘吊带远程智能监测方法及装置 |
US11886955B2 (en) | 2022-02-16 | 2024-01-30 | Protopia AI, Inc. | Self-supervised data obfuscation in foundation models |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196040A (ja) | 2004-01-09 | 2005-07-21 | Japan Science & Technology Agency | 歪みあり符号方法及び装置、歪みあり符号化プログラム及び記録媒体 |
JP2007503784A (ja) | 2003-05-20 | 2007-02-22 | アーエムテー アドバンスド マルチメディア テクノロジー アクティエボラーグ | ハイブリッドビデオ圧縮法 |
JP2009273117A (ja) | 2008-04-07 | 2009-11-19 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
JP2013247683A (ja) | 2012-05-24 | 2013-12-09 | Fujitsu Ltd | 画像圧縮方法及びその装置 |
WO2017196931A1 (en) | 2016-05-10 | 2017-11-16 | Google Llc | Frequency based audio analysis using neural networks |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8261264B2 (en) * | 2008-01-03 | 2012-09-04 | Dell Products L.P. | Accessing a network |
TWI466752B (zh) | 2008-06-23 | 2015-01-01 | Materion Advanced Materials Technologies And Services Inc | 可用於與無鉛錫基焊料相容之金-錫-銦焊料 |
WO2012109407A1 (en) | 2011-02-09 | 2012-08-16 | The Trustees Of Columbia University In The City Of New York | Encoding and decoding machine with recurrent neural networks |
US8582876B2 (en) * | 2011-11-15 | 2013-11-12 | Microsoft Corporation | Hybrid codec for compound image compression |
US9025910B2 (en) * | 2012-12-13 | 2015-05-05 | Futurewei Technologies, Inc. | Image retargeting quality assessment |
CN104579728B (zh) * | 2013-10-17 | 2019-02-26 | 中兴通讯股份有限公司 | 网元设备配置和管理方法、装置及网元设备 |
EP3398114B1 (en) | 2016-02-05 | 2022-08-24 | Deepmind Technologies Limited | Compressing images using neural networks |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
CN107786867A (zh) * | 2016-08-26 | 2018-03-09 | 原相科技股份有限公司 | 基于深度学习架构的图像辨识方法及系统 |
JP6318211B2 (ja) | 2016-10-03 | 2018-04-25 | 株式会社Preferred Networks | データ圧縮装置、データ再現装置、データ圧縮方法、データ再現方法及びデータ転送方法 |
SG11201911600VA (en) | 2017-07-07 | 2020-01-30 | Mitsubishi Electric Corp | Data processing device, data processing method, and compressed data |
-
2019
- 2019-02-08 US US16/271,671 patent/US11902369B2/en active Active
- 2019-02-12 JP JP2019022744A patent/JP7236873B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007503784A (ja) | 2003-05-20 | 2007-02-22 | アーエムテー アドバンスド マルチメディア テクノロジー アクティエボラーグ | ハイブリッドビデオ圧縮法 |
JP2005196040A (ja) | 2004-01-09 | 2005-07-21 | Japan Science & Technology Agency | 歪みあり符号方法及び装置、歪みあり符号化プログラム及び記録媒体 |
JP2009273117A (ja) | 2008-04-07 | 2009-11-19 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
JP2013247683A (ja) | 2012-05-24 | 2013-12-09 | Fujitsu Ltd | 画像圧縮方法及びその装置 |
WO2017196931A1 (en) | 2016-05-10 | 2017-11-16 | Google Llc | Frequency based audio analysis using neural networks |
Non-Patent Citations (8)
Title |
---|
Adna Sento,Image Compression with Auto-encoder Algorithm using Deep Neural Network (DNN),2016 Management and Innovation Technology International Conference (MITicon),2016年,pp. MIT-99~MIT-103 |
Lucas Theis et al.,LOSSY IMAGE COMPRESSION WITH COMPRESSIVE AUTOENCODERS[online],2017年03月01日,https://arxiv.org/pdf/1703.00395.pdf |
小池 弘幸ほか,JPEG準拠のビットストリームに可逆変換可能な画像符号化方式,電子情報通信学会技術研究報告,2011年07月07日,第111巻,第133号,pp.25~30 |
山本 康平ほか,マイクロ波ビート信号の深層学習に基づく車種判別方式,電子情報通信学会技術研究報告,2016年,第116巻,第89号,pp.19~24 |
梅本 可夏ほか,深層学習を用いた病理組織画像からの乳癌診断,電子情報通信学会技術研究報告,2017年05月18日,第117巻,第50号,pp.1~6 |
石井 潤ほか,可変データビット幅を持つDNNとそのアクセラレータアーキテクチャの検討,電子情報通信学会技術研究報告,2017年07月19日,第117巻,第154号,pp.83~90 |
神保 悟ほか,符号化パラメータ適応型ディープラーニングによるH.265/HEVC符号化雑音除去特性,第32回画像符号化シンポジウム/第22回映像メディア処理シンポジウム,2017年11月20日,pp.34~35 |
高田 遼ほか,スケーラブルなディープラーニング向けアクセラレータチップの設計と評価,電子情報通信学会技術研究報告,2016年,第116巻,第336号,pp.1~6 |
Also Published As
Publication number | Publication date |
---|---|
US11902369B2 (en) | 2024-02-13 |
JP2019140680A (ja) | 2019-08-22 |
US20190251418A1 (en) | 2019-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236873B2 (ja) | オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム | |
US11153566B1 (en) | Variable bit rate generative compression method based on adversarial learning | |
US10733767B2 (en) | Method and device for processing multi-channel feature map images | |
CN109889839B (zh) | 基于深度学习的感兴趣区域图像编码、解码系统及方法 | |
KR20200044652A (ko) | 영상의 주관적 품질을 평가하는 방법 및 장치 | |
CN113259676B (zh) | 一种基于深度学习的图像压缩方法和装置 | |
CN114402596B (zh) | 神经网络模型解码方法、装置、系统和介质 | |
JP7168896B2 (ja) | 画像符号化方法、及び画像復号方法 | |
CN113747163A (zh) | 基于上下文重组建模的图像编码、解码方法及压缩方法 | |
JP7233875B2 (ja) | 作成方法、コンピュータ及びプログラム | |
Zebang et al. | Densely connected AutoEncoders for image compression | |
Zhao et al. | Symmetrical lattice generative adversarial network for remote sensing images compression | |
US20240144583A1 (en) | Learned Volumetric Attribute Compression Using Coordinate-Based Networks | |
Rai et al. | An enhanced compression method for medical images using SPIHT encoder for fog computing | |
Thakker et al. | Lossy Image Compression-A Comparison Between Wavelet Transform, Principal Component Analysis, K-Means and Autoencoders | |
CN113949880B (zh) | 一种极低码率人机协同图像编码训练方法及编解码方法 | |
Gray et al. | Image compression and tree-structured vector quantization | |
Saudagar | Learning based coding for medical image compression | |
US20230316048A1 (en) | Multi-rate computer vision task neural networks in compression domain | |
US20230336738A1 (en) | Multi-rate of computer vision task neural networks in compression domain | |
US20230316588A1 (en) | Online training-based encoder tuning with multi model selection in neural image compression | |
US20230306239A1 (en) | Online training-based encoder tuning in neural image compression | |
CN118828001A (zh) | 一种解码、编码方法、装置及其设备 | |
US20230334718A1 (en) | Online training computer vision task models in compression domain | |
CN117793289A (zh) | 一种视频传输方法、视频重建方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |