JP7355622B2 - エンコーダを有するストレージシステム - Google Patents
エンコーダを有するストレージシステム Download PDFInfo
- Publication number
- JP7355622B2 JP7355622B2 JP2019217442A JP2019217442A JP7355622B2 JP 7355622 B2 JP7355622 B2 JP 7355622B2 JP 2019217442 A JP2019217442 A JP 2019217442A JP 2019217442 A JP2019217442 A JP 2019217442A JP 7355622 B2 JP7355622 B2 JP 7355622B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- compression
- encoded data
- processor
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/174—Redundancy elimination performed by the file system
- G06F16/1744—Redundancy elimination performed by the file system using compression, e.g. sparse files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
・1つ以上のI/O(Input/Output)インターフェースデバイス。I/O(Input/Output)インターフェースデバイスは、I/Oデバイスと遠隔の表示用計算機とのうちの少なくとも1つに対するインターフェースデバイスである。表示用計算機に対するI/Oインターフェースデバイスは、通信インターフェースデバイスでよい。少なくとも1つのI/Oデバイスは、ユーザインターフェースデバイス、例えば、キーボード及びポインティングデバイスのような入力デバイスと、表示デバイスのような出力デバイスとのうちのいずれでもよい。
・1つ以上の通信インターフェースデバイス。1つ以上の通信インターフェースデバイスは、1つ以上の同種の通信インターフェースデバイス(例えば1つ以上のNIC(Network Interface Card))であってもよいし2つ以上の異種の通信インターフェースデバイス(例えばNICとHBA(Host Bus Adapter))であってもよい。
・少なくとも1つの圧縮演算規模について、当該圧縮演算規模の圧縮経路の数、
・少なくとも1つの圧縮演算規模の定義(例えば、圧縮演算規模と出力チャネル数との関係)、
を受け付けるインターフェースでよい。プロセサ1260は、ユーザインターフェースを介して入力された値に基づき複数の圧縮経路を構築してよい。これにより、ユーザ任意の構成のエンコーダ1200を、少ないデータ損失量を実現しつつ全体として計算処理負荷を低減できるエンコーダとすることができる。
Claims (15)
- 記憶装置と前記記憶装置に接続されたプロセサとを備えるストレージシステムであって、
前記プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを前記記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記圧縮演算は、非可逆の圧縮演算であり、
教師データが入力された場合、前記プロセサが、複数の教師データの各々について、
前記複数の圧縮経路の各々について、当該教師データと、当該教師データを当該圧縮経路により圧縮することで取得されたエンコード教師データの伸張後のデータであるデコード教師データを取得し、
当該複数の教師データと、複数のデコード教師データの各々との誤差を算出し、
前記複数のデコード教師データの各々について算出された誤差と、前記複数の圧縮経路の各々の圧縮演算規模とを基に、圧縮経路の選択を学習する、
ストレージシステム。 - 前記複数の教師データの各々について、算出された複数の誤差が、圧縮演算規模が相対的に小さい圧縮経路について閾値以下の誤差である該当誤差を含んでいる場合、前記プロセサは、当該教師データの特徴に該当する特徴を持ったデータについては最小の該当誤差に対応した圧縮経路を選択することを学習する、
請求項1に記載のストレージシステム。 - 前記複数の圧縮経路の各々は、それぞれ順次畳み込み演算を行う1つ以上の畳み込み層で構成された畳み込みニューラルネットワークである、
請求項1に記載のストレージシステム。 - 前記プロセサは、ユーザインターフェースを提供し、
前記ユーザインターフェースは、下記のうちの少なくとも一つを受け付けるインターフェースであり、
少なくとも1つの圧縮演算規模について、当該圧縮演算規模の圧縮経路の数、及び、
少なくとも1つの圧縮演算規模の定義、
前記プロセサは、前記ユーザインターフェースを介して入力された値に基づき前記複数の圧縮経路を構築する、
請求項1に記載のストレージシステム。 - 記憶装置と前記記憶装置に接続されたプロセサとを備えるストレージシステムであって、
前記プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを前記記憶装置に格納し、
前記プロセサが、前記複数のデータの各々について、複数の入力チャネルのうちマスク対象の入力チャネル以外の入力チャネルと、所定のカーネル量のカーネルとを用いた畳み込み演算を行うようになっており、
前記複数のデータの各々について、圧縮演算規模の決定は、畳み込み層の複数の入力チャネルのうちのマスク対象の入力チャネルと、当該畳み込み層において使用されるカーネルのカーネル量とのうちの少なくとも一つを決定することであり、
前記圧縮演算は、非可逆の圧縮演算であり、
前記複数のデータの各々について、前記プロセサが、ニューラルネットワークを実行することで、前記複数の入力チャネルのうちのマスク対象の入力チャネルと前記カーネル量とを表す複数の出力値を当該データの特徴に基づき出力し、
教師データが入力された場合、前記プロセサが、複数の教師データの各々について、カーネル量と、マスク対象チャネル数と、誤差とを基に、前記ニューラルネットワークを学習する、
ストレージシステム。 - 前記複数の教師データの各々について、前記ニューラルネットワークの学習は、最小化目標値=第1係数・カーネル量+第2の係数・(-1・マスク対象チャネル数)+誤差における前記最小化目標値が最小となる学習である、
請求項5に記載のストレージシステム。 - 記憶装置と前記記憶装置に接続されたプロセサとを備えるストレージシステムであって、
前記プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを前記記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、前記エンコードデータから取得される複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換し、
前記プロセサが、前記複数のエンコードデータについて作成された複数のデコードデータを基に、前記データのデコードデータを作成し、
前記複数のエンコードデータの各々について、
伸張演算規模の決定は、伸張演算規模が異なりそれぞれが伸張演算を行う複数の伸張経路から、伸張経路を選択することであり、
当該選択された伸張経路が、当該エンコードデータをデコードデータに変換する、
ストレージシステム。 - 前記圧縮演算は、非可逆の圧縮演算であり、
教師データが入力された場合、前記プロセサが、複数の教師データの各々について、
前記複数の圧縮経路の各々について、当該教師データと、当該教師データを当該圧縮経路により圧縮することで取得されたエンコード教師データを前記複数の伸張経路に伸張させることで複数のデコード教師データを取得し、
当該教師データと、当該教師データについて取得された前記複数のデコード教師データの各々との誤差を算出し、
前記複数のデコード教師データの各々について算出された誤差と、複数の経路組合せの圧縮演算規模及び伸張演算規模とを基に、経路組合せの選択を学習し、
前記複数の経路組合せの各々は、いずれかの圧縮経路といずれかの伸張経路との組合せである、
請求項7に記載のストレージシステム。 - 記憶装置と前記記憶装置に接続されたプロセサとを備えるストレージシステムであって、
前記プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを前記記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換し、
前記プロセサが、前記複数のエンコードデータについて作成された複数のデコードデータを基に、前記データのデコードデータを作成し、
前記プロセサが、前記複数のエンコードデータの各々について、複数の入力チャネルのうちマスク対象の入力チャネル以外の入力チャネルと、所定のカーネル量のカーネルとを用いた逆畳み込み演算を行うようになっており、
前記複数のエンコードデータの各々について、伸張演算規模の決定は、逆畳み込み層の複数の入力チャネルのうちのマスク対象の入力チャネルと、当該逆畳み込み層において使用されるカーネルのカーネル量とのうちの少なくとも一つを決定することである、
ストレージシステム。 - 記憶装置と前記記憶装置に接続されたプロセサとを備えるストレージシステムであって、
前記プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを前記記憶装置に格納し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、前記エンコードデータから取得される複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換する、
ストレージシステム。 - プロセサが、
複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記複数のデータについて作成された複数のエンコードデータを基に、前記データのエンコードデータを作成し、
前記エンコードデータ又はそれの圧縮データを記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記圧縮演算は、非可逆の圧縮演算であり、
教師データが入力された場合、前記プロセサが、複数の教師データの各々について、
前記複数の圧縮経路の各々について、当該教師データと、当該教師データを当該圧縮経路により圧縮することで取得されたエンコード教師データの伸張後のデータであるデコード教師データを取得し、
当該複数の教師データと、複数のデコード教師データの各々との誤差を算出し、
前記複数のデコード教師データの各々について算出された誤差と、前記複数の圧縮経路の各々の圧縮演算規模とを基に、圧縮経路の選択を学習する、
記憶制御方法。 - プロセサが、
複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記複数のデータについて作成された複数のエンコードデータを基に、前記データのエンコードデータを作成し、
前記エンコードデータ又はそれの圧縮データを記憶装置に格納し、
前記プロセサが、前記複数のデータの各々について、複数の入力チャネルのうちマスク対象の入力チャネル以外の入力チャネルと、所定のカーネル量のカーネルとを用いた畳み込み演算を行うようになっており、
前記複数のデータの各々について、圧縮演算規模の決定は、畳み込み層の複数の入力チャネルのうちのマスク対象の入力チャネルと、当該畳み込み層において使用されるカーネルのカーネル量とのうちの少なくとも一つを決定することであり、
前記圧縮演算は、非可逆の圧縮演算であり、
前記複数のデータの各々について、前記プロセサが、ニューラルネットワークを実行することで、前記複数の入力チャネルのうちのマスク対象の入力チャネルと前記カーネル量とを表す複数の出力値を当該データの特徴に基づき出力し、
教師データが入力された場合、前記プロセサが、複数の教師データの各々について、カーネル量と、マスク対象チャネル数と、誤差とを基に、前記ニューラルネットワークを学習する、
記憶制御方法。 - プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、前記エンコードデータから取得される複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換し、
前記プロセサが、前記複数のエンコードデータについて作成された複数のデコードデータを基に、前記データのデコードデータを作成し、
前記複数のエンコードデータの各々について、
伸張演算規模の決定は、伸張演算規模が異なりそれぞれが伸張演算を行う複数の伸張経路から、伸張経路を選択することであり、
当該選択された伸張経路が、当該エンコードデータをデコードデータに変換する、
記憶制御方法。 - プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを記憶装置に格納し、
前記複数のデータの各々について、
圧縮演算規模の決定は、圧縮演算規模が異なりそれぞれが圧縮演算を行う複数の圧縮経路から、圧縮経路を選択することであり、
当該選択された圧縮経路が、当該データをエンコードデータに変換し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換し、
前記プロセサが、前記複数のエンコードデータについて作成された複数のデコードデータを基に、前記データのデコードデータを作成し、
前記プロセサが、前記複数のエンコードデータの各々について、複数の入力チャネルのうちマスク対象の入力チャネル以外の入力チャネルと、所定のカーネル量のカーネルとを用いた逆畳み込み演算を行うようになっており、
前記複数のエンコードデータの各々について、伸張演算規模の決定は、逆畳み込み層の複数の入力チャネルのうちのマスク対象の入力チャネルと、当該逆畳み込み層において使用されるカーネルのカーネル量とのうちの少なくとも一つを決定することである、
ストレージシステム。 - プロセサが、複数のデータの各々について、
当該データの特徴を基に、当該データの圧縮演算規模を決定し、
決定された圧縮演算規模に従う圧縮演算を行うことで、当該データをエンコードデータに変換し、
前記エンコードデータ又はそれの圧縮データを記憶装置に格納し、
前記プロセサが、前記記憶装置からエンコードデータを取得し、又は、前記記憶装置から取得した圧縮データをエンコードデータに伸張し、
前記プロセサが、前記エンコードデータから取得される複数のエンコードデータの各々について、
当該エンコードデータの特徴を基に、当該エンコードデータの伸張演算規模を決定し、
決定された伸張演算規模に従う伸張演算を行うことで、当該エンコードデータをデコードデータに変換する、
記憶制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019217442A JP7355622B2 (ja) | 2019-11-29 | 2019-11-29 | エンコーダを有するストレージシステム |
US17/105,059 US11934353B2 (en) | 2019-11-29 | 2020-11-25 | Storage system including encoder |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019217442A JP7355622B2 (ja) | 2019-11-29 | 2019-11-29 | エンコーダを有するストレージシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021087198A JP2021087198A (ja) | 2021-06-03 |
JP2021087198A5 JP2021087198A5 (ja) | 2022-07-26 |
JP7355622B2 true JP7355622B2 (ja) | 2023-10-03 |
Family
ID=76088604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019217442A Active JP7355622B2 (ja) | 2019-11-29 | 2019-11-29 | エンコーダを有するストレージシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11934353B2 (ja) |
JP (1) | JP7355622B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018189613A1 (ja) | 2017-04-11 | 2018-10-18 | 株式会社半導体エネルギー研究所 | 半導体装置、撮像装置及び表示システム |
US20190251418A1 (en) | 2018-02-09 | 2019-08-15 | Preferred Networks, Inc. | Autoencoder, data processing system, data processing method and non-transitory computer readable medium |
JP2019160303A (ja) | 2018-03-09 | 2019-09-19 | 株式会社リコー | ライトフィールドカメラによりキャプチャされる対象物の分類のための深層学習アーキテクチャ |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2646575A1 (fr) * | 1989-04-26 | 1990-11-02 | Labo Electronique Physique | Procede et structure pour la compression de donnees |
JPH11313048A (ja) * | 1998-04-24 | 1999-11-09 | Kokusai Electric Co Ltd | マルチメディア通信方法及び通信装置 |
US6624761B2 (en) * | 1998-12-11 | 2003-09-23 | Realtime Data, Llc | Content independent data compression method and system |
JP4757038B2 (ja) | 2006-01-25 | 2011-08-24 | 株式会社日立製作所 | ストレージシステム及び記憶制御装置 |
US20070233477A1 (en) * | 2006-03-30 | 2007-10-04 | Infima Ltd. | Lossless Data Compression Using Adaptive Context Modeling |
WO2016186563A1 (en) * | 2015-05-21 | 2016-11-24 | Zeropoint Technologies Ab | Methods, devices and systems for hybrid data compression and decompression |
US10276134B2 (en) * | 2017-03-22 | 2019-04-30 | International Business Machines Corporation | Decision-based data compression by means of deep learning technologies |
US10886943B2 (en) * | 2019-03-18 | 2021-01-05 | Samsung Electronics Co., Ltd | Method and apparatus for variable rate compression with a conditional autoencoder |
CN111818346B (zh) * | 2019-04-11 | 2023-04-18 | 富士通株式会社 | 图像编码方法和装置、图像解码方法和装置 |
US20230237770A1 (en) * | 2020-06-05 | 2023-07-27 | Nec Corporation | Information processing apparatus, information processing method, and computer readable medium |
-
2019
- 2019-11-29 JP JP2019217442A patent/JP7355622B2/ja active Active
-
2020
- 2020-11-25 US US17/105,059 patent/US11934353B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018189613A1 (ja) | 2017-04-11 | 2018-10-18 | 株式会社半導体エネルギー研究所 | 半導体装置、撮像装置及び表示システム |
US20190251418A1 (en) | 2018-02-09 | 2019-08-15 | Preferred Networks, Inc. | Autoencoder, data processing system, data processing method and non-transitory computer readable medium |
JP2019160303A (ja) | 2018-03-09 | 2019-09-19 | 株式会社リコー | ライトフィールドカメラによりキャプチャされる対象物の分類のための深層学習アーキテクチャ |
Non-Patent Citations (1)
Title |
---|
福島 悠太 他,センサネットワークにおける分散型深層学習の設計と評価,情報処理学会論文誌 [online] ,日本,情報処理学会,2019年01月15日,Vol.60, No.1 ,pp.2-15 |
Also Published As
Publication number | Publication date |
---|---|
US11934353B2 (en) | 2024-03-19 |
JP2021087198A (ja) | 2021-06-03 |
US20210165764A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11184625B2 (en) | Method and system for optimized delta encoding | |
Johnston et al. | Computationally efficient neural image compression | |
US11221990B2 (en) | Ultra-high compression of images based on deep learning | |
KR20210074360A (ko) | 이미지 처리 방법, 디바이스 및 장치, 그리고 저장 매체 | |
CN107665364A (zh) | 神经网络方法和设备 | |
WO2021129445A1 (zh) | 数据压缩方法及计算设备 | |
CN113239981B (zh) | 局部特征耦合全局表征的图像分类方法 | |
US9123091B2 (en) | Basis vector spectral image compression | |
WO2021012162A1 (zh) | 存储系统数据压缩的方法、装置、设备及可读存储介质 | |
WO2022022176A1 (zh) | 一种图像处理方法以及相关设备 | |
JP7355622B2 (ja) | エンコーダを有するストレージシステム | |
CN112771546A (zh) | 运算加速器和压缩方法 | |
KR20210053791A (ko) | 뉴럴 네트워크의 데이터를 처리하는 방법 및 장치 | |
JP7233875B2 (ja) | 作成方法、コンピュータ及びプログラム | |
JP2021087198A5 (ja) | ||
EP4064133A2 (en) | Method for optimising a machine learning model for image processing | |
GB2571818A (en) | Selecting encoding options | |
TW202236216A (zh) | 基於點雲屬性預測的解碼方法、編碼方法、解碼器及編碼器、電子設備以及電腦可讀存儲介質 | |
JP2022187683A (ja) | データ圧縮伸長システム、及びその方法 | |
AU2021106056A4 (en) | The system and apparatus for image resolution by using deep learning technique. | |
WO2023025135A1 (zh) | 点云属性编码方法、装置、解码方法以及装置 | |
US10075716B2 (en) | Parallel encoding of weight refinement in ASTC image processing encoders | |
KR102420763B1 (ko) | 뉴럴 네트워크 시스템 및 뉴럴 네트워크의 필터 데이터의 처리 방법 | |
US20240013030A1 (en) | Autoencoder training system and method | |
US20220269652A1 (en) | Computation apparatus and compression method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7355622 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |