JP7235836B2 - クラスタ接続ニューラルネットワーク - Google Patents
クラスタ接続ニューラルネットワーク Download PDFInfo
- Publication number
- JP7235836B2 JP7235836B2 JP2021181497A JP2021181497A JP7235836B2 JP 7235836 B2 JP7235836 B2 JP 7235836B2 JP 2021181497 A JP2021181497 A JP 2021181497A JP 2021181497 A JP2021181497 A JP 2021181497A JP 7235836 B2 JP7235836 B2 JP 7235836B2
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- neural network
- weights
- inter
- filters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
- Complex Calculations (AREA)
Description
・ ニューラルネットワークでのスパース性を大幅に向上できる。クラスタ間重みはネットワーク重みの大部分を占め、そのほとんどは遠距離に及びため、局所的なクラスタ内重みほど重要視されない可能性がある。上記の例では、1,000個のニューロンの2つの層をそれぞれ10個の列クラスタに分割すると、重みの数が90%減少し、完全接続設計の100万個の重み(1,000×1,000)から、列接続設計の10万個(100×100×10)になる。残りのいくつかのクラスタ間重みは、疎であり、重みの数の増加はわずかである。
・訓練中にプルーニングすることにより、プルーニングによって引き起こされる差を残りの重みが相殺できるため、プルーニング前(完全接続されたネットワークなど)とプルーニング後(クラスタ接続ネットワークなど)で実質的に同じ予測精度が得られる。
・予測モードと訓練モードの両方で、ニューラルネットワークに誘導されるスパース性の量に正比例する線形スピードアップが得られる。例えば、50%の疎なクラスタ接続ニューラルネットワーク(50%未満又はその重みの半数未満を保持)は、予測と訓練とが2倍(又は200%)高速になる。上記の例では、90%の疎なクラスタ接続ニューラルネットワーク(重みの10%を保持)により、予測と訓練とが10倍(又は1000%)高速になる。一般に、ニューラルネットワークのスパース性が高いほど、予測と訓練との時間が高速になる。
・クラスタベースのインデックス作成により、メモリ使用量をほぼ直線的に削減できる。局所的に密なクラスタは、高速な行列乗算のために、各クラスタ固有の行列に関連付けられたクラスタインデックスによってクラスタ内重みを表すことができる。しかしながら、グローバルに疎なクラスタ間重みの大部分は、非ゼロクラスタ間重みごとに個別にインデックス付けできるため、ゼロのクラスタ間重みを格納する必要がない。ゼロのクラスタ間重みの大部分を排除する一方で、各非ゼロクラスタ間重みの独立したインデックス付け(例えば、値だけでなくインデックスも格納)のために追加の(例えば、2倍の)メモリを使用すると、90%の割合でプルーニングされたクラスタ間重みを格納するためのメモリ消費が2/10、すなわち、5分の1に削減すること(80%減)になる。
・ いかなるハードウェアでも直線的なスピードアップが得られる。例えば、90%が疎なクラスタ接続ニューラルネットワークは、計算デバイスに関係なく、例えば、低速CPUで動作しているか、高速専用GPUで動作しているかに関係なく、完全接続ニューラルネットワークと比較して10倍の速度が得られる。言い換えれば、本発明の実施形態は、(従来のニューラルネットワークを効率的に処理又は格納できない)CPU又はメモリ制限されたデバイス上でネットワークの深層学習を可能にする効率の改善を提供することができるが、同じ実施形態は、高速ハードウェアによって実装されて数桁のスピードアップ及びストレージ削減をもたらすことができる(これは、最速の専用ハードウェアであっても深層学習を用いることは実行不可能なリアルタイムナビゲーションなどの分野で、重要である)。
・ この方法は、ニューラルネットワークのタイプにとらわれず、例えば、完全接続された、部分接続された、畳み込み、回帰型などを含むが、これらに限定されない任意のニューラルネットワークアーキテクチャに適用でき、ネットワークの精度に悪影響を与えることなく、スパース性を著しく向上する。
(wij<閾値)の場合 → wij=0
閾値は、訓練中にエラー訂正(バックプロパゲーションなど)を元に戻さないように十分に低くなるように、その一方で、適度に速い速度でプルーニングし、そのエラー訂正が値をゼロから引き離すことを防ぐために十分に高くなるように、バランスをとることができる。閾値の例には、0.1、0.001、0.0001、0.00001などが含まれるが、これらに限定されない。
Claims (26)
- クラスタ接続ニューラルネットワークを使用する訓練又は予測の方法であって、
入力層から出力層に延びる方向で且つ複数の中間層に直交する方向にニューラルネットワーク軸を有するニューラルネットワークを格納するステップであって、
前記ニューラルネットワークは複数のクラスターに分割され、各クラスタは、前記ニューラルネットワーク軸の方向に平行に延びる領域で前記入力層から前記出力層に向かって延びるニューロン活性化の優勢な方向を奨励し、異なる複数の人工ニューロン又は畳み込みチャネルを備え、ニューロン又はチャネルの各ペアは、重み又は畳み込みフィルタによって一意に接続される、ステップと、
前記クラスタ接続ニューラルネットワークの各クラスタの内側で、クラスタ内重み又はフィルタの局所的に密なサブネットワークを生成又は維持するステップであって、同じクラスタの内側のニューロン又はチャネルのペアの過半数がクラスタ内重み又はフィルタによって接続され、その結果、各クラスタの中のニューロン又はチャネルの接続されたペアの過半数が、前記クラスタ接続ニューラルネットワークを用いて訓練中又は予測中に活性化ブロックとして一緒に同時活性化される、ステップと、
前記クラスタ接続ニューラルネットワークの各クラスタの外側で、クラスタ間重み又はフィルタのグローバルに疎なネットワークを生成又は維持するステップであって、異なるクラスタ間でクラスタ境界によって分離されたニューロン又はチャネルのペアの半数未満をクラスタ間重み又はフィルタによって接続する、ステップと、
前記クラスタ接続ニューラルネットワークを使用して訓練又は予測するステップと、
を含む、方法。 - 前記クラスタ接続ニューラルネットワーク内のニューロン又はチャネルの活性化パターンを試験して、前記試験から得られたチャネルの活性化パターンに最もよく似ている最適クラスタ形状を決定するステップを含む、請求項1に記載の方法。
- 訓練中に活性化パターンが変化すると、前記最適クラスタ形状を動的に調整するステップを含む、請求項2に記載の方法。
- 前記複数のクラスタのうちの1つ又は複数の前記クラスタ境界が、列、行、円、多角形、不規則形状、長方形プリズム、円筒、多面体、及び他の二次元、三次元、又はN次元の形状からなる群から選択される形状を有する、請求項1に記載の方法。
- 互いに接続されていない複数のクラスタでニューラルネットワークを初期化し、クラスタ間重み又はフィルタを追加することによって、前記クラスタ接続ニューラルネットワークを訓練するステップを含む、請求項1に記載の方法。
- 完全接続されたニューラルネットワークを初期化し、前記クラスタ間重み又はフィルタの過半数をプルーニングすることによって、前記クラスタ接続ニューラルネットワークを訓練するステップを含む、請求項1に記載の方法。
- 前記プルーニングするステップは、L1正則化、Lp正則化、閾値処理、ランダムゼロ化、及びバイアスベースのプルーニングからなる群から選択される1つ又は複数の技法を使用して実行される、請求項6に記載の方法。
- 進化的アルゴリズム又は強化学習を使用して、前記クラスタ接続ニューラルネットワークを訓練するステップを含む、請求項1に記載の方法。
- 各クラスタの中の前記ニューロン又はチャネルは、完全接続又は部分接続されている、請求項1に記載の方法。
- 前記クラスタ接続ニューラルネットワークは、クラスタ接続領域と非クラスタ接続領域とのハイブリッドである、請求項1に記載の方法。
- 前記クラスタ接続ニューラルネットワークの各チャネルにクラスタ内重み又はフィルタを、一意のクラスタインデックスに関連付けて格納するステップと、前記クラスタの中の前記クラスタ内重みをその行列位置によって表されるクラスタ固有の行列を使用するステップと、を含む、請求項1に記載の方法。
- 前記クラスタ接続ニューラルネットワークの前記複数のクラスタ間重み又はフィルタのそれぞれを、一意のインデックスに関連付けて格納するステップであって、前記一意のインデックスは、前記クラスタ間重み又はフィルタによって表される接続を有する人工ニューロン又はチャネルのペアを一意に識別する、ステップを含み、異なるクラスタの中のニューロン又はチャネルのペア間の接続を表す非ゼロのクラスタ間重み又はフィルタのみを格納し、ニューロン又はチャネルのペア間の接続なしを表すゼロのクラスタ間重み又はフィルタは格納しない、請求項1に記載の方法。
- 各クラスタ間重み又はフィルタを識別する値のトリプレットを格納するステップを含み、前記トリプレットは、
第一のクラスタの中のニューロン又はチャネルのペアの第一のニューロン又はチャネルを識別する一意のインデックスの第一の値と、
第二の異なるクラスタの中のニューロン又はチャネルのペアの第二のニューロン又はチャネルを識別する一意のインデックスの第二の値と、
クラスタ間重み又はフィルタの値と、
を含む、請求項12に記載の方法。 - 前記クラスタ接続ニューラルネットワークの非ゼロのクラスタ間重み又はフィルタの疎な分布に関連付けられたインデックスの非シーケンシャルパターンに従って、メインメモリから、前記メインメモリの非シーケンシャル位置に格納されているクラスタ間重み又はフィルタをフェッチするステップと、
前記メインメモリ内の非シーケンシャル位置からキャッシュメモリ内のシーケンシャル位置にフェッチされた前記クラスタ間重み又はフィルタを格納するステップと、
を含む、請求項12に記載の方法。 - 前記クラスタ接続ニューラルネットワークの前記クラスタ間重み又はフィルタの値は、圧縮疎行(CSR)表現、圧縮疎列(CSC)表現、疎テンソル表現、マップ表現、リスト表現、及び/又は疎ベクトル表現からなる群から選択される1つ又は複数のデータ表現を使用して、前記クラスタ接続ニューラルネットワークの前記クラスタ間重み又はフィルタの値を格納するステップを含む請求項12に記載の方法。
- クラスタ接続ニューラルネットワークを使用する訓練又は予測のためのシステムであって、
入力層から出力層に延びる方向で且つ複数の中間層に直交する方向にニューラルネットワーク軸を有するニューラルネットワークであって、複数のクラスタに分割されたニューラルネットワークを格納するように構成された1つ又は複数のメモリであって、各クラスタは、前記ニューラルネットワーク軸の方向に平行に延びる領域で前記入力層から前記出力層に向かって延びるニューロン活性化の優勢な方向を奨励し、異なる複数の人工ニューロン又は畳み込みチャネルを備え、ニューロン又はチャネルの各ペアは、重み又は畳み込みフィルタによって一意に接続される、1つ又は複数のメモリと、
1つ又は複数のプロセッサであって、
前記クラスタ接続ニューラルネットワークの各クラスタの内側で、クラスタ内重み又はフィルタの局所的に密なサブネットワークを生成又は維持するステップであって、同じクラスタの内側のニューロン又はチャネルのペアの過半数がクラスタ内重み又はフィルタによって接続され、その結果、各クラスタの中のニューロン又はチャネルの接続された前記ペアの過半数が、前記クラスタ接続ニューラルネットワークを用いて訓練中又は予測中に活性化ブロックとして一緒に同時活性化される、ステップと、
前記クラスタ接続ニューラルネットワークの各クラスタの外側で、クラスタ間重み又はフィルタのグローバルに疎なネットワークを生成又は維持するステップであって、異なるクラスタ間でクラスタ境界によって分離されたニューロン又はチャネルのペアの半数未満をクラスタ間重み又はフィルタによって接続する、ステップと、
前記クラスタ接続ニューラルネットワークを使用して訓練又は予測するステップと、
を行うように構成される、1つ又は複数のプロセッサと、
を含む、システム。 - 前記1つ又は複数のプロセッサは、前記クラスタ接続ニューラルネットワーク内のニューロン又はチャネルの活性化パターンを試験して、前記試験から得られたチャネルの活性化パターンに最も近い最適クラスタ形状を決定するように構成される、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、訓練中に活性化パターンが変化すると、前記最適クラスタ形状を動的に調整するように構成される、請求項17に記載のシステム。
- 前記複数のクラスタのうちの1つ又は複数の前記クラスタ境界が、列、行、円、多角形、不規則形状、長方形プリズム、円筒、多面体、及び他の二次元、三次元、又はN次元の形状からなる群から選択される形状を有する、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、互いに接続されていない複数のクラスタでニューラルネットワークを初期化し、クラスタ間重み又はフィルタを追加することによって、前記クラスタ接続ニューラルネットワークを訓練するように構成される、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、完全接続されたニューラルネットワークを初期化し、前記クラスタ間重み又はフィルタの過半数をプルーニングすることによって、前記クラスタ接続ニューラルネットワークを訓練するように構成される、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記クラスタ接続ニューラルネットワークの各チャネルにクラスタ内重み又はフィルタを、一意のクラスタインデックスに関連付けて格納して、前記クラスタの中の前記クラスタ内重みをその行列位置によって表現するクラスタ固有の行列を使用するように構成される、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記クラスタ接続ニューラルネットワークの前記複数のクラスタ間重み又はフィルタのそれぞれを、一意のインデックスに関連付けて格納するように構成され、前記一意のインデックスは、前記クラスタ間重み又はフィルタによって表される接続を有する人工ニューロン又はチャネルのペアを一意に識別し、異なるクラスタの中のニューロン又はチャネルのペア間の接続を表す非ゼロのクラスタ間重み又はフィルタのみは格納し、ニューロン又はチャネルのペア間の接続なしを表すゼロのクラスタ間重み又はフィルタは格納しない、請求項16に記載のシステム。
- 前記1つ又は複数のプロセッサは、
第一のクラスタの中のニューロン又はチャネルのペアの第一のニューロン又はチャネルを識別する一意のインデックスの第一の値と、
第二の異なるクラスタの中のニューロン又はチャネルのペアの第二のニューロン又はチャネルを識別する一意のインデックスの第二の値と、
前記クラスタ間重み又はフィルタの値と、
を含む、各クラスタ間重み又はフィルタを識別する値のトリプレットを格納するように構成される、請求項16に記載のシステム。 - 前記1つ又は複数のプロセッサは、
前記クラスタ接続ニューラルネットワークの非ゼロのクラスタ間重み又はフィルタの疎な分布に関連付けられたインデックスの非シーケンシャルパターンに従って、メインメモリから、前記メインメモリの非シーケンシャル位置に格納されているクラスタ間重み又はフィルタをフェッチするステップと、
前記メインメモリ内の非シーケンシャル位置からキャッシュメモリ内のシーケンシャル位置にフェッチされた前記クラスタ間重み又はフィルタを格納するステップと、
を行なうように構成される、請求項16に記載のシステム。 - 前記1つ又は複数のプロセッサは、前記クラスタ接続ニューラルネットワークの前記クラスタ間重み又はフィルタの値は、圧縮疎行(CSR)表現、圧縮疎列(CSC)表現、疎テンソル表現、マップ表現、リスト表現、及び/又は疎ベクトル表現からなる群から選択される1つ又は複数のデータ表現を使用して、前記クラスタ接続ニューラルネットワークの前記クラスタ間重み又はフィルタの値を格納するように構成される、請求項16に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/095,154 | 2020-11-11 | ||
US17/095,154 US11164084B1 (en) | 2020-11-11 | 2020-11-11 | Cluster-connected neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022077510A JP2022077510A (ja) | 2022-05-23 |
JP7235836B2 true JP7235836B2 (ja) | 2023-03-08 |
Family
ID=78372536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021181497A Active JP7235836B2 (ja) | 2020-11-11 | 2021-11-05 | クラスタ接続ニューラルネットワーク |
Country Status (8)
Country | Link |
---|---|
US (2) | US11164084B1 (ja) |
EP (1) | EP4009243A1 (ja) |
JP (1) | JP7235836B2 (ja) |
KR (1) | KR102505059B1 (ja) |
CN (1) | CN114548359B (ja) |
CA (1) | CA3139915C (ja) |
IL (1) | IL288021B2 (ja) |
TW (1) | TWI831076B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230153625A1 (en) * | 2021-11-17 | 2023-05-18 | Samsung Electronics Co., Ltd. | System and method for torque-based structured pruning for deep neural networks |
US20240048152A1 (en) * | 2022-08-03 | 2024-02-08 | Arm Limited | Weight processing for a neural network |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006163808A (ja) | 2004-12-07 | 2006-06-22 | Fuji Electric Holdings Co Ltd | ニューラルネットワークの構造 |
JP2011054200A (ja) | 2010-11-11 | 2011-03-17 | Fuji Electric Systems Co Ltd | ニューラルネットワークの学習方法 |
US20190188567A1 (en) | 2016-09-30 | 2019-06-20 | Intel Corporation | Dynamic neural network surgery |
US20190205759A1 (en) | 2017-12-29 | 2019-07-04 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for compressing neural network |
JP2019159997A (ja) | 2018-03-15 | 2019-09-19 | 富士通株式会社 | 最適化装置及び最適化装置の制御方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6421467B1 (en) * | 1999-05-28 | 2002-07-16 | Texas Tech University | Adaptive vector quantization/quantizer |
DE102004053301B4 (de) * | 2004-11-04 | 2014-01-23 | Siemens Aktiengesellschaft | Verfahren zum Betreiben eines Magnetschwebefahrzeugs mit einer Schaltungsvorrichtung zur Erhöhung der nutzbaren Motorspannung bei einem Langstatorantrieb |
US9202178B2 (en) * | 2014-03-11 | 2015-12-01 | Sas Institute Inc. | Computerized cluster analysis framework for decorrelated cluster identification in datasets |
WO2017007990A1 (en) * | 2015-07-08 | 2017-01-12 | Convida Wireless, Llc | M2m clustering management |
KR102399548B1 (ko) * | 2016-07-13 | 2022-05-19 | 삼성전자주식회사 | 뉴럴 네트워크를 위한 방법 및 그 방법을 수행하는 장치 |
KR101887267B1 (ko) * | 2016-08-24 | 2018-08-09 | 한국과학기술원 | 부분구조 학습기법과 영상데이터를 이용한 신경망 학습 방법 및 장치 |
US11353868B2 (en) * | 2017-04-24 | 2022-06-07 | Intel Corporation | Barriers and synchronization for machine learning at autonomous machines |
US10339450B2 (en) | 2017-09-08 | 2019-07-02 | DeepCube LTD. | System and method for efficient evolution of deep convolutional neural networks using filter-wise recombination and propagated mutations |
US10366322B2 (en) * | 2017-10-06 | 2019-07-30 | DeepCube LTD. | System and method for compact and efficient sparse neural networks |
EP3507783B1 (en) * | 2017-11-23 | 2021-11-10 | Beijing Didi Infinity Technology and Development Co., Ltd. | System and method for estimating arrival time |
WO2019167042A1 (en) * | 2018-02-27 | 2019-09-06 | Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. | Systems and methods for using and training a neural network |
WO2019173315A1 (en) * | 2018-03-05 | 2019-09-12 | Mobileye Vision Technologies Ltd. | Systems and methods for anonymizing navigation information |
US11907854B2 (en) | 2018-06-01 | 2024-02-20 | Nano Dimension Technologies, Ltd. | System and method for mimicking a neural network without access to the original training dataset or the target model |
US11100923B2 (en) * | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10878321B2 (en) | 2019-02-28 | 2020-12-29 | DeepCube LTD. | Partial activation of multiple pathways in neural networks |
-
2020
- 2020-11-11 US US17/095,154 patent/US11164084B1/en active Active
-
2021
- 2021-10-28 EP EP21205305.2A patent/EP4009243A1/en active Pending
- 2021-10-28 US US17/513,189 patent/US20220147828A1/en active Pending
- 2021-11-05 JP JP2021181497A patent/JP7235836B2/ja active Active
- 2021-11-09 TW TW110141640A patent/TWI831076B/zh active
- 2021-11-10 CN CN202111329910.0A patent/CN114548359B/zh active Active
- 2021-11-11 IL IL288021A patent/IL288021B2/en unknown
- 2021-11-11 KR KR1020210154639A patent/KR102505059B1/ko active IP Right Grant
- 2021-11-23 CA CA3139915A patent/CA3139915C/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006163808A (ja) | 2004-12-07 | 2006-06-22 | Fuji Electric Holdings Co Ltd | ニューラルネットワークの構造 |
JP2011054200A (ja) | 2010-11-11 | 2011-03-17 | Fuji Electric Systems Co Ltd | ニューラルネットワークの学習方法 |
US20190188567A1 (en) | 2016-09-30 | 2019-06-20 | Intel Corporation | Dynamic neural network surgery |
US20190205759A1 (en) | 2017-12-29 | 2019-07-04 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for compressing neural network |
JP2019159997A (ja) | 2018-03-15 | 2019-09-19 | 富士通株式会社 | 最適化装置及び最適化装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114548359B (zh) | 2024-01-23 |
KR102505059B1 (ko) | 2023-02-28 |
JP2022077510A (ja) | 2022-05-23 |
TWI831076B (zh) | 2024-02-01 |
CN114548359A (zh) | 2022-05-27 |
CA3139915C (en) | 2022-09-27 |
TW202234295A (zh) | 2022-09-01 |
KR20220064336A (ko) | 2022-05-18 |
US11164084B1 (en) | 2021-11-02 |
CA3139915A1 (en) | 2022-03-30 |
IL288021B1 (en) | 2023-03-01 |
IL288021B2 (en) | 2023-07-01 |
IL288021A (en) | 2022-06-01 |
US20220147828A1 (en) | 2022-05-12 |
EP4009243A1 (en) | 2022-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111247537B (zh) | 有效存储稀疏神经网络和稀疏卷积神经网络的方法及系统 | |
Swaminathan et al. | Sparse low rank factorization for deep neural network compression | |
Sze et al. | Efficient processing of deep neural networks: A tutorial and survey | |
Lopes et al. | Towards adaptive learning with improved convergence of deep belief networks on graphics processing units | |
JP7235836B2 (ja) | クラスタ接続ニューラルネットワーク | |
Chen et al. | Extreme learning machine and its applications in big data processing | |
CN115485695A (zh) | 用于分层权重稀疏卷积处理的方法和系统 | |
US11763150B2 (en) | Method and system for balanced-weight sparse convolution processing | |
CN114742210A (zh) | 混合神经网络训练方法、交通流预测方法、设备和介质 | |
CN116384471A (zh) | 模型剪枝方法、装置、计算机设备、存储介质和程序产品 | |
WO2023273934A1 (zh) | 一种模型超参数的选择方法及相关装置 | |
WO2022095984A1 (en) | Method and system for convolution with workload-balanced activation sparsity | |
EP3679511A1 (en) | System and method for efficient evolution of deep convolutional neural networks using filter-wise recombination and propagated mutations | |
Bhalgaonkar et al. | Model compression of deep neural network architectures for visual pattern recognition: Current status and future directions | |
Crowley et al. | Substituting convolutions for neural network compression | |
Dong et al. | An optimization method for pruning rates of each layer in CNN based on the GA-SMSM | |
KR20200141663A (ko) | 컨볼루션 신경망 모델에 기초한 컴퓨팅 장치 및 그 동작 방법 | |
Wikén | An Investigation of Low-Rank Decomposition for Increasing Inference Speed in Deep Neural Networks With Limited Training Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7235836 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |