JP6724869B2 - 多層ニューラルネットワークのニューロンの出力レベル調整方法 - Google Patents
多層ニューラルネットワークのニューロンの出力レベル調整方法 Download PDFInfo
- Publication number
- JP6724869B2 JP6724869B2 JP2017119685A JP2017119685A JP6724869B2 JP 6724869 B2 JP6724869 B2 JP 6724869B2 JP 2017119685 A JP2017119685 A JP 2017119685A JP 2017119685 A JP2017119685 A JP 2017119685A JP 6724869 B2 JP6724869 B2 JP 6724869B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- neuron
- layer
- neural network
- memristor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000002569 neuron Anatomy 0.000 title claims description 83
- 238000013528 artificial neural network Methods 0.000 title claims description 47
- 238000000034 method Methods 0.000 title claims description 38
- 238000012545 processing Methods 0.000 claims description 71
- 230000006870 function Effects 0.000 claims description 59
- 230000004913 activation Effects 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 2
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 2
- 230000008054 signal transmission Effects 0.000 claims description 2
- 210000000225 synapse Anatomy 0.000 claims description 2
- 210000004205 output neuron Anatomy 0.000 description 72
- 238000013527 convolutional neural network Methods 0.000 description 28
- 238000011176 pooling Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 210000002364 input neuron Anatomy 0.000 description 6
- 229920006395 saturated elastomer Polymers 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000007120 differential activation Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229910021650 platinized titanium dioxide Inorganic materials 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/54—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/21—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
- G11C11/34—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices
- G11C11/40—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Description
各階層のニューロンの出力値が、最も大きくなったときでも、メモリスタの書込閾値電圧未満であって、かつ活性化関数に応じた出力値の生成を実行するアナログ処理回路の、設定された最大出力レンジ内に収まるように、各階層のニューロンの出力レベルを調整する調整ステップ(S110〜S140、S200〜S240)を備える。
調整ステップは、
各階層のニューロンの出力値を検出する検出ステップ(S110)と、
検出ステップによって検出された各階層のニューロンの出力値に基づいて決定される各階層のニューロンの出力最大値と、活性化関数に応じた出力値の生成を実行するアナログ処理回路の最大出力レンジとに基づいて、各階層毎に、スケーリングファクターを算出する算出ステップ(S120、S130)と、
アナログ処理回路の最大出力レンジは、各階層のニューロンの出力値がメモリスタの書込閾値電圧よりも小さくなるように設定され、
算出ステップで算出された各階層毎のスケーリングファクターによって、それぞれ、対応するメモリスタのコンダクタンスを修正する修正ステップ(S140)と、を含み、
修正ステップによって修正されたコンダクタンスが、実際に前記メモリスタに設定されるようにすることができる。
アナログ処理回路は、演算増幅器と、当該演算増幅器の出力と反転入力端子とを接続し、演算増幅器による増幅度を決定するフィードバック抵抗(R)と、を含み、フィードバック抵抗としてメモリスタが使用され、
調整ステップは、
各階層のニューロンの出力値を検出する検出ステップ(S210)と、
検出ステップによって検出された各階層のニューロンの出力値が、メモリスタの書込閾値電圧に基づいて定められた所定のレンジ上限を超えているか否かを判定する判定ステップ(S220)と、
レンジ上限を超えた出力値を持つニューロンに対応するアナログ処理回路において、フィードバック抵抗としてのメモリスタの抵抗値を変更して、ニューロンの出力値をレンジ上限以下に低下させる変更ステップ(S230)と、を含むようにすることができる。
以下、本発明に係る多層ニューラルネットワークのニューロンの出力レベル調整方法の第1実施形態を図面を参照して説明する。なお、本実施形態では、多層ニューラルネットワークとしていわゆる畳み込みニューラルネットワーク(Convolution Neural Network)を採用し、入力データとしての画像を、複数のカテゴリに分類する用途に適用した例について説明する。ただし、本発明は、いわゆる入力層、中間層、及び出力層からなる通常の多層ニューラルネットワークに適用することも可能である。また、多層ニューラルネットワークの用途として、上述した入力画像の分類の他、画像以外のパターン認識、情報圧縮、運動制御、雑音除去、時系列予測などが挙げられる。
(数1)
出力ニューロンの出力電圧=RΣViGi
図3に示すように、出力バー51は、差動演算増幅器54の非反転入力端子に接続され、出力バー52は、差動演算増幅器54の反転入力端子に接続されている。差動演算増幅器54は、CMOS基板内のCMOS素子を用いて構成され得る。なお、図3においては、図5に示した加算器57は省略されている。さらに、図3では、上述した活性化関数としての処理を行う活性化関数処理回路も省略されている。実際には、加算器57は差動演算増幅器54の入力側において、出力バー51,52のそれぞれに設けられ、活性化関数処理回路は差動演算増幅器54の出力側に設けられる。このように、CMOS素子によって構成される集積回路には、加算器57、差動演算増幅器54、及び活性化関数処理回路などが含まれる。
(数2)
Scaling_factor_layer1=maximum neuron output_layer1/max_range
このように、第1コンボリューション層21に含まれる出力ニューロン56の最も大きな出力値に相当する値を第1層出力最大値とし、この第1層出力最大値を、活性化関数処理回路の最大出力レンジで除算して第1層スケーリングファクターを算出する。
(数3)
Scaling_factor_layer2
=(maximum neuron output_layer2/max_range)/Scaling_factor_layer1
このように、第2層スケーリングファクターは、第2コンボリューション層22に含まれる出力ニューロン56の最も大きな出力値に相当する第2出力最大値を、活性化関数処理回路の最大出力レンジで除算した結果を、第1層スケーリングファクターで除算して算出する。
(数4)
Scaling_factor_layerN
=(maximum neuron output_layerN/max_range)/(Scaling_factor_layer1*・・・
*Scaling_factor_layerN-1)
このように、第3〜第7コンボリューション層23〜27の上位階層のスケーリングファクターは、それよりも下位階層のスケーリングファクターを累積的に考慮した上で算出される。
(数5)
Wscaled_layerN=Woriginal_layerN/Scaling_factor_layerN
(数6)
W_Biasscaled_layerN=W_Biasoriginal_layerN/(Scaling_factor_layerN*Scaling_factor_layer (N-1)*・・・* Scaling_factor_layer2*Scaling_factor_layer1)
修正フィルタ重み及び修正バイアス入力重みに関する情報は、図示しないコンダクタンス設定装置に提供される。コンダクタンス設定装置は、各コンボリューション層21〜27のクロスバー回路44の入力バー50と出力バー51、52との間にメモリスタ53の書込閾値電圧以上の電圧を印加して、それぞれのメモリスタ53に修正したフィルタ重み及び修正バイアス入力重みに対応するコンダクタンスを設定する。
(数7)
第N層出力最大値=mean value of maximum neuron outputs_layerN+Mσ
標準偏差σの大きさは、単数又は複数の画像を畳み込みニューラルネットワーク20に入力したときの各出力ニューロン56の最大出力の分布から算出することができる。また、標準偏差σは、各層毎に算出されることが好ましい。標準偏差σに乗じる実数Mは、安全なマージンを確保するため、例えば3〜6の範囲で選択されることが好ましい。
(第2実施形態)
次に、本発明に係る多層ニューラルネットワークのニューロンの出力レベル調整方法の第2実施形態について説明する。
20 :多層ニューラルネットワーク(畳み込みニューラルネットワーク)
40 :マイクロコンピュータ
44 :クロスバー回路
50 :入力バー
51、52:出力バー
53 :メモリスタ
54 :差動演算増幅器
55 :入力ニューロン
56 :出力ニューロン
57 :加算器
Claims (12)
- 多層ニューラルネットワーク(20)の階層化されたニューロン(56)間での信号の伝達及び前記ニューロンでの信号処理をアナログ領域で行うべく、伝達される信号に対してシナプスとしての重みを付与する抵抗変化型メモリであるメモリスタ(53)と、前記ニューロンにおける信号処理として、それぞれ重みが付与された信号の加算、及び加算した信号から活性化関数に応じた出力値の生成を実行するアナログ処理回路(44)とを備えた多層ニューラルネットワークのニューロンの出力レベル調整方法であって、
各階層のニューロンの出力値が、最も大きくなったときでも、前記メモリスタの書込閾値電圧未満であって、かつ活性化関数に応じた出力値の生成を実行するアナログ処理回路の、設定された最大出力レンジ内に収まるように、各階層のニューロンの出力レベルを調整する調整ステップ(S110〜S140、S200〜S240)を備える多層ニューラルネットワークのニューロンの出力レベル調整方法。 - 前記活性化関数として、出力値に上限値が定められていない活性化関数が用いられる請求項1に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記調整ステップ(S110〜S140)は、コンピュータ上に構築された多層ニューラルネットワークに対して実行され、
前記調整ステップは、
前記各階層のニューロンの出力値を検出する検出ステップ(S110)と、
前記検出ステップによって検出された前記各階層のニューロンの出力値に基づいて決定される前記各階層のニューロンの出力最大値と、前記活性化関数に応じた出力値の生成を実行する前記アナログ処理回路の最大出力レンジとに基づいて、各階層毎に、スケーリングファクターを算出する算出ステップ(S120、S130)と、
前記アナログ処理回路の最大出力レンジは、前記各階層のニューロンの出力値が前記メモリスタの書込閾値電圧よりも小さくなるように設定され、
前記算出ステップで算出された各階層毎のスケーリングファクターによって、それぞれ、対応する前記メモリスタのコンダクタンスを修正する修正ステップ(S140)と、を含み、
前記修正ステップによって修正されたコンダクタンスが、実際に前記メモリスタに設定される請求項2に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。 - 前記算出ステップでは、多層ニューラルネットワークの入力層に近い下位階層のニューロンから、出力層に近い上位階層のニューロンへと順番にスケーリングファクターが算出され、前記上位階層のニューロンに対するスケーリングファクターは、それよりも下位階層のニューロンに対するスケーリングファクターを累積的に考慮した上で算出される請求項3に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記算出ステップでは、各階層毎に、それぞれの階層に含まれる各ニューロンの出力値の中の最大値に基づいて、前記各階層のニューロンの出力最大値が決定される請求項3又は4に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記算出ステップでは、各階層毎に、それぞれの階層に含まれる複数のニューロンの各々の出力値の最大値を平均化した平均値に対しNσ(Nは整数、σは標準偏差)を加えた値から、前記各階層のニューロンの出力最大値が決定される請求項3又は4に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- コンピュータ上に構築された多層ニューラルネットワークの学習が行われた後に、前記調整ステップが実行される請求項3乃至6のいずれかに記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記アナログ処理回路では、前記メモリスタのコンダクタンスによる重みが付与された信号を加算する際に、併せて重みが付与されたバイアス入力も加算し、
前記修正ステップでは、前記算出ステップで算出された各階層毎のスケーリングファクターによって、それぞれ、対応するバイアス入力に対する重みも修正する請求項3乃至7のいずれかに記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。 - 前記調整ステップ(S200〜S240)は、前記メモリスタ及び前記アナログ処理回路を用いて構築された多層ニューラルネットワークにおいて学習が行われるときに、併せて実行され、
前記アナログ処理回路は、演算増幅器と、当該演算増幅器の出力と反転入力端子とを接続し、前記演算増幅器による増幅度を決定するフィードバック抵抗(R)と、を含み、前記フィードバック抵抗としてメモリスタが使用され、
前記調整ステップは、
前記各階層のニューロンの出力値を検出する検出ステップ(S210)と、
前記検出ステップによって検出された前記各階層のニューロンの出力値が、前記メモリスタの書込閾値電圧に基づいて定められた所定のレンジ上限を超えているか否かを判定する判定ステップ(S220)と、
前記レンジ上限を超えた出力値を持つニューロンに対応する前記アナログ処理回路において、前記フィードバック抵抗としての前記メモリスタの抵抗値を変更して、ニューロンの出力値を前記レンジ上限以下に低下させる変更ステップ(S230)と、を含む請求項1又は2に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。 - 前記変更ステップでは、多層ニューラルネットワークの入力層に近い下位階層のニューロンから、出力層に近い上位階層のニューロンへと順番に、前記フィードバック抵抗としてのメモリスタの抵抗値の変更が行われる請求項9に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記変更ステップでは、各階層のニューロンに対応する前記アナログ処理回路に含まれる前記フィードバック抵抗としてのメモリスタの抵抗値の変更が一緒に行われる請求項10に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
- 前記変更ステップでは、すべての階層のニューロンに対応する前記アナログ処理回路に含まれる前記フィードバック抵抗としてのメモリスタの抵抗値の変更が一緒に行われる請求項9に記載の多層ニューラルネットワークのニューロンの出力レベル調整方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119685A JP6724869B2 (ja) | 2017-06-19 | 2017-06-19 | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
PCT/JP2018/018298 WO2018235448A1 (ja) | 2017-06-19 | 2018-05-11 | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
US16/710,296 US12026608B2 (en) | 2017-06-19 | 2019-12-11 | Method for adjusting output level of multilayer neural network neuron |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119685A JP6724869B2 (ja) | 2017-06-19 | 2017-06-19 | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003546A JP2019003546A (ja) | 2019-01-10 |
JP6724869B2 true JP6724869B2 (ja) | 2020-07-15 |
Family
ID=64735736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017119685A Active JP6724869B2 (ja) | 2017-06-19 | 2017-06-19 | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12026608B2 (ja) |
JP (1) | JP6724869B2 (ja) |
WO (1) | WO2018235448A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6724870B2 (ja) | 2017-06-19 | 2020-07-15 | 株式会社デンソー | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
US20220058492A1 (en) * | 2018-12-04 | 2022-02-24 | Technion Research & Development Foundation Limited | Delta-sigma modulation neurons for high-precision training of memristive synapses in deep neural networks |
CN109816096B (zh) * | 2019-01-23 | 2022-10-18 | 长安大学 | 一种基于忆阻器的感知器神经网络电路及其调节方法 |
KR20220002875A (ko) | 2019-02-26 | 2022-01-07 | 라이트매터, 인크. | 하이브리드 아날로그-디지털 행렬 프로세서들 |
JP7034984B2 (ja) * | 2019-05-30 | 2022-03-14 | 株式会社東芝 | 演算装置 |
WO2020261285A1 (en) * | 2019-06-24 | 2020-12-30 | Telefonaktiebolaget Lm Ericsson (Publ) | First node, and method performed thereby, for handling a problem in a communications network |
US11250107B2 (en) * | 2019-07-15 | 2022-02-15 | International Business Machines Corporation | Method for interfacing with hardware accelerators |
CN112825259A (zh) | 2019-11-20 | 2021-05-21 | 三星电子株式会社 | 非易失性存储器及其操作方法 |
CN111291879B (zh) * | 2020-03-29 | 2023-08-22 | 湖南大学 | 一种具备习惯化与敏感化的信号发生装置 |
CN111461308B (zh) * | 2020-04-14 | 2023-06-30 | 中国人民解放军国防科技大学 | 忆阻神经网络及权值训练方法 |
US20210406661A1 (en) | 2020-06-25 | 2021-12-30 | PolyN Technology Limited | Analog Hardware Realization of Neural Networks |
WO2021262023A1 (en) * | 2020-06-25 | 2021-12-30 | PolyN Technology Limited | Analog hardware realization of neural networks |
WO2022003657A1 (en) * | 2020-06-30 | 2022-01-06 | Samsung Electronics Co., Ltd. | A method and system for processing data efficiently in a model inference phase in a communication device |
CN111950719B (zh) * | 2020-08-14 | 2024-06-04 | 清华大学 | 基于忆阻器的信息处理电路以及信息处理方法 |
CN112686373B (zh) * | 2020-12-31 | 2022-11-01 | 上海交通大学 | 一种基于忆阻器的在线训练强化学习方法 |
CN113517016B (zh) * | 2021-07-21 | 2023-04-18 | 清华大学 | 计算装置及其鲁棒性处理方法 |
CN113570042B (zh) * | 2021-07-30 | 2024-07-19 | 昕海智创(深圳)科技有限公司 | 一种基于带通滤波软件的滤波算法 |
EP4457701A1 (en) * | 2021-12-30 | 2024-11-06 | PolyN Technology Limited | Transformations, optimizations, and interfaces for analog hardware realization of neural networks |
WO2023148580A1 (ja) * | 2022-02-07 | 2023-08-10 | 株式会社半導体エネルギー研究所 | 半導体装置の動作方法 |
KR102650005B1 (ko) * | 2022-04-15 | 2024-03-22 | 국민대학교 산학협력단 | 메모리 장치, 메모리 장치의 동작 방법, 및 이를 포함하는 메모리 시스템 |
CN115906968B (zh) * | 2022-11-09 | 2023-12-08 | 南方科技大学 | 双有符号操作数非易失性存算一体单元、阵列及运算方法 |
CN118211551B (zh) * | 2024-05-17 | 2024-07-09 | 天津中医药大学 | 人体经络等效电路模型可信度评估及元件参数定量方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9092736B2 (en) * | 2010-07-07 | 2015-07-28 | Qualcomm Incorporated | Communication and synapse training method and hardware for biologically inspired networks |
WO2016068953A1 (en) | 2014-10-30 | 2016-05-06 | Hewlett Packard Enterprise Development Lp | Double bias memristive dot product engine for vector processing |
US9934463B2 (en) | 2015-05-15 | 2018-04-03 | Arizona Board Of Regents On Behalf Of Arizona State University | Neuromorphic computational system(s) using resistive synaptic devices |
US10885429B2 (en) * | 2015-07-06 | 2021-01-05 | University Of Dayton | On-chip training of memristor crossbar neuromorphic processing systems |
US10332004B2 (en) * | 2015-07-13 | 2019-06-25 | Denso Corporation | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit |
US10074050B2 (en) * | 2015-07-13 | 2018-09-11 | Denso Corporation | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit |
KR102578124B1 (ko) * | 2016-12-16 | 2023-09-14 | 에스케이하이닉스 주식회사 | 신경망 장치의 정규화 장치 및 방법 |
JP6724863B2 (ja) | 2017-05-29 | 2020-07-15 | 株式会社デンソー | 畳み込みニューラルネットワーク |
JP6724870B2 (ja) | 2017-06-19 | 2020-07-15 | 株式会社デンソー | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
JP6805984B2 (ja) | 2017-07-06 | 2020-12-23 | 株式会社デンソー | 畳み込みニューラルネットワーク |
-
2017
- 2017-06-19 JP JP2017119685A patent/JP6724869B2/ja active Active
-
2018
- 2018-05-11 WO PCT/JP2018/018298 patent/WO2018235448A1/ja active Application Filing
-
2019
- 2019-12-11 US US16/710,296 patent/US12026608B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200110991A1 (en) | 2020-04-09 |
JP2019003546A (ja) | 2019-01-10 |
WO2018235448A1 (ja) | 2018-12-27 |
US12026608B2 (en) | 2024-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724869B2 (ja) | 多層ニューラルネットワークのニューロンの出力レベル調整方法 | |
JP6805984B2 (ja) | 畳み込みニューラルネットワーク | |
US20200111008A1 (en) | Artificial neural network circuit training method, training program, and training device | |
CN110956256B (zh) | 利用忆阻器本征噪声实现贝叶斯神经网络的方法及装置 | |
CN106548190A (zh) | 模型训练方法和设备以及数据识别方法 | |
US11449734B2 (en) | Neural network reduction device, neural network reduction method, and storage medium | |
CN110168576A (zh) | 信息处理设备、方法和计算机可读存储介质 | |
US11928576B2 (en) | Artificial neural network circuit and method for switching trained weight in artificial neural network circuit | |
WO2015118686A1 (ja) | 階層型ニューラルネットワーク装置、判別器学習方法および判別方法 | |
US11562215B2 (en) | Artificial neural network circuit | |
CN108683614B (zh) | 基于门限残差网络的虚拟现实设备集群带宽分配装置 | |
US11347221B2 (en) | Artificial neural networks having competitive reward modulated spike time dependent plasticity and methods of training the same | |
JP2020068048A (ja) | 人工ニューラルネットワーク回路及び人工ニューラルネットワーク回路における学習値切替方法 | |
JP2018200627A (ja) | 畳み込みニューラルネットワーク | |
CN110647974A (zh) | 深度神经网络中的网络层运算方法及装置 | |
KR101563569B1 (ko) | 학습형 다이내믹 시각 이미지 패턴 인식 시스템 및 방법 | |
US20220284303A1 (en) | System simulating a decisional process in a mammal brain about motions of a visually observed body | |
CN112580777A (zh) | 一种基于注意力机制的深度神经网络插件及图像识别方法 | |
KR102031983B1 (ko) | 복수의 lstm을 이용한 시계열적 자세 예측 장치 | |
CN112784909B (zh) | 基于自注意力机制和自适应子网络的图像分类识别方法 | |
CN115346125B (zh) | 一种基于深度学习的目标检测方法 | |
Chen | Image denoising using adaptive neuro-fuzzy system | |
US20210319299A1 (en) | Inference device and inference method | |
EP3908982A1 (en) | A spiking neural network for probabilistic computation | |
WO2024083180A1 (en) | Dnn training algorithm with dynamically computed zero-reference. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200608 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6724869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |