JP6637602B2 - 畳み込みニューラルネットワーク - Google Patents
畳み込みニューラルネットワーク Download PDFInfo
- Publication number
- JP6637602B2 JP6637602B2 JP2018531157A JP2018531157A JP6637602B2 JP 6637602 B2 JP6637602 B2 JP 6637602B2 JP 2018531157 A JP2018531157 A JP 2018531157A JP 2018531157 A JP2018531157 A JP 2018531157A JP 6637602 B2 JP6637602 B2 JP 6637602B2
- Authority
- JP
- Japan
- Prior art keywords
- analog
- capacitors
- input data
- neural network
- convolution output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 84
- 239000003990 capacitor Substances 0.000 claims description 107
- 230000006870 function Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 39
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 22
- 238000005516 engineering process Methods 0.000 claims description 21
- 238000012546 transfer Methods 0.000 claims description 13
- 238000012935 Averaging Methods 0.000 claims description 5
- 239000010410 layer Substances 0.000 description 96
- 210000004027 cell Anatomy 0.000 description 17
- 238000011176 pooling Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000009466 transformation Effects 0.000 description 13
- 238000013461 design Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000007876 drug discovery Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 238000005549 size reduction Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical group [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004071 biological effect Effects 0.000 description 1
- 210000000349 chromosome Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012084 conversion product Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004001 molecular interaction Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M1/00—Analogue/digital conversion; Digital/analogue conversion
- H03M1/66—Digital/analogue converters
- H03M1/74—Simultaneous conversion
- H03M1/80—Simultaneous conversion using weighted impedances
- H03M1/802—Simultaneous conversion using weighted impedances using capacitors, e.g. neuron-mos transistors, charge coupled devices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Power Engineering (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Description
本出願は、Eric Nestlerらを発明者として挙げる「Convolutional Neural Network」と題した、2015年12月15日に出願された米国特許出願第62/267,847号、及び2016年12月14日に出願された第15/379,114号の米国特許法第120条下の優先権の利益を主張するものである。先行出願の本開示は、本出願の本開示の一部として考慮され、参照により本出願の本開示に組み込まれる。
CNN構造の多くの異なる形態が存在する。図1は、7つの層を有するディープニューラルネットワーク構造のブロック図を示す。これらの層は、サブサンプリング層と交互の畳み込み層を含む。各層は、計算集約的である。
一実装によれば、各畳み込みステップは、画像データのサブウィンドウを取り、訓練可能かつ独立した重みによって畳み込みへの各入力に重み付けする。一例では、各和に25個のプログラム可能な重みが使用されている。同じ重みは、各特徴ごとに画像データの全てのサブウィンドウスキャンに使用される。更に、畳み込み和に訓練可能なバイアス重みが加えられる。
CNNへの入力は、複数の層を通過する。図1に示すようないくつかの実装では、入力は、畳み込み層(例えば、第1の104、第3の106、および第5の112層)とサブサンプリング層(例えば、第2の106および第4の110層)との間で交互に起こる。他の実装では、畳み込みおよびサブサンプリング層は、交互に入れ替わっていない順序である。例えば、一実装は、複数の連続した畳み込み層を含む。別の実装は、複数の連続したサブサンプリング層を含む。
様々な実装によれば、CNN構造は、畳み込み和の後、サブサンプリングもしくはプーリングの後、または畳み込み和と各層のサブサンプリングとの両方の後、非線形関数を通過するデータを有し得る。CNNデータを処理するために使用され得る3つの対称関数は、それぞれ、erfc(−x)−1伝達関数、シグモイド関数、およびTanh関数である。加えて、CNNデータは、整流関数に類似した非対称ReLU関数によって処理されてもよい。いくつかの実装では、サブサンプリング層からの個々の和は、次の畳み込み層に進む前にスカッシング関数を通過する。スカッシング関数は、様々な形状を有することができ、スカッシング関数の形状は、対称または非対称であり得る。
図1に示すCNN図では、第1の層104(畳み込み層)および第2の層106(サブサンプリング層)は、同じ数の特徴を有する。特に、図1では、第1の104および第2の106の層は、6個の特徴を各々有する。第3の層108(第2の畳み込み層)は、16個の特徴部を有する。特徴の数は、第2の層106の特徴の画像画素のいくつかの他のマッピングを第3の層108の特徴に加えることによって増加する。したがって、畳み込み層およびサブサンプリング層の特徴の数は、異なることがある。特徴の数の拡張は、ネットワークにおける対称性の破れを示す。加えて、畳み込みおよびサブサンプリング層は、異なる特徴を有し得る。特に、特徴は、特徴データがある層から次の層に移動するときに、変換され得る。いくつかの例によれば、重みは訓練段階の間に判定され、重みは訓練段階が終了した後に保存される。いくつかの例では、異なる特徴は、サブサンプリング層に維持された特徴から、畳み込み層に維持される。
畳み込み層では、前のサブサンプリング層からの和に、訓練可能な重みが乗算される。加えて、訓練可能なバイアスが加えられる。
選択されたフレームレートで撮像データを生成するために、複数の畳み込みおよびサブサンプリング層をパイプライン化することができ、各層は、独立して並列に操作することができる。各層は、フレームレート期間内に完了する。多重化のための境界は、複数の方法で実装され得る。
いくつかの実装では、重み付け値の畳み込み和は、訓練可能なバイアス値でシフトされる。図4は、本開示のいくつかの実施形態による、重み付けバイアスを含む畳み込み回路400の図を示す。回路400において、各画素は、図3に示す回路300と同様に、画像源に結合されたセットの可変キャパシタを有する。第1の画素402は、第1のセットの可変キャパシタ412に結合され、第2の画素404は、第2のセットの可変キャパシタ414に結合される。一例では、第1の412および第2の414のセットのキャパシタは、各々、重み付けメモリセルの5×5サブウィンドウである。第1のセットのキャパシタ412は、第1の出力416を有し、第1の重み付けバイアス432は第1の出力に加えられ、第1のサブウィンドウ畳み込み出力422が得られる。第2のセットのキャパシタ414は、第2の出力418を有し、第2の重み付けバイアス434は、第2の出力418に加えられ、第2のサブウィンドウ畳み込み出力424が得られる。第1の432および第2の434の重み付けバイアスは、重み付け値の畳み込み和をシフトする。
サブサンプリング層は、畳み込み出力の後に非線形変換が続くM×M平均を含む。一実装によれば、M×M平均は、畳み込み出力の非重畳M×Mサブウィンドウの平均である。M×M平均は、本質的に、畳み込みステップの空間アレイ出力を間引く。しかしながら、畳み込み層のキャパシタ出力のM×Mサブセットの電荷共有は、平均関数として直接作用し得る。いくつかの例では、畳み込み層のキャパシタ出力のM×Mサブセットの共有が平均関数として直接的に作用するとき、正規化の問題が存在し得る。
一実装によれば、別のサブサンプリング方法は、MAXプーリングと呼ばれる。MAXプーリングは、出力のための値のM×Mサブウィンドウの最大値を使用する。スイッチトキャパシタ(switchcap)回路にMAX関数を実装することは、全てのM×M要素間での比較イベントを示す。
上述のように、様々な異なる伝達関数は、CNNのサブサンプリング層において使用され得る。非線形伝達関数がCNNのサブサンプリング層に使用される場合、非線形伝達関数の形状は、広範囲の可能性を有する。一態様によれば、SATとともにCNN層を実装することは、小電力および低電力であるである非線形伝達関数を選択することを含む。様々な実装によれば、アナログ整流関数が、CNNのサブサンプリング層に使用され、その整流はゼロよりも大きいかまたはゼロよりも小さい。特に、アナログ整流は、理想的な関数からの入力および出力における一定のオフセットである。訓練可能なバイアス条件は、一定のオフセットを補償することができる。
畳み込みニューラルネットワーク(CNN)は、特徴間で重みを共有することによって、空間的および時間的構造を使用する。CNNのアーキテクチャは、特徴のアクティブ化において等価性を可能にし、CNNを画像およびビデオ用途に対して理想的にする。例えば、手書き数字の認識、より広くは、画像認識/分類、およびビデオ認識/分類などの文字認識。様々な実装によれば、入力データが高度に相関される局所変数を有するアレイの形態であり、シフト不変性を有する場合、CNNが使用される。
様々な実装では、本明細書に記載されるSATは、任意の種類のCNNに使用され得る。いくつかの実装によれば、SATは、高密度畳み込みネットワークで使用される。高密度畳み込みニューラルネットワークでは、各層はフィードフォワード方式で他の全ての層と接続される。各層について、入力は、先行する全ての層の特徴を含む。同様に、各層について、層の特徴は、全ての後続の層に入力される。
他の注釈、例、および実装
104 第1の層
106 第2の層
108 第3の層
110 第4の層
110 第4の層
112 第5の層
114 第6の層
116 第7の層
200 回路
202 第1の画素
204 第2の画素
212 第1のセットのキャパシタ
214 第2のセットのキャパシタ
220 ハイブリッドCapDAC構造
222 可変容量構造
300 回路
302 第1の画素
304 第2の画素
312、314 キャパシタ
400 回路
402 第1の画素
404 第2の画素
412 第1のセットのキャパシタ
414 第2のセットのキャパシタ
436、438 固定電圧源
500 回路
510 サブサンプリング加算器
520 固定電圧源
526 第1のスイッチ
528 第2のスイッチ
600 プーリング回路
602 比較器
604 サブウィンドウ
606 サブウィンドウ
608 デコーダ
612 スイッチ
620 ウィンドウ
702 ダイオード補正回路
902 MOSFETクランプ
Claims (16)
- サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
第1および第2のアナログ入力データ点を含む入力源と、
前記第1のアナログ入力データ点を分析し、かつ第1のアナログ畳み込み出力を出力するための第1のセットのキャパシタと、
前記第2のアナログ入力データ点を分析し、かつ第2のアナログ畳み込み出力を出力するための第2のセットのキャパシタと、を備え、
前記第1および第2のアナログ畳み込み出力が、複数の特徴を表す複数の出力を各々含む、畳み込みニューラルネットワークであって、
可変容量構造のアレイを更に備え、前記第1および第2の出力が、前記可変容量構造のアレイを通って多重化されて多重化畳み込み出力を生成する、
畳み込みニューラルネットワーク。 - 前記第1および第2のセットのキャパシタが、固定キャパシタを含み、前記固定キャパシタが、アナログメモリセルである、請求項1に記載の畳み込みニューラルネットワーク。
- サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
第1および第2のアナログ入力データ点を含む入力源と、
前記第1のアナログ入力データ点を分析し、かつ第1のアナログ畳み込み出力を出力するための第1のセットのキャパシタと、
前記第2のアナログ入力データ点を分析し、かつ第2のアナログ畳み込み出力を出力するための第2のセットのキャパシタと、を備え、
前記第1および第2のアナログ畳み込み出力が、複数の特徴を表す複数の出力を各々含む、畳み込みニューラルネットワークであって、
前記第1および第2のセットのキャパシタが、固定重みを有する可変容量セルである、畳み込みニューラルネットワーク。 - 前記固定重みが、メモリキャパシタサイズを使用して実装され、前記メモリキャパシタサイズが、前記固定重みの重みに等しい、請求項3に記載の畳み込みニューラルネットワーク。
- 前記第1のセットのキャパシタおよび前記第2のセットのキャパシタが、前記入力源によって駆動される、請求項1または2に記載の畳み込みニューラルネットワーク。
- サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
第1および第2のアナログ入力データ点を含む入力源と、
前記第1のアナログ入力データ点を分析し、かつ第1のアナログ畳み込み出力を出力するための第1のセットのキャパシタと、
前記第2のアナログ入力データ点を分析し、かつ第2のアナログ畳み込み出力を出力するための第2のセットのキャパシタと、を備え、
前記第1および第2のアナログ畳み込み出力が、複数の特徴を表す複数の出力を各々含む、畳み込みニューラルネットワークであって、
電荷を有する第1の固定電圧源と、
第1のキャパシタデジタル−アナログ変換器(capDAC)と、を更に備え、
前記第1の固定電圧源からの電荷が、前記第1のcapDACによってサンプリングされて第1のバイアス値を生成し、
前記第1のバイアス値が、前記第1の出力に加えられる、畳み込みニューラルネットワーク。 - 前記第1および第2のアナログ畳み込み出力に結合されたサブサンプラを更に備え、前記サブサンプラが、前記第1および第2のアナログ畳み込み出力を平均化して平均畳み込み出力を生成し、前記サブサンプラが、非線形伝達関数で前記平均畳み込み出力を処理する、請求項6に記載の畳み込みニューラルネットワーク。
- 前記非線形伝達関数が、アナログ整流関数である、請求項7に記載の畳み込みニューラルネットワーク。
- サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
第1および第2のアナログ入力データ点を含む入力源と、
前記第1のアナログ入力データ点を分析し、かつ第1のアナログ畳み込み出力を出力するための第1のセットのキャパシタと、
前記第2のアナログ入力データ点を分析し、かつ第2のアナログ畳み込み出力を出力するための第2のセットのキャパシタと、を備え、
前記第1および第2のアナログ畳み込み出力が、複数の特徴を表す複数の出力を各々含む、畳み込みニューラルネットワークであって、
前記第1のアナログ畳み込み出力に結合されたサブサンプラを更に備え、
前記第1のアナログ畳み込み出力が、値のサブウィンドウを含み、
前記サブサンプラが、前記第1のアナログ畳み込み出力の値の前記サブウィンドウの最大値を判定するための、複数のアナログ電圧比較器を含む、畳み込みニューラルネットワーク。 - サンプリングされたアナログ技術を使用してニューラルネットワークを実装するための方法であって、
第1および第2のアナログ入力データ点を含むアナログ入力データを受信することと、
第1のアナログ入力データ点を第1のセットのキャパシタで分析して、第1のアナログ畳み込み出力を生成することと、
第2のアナログ入力データ点を第2のセットのキャパシタで分析して、第2のアナログ畳み込み出力を生成することと、を含み、
前記第1および第2のアナログ畳み込み出力を生成することが、複数の特徴を表す複数の出力に対してアナログ畳み込み演算を実行することを含む、方法であって、
前記第1および第2のアナログ畳み込み出力を可変容量構造のアレイを通して多重化して、アナログ多重化畳み込み出力を生成することを更に含む、
方法。 - サンプリングされたアナログ技術を使用してニューラルネットワークを実装するための方法であって、
第1および第2のアナログ入力データ点を含むアナログ入力データを受信することと、
第1のアナログ入力データ点を第1のセットのキャパシタで分析して、第1のアナログ畳み込み出力を生成することと、
第2のアナログ入力データ点を第2のセットのキャパシタで分析して、第2のアナログ畳み込み出力を生成することと、を含み、
前記第1および第2のアナログ畳み込み出力を生成することが、複数の特徴を表す複数の出力に対してアナログ畳み込み演算を実行することを含む、方法であって、
前記第1および第2のセットのキャパシタが、可変容量セルであり、前記第1のセットのキャパシタが、第1の固定重みを有し、前記第2のセットのキャパシタが、第2の固定重みを有し、
前記第1のアナログ畳み込み出力を生成することが、前記第1の入力データ点に前記第1の固定重みを乗算することを含み、
前記第2のアナログ畳み込み出力を生成することが、前記第2の入力データ点に前記第2の固定重みを乗算することを含む、方法。 - サンプリングされたアナログ技術を使用してニューラルネットワークを実装するための方法であって、
第1および第2のアナログ入力データ点を含むアナログ入力データを受信することと、
第1のアナログ入力データ点を第1のセットのキャパシタで分析して、第1のアナログ畳み込み出力を生成することと、
第2のアナログ入力データ点を第2のセットのキャパシタで分析して、第2のアナログ畳み込み出力を生成することと、を含み、
前記第1および第2のアナログ畳み込み出力を生成することが、複数の特徴を表す複数の出力に対してアナログ畳み込み演算を実行することを含む、方法であって、
第1のキャパシタデジタル−アナログ変換器を使用して、第1の固定電圧源からのスケールされた電荷をサンプリングすることによって、第1のバイアス値を生成することと、
前記第1のバイアス値を前記第1の出力に加えることと、を更に含む、方法。 - 前記第1のアナログ畳み込み出力を、サブサンプラにおいて前記第2のアナログ畳み込み出力とともに平均化することを更に含む、請求項12に記載の方法。
- サンプリングされたアナログ技術を使用してニューラルネットワークを実装するための方法であって、
第1および第2のアナログ入力データ点を含むアナログ入力データを受信することと、
第1のアナログ入力データ点を第1のセットのキャパシタで分析して、第1のアナログ畳み込み出力を生成することと、
第2のアナログ入力データ点を第2のセットのキャパシタで分析して、第2のアナログ畳み込み出力を生成することと、を含み、
前記第1および第2のアナログ畳み込み出力を生成することが、複数の特徴を表す複数の出力に対してアナログ畳み込み演算を実行することを含む、方法であって、
前記第1のアナログ畳み込み出力が、値のサブウィンドウを含み、前記値のサブウィンドウの最大値を判定することを更に含む、の方法。 - サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
アナログ入力データを含む入力と、
複数のセットのキャパシタであって、各セットのキャパシタが、前記アナログ入力データのそれぞれのサブウィンドウを分析し、かつ前記それぞれのサブウィンドウについてアナログ畳み込み出力を出力するように構成され、前記アナログ畳み込み出力が、複数の特徴を表す複数の出力を含む、複数のセットのキャパシタと、
前記アナログ畳み込み出力に結合されたアナログサブサンプラであって、前記アナログサブサンプラが、前記アナログ畳み込み出力の複数の出力のうちの少なくとも1つのサイズを縮小するように構成されている、アナログサブサンプラと、を備える、畳み込みニューラルネットワークであって、
前記複数のセットのキャパシタが、固定重みを有する可変容量セルを含む、畳み込みニューラルネットワーク。 - サンプリングされたアナログ技術を使用した畳み込みニューラルネットワークであって、
アナログ入力データを含む入力と、
複数のセットのキャパシタであって、各セットのキャパシタが、前記アナログ入力データのそれぞれのサブウィンドウを分析し、かつ前記それぞれのサブウィンドウについてアナログ畳み込み出力を出力するように構成され、前記アナログ畳み込み出力が、複数の特徴を表す複数の出力を含む、複数のセットのキャパシタと、
前記アナログ畳み込み出力に結合されたアナログサブサンプラであって、前記アナログサブサンプラが、前記アナログ畳み込み出力の複数の出力のうちの少なくとも1つのサイズを縮小するように構成されている、アナログサブサンプラと、を備える、畳み込みニューラルネットワークであって、
電荷を有する固定電圧源と、
キャパシタデジタル−アナログ変換器(capDAC)と、を更に備え、
前記固定電圧源からの電荷が、前記capDACによってサンプリングされてバイアス値を生成し、
前記バイアス値が、前記複数のセットのキャパシタのうちの1つからの出力に加えられる、畳み込みニューラルネットワーク。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562267847P | 2015-12-15 | 2015-12-15 | |
US62/267,847 | 2015-12-15 | ||
US15/379,114 | 2016-12-14 | ||
US15/379,114 US11475269B2 (en) | 2015-12-15 | 2016-12-14 | Convolutional neural network |
PCT/US2016/066869 WO2017106464A1 (en) | 2015-12-15 | 2016-12-15 | Convolutional neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019504400A JP2019504400A (ja) | 2019-02-14 |
JP6637602B2 true JP6637602B2 (ja) | 2020-01-29 |
Family
ID=59019841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018531157A Active JP6637602B2 (ja) | 2015-12-15 | 2016-12-15 | 畳み込みニューラルネットワーク |
Country Status (5)
Country | Link |
---|---|
US (1) | US11475269B2 (ja) |
JP (1) | JP6637602B2 (ja) |
CN (1) | CN108475348B (ja) |
DE (1) | DE112016005746T5 (ja) |
WO (1) | WO2017106464A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3050855B1 (fr) * | 2016-04-27 | 2019-05-03 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif et procede de calcul de convolution d'un reseau de neurones convolutionnel |
US20180114109A1 (en) * | 2016-10-20 | 2018-04-26 | Nokia Technologies Oy | Deep convolutional neural networks with squashed filters |
TWI607389B (zh) * | 2017-02-10 | 2017-12-01 | 耐能股份有限公司 | 卷積神經網路的池化運算裝置及方法 |
CN107124609A (zh) * | 2017-04-27 | 2017-09-01 | 京东方科技集团股份有限公司 | 一种视频图像的处理系统、其处理方法及显示装置 |
CN115022559A (zh) * | 2017-06-14 | 2022-09-06 | 株式会社半导体能源研究所 | 摄像装置及电子设备 |
CN110770737B (zh) * | 2017-06-21 | 2024-03-08 | 株式会社半导体能源研究所 | 包括神经网络的半导体装置 |
JP6957365B2 (ja) * | 2017-09-22 | 2021-11-02 | 株式会社東芝 | 演算装置 |
US10847137B1 (en) * | 2017-12-12 | 2020-11-24 | Amazon Technologies, Inc. | Trigger word detection using neural network waveform processing |
US11138505B2 (en) * | 2017-12-21 | 2021-10-05 | Fujitsu Limited | Quantization of neural network parameters |
US10872291B2 (en) * | 2017-12-22 | 2020-12-22 | Alibaba Group Holding Limited | On-chip communication system for neural network processors |
JP7240657B2 (ja) * | 2018-05-15 | 2023-03-16 | Tokyo Artisan Intelligence株式会社 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
US11562208B2 (en) | 2018-05-17 | 2023-01-24 | Qualcomm Incorporated | Continuous relaxation of quantization for discretized deep neural networks |
CN109035779B (zh) * | 2018-08-30 | 2021-01-19 | 南京邮电大学 | 基于DenseNet的高速公路交通流预测方法 |
KR102633139B1 (ko) | 2018-09-07 | 2024-02-02 | 삼성전자주식회사 | 데이터를 추출하는 집적 회로, 그것을 포함하는 뉴럴 네트워크 프로세서 및 뉴럴 네트워크 장치 |
US11574694B2 (en) | 2018-10-11 | 2023-02-07 | International Business Machines Corporation | Kernel sets normalization with capacitor charge sharing |
US12111878B2 (en) | 2018-10-12 | 2024-10-08 | International Business Machines Corporation | Efficient processing of convolutional neural network layers using analog-memory-based hardware |
CN109407067B (zh) * | 2018-10-13 | 2023-06-27 | 中国人民解放军海军航空大学 | 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法 |
CN109633588A (zh) * | 2018-12-29 | 2019-04-16 | 杭州电子科技大学 | 基于深度卷积神经网络的雷达辐射源识别方法 |
US11556763B2 (en) | 2019-02-19 | 2023-01-17 | International Business Machines Corporation | Multi-kernel configuration for convolutional neural networks |
CN109965858B (zh) * | 2019-03-28 | 2020-10-30 | 北京邮电大学 | 基于超宽带雷达人体生命体征检测方法和装置 |
CN110311676B (zh) * | 2019-06-24 | 2020-10-16 | 清华大学 | 一种采用开关电流技术的物联网视觉系统和数据处理方法 |
US11537863B2 (en) | 2019-09-12 | 2022-12-27 | International Business Machines Corporation | Resistive processing unit cell having multiple weight update and read circuits for parallel processing of data using shared weight value |
US11562240B2 (en) | 2020-05-27 | 2023-01-24 | International Business Machines Corporation | Efficient tile mapping for row-by-row convolutional neural network mapping for analog artificial intelligence network inference |
US11885271B2 (en) | 2020-06-25 | 2024-01-30 | PolyN Technology Limited | Systems and methods for detonation control in spark ignition engines using analog neuromorphic computing hardware |
CN111901541B (zh) * | 2020-07-14 | 2021-07-09 | 清华大学 | 一种直接光电流计算单元电路 |
US11847847B2 (en) | 2021-03-26 | 2023-12-19 | Analog Devices International Unlimited Company | Learning system for convolutional neural networks to improve accuracy of object detection in new environments |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4727505A (en) * | 1984-03-29 | 1988-02-23 | Kabushiki Kaisha Toshiba | Convolution arithmetic circuit for digital signal processing |
FR2575308B1 (fr) * | 1984-12-21 | 1989-03-31 | Bendix Electronics Sa | Procede et chaine de traitement du signal analogique de sortie d'un capteur |
US4931674A (en) * | 1988-11-16 | 1990-06-05 | United States Of America As Represented By The Secretary Of The Navy | Programmable analog voltage multiplier circuit means |
US4954963A (en) * | 1989-03-02 | 1990-09-04 | Texas Instruments Incorporated | Neural network and system |
US5343555A (en) * | 1992-07-06 | 1994-08-30 | The Regents Of The University Of California | Artificial neuron with switched-capacitor synapses using analog storage of synaptic weights |
US5485416A (en) | 1994-05-05 | 1996-01-16 | Ward; Calvin B. | Computational circuit based on capacitor arrays |
US6940445B2 (en) | 2002-12-27 | 2005-09-06 | Analog Devices, Inc. | Programmable input range ADC |
JP4272967B2 (ja) * | 2003-10-16 | 2009-06-03 | キヤノン株式会社 | 演算回路およびその動作制御方法 |
US7286075B2 (en) * | 2005-11-14 | 2007-10-23 | Analog Devices, Inc. | Analog to digital converter with dither |
US8442927B2 (en) * | 2009-07-30 | 2013-05-14 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
US9129220B2 (en) * | 2010-07-07 | 2015-09-08 | Qualcomm Incorporated | Methods and systems for digital neural processing with discrete-level synapes and probabilistic STDP |
EP2719075B8 (en) * | 2011-06-06 | 2021-09-15 | Analog Devices, Inc. | Charge sharing time domain filter |
CN102610274B (zh) * | 2012-04-06 | 2014-10-15 | 电子科技大学 | 一种阻变突触权值调整电路 |
US10217045B2 (en) * | 2012-07-16 | 2019-02-26 | Cornell University | Computation devices and artificial neurons based on nanoelectromechanical systems |
US9613001B2 (en) | 2013-12-20 | 2017-04-04 | Intel Corporation | Processing device for performing convolution operations |
JP6314628B2 (ja) * | 2014-04-28 | 2018-04-25 | 株式会社デンソー | 演算処理装置 |
US9346167B2 (en) * | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
CN104281858B (zh) * | 2014-09-15 | 2018-07-10 | 中安消技术有限公司 | 三维卷积神经网络训练方法、视频异常事件检测方法及装置 |
DE102015104814B4 (de) * | 2015-03-27 | 2018-02-08 | Intel IP Corporation | Eine Digital-Analog-Wandler-Schaltung, eine Vorrichtung zum Bereitstellen eines Radiofrequenz-Sendesignals und eines Verfahrens einer Digital-Analog-Wandlung |
-
2016
- 2016-12-14 US US15/379,114 patent/US11475269B2/en active Active
- 2016-12-15 JP JP2018531157A patent/JP6637602B2/ja active Active
- 2016-12-15 CN CN201680078824.8A patent/CN108475348B/zh active Active
- 2016-12-15 WO PCT/US2016/066869 patent/WO2017106464A1/en active Application Filing
- 2016-12-15 DE DE112016005746.6T patent/DE112016005746T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
US20170169327A1 (en) | 2017-06-15 |
DE112016005746T5 (de) | 2018-08-23 |
JP2019504400A (ja) | 2019-02-14 |
WO2017106464A1 (en) | 2017-06-22 |
US11475269B2 (en) | 2022-10-18 |
CN108475348A (zh) | 2018-08-31 |
CN108475348B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6637602B2 (ja) | 畳み込みニューラルネットワーク | |
Posch et al. | Retinomorphic event-based vision sensors: bioinspired cameras with spiking output | |
US11610599B2 (en) | Systems and methods for visually guided audio separation | |
EP2724218A1 (en) | Linear device value estimating method, capacitance detection method, integrated circuit, touch sensor system, and electronic device | |
EP3586270B1 (en) | Optical sensor, learning apparatus, and image processing system | |
KR101520723B1 (ko) | 지문 검출 장치 및 이의 구동 방법 | |
EP3316184B1 (en) | Program generating device, program generating method, and generating program | |
US20150253926A1 (en) | Semiconductor device and electronic apparatus | |
WO2022012668A1 (zh) | 一种训练集处理方法和装置 | |
Qi et al. | Multi‐focus image fusion via morphological similarity‐based dictionary construction and sparse representation | |
Andreopoulos et al. | Visual saliency on networks of neurosynaptic cores | |
Valenzuela et al. | Face recognition on a smart image sensor using local gradients | |
Ma et al. | HOGEye: neural approximation of hog feature extraction in rram-based 3d-stacked image sensors | |
JPWO2019087500A1 (ja) | ニューロモルフィック素子を含むアレイ装置およびニューラルネットワークシステム | |
Kaiser et al. | Neuromorphic-p2m: processing-in-pixel-in-memory paradigm for neuromorphic image sensors | |
Wong et al. | Adaptive learning feature pyramid for object detection | |
Li et al. | Physical computing circuit with no clock to establish Gaussian pyramid of SIFT algorithm | |
Delgado et al. | Real-time motion detection by lateral inhibition in accumulative computation | |
Jing et al. | Towards a more efficient few-shot learning-based human gesture recognition via dynamic vision sensors. | |
Bouvier | Study and design of an energy efficient perception module combining event-based image sensors and spiking neural network with 3D integration technologies | |
Xia et al. | Capacitor Parameter Estimation based on Wavelet Transform and Convolution Neural Network | |
WO2024148182A1 (en) | Processing-in-pixel-in-memory for neuromorphic image sensors | |
Truong et al. | Structured RNN for human interaction | |
Sun et al. | Improved dual‐mode compressive tracking integrating balanced colour and texture features | |
Pinna et al. | Design of an integrated silicon connectionist retina |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6637602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |