JP6676165B2 - 畳み込みゲート制御再帰型ニューラルネットワーク - Google Patents
畳み込みゲート制御再帰型ニューラルネットワーク Download PDFInfo
- Publication number
- JP6676165B2 JP6676165B2 JP2018524364A JP2018524364A JP6676165B2 JP 6676165 B2 JP6676165 B2 JP 6676165B2 JP 2018524364 A JP2018524364 A JP 2018524364A JP 2018524364 A JP2018524364 A JP 2018524364A JP 6676165 B2 JP6676165 B2 JP 6676165B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- cgru
- time step
- convolution
- updated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 55
- 230000000306 recurrent effect Effects 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Image Analysis (AREA)
- Error Detection And Correction (AREA)
- Mobile Radio Communication Systems (AREA)
Description
g =σ(U' * s + B')
を満たし、sは、現在保持されている状態テンソルであり、U' * sは、主畳み込みゲートの主カーネルバンクと状態テンソルとの畳み込みであり、B'は、主畳み込みゲートに関するバイアスベクトルである。
r =σ(U'' * s + B'')
を満たし、U'' * sは、忘却カーネルバンクと現在保持されている状態テンソルとの畳み込みであり、B''は、忘却畳み込みゲートに関するバイアスベクトルである。
CGRU(s) = u・s + (1 - u)・tanh(U * (r・s) + B)
を満たし、Uは、GRUの出力カーネルバンクであり、Bは、GRUの出力に関するバイアスベクトルであり、r・sは、点別のベクトル積を示す。
102 ニューラルネットワークの入力
110 CGRN
120 CGRU
120a CGRU
122 初期状態テンソル、現在の状態テンソル
126 更新された状態テンソル
128 最終状態テンソル
130 出力層
132 システムの出力
200 プロセス
300 プロセス
Claims (13)
次元x×y×mを有するテンソルである状態を保持することであって、x、y、およびmが、それぞれ1よりも大きい、保持することと、
複数の時間ステップの各々に関して、複数の畳み込みゲートを通じて現在保持されている状態を処理することによって前記現在保持されている状態を更新することと、
前記複数の時間ステップの中の最後の時間ステップの後に、前記更新された状態を出力層を通じて処理することであって、前記出力層が、前記複数の時間ステップの中の前記最後の時間ステップの後に前記更新された状態を受け取り、前記更新された状態を修正してCGRNの出力を生成するように構成される、処理することとを行うように構成され、
前記CGRNの前記状態が、システムの入力に初期化され、
前記CGRNが、シーケンス内に配列された複数の畳み込みゲート制御再帰型ユニット(CGRU)を含み、
現在の時間ステップが前記複数の時間ステップの第1の時間ステップである場合、前記シーケンス内の第1のCGRUは、システムの入力に初期化された状態を受け取り、該受け取った状態を処理して第1の更新された状態を生成するように構成され、前記現在の時間ステップが前記複数の時間ステップの第1の時間ステップでない場合、前記第1のCGRUは、直前の時間ステップにおいて前記シーケンス内の最後のCGRUによって生成された状態を受け取り、該受け取った状態を処理して更新された状態を生成するように構成され、
前記時間ステップにおけるそれぞれのその他のCGRUが、前記シーケンス内の前のCGRUによって更新された前記状態を受け取り、前記受け取られた状態を更新するように構成される、システム。
CGRU(s) = u・s + (1 - u)・tanh(U * (r・s) + B)
を満たし、ここで、Uが、GRUのカーネルバンクであり、Bが、バイアスベクトルであり、r・sが、点別のベクトル積を示す請求項3に記載のシステム。
前記最後の時間ステップの後に前記更新された状態の第1の列の各成分に出力パラメータ行列を適用することを含む請求項1から4のいずれか一項に記載のシステム。
請求項1から5のいずれか一項に記載のCGRNを使用して前記システムの入力を処理して前記システムの入力に関するCGRNの出力を生成するステップとを含む方法。
次元x×y×mを有するテンソルである状態を保持することであって、x、y、およびmが、それぞれ1よりも大きい、保持することと、
複数の時間ステップの各々に関して、複数の畳み込みゲートを通じて現在保持されている状態を処理することによって前記現在保持されている状態を更新することと、
前記複数の時間ステップの中の最後の時間ステップの後に、前記更新された状態を出力層を通じて処理することであって、前記出力層が、前記複数の時間ステップの中の前記最後の時間ステップの後に前記更新された状態を受け取り、前記更新された状態を修正して畳み込みゲート制御再帰型ニューラルネットワーク(CGRN)の出力を生成するように構成される、処理することと
を行うようにCGRNを動作させるステップと、
ニューラルネットワークシステムによって、前記CGRNの前記状態をシステムの入力に初期化するステップとを含み、
前記CGRNが、シーケンス内に配列された複数の畳み込みゲート制御再帰型ユニット(CGRU)を含み、
前記方法がさらに、
現在の時間ステップが前記複数の時間ステップの第1の時間ステップである場合、システムの入力に初期化された状態を受け取り、該受け取った状態を処理して第1の更新された状態を生成するように前記シーケンス内の第1のCGRUを動作させるステップと、
前記現在の時間ステップが前記複数の時間ステップの第1の時間ステップでない場合、直前の時間ステップにおいて前記シーケンス内の最後のCGRUによって生成された状態を受け取り、該受け取った状態を処理して更新された状態を生成するように前記第1のCGRUを動作させるステップとを含み、
前記時間ステップにおけるそれぞれのその他のCGRUが、前記シーケンス内の前のCGRUによって更新された前記状態を受け取り、前記受け取られた状態を更新するように構成される、方法。
CGRU(s) = u・s + (1 - u)・tanh(U * (r・s) + B)
を満たし、ここで、Uが、GRUのカーネルバンクであり、Bが、バイアスベクトルであり、r・sが、点別のベクトル積を示す請求項10に記載の方法。
前記最後の時間ステップの後に前記更新された状態の第1の列の各成分に出力パラメータ行列を適用することを含む請求項8から11のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562254702P | 2015-11-12 | 2015-11-12 | |
US62/254,702 | 2015-11-12 | ||
PCT/US2016/061670 WO2017083752A1 (en) | 2015-11-12 | 2016-11-11 | Convolutional gated recurrent neural networks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018533804A JP2018533804A (ja) | 2018-11-15 |
JP6676165B2 true JP6676165B2 (ja) | 2020-04-08 |
Family
ID=57485886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524364A Active JP6676165B2 (ja) | 2015-11-12 | 2016-11-11 | 畳み込みゲート制御再帰型ニューラルネットワーク |
Country Status (6)
Country | Link |
---|---|
US (1) | US10977547B2 (ja) |
EP (1) | EP3360081A1 (ja) |
JP (1) | JP6676165B2 (ja) |
KR (1) | KR102271262B1 (ja) |
CN (1) | CN108351982B (ja) |
WO (1) | WO2017083752A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10229111B1 (en) * | 2016-02-03 | 2019-03-12 | Google Llc | Sentence compression using recurrent neural networks |
US10896367B2 (en) * | 2017-03-07 | 2021-01-19 | Google Llc | Depth concatenation using a matrix computation unit |
US10447635B2 (en) | 2017-05-17 | 2019-10-15 | Slice Technologies, Inc. | Filtering electronic messages |
WO2018213840A1 (en) | 2017-05-19 | 2018-11-22 | Google Llc | Depthwise separable convolutions for neural machine translation |
US10334456B2 (en) * | 2017-07-06 | 2019-06-25 | Futurewei Technologies, Inc. | Optimizing cellular networks using deep learning |
US10949328B2 (en) | 2017-08-19 | 2021-03-16 | Wave Computing, Inc. | Data flow graph computation using exceptions |
US11106976B2 (en) | 2017-08-19 | 2021-08-31 | Wave Computing, Inc. | Neural network output layer for machine learning |
CN109492747A (zh) * | 2017-09-13 | 2019-03-19 | 杭州海康威视数字技术股份有限公司 | 一种神经网络的网络结构生成方法及装置 |
WO2019084254A1 (en) * | 2017-10-27 | 2019-05-02 | Wave Computing, Inc. | TENSEUR HANDLING IN A NEURONAL NETWORK |
WO2019089553A1 (en) * | 2017-10-31 | 2019-05-09 | Wave Computing, Inc. | Tensor radix point calculation in a neural network |
US10977546B2 (en) | 2017-11-29 | 2021-04-13 | International Business Machines Corporation | Short depth circuits as quantum classifiers |
CN107798385B (zh) * | 2017-12-08 | 2020-03-17 | 电子科技大学 | 基于块张量分解的循环神经网络稀疏连接方法 |
US10628295B2 (en) | 2017-12-26 | 2020-04-21 | Samsung Electronics Co., Ltd. | Computing mechanisms using lookup tables stored on memory |
US10732929B2 (en) * | 2018-01-09 | 2020-08-04 | Samsung Electronics Co., Ltd. | Computing accelerator using a lookup table |
US11803883B2 (en) | 2018-01-29 | 2023-10-31 | Nielsen Consumer Llc | Quality assurance for labeled training data |
CN108282262B (zh) * | 2018-04-16 | 2019-11-26 | 西安电子科技大学 | 基于门控循环单元深度网络的智能时序信号分类方法 |
US10776923B2 (en) | 2018-06-21 | 2020-09-15 | International Business Machines Corporation | Segmenting irregular shapes in images using deep region growing |
US10643092B2 (en) | 2018-06-21 | 2020-05-05 | International Business Machines Corporation | Segmenting irregular shapes in images using deep region growing with an image pyramid |
WO2020013482A1 (ko) | 2018-07-10 | 2020-01-16 | 주식회사 엘지화학 | 옥시수산화질산철의 제조방법, 이로부터 제조된 옥시수산화질산철을 포함하는 리튬 이차전지용 양극 및 이를 구비한 리튬 이차전지 |
US11645178B2 (en) | 2018-07-27 | 2023-05-09 | MIPS Tech, LLC | Fail-safe semi-autonomous or autonomous vehicle processor array redundancy which permits an agent to perform a function based on comparing valid output from sets of redundant processors |
CN111160516B (zh) * | 2018-11-07 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络的卷积层稀疏化方法及装置 |
US11416733B2 (en) * | 2018-11-19 | 2022-08-16 | Google Llc | Multi-task recurrent neural networks |
CN111612489B (zh) * | 2019-02-25 | 2024-03-29 | 北京嘀嘀无限科技发展有限公司 | 订单量的预测方法、装置及电子设备 |
US11481472B2 (en) | 2019-04-01 | 2022-10-25 | Wave Computing, Inc. | Integer matrix multiplication engine using pipelining |
US11227030B2 (en) | 2019-04-01 | 2022-01-18 | Wave Computing, Inc. | Matrix multiplication engine using pipelining |
CN111693667A (zh) * | 2020-05-06 | 2020-09-22 | 杭州电子科技大学 | 一种基于门控递归阵列水质检测系统及方法 |
CN112052894B (zh) * | 2020-09-02 | 2023-02-07 | 北京理工大学 | 一种动力舱状态实时监控评价方法 |
US20220121901A1 (en) * | 2020-10-20 | 2022-04-21 | International Business Machines Corporation | Gated unit for a gated recurrent neural network |
US20240212672A1 (en) * | 2021-04-26 | 2024-06-27 | The Trustees Of Dartmouth College | Low power analog circuitry for artificial neural networks |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007305072A (ja) * | 2006-05-15 | 2007-11-22 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP5368687B2 (ja) | 2007-09-26 | 2013-12-18 | キヤノン株式会社 | 演算処理装置および方法 |
CN102934131A (zh) * | 2010-04-14 | 2013-02-13 | 西门子公司 | 用于计算机辅助地学习递归神经网络以对动态系统建模的方法 |
US9165243B2 (en) * | 2012-02-15 | 2015-10-20 | Microsoft Technology Licensing, Llc | Tensor deep stacked neural network |
US9620108B2 (en) * | 2013-12-10 | 2017-04-11 | Google Inc. | Processing acoustic sequences using long short-term memory (LSTM) neural networks that include recurrent projection layers |
-
2016
- 2016-11-11 EP EP16806343.6A patent/EP3360081A1/en not_active Ceased
- 2016-11-11 KR KR1020187016385A patent/KR102271262B1/ko active IP Right Grant
- 2016-11-11 CN CN201680066470.5A patent/CN108351982B/zh active Active
- 2016-11-11 JP JP2018524364A patent/JP6676165B2/ja active Active
- 2016-11-11 WO PCT/US2016/061670 patent/WO2017083752A1/en active Application Filing
- 2016-11-11 US US15/349,867 patent/US10977547B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20180082531A (ko) | 2018-07-18 |
WO2017083752A1 (en) | 2017-05-18 |
KR102271262B1 (ko) | 2021-06-30 |
JP2018533804A (ja) | 2018-11-15 |
CN108351982B (zh) | 2022-07-08 |
EP3360081A1 (en) | 2018-08-15 |
US10977547B2 (en) | 2021-04-13 |
CN108351982A (zh) | 2018-07-31 |
US20170140263A1 (en) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6676165B2 (ja) | 畳み込みゲート制御再帰型ニューラルネットワーク | |
JP6666457B2 (ja) | リカレントニューラルネットワークモデルの圧縮 | |
US20210117801A1 (en) | Augmenting neural networks with external memory | |
US11715009B2 (en) | Training neural networks using synthetic gradients | |
US10083169B1 (en) | Topic-based sequence modeling neural networks | |
US20230289598A1 (en) | Augmented recurrent neural network with external memory | |
JP2019533257A (ja) | ニューラルアーキテクチャ検索 | |
US11200482B2 (en) | Recurrent environment predictors | |
CA3004885A1 (en) | Asynchronous deep reinforcement learning | |
EP3207507B1 (en) | Augmenting neural networks with external memory | |
JP2019517075A (ja) | 比較セットを使用する入力例の分類 | |
WO2019165462A1 (en) | Unsupervised neural network training using learned optimizers | |
US11755879B2 (en) | Low-pass recurrent neural network systems with memory | |
JP2020506488A (ja) | バッチ再正規化層 | |
WO2019075267A1 (en) | ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS | |
US10635972B1 (en) | Recurrent neural networks with rectified linear units | |
US11893480B1 (en) | Reinforcement learning with scheduled auxiliary control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6676165 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |