JP2018537788A - 外部メモリを用いたニューラルネットワークの拡張 - Google Patents
外部メモリを用いたニューラルネットワークの拡張 Download PDFInfo
- Publication number
- JP2018537788A JP2018537788A JP2018530744A JP2018530744A JP2018537788A JP 2018537788 A JP2018537788 A JP 2018537788A JP 2018530744 A JP2018530744 A JP 2018530744A JP 2018530744 A JP2018530744 A JP 2018530744A JP 2018537788 A JP2018537788 A JP 2018537788A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- weight
- external memory
- locations
- write
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 254
- 230000015654 memory Effects 0.000 title claims abstract description 235
- 239000013598 vector Substances 0.000 claims abstract description 78
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000004590 computer program Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 40
- 230000002123 temporal effect Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 31
- 238000012217 deletion Methods 0.000 claims description 22
- 230000037430 deletion Effects 0.000 claims description 22
- 230000003190 augmentative effect Effects 0.000 claims description 17
- 230000004048 modification Effects 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 230000001174 ascending effect Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 16
- 230000000306 recurrent effect Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000014759 maintenance of location Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000000717 retained effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Processing (AREA)
Abstract
Description
102 ニューラルネットワーク
104 外部メモリ
106 メモリアクセスサブシステム
106 メモリインターフェースサブシステム
160 書き込み
162 読み込み
164 読み込み
170 使用状況値
180 リンクデータ
Claims (20)
- システム入力のシーケンスを処理してシステム出力のシーケンスを生成するための拡張ニューラルネットワークシステムであって、前記拡張ニューラルネットワークシステムは、
ニューラルネットワークであって、前記ニューラルネットワークは、ニューラルネットワーク入力のシーケンスを受信し、各ニューラルネットワーク入力を処理して前記ニューラルネットワーク入力からニューラルネットワーク出力を生成するように構成され、前記ニューラルネットワーク出力は、
システム出力要素部と、
読み込み要素部と、
書き込みキーと、
書き込みベクトルと
を含む、ニューラルネットワークと、
外部メモリと、
メモリインターフェースサブシステムであって、前記メモリインターフェースサブシステムは、前記ニューラルネットワーク出力の各々について、
前記システム出力のシーケンスのうちのシステム出力として前記システム出力要素部から導出された出力を提供するステップと、
前記書き込みキーから前記外部メモリ内の複数のロケーションの各々についてのそれぞれのコンテンツベース重みを決定するステップと、
前記外部メモリ内の前記複数のロケーションの各々が前記ロケーションに記憶されているデータの修正のためにどれくらい利用可能であるかに基づいて前記外部メモリ内の前記複数のロケーションの各々についてのそれぞれの配置重みを決定するステップと、
前記ロケーションについての前記それぞれのコンテンツベース重みおよび前記ロケーションについての前記それぞれの配置重みから前記外部メモリ内の前記複数のロケーションの各々についてのそれぞれの最終的な書き込み重みを決定するステップと、
前記最終的な書き込み重みに従って前記外部メモリに前記書き込みベクトルによって定義されるデータを書き込むステップと、
前記読み込み要素部から前記外部メモリ内の前記複数のロケーションの各々についての読み込み重みの1つまたは複数のセットを決定するステップと、
読み込み重みの前記セットに従って前記外部メモリからデータを読み込むステップと、
前記外部メモリから読み込まれた前記データを前記システム入力のシーケンスのうちの次のシステム入力と統合して、前記ニューラルネットワーク入力のシーケンスのうちの次のニューラルネットワーク入力を生成するステップと
を含む動作を行うように構成される、メモリインターフェースサブシステムと
を含む、拡張ニューラルネットワークシステム。 - 前記外部メモリ内の前記複数のロケーションの各々についてのそれぞれの配置重みを決定するステップは、
前記ロケーションの利用可能部分が使用されている度合いを表す前記ロケーションの各々についてのそれぞれの使用状況値を決定するステップと、
前記使用状況値に従って前記ロケーションを順序付けるステップと、
前記順序付けおよび前記使用状況値に基づいて前記ロケーションの各々についての前記それぞれの配置重みを決定するステップと
を含む、請求項1に記載の拡張ニューラルネットワークシステム。 - 前記ロケーションの各々についての前記それぞれの使用状況値を決定するステップは、
前回のニューラルネットワーク出力についての前記ロケーションへの書き込みに使用された前回の最終的な書き込み重みに基づいて前記ロケーションについての前回の使用状況値を増大するステップを含む、請求項2に記載の拡張ニューラルネットワークシステム。 - 前記ニューラルネットワーク出力は、前記外部メモリへの書き込み時に前記複数のロケーションの各々を開放することができる範囲を定義する、開放ゲートのセットを含み、前記ロケーションの各々についての前記それぞれの使用状況値を決定するステップは、
前記ロケーションを開放することができる前記範囲に基づいて前記ロケーションについての前記増大された前回の使用状況値を修正して、前記ロケーションについての前記それぞれの使用状況値を生成するステップを含む、請求項3に記載の拡張ニューラルネットワークシステム。 - 前記使用状況値に従って前記ロケーションを順序付けるステップは、使用状況の昇順で前記ロケーションを順序付けるステップを含む、請求項2から4のいずれか一項に記載の拡張ニューラルネットワークシステム。
- 前記ロケーションの各々についての前記それぞれの配置重みを決定するステップは、
前記ロケーションについての前記使用状況値から1を引くことによって、前記ロケーションについての初期配置重みを決定するステップと、
前記順序付け内の他の位置における他のロケーションについての前記使用状況値に基づいて前記初期配置重みを修正するステップと
を含む、請求項5に記載の拡張ニューラルネットワークシステム。 - 前記ニューラルネットワーク出力は、
前記コンテンツベース重みと前記配置重みとの間の補間を規定する、配置ゲートと、
前記外部メモリへの前記書き込みの書き込み強度を規定する、書き込みゲートと
を含み、前記複数のロケーションの各々についてのそれぞれの最終的な書き込み重みを決定するステップは、
前記配置ゲートに従って前記ロケーションについての前記コンテンツベース重みと前記ロケーションについての前記配置重みとの間を補間するステップと、
前記書き込みゲートに従って前記補間の結果をゲーティングして、前記ロケーションについての前記最終的な書き込み重みを決定するステップと
を含む、請求項1から6のいずれか一項に記載の拡張ニューラルネットワークシステム。 - 前記ニューラルネットワーク出力は、削除ベクトルをさらに含み、前記動作は、前記ニューラルネットワーク出力の各々について、
前記最終的な書き込み重みおよび前記削除ベクトルに従って前記外部メモリから削除するステップをさらに含む、請求項1から7のいずれか一項に記載の拡張ニューラルネットワークシステム。 - システム入力のシーケンスを処理してシステム出力のシーケンスを生成するための拡張ニューラルネットワークシステムであって、前記拡張ニューラルネットワークシステムは、
ニューラルネットワークであって、前記ニューラルネットワークは、ニューラルネットワーク入力のシーケンスを受信し、各ニューラルネットワーク入力を処理して前記ニューラルネットワーク入力からニューラルネットワーク出力を生成するように構成され、前記ニューラルネットワーク出力は、
システム出力要素部と、
書き込み要素部と、
1つまたは複数の読み込みヘッドの各々についてのそれぞれの読み込みキーと、
書き込みベクトルと
を含む、ニューラルネットワークと、
外部メモリと、
メモリインターフェースサブシステムであって、前記メモリインターフェースサブシステムは、前記ニューラルネットワーク出力の各々について、
前記システム出力のシーケンスのうちのシステム出力として前記システム出力要素部から導出された出力を提供するステップと、
前記ニューラルネットワーク出力の前記書き込み要素部から前記外部メモリ内の複数のロケーションの各々についてのそれぞれの書き込み重みを決定するステップと、
前記それぞれの書き込み重みに従って前記外部メモリに前記書き込みベクトルによって定義されるデータを書き込むステップと、
1つまたは複数の読み込みヘッドの各々について、
前記読み込みヘッドについての前記読み込みキーから前記外部メモリ内の前記複数のロケーションの各々についてのそれぞれのコンテンツベース読み込み重みを決定するステップと、
前記メモリインターフェースサブシステムによって行われた前回の書き込み動作の重みから前記外部メモリ内の前記複数のロケーションの各々についての1つまたは複数のそれぞれの履歴重みを決定するステップと、
前記1つまたは複数の履歴重みおよび前記コンテンツベース読み込み重みから前記複数のロケーションの各々についてのそれぞれの最終的な読み込み重みを決定するステップと、
前記最終的な読み込み重みに従って前記外部メモリからデータを読み込むステップと、
前記外部メモリから読み込まれた前記データを前記システム入力のシーケンスのうちの次のシステム入力と統合して、前記ニューラルネットワーク入力のシーケンスのうちの次のニューラルネットワーク入力を生成するステップと
を含む動作を行うように構成される、メモリインターフェースサブシステムと
を含む、拡張ニューラルネットワークシステム。 - 前記動作は、前記ニューラルネットワーク出力の各々について、
前記外部メモリ内の前記複数のロケーションの各々についての削除重みの1つまたは複数のセットを決定するステップと、
削除重みの前記セットに従って前記外部メモリからデータを削除するステップと
をさらに含む、請求項9に記載の拡張ニューラルネットワークシステム。 - 前記ニューラルネットワーク出力は、前記1つまたは複数の履歴重みと前記コンテンツベース読み込み重みとの間の補間を規定する、各読み込みヘッドについてのそれぞれの読み込みモードベクトルを含み、前記1つまたは複数の履歴重みおよび前記コンテンツベース読み込み重みから前記複数のロケーションの各々についてのそれぞれの最終的な読み込み重みを決定するステップは、
前記読み込みモードベクトルに従って前記ロケーションについての前記1つまたは複数の履歴重みと前記ロケーションについての前記コンテンツベース読み込み重みとの間を補間するステップを含む、請求項9または10のいずれか一項に記載の拡張ニューラルネットワークシステム。 - 前記動作は、
前記メモリインターフェースサブシステムによって前記外部メモリに対して行われた前回の書き込み動作についての書き込み重みの履歴を追跡するテンポラルリンク行列を保持するステップをさらに含む、請求項9から11のいずれか一項に記載の拡張ニューラルネットワークシステム。 - 前記動作は、前記ニューラルネットワーク出力の各々について、
前記ニューラルネットワーク出力についての前記書き込み重みに基づいて前記テンポラルリンク行列を更新するステップをさらに含む、請求項12に記載の拡張ニューラルネットワークシステム。 - 前記外部メモリ内の前記複数のロケーションの各々についての1つまたは複数のそれぞれの履歴重みを決定するステップは、
前記更新されたテンポラルリンク行列から前記複数のロケーションの各々についてのそれぞれの後方履歴重みを決定するステップを含む、請求項13に記載の拡張ニューラルネットワークシステム。 - 前記更新されたテンポラルリンク行列から前記複数のロケーションの各々についてのそれぞれの後方履歴重みを決定するステップは、
前記更新されたテンポラルリンク行列と前回のニューラルネットワーク出力についての前記読み込みヘッドについての前記最終的な読み込み重みから導出されたベクトルとの間の行列乗算を行うステップを含む、請求項14に記載の拡張ニューラルネットワークシステム。 - 前記外部メモリ内の前記複数のロケーションの各々についての1つまたは複数のそれぞれの履歴重みを決定するステップは、
前記更新されたテンポラルリンク行列の転置から前記複数のロケーションの各々についてのそれぞれの前方履歴重みを決定するステップを含む、請求項13から15のいずれか一項に記載の拡張ニューラルネットワークシステム。 - 前記更新されたテンポラルリンク行列から前記複数のロケーションの各々についてのそれぞれの後方履歴重みを決定するステップは、
前記更新されたテンポラルリンク行列の前記転置と前回のニューラルネットワーク出力についての前記読み込みヘッドについての前記最終的な読み込み重みから導出されたベクトルとの間の行列乗算を行うステップを含む、請求項16に記載の拡張ニューラルネットワークシステム。 - 前記テンポラルリンク行列を更新するステップは、
前記ロケーションが書き込まれる最終ロケーションであった度合いを表す前記複数のロケーションの各々についてのそれぞれの先行度重みを決定するステップと、
前記複数のロケーションの各々についての前記先行度重みを使用して前記テンポラルリンク行列および前記ニューラルネットワーク出力についての前記書き込み重みを更新するステップと
を含む、請求項13から17のいずれか一項に記載の拡張ニューラルネットワークシステム。 - 1つまたは複数のコンピュータ記憶媒体に符号化されたコンピュータプログラム製品であって、前記コンピュータプログラム製品は、1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1から18のいずれか一項に記載の拡張ニューラルネットワークシステムを実施させる命令を含む、コンピュータプログラム製品。
- 請求項1から18のいずれか一項に記載のメモリインターフェースサブシステムによって行われる前記動作を含む、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562265912P | 2015-12-10 | 2015-12-10 | |
US62/265,912 | 2015-12-10 | ||
PCT/US2016/066020 WO2017100711A1 (en) | 2015-12-10 | 2016-12-09 | Augmenting neural networks with external memory |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018537788A true JP2018537788A (ja) | 2018-12-20 |
JP2018537788A5 JP2018537788A5 (ja) | 2020-01-23 |
JP6651629B2 JP6651629B2 (ja) | 2020-02-19 |
Family
ID=57708799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018530744A Active JP6651629B2 (ja) | 2015-12-10 | 2016-12-09 | 外部メモリを用いたニューラルネットワークの拡張 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10832134B2 (ja) |
EP (1) | EP3371747B1 (ja) |
JP (1) | JP6651629B2 (ja) |
KR (1) | KR102158683B1 (ja) |
CN (1) | CN108431832B (ja) |
WO (1) | WO2017100711A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021532498A (ja) * | 2019-06-10 | 2021-11-25 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. | 畳み込みニューラルネットワークに基づくビデオメモリ処理方法、装置及び記録媒体 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10044751B2 (en) * | 2015-12-28 | 2018-08-07 | Arbor Networks, Inc. | Using recurrent neural networks to defeat DNS denial of service attacks |
US20180189266A1 (en) * | 2017-01-03 | 2018-07-05 | Wipro Limited | Method and a system to summarize a conversation |
WO2018142378A1 (en) * | 2017-02-06 | 2018-08-09 | Deepmind Technologies Limited | Memory augmented generative temporal models |
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11243944B2 (en) * | 2017-06-29 | 2022-02-08 | Futurewei Technologies, Inc. | Dynamic semantic networks for language understanding and question answering |
CN107508866B (zh) * | 2017-08-08 | 2020-10-02 | 重庆大学 | 减小移动设备端神经网络模型更新的传输消耗的方法 |
US11188820B2 (en) | 2017-09-08 | 2021-11-30 | International Business Machines Corporation | Deep neural network performance analysis on shared memory accelerator systems |
US10853725B2 (en) | 2018-05-18 | 2020-12-01 | Deepmind Technologies Limited | Neural networks with relational memory |
JP6906478B2 (ja) * | 2018-05-23 | 2021-07-21 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
KR20190136431A (ko) | 2018-05-30 | 2019-12-10 | 삼성전자주식회사 | 뉴럴 네트워크 시스템, 이를 포함하는 어플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법 |
US11775815B2 (en) * | 2018-08-10 | 2023-10-03 | Samsung Electronics Co., Ltd. | System and method for deep memory network |
US20200090035A1 (en) * | 2018-09-19 | 2020-03-19 | International Business Machines Corporation | Encoder-decoder memory-augmented neural network architectures |
WO2020064988A1 (en) * | 2018-09-27 | 2020-04-02 | Deepmind Technologies Limited | Scalable and compressive neural network data storage system |
CN112149049A (zh) * | 2019-06-26 | 2020-12-29 | 北京百度网讯科技有限公司 | 用于变换矩阵的装置和方法、数据处理系统 |
US11604976B2 (en) | 2020-04-29 | 2023-03-14 | International Business Machines Corporation | Crossbar arrays for computations in memory-augmented neural networks |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6092018A (en) * | 1996-02-05 | 2000-07-18 | Ford Global Technologies, Inc. | Trained neural network engine idle speed control system |
EP1222625B1 (de) * | 1999-05-24 | 2006-04-05 | IPCentury AG | Neuronales netz zum computergestützten wissensmanagement |
GB0426982D0 (en) * | 2004-12-09 | 2005-01-12 | Secr Defence | Early detection of sepsis |
US7747070B2 (en) * | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
US9514739B2 (en) * | 2012-06-06 | 2016-12-06 | Cypress Semiconductor Corporation | Phoneme score accelerator |
US9141906B2 (en) * | 2013-03-13 | 2015-09-22 | Google Inc. | Scoring concept terms using a deep network |
CN104657776B (zh) * | 2013-11-22 | 2018-06-05 | 华为技术有限公司 | 神经网络系统、基于神经网络系统的图像解析方法和装置 |
CN103617235B (zh) * | 2013-11-26 | 2017-01-25 | 中国科学院信息工程研究所 | 一种基于粒子群算法的网络水军账号识别方法及系统 |
CN105940395B (zh) * | 2014-01-31 | 2019-07-16 | 谷歌有限责任公司 | 生成文档的矢量表示 |
CN103824291B (zh) * | 2014-02-24 | 2017-01-11 | 哈尔滨工程大学 | 连续量子雁群算法演化脉冲耦合神经网络系统参数的自动图像分割方法 |
-
2016
- 2016-12-09 CN CN201680072537.6A patent/CN108431832B/zh active Active
- 2016-12-09 WO PCT/US2016/066020 patent/WO2017100711A1/en active Application Filing
- 2016-12-09 US US15/374,974 patent/US10832134B2/en active Active
- 2016-12-09 KR KR1020187017730A patent/KR102158683B1/ko active IP Right Grant
- 2016-12-09 JP JP2018530744A patent/JP6651629B2/ja active Active
- 2016-12-09 EP EP16820464.2A patent/EP3371747B1/en active Active
-
2020
- 2020-11-09 US US17/093,373 patent/US20210117801A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021532498A (ja) * | 2019-06-10 | 2021-11-25 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. | 畳み込みニューラルネットワークに基づくビデオメモリ処理方法、装置及び記録媒体 |
JP7174831B2 (ja) | 2019-06-10 | 2022-11-17 | 平安科技(深▲せん▼)有限公司 | 畳み込みニューラルネットワークに基づくビデオメモリ処理方法、装置及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
KR102158683B1 (ko) | 2020-09-22 |
JP6651629B2 (ja) | 2020-02-19 |
US10832134B2 (en) | 2020-11-10 |
US20170169332A1 (en) | 2017-06-15 |
KR20180091850A (ko) | 2018-08-16 |
US20210117801A1 (en) | 2021-04-22 |
WO2017100711A1 (en) | 2017-06-15 |
EP3371747B1 (en) | 2023-07-19 |
EP3371747A1 (en) | 2018-09-12 |
CN108431832B (zh) | 2022-09-13 |
CN108431832A (zh) | 2018-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6651629B2 (ja) | 外部メモリを用いたニューラルネットワークの拡張 | |
US20200251099A1 (en) | Generating Target Sequences From Input Sequences Using Partial Conditioning | |
JP6676165B2 (ja) | 畳み込みゲート制御再帰型ニューラルネットワーク | |
US20230289598A1 (en) | Augmented recurrent neural network with external memory | |
US9818409B2 (en) | Context-dependent modeling of phonemes | |
US10083169B1 (en) | Topic-based sequence modeling neural networks | |
US11210579B2 (en) | Augmenting neural networks with external memory | |
US20170192956A1 (en) | Generating parse trees of text segments using neural networks | |
EP3596663B1 (en) | Neural network system | |
US11010664B2 (en) | Augmenting neural networks with hierarchical external memory | |
JP2019517075A (ja) | 比較セットを使用する入力例の分類 | |
US20200327413A1 (en) | Neural programming | |
US11755879B2 (en) | Low-pass recurrent neural network systems with memory | |
US11011161B2 (en) | RNNLM-based generation of templates for class-based text generation | |
EP3452960A1 (en) | Augmenting neural networks with external memory using reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190909 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20191206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6651629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |