JP6466590B2 - K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 - Google Patents
K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 Download PDFInfo
- Publication number
- JP6466590B2 JP6466590B2 JP2017548139A JP2017548139A JP6466590B2 JP 6466590 B2 JP6466590 B2 JP 6466590B2 JP 2017548139 A JP2017548139 A JP 2017548139A JP 2017548139 A JP2017548139 A JP 2017548139A JP 6466590 B2 JP6466590 B2 JP 6466590B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- deep learning
- order
- learning model
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築するステップ1)であって、前記K次数スパース制約はノードK次数スパース制約及び階層K次数スパース制約を含み、前記ノードK次数スパース制約は、モデル中のすべてのノードの順方向の出次数がK以下であり、前記Kの値の範囲が(1,N/H]であることを意味し、ここで、Nは前記深層学習モデル中のすべてのノードの数であり、Hはモデルの隠れ層の層数であり、前記階層K次数スパース制約は、第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であることを意味する、前記ステップ1)と、
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得するステップ2)と、
前記K次数スパース制約を満たす最適化した深層学習モデルに処理対象のビッグデータを入力して処理し、最終的に処理結果を出力するステップ3)と、
を含む、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法を提案する。
であり、ここで、dinは前記モデルの入力の次元であり、doutはモデルの出力の次元であり、Hはモデルの隠れ層の層数であり、[]は丸め記号である。
入力層から出力層への順に深層学習モデルの各層に番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層との間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、重みが第1閾値未満に減衰する結合がある場合に、現在において結合があること及び現在において連結がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、ステップ104)と、
第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合に前記ステップ103)に進むステップ105)と、
h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合に前記ステップ103)に進むステップ106)と、
コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合に前記ステップ103)に進むステップ107)と、
h>Hが成立するか否かを判定し、YESの場合に前記ステップ1)の処理を終了させ、NOの場合に前記ステップ102)に進むステップ108)と、をさらに含む。
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、入力した訓練サンプルがラベルなしサンプルセットY={xi t}である場合には、サンプルを入力して出力を取得した後、入力に戻し、K次数制約で出力層から入力層への逆再構築を行い、再構築誤差Erを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で各層の重みを調整し、入力した訓練サンプルがラベルありサンプルセットX={xi t,yi t}である場合には、出力とyi tとを比較し、訓練誤差Etを計算し、誤差が閾値未満になるまで、勾配降下又は共役勾配降下の方式で順方向の重みを調整する。
図1に示すように、階層なしK次数スパースネットワークとは、すべてのノードがノードK次数スパース制約を満たしていることを意味する。ノードK次数スパース制約とは、すべてのノードの順方向の出次数KiがK以下になるまで、ノード間の不要な結合を削除することを意味する。ここで、Kは、設定されたパラメータであり、順方向とは、入力から出力に向かう方向を意味し、隠れ層がある場合には、入力から隠れ層を通過して出力に向かう方向を意味する。
を満たすニューラルネットワークモデルを意味し、階層K次数スパースネットワークは、
を満たすニューラルネットワークモデルを意味し、ノード上限K次数スパースネットワークは、Ki=Kを満たすニューラルネットワークモデルを意味し、階層上限K次数スパースネットワークは、
を満たすニューラルネットワークモデルを意味し、理想的な上限K次数スパースネットワークは、Ki=Kと
とを同時に満たすニューラルネットワークモデルを意味する。これらはいずれも本発明に係る方法に直接適用できる。
ニューラルネットワークモデルが合計N個のノードを有し、まず全結合の方式でネットワークを形成し、結合していない重みの値をゼロとすると、図1に示すように、任意のノードの出力xjと当該ノードの入力セットX={xi,i=1…N}とが以下の演算規則を満たしている。
である)個のノードに順方向に入力される。
である。
を満たす必要がある。
である。
ステップ1)グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築する。
101)入力層から出力層への順に深層学習モデルの各層を番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2個の層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
102)h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
103)ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
104)第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、重みが第1閾値未満に減衰する結合がある場合に、現在において結合があることと現在において連結がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、前記ステップ104)と、
105)第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合にステップ103)に進むステップ105)と、
106)h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合にステップ103)に進むステップ106)と、
107)コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合にステップ103)に進むステップ107)と、
108)h>Hが成立するか否かを判定し、YESの場合にステップ1)の処理を終了させ、NOの場合にステップ102)に進むステップ108)と、を更に含む。
Claims (5)
- K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法であって、
グラデーション枝刈り法によって、ラベルなし訓練サンプルを用いてK次数スパース制約を満たす深層学習モデルを構築するステップ1)であって、前記K次数スパース制約はノードK次数スパース制約及び階層K次数スパース制約を含み、前記ノードK次数スパース制約は、モデル中のすべてのノードの順方向の出次数がK以下であり、前記Kの値の範囲が(1,N/H]であることを意味し、ここで、Nは前記深層学習モデル中のすべてのノードの数であり、Hはモデルの隠れ層の層数であり、前記階層K次数スパース制約は、第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であることを意味する、前記ステップ1)と、
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、モデルの各層の重みパラメータを最適化してK次数スパース制約を満たす最適化した深層学習モデルを取得するステップ2)と、
前記K次数スパース制約を満たす最適化した深層学習モデルに処理対象のビッグデータを入力して処理し、最終的に処理結果を出力するステップ3)と、
を含む、K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。 - 前記Kの値は、
であり、ここで、dinはモデルの入力の次元であり、doutはモデルの出力の次元であり、Hはモデルの隠れ層の層数であり、[]は丸め記号である、請求項1に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。 - 前記処理方法のステップ1)は、
入力層から出力層への順に深層学習モデルの各層に番号付けするステップ101)であって、h=−1に設定され、深層学習モデルが入力層、H個の隠れ層及び出力層を含み、入力層から出力層までに合計H+2層が含まれるように設定されると共に、入力層の番号が0に設定され、1番目の隠れ層の番号が1に設定され、類推によって、出力層の番号がH+1に設定される、前記ステップ101)と、
h=h+1に設定すると共に、第h層と第h+1層のパラメータを初期化するステップ102)と、
ラベルなし訓練サンプルセットY={xi t}を第h層に入力すると共に、第h層と第h+1層のコスト関数を最小化する過程において第h層と第h+1層との間の結合荷重及び第h+1層ノードのバイアス重みを調整するステップ103)と、
第1閾値未満の結合荷重がある場合に、再構築誤差変化の確率関数によって当該結合を削除するか否かを判定するステップ104)であって、第1閾値未満に減衰する結合荷重がある場合に、現在において結合があること及び現在において結合がないことの2種の状況に応じてサンプルを再構築し、再構築誤差変化ΔErを取得し、当該誤差変化の確率関数min[1,exp(−ΔEr/Er)]によって現在における結合を削除するか否かを決定する、前記ステップ104)と、
第h層のすべてのノードの順方向の出次数がK未満であるか否かを判定し、YESの場合にステップ106)に進み、NOの場合に前記ステップ103)に進むステップ105)と、
h>0の場合に第h層のすべてのノードの順方向の出次数の和が第h−1層のすべてのノードの順方向の出次数の和未満であるか否かを判定し、YESの場合にステップ107)に進み、NOの場合に前記ステップ103)に進むステップ106)と、
コスト関数の変化が第2閾値未満であるか否かを判定し、YESの場合にステップ108)に進み、NOの場合に前記ステップ103)に進むステップ107)と、
h>Hが成立するか否かを判定し、YESの場合に前記ステップ1)の処理を終了させ、NOの場合に前記ステップ102)に進むステップ108)と、
をさらに含む、請求項1に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。 - 前記処理方法のステップ2)における具体的なプロセスは、
前記K次数スパース制約を満たす深層学習モデルに更新後の訓練サンプルを入力し、入力した訓練サンプルがラベルなしサンプルセットY={xi t}である場合には、サンプルを入力して出力を取得した後、入力に戻し、K次数制約で出力層から入力層への逆再構築を行い、再構築誤差Erを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で各層の重みを調整し、入力した訓練サンプルがラベルありサンプルセットX={xi t,yi t}である場合には、出力とyi tとを比較し、訓練誤差Etを計算し、誤差が閾値未満になるまで勾配降下又は共役勾配降下の方式で順方向重みを調整する、請求項3に記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。 - 前記K次数スパース制約を満たす深層学習モデルは、ノード上限K次数スパースネットワーク、階層上限K次数スパースネットワーク、及び、理想的な上限K次数スパースネットワークをさらに含み、
前記ノード上限K次数スパースネットワークは、すべてのノードの順方向の出次数がKとなること、即ち、K i =Kを満たすニューラルネットワークモデルであり、
前記階層上限K次数スパースネットワークは、すべての階層において第j階層のすべてのノードの順方向の出次数の和と第j+1階層のすべてのノードの順方向の出次数の和と等しいこと、即ち、
を満たすニューラルネットワークモデルであり、
前記理想的な上限K次数スパースネットワークは、すべてのノードの順方向の出次数がKとなること、及び、すべての階層において第j階層のすべてのノードの順方向の出次数の和と第j+1階層のすべてのノードの順方向の出次数の和と等しいこと、即ち、K i =Kと
とを同時に満たすニューラルネットワークモデルであり、ここで、前記jは階層モデルの層数である、請求項1〜請求項4のいずれか1つに記載のK次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510112645.9A CN106033555A (zh) | 2015-03-13 | 2015-03-13 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
CN201510112645.9 | 2015-03-13 | ||
PCT/CN2015/075473 WO2016145676A1 (zh) | 2015-03-13 | 2015-03-31 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018511871A JP2018511871A (ja) | 2018-04-26 |
JP6466590B2 true JP6466590B2 (ja) | 2019-02-06 |
Family
ID=56918252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017548139A Active JP6466590B2 (ja) | 2015-03-13 | 2015-03-31 | K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11048998B2 (ja) |
EP (1) | EP3282401A4 (ja) |
JP (1) | JP6466590B2 (ja) |
CN (1) | CN106033555A (ja) |
WO (1) | WO2016145676A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6835559B2 (ja) * | 2016-12-09 | 2021-02-24 | 国立大学法人電気通信大学 | プライバシ保護データ提供システム |
CN106685546A (zh) * | 2016-12-29 | 2017-05-17 | 深圳天珑无线科技有限公司 | 一种无线人体感知的方法及服务器 |
CN107316024B (zh) * | 2017-06-28 | 2021-06-29 | 北京博睿视科技有限责任公司 | 基于深度学习的周界报警算法 |
CN109284826A (zh) * | 2017-07-19 | 2019-01-29 | 阿里巴巴集团控股有限公司 | 神经网络处理方法、装置、设备及计算机可读存储介质 |
CN108694502B (zh) * | 2018-05-10 | 2022-04-12 | 清华大学 | 一种基于XGBoost算法的机器人制造单元自适应调度方法 |
CN108985382B (zh) * | 2018-05-25 | 2022-07-15 | 清华大学 | 基于关键数据通路表示的对抗样本检测方法 |
CN109033521B (zh) * | 2018-06-25 | 2021-04-20 | 中南大学 | 一种新建铁路限制坡度优化决策方法 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
US11468330B2 (en) | 2018-08-03 | 2022-10-11 | Raytheon Company | Artificial neural network growth |
CN110209943B (zh) * | 2019-06-04 | 2021-09-28 | 成都终身成长科技有限公司 | 一种单词推送方法、装置及电子设备 |
CN110390326A (zh) * | 2019-06-14 | 2019-10-29 | 华南理工大学 | 一种基于集聚交叉熵损失函数的序列识别方法 |
CN110287031B (zh) * | 2019-07-01 | 2023-05-09 | 南京大学 | 一种减少分布式机器学习通信开销的方法 |
US11068748B2 (en) | 2019-07-17 | 2021-07-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iteratively biased loss function and related methods |
US10984507B2 (en) | 2019-07-17 | 2021-04-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iterative blurring of geospatial images and related methods |
US11417087B2 (en) | 2019-07-17 | 2022-08-16 | Harris Geospatial Solutions, Inc. | Image processing system including iteratively biased training model probability distribution function and related methods |
CN110458337B (zh) * | 2019-07-23 | 2020-12-22 | 内蒙古工业大学 | 一种基于c-gru的网约车供需预测方法 |
CN110533170A (zh) * | 2019-08-30 | 2019-12-03 | 陕西思科锐迪网络安全技术有限责任公司 | 一种图形化编程的深度学习神经网络搭建方法 |
CN110543918B (zh) * | 2019-09-09 | 2023-03-24 | 西北大学 | 一种基于正则化与数据增广的稀疏数据处理方法 |
CN111260121B (zh) * | 2020-01-12 | 2022-04-29 | 桂林电子科技大学 | 一种基于深度瓶颈残差网络的城市范围的人流量预测方法 |
CN111429175B (zh) * | 2020-03-18 | 2022-05-27 | 电子科技大学 | 稀疏特征场景下进行点击转化预测的方法 |
CN112100912A (zh) * | 2020-09-08 | 2020-12-18 | 长春工程学院 | 基于满足k度稀疏约束的深度学习模型的数据处理方法 |
CN112631215B (zh) * | 2020-12-10 | 2022-06-24 | 东北大学 | 工业过程运行指标智能预报方法、装置、设备及存储介质 |
CN112765623B (zh) * | 2021-01-15 | 2022-08-02 | 浙江科技学院 | 基于相位恢复算法的光学多图像认证和加密方法 |
CN113052306B (zh) * | 2021-03-04 | 2022-04-22 | 华南理工大学 | 一种基于堆叠式宽度学习模型的在线学习芯片 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511677A (ja) * | 2011-03-22 | 2014-05-19 | コーネル・ユニバーシティー | 鑑別困難な良性甲状腺病変と悪性甲状腺病変との識別法 |
US8700552B2 (en) * | 2011-11-28 | 2014-04-15 | Microsoft Corporation | Exploiting sparseness in training deep neural networks |
CN103489033A (zh) | 2013-09-27 | 2014-01-01 | 南京理工大学 | 融合自组织映射与概率神经网络的增量式学习方法 |
CN103530689B (zh) | 2013-10-31 | 2016-01-20 | 中国科学院自动化研究所 | 一种基于深度学习的聚类方法 |
CN103838836B (zh) * | 2014-02-25 | 2016-09-28 | 中国科学院自动化研究所 | 基于判别式多模态深度置信网多模态数据融合方法和系统 |
-
2015
- 2015-03-13 CN CN201510112645.9A patent/CN106033555A/zh active Pending
- 2015-03-31 EP EP15885059.4A patent/EP3282401A4/en not_active Withdrawn
- 2015-03-31 JP JP2017548139A patent/JP6466590B2/ja active Active
- 2015-03-31 WO PCT/CN2015/075473 patent/WO2016145676A1/zh active Application Filing
- 2015-03-31 US US15/557,469 patent/US11048998B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018511871A (ja) | 2018-04-26 |
WO2016145676A1 (zh) | 2016-09-22 |
EP3282401A4 (en) | 2018-05-30 |
EP3282401A1 (en) | 2018-02-14 |
CN106033555A (zh) | 2016-10-19 |
US20180068216A1 (en) | 2018-03-08 |
US11048998B2 (en) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6466590B2 (ja) | K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 | |
CN110880036B (zh) | 神经网络压缩方法、装置、计算机设备及存储介质 | |
CN109102126B (zh) | 一种基于深度迁移学习的理论线损率预测模型 | |
Wang et al. | Research on Web text classification algorithm based on improved CNN and SVM | |
CN113905391B (zh) | 集成学习网络流量预测方法、系统、设备、终端、介质 | |
CN104751228B (zh) | 用于语音识别的深度神经网络的构建方法及系统 | |
CN112070277B (zh) | 基于超图神经网络的药物-标靶相互作用预测方法 | |
WO2023115596A1 (zh) | 一种基于迁移学习融合模型的桁架应力预测及轻量化方法 | |
CN112215353B (zh) | 一种基于变分结构优化网络的通道剪枝方法 | |
CN106779068A (zh) | 调整人工神经网络的方法和装置 | |
JP2018511870A (ja) | セグメントに基づく二段深層学習モデル用のビッグデータの処理方法 | |
CN111461463B (zh) | 一种基于tcn-bp的短期负荷预测方法、系统及设备 | |
CN108427665A (zh) | 一种基于lstm型rnn模型的文本自动生成方法 | |
CN106407690B (zh) | 一种基于自动深度置信网络的门诊量预测方法及系统 | |
CN103559537B (zh) | 一种乱序数据流中基于误差反向传播的模板匹配方法 | |
CN111144027A (zh) | 一种基于bp神经网络全特性曲线函数的逼近方法 | |
CN107273971B (zh) | 基于神经元显著性的前馈神经网络结构自组织方法 | |
Naik et al. | Indian monsoon rainfall classification and prediction using robust back propagation artificial neural network | |
Xia et al. | Efficient synthesis of compact deep neural networks | |
Gao | Study on new evolutionary neural network | |
Taik et al. | Hybrid particle swarm and neural network approach for streamflow forecasting | |
Chen et al. | Pre-shaped fuzzy c-means algorithm (pfcm) for transparent membership function generation | |
Gao | New evolutionary neural networks | |
Ding et al. | Evolving neural network using hybrid genetic algorithm and simulated annealing for rainfall-runoff forecasting | |
CN116629237B (zh) | 基于逐步集成多层注意力的事件表示学习方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6466590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |