CN107273509A - 一种神经网络数据存储器、数据存储方法及数据查找方法 - Google Patents

一种神经网络数据存储器、数据存储方法及数据查找方法 Download PDF

Info

Publication number
CN107273509A
CN107273509A CN201710470753.2A CN201710470753A CN107273509A CN 107273509 A CN107273509 A CN 107273509A CN 201710470753 A CN201710470753 A CN 201710470753A CN 107273509 A CN107273509 A CN 107273509A
Authority
CN
China
Prior art keywords
node
hidden node
input
mrow
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710470753.2A
Other languages
English (en)
Other versions
CN107273509B (zh
Inventor
孙建业
吴宏伟
程世杰
辛士光
王华林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201710470753.2A priority Critical patent/CN107273509B/zh
Publication of CN107273509A publication Critical patent/CN107273509A/zh
Application granted granted Critical
Publication of CN107273509B publication Critical patent/CN107273509B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及数据存储领域,具体涉及一种神经网络数据存储器、数据存储方法及数据查找方法,本发明为了解决现有的数据存储方法的数据查找计算量随着数据存储量的增加而增加,需要使用主键作为检索字段的缺点,而提出一种神经网络数据存储器、数据存储方法及数据查找方法。神经网络数据存储器包括:n个输入节点;n个输出节点;连接于输入节点与输出节点间的第一隐节点组;其中第一隐节点组为2层,每层2个隐节点;第一隐节点组中隐节点的网络权值为(‑1,1)区间内的随机数;连接于输入节点与输出节点间的第二隐节点组;其中第二隐节点组为1层,隐节点个数依据存储数据的规模而定;第二隐节点组中隐节点的网络权值可调。本发明适用于数据存储器。

Description

一种神经网络数据存储器、数据存储方法及数据查找方法
技术领域
本发明涉及数据存储领域,具体涉及一种神经网络数据存储器、数据存储方法及数据查找方法。
背景技术
目前已有的存储器和存储方法采用基于地址的存储方式,其特点是存储的数据量越大,则查找数据时需要使用的时间越长。并且在数据库中进行检索时,检索字段需要包括主键内容,否则查找时间会非常长。因此需要一种新的存储器、存储方法,来解决现有技术的缺陷。
发明内容
本发明的目的是为了解决现有的数据存储器和存储方法的数据查找计算量随着数据存储量的增加而增加,需要使用主键作为检索字段的缺点,而提出一种神经网络数据存储器、数据存储方法及数据查找方法。
一种神经网络数据存储器,所述神经网络存储器是包括如下特征的神经网络模型:
n个输入节点;
n个输出节点;
连接于输入节点与输出节点间的第一隐节点组;其中第一隐节点组为2层,每层2个隐节点;第一隐节点组中隐节点的网络权值为(-1,1)区间内的随机数;
连接于输入节点与输出节点间的第二隐节点组;其中第二隐节点组为1层,其中的隐节点个数依据存储数据的规模而定;第二隐节点组中隐节点的网络权值是可调的。
一种神经网络数据存储方法,包括:
步骤一、将待存储数据分为P组,每组值代表一个待存储字段;
步骤二、通过输入节点输入至如权利要求2所述的神经网络数据存储器中;
步骤三、使用梯度法调整所述神经网络存储器中第二隐节点组中的网络权值使得网络输出在设定的精度下为0,即使得y={y1,y2,…,yn}={0,0,…,0}。
一种神经网络数据查询方法,所述方法用于查询通本发明的神经网络数据存储方法进行存储后的数据,所述神经网络数据查询方法包括:
步骤一、将输入向量k={k1,k2,…,km}输入至输入节点;输入向量k用于表示已知字段;输入节点中未接收输入向量的部分表示未知字段;
步骤二、通过梯度法调节未知字段对应的输入节点的向量值,使得输出节点的值均为0;
步骤三、获取此时未知未知字段对应的输入节点的向量值,作为待查询数据。
本发明的有益效果为:1、使用这样的存储结构,使得数据查找的计算量不随着存储量的增加而增加,查询速度非常快,当字段数量为2时,已知一个字段查询另一个字段,查询速度最快可为10ms;2、可以实现按照数据的一部分内容查找数据,这一过程模拟了人脑的记忆联想功能,是现有计算机存储器不具备的能力。因此该神经网络数据存储器可用于人工智能系统的知识和信息的存储。
附图说明
图1为本发明的神经网络数据存储器的结构示意图;
图2为本发明的具体实施方式五中神经网络数据查询方法的示意图。
具体实施方式
具体实施方式一:本实施方式提供了一种神经网络数据存储器,如图1所示,它是包括如下特征的神经网络模型:
n个输入节点。
n个输出节点。
连接于输入节点与输出节点间的第一隐节点组;其中第一隐节点组为2层,每层2个隐节点;第一隐节点组中隐节点的网络权值为(-1,1)区间内的随机数。
连接于输入节点与输出节点间的第二隐节点组;其中第二隐节点组为1层,其中的隐节点个数依据存储数据的规模而定,例如10或100个节点;第二隐节点组中隐节点的网络权值是可调的。
本实施方式的神经网络数据存储器实质上是一种神经网络模型,在使用时,将待存储数据输入至输入节点,经过隐节点的处理后由输出节点输出结果。这个过程类似于神经网络模型的训练过程,即待存储数据相当于训练数据,隐节点的处理过程相当于训练过程,输出结果相当于分类结果。而如果不对隐节点的结构进行改进,在查找时会出现查找到未存储过的数据的情况。因此本发明对隐节点的结构进行了限定,避免了这一情况。
具体实施方式二:本实施方式与具体实施方式一不同的是:
输入节点的作用函数为:y(1)=x(1);y(1)为输入节点的输出量,x(1)为输入节点的输入量。
输出节点的作用函数为:y(2)为输出节点的输出量;x(2)i为输出节点的第i个输入量。
第一隐节点组中隐节点的作用函数为:y(3)为第一隐节点组中隐节点的输出量;x(3)i为第一隐节点组中隐节点的第i个输入量。
其中x(2)i为第一隐节点组中的第i个输入量;ai是xi到该隐节点的连接值,c是该隐节点的网络权值,m为第一隐节点组中输入量的个数。
第二隐节点组中隐节点的作用函数为:
其中y(4)为第二隐节点组中隐节点的输出量;x(4)i为第二隐节点组中隐节点的输入量;ai是x(4)i到该隐节点的连接权值,b和c是该隐节点的网络权值;x={x1,x2,…,xm}是该隐节点的输入向量,d是该隐节点在其输入向量空间的坐标向量;函数f的表达式为:
其中r0为窗口半径。
窗口函数的作用是:在第二隐节点组中只有距离输入数据小于半径r0的隐节点才被激活,因为只有这些隐节点的输出不为0。这就保证无论第二隐节点组的数目有多少,对一个数据的学习或搜索只激活距离该数据小于r0的隐节点,因此本存储器数据查找的计算量不随数据存储量的增加而增加,适合大量数据的存储和查询。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式提供一种神经网络数据存储方法,包括:
步骤一、将待存储数据分为Q组,每组值代表一个待存储字段。
步骤二、通过输入节点输入至具体实施方式二的神经网络数据存储器中。需要说明的是,每个输入节点用于输入什么样的信息应当是确定的,例如一个神经网络存储器用于存储学生信息,其中第1至第5输入节点用来接收学生的学籍号信息,那么后续的存储也应如此,这样在后续查询的时候就能够通过输入节点的序号来确定查询结果的含义。
步骤三、使用梯度法调整所述神经网络存储器中第二隐节点组中的网络权值使得网络输出在设定的精度下为0,即使得y(2)={y1,y2,…,yn}={0,0,…,0}。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:
步骤二中,梯度下降法的公式为:
其中w代表第二隐节点组中隐节点的网络权值;J=y1 2+y2 2+…+yn 2是神经网络存储器的目标函数。r是步长。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式提供一种神经网络数据查询方法,如图2所示,所述方法用于查询通过具体实施方式四的方法进行存储后的数据,所述神经网络数据查询方法包括:
步骤一、将输入向量k={k1,k2,…,km}输入至输入节点;输入向量k用于表示已知字段;输入节点中未接收输入向量的部分表示未知字段。未知字段在图2中用z表示。
步骤二、通过梯度法调节未知字段对应的输入节点的向量值,使得输出节点的值均为0。
步骤三、获取此时未知字段对应的输入节点的向量值,作为待查询数据。
例如,已知字段是学生的学籍号信息,未知字段的信息为学生的姓名信息,将学籍号信息输入至输入节点,通过调节其他字段(即待查询字段)使得输出节点的向量值为0,此时的输入节点的向量值即为待查询的学生姓名信息。
具体实施方式六:本实施方式的神经网络数据查询方法与具体实施方式五不同的是,步骤二中,通过梯度法调节未知字段对应的输入节点的网络权值所使用的公式为:
其中i=1,2,3,…,p,p为未知字段对应的输入节点的个数。zi为未知字段的第i个输入节点。
其它步骤及参数与具体实施方式五相同。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (6)

1.一种神经网络数据存储器,其特征在于,所述神经网络存储器是包括如下特征的神经网络模型:
n个输入节点;
n个输出节点;
连接于输入节点与输出节点间的第一隐节点组;其中第一隐节点组为2层,每层2个隐节点;第一隐节点组中隐节点的网络权值为(-1,1)区间内的随机数;
连接于输入节点与输出节点间的第二隐节点组;其中第二隐节点组为1层,其中的隐节点个数依据存储数据的规模而定;第二隐节点组中隐节点的网络权值是可调的。
2.根据权利要求1所述的神经网络数据存储器,其特征在于,
输入节点的作用函数为:y(1)=x(1);y(1)为输入节点的输出量,x(1)为输入节点的输入量;
输出节点的作用函数为:y(2)为输出节点的输出量;x(2)i为输出节点的第i个输入量;
第一隐节点组中隐节点的作用函数为:y(3)为第一隐节点组中隐节点的输出量;x(3)i为第一隐节点组中隐节点的第i个输入量;ai是输入量到该隐节点的连接权值,c是该隐节点的网络权值,m为第一隐节点组中输入量的个数;
第二隐节点组中隐节点的作用函数为:
其中y(4)为第二隐节点组中隐节点的输出量;x(4)i为第二隐节点组中隐节点的输入量;b和c是该隐节点的网络权值;x={x1,x2,…,xm}是该隐节点的输入向量,d是该隐节点在其输入向量空间的坐标向量;函数f的表达式为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>x</mi> <mo>&gt;</mo> <msub> <mi>r</mi> <mn>0</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>1</mn> <mo>-</mo> <mfrac> <mi>x</mi> <msub> <mi>r</mi> <mn>0</mn> </msub> </mfrac> </mrow> </mtd> <mtd> <mrow> <mi>x</mi> <mo>&amp;le;</mo> <msub> <mi>r</mi> <mn>0</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中r0为窗口半径。
3.一种神经网络数据存储方法,其特征在于,包括:
步骤一、将待存储数据分为Q组,每组值代表一个待存储字段;
步骤二、通过输入节点输入至如权利要求2所述的神经网络数据存储器中;
步骤三、使用梯度法调整所述神经网络存储器中第二隐节点组中的网络权值使得输出节点的输出向量在设定的精度下为0,即使得y(2)={y1,y2,…,yn}={0,0,…,0}。
4.根据权利要求3所述的神经网络数据存储方法,其特征在于,包括:
步骤二中,梯度下降法的公式为:
<mrow> <mi>w</mi> <mo>=</mo> <mi>w</mi> <mo>-</mo> <mi>r</mi> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mi>w</mi> </mrow> </mfrac> </mrow>
其中w代表第二隐节点组中隐节点的网络权值,w等于ai,b或c;是神经网络存储器的目标函数;r为步长。
5.一种神经网络数据查询方法,其特征在于,所述方法用于查询通过权利要求4所述方法进行存储后的数据,所述神经网络数据查询方法包括:
步骤一、将输入向量k={k1,k2,…,km}输入至输入节点;输入向量k用于表示已知字段;输入节点中未接收输入向量的部分表示未知字段;
步骤二、通过梯度法调节未知字段对应的输入节点的向量值,使得输出节点的值均为0;
步骤三、获取此时未知字段对应的输入节点的向量值,作为待查询数据。
6.根据权利要求5所述的神经网络数据查询方法,其特征在于,步骤二中,通过梯度法调节未知字段对应的输入节点的网络权值所使用的公式为:
<mrow> <msub> <mi>z</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>z</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>r</mi> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>z</mi> <mi>i</mi> </msub> </mrow> </mfrac> </mrow>
其中i=1,2,3,…,p,p为未知字段对应的输入节点的个数;zi为未知字段的第i个输入节点。
CN201710470753.2A 2017-06-20 2017-06-20 一种神经网络数据存储器、数据存储方法及数据查找方法 Expired - Fee Related CN107273509B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710470753.2A CN107273509B (zh) 2017-06-20 2017-06-20 一种神经网络数据存储器、数据存储方法及数据查找方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710470753.2A CN107273509B (zh) 2017-06-20 2017-06-20 一种神经网络数据存储器、数据存储方法及数据查找方法

Publications (2)

Publication Number Publication Date
CN107273509A true CN107273509A (zh) 2017-10-20
CN107273509B CN107273509B (zh) 2020-06-05

Family

ID=60068107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710470753.2A Expired - Fee Related CN107273509B (zh) 2017-06-20 2017-06-20 一种神经网络数据存储器、数据存储方法及数据查找方法

Country Status (1)

Country Link
CN (1) CN107273509B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111090673A (zh) * 2019-12-20 2020-05-01 北京百度网讯科技有限公司 缓存单元的查找方法及相关设备
CN111435939A (zh) * 2019-01-14 2020-07-21 百度在线网络技术(北京)有限公司 用于划分节点的存储空间的方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0385436A2 (en) * 1989-02-28 1990-09-05 Fujitsu Limited An error absorbing system in a neuron computer
CN101968832A (zh) * 2010-10-26 2011-02-09 东南大学 基于构造-剪枝混合优化rbf网络的煤灰熔点预测方法
CN102651088A (zh) * 2012-04-09 2012-08-29 南京邮电大学 基于A_Kohonen神经网络的恶意代码分类方法
CN104932267A (zh) * 2015-06-04 2015-09-23 曲阜师范大学 一种采用资格迹的神经网络学习控制方法
EP2923307A1 (fr) * 2012-11-23 2015-09-30 Universite De Bretagne Sud Architecture de réseau de neurone, procédé d'obtention et programmes correspondants
CN105787592A (zh) * 2016-02-26 2016-07-20 河海大学 基于改进rbf网络的风电机组超短期风功率预测方法
US9430735B1 (en) * 2012-02-23 2016-08-30 Micron Technology, Inc. Neural network in a memory device
WO2017006104A1 (en) * 2015-07-07 2017-01-12 Touchtype Ltd. Improved artificial neural network for language modelling and prediction
CN106485205A (zh) * 2016-09-20 2017-03-08 北京工业大学 基于多层超限学习机的运动想象脑电信号分类方法
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0385436A2 (en) * 1989-02-28 1990-09-05 Fujitsu Limited An error absorbing system in a neuron computer
CN101968832A (zh) * 2010-10-26 2011-02-09 东南大学 基于构造-剪枝混合优化rbf网络的煤灰熔点预测方法
US9430735B1 (en) * 2012-02-23 2016-08-30 Micron Technology, Inc. Neural network in a memory device
CN102651088A (zh) * 2012-04-09 2012-08-29 南京邮电大学 基于A_Kohonen神经网络的恶意代码分类方法
EP2923307A1 (fr) * 2012-11-23 2015-09-30 Universite De Bretagne Sud Architecture de réseau de neurone, procédé d'obtention et programmes correspondants
CN104932267A (zh) * 2015-06-04 2015-09-23 曲阜师范大学 一种采用资格迹的神经网络学习控制方法
WO2017006104A1 (en) * 2015-07-07 2017-01-12 Touchtype Ltd. Improved artificial neural network for language modelling and prediction
CN105787592A (zh) * 2016-02-26 2016-07-20 河海大学 基于改进rbf网络的风电机组超短期风功率预测方法
CN106485205A (zh) * 2016-09-20 2017-03-08 北京工业大学 基于多层超限学习机的运动想象脑电信号分类方法
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MARK S.GOLDMAN,ET.AL: "《Memory without Feedback in a Neural Network》", 《ELSEVIER》 *
PING CHI,ET.AL: "《PRIME: A Novel Processing-in-memory Architecture for Neural Network Computation in ReRAM-based Main Memory》", 《2016 ACM/IEEE 43RD ANNUAL INTERNATIONAL SYMPOSIUM ON COMPUTER ARCHITECTURE》 *
吴宏伟等: "《基于智能Agent的分布式入侵检测模型设计》", 《哈尔滨理工大学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111435939A (zh) * 2019-01-14 2020-07-21 百度在线网络技术(北京)有限公司 用于划分节点的存储空间的方法和装置
CN111090673A (zh) * 2019-12-20 2020-05-01 北京百度网讯科技有限公司 缓存单元的查找方法及相关设备
CN111090673B (zh) * 2019-12-20 2023-04-18 北京百度网讯科技有限公司 缓存单元的查找方法及相关设备

Also Published As

Publication number Publication date
CN107273509B (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
CN102622515B (zh) 一种天气预测方法
CN104166731B (zh) 一种社交网络重叠社区发现系统及其方法
CN108287881A (zh) 一种基于随机游走关系发现的优化方法
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN107451619A (zh) 一种基于感知生成对抗网络的小目标检测方法
CN106781489A (zh) 一种基于递归神经网络的路网状态预测方法
CN107132516A (zh) 一种基于深度置信网络的雷达一维距离像目标识别方法
CN103226741A (zh) 城市供水管网爆管预测方法
CN108830325A (zh) 一种基于学习的振动信息地形分类识别方法
CN106778011A (zh) 一种基于学术异构网络的学者影响力评估方法
CN108304674A (zh) 一种基于bp神经网络的铁路软土路基沉降预测方法
CN107886158A (zh) 一种基于迭代局部搜索和随机惯性权重的蝙蝠优化算法
CN106909931A (zh) 一种用于机器学习模型的特征生成方法、装置和电子设备
CN110458373A (zh) 一种基于知识图谱融合的犯罪预测方法及系统
CN110807509A (zh) 一种基于贝叶斯神经网络的深度知识追踪方法
CN109492075A (zh) 一种基于循环生成对抗网络的迁移学习排序方法
CN106777402A (zh) 一种基于稀疏神经网络的图像检索文本方法
CN106844738A (zh) 基于神经网络的食材之间容克关系的分类方法
CN105550747A (zh) 一种新型卷积神经网络的样本训练方法
CN108280207A (zh) 一种构造完美哈希的方法
CN107945534A (zh) 一种基于gmdh神经网络的交通车流量预测方法
CN107368928A (zh) 一种古建筑沉降的组合预测方法及系统
CN107273509A (zh) 一种神经网络数据存储器、数据存储方法及数据查找方法
CN116362329A (zh) 一种融合参数优化的集群联邦学习方法及设备
CN103679269A (zh) 基于主动学习的分类器样本选择方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200605

Termination date: 20210620