CN114692809A - 基于神经集群的数据处理方法及装置、存储介质、处理器 - Google Patents

基于神经集群的数据处理方法及装置、存储介质、处理器 Download PDF

Info

Publication number
CN114692809A
CN114692809A CN202011567545.2A CN202011567545A CN114692809A CN 114692809 A CN114692809 A CN 114692809A CN 202011567545 A CN202011567545 A CN 202011567545A CN 114692809 A CN114692809 A CN 114692809A
Authority
CN
China
Prior art keywords
matrix
objective function
updating
transformation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011567545.2A
Other languages
English (en)
Inventor
黄文涛
葛建军
袁森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC Information Science Research Institute
Original Assignee
CETC Information Science Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC Information Science Research Institute filed Critical CETC Information Science Research Institute
Priority to CN202011567545.2A priority Critical patent/CN114692809A/zh
Priority to US17/544,115 priority patent/US20220207322A1/en
Publication of CN114692809A publication Critical patent/CN114692809A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经集群的数据处理方法及装置、存储介质、处理器。其中,该方法包括:获取原始数据,将原始数据进行共空间模式变换获得变换数据;基于变换数据得到包含第一矩阵的第一目标函数,其中,第一目标函数为原始数据的神经集群网络模型的目标函数,第一矩阵为神经集群网络模型的目标函数的权重参数;基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵;根据第二矩阵更新第一目标函数。本发明解决了现有技术中监督学习模型训练效率低及鲁棒性差的技术问题。

Description

基于神经集群的数据处理方法及装置、存储介质、处理器
技术领域
本发明涉及机器学习领域,具体而言,涉及一种基于神经集群的数据处理方法及装置、存储介质、处理器。
背景技术
机器学习已广泛的应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别等多个领域。机器学习的关键是发现数据中的未知结构,从观测数据中学习一个好的特征表示,这种特征表示能有助于揭示数据的底层结构。目前,机器学习主要包括监督学习和无监督学习两类方法。其中监督学习是从标记的训练数据来推断一个功能的机器学习任务,训练数据包括一套训练示例。在监督学习中,每个示例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成,监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。
目前有监督表征学习主要应用有适合浅层模型的支撑矢量机(SVM)、适合深度学习模型的反向传播(BP)算法等。目前SVM仅适用于浅层模型以及小样本的情况,难于扩展到深度模型;BP算法是目前深度学习的主要基础算法,但要想取得好的效果必须要有大量的训练样本,并且存在训练效率不高及鲁棒性差等缺点。
针对上述现有技术中监督学习模型训练效率低及鲁棒性差的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种基于神经集群的数据处理方法及装置、存储介质、处理器,以至少解决现有技术中监督学习模型训练效率低及鲁棒性差的技术问题。
根据本发明实施例的一个方面,提供了一种基于神经集群的数据处理方法,包括:获取原始数据,将原始数据进行共空间模式变换获得变换数据;基于变换数据得到包含第一矩阵的第一目标函数,其中,第一目标函数为神经集群网络模型的目标函数,第一矩阵为神经集群网络模型的目标函数的权重参数;基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵;根据第二矩阵更新第一目标函数。
进一步地,获取原始数据,将原始数据进行共空间模式变换获得变换数据,包括:获取表示原始数据的输入向量以及神经元输出向量;根据原始数据的输入向量以及神经元输出向量确定交互信息公式;确定包含协方差矩阵和变换矩阵的第二目标函数;根据交互信息公式和第二目标函数获得变换矩阵;根据变换矩阵将原始数据变换为变换数据。
进一步地,在神经元输出向量的个数大于原始数据的向量维度的条件下,根据交互信息公式和第二目标函数获得变换矩阵,包括:获得交互信息公式的高度逼近公式;根据高度逼近公式和第二目标函数获得变换矩阵。
进一步地,基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵,包括:基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵;确定迭代次数,其中,迭代次数用于表示基于预设的梯度下降更新规则对第一矩阵进行更新的次数;判断迭代次数是否达到预设次数,如果是,将第三矩阵作为第二矩阵且输出,如果否,则将第三矩阵赋值给第一矩阵,返回基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵的步骤。
进一步地,在基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵之前,方法还包括:计算得到第一目标函数关于第一矩阵的导数。
进一步地,根据第二矩阵更新第一目标函数,包括:对第二矩阵进行正交化变换,获得正交化结果;根据正交化结果更新第一目标函数的值。
进一步地,正交化变换为Gram-Schmidt正交化变换。
根据本发明实施例的另一方面,还提供了一种基于神经集群的数据处理装置,包括:装置包括:变换模块,用于获取原始数据,将原始数据进行共空间模式变换获得变换数据;函数获取模块,用于基于变换数据得到包含第一矩阵的第一目标函数,其中,第一目标函数为神经集群网络模型的目标函数,第一矩阵为神经集群网络模型的目标函数的权重参数;矩阵更新模块,用于基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵;函数更新模块,用于根据第二矩阵更新第一目标函数。
根据本发明实施例的另一方面,还提供了存储介质,包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述基于神经集群的数据处理方法。
根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行上述基于神经集群的数据处理方法。
在本发明实施例中,根据上述步骤所提出的基于神经集群的监督表征学习算法,通过将获得的原始数据进行CSP变换预处理后获得变换数据,根据变换数据构建神经集群网络模型的监督学习目标函数,对该模型中的权重参数矩阵按照预设的梯度下降更新规则进行更新,实现了神经集群网络模型的权重参数的快速优化。基于该监督表征学习算法,提高了神经集群网络模型的训练学习的效率和性能,解决了现有技术中监督学习模型训练效率低及鲁棒性差的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的基于神经集群的数据处理方法的流程图;
图2是根据本发明实施例的一种可选的基于神经集群的数据处理方法的流程图;
图3是手写数字数据集MNIST的示例图;
图4是根据本发明实施例的对图3数据集进行处理后学习得到的权重参数C的示意图;
图5是根据本发明实施例的基于神经集群的数据处理装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种基于神经集群的数据处理方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的基于神经集群的数据处理方法,如图1所示,该方法包括如下步骤:
步骤S101,获取原始数据,将原始数据进行共空间模式变换获得变换数据。
上述原始数据为来源于图像识别、自然语言处理、语音识别、信号分析等应用中的图像数据、语音数据或者信号数据等。
共空间模式变换,即CSP(Common spatial pattern)变换,根据如下公式可以将原始数据x进行CSP变换获得变换数据
Figure BDA0002861119550000041
其中,为变换矩阵V的转置矩阵;CSP变换可初步将原始数据不同类之间的差异扩大,便于后面进行进一步学习训练来分类以提高学习效率。
步骤S102,基于变换数据可得到包含第一矩阵的第一目标函数,其中,第一目标函数为神经集群网络模型的目标函数,第一矩阵为神经集群网络模型的目标函数的权重参数。
第一目标函数为神经集群网络模型的监督学习目标函数,在一种可选的实施例中,第一目标函数为Q[C],第一矩阵为C,第一矩阵C为第一目标函数为Q[C]的权重参数,第一目标函数的表达式可以为:
Figure BDA0002861119550000042
其中
Figure BDA0002861119550000043
β和m为非负常数,m可看作边际(margin)参数步骤S103,基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵。
在一种可选的实施例中,为了区别第一矩阵和第二矩阵,将步骤S102中的第一矩阵C记为Ct,将更新后得到的第二矩阵记为Ct+1,预设的梯度下降更新规则可以为如下表达式:
Figure BDA0002861119550000044
其中,学习率参数μt=vtt,0<v1<1,t=1,…,tmax
Figure BDA0002861119550000051
||▽Ct(:,k)||表示第一矩阵Ct的梯度向量的模值。
步骤S104,根据第二矩阵更新第一目标函数。
第二矩阵根据对第一矩阵的迭代更新获得,因此第二矩阵也为上述第一目标函数中的权重参数,将获得的第二矩阵Ct+1代入上述第一目标函数Q[C](即用Ct+1替代中的C),获得更新后的第一目标函数Q[C],通过对第一目标函数中的权重参数的更新实现了第一目标函数的优化。
根据上述步骤所提出的基于神经集群的监督表征学习算法,通过将获得的原始数据进行CSP变换预处理后获得变换数据,根据变换数据构建神经集群网络模型的监督学习目标函数,对该模型中的权重参数矩阵按照预设的梯度下降更新规则进行更新,实现了神经集群网络模型的权重参数的快速优化。基于该监督表征学习算法,不仅可以用于大数据样本的训练学习,还可以用于小数据样本的训练学习,通过上述CSP变换,可对原始数据的噪声进行滤除,并将原始数据不同类之间的差异扩大,在不增加计算复杂度的前提下提高了神经集群网络模型的训练学习的效率和性能以及鲁棒性,解决了现有技术中监督学习模型训练效率低及鲁棒性差的问题。
作为一种可选的实施例,上述步骤S101中获取原始数据,将原始数据进行共空间模式变换获得变换数据,包括:获取表示原始数据的输入向量以及神经元输出向量;根据原始数据的输入向量以及神经元输出向量确定交互信息公式;确定包含协方差矩阵和变换矩阵的第二目标函数;根据交互信息公式和第二目标函数获得变换矩阵;根据变换矩阵将原始数据变换为变换数据。
由于大脑神经系统的每个神经元都是与其他几千个以上的神经元相连,所以脑神经的编码涉及到大规模的神经元集群方式编码,基于脑神经系统的神经元启发建立神经集群网络模型。条件互信息(即交互信息)理解为在特定条件约束下一个随机变量中包含的关于另一个随机变量的信息量。
以下对原始数据的CSP变换过程进行说明:获取表示原始数据的输入向量和神经元输出向量,输入向量x为K维向量,输入向量x可记为x=(x1,…,xK)T,其对应的数据标签为t,神经元输出向量包含N个神经元,可记为r=(r1,…,rN)T,其对应的随机变量用大写字母表示为X、T和R,输入向量x和输出向量r之间的交互信息I记作:
Figure BDA0002861119550000052
其中,p(r,x|t)、p(r|t)和p(x|t)表示条件概率密度函数,<·>r,x,t表示针对概率密度函数p(x,r,t)的期望值。
如果设定对应的标签数据t只有两类,即t∈{1,-1},则两类标签数据的协方差矩阵分别记为Σ1和Σ2,对协方差矩阵进行归一化处理,可以得到:
Figure BDA0002861119550000061
其中,Tr表示矩阵的迹。通过最小化下面的目标函数L(V)可得到变换矩阵V:
最小化
Figure BDA0002861119550000062
满足:
Figure BDA0002861119550000063
求解上面目标函数L(V)可以得到:
Figure BDA0002861119550000064
其中,U为本征向量矩阵,D为本征值的对角矩阵。
在获得变换矩阵V后,输入向量x经CSP变换后的变换数据
Figure BDA0002861119550000065
的表达式为:
Figure BDA0002861119550000066
通过上述步骤,实现了对原始数据的共空间模式(CSP)变换预处理,在完成CSP变换后,对获得的变换数据构建的神经集群网络模型的监督学习目标函数再进行后续的参数训练学习,相比于现有技术中对原始数据进行简单的归一化处理后再进行学习的监督学习方法,提高了训练学习的效率和效果。
作为一种可选的实施例,在神经元输出向量的个数大于原始数据的向量维度的条件下,根据交互信息公式和第二目标函数获得变换矩阵,包括:获得交互信息公式的高度逼近公式;根据高度逼近公式和第二目标函数获得变换矩阵。
在神经元输出向量的个数N大于原始数据的向量维度K的条件下,例如N远远大于K,可用如下公式来高度逼近交互信息I(其随机变量包括X、T和R,将交互信息I记为I(R;X|T)),I(R;X|T)的高度逼近公式IG的表达式为:
Figure BDA0002861119550000067
其中,det(·)表示矩阵行列式,H(X|T)=-<lnp(x|t)>x,t表示X在条件T情况下的条件熵,其中G(x,t)的表达式如下:
Figure BDA0002861119550000071
将上式中IG作为交互信息I代入如下CSP变换公式:
最小化
Figure BDA0002861119550000072
满足:
Figure BDA0002861119550000073
求解上述目标函数函数L(V)得到变换矩阵V,在获得变换矩阵V后,输入向量x经CSP变换后的变换数据
Figure BDA0002861119550000074
的表达式为:
Figure BDA0002861119550000075
根据上述步骤,构建了基于条件互信息最大化的目标函数,相比于现有技术中基于误差平方的目标函数和基于交叉熵的目标函数,本实施例能够显著提高神经集群网络模型的学习训练效率和性能。
作为一种可选的实施例,基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵,包括:基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵;确定迭代次数,其中,迭代次数用于表示基于预设的梯度下降更新规则对第一矩阵进行更新的次数;判断迭代次数是否达到预设次数,如果是,将第三矩阵作为第二矩阵且输出,如果否,则将第三矩阵赋值给第一矩阵,返回基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵的步骤。
上述预设的梯度下降更新规则可以为:
Figure BDA0002861119550000076
其中,数据标签t为迭代次数,学习率参数μt=vtt随着迭代次数t改变,0<v1<1,t=1,…,tmax
Figure BDA0002861119550000077
||▽Ct(:,k)||表示第一矩阵C的梯度向量的模值。
上述预设次数即为tmax,即对第一矩阵进行迭代的最大次数。根据上述梯度下降更新规则,将第一矩阵Ct更新为第三矩阵Ct+1,判断第三矩阵的迭代次数t+1是否等于tmax,如果是,则第三矩阵Ct+1为Ctmax,也就是Ct经过tmax次迭代后得到了最终优化权重参数Ctmax(即Copt),最终优化权重参数Copt作为上述第二矩阵输出。如果迭代次数t+1未达到tmax,则继续按照上述梯度下降更新规则对第一矩阵进行迭代,直到达到迭代次数达到预设的最大次数以获得最终优化权重参数Copt,例如,上述预设次数为3次,根据上述梯度下降更新规则,由C1获得C2,继续迭代,由C2获得C3,C3的迭代次数达到了预设次数,则C3为作为最终优化权重参数的第二矩阵输出。
本实施例提出了自适应梯度下降方法,相比现有技术中随机梯度下降方法,具有更高的训练效率。此外,经过上面方法得到优化参数Copt的系统还可直接用来进行分类识别,可通过计算其输入刺激经过神经集群变换后输出信息量的大小来确定输入所属的类别。
作为一种可选的实施例,在基于预设的梯度下降更新规则对第一矩阵进行更新,得到第三矩阵之前,方法还包括:计算得到第一目标函数关于第一矩阵的导数。
具体的,第一目标函数Q[C]关于C的导数表达式如下:
Figure BDA0002861119550000081
其中,
Figure BDA0002861119550000082
k=1,2,…E,E表示输出特征数量的大小。
需要说明的是,第一目标函数Q[C]关于C的导数表达式为上述梯度下降更新规则中的部分内容。
作为一种可选的实施例,根据第二矩阵更新第一目标函数,包括:对第二矩阵进行正交化变换,获得正交化结果;根据正交化结果更新第一目标函数的值。
作为一种可选的实施例,正交化变换为Gram-Schmidt正交化变换。
通过对原始数据进行CSP变换,可以滤除原始数据中的噪声,并且约束第二矩阵为正交,大大增加神经集群网络模型的鲁棒性以及学习训练的效率。
图2提供了根据本发明实施例的一种可选的基于神经集群的数据处理方法的流程图,采用的数据集为手写数字的MNIST数据集(如图3所示为数据集MNIST示例图),该数据集共有60000个灰度手写体样本图片,共10类(数字0到9),这些图像大小为28*28。本实施例采用60000个训练样本图片作为输入的原始训练数据集,如图2所示,该方法包括:
步骤S201,对原始数据集x进行共空间模式变换预处理,以获得变换数据
Figure BDA0002861119550000083
其中,V为根据共空间模式变换获得的变换矩阵。
步骤S202,初始化矩阵C及其它参数,并计算目标函数Q:
Figure BDA0002861119550000091
其中
Figure BDA0002861119550000092
β和m为非负常数,m可看作边际(margin)参数。
步骤S203,终止条件设定最大迭代次数为tmax=50。
步骤S204,判断是否到达最大迭代次数;如若是,则进入步骤S208输出最后优化参数矩阵C及其它参数;如若否,则进入步骤S205。
步骤S205,计算Q关于C的导数:
Figure BDA0002861119550000093
其中,
Figure BDA0002861119550000094
k=1,2,…E,E表示输出特征数量的大小。
步骤S206,利用自适应梯度下降法更新矩阵C,并对矩阵C进行Gram-Schmidt正交化处理:
Figure BDA0002861119550000095
其中,t为迭代次数学习率参数μt=vtt随着迭代次数t改变,0<v1<1,t=1,…,tmax
Figure BDA0002861119550000096
||▽Ct(:,k)||表示第一矩阵C的梯度向量的模值;
对矩阵Ct+1进行Gram-Schmidt正交化处理,经过tmax次迭代后即可得到最终优化参数Copt
步骤S207,更新目标函数Q的值,并返回步骤S204判断迭代次数是否达到最大迭代次数。
对矩阵C经过tmax次迭代,可得到本实施例中的优化权重参数Copt,权重参数Copt的可视化示意图参见图4,根据优化权重参数Copt对目标函数Q进行更新。本实施例经过单层网络学习的特征参数来直接进行对MNIST数据集里面的10000个测试样本集进行分类,识别精度达到98.4%,而目前单层神经网络结构分类效果最好的SVM方法的识别精度为94.5%。
本实施例利用神经集群及条件互信息的渐近公式,提出基于条件互信息最大化原理的神经集群网络模型与学习算法,并提出一种基于条件互信息最大化的监督学习目标函数及快速优化模型参数的方法,可应用于图像识别、自然语言处理、语音识别、信号分析等产品和应用场景中。本实施例所提出的监督表征学习算法所获得的学习效果和效率都远远优于其他方法(例如SVM方法)的效果和效率,不仅能很好地学习大数据样本,同时也能很好地学习小样本数据,在不明显增加计算复杂度的前提下能够显著提高监督表征学习的效率、性能及鲁棒性。
实施例2
根据本发明实施例,提供了一种基于神经集群的数据处理装置实施例。图5是根据本发明实施例的基于神经集群的数据处理装置的示意图,如图5所示,该装置包括:变换模块51,用于获取原始数据,将原始数据进行共空间模式变换获得变换数据;函数获取模块52,用于基于变换数据得到包含第一矩阵的第一目标函数,其中,第一目标函数为神经集群网络模型的目标函数,第一矩阵为神经集群网络模型的目标函数的权重参数;矩阵更新模块53,用于基于预设的梯度下降更新规则对第一矩阵进行更新,获得第二矩阵;函数更新模块54,用于根据第二矩阵更新第一目标函数。
上述装置还包括执行实施1中基于神经集群的数据处理方法的其他方法步骤的模块。
实施例3
根据本发明实施例,提供了一种存储介质实施例,包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述基于神经集群的数据处理方法。
根据本发明实施例,提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行上述基于神经集群的数据处理方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于神经集群的数据处理方法,其特征在于,
获取原始数据,将所述原始数据进行共空间模式变换获得变换数据;
基于所述变换数据得到包含第一矩阵的第一目标函数,其中,所述第一目标函数为神经集群网络模型的目标函数,所述第一矩阵为所述神经集群网络模型的目标函数的权重参数;
基于预设的梯度下降更新规则对所述第一矩阵进行更新,获得第二矩阵;
根据所述第二矩阵更新所述第一目标函数。
2.根据权利要求1所述的方法,其特征在于,所述获取原始数据,将所述原始数据进行共空间模式变换获得变换数据,包括:
获取表示原始数据的输入向量以及神经元输出向量;
根据所述原始数据的输入向量以及所述神经元输出向量确定交互信息公式;
确定包含协方差矩阵和变换矩阵的第二目标函数;
根据所述交互信息公式和所述第二目标函数获得所述变换矩阵;
根据所述变换矩阵将所述原始数据变换为所述变换数据。
3.根据权利要求2所述的方法,其特征在于,在所述神经元输出向量的个数大于所述原始数据的向量维度的条件下,根据所述交互信息公式和所述第二目标函数获得所述变换矩阵,包括:
获得所述交互信息公式的高度逼近公式;
根据所述高度逼近公式和所述第二目标函数获得所述变换矩阵。
4.根据权利要求1所述的方法,其特征在于,所述基于预设的梯度下降更新规则对所述第一矩阵进行更新,获得第二矩阵,包括:
基于预设的梯度下降更新规则对所述第一矩阵进行更新,得到第三矩阵;
确定迭代次数,其中,所述迭代次数用于表示基于预设的梯度下降更新规则对所述第一矩阵进行更新的次数;
判断所述迭代次数是否达到预设次数,如果是,将所述第三矩阵作为所述第二矩阵且输出,如果否,则将所述第三矩阵赋值给所述第一矩阵,返回所述基于预设的梯度下降更新规则对所述第一矩阵进行更新,得到所述第三矩阵的步骤。
5.根据权利要求4所述的方法,其特征在于,在所述基于预设的梯度下降更新规则对所述第一矩阵进行更新,得到所述第三矩阵之前,所述方法还包括:
计算得到所述第一目标函数关于所述第一矩阵的导数。
6.根据权利要求1所述的方法,其特征在于,根据所述第二矩阵更新所述第一目标函数,包括:
对所述第二矩阵进行正交化变换,获得正交化结果;
根据所述正交化结果更新所述第一目标函数的值。
7.根据权利要求6所述的方法,其特征在于,
所述正交化变换为Gram-Schmidt正交化变换。
8.一种基于神经集群的数据处理装置,其特征在于,所述装置包括:
变换模块,用于获取原始数据,将所述原始数据进行共空间模式变换获得变换数据;
函数获取模块,用于基于所述变换数据得到包含第一矩阵的第一目标函数,其中,所述第一目标函数为神经集群网络模型的目标函数,所述第一矩阵为所述神经集群网络模型的目标函数的权重参数;
矩阵更新模块,用于基于预设的梯度下降更新规则对所述第一矩阵进行更新以及正交化处理,获得第二矩阵;
函数更新模块,用于根据所述第二矩阵更新所述第一目标函数。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至7中任意一项所述基于神经集群的数据处理方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至7中任意一项所述基于神经集群的数据处理方法。
CN202011567545.2A 2020-12-25 2020-12-25 基于神经集群的数据处理方法及装置、存储介质、处理器 Pending CN114692809A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011567545.2A CN114692809A (zh) 2020-12-25 2020-12-25 基于神经集群的数据处理方法及装置、存储介质、处理器
US17/544,115 US20220207322A1 (en) 2020-12-25 2021-12-07 Data processing method and apparatus based on neural population coding, storage medium, and processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011567545.2A CN114692809A (zh) 2020-12-25 2020-12-25 基于神经集群的数据处理方法及装置、存储介质、处理器

Publications (1)

Publication Number Publication Date
CN114692809A true CN114692809A (zh) 2022-07-01

Family

ID=82119234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011567545.2A Pending CN114692809A (zh) 2020-12-25 2020-12-25 基于神经集群的数据处理方法及装置、存储介质、处理器

Country Status (2)

Country Link
US (1) US20220207322A1 (zh)
CN (1) CN114692809A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115938390A (zh) * 2023-01-06 2023-04-07 中国科学院自动化研究所 生成语音鉴别模型的连续学习方法、装置和电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439719B (zh) * 2022-10-27 2023-03-28 泉州装备制造研究所 一种针对对抗攻击的深度学习模型防御方法及模型

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115938390A (zh) * 2023-01-06 2023-04-07 中国科学院自动化研究所 生成语音鉴别模型的连续学习方法、装置和电子设备

Also Published As

Publication number Publication date
US20220207322A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN111160533B (zh) 一种基于跨分辨率知识蒸馏的神经网络加速方法
Kauffmann et al. From clustering to cluster explanations via neural networks
Li et al. 2-D stochastic configuration networks for image data analytics
CN108764195B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
Ning et al. Toward automatic phenotyping of developing embryos from videos
CN111028923B (zh) 数字病理图像染色归一化方法、电子装置及存储介质
CN110889865A (zh) 一种基于局部加权稀疏特征选择的视频目标跟踪方法
CN111222457A (zh) 一种基于深度可分离卷积的鉴别视频真伪性的检测方法
CN114692809A (zh) 基于神经集群的数据处理方法及装置、存储介质、处理器
CN108985442B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
CN111401156A (zh) 基于Gabor卷积神经网络的图像识别方法
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
CN114722892A (zh) 基于机器学习的持续学习方法及装置
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN111694954A (zh) 图像分类方法、装置和电子设备
CN116910571B (zh) 一种基于原型对比学习的开集域适应方法及系统
CN112084944B (zh) 一种动态演化表情的识别方法与系统
CN116662834B (zh) 基于样本风格特征的模糊超平面聚类方法及装置
CN113535947A (zh) 一种带有缺失标记的不完备数据的多标记分类方法及装置
CN116051924B (zh) 一种图像对抗样本的分治防御方法
CN117093849A (zh) 一种基于自动生成模型的数字矩阵特征分析方法
CN115344693B (zh) 一种基于传统算法和神经网络算法融合的聚类方法
CN111967499B (zh) 基于自步学习的数据降维方法
US11609936B2 (en) Graph data processing method, device, and computer program product
CN113177602B (zh) 图像分类方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination