CN114048848A - 一种基于记忆机制的类脑计算方法和系统 - Google Patents
一种基于记忆机制的类脑计算方法和系统 Download PDFInfo
- Publication number
- CN114048848A CN114048848A CN202210037273.8A CN202210037273A CN114048848A CN 114048848 A CN114048848 A CN 114048848A CN 202210037273 A CN202210037273 A CN 202210037273A CN 114048848 A CN114048848 A CN 114048848A
- Authority
- CN
- China
- Prior art keywords
- calculation
- brain
- task
- computing
- partition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Neurology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于记忆机制的类脑计算方法和系统。所述方法包括根据若干已知计算任务进行分区划分、类别划分、计算求解和快速匹配以获得分区子模型、区空间、分类子模型、解空间和匹配计算模型,并构建类脑计算模型;采用所述类脑计算模型处理实际计算任务以直接获得计算结果。本发明通过模拟人脑的记忆机制,将已知计算任务进行分区划分,然后在每个分区中划分计算任务并提前建立解空间,后续进行计算时直接采用匹配计算的方式,大大减少计算时间和计算难度。
Description
技术领域
本发明涉及类脑计算领域,更具体地说,涉及一种基于记忆机制的类脑计算方法和系统。
背景技术
大脑处理约80%以上问题的方法为,通过已有的先验知识,储存每一个问题的解,后续再次碰到此问题时,无需计算能够直接搜索匹配得到解。比如在看视频时,我们不需要进行思考就能识别到包括声音和画面,并能够对声音和画面分别进行处理,能够对画面中的物体进行识别,能够明白声音中包含的信息,这是因为先前的认知已经在大脑里存储了物体的图像及不同声音包含的信息,再碰到这类事务时,我们能够直接在记忆中进行搜索匹配,快速得到视频所表达的信息。
目前采用的类脑计算方法,就是通过模拟大脑的计算过程,能够把复杂计算任务转换为简单的搜索匹配任务,快速得到计算结果。然而,在现有的类脑计算方法中,利用搜索匹配方法快速得到复杂计算任务的计算结果,主要是根据计算任务的类别和计算量将其划分为多个不同类别的计算子任务及对应的参数信息;然后根据计算子任务的类别定位到特征分类映射表,并根据特征分类映射表确定计算子任务的具体类型;然后根据计算子任务的具体类型定位到分类子映射表;根据分类子映射表得到计算子任务的计算结果;最后将所有计算子任务的计算结果综合得到计算任务的最终计算结果。
因此,现有技术的类脑计算方法需要根据计算任务的类别、计算量来划分得到计算子任务的类别及参数信息,也就是说,需要已知计算任务的类别和计算量,然后才能进一步将确定类别、参数信息的计算子任务通过搜索匹配得到计算结果,对未知的计算任务无法进行处理。此外,最后还需要将计算结果综合得到计算任务最终的计算结果,不能直接得到计算结果,因此计算时间长并且计算难度大。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于记忆机制的类脑计算方法和系统,其通过模拟人脑的记忆机制,将已知计算任务进行分区划分,然后再每个分区中划分计算任务并提前建立解空间,后续进行计算时直接采用匹配计算的方式,大大减少计算时间和计算难度,实现了人脑的记忆计算模拟。
本发明解决其技术问题所采用的技术方案是:构造一种基于记忆机制的类脑计算方法,包括以下步骤:
S1、根据若干已知计算任务进行分区划分、类别划分、计算求解和快速匹配以获得分区子模型、区空间、分类子模型、解空间和匹配计算模型,并构建类脑计算模型;
S2、采用所述类脑计算模型处理实际计算任务以直接获得计算结果。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S1包括以下步骤:
S11、将所述已知计算任务按照脑分区进行划分以得到所述已知计算任务的区空间,将所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分区子模型;
S12、将同一分区内的所述已知计算任务进行类别划分,将所述同一分区内的所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分类子模型;
S13、对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间,并在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,得到所述匹配计算模型;
S14、基于所述分区子模型、所述区空间、所述分类子模型、所述解空间和所述匹配计算模型构建所述类脑计算模型。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S11包括:
S111、将所述已知计算任务按照布罗德曼脑分区进行划分得到所述已知计算任务的52个区空间;
S112、将每个所述已知计算任务的多个特征进行标记形成计算任务特征矩阵;
S113、将所述划分结果和所述计算任务特征矩阵分别作为VGG16神经网络的输入和输出进行神经网络训练,以获得所述分区子模型。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S12包括:
S121、将同一分区内每个所述已知计算任务的多个特征进行标记形成计算任务约束条件特征矩阵;
S122、将所述划分结果和所述计算任务约束条件特征矩阵分别作为VGG16神经网络的输入和输出进行神经网络训练,以获得所述分类子模型。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S13包括:
S131、对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间;
S132、在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,利用Hopfield神经网络进行求解以得到所述匹配计算模型。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S2包括:
S21、将所述实际计算任务通过所述分区子模型定位到对应的所述区空间中;
S22、在所述区空间内将所述实际计算任务通过所述分类子模型定位到对应的所述解空间中;
S23、在所述解空间内通过所述匹配计算模型得到所述实际计算任务的解。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S21包括:
S211、将所述实际计算任务自身的多个特征进行标记以形成实际计算任务矩阵;
S212、将所述实际计算任务矩阵根据所述分区子模型进行分区以定位到对应的所述区空间中。
在本发明所述的基于记忆机制的类脑计算方法中,所述步骤S22包括:
S221、在所述区空间中将所述实际计算任务自身的多个特征进行标记以形成实际计算任务约束条件矩阵;
S212、将所述实际计算任务约束条件矩阵根据所述分类子模型进行分类以定位到对应的所述解空间中。
本发明解决其技术问题采用的另一技术方案是,构造一种基于记忆机制的类脑计算系统,包括彼此通信构成通信网络的多个计算节点,所述多个计算节点上包括处理器和存储器,所述存储器中存储计算机可读存储介质,所述计算机可读存储介质由所述处理器执行时,实施根据权利要求1-8中任意一项所述的基于记忆机制的类脑计算方法。
在本发明所述的基于记忆机制的类脑计算系统中,所述计算机节点通过SDN/NFV机制将不同的设备虚拟化到所述通信网络形成。
实施本发明的基于记忆机制的类脑计算方法和系统,通过模拟人脑的记忆机制,将已知计算任务进行分区划分,然后在每个分区中划分计算任务并提前建立解空间,后续进行计算时直接采用匹配计算的方式,大大减少计算时间和计算难度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明的基于记忆机制的类脑计算方法的优选实施例的流程图;
图2是本发明的基于记忆机制的类脑计算方法的优选实施例的类脑计算模型构建步骤的流程图;
图3是本发明的基于记忆机制的类脑计算方法的优选实施例的直接计算步骤的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明构造一种基于记忆机制的类脑计算方法,包括根据若干已知计算任务进行分区划分、类别划分、计算求解和快速匹配以获得分区子模型、区空间、分类子模型、解空间和匹配计算模型,并构建类脑计算模型;采用所述类脑计算模型处理实际计算任务以直接获得计算结果。本发明通过模拟人脑的记忆机制,将已知计算任务进行分区划分,然后在每个分区中划分计算任务并提前建立解空间,后续进行计算时直接采用匹配计算的方式,大大减少计算时间和计算难度。
图1是本发明的基于记忆机制的类脑计算方法的优选实施例的流程图。如图1所示,在步骤S1中,根据若干已知计算任务进行分区划分、类别划分、计算求解和快速匹配以获得分区子模型、区空间、分类子模型、解空间和匹配计算模型,并构建类脑计算模型。
图2是本发明的基于记忆机制的类脑计算方法的优选实施例的类脑计算模型构建步骤的流程图。如图2所示,在步骤S11中,将所述已知计算任务按照脑分区进行划分以得到所述已知计算任务的区空间,将所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分区子模型。
在本发明的优选实施例中,优选将所述已知计算任务按照布罗德曼脑分区进行划分得到所述已知计算任务的52个区空间。布罗德曼脑分区是德国的神经学家布罗德曼在1909年提出的,其根据皮质细胞结构的相似性——细胞的密度、细胞形状、细胞大小等,把大脑皮质划分成52个区,这叫做布罗德曼分区,获得的每个分区,即为所述已知计算任务的区空间。
将所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分区子模型可以通过VGG16神经网络来实现。首先将每个所述已知计算任务的多个特征进行标记形成将每一个计算任务进行标记,每一个计算任务将自身的多个特征进行标记形成n*m的计算任务特征矩阵,其中,n和m均为正整数。然后将该n*m的计算任务特征矩阵分别进行VGG16神经网络的分区训练,得到分区子模型。
在本发明的优选实施例中,所述VGG16神经网络可以包含13个卷积层,5个池化层和3个全连接层。每个卷积层都不会改变前一层的特征图长和宽;通过卷积层可以实现通道数的增加。假设输入图片尺寸为(3, 224, 224),如果希望这一层的输出特征图尺寸为(64,224, 224),需要使用64个尺寸为3*3并且3个通道的卷积核。5个池化层分别分布在2或者3次卷积以后。池化层的作用是降低特征图尺寸并且能提高网络抗干扰能力。假设上一层得到的特征图尺寸为(64, 224, 224),选取最大化池化层的核尺寸为2*2,每次移动两个步长,那么得到的输出特征图尺寸为(64, 112, 112)。当然类似的池化还有可以选择均值池化等。全连接层可以采用已知的任何框架。这些框架可以选择不同的变换函数,例如view和reshape等。这些都可以适用于本发明。
在步骤S12中,将同一分区内的所述已知计算任务进行类别划分,将所述同一分区内的所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分类子模型。在本发明的优选实施例中,将同一分区内每个所述已知计算任务的多个特征进行标记形成计算任务约束条件特征矩阵;将所述划分结果和所述计算任务约束条件特征矩阵分别作为VGG16神经网络的输入和输出进行神经网络训练,以获得所述分类子模型。
举例来说,分类和分区实际上是类似操作。将同一分区内的已知计算任务自身的多个特征进行标记形成n*m的计算任务约束条件特征矩阵,将n*m的计算任务约束条件特征矩阵进行VGG16的分类训练,得到分类子模型。
在步骤S13中,对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间,并在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,得到所述匹配计算模型。
在本发明的一个优选实施例中,对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间可以采用任何已知的解空间求解方法,例如贪心法,回溯法,分支限界法,解空间树剪枝法等等。
在获取解空间之后,在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,利用Hopfield神经网络进行求解以得到所述匹配计算模型。在解空间内运用Hopfield网络进行计算问题的匹配计算求解,利用它的联想记忆机制进行解空间的快速匹配,就可以快速的得到复杂计算的解,进而获得所述匹配计算模型。
在步骤S14中,基于所述分区子模型、所述区空间、所述分类子模型、所述解空间和所述匹配计算模型构建所述类脑计算模型。
现在返回到图1,在步骤S2中,在获得类脑计算模型之后,只需要采用所述类脑计算模型处理实际计算任务以直接获得计算结果。图3是本发明的基于记忆机制的类脑计算方法的优选实施例的直接计算步骤的流程图。
如图3所示,在步骤S21中,将所述实际计算任务通过所述分区子模型定位到对应的所述区空间中。该定位步骤实际上与步骤S1中的分区步骤类似。具体地,可以将所述实际计算任务自身的多个特征进行标记以形成n*m的实际计算任务矩阵。然后将n*m的实际计算任务矩阵根据所述分区子模型进行分区以定位到对应的所述区空间中。
在步骤S22中,在所述区空间内将所述实际计算任务通过所述分类子模型定位到对应的所述解空间中。这个步骤实际上也是与上一步骤类似,只是是在区空间中进行。具体地,可以将在每个所述区空间中所述实际计算任务自身的多个特征进行标记以形成n*m的实际计算任务约束条件矩阵。将n*m的实际计算任务约束条件矩阵根据所述分类子模型进行分类以定位到对应的所述解空间中。
在所述步骤S23中,在所述解空间内通过所述匹配计算模型得到所述实际计算任务的解。在解空间内运用Hopfield网络进行计算问题的匹配计算求解,利用它的联想记忆机制进行解空间的快速匹配,就可以快速的得到复杂计算的解。
为了更好的说明本发明,举例说明如下。计算任务可包括图像任务、语音任务、文字任务、数学任务等,图像任务中可包括人脸图像识别、红外图像检测、识物、姿态识别等,语音任务可包括不同语言识别、不同声音识别等。
假设现在产生了一个人脸识别任务,在对该实际计算任务进行处理时,首先通过分区子模型将其定位到图像区空间,然后通过图像区空间的分类子模型将其定位到人脸识别解空间,最后通过人脸识别解空间内的匹配计算模型在人脸识别解空间中匹配到人脸识别结果。
在本发明中,可以将所有的计算任务按照大脑的分区进行划分,将计算任务的解算出后储存起来。构建的类脑计算模型,由网络里面的多个计算节点组成。在虚拟化的网络空间中,每一个真实的服务设备就是一个计算节点,每个服务设备里面运用SDN/NFV机制将不同的设备虚拟化到云端网络中,每一个服务设备是网络中的虚拟节点,同时也是真实空间的服务设备。多个计算节点可以通过中心计算资源管控器进行编排调度,按照大脑的分区结构,每个分区的储存区域拥有一个分区计算资源管控器,对每个分区的计算任务进行管理调度。
本发明的进一步的优选实施例还提供了一种基于记忆机制的类脑计算系统,包括彼此通信构成通信网络的多个计算节点,所述多个计算节点上包括处理器和存储器,所述存储器中存储计算机可读存储介质,所述计算机可读存储介质由所述处理器执行时,实施所述的基于记忆机制的类脑计算方法。所述计算机节点通过SDN/NFV机制将不同的设备虚拟化到所述通信网络形成。在虚拟化的网络空间中,每一个真实的服务设备就是一个计算节点,每个服务设备里面运用SDN/NFV机制将不同的设备虚拟化到云端网络中,每一个服务设备是网络中的虚拟节点,同时也是真实空间的服务设备。多个计算节点可以通过中心计算资源管控器进行编排调度,按照大脑的分区结构,每个分区的储存区域拥有一个分区计算资源管控器,对每个分区的计算任务进行管理调度。
本发明通过模拟人脑的记忆机制,模拟大脑的多个分区将问题进行分区的划分,然后再在每个分区中对子问题进行划分,提前将解空间建立好,后续进行计算时直接采用匹配计算的方式,大大减少计算时间和计算难度,实现了人脑的记忆计算模型。
因此,本发明可以通过硬件、软件或者软、硬件结合来实现。本发明可以在至少一个计算机系统中以集中方式实现,或者由分布在几个互连的计算机系统中的不同部分以分散方式实现。任何可以实现本发明方法的计算机系统或其它设备都是可适用的。常用软硬件的结合可以是安装有计算机程序的通用计算机系统,通过安装和执行程序控制计算机系统,使其按本发明方法运行。
本发明还可以通过计算机程序产品进行实施,程序包含能够实现本发明方法的全部特征,当其安装到计算机系统中时,可以实现本发明的方法。本文件中的计算机程序所指的是:可以采用任何程序语言、代码或符号编写的一组指令的任何表达式,该指令组使系统具有信息处理能力,以直接实现特定功能,或在进行下述一个或两个步骤之后实现特定功能:a)转换成其它语言、编码或符号;b)以不同的格式再现。
虽然本发明是通过具体实施例进行说明的,本领域技术人员应当明白,在不脱离本发明范围的情况下,还可以对本发明进行各种变换及等同替代。另外,针对特定情形或材料,可以对本发明做各种修改,而不脱离本发明的范围。因此,本发明不局限于所公开的具体实施例,而应当包括落入本发明权利要求范围内的全部实施方式。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于记忆机制的类脑计算方法,其特征在于,包括以下步骤:
S1、根据若干已知计算任务进行分区划分、类别划分、计算求解和快速匹配以获得分区子模型、区空间、分类子模型、解空间和匹配计算模型,并构建类脑计算模型;
S2、采用所述类脑计算模型处理实际计算任务以直接获得计算结果。
2.根据权利要求1所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S1包括以下步骤:
S11、将所述已知计算任务按照脑分区进行划分以得到所述已知计算任务的区空间,将所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分区子模型;
S12、将同一分区内的所述已知计算任务进行类别划分,将所述同一分区内的所述已知计算任务及其划分结果分别作为输入和输出进行神经网络训练,得到所述分类子模型;
S13、对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间,并在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,得到所述匹配计算模型;
S14、基于所述分区子模型、所述区空间、所述分类子模型、所述解空间和所述匹配计算模型构建所述类脑计算模型。
3.根据权利要求2所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S11包括:
S111、将所述已知计算任务按照布罗德曼脑分区进行划分得到所述已知计算任务的52个区空间;
S112、将每个所述已知计算任务的多个特征进行标记形成计算任务特征矩阵;
S113、将所述划分结果和所述计算任务特征矩阵分别作为VGG16神经网络的输入和输出进行神经网络训练,以获得所述分区子模型。
4.根据权利要求3所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S12包括:
S121、将同一分区内每个所述已知计算任务的多个特征进行标记形成计算任务约束条件特征矩阵;
S122、将所述划分结果和所述计算任务约束条件特征矩阵分别作为VGG16神经网络的输入和输出进行神经网络训练,以获得所述分类子模型。
5.根据权利要求4所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S13包括:
S131、对于同一分类的所述已知计算任务进行计算细节刻画和求解得到对应一类计算任务的解空间;
S132、在所述解空间之内将所述同一分类的所述已知计算任务及其划分结果分别作为输入和输出,利用Hopfield神经网络进行求解以得到所述匹配计算模型。
6.根据权利要求1-5中任意一项所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S2包括:
S21、将所述实际计算任务通过所述分区子模型定位到对应的所述区空间中;
S22、在所述区空间内将所述实际计算任务通过所述分类子模型定位到对应的所述解空间中;
S23、在所述解空间内通过所述匹配计算模型得到所述实际计算任务的解。
7.根据权利要求6所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S21包括:
S211、将所述实际计算任务自身的多个特征进行标记以形成实际计算任务矩阵;
S212、将所述实际计算任务矩阵根据所述分区子模型进行分区以定位到对应的所述区空间中。
8.根据权利要求6所述的基于记忆机制的类脑计算方法,其特征在于,所述步骤S22包括:
S221、在所述区空间中将所述实际计算任务自身的多个特征进行标记以形成实际计算任务约束条件矩阵;
S212、将所述实际计算任务约束条件矩阵根据所述分类子模型进行分类以定位到对应的所述解空间中。
9.一种基于记忆机制的类脑计算系统,其特征在于,包括彼此通信构成通信网络的多个计算节点,所述多个计算节点上包括处理器和存储器,所述存储器中存储计算机可读存储介质,所述计算机可读存储介质由所述处理器执行时,实施根据权利要求1-8中任意一项所述的基于记忆机制的类脑计算方法。
10.根据权利要求9所述的基于记忆机制的类脑计算系统,其特征在于,所述计算机节点通过SDN/NFV机制将不同的设备虚拟化到所述通信网络形成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210037273.8A CN114048848B (zh) | 2022-01-13 | 2022-01-13 | 一种基于记忆机制的类脑计算方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210037273.8A CN114048848B (zh) | 2022-01-13 | 2022-01-13 | 一种基于记忆机制的类脑计算方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114048848A true CN114048848A (zh) | 2022-02-15 |
CN114048848B CN114048848B (zh) | 2022-05-10 |
Family
ID=80196548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210037273.8A Active CN114048848B (zh) | 2022-01-13 | 2022-01-13 | 一种基于记忆机制的类脑计算方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114048848B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150052092A1 (en) * | 2013-08-16 | 2015-02-19 | Transoft (Shanghai), Inc. | Methods and systems of brain-like computing virtualization |
CN105279557A (zh) * | 2015-11-13 | 2016-01-27 | 徐志强 | 基于人脑工作机制的记忆和思维模拟装置 |
CN105931281A (zh) * | 2016-04-14 | 2016-09-07 | 中国人民解放军国防科学技术大学 | 基于网络特征熵定量刻画脑功能网络的方法 |
CN108492021A (zh) * | 2018-03-16 | 2018-09-04 | 前海梧桐(深圳)数据有限公司 | 基于人脑神经网络模型的企业要素群表示方法及其系统 |
CN109872036A (zh) * | 2019-01-10 | 2019-06-11 | 平安科技(深圳)有限公司 | 基于分类算法的任务分配方法、装置及计算机设备 |
CN110515732A (zh) * | 2019-08-23 | 2019-11-29 | 中国人民解放军国防科技大学 | 一种基于资源受限机器人深度学习推理的任务分配方法 |
CN110522448A (zh) * | 2019-07-12 | 2019-12-03 | 东南大学 | 一种基于图卷积神经网络的脑网络分类方法 |
CN112819171A (zh) * | 2021-02-04 | 2021-05-18 | 深圳市永达电子信息股份有限公司 | 一种基于表函数的数据搜索方法、系统及计算机存储介质 |
CN113040715A (zh) * | 2021-03-09 | 2021-06-29 | 北京工业大学 | 一种基于卷积神经网络的人脑功能网络分类方法 |
CN113239247A (zh) * | 2021-07-12 | 2021-08-10 | 深圳市永达电子信息股份有限公司 | 基于脑功能分区的多维数据搜索方法、系统和存储介质 |
CN113516186A (zh) * | 2021-07-12 | 2021-10-19 | 聊城大学 | 一种面向脑疾病分类的模块化特征选择方法 |
-
2022
- 2022-01-13 CN CN202210037273.8A patent/CN114048848B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150052092A1 (en) * | 2013-08-16 | 2015-02-19 | Transoft (Shanghai), Inc. | Methods and systems of brain-like computing virtualization |
CN105279557A (zh) * | 2015-11-13 | 2016-01-27 | 徐志强 | 基于人脑工作机制的记忆和思维模拟装置 |
CN105931281A (zh) * | 2016-04-14 | 2016-09-07 | 中国人民解放军国防科学技术大学 | 基于网络特征熵定量刻画脑功能网络的方法 |
CN108492021A (zh) * | 2018-03-16 | 2018-09-04 | 前海梧桐(深圳)数据有限公司 | 基于人脑神经网络模型的企业要素群表示方法及其系统 |
CN109872036A (zh) * | 2019-01-10 | 2019-06-11 | 平安科技(深圳)有限公司 | 基于分类算法的任务分配方法、装置及计算机设备 |
CN110522448A (zh) * | 2019-07-12 | 2019-12-03 | 东南大学 | 一种基于图卷积神经网络的脑网络分类方法 |
CN110515732A (zh) * | 2019-08-23 | 2019-11-29 | 中国人民解放军国防科技大学 | 一种基于资源受限机器人深度学习推理的任务分配方法 |
CN112819171A (zh) * | 2021-02-04 | 2021-05-18 | 深圳市永达电子信息股份有限公司 | 一种基于表函数的数据搜索方法、系统及计算机存储介质 |
CN113040715A (zh) * | 2021-03-09 | 2021-06-29 | 北京工业大学 | 一种基于卷积神经网络的人脑功能网络分类方法 |
CN113239247A (zh) * | 2021-07-12 | 2021-08-10 | 深圳市永达电子信息股份有限公司 | 基于脑功能分区的多维数据搜索方法、系统和存储介质 |
CN113516186A (zh) * | 2021-07-12 | 2021-10-19 | 聊城大学 | 一种面向脑疾病分类的模块化特征选择方法 |
Non-Patent Citations (4)
Title |
---|
DENIS KLEYKO等: ""Brain-Like classifier of temporal patterns"", 《2014 INTERNATIONAL CONFERENCE ON COMPUTER AND INFORMATION SCIENCES》 * |
余山等: ""从脑网络到人工智能——类脑计算的机遇与挑战"", 《科技导报》 * |
包为民等: ""智能控制技术发展的思考"", 《中国科学》 * |
张仲鹏等: ""脑功能近红外光谱信号多元图特征提取研究"", 《激光与光电子学进展》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114048848B (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797893B (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
EP4036803A1 (en) | Neural network model processing method and apparatus, computer device, and storage medium | |
US20230023101A1 (en) | Data processing method and device | |
EP3685319B1 (en) | Direct access, hardware acceleration in neural network | |
US10902302B2 (en) | Stacked neural network framework in the internet of things | |
WO2019228122A1 (zh) | 模型的训练方法、存储介质及计算机设备 | |
US20230089380A1 (en) | Neural network construction method and apparatus | |
JP2023060820A (ja) | 機械学習モデル・スケーリングのためのディープ・ニューラル・ネットワーク最適化システム | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN111295675B (zh) | 用于使用内核来处理卷积运算的设备和方法 | |
CN113204988B (zh) | 小样本视点估计 | |
US20210174209A1 (en) | Neural network obtaining method and related device | |
US20180129930A1 (en) | Learning method based on deep learning model having non-consecutive stochastic neuron and knowledge transfer, and system thereof | |
CN113449859A (zh) | 一种数据处理方法及其装置 | |
EP4428754A1 (en) | Neural network model processing method and device | |
US20220335293A1 (en) | Method of optimizing neural network model that is pre-trained, method of providing a graphical user interface related to optimizing neural network model, and neural network model processing system performing the same | |
CN113191241A (zh) | 一种模型训练方法及相关设备 | |
WO2023142918A1 (zh) | 一种基于预训练大模型的图像处理方法及相关装置 | |
US11119507B2 (en) | Hardware accelerator for online estimation | |
Ulm et al. | Functional federated learning in erlang (ffl-erl) | |
CN113723603A (zh) | 一种更新参数的方法、装置及存储介质 | |
US20230004816A1 (en) | Method of optimizing neural network model and neural network model processing system performing the same | |
CN115409168A (zh) | 神经网络优化方法及其装置 | |
US20220067495A1 (en) | Intelligent processor, data processing method and storage medium | |
JP2024072829A (ja) | 調整されたコンポーネントインターフェース制御フレームワーク |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |