CN114580630A - 用于ai芯片设计的神经网络模型训练方法及图形分类方法 - Google Patents
用于ai芯片设计的神经网络模型训练方法及图形分类方法 Download PDFInfo
- Publication number
- CN114580630A CN114580630A CN202210196466.8A CN202210196466A CN114580630A CN 114580630 A CN114580630 A CN 114580630A CN 202210196466 A CN202210196466 A CN 202210196466A CN 114580630 A CN114580630 A CN 114580630A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- layer
- chip
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 72
- 238000003062 neural network model Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013461 design Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 37
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 13
- 210000002569 neuron Anatomy 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 125000002015 acyclic group Chemical group 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种用于AI芯片设计的神经网络模型训练方法及图像分类方法,涉及神经网络领域,训练方法包括:构建基于chip‑firing的储备池层;使用上述储备池层,并针对相应的任务,增加输出处理层等必要结构,构建满足需求的神经网络模型;使用训练数据训练神经网络模型的输出处理层。本发明中,储备池层设计并使用了基于chip‑firing的图结构,拥有和脉冲神经网络一样的类脑能力,更加接近自然神经元。图结构中每个节点可以并行参与计算,可更利于将其用在小终端及AI芯片中。此外,通过仅训练输出处理层参数的方式,大大减轻脉冲神经网络的训练困难,并为神经网络模型提供非线性拟合能力。
Description
技术领域
本发明涉及神经网络领域,更具体的讲是一种用于AI芯片设计的神经网络模型训练方法。
背景技术
一方面,近些年尖峰神经网络(SNNs)是一种被作为第三代神经网络提出的人工神经网络,已被成功应用于各种应用。具体的说,SNNs主要通过以下两点来模仿人脑这种复杂的综合时空系统,一是通过仅将神经元连接到附近的神经元来考虑空间,及通过将信息编码为脉冲串的方式来考虑时间,使其具有单独处理输入块(类似于CNN使用过滤器)、避免在二进制编码中丢失信息及减少额外复杂性的优点。二是神经元的信息编码方式是,将输入累积膜电压直至其到达具体阈值才进行脉冲发射,完成事件驱动计算。虽然已有很多理论研究表明SNNs应该比传统人工神经网络更强大,但因为SNNs的不可导的特性及神经元复杂的动态性使得使用基于梯度下降的训练方法来进行误差的反向传播变得困难。于是,SNNs本可以与传统人工神经网络有相同的应用,却因为其缺乏有效的训练机制和硬件要求过高的特性,使其在准确性方面略逊于传统ANN。
另一方面,Chip-firing game最初作为一个游戏而被提出后经过了一系列学者的研究和规则的修改,使其拥有了理论基础和实际应用背景,特别是在组合数学和物理方面。chip-firing game,规定了一个基于图的chip传递规则,可通过每个节点只给自己的出度点传递chip的方式来考虑空间及将信息输入至图所引发转移chip的个数作为信息编码的方式来考虑时间。另外,在chip-firing game中图的每个点不是每次都会转移chip,而是只在自身拥有的chip数达到阈值(出度边的个数)时才被会被激励去转移信息。可见chip-firing game与SNNs有相似的性质,但目前没有尝试在神经网络方面的应用。
发明内容
本发明提供一种用于AI芯片设计的神经网络模型训练方法,目的在于解决现有技术中存在的上述问题。
本发明采用如下技术方案:
一种用于AI芯片设计的神经网络模型训练方法,包括以下步骤:
(1)构建基于chip-firing的储备池层;
(2)使用基于chip-firing的储备池层,并针对相应的任务,增加相应的输入处理层、输出处理层,构建满足需求的神经网络模型;
(3)针对相应的任务,准备训练数据;
(4)用训练数据,训练神经网络模型的输出处理层。
进一步,所述步骤(1)具体包括以下子步骤:
(1.1)基于chip-firing的规则构建图结构;
(1.2)基于所述图结构,设计储备池层,该储备池层节点包括若干输入节点,若干输出节点和sink节点;从这些输入节点输入储备池层的数据,经过chip-firing的规则被非线性处理后从这些输出节点输出,完成信息编码,具体计算方式为使用每轮输出节点转移的chip数作为对于输出节点输入的信息编码,若本轮某输出节点拥有的chip数小于其出度边数,编码中的值即为0;sink节点则用于接收网络中已经作用过的chips,以确保储备池层中的chip数不会不断累加。
进一步,所述步骤(1.1)的图结构为任意有向图,其中包括有向无环图。
作为一种具体实施方式:所述步骤(1.1)的图结构为有向无环图,具体是:由三种从前至后分层排列的节点层组成,分别是输入节点层,至少一中间节点层和输出节点层,输入节点层包含若干所述输入节点;输出节点层包含若干所述输出节点和一sink节点;数据在储备池层的网络中从输入节点层向输出节点层单向传播,且各节点层间没有反馈。
具体地,所述步骤(2)中,所述相应的任务为图像分类,以输入处理层、所述储备池层、线性输出处理层构建图像分类处理的神经网络模型。
具体地,所述步骤(3)具体是:将已有的图像数据集整理成X矩阵的形式作为图像输入信息,矩阵中每个元素为图像中每个点的像素值;以Y矩阵作为标识图像类别的标签,矩阵中每个元素为对应X矩阵的每张图像的具体类别标识,输入至构建的神经网络模型中进行训练。
更具体地,所述X矩阵的矩阵参数包括图像数量、图像通道数、图像长度和图像宽度;所述Y矩阵的矩阵参数包括图像数量和和图像类别。
更具体地,在基于chip-firing的储备池层中,仅进行整数计算。
一种图像分类方法,包括以下步骤:
(一)采用上述训练方法中所述步骤(3)的方式对原始图像进行预处理,得到图像数据;
(二)将图像数据输入至使用上述训练方法得到的神经网络模型中;
(三)由神经网络模型得到并输出图像分类的预测结果。
由上述对本发明结构的描述可知,本发明具有如下优点:
其一、本发明的储备池层设计并使用了基于chip-firing的图结构为任意有向图,包涵有向无环图,并利用chip-firing通过每个节点只给自己的出度点传递chip的方式来考虑空间及将信息输入至图所引发转移chip的个数作为信息编码的方式来考虑时间的方式,使得基于chip-firing的图结构拥有和脉冲神经网络一样的类脑能力,更加接近自然神经元。
其二、本发明使用基于chip-firing的储备池层代替传统储备池层,并以此构建神经网络模型,通过仅训练输出处理层参数的方式大大减轻脉冲神经网络的训练困难,并为神经网络模型提供非线性拟合能力。
其三、本发明的基于chip-firing的图结构中,每个节点可以并行参与计算,可更利于将其用在小终端及AI芯片中。并且,在该基于chip-firing的储备池层中,仅进行整数计算,可大大降低浮点数计算带来的计算成本。
附图说明
图1为本发明实施例一中,第一图结构的示意图。
图2为本发明实施例一中,神经网络模型的层结构示意图。
图3为本发明实施例二中,第二图结构的示意图。
图4为本发明实施例二中,神经网络模型的层结构示意图。
具体实施方式
下面参照附图说明本发明的具体实施方式。
实施例一
一种用于AI芯片设计的神经网络模型训练方法,包括以下步骤:
(1)构建基于chip-firing的第一储备池层,具体地包括以下子步骤:
(1.1)基于chip-firing的规则构建任意有向图的第一图结构。
如图1所示,该第一图结构是一个共11个节点的图结构,其中有6个输入节点,10个输出节点和1个sink节点。当然,输入节点的数量可根据需要进行增减,并不局限于6个;输出节点的数量也可根据需要进行增减,并不局限于10个。
(1.2)基于上述第一图结构,设计第一储备池层。
从这些输入节点输入第一储备池层的数据,经过chip-firing的规则被非线性处理后从这些输出节点输出,完成信息编码,具体计算方式为使用每轮输出节点转移的chip数作为对于输出节点输入的信息编码,若本轮某输出节点拥有的chip数小于其出度边数,则编码中的值即为0。由sink节点接收网络中已经作用过的chips,以确保第一储备池层中的chip数不会不断累加。
(2)使用基于chip-firing的第一储备池层,并针对相应的任务,增加相应的输入处理层、输出处理层等其他必要结构,构建满足需求的神经网络模型。
如图2所示,以相应的任务为图像分类为例,以输入处理层(Input processingLayer)、上述第一储备池层(CFR Layer)、线性输出处理层(Dense Layer)等构建一个用于图像分类处理的神经网络模型。
(3)针对相应的任务,准备训练数据。
以相应的任务为图像分类为例,将已有的图像数据集整理成X矩阵的形式作为图像输入信息,矩阵中每个元素为图像中每个点的像素值;以Y矩阵作为标识图像类别的标签,矩阵中每个元素为对应X矩阵的每张图像的具体类别标识,输入至构建的神经网络模型中进行训练。其中,X矩阵的矩阵参数包括图像数量、图像通道数、图像长度和图像宽度;Y矩阵的矩阵参数包括图像数量和图像类别。
(4)用训练数据,训练神经网络模型的输出处理层。
以相应的任务为图像分类为例,以X矩阵为输入,Y矩阵为结果,学习得到线性输出处理层的参数,完成神经网络模型的训练。注意,在此过程中,上述第一储备池层没有参数参与训练。
实施例二
一种用于AI芯片设计的神经网络模型训练方法,包括以下步骤:
(1)构建基于chip-firing的第二储备池层,具体地包括以下子步骤:
(1.1)基于chip-firing的规则构建有向无环的第二图结构。有向无环图作为任意有向图的一种特殊形式,具体如下:
如图3所示,参考前馈神经网络的神经元排列设计,使用有向无环的第二图结构构建网络层,各节点分层排列,每个节点只能作为前一层节点的出度节点并以下一层的节点为出度节点,接收前一层的输出并输出给下一层。具体是:由三种从前至后分层排列的节点层组成,分别是输入节点层,中间节点层和输出节点层,数据在第二储备池层的网络中从输入节点层向输出节点层单向传播,且各节点层间没有反馈。
输入节点层包含用于数据输入的5个输入节点。但输入节点的数量并不局限于5,可根据需要进行增减设置。
中间节点层的数量可以是一个也可以是多个。
输出节点层包含用于数据输入的5个输出节点和用于接收chips的1个sink节点。但输出节点的数量并不局限于5,可根据需要进行增减设置。该第二图结构共有19个节点,其中有5个输入节点,5个输出节点和1个sink节点,代表输入为5维度,输出为5维度。
(1.2)基于上述第二图结构,设计第二储备池层。
从这些输入节点输入第二储备池层的数据,经过chip-firing的规则被非线性处理后从这些输出节点输出,完成信息编码,具体计算方式为使用每轮输出节点转移的chip数作为对于输出节点输入的信息编码,若本轮某输出节点拥有的chip数小于其出度边数,则编码中的值即为0。由sink节点接收网络中已经作用过的chips,以确保第二储备池层中的chip数不会不断累加。
(2)使用基于chip-firing的第二储备池层,并针对相应的任务,增加相应的输入处理层、输出处理层等其他必要结构,构建满足需求的神经网络模型。
如图4所示,以相应的任务为图像分类为例,以输入处理层(Input processingLayer)、上述第二储备池层(CFR-F Layer)、线性输出处理层(Dense Layer)等构建一个用于图像分类处理的神经网络模型。
(3)针对相应的任务,准备训练数据。
以相应的任务为图像分类为例,将已有的图像数据集整理成X矩阵的形式作为图像输入信息,矩阵中每个元素为图像中每个点的像素值;以Y矩阵作为标识图像类别的标签,矩阵中每个元素为对应X矩阵的每张图像的具体类别标识,输入至构建的神经网络模型中进行训练。其中,X矩阵的矩阵参数包括图像数量、图像通道数、图像长度和图像宽度;Y矩阵的矩阵参数包括图像数量和图像类别。
(4)用训练数据,训练神经网络模型的输出处理层。
以相应的任务为图像分类为例,以X矩阵为输入,Y矩阵为结果,学习得到线性输出处理层的参数,完成神经网络模型的训练。注意,在此过程中,上述第二储备池层没有参数参与训练。
作为上述神经网络模型的应用,本发明还公开一种图像分类方法,其包括以下步骤:
(一)对原始图像进行预处理,得到图像数据:将已有的图像数据集整理成X矩阵的形式作为图像输入信息,矩阵中每个元素为图像中每个点的像素值,并以Y矩阵作为标识图像类别的标签,输入至构建的神经网络模型中进行训练。其中,X矩阵的矩阵参数包括图像数量、图像通道数、图像长度和图像宽度;Y矩阵的矩阵参数包括图像数量和图像类别。
(二)将图像数据输入至使用上述训练方法得到的神经网络模型中;
(三)由神经网络模型得到并输出图像分类的预测结果。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。
Claims (10)
1.用于AI芯片设计的神经网络模型训练方法,其特征在于,包括以下步骤:
(1)构建基于chip-firing的储备池层;
(2)使用基于chip-firing的储备池层,并针对相应的任务,增加相应的输入处理层、输出处理层,构建满足需求的神经网络模型;
(3)针对相应的任务,准备训练数据;
(4)用训练数据,训练神经网络模型的输出处理层。
2.根据权利要求1所述的用于AI芯片设计的神经网络模型训练方法,其特征在于,所述步骤(1)具体以下子步骤:
(1.1)基于chip-firing的规则构建图结构;
(1.2)基于所述图结构,设计储备池层,该储备池层节点包括若干输入节点,若干输出节点和sink节点;从这些输入节点输入储备池层的数据,经过chip-firing的规则被非线性处理后从这些输出节点输出,完成信息编码,具体计算方式为使用每轮输出节点转移的chip数作为对于输出节点输入的信息编码,若本轮某输出节点拥有的chip数小于其出度边数,编码中的值即为0;sink节点则用于接收网络中已经作用过的chips,以确保储备池层中的chip数不会不断累加。
3.根据权利要求2所述的用于AI芯片设计的神经网络模型训练方法,其特征在于:所述步骤(1.1)的图结构为任意有向图,其中包括有向无环图。
4.根据权利要求3所述用于AI芯片设计的神经网络模型训练方法,其特征在于,所述步骤(1.1)的图结构包括若干输入节点、若干输出节点和若干sink节点。
5.根据权利要求3所述的用于AI芯片设计的神经网络模型训练方法,其特征在于,所述步骤(1.1)的图结构为有向无环图,具体是:由三种从前至后分层排列的节点层组成,分别是输入节点层,至少一中间节点层和输出节点层,输入节点层包含若干所述输入节点;输出节点层包含若干所述输出节点和一sink节点;数据在储备池层的网络中从输入节点层向输出节点层单向传播,且各节点层间没有反馈。
6.根据权利要求1-5任一所述的用于AI芯片设计的神经网络模型训练方法,其特征在于:所述步骤(2)中,所述相应的任务为图像分类,以输入处理层、所述储备池层、线性输出处理层构建图像分类处理的神经网络模型。
7.根据权利要求6所述的用于AI芯片设计的神经网络模型训练方法,其特征在于,所述步骤(3)具体是:将已有的图像数据集整理成X矩阵的形式作为图像输入信息,矩阵中每个元素为图像中每个点的像素值;以Y矩阵作为标识图像类别的标签,矩阵中每个元素为对应X矩阵的每张图像的具体类别标识,输入至构建的神经网络模型中进行训练。
8.根据权利要求7所述的用于AI芯片设计的神经网络模型训练方法,其特征在于:所述X矩阵的矩阵参数包括图像数量、图像通道数、图像长度和图像宽度;所述Y矩阵的矩阵参数包括图像数量和图像类别。
9.根据权利要求1所述的用于AI芯片设计的神经网络模型训练方法,其特征在于:在基于chip-firing的储备池层中,仅进行整数计算。
10.图像分类方法,其特征在于,包括以下步骤:
(一)采用权利要求7所述神经网络模型训练方法中所述步骤(3)的方式对原始图像进行预处理,得到图像数据;
(二)将图像数据输入至使用权利要求1-9任一所述训练方法得到的神经网络模型中;
(三)由神经网络模型得到并输出图像分类的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210196466.8A CN114580630B (zh) | 2022-03-01 | 2022-03-01 | 用于ai芯片设计的神经网络模型训练方法及图形分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210196466.8A CN114580630B (zh) | 2022-03-01 | 2022-03-01 | 用于ai芯片设计的神经网络模型训练方法及图形分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114580630A true CN114580630A (zh) | 2022-06-03 |
CN114580630B CN114580630B (zh) | 2024-05-31 |
Family
ID=81776268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210196466.8A Active CN114580630B (zh) | 2022-03-01 | 2022-03-01 | 用于ai芯片设计的神经网络模型训练方法及图形分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114580630B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116205283A (zh) * | 2023-04-28 | 2023-06-02 | 北京爱芯科技有限公司 | 数据处理方法、装置、电子设备和计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101604472B1 (ko) * | 2015-05-27 | 2016-03-17 | 엘아이지넥스원 주식회사 | 다수의 모듈들을 이용한 타겟 영상 실시간 출력 제어 방법 |
CN108734271A (zh) * | 2017-04-14 | 2018-11-02 | 三星电子株式会社 | 神经形态权重单元及其形成的方法以及人工神经网络 |
WO2020133492A1 (zh) * | 2018-12-29 | 2020-07-02 | 华为技术有限公司 | 一种神经网络压缩方法及装置 |
US20200302288A1 (en) * | 2019-03-20 | 2020-09-24 | Gyrfalcon Technology Inc. | Using output equalization in training an artificial intelligence model in a semiconductor solution |
CN112633497A (zh) * | 2020-12-21 | 2021-04-09 | 中山大学 | 一种基于重加权膜电压的卷积脉冲神经网络的训练方法 |
CN112906828A (zh) * | 2021-04-08 | 2021-06-04 | 周士博 | 一种基于时域编码和脉冲神经网络的图像分类方法 |
WO2021114184A1 (zh) * | 2019-12-12 | 2021-06-17 | 华为技术有限公司 | 神经网络模型的训练方法、图像处理方法及其装置 |
CN113991015A (zh) * | 2021-10-27 | 2022-01-28 | 中国科学院微电子研究所 | 一种铁电隧道结器件及其制造方法 |
-
2022
- 2022-03-01 CN CN202210196466.8A patent/CN114580630B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101604472B1 (ko) * | 2015-05-27 | 2016-03-17 | 엘아이지넥스원 주식회사 | 다수의 모듈들을 이용한 타겟 영상 실시간 출력 제어 방법 |
CN108734271A (zh) * | 2017-04-14 | 2018-11-02 | 三星电子株式会社 | 神经形态权重单元及其形成的方法以及人工神经网络 |
WO2020133492A1 (zh) * | 2018-12-29 | 2020-07-02 | 华为技术有限公司 | 一种神经网络压缩方法及装置 |
US20200302288A1 (en) * | 2019-03-20 | 2020-09-24 | Gyrfalcon Technology Inc. | Using output equalization in training an artificial intelligence model in a semiconductor solution |
WO2021114184A1 (zh) * | 2019-12-12 | 2021-06-17 | 华为技术有限公司 | 神经网络模型的训练方法、图像处理方法及其装置 |
CN112633497A (zh) * | 2020-12-21 | 2021-04-09 | 中山大学 | 一种基于重加权膜电压的卷积脉冲神经网络的训练方法 |
CN112906828A (zh) * | 2021-04-08 | 2021-06-04 | 周士博 | 一种基于时域编码和脉冲神经网络的图像分类方法 |
CN113991015A (zh) * | 2021-10-27 | 2022-01-28 | 中国科学院微电子研究所 | 一种铁电隧道结器件及其制造方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116205283A (zh) * | 2023-04-28 | 2023-06-02 | 北京爱芯科技有限公司 | 数据处理方法、装置、电子设备和计算机可读存储介质 |
CN116205283B (zh) * | 2023-04-28 | 2023-08-25 | 北京爱芯科技有限公司 | 数据处理方法、装置、电子设备和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114580630B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11055608B2 (en) | Convolutional neural network | |
CN112633497B (zh) | 一种基于重加权膜电压的卷积脉冲神经网络的训练方法 | |
Blier et al. | The description length of deep learning models | |
Hunsberger et al. | Spiking deep networks with LIF neurons | |
US9697462B1 (en) | Synaptic time multiplexing | |
Wu et al. | Homogeneous spiking neuromorphic system for real-world pattern recognition | |
DE112016003245T5 (de) | Resistive Verarbeitungseinheit | |
CN110309847B (zh) | 一种模型压缩方法及装置 | |
Kleyko et al. | Modification of holographic graph neuron using sparse distributed representations | |
Srinivasan et al. | Training deep spiking neural networks for energy-efficient neuromorphic computing | |
CN113962371B (zh) | 一种基于类脑计算平台的图像识别方法及系统 | |
JPWO2020092691A5 (zh) | ||
CN114580630A (zh) | 用于ai芯片设计的神经网络模型训练方法及图形分类方法 | |
KR20230097056A (ko) | 분산된 멀티-컴포넌트 시냅스 계산 구조 | |
CN111340194B (zh) | 脉冲卷积神经网络神经形态硬件及其图像识别方法 | |
Krishnan et al. | Structural pruning in deep neural networks: A small-world approach | |
Barchid et al. | Deep spiking convolutional neural network for single object localization based on deep continuous local learning | |
CN115099395B (zh) | 神经网络构建方法及装置、设备、介质 | |
Zou et al. | A scatter-and-gather spiking convolutional neural network on a reconfigurable neuromorphic hardware | |
CN112163673B (zh) | 一种用于大规模类脑计算网络的种群路由方法 | |
CN1622135A (zh) | 数字图像颜色的校正方法 | |
Sudarshan et al. | Image storage and retrieval in graded memory | |
Roy et al. | Learning spatio-temporal representations using spike-based backpropagation | |
Born et al. | Designing neural networks by adaptively building blocks in cascades | |
CN110135557B (zh) | 一种图像处理系统的神经网络拓扑架构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |