CN109063826A - 一种基于忆阻器的卷积神经网络实现方法 - Google Patents

一种基于忆阻器的卷积神经网络实现方法 Download PDF

Info

Publication number
CN109063826A
CN109063826A CN201811066871.8A CN201811066871A CN109063826A CN 109063826 A CN109063826 A CN 109063826A CN 201811066871 A CN201811066871 A CN 201811066871A CN 109063826 A CN109063826 A CN 109063826A
Authority
CN
China
Prior art keywords
memristor
convolutional neural
neural networks
trained
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811066871.8A
Other languages
English (en)
Other versions
CN109063826B (zh
Inventor
李正浩
刘佳琪
唐永亮
胡伟
龚卫国
李伟红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Lisha Technology Co ltd
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Publication of CN109063826A publication Critical patent/CN109063826A/zh
Application granted granted Critical
Publication of CN109063826B publication Critical patent/CN109063826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于忆阻器的卷积神经网络实现方法,包括制备由卷积+池化层与全连接层构成的待训练的卷积神经网络,并输入训练集图像信息,得到全连接层输出值;根据待训练的卷积神经网络的全连接层输出值与标准信息的偏差,利用反向传播函数对待训练的卷积神经网络进行训练;当达到训练次数时,判定训练精度是否达标,若不达标则对训练后的卷积神经网络进行再次训练,直至精度达标;获得所需卷积神经网络等步骤。其显著效果是:在硬件上减少了对精度和制备难度、时间的影响;实现了更高级的多层卷积神经网络;不易受到硬件噪声、制备难度和时间的影响,在应用复杂化后能够表现出更强的适应能力。

Description

一种基于忆阻器的卷积神经网络实现方法
技术领域
本发明涉及到人工智能与材料科学技术领域,具体地说,是一种基于忆阻器的卷积神经网络实现方法。
背景技术
忆阻器(Memristor)是一种表示磁通与电荷关系的电路器件(dρ=Mdq),具有电阻的量纲,其阻值由流经它的电荷所决定。通过测定忆阻的阻值,便可知道流经它的电荷量,从而有记忆电荷的作用。忆阻器的阻变特性被认为类似于大脑神经元中的突触。而经研究表明,人脑是一个由数十亿个神经元组成的网络,通过约1015个突触连接进行交流。人类的认知能力是由在这个巨大的网络中进行的计算所产生的,很多基础的认知反应是由经验形成的,因为学习推动了突触之间联系强度的变化。对于忆阻器而言,若让电荷以一个方向流过,电阻会增加;让电荷以另一个方向流动,电阻就会减小。可见忆阻器记忆电阻的强度与突触之间联系强度可以形成对应关系。
由于忆阻器类突触的特性,将神经网络计算与忆阻器相结合,可以使负责数据存储和处理的单元融合在一起,大幅提升数据传输和处理的并行度。近年来,研究人员针对神经网络计算在忆阻器上的实现进行了大量研究。M.Prezioso等在12×12的忆阻器阵列上,利用单层反向传播基础神经网络,实现了对27个3×3二进制图像“z”、“v”、“n”的分类(参见文献“Training and operation of an integrated neuromorphic network based onmetal-oxide memristors”,发表于Nature,2015年第521卷第7550期)。P.Yao等在128×8的忆阻器阵列上,同样利用反向传播基础神经网络,实现了对320像素灰度图像人脸的分类,相比M.Prezioso等的研究,提高了忆阻器阵列的规模与处理图像的像素上限(参见文献“Face classification using electronic synapses”,发表于Nature Communications,2017年第8期)。
然而,上述方法虽然能够在忆阻器阵列上实现神经网络,并应用于简单分类,但实现的神经网络较为基础,并且忆阻器阵列排列方式唯一。在这种排列方式下,忆阻器阵列的规模随着应用的复杂化而急剧上升,不仅成倍地增加了制备的难度和时间,也使硬件串扰所带来的噪声更为严重,影响精度。
由此可见,亟需一种精度、制备难度和时间对于应用的复杂化程度不敏感,且能够实现更高级神经网络(基础神经网络的变体)的基于忆阻器的卷积神经网络实现方法。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于忆阻器的卷积神经网络实现方法,以较好地在应用复杂化后,减少对精度和制备难度、时间的影响,同时实现更高级的神经网络。
为达到上述目的,本发明采用的技术方案如下:
一种基于忆阻器的卷积神经网络实现方法,其具体步骤为:
步骤1:制备由卷积+池化层与全连接层构成的待训练的卷积神经网络,并输入训练集图像信息,得到全连接层输出值;
步骤2:根据待训练的卷积神经网络的全连接层输出值与标准信息的偏差,利用反向传播函数对待训练的卷积神经网络进行训练;
步骤3:当达到训练次数时,判定训练精度是否达标,若不达标则对训练后的卷积神经网络进行再次训练,直至精度达标;
步骤4:获得所需卷积神经网络。
进一步的,所述待训练的卷积神经网络的制备过程如下:
步骤1-1:制备基础忆阻器阵列;
步骤1-2:采用基础忆阻器阵列制备卷积+池化层忆阻器阵列,通过每一列的输入口输入训练集图像信息,得到卷积+池化层输出值;
步骤1-3:采用基础忆阻器阵列制备全连接层忆阻器阵列,且该全连接层忆阻器阵列的输入口个数与卷积+池化层忆阻器阵列的基础忆阻器阵列个数一致,得到待训练的卷积神经网络。
进一步的,所述基础忆阻器阵列由多个忆阻器按a*a矩阵形式排列而成,其中a为大于0的整数。
进一步的,所述基础忆阻器阵列由9个忆阻器按3*3矩阵形式排列而成。
进一步的,所述卷积+池化层忆阻器阵列由多个基础忆阻器阵列按b*b矩阵形式排列而成,所述全连接层忆阻器阵列由多个基础忆阻器阵列按p*q矩阵形式排列而成,其中b、p、q为互不相等的大于零的整数。
进一步的,所述卷积+池化层忆阻器阵列由81个基础忆阻器阵列按9*9矩阵形式排列而成,所述全连接层忆阻器阵列由108个基础忆阻器阵列按27*4矩阵形式排列而成。
进一步的,所述训练次数不少于一千次。
本发明首先将多个基础忆阻器阵列以矩阵方式排列构成卷积+池化层忆阻器阵列,通过每一列的每个输入口输入图像信息,分别得到各个基础忆阻器阵列的电流和即卷积+池化层输出信息,作为下一层特征输入信息;然后将多个基础忆阻器阵列以矩阵方式排列构成全连接层忆阻器阵列,通过第一列每个输入口输入卷积+池化层输出信息,对输入的特征进行处理后分别得到每一列的电流和,其中电流和最大的一列的列标识作为输出信息;接着在训练模式下,利用输出信息与标准信息求得偏差,根据偏差利用反向传播函数结合Vset电压脉冲序列减小权重(即忆阻器电阻值),Vreset电压脉冲序列增大权重,对所得的待训练的卷积神经网络进行训练;若精度达标则获得训练好的可以直接使用的卷积神经网络,若精度未达标则对卷积神经网络进行再次训练,再次训练可以采用两种方案,即增加训练次数或改变反向传播函数中的学习因子,从而对精度进行改善,直至获得所需精度的卷积神经网络。
本发明的显著效果是:利用小规模忆阻器阵列作为基础阵列,然后以一定方式进行排列构成大的处理阵列,在硬件上减少了对精度和制备难度、时间的影响;同时采取两层处理阵列以及卷积+池化层的小规模忆阻器阵列电流和作为输出,硬件实现了更高级的多层卷积神经网络;与传统的基于忆阻器的神经网络实现方法相比,本发明方法实现了更高级的神经网络,不易受到硬件噪声、制备难度和时间的影响,在应用复杂化后能够表现出更强的适应能力。
附图说明
图1是本发明的方法流程图;
图2是所述基础忆阻器阵列的排布示意图;
图3是所述卷积+池化层忆阻器阵列的排布示意图;
图4是所述全连接层忆阻器阵列的排布示意图;
图5是训练次数分别为2000、4000、6000次的卷积神经网络对10个不同形状的识别精度图。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于忆阻器的卷积神经网络实现方法,具体实现步骤如下:
步骤1:制备由卷积+池化层与全连接层构成的待训练的卷积神经网络,并输入训练集图像信息,得到全连接层输出值,所述卷积+池化层的功能是为全连接层提供特征输入;所述全连接层的功能是对输入的特征进行处理并提供输出结果;
其中,待训练的卷积神经网络的制备过程如下:
首先进入步骤1-1:制备3×3大小的基础忆阻器阵列,即将9个忆阻器按每行3个、每列3个(即a=3)的矩阵形式排列在一个集成芯片上,也即9个忆阻器结合cmos和晶体管等排列在3行3列的交叉杆上,其中横杆(行)接受电压输入,竖杆(列)给出电流输出,制成的基础忆阻器阵列如图2所示;
然后进入步骤1-2:采用如图2所示的基础忆阻器阵列制备卷积+池化层忆阻器阵列,并通过每一列的输入口输入训练集图像信息,得到卷积+池化层输出值:
将81个3×3基础忆阻器阵列按每行9个,每列9个(即b=9)的矩阵形式排列,各个基础忆阻器阵列之间无连接。每个基础忆阻器阵列以该阵列3个竖杆的输出电流和作为该单元的输出电流值,输出电流值将会以电流转换电压电路(通过电阻)构成输入给全连接层的电压。
在本例中,规定所要识别的形状有十种,同一组形状的图像相互之间有一定程度的差别,所有图像的格式均为27×27像素、灰度图。
由于图像输入之前,阵列中忆阻器的阻值为随机值,则图像输入公示为:
Vij(m-(i-1)×3,n-(j-1)×3)=Image(m,n)
其中,m、n代表图像的行列,m={1,2,3...27},n={1,2,3...27},Image(m,n)为图像m行n列的灰度值。Vij为对忆阻器阵列每个忆阻器施加的电压值,其中i代表卷积+池化层忆阻器阵列行数,j代表卷积+池化层忆阻器阵列列数,i={1,2,3...9},j={1,2,3...9},m-(i-1)×3为忆阻器基础阵列行数,n-(j-1)×3为忆阻器基础阵列列数,理应有1≤(m-(i-1)×3)≤3,1≤(n-(j-1)×3)≤3。
由于,在忆阻器上的计算符合欧姆定律:因此,卷积+池化层忆阻器阵列输出处理公式为:
其中,Iconv为每个忆阻器基础阵列中所有忆阻器的输出电流和,由于一共有81个忆阻器基础阵列,所以Iconv是一个长度为81的向量。
最后进入步骤1-3:采用基础忆阻器阵列制备全连接层忆阻器阵列,且该全连接层忆阻器阵列的输入口个数与卷积+池化层忆阻器阵列的基础忆阻器阵列个数一致,得到待训练的卷积神经网络,输入卷积+池化层输出值,得到全连接层输出值,具体操作过程为:
参见附图4,采用如图2所示的基础忆阻器阵列制备全连接层忆阻器阵列,即将108个3×3基础忆阻器阵列按每行27个,每列4个(即p=27,q=4)的矩阵形式排列,且各个基础忆阻器阵列芯片之间无连接,每个基础忆阻器阵列以该阵列3个竖杆的输出电流和作为该单元的输出电流值,输出电流值将会以电流转换为电压电路(通过电阻)构成输入给全连接层的电压。
卷积+池化层处理结果输入之前,全连接层忆阻器阵列中忆阻器的阻值为随机值,这里全连接层忆阻器阵列的最后两列并不使用。卷积+池化层处理结果输入处理公式为:
Vl(k)=Iconv(k)
其中,Vl(k)为给第l列的每个忆阻器施加的电压值,1≤l≤10,1≤k≤81,采用R=1Ω电阻来使电流转换为电压。
则在忆阻器上的计算符合欧姆定律:
本例中,定义为返回括号中函数在f=x,f=x+1…f=y的情况下结果为最大时所对应的f值,则全连接层忆阻器阵列的输出处理公式为:
其中,Output为整数值,它的每一个值代表一个形状,一共有10个形状,即1≤Output≤10。
步骤2:根据待训练的卷积神经网络的全连接层输出值与标准信息的偏差,利用反向传播函数结合Vset电压脉冲序列减小权重、Vreset电压脉冲序列增大权重对制备的待训练的卷积神经网络进行训练,且训练次数不小于一千次,具体训练过程为:
首先,对比标准信息Answer和待训练的卷积神经网络全连接层输出Output的值,若Answer=Output,则不进行任何调整,直接进入下一次训练;若Answer≠Output,则需要利用反向传播函数对权重(即忆阻器阻值)进行调整。
当需要进行调整时:
对于Answer所对应的一列:
G(k,Answer)=G(k,Answer)+ΔG(k,Answer)
其中,β为学习率,β值越大学习步长越大,β值越小学习步长越小,在神经网络中,学习率主要控制收敛速度。ΔG的实现是利用Vset电压脉冲序列减小权重,施加Vset电压脉冲序列的次数越多,减少的权重越大;利用Vreset电压脉冲序列增大权重,施加Vreset电压脉冲序列的次数越多,增大的权重越大,其中将Vset和Vreset电压脉冲通过横杆施加到每个忆阻器上以调整忆阻器的阻值(即调整了权重大小),Vset和Vreset电压脉冲序列的数量和振幅可调。
对于Output所对应的一列:
G(k,Output)=G(k,Output)+ΔG(k,Output)
其中,ΔG的实现同上。
在调整部分结束后,可进行下一次训练。
步骤3:当达到训练次数时,判定训练精度是否达标,若不达标则对训练后的卷积神经网络进行再次训练,直至精度达标,而再次训练时可以采用如下两种策略:一是增加训练次数,二是改变上述的学习率β的值;
步骤4:获得所需卷积神经网络,获得的训练好的卷积神经网络可以直接使用在对某一目标的识别时,无需再次训练。
在本实施例中,应用训练次数分别为2000次、4000次、6000次所得的卷积神经网络,针对表示十种不同形状的共10000张测试集图像进行了识别,获得的识别精度对比结果如图5所示,不难看出,本发明具有令人满意的准确度,不仅训练方法的鲁棒性很强,更是创新性地成功实现了更为复杂的卷积神经网络。

Claims (7)

1.一种基于忆阻器的卷积神经网络实现方法,其特征在于按照以下步骤进行:
步骤1:制备由卷积+池化层与全连接层构成的待训练的卷积神经网络,并输入训练集图像信息,得到全连接层输出值;
步骤2:根据待训练的卷积神经网络的全连接层输出值与标准信息的偏差,利用反向传播函数对待训练的卷积神经网络进行训练;
步骤3:当达到训练次数时,判定训练精度是否达标,若不达标则对训练后的卷积神经网络进行再次训练,直至精度达标;
步骤4:获得所需卷积神经网络。
2.根据权利要求1所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述待训练的卷积神经网络的制备过程如下:
步骤1-1:制备基础忆阻器阵列;
步骤1-2:采用基础忆阻器阵列制备卷积+池化层忆阻器阵列,通过每一列的输入口输入训练集图像信息,得到卷积+池化层输出值;
步骤1-3:采用基础忆阻器阵列制备全连接层忆阻器阵列,且该全连接层忆阻器阵列的输入口个数与卷积+池化层忆阻器阵列的基础忆阻器阵列个数一致,得到待训练的卷积神经网络。
3.根据权利要求2所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述基础忆阻器阵列由多个忆阻器按a*a矩阵形式排列而成,其中a为大于0的整数。
4.根据权利要求2或3所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述基础忆阻器阵列由9个忆阻器按3*3矩阵形式排列而成。
5.根据权利要求2所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述卷积+池化层忆阻器阵列由多个基础忆阻器阵列按b*b矩阵形式排列而成,所述全连接层忆阻器阵列由多个基础忆阻器阵列按p*q矩阵形式排列而成,其中b、p、q为互不相等的大于零的整数。
6.根据权利要求2或5所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述卷积+池化层忆阻器阵列由81个基础忆阻器阵列按9*9矩阵形式排列而成,所述全连接层忆阻器阵列由108个基础忆阻器阵列按27*4矩阵形式排列而成。
7.根据权利要求1所述的一种基于忆阻器的卷积神经网络实现方法,其特征在于:所述训练次数不少于一千次。
CN201811066871.8A 2018-03-19 2018-09-13 一种基于忆阻器的卷积神经网络实现方法 Active CN109063826B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2018102239424 2018-03-19
CN201810223942 2018-03-19

Publications (2)

Publication Number Publication Date
CN109063826A true CN109063826A (zh) 2018-12-21
CN109063826B CN109063826B (zh) 2019-05-31

Family

ID=64760483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811066871.8A Active CN109063826B (zh) 2018-03-19 2018-09-13 一种基于忆阻器的卷积神经网络实现方法

Country Status (1)

Country Link
CN (1) CN109063826B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740697A (zh) * 2019-03-05 2019-05-10 重庆大学 基于深度学习的尿沉渣显微图像有形成分识别方法
CN109800729A (zh) * 2019-01-28 2019-05-24 清华大学 信号处理装置及信号处理方法
CN110796241A (zh) * 2019-11-01 2020-02-14 清华大学 基于忆阻器的神经网络的训练方法及其训练装置
CN110852429A (zh) * 2019-10-28 2020-02-28 华中科技大学 一种基于1t1r的卷积神经网络及其操作方法
CN111695678A (zh) * 2020-06-01 2020-09-22 电子科技大学 一种基于忆阻模块阵列的图像标题生成方法
CN111931924A (zh) * 2020-07-31 2020-11-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN112130057A (zh) * 2020-09-14 2020-12-25 哈尔滨工业大学(威海) 基于忆阻器神经网络的辐射效应诊断系统
CN113517007A (zh) * 2021-04-29 2021-10-19 西安交通大学 一种流水处理方法、系统和忆阻器阵列
CN114463161A (zh) * 2022-04-12 2022-05-10 之江实验室 一种基于忆阻器的神经网络处理连续图像的方法和装置
CN114781634A (zh) * 2022-06-21 2022-07-22 之江实验室 一种基于忆阻器的神经网络阵列的自动映射方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105160401A (zh) * 2015-08-27 2015-12-16 电子科技大学 一种基于忆阻器阵列的wta神经网络及其应用
CN105224986A (zh) * 2015-09-29 2016-01-06 清华大学 基于忆阻器件的深度神经网络系统
CN106599941A (zh) * 2016-12-12 2017-04-26 西安电子科技大学 基于卷积神经网络与支持向量机的手写数字识别方法
US20170220526A1 (en) * 2015-04-16 2017-08-03 Hewlett Packard Enterprise Development Lp Resistive memory arrays for performing multiply-accumulate operations
CN107133668A (zh) * 2017-04-28 2017-09-05 北京大学 一种基于模糊玻尔兹曼机的忆阻神经网络训练方法
US20170271409A1 (en) * 2015-01-29 2017-09-21 Hewlett Packard Enterprise Development Lp Resistive memory devices and arrays
CN107194462A (zh) * 2016-03-15 2017-09-22 清华大学 三值神经网络突触阵列及利用其的神经形态计算网络
CN107239736A (zh) * 2017-04-28 2017-10-10 北京智慧眼科技股份有限公司 基于多任务级联卷积神经网络的人脸检测方法及检测装置
CN107392224A (zh) * 2017-06-12 2017-11-24 天津科技大学 一种基于三通道卷积神经网络的作物病害识别算法
CN107578014A (zh) * 2017-09-06 2018-01-12 上海寒武纪信息科技有限公司 信息处理装置及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170271409A1 (en) * 2015-01-29 2017-09-21 Hewlett Packard Enterprise Development Lp Resistive memory devices and arrays
US20170220526A1 (en) * 2015-04-16 2017-08-03 Hewlett Packard Enterprise Development Lp Resistive memory arrays for performing multiply-accumulate operations
CN105160401A (zh) * 2015-08-27 2015-12-16 电子科技大学 一种基于忆阻器阵列的wta神经网络及其应用
CN105224986A (zh) * 2015-09-29 2016-01-06 清华大学 基于忆阻器件的深度神经网络系统
CN107194462A (zh) * 2016-03-15 2017-09-22 清华大学 三值神经网络突触阵列及利用其的神经形态计算网络
CN106599941A (zh) * 2016-12-12 2017-04-26 西安电子科技大学 基于卷积神经网络与支持向量机的手写数字识别方法
CN107133668A (zh) * 2017-04-28 2017-09-05 北京大学 一种基于模糊玻尔兹曼机的忆阻神经网络训练方法
CN107239736A (zh) * 2017-04-28 2017-10-10 北京智慧眼科技股份有限公司 基于多任务级联卷积神经网络的人脸检测方法及检测装置
CN107392224A (zh) * 2017-06-12 2017-11-24 天津科技大学 一种基于三通道卷积神经网络的作物病害识别算法
CN107578014A (zh) * 2017-09-06 2018-01-12 上海寒武纪信息科技有限公司 信息处理装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李楚曦 等: "基于忆阻器的PIM结构实现深度卷积神经网络近似计算", 《计算机研究与发展》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800729A (zh) * 2019-01-28 2019-05-24 清华大学 信号处理装置及信号处理方法
CN109740697A (zh) * 2019-03-05 2019-05-10 重庆大学 基于深度学习的尿沉渣显微图像有形成分识别方法
CN109740697B (zh) * 2019-03-05 2023-04-14 重庆大学 基于深度学习的尿沉渣显微图像有形成分识别方法
CN110852429B (zh) * 2019-10-28 2022-02-18 华中科技大学 一种基于1t1r的卷积神经网络电路及其操作方法
CN110852429A (zh) * 2019-10-28 2020-02-28 华中科技大学 一种基于1t1r的卷积神经网络及其操作方法
CN110796241A (zh) * 2019-11-01 2020-02-14 清华大学 基于忆阻器的神经网络的训练方法及其训练装置
CN110796241B (zh) * 2019-11-01 2022-06-17 清华大学 基于忆阻器的神经网络的训练方法及其训练装置
CN111695678A (zh) * 2020-06-01 2020-09-22 电子科技大学 一种基于忆阻模块阵列的图像标题生成方法
CN111695678B (zh) * 2020-06-01 2022-05-03 电子科技大学 一种基于忆阻模块阵列的图像标题生成方法
CN111931924B (zh) * 2020-07-31 2022-12-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN111931924A (zh) * 2020-07-31 2020-11-13 清华大学 基于在线迁移训练的忆阻器神经网络芯片架构补偿方法
CN112130057A (zh) * 2020-09-14 2020-12-25 哈尔滨工业大学(威海) 基于忆阻器神经网络的辐射效应诊断系统
CN112130057B (zh) * 2020-09-14 2024-04-16 哈尔滨工业大学(威海) 基于忆阻器神经网络的辐射效应诊断系统
CN113517007A (zh) * 2021-04-29 2021-10-19 西安交通大学 一种流水处理方法、系统和忆阻器阵列
CN113517007B (zh) * 2021-04-29 2023-07-25 西安交通大学 一种流水处理方法、系统和忆阻器阵列
CN114463161A (zh) * 2022-04-12 2022-05-10 之江实验室 一种基于忆阻器的神经网络处理连续图像的方法和装置
CN114781634A (zh) * 2022-06-21 2022-07-22 之江实验室 一种基于忆阻器的神经网络阵列的自动映射方法和装置
CN114781634B (zh) * 2022-06-21 2022-11-04 之江实验室 一种基于忆阻器的神经网络阵列的自动映射方法和装置

Also Published As

Publication number Publication date
CN109063826B (zh) 2019-05-31

Similar Documents

Publication Publication Date Title
CN109063826B (zh) 一种基于忆阻器的卷积神经网络实现方法
US11861489B2 (en) Convolutional neural network on-chip learning system based on non-volatile memory
Phung et al. A deep learning approach for classification of cloud image patches on small datasets
CN105957086B (zh) 一种基于优化神经网络模型的遥感图像变化检测方法
Liu et al. DFF-ResNet: An insect pest recognition model based on residual networks
CN107358293A (zh) 一种神经网络训练方法及装置
CN109086870B (zh) 一种基于忆阻器的三维卷积神经网络实现方法
CN108805270A (zh) 一种基于存储器的卷积神经网络系统
CN108776807A (zh) 一种基于可跳层双支神经网络的图像粗细粒度分类方法
Deng et al. A memristive spiking neural network circuit with selective supervised attention algorithm
Wang et al. IORN: An effective remote sensing image scene classification framework
CN107153810A (zh) 一种基于深度学习的手写体数字识别方法及系统
CN108229523A (zh) 图像检测、神经网络训练方法、装置和电子设备
CN110659666B (zh) 一种基于相互作用的多层脉冲神经网络的图像分类方法
CN107657204A (zh) 深层网络模型的构建方法及人脸表情识别方法和系统
US9361545B2 (en) Methods and apparatus for estimating angular movement with a single two dimensional device
CN107688856A (zh) 基于深度强化学习的室内机器人场景主动识别方法
CN107609634A (zh) 一种基于增强极速学习的卷积神经网络训练方法
CN106980830A (zh) 一种基于深度卷积网络自亲缘关系识别方法与装置
CN108898191A (zh) 卷积神经网络特征提取图像传感器
CN106980831A (zh) 基于自编码器的自亲缘关系识别方法
CN104036242A (zh) 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法
Sun et al. Multi‐vision attention networks for on‐line red jujube grading
Prasetyo et al. The implementation of CNN on website-based rice plant disease detection
Sun et al. Quaternary synapses network for memristor-based spiking convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210517

Address after: 200333 room 5081, 5th floor, No.5 Lane 600, Yunling West Road, Putuo District, Shanghai

Patentee after: Shanghai Lisha Technology Co.,Ltd.

Address before: 400 000 No. 174 Zhengjie, Shapingba District, Chongqing

Patentee before: Chongqing University

TR01 Transfer of patent right