CN115994568A - 基于二维材料浮栅晶体管的存算一体神经网络构建方法 - Google Patents
基于二维材料浮栅晶体管的存算一体神经网络构建方法 Download PDFInfo
- Publication number
- CN115994568A CN115994568A CN202211538004.6A CN202211538004A CN115994568A CN 115994568 A CN115994568 A CN 115994568A CN 202211538004 A CN202211538004 A CN 202211538004A CN 115994568 A CN115994568 A CN 115994568A
- Authority
- CN
- China
- Prior art keywords
- neural network
- layer
- voltage
- floating gate
- dimensional material
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Non-Volatile Memory (AREA)
Abstract
本发明公开了一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,浮栅晶体管具有非易失性,可以实现信息的长效、低功耗存储;采用crossbar阵列构建神经网络结构,实现矩阵乘和运算;神经网络层与层之间引入模拟电路,同时作为连接层、激活函数和反相器,因此不需要经过模数转换和软件处理,降低了功耗,同时间接引入负权重,提升了计算精度。本发明提供的浮栅晶体管的存算一体神经网络可以取代传统的忆阻器阵列加软件处理模式,实现了神经网络全硬件结构设计,有望于拓展二维材料半导体器件的大规模集成与应用。
Description
技术领域
本发明属于二维半导体器件领域,更具体地,涉及一种基于二维材料浮栅晶体管的存算一体神经网络构建方法。
背景技术
人工神经网络是一种旨在模仿人脑结构及其功能的信息处理系统。目前,使用人工神经网络方法可以有效地实现机器视觉、语音识别、分析推理等重要功能。传统的计算机都是基于冯诺依曼架构,其数据存储与数据计算单元分离。在神经网络训练和计算过程中,大量的数据流在存储器与计算单元间来回传输,极大地增加了系统功耗。忆阻器等非易失性新兴存储器件的发展为非冯诺依曼架构的存算一体提供了很好的解决方案。单个忆阻器的电阻都能通过施加激励电压连续调控,更重要的是当撤去电压时仍能保持电阻不变,因此能够实现数据的长效储存。此外,将这些忆阻器组织成一个交叉阵列,利用物理定律,如乘法的欧姆定律和基尔霍夫电流定律可以实现向量矩阵乘和模拟运算,并且不管阵列大小如何,都能在一个步骤内实现计算过程。因此,这种存内计算方案能够避免传统冯诺依曼体系结构中所要求的数据穿梭,从而大大降低了功耗。
虽然忆阻器已成功用于构建人工神经网络,但目前主要用于构建单层神经网络,在多层神经网络中的隐藏层仍然依赖软件和数字处理器实现。因此,在计算过程中仍然存在频繁的模数转换和数据阐述,造成了不必要的能耗。为了提升神经网络的计算潜力,有必要构建多层全硬件神经网络,实现高精度、低功耗的神经网络计算。
发明内容
针对现有技术的缺陷,本发明提供了一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,旨在利用模拟电路构建连接层和激活函数,实现全硬件多层神经网络的构建,用于高精度、低功耗神经网络运算。
为实现上述目的,本发明提供了一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,包括如下步骤:
(1)制备神经网络元件,神经网络元件为半导体单点器件,各单点器件依据结构分布从下到上分别为衬底、背栅电极、栅介质层、浮栅电极、隧穿层和二维材料层,二维材料上表面对称沉积源极和漏极。利用芯片工艺制备神经网络阵列,神经网络阵列为半导体单点器件行列分布,每一层漏极共线输入电压信号,用于信号输入,每一列源极共线输出电流信号,用于信号输出。
(2)制备神经网络连接层和激活函数,所述连接层和激活函数为外围模拟电路,用于电流电压转换、电压正负判定、电压反相输出。将待训练的神经网络权重信息对应映射为所述crossbar阵列中各单点器件的栅极电压,通过栅极电压将各单点器件的电阻调到对应权重状态所需的电阻大小,结合第二步中的共线输出,实现数据计算。
相比于传统的单层神经网络,本发明提供的神经网络阵列和模拟电路可用于构建多层全硬件神经网络。模拟电路包括连接层和激活函数,可以实现电流电压转换、电压正负判断以及正负输出。处理得到的正负电压输入能够在下层神经网络阵列中简介实现正负权重。
在其中一个实施例中,神经网络元件和阵列的制备步骤具体为:
(a)在氧化硅衬底上旋涂一层光刻胶,利用光刻机和掩模版对第一层光刻胶图案化,之后利用电子束蒸发工艺和剥离工艺制备图案化分布排列的背栅电极。
(b)利用原子力沉积工艺在背栅电极上表面制备一层氧化铪作为栅介质层,之后在栅介质层表面旋涂第二光刻胶,再利用光刻机和掩模版对第二层光刻胶图案化,之后利用电子束蒸发工艺和剥离工艺制备图案化分布排列的浮栅电极。
(c)利用原子力沉积工艺在浮栅电极上表面制备一层氧化铪作为隧穿层。
(d)利用湿法转移将化学气相沉积生长的二维材料单层薄膜转移至所述隧穿层上表面,并在所述薄膜上表面旋涂第三层光刻胶,然后利用光刻机和掩模版对第三光刻胶图案化,之后利用电子束蒸发工艺和剥离工艺制备分布排列的源、漏电极。
在其中一个实施例中,电流电压转换、电压正负判定、电压反相输出通过运算放大器、电压比较电路和电压反相电路配合实现。
在其中一个实施例中,利用套刻对准工艺,将浮栅电极与源漏电极之间的沟道区域置于同一平面坐标。
在其中一个实施例中,背栅电极、浮栅电极和源漏电极的金属类型均依次为Cr/Au,Pt和Cr/Au,金属Cr能够提高电极与基底的粘附性,金属Au能够保护底层Cr不被氧化,同时提高电极导电性;金属Pt作为浮栅电极可以提供充足的隧穿电荷。
在其中一个实施例中,隧穿层的厚度为5nm~10nm。如果厚度低于5nm可能会造成漏电,反之高于10nm将会提升隧穿所需电压,提高系统功耗。
在其中一个实施例中,栅介质层的厚度为20nm~50nm。该厚度范围既能保证晶体管性能稳定,同时相比传统的氧化硅介电层而言,栅极电压较低,有利于降低系统功耗。
本发明还提供了一种基于二维材料浮栅晶体管的存算一体神经网络,采用上述的二维材料浮栅晶体管的存算一体神经网络构建方法获得。
本发明提供一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,包括浮栅晶体管crossbar阵列器件和外围模拟电路,利用模拟电路构建连接层和激活函数,可实现全硬件多层神经网络的构建,可用于高精度、低功耗神经网络运算。
附图说明
图1是本发明实施例提供的基于二维材料浮栅晶体管的存算一体神经网络构建方法的实现流程图;
图2是本发明实施例提供的浮栅晶体管结构示意图;
图3是本发明实施例提供的浮栅晶体管制备流程图;
图4是本发明实施例提供的神经网络阵列结构示意图;
图5是本发明实施例提供的模拟电路示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1示出了本发明实施例提供的一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,包括如下步骤:
S1通过在衬底上依次附着背栅电极、栅介质层、浮栅电极、隧穿层和二维材料层,并在上表面沉积源极和漏极,获得神经网络元件;
S2通过将所述神经网络元件进行行列分布获得神经网络阵列;
所述神经网络阵列中每一层漏极共线输入电压信号,用于信号输入,每一列源极共线输出电流信号,用于信号输出;
S3通过外围模拟电路将多个神经网络阵列连接后形成神经网络;
所述外围模拟电路包括连接层、激活函数和反相器,用于实现电流电压转换、电压正负判定和电压反相输出。
其中,在步骤S3之后还包括:S4将待训练的神经网络权重信息对应映射为所述神经网络阵列中各神经网络元件的栅极电压,通过栅极电压将各神经网络元件的电阻调到对应权重状态所需的电阻大小,并结合共线输出实现数据计算。
在本发明实施例中,步骤S1具体为:
S11在氧化硅衬底上旋涂一层光刻胶,利用光刻机和掩模版对第一层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备图案化分布排列的背栅电极;
S12利用原子力沉积工艺在所述背栅电极上表面制备一层氧化铪作为栅介质层,在栅介质层表面旋涂第二层光刻胶,利用光刻机和掩模版对所述第二层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备图案化分布排列的浮栅电极;
S13利用原子力沉积工艺在所述浮栅电极上表面制备一层氧化铪作为隧穿层;
S14利用湿法转移将化学气相沉积生长的二维材料单层薄膜转移至所述隧穿层上表面,并在所述二维材料薄膜上表面旋涂第三层光刻胶,利用光刻机和掩模版对第三层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备分布排列的源电极和漏电极。
作为本发明的一个实施例,在步骤S14中,可以利用套刻对准工艺将浮栅电极与源漏电极之间的沟道区域置于同一平面坐标。
其中,在步骤S14中,二维材料可以为MoS2,MoSe2或WSe2。上述材料工艺成熟,便于大面积制备,此外性能稳定,能够适应外界环境变化。
作为本发明的一个实施例,隧穿层的厚度可以为5nm~10nm;栅介质层的厚度可以为20nm~50nm。
外围模拟电路包括:运算放大器、电压比较电路和电压反相电路,每一列输出的电流经过基尔霍夫电流定律累加求和后输入给运算放大器,运算放大器将电路信号转变为电压信号,接着运算放大器将电压信号传递给电压比较电路,电压比较电路判断电压正负性,若为正,则原位输入给电压反向电路,若为负,这电压取零后输入给电压反向电路,最后电压反向电路再将电压信号对应输入下一层神经网络。
本发明提供了一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,并且基于该神经网络实现全硬件多层神经网络模拟计算。浮栅晶体管结构示意图和制备流程图如图2和图3所示,由于隧穿层很薄,在背栅电压的作用下电子或空穴能够穿过隧穿层储存在浮栅电极上,当电压撤去后,储存电荷不变。因此,通过背栅电压长效改变晶体管阻值,可以实现信息储存。神经网络阵列结构示意图如图4所示,通过矩阵乘和模拟运算,可以一步实现存内计算,采用模拟电路构建层间连接层和激活函数,可以实现多层全硬件神经网络计算。
模拟电路示意图如图5所示,电路由两部分组成:激活函数电路用于电压比较,反相器电路用于电压反向输出。激活函数电路工作原理:Vin与0电平通过比较器比较,当Vin>0时,比较器输出为高电平,反之输出低电平;比较器的输出作为模拟开关S1的控制信号,当控制信号为高时,Vout=Vin;反之,Vout=0。从而实现:当Vin>0时,Vout=Vin,Vin<0时,Vout=0,硬件上实现ReLU激活函数。反向器电路:Vin首先经过前级反相放大器,实现Vout’=-(R2/R1)*Vin,通常R2大于等于R1;后级为跟随电路,Vout=Vout',主要是降低整体内阻,提高Vout的负载能力。
实施例1:
获得神经网络元件的实施方案如下:
制备背栅电极:首先将Si/SiO2硅片切成合适大小,然后经过标准清洗程序清洗干净后烘干,之后在硅片表面旋涂一层光刻胶,利用光刻工艺进行图案化,接着利用电子束蒸发在光刻胶表面蒸镀一层50nm厚Cr/Au薄膜,再利用lift-off工艺将光刻胶和多余的金属薄膜剥离,最后得到图案化的背栅电极。
制备栅介质层、浮栅电极以及隧穿层:利用原子力沉积制备20nm的氧化铪栅介质层,接着在栅介质层表面选图一层光刻胶,再利用光刻工艺进行图案化,然后利用电子束蒸发在光刻胶表面蒸镀一层Pt薄膜,再利用lift-off工艺将光刻胶和多余的金属薄膜剥离,得到图案化的浮栅电极,之后利用原子力沉积在硅片表面制备一层8nm厚的氧化铪作为隧穿层。
转移二维材料(以MoS2为例):大面积连续单层MoS2材料是通过化学气相沉积在铜箔上生长制得,利用湿法转移将MoS2薄膜转移到隧穿层表面,利用反应离子刻蚀对薄膜就行图案化。
制备源漏电极和金属连接线:接着用同样的光刻工艺在图案化硫化钼薄膜上面制备50nm厚的源漏电极,其中同一行浮栅晶体管的漏极相连,同一列的源极相连,行列线路重合处通过沉积一层氧化铝绝缘层以防止短路。
实施例2:
模拟电路设计与多层神经网络计算:本例以三层神经网络为例进行说明。
第一层神经网络包括8行3列共计24个浮栅晶体管,第二层神经网络包括6行3列共计18个浮栅晶体管,第三层神经网络包括6行2列共计12个浮栅晶体管,神经网络层与层之间通过模拟电路连接。其工作原理是外界刺激产生的8个电流信号输入第一层神经网络的8路漏极,经过矩阵乘和运算得到3路电流信号;电流信号传给层间的模拟电路,模拟电路利用运算放大器将电流转换成电压信号,接着利用比较电路判断电压正负,将负电压记零处理,正电压不变;此外,为了引入等效的负权重,利用反相器将比较后的电压进行反相处理,从而将一路电流信号转变为一组大小相等、正负相反的电压信号。模拟电路将运算得到的6路电压信号输入第二层神经网络的6路漏极,经过矩阵乘和运算得到3路电流信号,再利用同样的模拟电路得到6路电压信号,输入第三层神经网络的6路漏极,最后利用矩阵求和得到2路电流信号,最后经过比较电路完成神经网络计算。
本发明提供的基于二维材料浮栅晶体管的存算一体神经网络构建方法;浮栅晶体管提供了稳定、低功耗的信息存储,crossbar阵列提供了快速的矩阵求和运算;此外层间的模拟电路不仅实现了信号间的模拟转换,不需要引入外部软件和微处理器,精简了系统结构,另外模拟电路中引入的激活函数和反相器,间接提供了负权重,优化了数据结构,提高了计算精度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于二维材料浮栅晶体管的存算一体神经网络构建方法,其特征在于,包括如下步骤:
S1通过在衬底上依次附着背栅电极、栅介质层、浮栅电极、隧穿层和二维材料层,并在上表面沉积源极和漏极,获得神经网络元件;
S2通过将所述神经网络元件进行行列分布获得神经网络阵列;
所述神经网络阵列中每一层漏极共线输入电压信号,用于信号输入,每一列源极共线输出电流信号,用于信号输出;
S3通过外围模拟电路将多个神经网络阵列连接后形成神经网络;
所述外围模拟电路包括连接层、激活函数和反相器,用于实现电流电压转换、电压正负判定和电压反相输出。
2.如权利要求1所述的存算一体神经网络构建方法,其特征在于,在步骤S3之后还包括:
S4将待训练的神经网络权重信息对应映射为所述神经网络阵列中各神经网络元件的栅极电压,通过栅极电压将各神经网络元件的电阻调到对应权重状态所需的电阻大小,并结合共线输出实现数据计算。
3.如权利要求1所述的存算一体神经网络构建方法,其特征在于,步骤S1具体为:
S11在氧化硅衬底上旋涂一层光刻胶,利用光刻机和掩模版对第一层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备图案化分布排列的背栅电极;
S12利用原子力沉积工艺在所述背栅电极上表面制备一层氧化铪作为栅介质层,在栅介质层表面旋涂第二层光刻胶,利用光刻机和掩模版对所述第二层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备图案化分布排列的浮栅电极;
S13利用原子力沉积工艺在所述浮栅电极上表面制备一层氧化铪作为隧穿层;
S14利用湿法转移将化学气相沉积生长的二维材料单层薄膜转移至所述隧穿层上表面,并在所述二维材料薄膜上表面旋涂第三层光刻胶,利用光刻机和掩模版对第三层光刻胶图案化,并利用电子束蒸发工艺和剥离工艺制备分布排列的源电极和漏电极。
4.如权利要求3所述的存算一体神经网络构建方法,其特征在于,在步骤S14中,利用套刻对准工艺将浮栅电极与源漏电极之间的沟道区域置于同一平面坐标。
5.如权利要求3或4所述的存算一体神经网络构建方法,其特征在于,所述背栅电极、所述浮栅电极和所述源漏电极的金属类型均依次为Cr/Au,Pt和Cr/Au。
6.如权利要求3~5任一项所述的存算一体神经网络构建方法,其特征在于,在步骤S14中,所述二维材料为MoS2,MoSe2或WSe2。
7.如权利要求3~6任一项所述的存算一体神经网络构建方法,其特征在于,所述隧穿层的厚度为5nm~10nm。
8.如权利要求3~7任一项所述的存算一体神经网络构建方法,其特征在于,所述栅介质层的厚度为20nm~50nm。
9.如权利要求1~8任一项所述的存算一体神经网络构建方法,其特征在于,所述外围模拟电路包括:依次连接的运算放大器、电压比较电路和电压反相电路;
所述运算放大器用于将电路信号转变为电压信号并传递给所述电压比较电路;每一列输出的电流经过基尔霍夫电流定律累加求和后作为所述电路信号;
所述电压比较电路用于判断电压正负性,若为正则原位输出给所述电压反向电路,若为负则电压取零后输出给所述电压反向电路;
所述电压反向电路用于将电压信号对应输出至下一层神经网络。
10.一种基于二维材料浮栅晶体管的存算一体神经网络,其特征在于,采用如权利要求1~9任意一项所述的存算一体神经网络构建方法获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211538004.6A CN115994568A (zh) | 2022-12-02 | 2022-12-02 | 基于二维材料浮栅晶体管的存算一体神经网络构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211538004.6A CN115994568A (zh) | 2022-12-02 | 2022-12-02 | 基于二维材料浮栅晶体管的存算一体神经网络构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115994568A true CN115994568A (zh) | 2023-04-21 |
Family
ID=85994596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211538004.6A Pending CN115994568A (zh) | 2022-12-02 | 2022-12-02 | 基于二维材料浮栅晶体管的存算一体神经网络构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115994568A (zh) |
-
2022
- 2022-12-02 CN CN202211538004.6A patent/CN115994568A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Haensch et al. | The next generation of deep learning hardware: Analog computing | |
Bian et al. | Neuromorphic computing: Devices, hardware, and system application facilitated by two-dimensional materials | |
US20230186060A1 (en) | Novel neuromorphic vision system | |
WO2024109644A1 (zh) | 忆阻器阵列的操作方法、数据处理装置 | |
Zhang et al. | Towards an universal artificial synapse using MXene-PZT based ferroelectric memristor | |
CN113627601A (zh) | 子单元、mac阵列、位宽可重构的模数混合存内计算模组 | |
Migliato Marega et al. | A large-scale integrated vector–matrix multiplication processor based on monolayer molybdenum disulfide memories | |
Wang et al. | Research progress in architecture and application of RRAM with computing-in-memory | |
EP4022519A1 (en) | Electrochemical device of variable electrical conductance | |
Yang et al. | Essence: Exploiting structured stochastic gradient pruning for endurance-aware reram-based in-memory training systems | |
CN115994568A (zh) | 基于二维材料浮栅晶体管的存算一体神经网络构建方法 | |
Zhang et al. | Fully Integrated 3-D Stackable CNTFET/RRAM 1T1R Array as BEOL Buffer Macro for Monolithic 3-D Integration With Analog RRAM-Based Computing-in-Memory | |
WO2023018177A1 (ko) | 3 전극 대각 멤트랜지스터 시스템과 이를 이용한 컨볼루션 네트워크 연산 장치 및 연산 방법 | |
Doevenspeck et al. | Noise tolerant ternary weight deep neural networks for analog in-memory inference | |
CN112420521B (zh) | 基于顶栅非晶氧化物半导体浮栅晶体管的器件及制作方法 | |
CN112447831B (zh) | 提升铁电晶体管性能的器件结构及制备方法 | |
Zhang et al. | Perspectives on MXene-PZT based ferroelectric memristor in computation in memory applications | |
CN113964121A (zh) | 一种跨导可变场效应晶体管阵列及应用 | |
CN112836812B (zh) | 基于浮栅晶体管的神经元网络 | |
CN112070220B (zh) | 一种基于非线性器件的原位自激活神经网络电路及神经网络运算方法 | |
Lepri et al. | In-memory neural network accelerator based on phase change memory (PCM) with one-selector/one-resistor (1S1R) structure operated in the subthreshold regime | |
Haensch et al. | A co-design view of compute in-memory with non-volatile elements for neural networks | |
EP4002094A1 (en) | Computing element for in-memory computing | |
CN114597232B (zh) | 一种实现负权重的矩阵乘和运算的crossbar器件制备方法 | |
Xu et al. | Improvement of weight stability in Li-ion-based electrolyte-gated transistor synapse by silica protective process |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |