CN114662227A - 基于神经网络的FinFET器件性能预测及结构优化方法 - Google Patents

基于神经网络的FinFET器件性能预测及结构优化方法 Download PDF

Info

Publication number
CN114662227A
CN114662227A CN202210188696.XA CN202210188696A CN114662227A CN 114662227 A CN114662227 A CN 114662227A CN 202210188696 A CN202210188696 A CN 202210188696A CN 114662227 A CN114662227 A CN 114662227A
Authority
CN
China
Prior art keywords
parameters
finfet device
layer
neural network
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210188696.XA
Other languages
English (en)
Inventor
王树龙
刘海宇
赵银锋
刘晨钰
赵蓉
马兰
马浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202210188696.XA priority Critical patent/CN114662227A/zh
Publication of CN114662227A publication Critical patent/CN114662227A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/17Mechanical parametric or variational design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Insulated Gate Type Field-Effect Transistor (AREA)

Abstract

本发明涉及微电子器件技术与人工智能技术领域领域,具体涉及基于神经网络的F i nFET器件性能预测及结构优化方法。本发明使用神经网络对F i nFET器件结构和电学性能之间的关系进行学习,从而可以根据F i nFET器件结构快速预测出F i nFET器件的电学性能,也可根据F i nFET器件的电学性能获得优化的F i nFET器件结构,很好地解决了传统的数值模拟方法的开发周期长、效率低、成本高的问题,满足了F i nFET器件快速发展的需求。

Description

基于神经网络的FinFET器件性能预测及结构优化方法
技术领域
本发明涉及微电子器件技术与人工智能技术领域领域,具体涉及基于神经网络的FinFET(FinField-Effect Transistor,鳍式场效应晶体管)器件性能预测及结构优化方法。
背景技术
随着器件的特征尺寸不断减小,特别是进入到纳米时代后,场效应晶体管中的非理想效应,如短沟效应、量子效应、寄生效应以及参数不稳定等对器件性能的影响越来越突出,器件的进一步缩小受到来自于器件结构、材料以及工作机制等诸多方面的严重限制。而FinFET器件不仅可以通过增强栅控能力来抑制短沟道效应、改善亚阈值特性,又有着与传统工艺兼容的优势。
然而,传统的研发新器件、新材料的方法存在耗时长、成本高、门槛高和效率低的问题,难以满足多样化的需求。随着信息科学的进一步发展,很多领域对器件和材料的需求日益增加,促使研究人员寻找更多样的解决方式,神经网络的快速发展又为新器件、新材料的研发提供了另一种选择。
发明内容
针对现有技术中存在的问题,本发明的目的在于基于神经网络的FinFET器件性能预测及结构优化方法。
为了达到上述目的,本发明采用以下技术方案予以实现。
技术方案一:
基于神经网络的FinFET器件性能预测方法,包括以下步骤:
步骤1,获取多组FinFET器件的结构参数及其相应的电性能参数,作为样本集;
其中,FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;
步骤2,将样本集的多组数据按比例随机划分为训练集、验证集;分别对训练集、验证集的FinFET器件的结构参数进行标准化处理,分别对训练集和验证集的FinFET器件的电性能参数进行归一化处理;
步骤3,构建卷积神经网络预测模型;
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
步骤5,向训练后的卷积神经网络预测模型输入需要预测电性能参数的FinFET器件的结构参数,得到测试集的FinFET器件电性能参数的预测结果。
技术方案二:
基于神经网络的FinFET器件结构优化方法,包括以下步骤:
步骤1,获取多组FinFET器件的电性能参数及其相应的结构参数,作为样本集;
其中,FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;
步骤2,将样本集的多组数据按比例随机划分为训练集、验证集;分别对训练集、验证集的FinFET器件的电性能参数进行标准化处理,分别对训练集和验证集的FinFET器件的结构参数进行归一化处理;
步骤3,构建卷积神经网络预测模型;
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
步骤5,向训练后的卷积神经网络预测模型输入需要预测结构参数的FinFET器件电性能参数,得到测试集的FinFET器件结构参数的预测结果。
与现有技术相比,本发明的有益效果为:使用神经网络对FinFET器件结构和电学性能之间的关系进行学习,从而可以根据FinFET器件结构快速预测出FinFET器件的电学性能,也可根据FinFET器件的电学性能获得优化的FinFET器件结构,很好地解决了传统的数值模拟方法的开发周期长、效率低、成本高的问题,满足了FinFET器件快速发展的需求。
附图说明
下面结合附图和具体实施例对本发明做进一步详细说明。
图1为本发明实施例1使用的FinFET器件的结构示意图;
图2为本发明实施例1使用的FinFET器件的转移特性曲线;
图3为本发明的卷积神经网络预测模型的结构示意图;
图4为本发明实施例1中,测试集FinFET器件电性能参数的预测值与测试集FinFET器件电性能参数的真实值的对比图;图4(a)为阈值电压的预测值与真实值的对比图;图4(b)为跨导的预测值与真实值的对比图;图4(c)为亚阈值摆幅的预测值与真实值的对比图;图4(d)为电流开关比的预测值与真实值的对比图;图4(e)为截止频率的预测值与真实值的对比图。
附图标记说明:1源区、2漏区、3衬底、4栅极、5场氧化层、6Fin区。
具体实施方式
下面将结合实施例对本发明的实施方案进行详细描述,但是本领域的技术人员将会理解,下列实施例仅用于说明本发明,而不应视为限制本发明的范围。
实施例1
基于神经网络的FinFET器件性能预测方法,包括以下步骤:
步骤1,获取4077组FinFET器件的结构参数及其相应的电性能参数,作为样本集;
其中,FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;
即每组数据包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度、沟道长度、阈值电压、亚阈值摆幅、跨导、电流开关比和截止频率;
具体的,所述阈值电压为FinFET器件漏电流达到1×10-8A/μm时的栅压;
所述电流开关比为FinFET器件栅压为1V时的漏电流与FinFET器件栅压为0V时的漏电流的比值;
所述平均亚阈值摆幅S的计算公式如式(1):
Figure BDA0003523742510000041
式(1)中,Vg为FinFET器件的栅极电压,Ids为FinFET器件栅极电压为Vg时的漏电流;
所述跨导gm的计算公式如式(2):
Figure BDA0003523742510000051
式(2)中,Ids是FinFET器件的源漏间电流,Vg为FinFET器件的栅压;
所述截止频率fT的计算公式如式(3):
Figure BDA0003523742510000052
式(3)中,Cgs为栅源电容,Cgd为栅漏电容。
参考图1,为本实施例使用的FinFET器件的结构示意图,包括源区1、漏区2、衬底3、栅极4、场氧化层5和Fin区6;该FinFET器件的各项参数如下:
源区1的均匀掺杂浓度为1×1016/cm3,高斯掺杂浓度为5×1019/cm3,长度为140nm,高度为60nm;漏区2的均匀掺杂浓度为1×1016/cm3,高斯掺杂浓度为5×1019/cm3,长度为140nm,高度为60nm;衬底3的高度为290nm,均匀掺杂浓度为1×1018/cm3;栅极4为高度160nm、长度90nm的多晶硅栅;场氧化层5的厚度为150nm,淀积于硅衬底之上;Fin区6的宽度为60nm,高度为60nm。
参考图2,为本实施例使用的FinFET器件的转移特性曲线;
通过不断改变上述FinFET器件的结构参数,获得4375组结构参数数据;结构参数取值如下:
Fin宽分别取值0.040μm、0.045μm、0.050μm、0.055μm、0.060μm;Fin高分别取值0.04μm、0.05μm、0.06μm、0.07μm、0.08μm;源区高斯掺杂浓度分别取值4.00×1019/cm3、5.00×1019/cm3、6.00×1019/cm3、7.00×1019/cm3、8.00×1019/cm3;漏区高斯掺杂浓度分别取值4.00×1019/cm3、5.00×1019/cm3、6.00×1019/cm3、7.00×1019/cm3、8.00×1019/cm3;沟道长度分别取值0.06μm、0.07μm、0.08μm、0.09μm、0.10μm、0.11μm、0.12μm;
再使用TCAD软件对每组结构参数数据进行仿真(结构参数外的其他参数保持不变),并剔除仿真失败的数据,最终获得了4077组结构参数和对应的电性能参数,即获得了样本容量为4077的样本集。
步骤2,将样本集的4077组数据按8:1:1的比例随机划分为训练集、验证集和测试集;分别对训练集、验证集的FinFET器件的结构参数进行标准化处理,分别对训练集和验证集的FinFET器件的电性能参数进行归一化处理;
标准化处理是将数据变换为均值为0、标准差为1的分布,转换函数为式所示:
Figure BDA0003523742510000061
归一化处理是将一列数据变化到某个固定区间或范围中,通常这个区间是[0,1],其常用转换函数为式所示:
Figure BDA0003523742510000062
对数据进行标准化处理或归一化处理是为了消除样本不同特征具有不同量级时的影响。
步骤3,构建卷积神经网络预测模型;
具体的,卷积神经网络预测模型的输入为FinFET器件结构参数,卷积神经网络预测模型的输出为FinFET器件电性能参数;
参考图3,所述卷积神经网络预测模型包含依次连接的输入层、特征扩展模块、特征提取模块、全连接模块和输出层。
输入层用于FinFET器件结构参数的输入;输入层的神经元个数与FinFET器件结构参数的个数相同;
所述特征扩展模块包含多个依次级联的特征扩展层和一维转置卷积层;每个特征扩展层包含全连接层和批量归一化层;全连接层可对输入向量进行维度扩展,批量归一化层用于防止过拟合;一维转置卷积层可以对特征进行组合与扩展,可以进一步起到扩展数据维度的作用,为接下来的卷积操作提高操作空间;
特征提取模块包含依次连接的双分支卷积单元和卷积单元;双分支卷积单元包含两条通道,一条通道包含多个卷积核组成的一维卷积层和批量归一化层,另一条通道包含一个卷积核组成的卷积层和批量归一化层;双分支卷积单元最终将两条通道的输出特征进行拼接后输出;双分支卷积单元可避免由于网络层数的加深带来的梯度消失或梯度爆炸造成的神经网络在训练过程中难以收敛的情况;卷积单元包含卷积层,卷积单元用于对双分支卷积单元输出的特征进行卷积;
全连接模块包含多个依次连接的全连接层;全连接模块用来进行FinFET器件电性能参数的预测;
输出层用于FinFET器件电性能参数的输出;输出层的神经元个数与FinFET器件电性能参数的个数相同。
本实施例构建的卷积神经网络预测模型中,双分支卷积单元中一条通道的一维卷积层由3个卷积核大小均为3×1的卷积核组成,另一条通道的卷积层由一个卷积核大小为5×1卷积核组成。
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
具体的,训练过程中,将训练集和验证集中的FinFET器件的电性能参数作为标签;通过计算每批次训练的损失函数ReLu,采用SGD优化器反向传播优化网络参数,直至卷积神经网络预测模型收敛,得到训练后的卷积神经网络预测模型。
步骤5,向训练后的卷积神经网络预测模型输入测试集的FinFET器件的结构参数,得到测试集的FinFET器件电性能参数的预测结果。
参考图3,可以看出,本实施例的卷积神经网络预测模型对测试集的FinFET器件电性能参数的预测曲线均能较好的拟合真实值;其中,对阈值电压和平均亚阈值摆幅的拟合程度要高于最大跨导、最大截止频率以及电流开关比的拟合程度,说明对最大跨导、最大截止频率以及电流开关比的预测存在着轻微的波动。
实施例2
基于神经网络的FinFET器件结构优化方法,包括以下步骤:
步骤1,获取多组FinFET器件的电性能参数及其相应的结构参数,作为样本集;
其中,FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;
即每组数据包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度、沟道长度、阈值电压、亚阈值摆幅、跨导、电流开关比和截止频率;
具体的,所述阈值电压为FinFET器件漏电流达到1×10-8A/μm时的栅压;
所述电流开关比为FinFET器件栅压为1V时的漏电流与FinFET器件栅压为0V时的漏电流的比值;
所述平均亚阈值摆幅S的计算公式如式(1):
Figure BDA0003523742510000081
式(1)中,Vg为FinFET器件的栅极电压,Ids为FinFET器件栅极电压为Vg时的漏电流;
所述跨导gm的计算公式如式(2):
Figure BDA0003523742510000091
式(2)中,Ids是FinFET器件的源漏间电流,Vg为FinFET器件的栅压;
所述截止频率fT的计算公式如式(3):
Figure BDA0003523742510000092
式(3)中,Cgs为栅源电容,Cgd为栅漏电容。
步骤2,将样本集的多组数据按比例随机划分为训练集、验证集;分别对训练集、验证集的FinFET器件的电性能参数进行标准化处理,分别对训练集和验证集的FinFET器件的结构参数进行归一化处理,;
标准化处理是将数据变换为均值为0、标准差为1的分布,转换函数为式所示:
Figure BDA0003523742510000093
归一化处理是将一列数据变化到某个固定区间或范围中,通常这个区间是[0,1],其常用转换函数为式所示:
Figure BDA0003523742510000094
对数据进行标准化处理或归一化处理是为了消除样本不同特征具有不同量级时的影响。
步骤3,构建卷积神经网络预测模型;
具体的,卷积神经网络预测模型的输入为FinFET器件电性能参数,卷积神经网络预测模型的输出为FinFET器件结构参数;
参考图3,所述卷积神经网络预测模型包含依次连接的输入层、特征扩展模块、特征提取模块、全连接模块和输出层。
输入层用于FinFET器件电性能参数的输入;输入层的神经元个数与FinFET器件电性能参数的个数相同;
所述特征扩展模块包含多个依次级联的特征扩展层和一维转置卷积层;每个特征扩展层包含全连接层和批量归一化层;全连接层可对输入向量进行维度扩展,批量归一化层用于防止过拟合;一维转置卷积层可以对特征进行组合与扩展,可以进一步起到扩展数据维度的作用,为接下来的卷积操作提高操作空间;
特征提取模块包含依次连接的双分支卷积单元和卷积单元;双分支卷积单元包含两条通道,一条通道包含多个卷积核组成的一维卷积层和批量归一化层,另一条通道包含一个卷积核组成的卷积层和批量归一化层;双分支卷积单元最终将两条通道的输出特征进行拼接后输出;双分支卷积单元可避免由于网络层数的加深带来的梯度消失或梯度爆炸造成的神经网络在训练过程中难以收敛的情况;卷积单元包含卷积层,卷积单元用于对双分支卷积单元输出的特征进行卷积;
全连接模块包含多个依次连接的全连接层;全连接模块用来进行FinFET器件电性能参数的预测;
输出层用于FinFET器件结构参数的输出;输出层的神经元个数与FinFET器件结构参数的个数相同。
本实施例构建的卷积神经网络预测模型中,双分支卷积单元中一条通道的一维卷积层由3个卷积核大小均为3×1的卷积核组成,另一条通道的卷积层由一个卷积核大小为5×1卷积核组成。
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
具体的,训练过程中,将训练集和验证集中的FinFET器件结构参数作为标签;通过计算每批次训练的损失函数ReLu,采用SGD优化器反向传播优化网络参数,直至卷积神经网络预测模型收敛,得到训练后的卷积神经网络预测模型。
步骤5,向训练后的卷积神经网络预测模型输入测试集的FinFET器件电性能参数,得到测试集的FinFET器件结构参数的预测结果。
虽然,本说明书中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (4)

1.基于神经网络的FinFET器件性能预测方法,其特征在于,包括以下步骤:
步骤1,获取多组FinFET器件的结构参数及其相应的电性能参数,作为样本集;
其中,FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;
步骤2,将样本集的多组数据按比例随机划分为训练集、验证集;分别对训练集、验证集的FinFET器件的结构参数进行标准化处理,分别对训练集和验证集的FinFET器件的电性能参数进行归一化处理;
步骤3,构建卷积神经网络预测模型;
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
步骤5,向训练后的卷积神经网络预测模型输入需要预测电性能参数的FinFET器件的结构参数,得到测试集的FinFET器件电性能参数的预测结果。
2.根据权利要求1所述的基于神经网络的FinFET器件性能预测方法,其特征在于,卷积神经网络预测模型的输入为FinFET器件结构参数,卷积神经网络预测模型的输出为FinFET器件电性能参数;
卷积神经网络预测模型包含依次连接的输入层、特征扩展模块、特征提取模块、全连接模块和输出层;
输入层用于FinFET器件结构参数的输入;输入层的神经元个数与FinFET器件结构参数的个数相同;
所述特征扩展模块包含多个依次级联的特征扩展层和一维转置卷积层;每个特征扩展层包含全连接层和批量归一化层;
特征提取模块包含依次连接的双分支卷积单元和卷积单元;双分支卷积单元包含两条通道,一条通道包含多个卷积核组成的一维卷积层和批量归一化层,另一条通道包含一个卷积核组成的卷积层和批量归一化层,双分支卷积单元最终将两条通道的输出特征进行拼接后输出;卷积单元包含卷积层,卷积单元用于对双分支卷积单元输出的特征进行卷积;
全连接模块包含多个依次连接的全连接层;全连接模块用来进行FinFET器件电性能参数的预测;
输出层用于FinFET器件电性能参数的输出;输出层的神经元个数与FinFET器件电性能参数的个数相同。
3.基于神经网络的FinFET器件结构优化方法,其特征在于,包括以下步骤:
步骤1,获取多组FinFET器件的电性能参数及其相应的结构参数,作为样本集;
其中,FinFET器件的电性能参数包含直流特性参数和交流特性参数,所述直流特性参数包含阈值电压、平均亚阈值摆幅、跨导和电流开关比,所述交流特性参数为截止频率;FinFET器件的结构参数包含Fin宽、Fin高、源区高斯掺杂浓度、漏区高斯掺杂浓度和沟道长度;
步骤2,将样本集的多组数据按比例随机划分为训练集、验证集;分别对训练集、验证集的FinFET器件的电性能参数进行标准化处理,分别对训练集和验证集的FinFET器件的结构参数进行归一化处理;
步骤3,构建卷积神经网络预测模型;
步骤4,使用训练集和验证集对卷积神经网络预测模型进行训练,利用反向传播法对卷积神经网络预测模型的网络参数进行迭代更新,得到训练后的预测模型;
步骤5,向训练后的卷积神经网络预测模型输入需要预测结构参数的FinFET器件电性能参数,得到测试集的FinFET器件结构参数的预测结果。
4.根据权利要求3所述的基于神经网络的FinFET器件性能预测方法,其特征在于,卷积神经网络预测模型的输入为FinFET器件电性能参数,卷积神经网络预测模型的输出为FinFET器件结构参数;
所述卷积神经网络预测模型包含依次连接的输入层、特征扩展模块、特征提取模块、全连接模块和输出层;
输入层用于FinFET器件电性能参数的输入;输入层的神经元个数与FinFET器件电性能参数的个数相同;
所述特征扩展模块包含多个依次级联的特征扩展层和一维转置卷积层;每个特征扩展层包含全连接层和批量归一化层;
特征提取模块包含依次连接的双分支卷积单元和卷积单元;双分支卷积单元包含两条通道,一条通道包含多个卷积核组成的一维卷积层和批量归一化层,另一条通道包含一个卷积核组成的卷积层和批量归一化层;双分支卷积单元最终将两条通道的输出特征进行拼接后输出;卷积单元包含卷积层,卷积单元用于对双分支卷积单元输出的特征进行卷积;
全连接模块包含多个依次连接的全连接层;全连接模块用来进行FinFET器件电性能参数的预测;
输出层用于FinFET器件结构参数的输出;输出层的神经元个数与FinFET器件结构参数的个数相同。
CN202210188696.XA 2022-02-28 2022-02-28 基于神经网络的FinFET器件性能预测及结构优化方法 Pending CN114662227A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210188696.XA CN114662227A (zh) 2022-02-28 2022-02-28 基于神经网络的FinFET器件性能预测及结构优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210188696.XA CN114662227A (zh) 2022-02-28 2022-02-28 基于神经网络的FinFET器件性能预测及结构优化方法

Publications (1)

Publication Number Publication Date
CN114662227A true CN114662227A (zh) 2022-06-24

Family

ID=82026585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210188696.XA Pending CN114662227A (zh) 2022-02-28 2022-02-28 基于神经网络的FinFET器件性能预测及结构优化方法

Country Status (1)

Country Link
CN (1) CN114662227A (zh)

Similar Documents

Publication Publication Date Title
Sarvaghad-Moghaddam et al. Modelling the spice parameters of SOI MOSFET using a combinational algorithm
Djeffal et al. An approach based on neural computation to simulate the nanoscale CMOS circuits: Application to the simulation of CMOS inverter
Choi et al. Neural approach for modeling and optimizing Si-MOSFET manufacturing
US20180259569A1 (en) Method of characterizing and modeling leakage statistics and threshold voltage for ensemble devices
CN113536661B (zh) 基于神经网络的tfet器件结构优化和性能预测方法
Calik et al. Deep-learning-based precise characterization of microwave transistors using fully-automated regression surrogates
Akbar et al. Deep learning algorithms for the work function fluctuation of random nanosized metal grains on gate-all-around silicon nanowire MOSFETs
Lim et al. Machine learning (ML)-based model to characterize the line edge roughness (LER)-induced random variation in FinFET
CN114528805A (zh) 一种基于cnn网络的fdsoi器件电学特性预测方法
Kaur et al. Whale optimization algorithm for performance improvement of silicon-on-insulator FinFETs
Djeffal et al. A neural approach to study the scaling capability of the undoped double-gate and cylindrical gate all around MOSFETs
US20030200071A1 (en) Simulation method
CN114662227A (zh) 基于神经网络的FinFET器件性能预测及结构优化方法
Aujla et al. Optimization of dual-K gate dielectric and dual gate heterojunction SOI FinFET at 14 nm gate length
Deng et al. Compact modeling of metal-oxide TFTs based on artificial neural network and improved particle swarm optimization
Khanday et al. 1T Spiking Neuron Using Ferroelectric Junctionless FET with Ultra-Low Energy Consumption of 24 aJ/Spike
Ghoshhajra et al. Ensemble Learning strategy in modeling of future generation nanoscale devices using Machine Learning
Su et al. A systematic approach to correlation analysis of in-line process parameters for process variation effect on electrical characteristic of 16-nm HKMG bulk FinFET devices
Lu et al. Compact device models for FinFET and beyond
Kumar et al. A Machine Learning Approach for Optimizing and Accurate Prediction of Performance Parameters for Stacked Nanosheet Transistor
Butola et al. Deep learning approach to estimating work function fluctuation of gate-all-around silicon nanosheet MOSFETs with a ferroelectric HZO layer
Wang et al. Optimization and Performance Prediction of Tunnel Field‐Effect Transistors Based on Deep Learning
Choudhury et al. A double-gate heteromaterial tunnel FET optimized using an evolutionary algorithm
Butola et al. Estimating the Process Variation Effects of Stacked Gate All Around Si Nanosheet CFETs Using Artificial Neural Network Modeling Framework
Jang et al. Extraction of device structural parameters through DC/AC performance using an MLP neural network algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination