CN111985825A - 一种用于滚磨机定向仪的晶面质量评估方法 - Google Patents
一种用于滚磨机定向仪的晶面质量评估方法 Download PDFInfo
- Publication number
- CN111985825A CN111985825A CN202010868318.7A CN202010868318A CN111985825A CN 111985825 A CN111985825 A CN 111985825A CN 202010868318 A CN202010868318 A CN 202010868318A CN 111985825 A CN111985825 A CN 111985825A
- Authority
- CN
- China
- Prior art keywords
- layer
- training
- convolution
- crystal face
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013078 crystal Substances 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 98
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 26
- 238000010606 normalization Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000003062 neural network model Methods 0.000 claims abstract description 14
- 238000011156 evaluation Methods 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 74
- 230000004913 activation Effects 0.000 claims description 43
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 238000011176 pooling Methods 0.000 claims description 31
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 239000000463 material Substances 0.000 abstract description 2
- 229910052594 sapphire Inorganic materials 0.000 description 14
- 239000010980 sapphire Substances 0.000 description 14
- 238000001514 detection method Methods 0.000 description 6
- 238000002447 crystallographic data Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000000227 grinding Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000002441 X-ray diffraction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Evolutionary Computation (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Educational Administration (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Game Theory and Decision Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
本发明提供一种用于滚磨机定向仪的晶面质量评估方法,涉及单晶材料加工技术领域。该方法首先建立晶面的回摆曲线数据集,并将其作为训练样本数据集;并对训练样本数据集中的数据进行归一化处理;搭建一维卷积神经网络模型的整体框架;并通过损失函数计算一维卷积神经网络模型的预测结果与实际数据之间的偏差;计算输出层误差关于卷积核权重的梯度来更新迭代训练过程中的卷积核权重,进而迭代训练一维卷积神经网络模型;保存训练好的用于晶面质量评估的一维卷积神经网络模型及参数,获取测试集数据完成对晶面质量的评估,并通过模型分类的平均准确率及对各类样本分类的准确率对模型的预测性能进行评估。
Description
技术领域
本发明涉及单晶材料加工技术领域,尤其涉及一种用于滚磨机定向仪的晶面质量评估方法。
背景技术
目前,在单晶体加工领域,单晶体定向、磨削是两道关键的加工工序。常规的方法是将两个加工环节分开进行,而滚磨机定向仪则是将上述两道工序合成在一台机器上,一次性完成晶棒的滚磨和定向工作,大大提供了生产效率。在滚磨机定向仪对晶棒的定向环节,晶棒晶面的质量缺少系统性的评估算法,往往是随机寻找一个晶面进行定向,导致切割后的晶面质量得不到保证。在工业上,高效率、高精度的X射线衍射技术是常用的晶面质量检测手段,通过多维度分析以Bragg方程为理论基础的滚磨机定向仪完成对晶面质量的检测。晶棒晶面对X射线产生衍射现象,接收衍射信号得到对应衍射曲线,即回摆曲线,基于回摆曲线采样数据的特征即可分析待测晶棒晶面的质量品质,更加有利于选取较好晶面的晶向进行进一步加工。
目前,基于上述技术用于晶面的质量评估方法的滚磨机定向仪自动化水平欠缺,且无法高效、准确、智能地评估晶棒的晶面质量。例如,简单的方法是比较各个晶面的X射线衍射强度峰值,选取最大衍射峰值晶面为最佳晶面。但是这种方法考虑的因素单一,没有综合考虑晶体的生长质量,例如位错、多形夹杂、掺杂均匀性等各种缺陷的存在。比较综合的方法是利用晶面的回摆曲线进行综合评估,但该方法存在的问题是对回摆曲线的特征提取比较困难,提取过程繁琐,易导致有用数据信息的丢失,不利于晶面质量评估方法的推广和评估精度的提高。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种用于滚磨机定向仪的晶面质量评估方法,在滚磨机定向仪对晶棒的定向环节,实现对晶棒的晶面质量进行评估,为选取较好晶面的晶向进行进一步加工服务。
为解决上述技术问题,本发明所采取的技术方案是:一种用于滚磨机定向仪的晶面质量评估方法,包括以下步骤:
步骤1:建立晶面的回摆曲线数据集,并将其作为训练样本数据集;
通过X射线照射不同晶面产生回摆曲线,不同种类的回摆曲线分别对应不同的晶面质量等级;以一定采样频率对回摆曲线进行数据采样,每条回摆曲线采集n个数据点保存在向量x中,构成训练样本矩阵X=[x1,x2,...,xi,...,xN]′,其中,N是训练样本的数量,向量xi是长度为n的一维向量;并且训练样本中每一个样本都存在标签Y=[y1,y2,...,yi...,yN],表示训练集样本中每一个样本与所属分类的对应关系;
步骤2:对步骤1获得的训练样本数据集中的数据进行归一化处理;
采用min-max标准化方法对步骤1获得的向量x进行归一化处理,使其最终的结果落到[0,1]区间范围内;
步骤3:搭建一维卷积神经网络模型的整体框架;
通过两个结构相同但具体参数不同的第一模块和第二模块、Dropout层和全链接层以及最后一个Softmax层搭建一维卷积神经网络模型的整体框架;所述第一模块和第二模块的结构均由两个卷积层,一个池化层和一个批标准化算法构成;所述第一模块和第二模块涉及的具体参数包括卷积核个数、卷积核尺寸、步长、激活函数和批标准化算法;
步骤3.1:通过两个卷积层,一个批标准化算法和一个池化层搭建第一模块,并设置具体参数,具体搭建过程为:
步骤3.1.1:构建第一模块的卷积层;设定一维卷积神经网络模型的第l个卷积层,由ml个特征信号组成,l=1,2,...,L,L为一维卷积神经网络模型包括的卷积层总数;正向传播期间,卷积层l的每个特征信号的输入是第(l-1)个卷积层经过适当的卷积核并通过非线性激活函数后累积的结果,如下公式所示:
其中,是输入到卷积层l的第i个特征信号,是第i个特征信号的偏置,Conv()是卷积函数,是非线性激活函数对卷积层l的第i个特征信号激活后的输出,是第(l-1)个卷积层输出的第j个特征信号,是第(l-1)个卷积层输出的第j个特征信号和第l层输入的第i个特征信号之间的卷积核权重向量,f()是一个非线性激活函数;
步骤3.1.2:激活函数的选择;所述激活函数选择Sigmoid、Tanh或Relu;
步骤3.1.3:池化层的选择;所述池化层选择平均池化或最大池化;
步骤3.1.4:使用批标准化算法处理每批训练数据;
在每个卷积层后面紧接着批标准化算法,通过批标准化算法计算每批训练数据的均值μd和方差然后将原始训练数据移位并缩放为零均值和单位方差;最后,将移位后的数据赋予权重γ和偏置β,得到缩放和移动的归一化值具体计算由方程式(3)-(6)给出:
其中,xi′为每批次训练的样本,d为每批次训练样本总数,ε是一个加到每批训练数据方差上的常数;
步骤3.2:通过两个卷积层,一个批标准化算法和一个池化层搭建第二模块,并设置具体参数;
步骤3.3:构建一维卷积神经网络模型的Dropout层和全连接层;
步骤3.4:通过Softmax激活函数作为输出层得到整个全连接层的特征输出,实现多目标分类;
其中,为Softmax函数对于输入样本xi输出的预测类别,为模型参数;p(yi=k|xi,θ)为样本xi属于第k类的概率值,k=1,2,...,K,K为训练样本的总类别数,最大概率值所对应的类别即为输入样本的预测类别,确定样本最终的分类结果;
步骤4:通过损失函数计算一维卷积神经网络模型的预测结果与实际数据之间的偏差;选择交叉熵作为损失函数,如下公式所示:
步骤5:计算输出层误差关于卷积核权重的梯度来更新迭代训练过程中的卷积核权重,进而迭代训练一维卷积神经网络模型;
所述更新迭代训练过程中卷积核权重的具体方法为:
由公式(1)得到:
将公式(10)代入公式(9)得:
再次使用链式规则,得:
由于激活函数的导数具有如下特性:
再由公式(1),推出:
(2)采用Adam算法对学习率η进行更新计算;
首先采用Adam算法对模型参数θ进行优化,使损失函数最小,如下公式所示:
其中,xi是训练集中数据;
对于Adam算法,由于模型训练是分批次进行的,因此用每批次的训练数据来近似整个训练集数据训练过程中损失函数相对于参数θ的梯度其中,f1(xi′,θ),f2(xi′,θ),...,ft(xi′,θ),...,fT(xi′,θ)表示损失函数在第t次迭代训练处的实现,t=1,2,...,T,T为总训练次数,则学习率η的更新如下所示:
其中,β1、β2、γ均为常数,且β1,β2∈[0,1),mt是损失函数相对于参数θ的梯度gt的有偏一阶矩估计,vt是损失函数相对于参数θ的梯度gt的有偏二阶矩估计,mt和vt的更新如下公式所示:
mt=β1*mt-1+(1-β1)*gt (21)
步骤6:保存训练好的用于晶面质量评估的一维卷积神经网络模型及参数,获取测试集数据完成对晶面质量的评估,并通过模型分类的平均准确率及对各类样本分类的准确率对模型的预测性能进行评估;
将测试样本集中的样本输入训练好的一维卷积神经网络模型,并评估的一维卷积神经网络模型分类的平均准确率及对各类样本分类的准确率;其中,对各类样本分类的准确率Pk的计算如下公式所示:
其中,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,Totalk为第k类样本总数;
模型分类的平均准确率的计算如下公式所示:
其中,P为一维卷积神经网络模型分类的平均准确率,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,各类样本总数Totalk满足:
Totalk=TPk+FPk (25)。
采用上述技术方案所产生的有益效果在于:本发明提供的一种用于滚磨机定向仪的晶面质量评估方法,通过构建一维卷积神经网络模型,采样数据直接作为网络输入,不断调整网络结构和各层参数,从数据中自动获得数据的深层本质特征,保留了采样数据的全部信息。消除了传统方法提取回摆曲线数据特征过程繁琐、计算量大的问题,大大提高了工程效率。在进一步提高晶面质量评估的准确率的同时,也有利于晶棒加工过程中选取较好晶向的晶面进行磨削加工,为生产出高质量的晶体打下了坚实的基础,在该研究领域引入深度学习对晶棒加工人工智能化的发展也起到了很大的推动作用。
附图说明
图1为本发明实施例的提供的一种用于滚磨机定向仪的晶面质量评估方法的流程图;
图2为本发明实施例提供的5类蓝宝石晶面的回摆曲线;其中,(a)为蓝宝石晶面质量为“优”的回摆曲线,(b)为蓝宝石晶面质量为“良”的回摆曲线,(c)为蓝宝石晶面质量为“中”的回摆曲线,(d)为蓝宝石晶面质量为“差”的回摆曲线,(e)为蓝宝石晶面质量为“不合格”的回摆曲线;
图3为本发明实施例提供的一维卷积神经网络模型整体框架结构示意图;
图4为本发明实施例提供的一维卷积神经网络模型整体框架中第一模块/第二模块的搭建流程图;
图5为本发明实施例提供的第一模块的第一层卷积层计算示意图;
图6为本发明实施例提供的Sigmoid、Tanh和Relu三个激活函数对比图;
图7为本发明实施例提供的模型训练集和验证集迭代20个“Epoch”损失函数的变化曲线图;
图8为本发明实施例提供的模型训练集和验证集迭代20个“Epoch”平均准确率的变化曲线图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例中,一种用于滚磨机定向仪的晶面质量评估方法,如图1所示,具体包括以下步骤:
步骤1:建立晶面的回摆曲线数据集;
通过X射线照射不同晶面产生回摆曲线,不同种类的回摆曲线分别对应不同的晶面质量等级;以一定采样频率对回摆曲线进行数据采样,每条回摆曲线采集n个数据点保存在向量x中,构成训练样本矩阵X=[x1,x2,...,xi,...,xN]′,其中,N是训练样本的数量,向量xi是长度为n的一维向量;并且训练样本中每一个样本都存在标签Y=[y1,y2,...,yi...,yN],表示训练集样本中每一个样本与所属分类的对应关系;
本实施例以蓝宝石为例,工业生产中采集到的信号一般带有一定的本底信号和大量的噪声,通常要对信号进行本底扣除和去噪处理。本实施例应用的5类蓝宝石晶面回摆曲线如图2所示,依次是A、B、C、D和E类,分别代表蓝宝石晶面“优”、“良”、“中”、“差”和“不合格”。由图2可知,“A”类曲线近似标准正态曲线,代表蓝宝石标准晶面回摆曲线,从图2(a)-到2(e),回摆曲线的形状越来越不规则,代表晶面缺陷程度越来越大,晶面质量顺次变差。
本实施例以蓝宝石晶面“A”类回摆曲线为例,在实际检测过程中采集该类回摆曲线的衍射数据,扫描范围为500”,并以向量的形式保存为向量x作为实验数据,目标输出保存在向量y中。考虑到表格数据量较大,本实施例通过表1仅列出较能表征回摆曲线特征的47930”-48061”区间的衍射数据。
表1蓝宝石晶面质量为“优”的回摆曲线数据表
角度” | 幅值 | 角度” | 幅值 | 角度” | 幅值 | 角度” | 幅值 |
47930 | 0 | 47963 | 212.0 | 47996 | 1116.4 | 48029 | 212.0 |
47931 | 1.8 | 47964 | 234.1 | 47997 | 1114.7 | 48030 | 191.4 |
47932 | 2.2 | 47965 | 257.8 | 47998 | 1109.7 | 48031 | 172.3 |
47933 | 2.6 | 47966 | 282.9 | 47999 | 1101.2 | 48032 | 154.6 |
47934 | 3.2 | 47967 | 309.5 | 48000 | 1089.5 | 48033 | 138.3 |
47935 | 3.8 | 47968 | 337.7 | 48001 | 1074.7 | 48034 | 123.4 |
47936 | 4.6 | 47969 | 367.2 | 48002 | 1056.8 | 48035 | 109.7 |
47937 | 5.5 | 47970 | 398.1 | 48003 | 1036.0 | 48036 | 97.3 |
47938 | 6.6 | 47971 | 430.3 | 48004 | 1012.6 | 48037 | 86.0 |
47939 | 7.9 | 47972 | 463.7 | 48005 | 986.7 | 48038 | 75.7 |
47940 | 9.3 | 47973 | 498.2 | 48006 | 958.5 | 48039 | 66.5 |
47941 | 11.1 | 47974 | 533.6 | 48007 | 928.3 | 48040 | 58.3 |
47942 | 13.1 | 47975 | 569.8 | 48008 | 896.3 | 48041 | 50.9 |
47943 | 15.4 | 47976 | 606.5 | 48009 | 862.7 | 48042 | 44.3 |
47944 | 18.1 | 47977 | 643.7 | 48010 | 827.9 | 48043 | 38.4 |
47945 | 21.1 | 47978 | 681.1 | 48011 | 792.1 | 48044 | 33.2 |
47946 | 24.6 | 47979 | 718.4 | 48012 | 755.5 | 48045 | 28.7 |
47947 | 28.7 | 47980 | 755.5 | 48013 | 718.4 | 48046 | 24.6 |
47948 | 33.2 | 47981 | 792.1 | 48014 | 681.1 | 48047 | 21.1 |
47949 | 38.4 | 47982 | 827.9 | 48015 | 643.7 | 48048 | 18.1 |
47950 | 44.3 | 47983 | 862.7 | 48016 | 606.5 | 48049 | 15.4 |
47951 | 50.9 | 47984 | 896.3 | 48017 | 569.8 | 48050 | 13.1 |
47952 | 58.3 | 47985 | 928.3 | 48018 | 533.6 | 48051 | 11.1 |
47953 | 66.5 | 47986 | 958.5 | 48019 | 498.2 | 48052 | 9.3 |
47954 | 75.7 | 47987 | 986.7 | 48020 | 463.7 | 48053 | 7.9 |
47955 | 86.0 | 47988 | 1012.6 | 48021 | 430.3 | 48054 | 6.6 |
47956 | 97.3 | 47989 | 1036.0 | 48022 | 398.1 | 48055 | 5.5 |
47957 | 109.7 | 47990 | 1056.8 | 48023 | 367.2 | 48056 | 4.6 |
47958 | 123.4 | 47991 | 1074.7 | 48024 | 337.7 | 48057 | 3.8 |
47959 | 138.3 | 47992 | 1089.5 | 48025 | 309.5 | 48058 | 3.2 |
47960 | 154.6 | 47993 | 1101.2 | 48026 | 282.9 | 48059 | 2.6 |
47961 | 172.3 | 47994 | 1109.7 | 48027 | 257.8 | 48060 | 2.2 |
47962 | 191.4 | 47995 | 1114.7 | 48028 | 234.1 | 48061 | 0 |
步骤2:对步骤1获得的训练样本数据集中的数据进行归一化处理;在对向量x中的数据进行分析之前一般需要对数据进行标准化处理,使数据都有相同的量纲,方便综合评价,避免对最终结果产生较大的影响。数据归一化方法有很多,本发明采用min-max标准化方法,使其最终的结果落到[0,1]区间范围内。归一化实现方法如下公式所示:
其中,x为输入向量,x*为归一化后的向量;
本实施例中,表1所示的蓝宝石晶面质量为“优”的回摆曲线衍射数据归一化后如表2所示:
表2蓝宝石晶面质量为“优”的回摆曲线衍射数据归一化
角度” | 幅值 | 角度” | 幅值 | 角度” | 幅值 | 角度” | 幅值 |
47930 | 0 | 47963 | 0.190 | 47996 | 1.000 | 48029 | 0.190 |
47931 | 0.001 | 47964 | 0.210 | 47997 | 0.998 | 48030 | 0.171 |
47932 | 0.002 | 47965 | 0.231 | 47998 | 0.994 | 48031 | 0.154 |
47933 | 0.002 | 47966 | 0.253 | 47999 | 0.986 | 48032 | 0.139 |
47934 | 0.003 | 47967 | 0.277 | 48000 | 0.976 | 48033 | 0.124 |
47935 | 0.003 | 47968 | 0.302 | 48001 | 0.963 | 48034 | 0.111 |
47936 | 0.004 | 47969 | 0.329 | 48002 | 0.947 | 48035 | 0.098 |
47937 | 0.005 | 47970 | 0.357 | 48003 | 0.928 | 48036 | 0.087 |
47938 | 0.006 | 47971 | 0.385 | 48004 | 0.907 | 48037 | 0.077 |
47939 | 0.007 | 47972 | 0.415 | 48005 | 0.884 | 48038 | 0.068 |
47940 | 0.008 | 47973 | 0.446 | 48006 | 0.859 | 48039 | 0.060 |
47941 | 0.010 | 47974 | 0.478 | 48007 | 0.831 | 48040 | 0.052 |
47942 | 0.012 | 47975 | 0.510 | 48008 | 0.803 | 48041 | 0.046 |
47943 | 0.014 | 47976 | 0.543 | 48009 | 0.773 | 48042 | 0.040 |
47944 | 0.016 | 47977 | 0.577 | 48010 | 0.742 | 48043 | 0.034 |
47945 | 0.019 | 47978 | 0.610 | 48011 | 0.709 | 48044 | 0.030 |
47946 | 0.022 | 47979 | 0.644 | 48012 | 0.677 | 48045 | 0.026 |
47947 | 0.026 | 47980 | 0.677 | 48013 | 0.644 | 48046 | 0.022 |
47948 | 0.030 | 47981 | 0.709 | 48014 | 0.610 | 48047 | 0.019 |
47949 | 0.034 | 47982 | 0.742 | 48015 | 0.577 | 48048 | 0.016 |
47950 | 0.040 | 47983 | 0.773 | 48016 | 0.543 | 48049 | 0.014 |
47951 | 0.046 | 47984 | 0.803 | 48017 | 0.510 | 48050 | 0.012 |
47952 | 0.052 | 47985 | 0.831 | 48018 | 0.478 | 48051 | 0.010 |
47953 | 0.060 | 47986 | 0.858 | 48019 | 0.446 | 48052 | 0.008 |
47954 | 0.068 | 47987 | 0.884 | 48020 | 0.415 | 48053 | 0.007 |
47955 | 0.077 | 47988 | 0.907 | 48021 | 0.385 | 48054 | 0.006 |
47956 | 0.087 | 47989 | 0.928 | 48022 | 0.357 | 48055 | 0.005 |
47957 | 0.098 | 47990 | 0.947 | 48023 | 0.329 | 48056 | 0.004 |
47958 | 0.111 | 47991 | 0.963 | 48024 | 0.302 | 48057 | 0.003 |
47959 | 0.124 | 47992 | 0.976 | 48025 | 0.277 | 48058 | 0.003 |
47960 | 0.139 | 47993 | 0.986 | 48026 | 0.253 | 48059 | 0.002 |
47961 | 0.154 | 47994 | 0.994 | 48027 | 0.231 | 48060 | 0.002 |
47962 | 0.171 | 47995 | 0.998 | 48028 | 0.210 | 48061 | 0 |
本实施例在对回摆曲线进行分类评级采用了One-hot编码,属于“A”类的情况输出结果为10000,属于“B”类的情况输出结果为01000,其余情况以此类推。使用One-hot编码有以下优点:(a)对特征进行了扩充;(b)对于连续变量,从一个权重变为多个权重,提升了模型的非线性能力;(c)降低了异常值对模型的影响,增加了模型稳定性;(d)提高模型运算效率。
步骤3:搭建一维卷积神经网络模型的整体框架;
通过两个结构相同但具体参数不同的第一模块和第二模块、Dropout层和全链接层以及最后一个Softmax层搭建一维卷积神经网络(1D-CNN)模型的整体框架,如图3所示;所述第一模块和第二模块的结构均由两个卷积层,一个池化层和一个批标准化算法构成;所述第一模块和第二模块涉及的具体参数包括卷积核个数、卷积核尺寸、步长、激活函数和批标准化(Batch Normalization,即BN)算法;
步骤3.1:通过两个卷积层,一个批标准化算法和一个池化层搭建第一模块,如图4所示,并设置具体参数,具体搭建过程为:
步骤3.1.1:构建第一模块的卷积层;设定一维卷积神经网络模型的第l个卷积层,由ml个特征信号组成,l=1,2,...,L,L为一维卷积神经网络模型包括的卷积层总数;正向传播期间,卷积层l的每个特征信号的输入是第(l-1)个卷积层经过适当的卷积核并通过非线性激活函数后累积的结果,如下公式所示:
其中,是输入到卷积层l的第i个特征信号,是第i个特征信号的偏置,Conv()是卷积函数,是非线性激活函数对卷积层l的第i个特征信号激活后的输出,是第(l-1)个卷积层输出的第j个特征信号,是第(l-1)个卷积层输出的第j个特征信号和第l层输入的第i个特征信号之间的卷积核权重向量,f()是一个非线性激活函数;
本实施例中,第一模块的第一个卷积层的具体参数为:第一个卷积层输入向量维度为500,卷积核数设置为100,卷积核长度设置为10,步长设置为1。所以通过第一层的神经网络训练过后得到了100个不同的特性,第一层输出的结果为491×100的矩阵,由于输出矩阵的每一列都包含网络训练过程中的一个权重,所以经过第一个卷积层后一共有491个权重。图5给出第一层卷积计算示意图,以下每一层卷积计算过程和第一层卷积层有着同样的思想;
第二个卷积层:第二个卷积层的输入为第一个卷积层的输出,由于第二层与第一层的结构完全相同,在这一层上又定义了100个卷积核。根据第一层的思想,输出矩阵大小为483×100,经过两个卷积层可以提取到更复杂的特征。
步骤3.1.2:激活函数的选择;所述激活函数选择Sigmoid、Tanh或Relu;
激活函数是神经网络训练过程中非常重要的参数,能够将非线性特性引入到模型中,使模型可以学习非常复杂的非线性函数。常用的激活函数有Sigmoid、Tanh和Relu,激活函数具有几个重要的性质:非线性、连续可微、约束范围内不饱和、单调性、在原点处近似线性。在现有的激活函数中,没有一种能够满足以上全部性质,只是具有其中一到多条性质。不同的激活函数表达式如下所示:
Sigmoid激活函数:
Tanh激活函数:
Relu激活函数:
f(x)=max(0,x) (6)
本实施例对三个激活函数的效果进行对比,如图6所示,其中在特征相差比较复杂或是相差不大时Sigmod激活函数效果较好,故本实施例第一个模块的卷积层选取的激活函数为Sigmod激活函数;
步骤3.1.3:池化层的选择;所述池化层选择平均池化或最大池化;
池化层一般都跟在卷积层后面,其主要作用是对卷积层提取到的特征进行压缩来提取主要的特征,常用的池化操作有两种,即平均池化(Ave Pooling)和最大池化(MaxPooling)。
在两个卷积层后加了一个最大池化层,主要是要减少卷积层输出的复杂度以及防止过拟合。最大池化层的大小设置为3,输出矩阵的大小为输入矩阵的三分之一,输出矩阵为160×100。
步骤3.1.4:使用批标准化算法处理每批训练数据;
由于训练数据是逐批学习的,因此,在每次训练迭代中批量分布是非均匀的、不稳定的,必须用网络参数来拟合,很大程度减缓了模型的收敛速度。为了避免这一问题,在每个卷积层后面紧接着批标准化算法,通过批标准化算法计算每批训练数据的均值μd和方差然后将原始训练数据移位并缩放为零均值和单位方差;最后,将移位后的数据赋予权重γ和偏置β,得到缩放和移动的归一化值具体计算由方程式(7)-(10)给出:
其中,xi′为每批次训练的样本,d为每批次训练样本总数,ε是一个加到每批训练数据方差上的常数,以保证数值的稳定性;
步骤3.2:通过两个卷积层,一个批标准化算法和一个池化层搭建第二模块,并设置具体参数;
本实施例中,第二模块的卷积层:为进一步实现特征提取在第二模块又增加了两个卷积层,这两个卷积层的卷积核数都为160,卷积核长度与步长数与第一模块的两个卷积层相同,此时第三个卷积层的输出矩阵为151×160,第四个卷积层输出为142×160。
批标准化算法:在第二模块的每个卷积层后仍然加入一个批标准化算法,主要是用来加速网络训练。
池化层:仍然选择最大池化层,选取提取到特征图中的最大值,降低计算复杂度。
激活函数:选择Sigmod激活函数。
步骤3.3:构建一维卷积神经网络模型的Dropout层和全连接层;
Dropout层,是一种防止模型过拟合的技术,它的基本思想是在训练的时候随机的丢弃一些神经元的激活,它不会太依赖某些局部的特征,可以提高模型的鲁棒性能。模型选择了0.5的比率,则50%的神经元将会是零权重,网络对数据的微小变化的响应不再敏感。因此,它能够进一步提高对不可见数据处理的准确性。
全连接层,它的每一个神经元都与前一层神经元有所连接,因为在网络训练的过程中每一层都需要提取相应的特征,在这之后添加一个全连接层用来将前边提取到的特征进行一步综合,也就是将所有局部特征连接在一起,从而得到完整的特征。
步骤3.4:通过Softmax激活函数作为输出层得到整个全连接层的特征输出,实现多目标分类;
其中,为Softmax函数对于输入样本xi输出的预测类别,为模型参数,通过训练集可以得到;p(yi=k|xi,θ)为样本xi属于第k类的概率值,k=1,2,...,K,K为训练样本的总类别数,最大概率值所对应的类别即为输入样本的预测类别,确定样本最终的分类结果;
本实施例中,构建的一维卷积神经网络模型的具体参数如表3所示:
表3 1D-CNN模型的参数配置
步骤4:通过损失函数计算一维卷积神经网络模型的预测结果与实际数据之间的偏差;
损失函数用来计算预测值与实际值的偏差,通过不断调整一维卷积神经网络模型的卷积核权重值来促进一维卷积神经网络模型的收敛,选择交叉熵作为损失函数,如下公式所示:
步骤5:计算输出层误差关于卷积核权重的梯度来更新迭代训练过程中的卷积核权重,进而迭代训练一维卷积神经网络模型;
所述更新迭代训练过程中卷积核权重的具体方法为:
由公式(2)得到:
将公式(14)代入公式(13)得:
再次使用链式规则,得:
由于激活函数的导数具有如下特性:
再由公式(2),推出:
(2)模型训练过程中学习率η是一个很重要的参数,学习率的选择对模型优化以及训练速度有很大的影响,而且每次训练结果不理想都去调整学习率是个很麻烦的过程。Adam一种只需要一阶梯度且内存需求很少的高效自适应优化方法。该方法根据梯度的一阶矩和二阶矩的估计来计算不同参数的个体自适应学习率,与其它优化算法相比能够解决学习率消失和收敛过慢的问题。因此模型训练优化过程中采用Adam算法对学习率η进行更新计算;
首先采用Adam算法对模型参数θ进行优化,使损失函数最小,如下公式所示:
其中,xi是训练集中数据;
对于Adam算法,由于模型训练是分批次进行的,因此用每批次的训练数据来近似整个训练集数据训练过程中损失函数相对于参数θ的梯度其中,f1(xi′,θ),f2(xi′,θ),...,ft(xi′,θ),...,fT(xi′,θ)表示损失函数在第t次迭代训练处的实现,t=1,2,...,T,T为总训练次数,则学习率η的更新如下所示:
其中,β1、β2、γ均为常数,且β1,β2∈[0,1),mt是损失函数相对于参数θ的梯度gt的有偏一阶矩估计,vt是损失函数相对于参数θ的梯度gt的有偏二阶矩估计,mt和vt的更新如下公式所示:
mt=β1*mt-1+(1-β1)*gt (25)
本实施例中,Keras工具中Adam算法的参数默认值为:α=0.001,β1=0.9,β2=0.999,γ=1e-08。
步骤6:保存训练好的用于晶面质量评估的一维卷积神经网络模型及参数,再获取测试集数据完成对晶面质量的评估,并通过模型分类的平均准确率及对各类样本分类的准确率对模型的预测性能进行评估。
将测试样本集中的样本输入训练好的一维卷积神经网络模型,并评估的一维卷积神经网络模型分类的平均准确率及对各类样本分类的准确率;其中,对各类样本分类的准确率Pi的计算如下公式所示:
其中,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,Totalk为第k类样本总数;
模型分类的平均准确率的计算如下公式所示:
其中,P为一维卷积神经网络模型分类的平均准确率,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,各类样本总数Totalk满足:
Totalk=TPk+FPk (29)
交叉验证中选取每类回摆曲线采样数据1000组,5类回摆曲线采样共计5000组数据组成样本集。按比例4:1进行划分,即随机选取样本集中的4000组作为训练集,1000组作为验证集。1D-CNN通过迭代输入训练集和验证集数据,更新参数来训练模型并评估损失。5000组样本集通过1D-CNN完成一次分类任务记为一个“Epoch”,经反复训练至代价函数收敛的“Epoch”为20。图7和图8分别表征模型训练集与验证集迭代20个“Epoch”损失函数和平均准确率的变化趋势。随着迭代次数的增加损失函数呈现较大幅度下降趋势,分类的平均准确率却在不断提高,在达到20个Epoch的时候,损失函数收敛,训练集损失率下降至0.0189,验证集损失率降到0.0519,分类平均准确率近乎平稳,训练集平均准确率达到99.62%,验证集平均准确率达到98.56%。以此表明本发明方法所搭建一维卷积神经网络模型效果较好,可用于待测样本的分类评估。
本实施例选择第20个“Epoch”训练好的模型参数并保存确定为晶面质量检测1D-CNN模型。对工业现场新获得的100组样本作为测试集通过1D-CNN模型对其进行预测分类,各类样本分类准确率如表4所示。
表4 1D-CNN模型分类结果
类型 | Total<sub>i</sub> | TP<sub>i</sub> | FP<sub>i</sub> | P<sub>i</sub> |
A | 22 | 20 | 2 | 90.91% |
B | 16 | 14 | 2 | 87.50% |
C | 26 | 22 | 4 | 84.62% |
D | 11 | 9 | 2 | 81.82% |
E | 25 | 24 | 1 | 96.00% |
P | 100 | 89 | 11 | 88.17% |
表4包括每类样本的分类准确率和总样本的平均准确率。A类样本准确率为90.91%,B类样本准确率为87.50%,C类样本准确率为84.62%,D类样本准确率为81.82%,E类样本准确率为96.00%,测试样本集平均准确率达到88.17%。证明本发明方法构造的一维卷积神经网络在晶面质量检测方面的可靠性。随后为选取晶棒的最优晶面作为基准面,进而按一定角度磨削加工提供依据。
从实验检测结果来看:本发明所述方法准确率高,鲁棒性好,为用于滚磨机定向仪的晶面的质量评估的实现提供了一种有效的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (9)
1.一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:包括以下步骤:
步骤1:建立晶面的回摆曲线数据集,并将其作为训练样本数据集;
步骤2:对步骤1获得的训练样本数据集中的数据进行归一化处理;
步骤3:搭建一维卷积神经网络模型的整体框架;
通过两个结构相同但具体参数不同的第一模块和第二模块、Dropout层和全链接层以及最后一个Softmax层搭建一维卷积神经网络模型的整体框架;所述第一模块和第二模块的结构均由两个卷积层,一个池化层和一个批标准化算法构成;所述第一模块和第二模块涉及的具体参数包括卷积核个数、卷积核尺寸、步长、激活函数和批标准化算法;
步骤4:通过损失函数计算一维卷积神经网络模型的预测结果与实际数据之间的偏差;
步骤5:计算输出层误差关于卷积核权重的梯度来更新迭代训练过程中的卷积核权重,进而迭代训练一维卷积神经网络模型;
步骤6:保存训练好的用于晶面质量评估的一维卷积神经网络模型及参数,获取测试集数据完成对晶面质量的评估,并通过模型分类的平均准确率及对各类样本分类的准确率对模型的预测性能进行评估。
2.根据权利要求1所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:所述步骤1的具体方法为:
通过X射线照射不同晶面产生回摆曲线,不同种类的回摆曲线分别对应不同的晶面质量等级;以一定采样频率对回摆曲线进行数据采样,每条回摆曲线采集n个数据点保存在向量x中,构成训练样本矩阵X=[x1,x2,…,xi,…,xN]′,其中,N是训练样本的数量,向量xi是长度为n的一维向量;并且训练样本中每一个样本都存在标签Y=[y1,y2,…,yi…,yN],表示训练集样本中每一个样本与所属分类的对应关系。
3.根据权利要求2所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:所述步骤2采用min-max标准化方法对步骤1获得的向量x进行归一化处理,使其最终的结果落到[0,1]区间范围内。
4.根据权利要求3所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:所述步骤3的具体方法为:
步骤3.1:通过两个卷积层,一个批标准化算法和一个池化层搭建第一模块,并设置具体参数;
步骤3.2:通过两个卷积层,一个批标准化算法和一个池化层搭建第二模块,并设置具体参数;
步骤3.3:构建一维卷积神经网络模型的Dropout层和全连接层;
步骤3.4:通过Softmax激活函数作为输出层得到整个全连接层的特征输出,实现多目标分类。
5.根据权利要求4所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:所述步骤3.1的具体搭建过程为:
步骤3.1.1:构建第一模块的卷积层;设定一维卷积神经网络模型的第l个卷积层,由ml个特征信号组成,l=1,2,…,L,L为一维卷积神经网络模型包括的卷积层总数;正向传播期间,卷积层l的每个特征信号的输入是第(l-1)个卷积层经过适当的卷积核并通过非线性激活函数后累积的结果,如下公式所示:
其中,是输入到卷积层l的第i个特征信号,是第i个特征信号的偏置,Conv()是卷积函数,是非线性激活函数对卷积层l的第i个特征信号激活后的输出,是第(l-1)个卷积层输出的第j个特征信号,是第(l-1)个卷积层输出的第j个特征信号和第l层输入的第i个特征信号之间的卷积核权重向量,f()是一个非线性激活函数;
步骤3.1.2:激活函数的选择;所述激活函数选择Sigmoid、Tanh或Relu;
步骤3.1.3:池化层的选择;所述池化层选择平均池化或最大池化;
步骤3.1.4:使用批标准化算法处理每批训练数据;
在每个卷积层后面紧接着批标准化算法,通过批标准化算法计算每批训练数据的均值μd和方差然后将原始训练数据移位并缩放为零均值和单位方差;最后,将移位后的数据赋予权重γ和偏置β,得到缩放和移动的归一化值具体计算由方程式(3)-(6)给出:
其中,xi′为每批次训练的样本,d为每批次训练样本总数,ε是一个加到每批训练数据方差上的常数。
8.根据权利要求7所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:步骤5所述更新迭代训练过程中卷积核权重的具体方法为:
由公式(1)得到:
将公式(10)代入公式(9)得:
再次使用链式规则,得:
由于激活函数的导数具有如下特性:
再由公式(1),推出:
(2)采用Adam算法对学习率η进行更新计算;
首先采用Adam算法对模型参数θ进行优化,使损失函数最小,如下公式所示:
其中,xi是训练集中数据;
对于Adam算法,由于模型训练是分批次进行的,因此用每批次的训练数据来近似整个训练集数据训练过程中损失函数相对于参数θ的梯度其中,f1(xi′,θ),f2(xi′,θ),...,ft(xi′,θ),...,fT(xi′,θ)表示损失函数在第t次迭代训练处的实现,t=1,2,...,T,T为总训练次数,则学习率η的更新如下所示:
其中,β1、β2、γ均为常数,且β1,β2∈[0,1),mt是损失函数相对于参数θ的梯度gt的有偏一阶矩估计,vt是损失函数相对于参数θ的梯度gt的有偏二阶矩估计,mt和vt的更新如下公式所示:
mt=β1*mt-1+(1-β1)*gt (21)
9.根据权利要求8所述的一种用于滚磨机定向仪的晶面质量评估方法,其特征在于:所述步骤6的具体方法为:
将测试样本集中的样本输入训练好的一维卷积神经网络模型,并评估的一维卷积神经网络模型分类的平均准确率及对各类样本分类的准确率;其中,对各类样本分类的准确率Pi的计算如下公式所示:
其中,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,Totalk为第k类样本总数;
模型分类的平均准确率的计算如下公式所示:
其中,P为一维卷积神经网络模型分类的平均准确率,TPk为第k类样本正确分类数目,FPk为第k类样本错误分类数目,各类样本总数Totalk满足:
Totalk=TPk+FPk (25)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010868318.7A CN111985825B (zh) | 2020-08-26 | 2020-08-26 | 一种用于滚磨机定向仪的晶面质量评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010868318.7A CN111985825B (zh) | 2020-08-26 | 2020-08-26 | 一种用于滚磨机定向仪的晶面质量评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985825A true CN111985825A (zh) | 2020-11-24 |
CN111985825B CN111985825B (zh) | 2023-10-27 |
Family
ID=73444135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010868318.7A Active CN111985825B (zh) | 2020-08-26 | 2020-08-26 | 一种用于滚磨机定向仪的晶面质量评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985825B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560633A (zh) * | 2020-12-09 | 2021-03-26 | 中山大学 | 基于深度学习的植物关键物候期时间点预测方法及系统 |
CN113657220A (zh) * | 2021-08-03 | 2021-11-16 | 南方电网数字电网研究院有限公司 | 电能质量扰动信号分类模型的训练方法及装置 |
CN114252560A (zh) * | 2021-12-24 | 2022-03-29 | 无锡学院 | 一种基于改进一维卷积神经网络的混合气体识别方法 |
CN115091211A (zh) * | 2022-08-22 | 2022-09-23 | 徐州康翔精密制造有限公司 | 数控车磨复合机床及其生产控制方法 |
CN117494591A (zh) * | 2024-01-03 | 2024-02-02 | 南京灿能电力自动化股份有限公司 | 一种风电电能质量评估方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102126043A (zh) * | 2010-01-14 | 2011-07-20 | 哈尔滨理工大学 | 高速铣刀跨尺度设计方法及铣刀 |
CN109725013A (zh) * | 2018-12-20 | 2019-05-07 | 深圳晶泰科技有限公司 | X射线衍射数据分析系统 |
CN110378435A (zh) * | 2019-07-25 | 2019-10-25 | 安徽工业大学 | 一种基于卷积神经网络的苹果叶片病害识别的方法 |
CN111220958A (zh) * | 2019-12-10 | 2020-06-02 | 西安宁远电子电工技术有限公司 | 基于一维卷积神经网络的雷达目标多普勒像分类识别方法 |
-
2020
- 2020-08-26 CN CN202010868318.7A patent/CN111985825B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102126043A (zh) * | 2010-01-14 | 2011-07-20 | 哈尔滨理工大学 | 高速铣刀跨尺度设计方法及铣刀 |
CN109725013A (zh) * | 2018-12-20 | 2019-05-07 | 深圳晶泰科技有限公司 | X射线衍射数据分析系统 |
CN110378435A (zh) * | 2019-07-25 | 2019-10-25 | 安徽工业大学 | 一种基于卷积神经网络的苹果叶片病害识别的方法 |
CN111220958A (zh) * | 2019-12-10 | 2020-06-02 | 西安宁远电子电工技术有限公司 | 基于一维卷积神经网络的雷达目标多普勒像分类识别方法 |
Non-Patent Citations (1)
Title |
---|
王景丹;刘桂莲;孔波;董永超;龚晓伟;: "基于光伏电站的智能运维知识库的研究", 电源技术, no. 08, pages 134 - 137 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560633A (zh) * | 2020-12-09 | 2021-03-26 | 中山大学 | 基于深度学习的植物关键物候期时间点预测方法及系统 |
CN112560633B (zh) * | 2020-12-09 | 2023-08-01 | 中山大学 | 基于深度学习的植物关键物候期时间点预测方法及系统 |
CN113657220A (zh) * | 2021-08-03 | 2021-11-16 | 南方电网数字电网研究院有限公司 | 电能质量扰动信号分类模型的训练方法及装置 |
CN114252560A (zh) * | 2021-12-24 | 2022-03-29 | 无锡学院 | 一种基于改进一维卷积神经网络的混合气体识别方法 |
CN115091211A (zh) * | 2022-08-22 | 2022-09-23 | 徐州康翔精密制造有限公司 | 数控车磨复合机床及其生产控制方法 |
CN115091211B (zh) * | 2022-08-22 | 2023-02-28 | 徐州康翔精密制造有限公司 | 数控车磨复合机床及其生产控制方法 |
CN117494591A (zh) * | 2024-01-03 | 2024-02-02 | 南京灿能电力自动化股份有限公司 | 一种风电电能质量评估方法及装置 |
CN117494591B (zh) * | 2024-01-03 | 2024-03-22 | 南京灿能电力自动化股份有限公司 | 一种风电电能质量评估方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111985825B (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111985825A (zh) | 一种用于滚磨机定向仪的晶面质量评估方法 | |
CN110033021B (zh) | 一种基于一维多路卷积神经网络的故障分类方法 | |
CN108959728B (zh) | 基于深度学习的射频器件参数优化方法 | |
CN110009030B (zh) | 基于stacking元学习策略的污水处理故障诊断方法 | |
CN112508243B (zh) | 电力信息系统多故障预测网络模型的训练方法及装置 | |
CN111105160A (zh) | 一种基于倾向性异质装袋算法的钢材质量预测方法 | |
CN110175247B (zh) | 一种优化基于深度学习的异常检测模型的方法 | |
CN111652264B (zh) | 基于最大均值差异的负迁移样本筛选方法 | |
CN115828754A (zh) | 基于多尺度时空融合网络模型的刀具磨损状态监测方法 | |
CN112766537B (zh) | 一种短期电负荷预测方法 | |
CN114692507A (zh) | 基于堆叠泊松自编码器网络的计数数据软测量建模方法 | |
CN104951987A (zh) | 基于决策树的作物育种评价方法 | |
CN117458480A (zh) | 基于改进lof的光伏发电功率短期预测方法及系统 | |
CN116226739A (zh) | 一种基于时空融合的图卷积网络工业过程故障诊断方法 | |
CN117493795A (zh) | 一种光伏发电功率预测方法及系统 | |
CN113656707A (zh) | 一种理财产品推荐方法、系统、存储介质及设备 | |
CN113378910A (zh) | 一种基于纯净标签的电磁信号调制类型识别的中毒攻击方法 | |
CN114298413B (zh) | 一种水电机组振摆趋势预测方法 | |
CN109523386A (zh) | 一种gmm与lstm结合的投资组合风险预测方法 | |
CN116720095A (zh) | 一种基于遗传算法优化模糊c均值的电特性信号聚类方法 | |
CN117877587A (zh) | 一种全基因组预测模型的深度学习算法 | |
CN114742289B (zh) | 一种面向生产工艺参数的高斯过程稳健优化方法 | |
CN113177563B (zh) | 融合cma-es算法及贯序极限学习机的贴片后异常检测方法 | |
CN108932550B (zh) | 一种基于模糊密集稀疏密集算法进行图像分类的方法 | |
Huang et al. | Dynamic boosting in deep learning using reconstruction error |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |