CN115169534A - 卷积神经网络的样本优化训练方法及计算机可读存储介质 - Google Patents
卷积神经网络的样本优化训练方法及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115169534A CN115169534A CN202210793398.3A CN202210793398A CN115169534A CN 115169534 A CN115169534 A CN 115169534A CN 202210793398 A CN202210793398 A CN 202210793398A CN 115169534 A CN115169534 A CN 115169534A
- Authority
- CN
- China
- Prior art keywords
- training
- sample
- samples
- current
- analysis model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 305
- 238000005457 optimization Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 32
- 238000004088 simulation Methods 0.000 claims abstract description 136
- 238000004458 analytical method Methods 0.000 claims abstract description 118
- 238000012360 testing method Methods 0.000 claims abstract description 110
- 238000012216 screening Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 64
- 230000004913 activation Effects 0.000 claims description 37
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 19
- 238000012795 verification Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000001174 ascending effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000016273 neuron death Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 5
- 238000012163 sequencing technique Methods 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 230000008020 evaporation Effects 0.000 description 4
- 238000001704 evaporation Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出了一种卷积神经网络的样本优化训练方法及计算机可读存储介质。上述方法包括预处理操作,获取仿真训练样本,通过典型样本对仿真训练样本进行优化筛选以及完成文本分析模型优化收集操作等执行操作;通过仿真方式对获得的训练样本进行广泛获取,同时进一步的通过更新算法迭代对样本进行优化;每次迭代不断的更新训练样本集合,最终设置优化收集条件,可快速收敛最终实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布以及计算得到当前输出概率分布的不确定度。
Description
技术领域
本发明属于预测应用场景神经网络模型构建技术领域,尤其涉及一种卷积神经网络的样本优化训练方法及计算机可读存储介质。
背景技术
由于精密监测设备往往被投放到外部环境恶劣的场景中,这样使用场景常常会导致外界环境发生较大的改变,精密监测设备应用的外界环境较为恶劣因此发生的故障频率以及故障类型也会比常规场景要多,因此不能简单将常规工况下的故障诊断方法(或是检测手段)研究结果应用于上述使用场景中。
在基于数据实现的故障诊断方法中,RNN、SVM、ANN等大多数模型得到了广泛的应用;同上述数据模型可以对故障诊断结果得到良好的预测以及给出诊断结果;
但是研究发现这种故障样本的基础数据往往还是通过常规实验进行真实采集,这样就容易造成训练集不够使用(无法获得较高且真实的训练集),然而同时更为严重的后果容易造成模型过拟合问题;进一步的研究发现,即便是获得了相关较多的数量的训练集样本,如果不能有效的进行优化(多种故障耦合等),则无法有针对性对典型故障进行精准预测,进而容易造成模型预测精度的下降。
发明内容
本发明的目的在于卷积神经网络的样本优化训练方法及计算机可读存储介质,用以解决背景技术中指出的上述技术问题。
为了达到上述目的,在本发明的第一个方面,提供了一种卷积神经网络的样本优化训练方法,流程为:
预处理操作:调用待优化的文本分析模型;文本分析模型用于收集多个训练样本直至获得目标数量个训练样本集合以优化该文本分析模型;所述文本分析模型还用于针对训练样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布;
获取仿真训练样本:获取仿真方式获得的仿真数据集形成的多个训练样本,然后
将当前多个当前训练样本输入上述文本分析模型中进行测试输出;针对每个仿真训练样本
得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;其中,i为仿真训
练样本;获取的多个仿真训练样本的数量为M个;
通过典型样本对仿真训练样本进行优化筛选:调用实验验证的测试数据集形成的
多种种类的典型样本;从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障
种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初
始典型样本中的多个目标典型样本;将多个目标典型样本输入上述文本分析模型中进行测
试输出,得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;然后根据
当前训练样本以及多个目标典型样本进行各自计算按照对应输出概率分布产生的测试故
障鉴定结果的最小均方误差,针对当前训练样本以及多个目标典型样本各自计算得到的最
小均方误差进行混合排序,在排序时按照最小均方误差由小到大增大方向进行排序得到模
型最小均方误差列表;然后从模型最小均方误差列表中选出含有当前仿真训练样本的前个仿真训练样本作为当前仿真训练样本的精选样本;不断获取计算多个仿真训练样本
的精选样本组合形成实时仿真训练样本集合;
设置优化收集条件:在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;模型最小均方误差列表必须含有当前的训练样本;需要不断的更新训练样本集合,将其填充进去形成新的初始典型样本;
完成文本分析模型优化收集操作:文本分析模型收集的多个训练样本的操作过程,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,此时将迭代获得的目标数量个训练样本集合作为最优训练集合。
较佳地,作为一种可实施方式;从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本,包括:
筛选多种种类的典型样本,其中不同典型样本各自含有不同数量个标准目标故障种类的测试故障鉴定结果形成的典型样本;仅筛选获取同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本;
基于文本相似度进行分析时,提取人工筛选的当前仿真训练样本的特征文本,利用所述特征文本构成基本特征文本;
利用所述基本特征文本在多个初始典型样本中间进行搜索,并计算所述人工筛选的当前仿真训练样本的特征文本与搜索得到的初始典型样本的文本相似度得到相似度实时计算值;
将不符合高相似度阈值条件的初始典型样本进行剔除,将符合高相似度阈值条件的初始典型样本进行保留,以此找到初始典型样本中的多个目标典型样本。
较佳地,作为一种可实施方式;设置优化收集条件:基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件,包括:
在实时仿真训练样本集合构建的文本分析模型基础上,进行当前模型的仿真训练样本收集同时使用验证集进行验证,同时记录验证集的代价函数,记录当前代价函数的变化趋势,在当前代价函数由上升趋势转为下降趋势时认定当前状态一次优化收集收敛条件(即初步判定避免了过拟合问题);
继续记录当前的仿真模拟次数B,在实时仿真训练样本集合构建的文本分析模型基础上计算train loss以及train loss,在仿真模拟次数B大于Nmin,且当前时刻实时仿真训练样本集合构建的文本分析模型中的train loss不断下降,test loss由趋于不变变成不断下降时则判定满足二次优化收集收敛条件。
较佳地,作为一种可实施方式;在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,包括:
在不断仿真模拟Q次数后,检测发现在进行当前模型的仿真训练样本收集同时满足一次优化收集收敛条件和二次优化收集收敛条件时,则判定当前模型达到收集收敛条件;
停止对当前仿真测试集的收集操作,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛操作;将当前的实时仿真训练样本集合作为最优训练集合。
较佳地,作为一种可实施方式;所述典型样本包括单位时间周期t时段内的故障频率、故障种类的类型、故障节点的所在位置、单位时间周期t时段内故障频率最高的故障节点的类型、该单位时间周期t时段内故障频率最高的故障节点所在位置构建的信息集合。
较佳地,作为一种可实施方式;在将迭代获得的目标数量个训练样本集合作为最优训练集合之后,还包括对文本分析模型的batch_size进行设置处理操作:
优先对文本分析模型设置使用ReLU激活函数;
对获取的最优训练集合不断进行训练,计算当前训练误差;如果当前训练误差没有随着迭代次数的增加而变化,则判断ReLU激活函数导致的神经元死亡的判定结果;
更换文本分析模型设置使用leaky ReLU激活函数或者 ELUs激活函数,待当前文本分析模型中的当前训练误差继续变化时则判定当前使用leaky ReLU激活函数或者 ELUs激活函数为目标激活函数。
较佳地,作为一种可实施方式;所述文本分析模型为ABCNN训练神经网络模型、Keras模型或是RCNN递归卷积神经网络中的任意一种。
较佳地,作为一种可实施方式;在设置了文本分析模型使用优选的激活函数后,所述文本分析模型接收针对当前测试样本,对接收的当前测试样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布以及计算得到当前输出概率分布的不确定度。
第二方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述卷积神经网络的样本优化训练方法的步骤
本发明的有益技术效果至少在于以下几点:
本发明提供的卷积神经网络文本分析模型的样本优化训练方法,其通过仿真方式对获得的训练样本进行广泛获取,同时进一步的通过更新算法迭代对样本进行优化(将当前训练样本以及多个目标典型样本混合在一起进行排序);每次迭代不断的更新训练样本集合(更新当前仿真训练样本的精选样本,同时不断的更新当前仿真训练样本的精选样本将其填充进去,从而形成更新后的训练样本集合),最终设置优化收集条件:
在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;在采用特定算法实现丰富训练样本的同时,还适当的设置了收集收敛条件,快速收敛获取最优训练集合);最终由最优训练集合确定优化的文本分析模型,以此由优化的文本分析模型进行测试样本的输出概率分布处理操作。
本发明提供的一种卷积神经网络的样本优化训练方法优于现有方案,且对训练集优化具有鲁棒性。采用卷积神经网络的样本优化训练方法结合最小均方误差量化模型形态(模型的最小均方误差),并以迭代方式求取最优的训练样本集合,压缩训练样本获得的时间,降低训练成本。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1为本发明提供的卷积神经网络文本分析模型的样本优化训练方法的主要流程图;
图2为本发明提供的卷积神经网络文本分析模型的样本优化训练方法中执行“典型样本对仿真训练样本进行优化筛选”的一种示例性实施例的操作流程示意图;
图3为本发明提供的卷积神经网络文本分析模型的样本优化训练方法中执行“设置优化收集条件”的一种示例性实施例的操作流程示意图;
图4为本发明提供的卷积神经网络文本分析模型的样本优化训练方法中执行“完成文本分析模型优化收集操作”的一种示例性实施例的操作流程示意图;
图5为本发明提供的卷积神经网络文本分析模型的样本优化训练方法中执行“对文本分析模型的batch_size进行设置处理”的一种示例性实施例的操作流程示意图;
图6为本发明提供的卷积神经网络文本分析模型的样本优化训练系统的架构示意图。
标号:预处理子模块10、获取计算子模块20、目标典型样本迭代子模块30、条件设置子模块40、优化处理子模块50。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种卷积神经网络文本分析模型的样本优化训练方法,包括如下操作步骤:
S1,预处理操作:调用待优化的文本分析模型;文本分析模型用于收集多个训练样本直至获得目标数量个训练样本集合以优化该文本分析模型;所述文本分析模型还用于针对当前训练样本进行测试故障鉴定结果的预测,实现当前训练样本针对测试故障鉴定结果进行计算输出概率分布;
需要说明的是,上述待优化的文本分析模型是需要收集获取多个相似且价值较高的训练样本集,受到训练样本中实验数据集较少的影响,其实验数据集均为人工筛选时间条件影响导致训练样本不够丰富;对此应当采用仿真方式模拟出多种故障鉴定结果等数据,但是这样获得的仿真训练样本需要进一步验证和优化。上述文本分析模型可以针对当前训练样本进行测试故障鉴定结果的预测,从而实现当前训练样本针对测试故障鉴定结果进行计算输出概率分布。
S2,获取仿真训练样本:获取获取仿真方式获得的仿真数据集形成的多个训练样
本,然后将当前多个当前训练样本输入上述文本分析模型中进行测试输出;针对每个仿真
训练样本得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;其中,代
表仿真样本,获取的多个仿真训练样本的数量为M个,且M为多个;
需要说明的是,选择部分实验数据集作为训练样本不够,因此需要仿真方式获得的仿真数据集形成的多个训练样本;上述每个训练样本中数据集反馈到该故障类型可以分为故障1,故障2,故障3等多个多个,从而形成了K个标准目标故障种类的测试故障鉴定结果,且每个测试故障鉴定结果都有对应的输出概率数值。
S3,通过典型样本对仿真训练样本进行优化筛选;调用实验验证的测试数据集形
成的多种种类的典型样本;从多种种类的典型样本中获取筛选后的同样含有K个标准目标
故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找
到初始典型样本中的多个目标典型样本;将多个目标典型样本输入上述文本分析模型中进
行测试输出,得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;然后
根据当前训练样本以及多个目标典型样本进行各自计算按照对应输出概率分布产生的测
试故障鉴定结果的最小均方误差,针对当前训练样本以及多个目标典型样本各自计算得到
的最小均方误差进行混合排序,在排序时按照最小均方误差由小到大增大方向进行排序得
到模型最小均方误差列表;然后从模型最小均方误差列表中选出含有当前仿真训练样本的
前个仿真训练样本作为当前仿真训练样本的精选样本(即精选样本集合);不断获取计
算多个仿真训练样本的精选样本组合形成实时仿真训练样本集合;
解释说明,初始典型样本较多不便于都进行排序计算,对此通过当前仿真训练样
本基于文本相似度找到初始典型样本中的多个目标典型样本;然后根据当前训练样本以及
多个目标典型样本进行各自计算按照对应输出概率分布产生的测试故障鉴定结果的最小
均方误差,针对当前训练样本以及多个目标典型样本各自计算得到的最小均方误差进行混
合排序(将当前训练样本以及多个目标典型样本混合在一起进行排序);从模型最小均方误
差列表中选出含有当前仿真训练样本的前个仿真训练样本作为当前仿真训练样本的精
选样本,因此分析上述内容可知针对不同的当前训练样本,上述是个动态变化数值;本
发明实施例采用的上述训练样本优化目的是通过合理减少(或是获得合理数量)训练过程
中所需的优选训练样本,从而压缩训练所需的时间,压缩训练样本获得的时间,降低训练成
本。上述模型最小均方误差列表必须含有当前的训练样本,同时需要不断的更新当前仿真
训练样本的精选样本将其填充进去,从而形成更新后的训练样本集合;由上述训练样本集
合进行后续的损失值趋势计算;
S4,设置优化收集条件:在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型(神经网络)中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;
S5,完成文本分析模型优化收集操作:文本分析模型收集的多个训练样本的操作过程,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,此时将迭代获得的目标数量个训练样本集合作为最优训练集合。
在上述步骤S3的执行过程中,通过典型样本对仿真训练样本进行优化筛选;调用实验验证的测试数据集形成的多种种类的典型样本;从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本;
本发明实施例提供的卷积神经网络的样本优化训练方法,通过仿真方式对获得的训练样本进行广泛获取,同时进一步的通过更新算法迭代对样本进行优化(将当前训练样本以及多个目标典型样本混合在一起进行排序);每次迭代不断的更新训练样本集合(更新当前仿真训练样本的精选样本,同时不断的更新当前仿真训练样本的精选样本将其填充进去,从而形成更新后的训练样本集合),最终设置优化收集条件:
在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;在采用特定算法实现丰富训练样本的同时,还适当的设置了收集收敛条件,快速收敛获取最优训练集合);
最终由最优训练集合确定优化的文本分析模型,以此由优化的文本分析模型进行测试样本的输出概率分布处理操作。
本发明提供的一种卷积神经网络的样本优化训练方法优于现有方案(现有方案训练样本的优化程度不高或是没有优化容易造成模型预测失真严重,降低了系统的性能),且对训练集优化具有鲁棒性。采用卷积神经网络的样本优化训练方法结合最小均方误差量化模型形态(模型的最小均方误差),并以迭代方式求取最优的训练样本集合。
参见图2,在S3执行过程中,从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本,包括:
S31,筛选多种种类的典型样本,其中不同典型样本各自含有不同数量个标准目标故障种类的测试故障鉴定结果形成的典型样本;仅筛选获取同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本;
S32,基于文本相似度进行分析时,提取人工筛选的当前仿真训练样本的特征文本,利用所述特征文本(所述特征文本包括标准目标故障种类的名称、标准目标故障种类的故障频率最高种类的名称、各个标准目标故障种类对应的故障率)构成基本特征文本;
S33,利用所述基本特征文本在多个初始典型样本中间进行搜索,并计算所述人工筛选的当前仿真训练样本的特征文本与搜索得到的初始典型样本的文本相似度得到相似度实时计算值;
S34,将不符合高相似度阈值条件的初始典型样本进行剔除(相似度实时计算值低于相似度阈值),将符合高相似度阈值条件(相似度实时计算值大于或是等于相似度阈值)的初始典型样本进行保留,以此找到初始典型样本中的多个目标典型样本。
在上述技术方案中,该步骤S3执行时,需要通过典型样本对仿真训练样本进行优化筛选,由此筛选具有较高判断价值的实时仿真训练样本集合;然而在这之前,应当先确定同类故障描述的多个初始典型样本,然后从通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本多个目标典型样本;
利用特征文本(所述特征文本包括标准目标故障种类的名称、标准目标故障种类的故障频率最高种类的名称、各个标准目标故障种类对应的故障率)构成基本特征文本;通过上述处理判断过程可以实现人工筛选的当前仿真训练样本的特征文本与搜索得到的初始典型样本的文本相似度得到相似度实时计算值,以此找到初始典型样本中的多个目标典型样本。
基于文本相似度找到初始典型样本中的多个目标典型样本,为了后续进行当前仿真训练样本与相似的多个目标典型样本进行混合排序做准备。
参见图3,在S4执行过程中,设置优化收集条件:基于代价函数的变化趋势、文本分析模型(神经网络)中的train loss以及test loss变化趋势设置模型计算的收集收敛条件,包括:
S41,在实时仿真训练样本集合构建的文本分析模型基础上,进行当前模型的仿真训练样本收集同时使用验证集进行验证,同时记录验证集的代价函数,记录当前代价函数的变化趋势,在当前代价函数由上升趋势转为下降趋势时认定当前状态一次优化收集收敛条件(即初步判定避免了过拟合问题);
S42,继续继续记录当前的仿真模拟次数B(即收集仿真训练样本的次数),在实时仿真训练样本集合构建的文本分析模型基础上计算train loss以及train loss,在仿真模拟次数B大于Nmin(Nmin为常数,即标准最小仿真模拟阈值次数),且当前时刻实时仿真训练样本集合构建的文本分析模型(神经网络)中的train loss不断下降,test loss由趋于不变变成不断下降时则判定满足二次优化收集收敛条件;。
需要说明的是,在进行当前模型的仿真训练样本收集同时使用验证集进行验证,同时记录验证集的代价函数,然后保存此代价函数对应的神经网络的权重,随着训练次数的进行,代价函数会逐渐下降,此时神经网络正在接近某一局部或者全局最优值;但当训练次数超过某一数值时,代价函数便逐渐上升,此时便出现了过拟合现象,将代价函数有降转成升的地方,称为拐点;基于以上认知,将在当前代价函数由上升趋势转为下降趋势时认定当前状态一次优化收集收敛条件(即第一判断条件);
同时设置了二次优化收集收敛条件(即第二判断条件),train loss是训练集上的损失;test loss是验证集上的损失;train loss 不断下降,test loss趋于不变,说明神经网络过拟合。
参见图4,S5执行过程中,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,包括:
S51,在不断仿真模拟Q次数后,检测发现在进行当前模型的仿真训练样本收集同时满足一次优化收集收敛条件和二次优化收集收敛条件时,则判定当前模型达到收集收敛条件;
S52,停止对当前仿真测试集的收集操作,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛操作;将当前的实时仿真训练样本集合作为最优训练集合。
较佳地,作为一种优选的方案;所述含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本;该典型样本部分故障如表1所示:表1为部分故障名称及形式;
故障编号 | 故障节点的类型 | 故障节点的所在位置 |
1 | 蒸发风机处传感器节点风量检测误差故障 | 蒸发风机处 |
2 | 冷凝器处传感器信号故障 | 冷凝器处 |
3 | 蒸发风机传感器发热故障 | 蒸发风机处 |
较佳地,作为一种优选的方案;关于典型样本主要由单位时间周期t时段内的故障频率、故障种类的类型、故障节点的所在位置、单位时间周期t时段内故障频率最高的故障节点的类型、该单位时间周期t时段内故障频率最高的故障节点所在位置等因素构建的信息集合。
式中,W(fj)代表典型样本的传感器故障节点的信息集合;
式中,NS代表典型样本的传感器故障节点个数;
其中,Pjt为单位时间周期(即单位时间周期为t时段)内的传感器节点j的故障频率;
其中,sjt为单位时间周期为t时段内的传感器节点j的故障节点的所在位置;
其中,MAXbft为传感器节点f为单位时间周期(即单位时间周期为t时段)内故障频率最高的故障节点的类型(即该类型的名称);
其中,fjt为单位时间周期为t时段内的传感器节点f的故障节点的所在位置;需要
说明的是,上述为故障频率最高的故障节点的类型与其所在位置这两个因
素构建的集合。为单位时间周期为t时段内的传感器节点f的故障频率,且传感
器节点f隶属于传感器节点j集合中的一个故障频率最高的故障节点;为单位时
间周期为t时段内的传感器的故障种类的类型与其所在位置这两个因素构建的集合;为单位时间周期(即单位时间周期为t时段)内的传感器节点j的故障频率构建的集
合;
参见图5,在步骤S5之后,还包括对文本分析模型的batch_size进行设置处理操作(以适应数据集的优化):
S61,优先对文本分析模型设置使用ReLU激活函数;
S62,对获取的最优训练集合不断进行训练,计算当前训练误差;如果当前训练误差没有随着迭代次数的增加而变化,则判断ReLU激活函数导致的神经元死亡的判定结果(即上述神经网络包含坏的梯度);
S63,更换文本分析模型设置使用leaky ReLU激活函数或者 ELUs激活函数,待当前文本分析模型中的当前训练误差继续变化时则判定当前使用leaky ReLU激活函数或者ELUs激活函数为目标激活函数。
关于上述技术方案,需要解释说明的是,为了对文本分析模型实现较好的收敛,其会对网络包含坏的梯度进行检测;使用ReLU激活函数的神经网络经常会遇到一些因为坏的梯度导致的“破坏或是死亡神经元”的情况。它会导致网络性能下降,甚至某些情况下导致网络无法继续训练。
分析上述原因:对于 ReLU 激活函数来说,其梯度对于正数和负数分别是 1 和0。这是因为输入的微小更改不会影响小于零的输入输出。这对于正数的大梯度来说似乎不是一个问题,但与许多网络层堆叠在一起,负权重能够将大的正值与强梯度变成负值与零梯度,通常情况下,如果无论输入是什么,网络中有一部分或者所有的权值对于损失函数的梯度都是坏的梯度,此时权值是没办法更新,也就是无法继续训练下去了。
本申请实施例为了获取的最优训练集合以及构建更稳定的网络模型采用如下的解决办法:优先对文本分析模型设置使用ReLU激活函数;对获取的最优训练集合不断进行训练,计算当前训练误差;如果当前训练误差没有随着迭代次数的增加而变化,则判断ReLU激活函数导致的神经元死亡的判定结果(即上述神经网络包含坏的梯度);
在上述结果中,设置使用ReLU激活函数不合适,则更换文本分析模型设置使用leaky ReLU激活函数或者 ELUs激活函数,待当前文本分析模型中的当前训练误差继续变化时则判定当前使用leaky ReLU激活函数或者 ELUs激活函数为目标激活函数。关于上述技术方案,需要解释说明的是,为了对文本分析模型实现较好的收敛,其会对网络包含坏的梯度进行检测;使用ReLU激活函数的神经网络经常会遇到一些因为坏的梯度导致的“破坏或是死亡神经元”的情况。它会导致网络性能下降,甚至某些情况下导致网络无法继续训练。
本申请实施例采用的上述方式基于如下原理:如果发现训练误差没有随着迭代次数的增加而变化,那么很可能就是出现了因为是 ReLU激活函数导致的神经元死亡的情况。则更换尝试使用如leaky ReLU或者 ELUs等激活函数,看看是否还出现这种情况。任何带有零梯度的操作,比如舍入或裁剪或取最大/最小值,如果在计算损失函数对权值的导数时使用它们,也会产生坏梯度。所以说采用上述方案可以避免坏梯度的发生,通过合理文本分析模型的batch_size进行设置处理从而以适应数据集的优化。
较佳地,作为一种优选的方案;所述文本分析模型(即检测模型)为ABCNN训练神经网络模型、Keras模型或是RCNN递归卷积神经网络中的任意一种。
在本申请实施方式中,该文本分析模型可以选择多种构建形式的神经网络模型,例如:ABCNN训练神经网络模型、Keras模型或是RCNN递归卷积神经网络。
其中,Keras模型具有较为合适的使用场景(Keras模型其尤其适用于数据集或是训练数据较少的文本分析场景),或者还可以为其他模型,本实施例对此不进行特别限定。
需要说明的是,Keras模型所采用的训练样本,可以为经过标注的已知样本,这样,可以直接利用这些已知样本进行训练,以构建初始的训练模型;然后,再利用初始的训练模型对未知样本进行预测,以获得识别结果,进而则可以根据未知样本的识别结果,这样对未知样本进行标注可以形成已知样本,作为新增加的已知样本,以及原始的已知样本重新进行训练,以构建新的训练模型,上述这种Keras模型可以适应本申请实施例中训练样本较少的应用场景。
其中,递归卷积神经网络(RCNN)利用双向递归神经网络提取上下文信息,然后采用1D卷积神经网络将词嵌入信息与上下文信息进行融合;再利用全局最大池化提取关键信息来完成相关测试故障鉴定结果的文本表示;最后通过匹配层实现相似度计算判断等操作,对此不再赘述;上述递归卷积神经网络也较为适合本申请中训练样本较少的使用场景。
较佳地,作为一种优选的方案;在特定设置了文本分析模型使用优选的激活函数后,所述文本分析模型接收针对当前测试样本,对接收的当前测试样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布以及计算得到当前输出概率分布的不确定度(尤其引入了对当前输出概率分布的不确定度的计算操作)。
需要说明的是,在本申请的技术方案中,采用多次训练不断通过获得较高准确度的模型;避免了训练数据过少过拟合的问题进行了仿真样本进行获取以及优化,然后在进行相应不断训练后,最后可以对当前测试样本进行测试操作,具体包括对接收的当前测试样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布以及计算得到当前输出概率分布的不确定度;本发明实施例选择的最小均方误差计算公式不再赘述。
实施例二
如图6所示,本发明实施例提供了一种卷积神经网络文本分析模型的样本优化训练系统,包括预处理子模块10、获取计算子模块20、目标典型样本迭代子模块30、条件设置子模块40和优化处理子模块50:
预处理子模块10用于调用待优化的文本分析模型;文本分析模型用于收集多个训练样本直至获得目标数量个训练样本集合以优化该文本分析模型;所述文本分析模型还用于针对当前训练样本进行测试故障鉴定结果的预测,实现当前训练样本针对测试故障鉴定结果进行计算输出概率分布;
需要说明的是,上述待优化的文本分析模型是需要收集获取多个相似且价值较高的训练样本集,受到训练样本中实验数据集较少的影响,其实验数据集均为人工筛选时间条件影响导致训练样本不够丰富;对此应当采用仿真方式模拟出多种故障鉴定结果等数据,但是这样获得的仿真训练样本需要进一步验证和优化。上述文本分析模型可以针对当前训练样本进行测试故障鉴定结果的预测,从而实现当前训练样本针对测试故障鉴定结果进行计算输出概率分布。
获取计算子模块20用于获取仿真方式获得的仿真数据集形成的多个训练样本,然
后将当前多个当前训练样本输入上述文本分析模型中进行测试输出;针对每个仿真训练样
本得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;其中,代表仿真
样本,获取的多个仿真训练样本的数量为M个,且M为多个;
需要说明的是,选择部分实验数据集作为训练样本不够,因此需要仿真方式获得的仿真数据集形成的多个训练样本;上述每个训练样本中数据集反馈到该故障类型可以分为故障1,故障2,故障3等多个多个,从而形成了K个标准目标故障种类的测试故障鉴定结果,且每个测试故障鉴定结果都有对应的输出概率数值。
目标典型样本迭代子模块30用于调用实验验证的测试数据集形成的多种种类的
典型样本;从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试
故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本
中的多个目标典型样本;将多个目标典型样本输入上述文本分析模型中进行测试输出,得
到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;然后根据当前训练样
本以及多个目标典型样本进行各自计算按照对应输出概率分布产生的测试故障鉴定结果
的最小均方误差,针对当前训练样本以及多个目标典型样本各自计算得到的最小均方误差
进行混合排序,在排序时按照最小均方误差由小到大增大方向进行排序得到模型最小均方
误差列表;然后从模型最小均方误差列表中选出含有当前仿真训练样本的前个仿真训
练样本作为当前仿真训练样本的精选样本(即精选样本集合);不断获取计算多个仿真训练
样本的精选样本组合形成实时仿真训练样本集合;
解释说明,初始典型样本较多不便于都进行排序计算,对此通过当前仿真训练样
本基于文本相似度找到初始典型样本中的多个目标典型样本;然后根据当前训练样本以及
多个目标典型样本进行各自计算按照对应输出概率分布产生的测试故障鉴定结果的最小
均方误差,针对当前训练样本以及多个目标典型样本各自计算得到的最小均方误差进行混
合排序(将当前训练样本以及多个目标典型样本混合在一起进行排序);从模型最小均方误
差列表中选出含有当前仿真训练样本的前个仿真训练样本作为当前仿真训练样本的精
选样本,因此分析上述内容可知针对不同的当前训练样本,上述是个动态变化数值;本
发明实施例采用的上述训练样本优化目的是通过合理减少(或是获得合理数量)训练过程
中所需的优选训练样本,从而压缩训练所需的时间,压缩训练样本获得的时间,降低训练成
本。上述模型最小均方误差列表必须含有当前的训练样本,同时需要不断的更新当前仿真
训练样本的精选样本将其填充进去,从而形成更新后的训练样本集合;由上述训练样本集
合进行后续的损失值趋势计算;
条件设置子模块40用于在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型(神经网络)中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;
优化处理子模块50用于文本分析模型收集的多个训练样本的操作过程,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,此时将迭代获得的目标数量个训练样本集合作为最优训练集合。
第二方面,本发明实施例提供了一种存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例一提供的所述方法的步骤。
上述计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。
这里所描述的计可读程序指令可以从可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该可读程序指令,以供存储在各个计算/处理设备中的可读存储介质中。
尽管已经示出和描述了本发明的实施例,本领域技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变形,本发明的范围由权利要求及其等同物限定。
Claims (9)
1.一种卷积神经网络文本分析模型的样本优化训练方法,其特征在于,包括如下操作步骤:
预处理操作:调用待优化的文本分析模型;文本分析模型用于收集多个训练样本直至获得目标数量个训练样本集合以优化该文本分析模型;所述文本分析模型还用于针对训练样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布;
获取仿真训练样本:获取仿真方式获得的仿真数据集形成的多个训练样本,然后将当前多个当前训练样本输入上述文本分析模型中进行测试输出;针对每个仿真训练样本得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;其中,i为仿真训练样本;获取的多个仿真训练样本的数量为M个;
通过典型样本对仿真训练样本进行优化筛选:调用实验验证的测试数据集形成的多种种类的典型样本;从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本;将多个目标典型样本输入上述文本分析模型中进行测试输出,得到输出概率分布生成K个标准目标故障种类的测试故障鉴定结果;然后根据当前训练样本以及多个目标典型样本进行各自计算按照对应输出概率分布产生的测试故障鉴定结果的最小均方误差,针对当前训练样本以及多个目标典型样本各自计算得到的最小均方误差进行混合排序,在排序时按照最小均方误差由小到大增大方向进行排序得到模型最小均方误差列表;然后从模型最小均方误差列表中选出含有当前仿真训练样本的前个仿真训练样本作为当前仿真训练样本的精选样本;不断获取计算多个仿真训练样本的精选样本组合形成实时仿真训练样本集合;
设置优化收集条件:在实时仿真训练样本集合构建的文本分析模型基础上,基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件;模型最小均方误差列表必须含有当前的训练样本;需要不断的更新训练样本集合,将其填充进去形成新的初始典型样本;
完成文本分析模型优化收集操作:文本分析模型收集的多个训练样本的操作过程,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,此时将迭代获得的目标数量个训练样本集合作为最优训练集合。
2.根据权利要求1所述卷积神经网络的样本优化训练方法,其特征在于,从多种种类的典型样本中获取筛选后的同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本,通过当前仿真训练样本基于文本相似度找到初始典型样本中的多个目标典型样本,包括:
筛选多种种类的典型样本,其中不同典型样本各自含有不同数量个标准目标故障种类的测试故障鉴定结果形成的典型样本;仅筛选获取同样含有K个标准目标故障种类的测试故障鉴定结果的初始典型样本;
基于文本相似度进行分析时,提取人工筛选的当前仿真训练样本的特征文本,利用所述特征文本构成基本特征文本;
利用所述基本特征文本在多个初始典型样本中间进行搜索,并计算所述人工筛选的当前仿真训练样本的特征文本与搜索得到的初始典型样本的文本相似度得到相似度实时计算值;
将不符合高相似度阈值条件的初始典型样本进行剔除,将符合高相似度阈值条件的初始典型样本进行保留,以此找到初始典型样本中的多个目标典型样本。
3.根据权利要求2所述卷积神经网络的样本优化训练方法,其特征在于,设置优化收集条件:基于代价函数的变化趋势、文本分析模型中的train loss以及test loss变化趋势设置模型计算的收集收敛条件,包括:
在实时仿真训练样本集合构建的文本分析模型基础上,进行当前模型的仿真训练样本收集同时使用验证集进行验证,同时记录验证集的代价函数,记录当前代价函数的变化趋势,在当前代价函数由上升趋势转为下降趋势时认定当前状态一次优化收集收敛条件;
继续记录当前的仿真模拟次数B,在实时仿真训练样本集合构建的文本分析模型基础上计算train loss以及train loss,在仿真模拟次数B大于Nmin,且当前时刻实时仿真训练样本集合构建的文本分析模型中的train loss不断下降,test loss由趋于不变变成不断下降时则判定满足二次优化收集收敛条件。
4.根据权利要求3所述卷积神经网络的样本优化训练方法,其特征在于,在检测发现不断仿真模拟Q次数后达到预设收集收敛条件,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛过程,包括:
在不断仿真模拟Q次数后,检测发现在进行当前模型的仿真训练样本收集同时满足一次优化收集收敛条件和二次优化收集收敛条件时,则判定当前模型达到收集收敛条件;
停止对当前仿真测试集的收集操作,认定文本分析模型收集含有K个标准目标故障种类的测试故障鉴定结果的训练样本已经完成优化收敛操作;将当前的实时仿真训练样本集合作为最优训练集合。
5.根据权利要求3所述卷积神经网络的样本优化训练方法,其特征在于,所述典型样本包括单位时间周期t时段内的故障频率、故障种类的类型、故障节点的所在位置、单位时间周期t时段内故障频率最高的故障节点的类型、该单位时间周期t时段内故障频率最高的故障节点所在位置构建的信息集合。
6.根据权利要求1所述卷积神经网络的样本优化训练方法,其特征在于,在将迭代获得的目标数量个训练样本集合作为最优训练集合之后,还包括对文本分析模型的batch_size进行设置处理操作:
优先对文本分析模型设置使用ReLU激活函数;
对获取的最优训练集合不断进行训练,计算当前训练误差;如果当前训练误差没有随着迭代次数的增加而变化,则判断ReLU激活函数导致的神经元死亡的判定结果;
更换文本分析模型设置使用leaky ReLU激活函数或者 ELUs激活函数,待当前文本分析模型中的当前训练误差继续变化时则判定当前使用leaky ReLU激活函数或者 ELUs激活函数为目标激活函数。
7.根据权利要求1所述卷积神经网络的样本优化训练方法,其特征在于,所述文本分析模型为ABCNN训练神经网络模型、Keras模型或是RCNN递归卷积神经网络中的任意一种。
8.根据权利要求7所述卷积神经网络的样本优化训练方法,其特征在于,在设置了文本分析模型使用优选的激活函数后,所述文本分析模型接收针对当前测试样本,对接收的当前测试样本进行测试故障鉴定结果的预测,实现当前测试样本针对测试故障鉴定结果进行计算输出概率分布以及计算得到当前输出概率分布的不确定度。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210793398.3A CN115169534A (zh) | 2022-07-07 | 2022-07-07 | 卷积神经网络的样本优化训练方法及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210793398.3A CN115169534A (zh) | 2022-07-07 | 2022-07-07 | 卷积神经网络的样本优化训练方法及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115169534A true CN115169534A (zh) | 2022-10-11 |
Family
ID=83492141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210793398.3A Pending CN115169534A (zh) | 2022-07-07 | 2022-07-07 | 卷积神经网络的样本优化训练方法及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115169534A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115951002A (zh) * | 2023-03-10 | 2023-04-11 | 山东省计量科学研究院 | 一种气质联用仪故障检测装置 |
CN117253238A (zh) * | 2023-11-15 | 2023-12-19 | 全芯智造技术有限公司 | 训练样本的确定、神经网络训练、版图优化方法及装置 |
-
2022
- 2022-07-07 CN CN202210793398.3A patent/CN115169534A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115951002A (zh) * | 2023-03-10 | 2023-04-11 | 山东省计量科学研究院 | 一种气质联用仪故障检测装置 |
CN117253238A (zh) * | 2023-11-15 | 2023-12-19 | 全芯智造技术有限公司 | 训练样本的确定、神经网络训练、版图优化方法及装置 |
CN117253238B (zh) * | 2023-11-15 | 2024-04-02 | 全芯智造技术有限公司 | 训练样本的确定、神经网络训练、版图优化方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2648946C2 (ru) | Способ и устройство распознавания категории объекта изображения | |
CN115169534A (zh) | 卷积神经网络的样本优化训练方法及计算机可读存储介质 | |
CN108681750A (zh) | Gbdt模型的特征解释方法和装置 | |
CN111460250B (zh) | 用于画像的数据的清洗方法、装置、介质及电子设备 | |
CN111401418A (zh) | 一种基于改进Faster r-cnn的员工着装规范检测方法 | |
CN111460164A (zh) | 一种基于预训练语言模型的电信工单智能判障方法 | |
CN113222149A (zh) | 模型训练方法、装置、设备和存储介质 | |
CN112613569A (zh) | 图像识别方法、图像分类模型的训练方法及装置 | |
CN113704389A (zh) | 一种数据评估方法、装置、计算机设备及存储介质 | |
CN114139636B (zh) | 异常作业处理方法及装置 | |
CN116380438A (zh) | 一种故障诊断方法、装置、电子设备及存储介质 | |
CN110825642A (zh) | 一种基于深度学习的软件代码行级缺陷检测方法 | |
CN117290719B (zh) | 基于数据分析的巡检管理方法、装置及存储介质 | |
CN114329022A (zh) | 一种色情分类模型的训练、图像检测方法及相关装置 | |
CN111460206B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN117437471A (zh) | 基于多尺度卷积神经网络的油气管道漏磁检测方法和系统 | |
CN111738290A (zh) | 图像检测方法、模型构建和训练方法、装置、设备和介质 | |
CN114077663A (zh) | 应用日志的分析方法及装置 | |
CN116595543A (zh) | 一种基于互联网平台用软件开发应用数据的处理系统 | |
CN109739840A (zh) | 数据空值处理方法、装置及终端设备 | |
CN116842936A (zh) | 关键词识别方法、装置、电子设备和计算机可读存储介质 | |
CN114912549A (zh) | 风险交易识别模型的训练方法、风险交易识别方法和装置 | |
CN115687034A (zh) | 一种业务系统平面可用性判定方法和装置 | |
CN111797905A (zh) | 基于正负样本采样比和模型微调的目标检测优化方法 | |
CN117333493B (zh) | 一种基于机器视觉的显示器底座生产用检测系统以及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20221011 |
|
WD01 | Invention patent application deemed withdrawn after publication |