CN113033697A - 一种基于批量归一化层的模型自动评估方法及装置 - Google Patents

一种基于批量归一化层的模型自动评估方法及装置 Download PDF

Info

Publication number
CN113033697A
CN113033697A CN202110403483.XA CN202110403483A CN113033697A CN 113033697 A CN113033697 A CN 113033697A CN 202110403483 A CN202110403483 A CN 202110403483A CN 113033697 A CN113033697 A CN 113033697A
Authority
CN
China
Prior art keywords
model
training
evaluated
module
batch normalization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110403483.XA
Other languages
English (en)
Other versions
CN113033697B (zh
Inventor
解皓楠
罗浩
姜伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110403483.XA priority Critical patent/CN113033697B/zh
Publication of CN113033697A publication Critical patent/CN113033697A/zh
Application granted granted Critical
Publication of CN113033697B publication Critical patent/CN113033697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明一种基于批量归一化层的模型自动评估方法及装置,首先在第一次训练完成后提取模型第四个模块的批量归一化层参数作为衡量的基准;之后将模型在需要评估的无标签的测试数据集上进行第二次训练,第二次训练过程中非批量归一化层的参数无需更新,不需要梯度反传,只需更新批量归一化层的均值和方差这两个参数;第二次训练完成后,同样提取第二次训练后的模型第四个模块的批量归一化层参数;将第一次训练得到的基准的参数和在新的测试集上第二次训练后提取的参数分别作高斯归一化,再计算两组参数的欧氏距离,将该距离用来评估无标签测试集在原模型上的精度。

Description

一种基于批量归一化层的模型自动评估方法及装置
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于批量归一化层的模型自动评估方法及装置。
背景技术
目标重识别包括行人重识别和车辆重识别,旨在一系列跨摄像头的监控视频中,检索到用户指定的行人或车辆,该技术广泛应用于智慧城市,安防监控等领域。
为了解决目标重识别任务,基于深度学习的方法通常需要数据集来对模型进行训练和测试。用于训练模型的称为训练集,用于测试模型准确性的称为测试集。为了计算模型的准确性,通常需要一个由测试样本图像及其真实标签组成的测试集。尽管使用标准的测试用例可以满足此要求,但是在实际应用场景中,测试数据的样本容量非常大,如果由人工标记数据需要消耗大量的人力物力。所以许多实际场景都包含未标记的测试数据,从而使通用的模型评估方法不可行,因此引发了模型自动评估方法的研究。
附图说明
图1是本发明流程示意图。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于批量归一化层的模型自动评估方法及装置。
本发明的目的是通过以下技术方案来实现的:一种基于批量归一化层的模型自动评估方法,包括以下步骤:
(1)在带标签的第一数据集上训练待评估模型,训练完成后提取待评估模型第四个模块的批量归一化层参数,并做高斯归一化。
(2)利用多个带标签的第二数据集,测试步骤(1)训练好的待评估模型的精度,得到多个第二数据集对应的模型精度。
(3)再次利用步骤(2)的多个第二数据集,分别对步骤(1)训练好的待评估模型进行虚拟训练,其中网络只进行前向传播,无需利用标签计算梯度的反向传播,且虚拟训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差;虚拟训练完成后,保存模型第四个模块的批量归一化层参数,并做高斯归一化。
(4)计算步骤(3)和(1)高斯归一化后参数的欧氏距离。
(5)采用神经网络拟合,多个第二数据集对应的,步骤(4)得到的欧氏距离和步骤(2)得到的模型精度之间的关系。欧氏距离为网络输入,模型精度为网络输出,进行训练。
(6)将用于评估模型的无标签数据集根据步骤(3)对步骤(1)中训练好的待评估模型进行虚拟训练,训练完成后,保存模型第四个模块的批量归一化层参数并做高斯归一化,再与步骤(1)高斯归一化后的参数计算欧氏距离。
(7)将步骤(6)计算的欧氏距离,输入步骤(5)训练好的神经网络,输出为无标签数据集在步骤(1)中训练好的待评估模型上的估计精度。
进一步地,所述待评估模型具体为:以ResNet50为骨干网络;将ResNet50最后一次降采样的步长设置为1;在ResNet50最后一个平均池化层和全连接层之间加入批量归一化层。
进一步地,训练待评估模型的损失函数具体为:用全连接层之后的特征计算交叉熵分类损失LID;用最后一个批量归一化层之后的特征计算基于难样本挖掘的三元组损失Lt;最终总的损失函数L=LID+Lt
进一步地,多个第二数据集由两个初始数据集经过如下变换生成:
(2.1)两个初始数据集都分为训练集和测试集。
(2.2)对两个初始数据集的测试集分别做多次不同的线性变换得到多个新测试集。
(2.3)将一个初始数据集的训练集作为源域,另一个初始数据集的训练集作为目标域,分别训练一个cycleGAN网络和一个SPGAN网络;再将两个初始数据集的测试集分别输入训练好的两个GAN网络,对应生成四个新测试集。
(2.4)对步骤(2.3)中生成的四个新测试集分别做多次不同的线性变换得到多个新测试集。
(2.5)步骤(2.2)、(2.3)和(2.4)生成的新测试集,作为所需的多个第二数据集。
进一步地,所述线性变换由高斯噪声、椒盐噪声、仿射变换、随机擦除等中的一个或多个组成。
进一步地,步骤(3)中虚拟训练的训练次数为5个epoch。
进一步地,步骤(5)中的神经网络为BP神经网络。
进一步地,所述BP神经网络具体为:由两个全连接层构成,隐层有10个节点,输出层有1个节点;隐层和输出层之间加入ReLU激活函数。
进一步地,带标签的数据集均由图像及图像的标签构成。
一种基于批量归一化层的模型自动评估装置,具体为:
数据接收与存储模块:用户通过该模块上传数据集、待评估模型和拟合用的神经网络,并存储。
待评估模型训练模块:用户从数据接收与存储模块调用带标签的第一数据集和待评估模型,在带标签的第一数据集上训练待评估模型,训练完成后提取待评估模型第四个模块的批量归一化层参数,并做高斯归一化。
神经网络拟合模块:首先,从数据接收与存储模块调用带标签的第二数据集,利用多个带标签的第二数据集,测试待评估模型训练模块训练好的待评估模型的精度,得到多个第二数据集对应的模型精度。然后,再次利用多个第二数据集,分别对待评估模型训练模块训练好的待评估模型进行虚拟训练,其中网络只进行前向传播,无需利用标签计算梯度的反向传播,且虚拟训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差;虚拟训练完成后,保存模型第四个模块的批量归一化层参数,并做高斯归一化。接着,计算待评估模型训练模块高斯归一化后参数和虚拟训练后模型对应的高斯归一化后参数的欧氏距离。最后,从数据接收与存储模块调用拟合用的神经网络,采用神经网络拟合欧氏距离和模型精度之间的关系。欧氏距离为网络输入,模型精度为网络输出,进行训练。
模型精度评估模块:从数据接收与存储模块调用无标签数据集,用无标签数据集对待评估模型训练模块训练好的待评估模型进行和神经网络拟合模块中一样的虚拟训练,训练完成后,保存模型第四个模块的批量归一化层参数并做高斯归一化,再与待评估模型训练模块高斯归一化后参数计算欧氏距离;再将计算的欧氏距离,输入神经网络拟合模块训练好的神经网络,输出为无标签数据集在待评估模型训练模块训练好的待评估模型上的估计精度,用户获得输出。
本发明的有益效果是:本发明利用模型之间批量归一化层参数的差异来估计模型精度,可以根据没有标签的测试数据集直接估计模型的准确性,从而判断该测试集适不适合采用这个模型,节省数据标注的人力物力时间等。
具体实施方式
本发明一种基于批量归一化层的模型自动评估方法及装置,首先在第一次训练完成后提取模型第四个模块的批量归一化层参数作为衡量的基准;之后将模型在需要评估的无标签的测试数据集上进行第二次训练,第二次训练过程中非批量归一化层的参数无需更新,不需要梯度反传,只需更新批量归一化层的均值和方差这两个参数;第二次训练完成后,同样提取第二次训练后的模型第四个模块的批量归一化层参数;将第一次训练得到的基准的参数和在新的测试集上第二次训练后提取的参数分别作高斯归一化,再计算两组参数的欧氏距离,将该距离用来评估无标签测试集在原模型上的精度。
本发明的实施例中,market1501数据集是行人重识别领域最常用的数据集,该数据集共有32668张行人图片,分别属于1501个行人ID,并同时包括了训练集和测试集。DukeMTMC-reID是DukeMTMC数据集的行人重识别子集,包含36411张图像,一共有1404个行人。数据集market1501、DukeMTMC-reID、msmt17同属行人重识别领域,数据集veri776属于车辆重识别领域。
如图1所示,本发明一种基于批量归一化层的模型自动评估方法,具体包括以下步骤:
步骤一、搭建用于训练的神经网络,具体为:
(11)将ResNet50作为骨干网络。
(12)将ResNet50最后一次降采样的步长设置为1。
(13)在ResNet50最后一个平均池化层和全连接层之间加入批量归一化层。
步骤二、在market1501数据集上训练步骤一搭建的神经网络,在第一次训练完成后提取模型第四个模块的批量归一化层参数作为衡量的基准参数,并将第一次训练得到的基准参数做高斯归一化;具体为:
(21)将market1501训练集分为若干个batch,在每一个batch里随机挑选K张图像输入步骤一搭建的神经网络,训练标签为行人的ID。
(22)用全连接层之后的特征计算交叉熵分类损失LID
(23)用最后一个批量归一化层之后的特征计算基于难样本挖掘的三元组损失Lt
(24)最终总的损失函数L=LID+Lt
(25)在模型训练完成后,保存模型第四个模块layer4中的批量归一化层参数,并做高斯归一化。
步骤三、生成多个测试集,得到不同测试集对应的模型精度和高斯归一化后的批量归一化层参数,计算第二次训练提取的参数和第一次训练的基准参数高斯归一化后的欧氏距离;具体为:
(31)对market1501和DukeMTMC-reID的测试集做变换,生成多个新测试集,具体为:
(311)对原测试集(market1501和DukeMTMC-reID的测试集)分别做多次不同的线性变换得到多个新测试集,所述线性变换选择高斯噪声、椒盐噪声、仿射变换、随机擦除中的一个或多个。
(312)将DukeMTMC-reID的训练集作为源域,market1501的训练集作为目标域,训练一个cycleGAN循环生成对抗网络和SPGAN网络(similarity preserving GAN);将原测试集(market1501和DukeMTMC-reID的测试集)分别输入训练好的这两个GAN网络,对应生成四个新测试集。使用GAN的目的是对测试集做非线性变换,以增加测试集的多样性。
(313)分别对(312)中生成的四个新测试集做多次不同的线性变换得到多个新测试集,所述线性变换选择高斯噪声、椒盐噪声、仿射变换、随机擦除中的一个或多个。
(32)利用步骤(31)中生成的多个新测试集(不包含原始测试集)分别测试步骤二中训练好的模型的精度,得到不同新测试集对应的模型精度。
(33)利用步骤(31)中生成的多个新测试集(不包含原始测试集)分别对步骤二中训练好的模型进行虚拟的第二次训练,网络只进行前向传播,无需利用标签计算梯度的反向传播,第二次训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差这两个参数,训练次数为5个epoch。训练完成后,保存模型第四个模块layer4中的批量归一化层参数并做高斯归一化。
(34)计算步骤(33)高斯归一化后的模型批量归一化层参数,与步骤(25)高斯归一化后的模型批量归一化层参数的欧氏距离;该距离用来评估无标签测试集在原模型上的精度。
步骤四、对步骤三中两模型批量归一化层的欧氏距离,和测试集对应的模型精度之间的关系做神经网络回归拟合,具体为:
(41)搭建一个由两个全连接层构成的BP(back propagation)神经网络,隐层有10个节点,输出层有1个节点;隐层和输出层之间加入ReLU激活函数。
(42)将步骤(34)中计算的两模型批量归一化层的欧氏距离作为输入,步骤(32)得到的不同新测试集对应的模型精度作为输出,训练步骤(41)搭建的BP神经网络,拟合欧氏距离和模型精度之间的关系。
步骤五,应用阶段具体为:
(51)将数据集market1501、DukeMTMC-reID、msmt17、veri776中的测试集(需要评估的无标签的测试数据集),输入步骤二中训练好的模型进行虚拟的第二次训练,网络只进行前向传播,无需利用标签计算梯度的反向传播,只需更新批量归一化层的均值和方差这两个参数,训练次数为5个epoch。训练完成后,保存模型第四个模块layer4中的批量归一化层参数并做高斯归一化,之后与步骤(25)高斯归一化后的模型批量归一化层参数,计算欧氏距离。
(52)将步骤(51)计算的欧氏距离,输入步骤四训练好的BP神经网络,输出为待测无标签测试集在步骤二第一次训练后的模型上的估计精度。
真实的rank-1、mAP和自动评估的rank-1、mAP精度如表1所示。由表1可以看到,模型自动评估的精度与真实精度之间的差异在1%-5%之间,说明本发明的模型自动评估方法可以对测试集的精度做出比较准确的评估。
表1:真实精度和模型自动评估精度对比
测试集 Market1501 DukeMTMC-reID Msmt17 Veri776
真实rank-1(%) 93.7 35.6 12.4 31.0
评估rank-1(%) 96.4 33.1 13.8 29.8
真实mAP(%) 84.5 21.6 4.3 10.9
评估mAP(%) 83.9 17.9 5.0 9.9
本发明一种基于批量归一化层的模型自动评估装置,具体为:
数据接收与存储模块:用户通过该模块上传数据集、待评估模型和拟合用的神经网络,并存储。
待评估模型训练模块:用户从数据接收与存储模块调用带标签的第一数据集和待评估模型,在带标签的第一数据集上训练待评估模型,训练完成后提取待评估模型第四个模块的批量归一化层参数,并做高斯归一化。
神经网络拟合模块:首先,从数据接收与存储模块调用带标签的第二数据集,利用多个带标签的第二数据集,测试待评估模型训练模块训练好的待评估模型的精度,得到多个第二数据集对应的模型精度。然后,再次利用多个第二数据集,分别对待评估模型训练模块训练好的待评估模型进行虚拟训练,其中网络只进行前向传播,无需利用标签计算梯度的反向传播,且虚拟训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差;虚拟训练完成后,保存模型第四个模块的批量归一化层参数,并做高斯归一化。接着,计算待评估模型训练模块高斯归一化后参数和虚拟训练后模型对应的高斯归一化后参数的欧氏距离。最后,从数据接收与存储模块调用拟合用的神经网络,采用神经网络拟合欧氏距离和模型精度之间的关系。欧氏距离为网络输入,模型精度为网络输出,进行训练。
模型精度评估模块:从数据接收与存储模块调用无标签数据集,用无标签数据集对待评估模型训练模块训练好的待评估模型进行和神经网络拟合模块中一样的虚拟训练,训练完成后,保存模型第四个模块的批量归一化层参数并做高斯归一化,再与待评估模型训练模块高斯归一化后参数计算欧氏距离;再将计算的欧氏距离,输入神经网络拟合模块训练好的神经网络,输出为无标签数据集在待评估模型训练模块训练好的待评估模型上的估计精度,用户获得输出。
以上所述仅是本发明的优选实施方式,应当指出:对于本领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于批量归一化层的模型自动评估方法,其特征在于,包括以下步骤:
(1)在带标签的第一数据集上训练待评估模型,训练完成后提取待评估模型第四个模块的批量归一化层参数,并做高斯归一化。
(2)利用多个带标签的第二数据集,测试步骤(1)训练好的待评估模型的精度,得到多个第二数据集对应的模型精度。
(3)再次利用步骤(2)的多个第二数据集,分别对步骤(1)训练好的待评估模型进行虚拟训练,其中网络只进行前向传播,无需利用标签计算梯度的反向传播,且虚拟训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差;虚拟训练完成后,保存模型第四个模块的批量归一化层参数,并做高斯归一化。
(4)计算步骤(3)和(1)高斯归一化后参数的欧氏距离。
(5)采用神经网络拟合,多个第二数据集对应的,步骤(4)得到的欧氏距离和步骤(2)得到的模型精度之间的关系。欧氏距离为网络输入,模型精度为网络输出,进行训练。
(6)将用于评估模型的无标签数据集根据步骤(3)对步骤(1)中训练好的待评估模型进行虚拟训练,训练完成后,保存模型第四个模块的批量归一化层参数并做高斯归一化,再与步骤(1)高斯归一化后的参数计算欧氏距离。
(7)将步骤(6)计算的欧氏距离,输入步骤(5)训练好的神经网络,输出为无标签数据集在步骤(1)中训练好的待评估模型上的估计精度。
2.如权利要求1所述基于批量归一化层的模型自动评估方法,其特征在于,所述待评估模型具体为:以ResNet50为骨干网络;将ResNet50最后一次降采样的步长设置为1;在ResNet50最后一个平均池化层和全连接层之间加入批量归一化层。
3.如权利要求2所述基于批量归一化层的模型自动评估方法,其特征在于,训练待评估模型的损失函数具体为:用全连接层之后的特征计算交叉熵分类损失LID;用最后一个批量归一化层之后的特征计算基于难样本挖掘的三元组损失Lt;最终总的损失函数L=LID+Lt
4.如权利要求1所述基于批量归一化层的模型自动评估方法,其特征在于,多个第二数据集由两个初始数据集经过如下变换生成:
(2.1)两个初始数据集都分为训练集和测试集。
(2.2)对两个初始数据集的测试集分别做多次不同的线性变换得到多个新测试集。
(2.3)将一个初始数据集的训练集作为源域,另一个初始数据集的训练集作为目标域,分别训练一个cycleGAN网络和一个SPGAN网络;再将两个初始数据集的测试集分别输入训练好的两个GAN网络,对应生成四个新测试集。
(2.4)对步骤(2.3)中生成的四个新测试集分别做多次不同的线性变换得到多个新测试集。
(2.5)步骤(2.2)、(2.3)和(2.4)生成的新测试集,作为所需的多个第二数据集。
5.如权利要求4所述基于批量归一化层的模型自动评估方法,其特征在于,所述线性变换由高斯噪声、椒盐噪声、仿射变换、随机擦除等中的一个或多个组成。
6.如权利要求1所述基于批量归一化层的模型自动评估方法,其特征在于,步骤(3)中虚拟训练的训练次数为5个epoch。
7.如权利要求1所述基于批量归一化层的模型自动评估方法,其特征在于,步骤(5)中的神经网络为BP神经网络。
8.如权利要求7所述基于批量归一化层的模型自动评估方法,其特征在于,所述BP神经网络具体为:由两个全连接层构成,隐层有10个节点,输出层有1个节点;隐层和输出层之间加入ReLU激活函数。
9.如权利要求1所述基于批量归一化层的模型自动评估方法,其特征在于,带标签的数据集均由图像及图像的标签构成。
10.一种基于权利要求1-9任一项所述方法的模型自动评估装置,其特征在于,具体为:
数据接收与存储模块:用户通过该模块上传数据集、待评估模型和拟合用的神经网络,并存储。
待评估模型训练模块:从数据接收与存储模块调用带标签的第一数据集和待评估模型,在带标签的第一数据集上训练待评估模型,训练完成后提取待评估模型第四个模块的批量归一化层参数,并做高斯归一化。
神经网络拟合模块:首先,从数据接收与存储模块调用带标签的第二数据集,利用多个带标签的第二数据集,测试待评估模型训练模块训练好的待评估模型的精度,得到多个第二数据集对应的模型精度。然后,再次利用多个第二数据集,分别对待评估模型训练模块训练好的待评估模型进行虚拟训练,其中网络只进行前向传播,无需利用标签计算梯度的反向传播,且虚拟训练过程中非批量归一化层的参数无需更新,只需更新批量归一化层的均值和方差;虚拟训练完成后,保存模型第四个模块的批量归一化层参数,并做高斯归一化。接着,计算待评估模型训练模块高斯归一化后参数和虚拟训练后模型对应的高斯归一化后参数的欧氏距离。最后,从数据接收与存储模块调用拟合用的神经网络,采用神经网络拟合欧氏距离和模型精度之间的关系。欧氏距离为网络输入,模型精度为网络输出,进行训练。
模型精度评估模块:从数据接收与存储模块调用无标签数据集,用无标签数据集对待评估模型训练模块训练好的待评估模型进行和神经网络拟合模块中一样的虚拟训练,训练完成后,保存模型第四个模块的批量归一化层参数并做高斯归一化,再与待评估模型训练模块高斯归一化后参数计算欧氏距离;再将计算的欧氏距离,输入神经网络拟合模块训练好的神经网络,输出为无标签数据集在待评估模型训练模块训练好的待评估模型上的估计精度,用户获得输出。
CN202110403483.XA 2021-04-15 2021-04-15 一种基于批量归一化层的模型自动评估方法及装置 Active CN113033697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110403483.XA CN113033697B (zh) 2021-04-15 2021-04-15 一种基于批量归一化层的模型自动评估方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110403483.XA CN113033697B (zh) 2021-04-15 2021-04-15 一种基于批量归一化层的模型自动评估方法及装置

Publications (2)

Publication Number Publication Date
CN113033697A true CN113033697A (zh) 2021-06-25
CN113033697B CN113033697B (zh) 2022-10-04

Family

ID=76456723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110403483.XA Active CN113033697B (zh) 2021-04-15 2021-04-15 一种基于批量归一化层的模型自动评估方法及装置

Country Status (1)

Country Link
CN (1) CN113033697B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114859351A (zh) * 2022-06-10 2022-08-05 重庆地质矿产研究院 一种基于神经网络的地表形变场异常检测的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549844A (zh) * 2018-03-22 2018-09-18 华侨大学 一种基于多层分形网络和关节亲属模式的多人姿态估计方法
CN110276394A (zh) * 2019-06-21 2019-09-24 扬州大学 一种小样本下基于深度学习的电力设备分类方法
CN111314733A (zh) * 2020-01-20 2020-06-19 北京百度网讯科技有限公司 用于评估视频清晰度的方法和装置
CN112418127A (zh) * 2020-11-30 2021-02-26 浙江大学 一种用于视频行人重识别的视频序列编码与解码方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549844A (zh) * 2018-03-22 2018-09-18 华侨大学 一种基于多层分形网络和关节亲属模式的多人姿态估计方法
CN110276394A (zh) * 2019-06-21 2019-09-24 扬州大学 一种小样本下基于深度学习的电力设备分类方法
CN111314733A (zh) * 2020-01-20 2020-06-19 北京百度网讯科技有限公司 用于评估视频清晰度的方法和装置
CN112418127A (zh) * 2020-11-30 2021-02-26 浙江大学 一种用于视频行人重识别的视频序列编码与解码方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAO LUO 等: "A Strong Baseline and Batch Normalization Neck for Deep Person Re-Identification", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *
朱建清等: "基于新型三元卷积神经网络的行人再辨识算法", 《电子与信息学报》 *
熊炜等: "基于深层特征融合的行人重识别方法", 《计算机工程与科学》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114859351A (zh) * 2022-06-10 2022-08-05 重庆地质矿产研究院 一种基于神经网络的地表形变场异常检测的方法

Also Published As

Publication number Publication date
CN113033697B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
CN110443969B (zh) 一种火点检测方法、装置、电子设备及存储介质
CN110533086B (zh) 图像数据半自动标注方法
CN111126134B (zh) 基于非指纹信号消除器的雷达辐射源深度学习识别方法
CN108197668A (zh) 模型数据集的建立方法及云系统
CN113221987A (zh) 一种基于交叉注意力机制的小样本目标检测方法
CN113269224A (zh) 一种场景图像分类方法、系统及存储介质
CN104915436A (zh) 自适应多标签预测方法
CN113033697B (zh) 一种基于批量归一化层的模型自动评估方法及装置
CN113569852A (zh) 语义分割模型的训练方法、装置、电子设备及存储介质
CN114626476A (zh) 基于Transformer与部件特征融合的鸟类细粒度图像识别方法及装置
CN115830399A (zh) 分类模型训练方法、装置、设备、存储介质和程序产品
CN112085001B (zh) 一种基于多尺度边缘特征检测的隧道识别模型及方法
CN113516652A (zh) 电池表面缺陷和粘合剂检测方法、装置、介质和电子设备
CN113780335B (zh) 一种小样本商品图像分类方法、装置、设备及存储介质
CN113723431B (zh) 图像识别方法、装置以及计算机可读存储介质
CN113627522B (zh) 基于关系网络的图像分类方法、装置、设备及存储介质
CN113449631A (zh) 图像分类方法及系统
CN113313079B (zh) 一种车辆属性识别模型的训练方法、系统及相关设备
CN111860258A (zh) 基于三维卷积神经网络的考场全局事件检测方法及系统
Benyacoub et al. Building classification models for customer credit scoring
CN109934219B (zh) 一种判断网络餐饮商家证照缺失的方法
CN114742893B (zh) 一种基于深度学习的3d激光数据训练与快速定位方法
Mzembegwa et al. A Comparison of Fully-Linear Deep Learning Methods for Pipe Burst Localization in Water Distribution Networks
CN115457540B (zh) 点云目标检测模型的构建方法、目标检测标注方法及装置
CN116229210B (zh) 目标检测模型训练方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant