WO2022252272A1 - 一种基于迁移学习的改进vgg16网络猪的身份识别方法 - Google Patents

一种基于迁移学习的改进vgg16网络猪的身份识别方法 Download PDF

Info

Publication number
WO2022252272A1
WO2022252272A1 PCT/CN2021/099162 CN2021099162W WO2022252272A1 WO 2022252272 A1 WO2022252272 A1 WO 2022252272A1 CN 2021099162 W CN2021099162 W CN 2021099162W WO 2022252272 A1 WO2022252272 A1 WO 2022252272A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
network
vgg16
pig
improved
Prior art date
Application number
PCT/CN2021/099162
Other languages
English (en)
French (fr)
Inventor
朱伟兴
汤志烨
李新城
Original Assignee
江苏大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 江苏大学 filed Critical 江苏大学
Priority to GB2219795.8A priority Critical patent/GB2611257B/en
Publication of WO2022252272A1 publication Critical patent/WO2022252272A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Definitions

  • a 3*3 convolution kernel is used, and two 3*3 convolution kernels are equivalent to a 5*5 convolution kernel.
  • the step size is 1, and there is no padding.
  • Each layer of the neural network may be trained in one direction, which may lead to overfitting, while the mini-batch of the BN layer will associate all samples together, and the output of the same sample no longer depends only on In the sample itself, it also depends on other samples belonging to the same batch as this sample, and each network randomly selects batches, so that the entire network will not train and learn in one direction, which also prevents overfitting.
  • the recognition accuracy of adding BN layer is higher than that of not adding BN layer.
  • the BN layer can speed up the training speed of the entire network, and at the same time improve the generalization ability of the network, so that we can use a larger learning rate to train the network without worrying about the problem of gradient disappearance.
  • the step (3) improves the particle swarm optimization algorithm by optimizing the weight in real time according to the number of iterations, improving the global search capability of the algorithm; and adding an offset so that the weight will not disappear.
  • the loss function is a weighted fusion of the cross-entropy loss function and the mean square error loss function.
  • the weighted value has been optimized by the G-IFPSO algorithm, and the optimal weight value can be obtained through iteration.
  • the improvement of particle swarm algorithm is the improvement of speed weight and elite particles, and Gaussian disturbance is added, so that the weight is always changing and will not disappear, thereby improving the ability of global search, and solving the problem of easy falling into local optimum The problem.
  • the feature extraction module of VGG16 is migrated to the pig identification network Pig-Vgg16 to improve the efficiency of the entire network, and at the same time, it does not need to train the module repeatedly, saving time.
  • the last fully connected layer is replaced by a convolutional layer, so that the entire network can capture pictures of different scales and realize the scale freedom of the entire network.
  • Figure 3 is the Kirsch mask operator
  • Figure 8 is a comparison chart of the experimental results.
  • Multi Block Improved Absolute Difference Local Direction Pattern referred to as MB ⁇ IADLDP. It is used for traditional feature extraction of pigs, providing feature information for feature fusion and pig identification.
  • Claim 4 The improvement of the step (3) according to claim 1 to the particle swarm optimization algorithm is to add Gaussian perturbation to the optimal particle, so that the following particles are all learning towards the neighborhood of the optimal particle, rather than towards the optimal particle. Optimal particle learning, so as to solve the problem that the traditional particle swarm optimization algorithm is easy to fall into local optimum.
  • the formula of the improved particle swarm optimization algorithm is as follows:
  • step (4) training process specifically comprises: the value of the dropout in training process is set to 0.65, and its purpose is to prevent the generation of overfitting phenomenon; The dimension is adjusted to 224*224*3; the loss function selects the cross entropy loss function and the mean square error loss function, and performs weighted fusion of these two functions.
  • the weighting formula is shown in formula (5).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于迁移学习的改进VGG16网络猪的身份识别方法。先对处理好的视频进行逐帧提取,获得一系列图片,这些经过预处理成数据集,然后再进行划分训练集和测试集;构建改进的VGG16网络训练模型BN‐VGG16,保存预训练的特征提取模型Pre‐VGG16;接下来就是迁移学习过程,把源域训练获得的Pre‐VGG16特征提取网络迁移到用来识别猪的Pig‐Vgg16网络中;对调整尺寸后的数据集进行多分块改进的绝对值差分局部方向模式(Multi Block Improve Absolute Difference Local Direction Pattern,简称MB‐IADLDP)特征提取,并进行串行融合,最后进行猪的身份识别。基于迁移学习的改进VGG16模型在运行速度和精度上都优于传统的VGG16网络模型。

Description

一种基于迁移学习的改进VGG16网络猪的身份识别方法 技术领域
本发明涉及人工智能技术,尤其涉及迁移学习、深度学习和神经网络的技术领域。
背景技术
随着大数据时代的兴起,神经网络也发展起来了。最初的神经网络只是单单的单层感知器,也就是基础神经网络,基础神经网络还有Hopfield神经网络、线性神经网络和BP神经网络。经过阶段性的发展,玻尔兹曼机,受限玻尔兹曼机,递归神经网络等出现了。现在,神经网络有了阶段性的成果,到了深度神经网络阶段了,主要有深度置信网络,卷积神经网络,深度残差网络,LSTM网络等。深度神经网络有着强大的表征能力,但是参数很多计算量大,近期研究主要是朝着降低参数量,学习更加丰富的特征和加快训练速度迈进。神经网络应用也非常广泛,如人脸识别、身份识别、无人驾驶等,可见神经网络的灵活性非常之高,可以适应多种任务。对于身份识别方面,好多网络模型都能用,比如VGG16、VGG19、Alexnet、Googlenet,Resnet等,但是模型的选用要根据实际情况,就像对猪的身份识别,VGG16的深度以及计算量就够了,用更深层次的模型就显得没有必要了。实际实验仿真的时候,我们会遇到数据集不充足、模型需要反复利用的情况,这时迁移学习就应运而生了,迁移学习可以简化计算量,提高运行效率,应用在猪的身份识别上有着很好的效果。
发明内容
本发明所解决的技术问题在于提供了一种基于迁移学习的改进VGG16网络猪的身份识别方法。
神经网络发展到现在,经过不断的改进以及模型的优化,已经到深度神经网络阶段了,典型网络模型的应用也比较广泛了,针对现有的深度神经网络在猪的身份识别上面的研究方法,本发明通过提出一种基于迁移学习的改进VGG16网络的方法对猪进行身份识别。2014年,ImageNet Large Scale Visual Recognition Challenge比赛上,牛津大学计算机视觉实验室提出了VGG卷积神经网络的结构, 比赛最终结果是定位是第一名,分类得了第二名。由此可见,VGG系列模型在身份识别和特征提取上的优势很大。
下面我介绍下传统的VGG16模型:
传统的VGG16模型如图4所示,有2个包含64个卷积核的卷积层,2个包含128个卷积核的卷积层,3个包含256个卷积核的卷积层,6个包含512个卷积核的卷积层,2个包含4096个神经元的全连接层,1个包含1000个神经元的全连接层,输入图像的维度控制在224*224*3。
卷积层:模仿人的局部感知,人的大脑在识别图片时,是对一幅图片中的某一个特征进行感知,然后再更进一步进行综合操作,从而得到全局信息。具体来说,传统神经网络的每个神经元都需要连接每个像素,这样的结果就是权重数量巨大,训练难度大,现在卷积层的每个神经元的权重个数都是卷积核的大小,这样也就是说没有神经元只和相对应的部分像素相连接,从而减少权重的数量,提高训练效率,同时我们也可以根据需要设定卷积核的大小与步长,是的效率最大化。本发明中用的是3*3的卷积核,两个3*3的卷积核相当于一个5*5的卷积核,假设图片是224*224的,步长为1,无填充,根据卷积计算公式(n+2*p‐f)/q+1,其中n是图片尺度,p为填充值,f为卷积核大小,q为步长,5*5的卷积结果为224‐5+1=220,两次3*3卷积结果也为220,两次结果一样,但是一个5*5卷积的计算量为5*5*通道数=25*通道数,而两个3*3卷积的计算量为3*3*通道数*2=18*通道数,也就是说计算量5*5的卷积明显大很多。同理,我们可以用三个3*3的卷积核来替代一个7*7的卷积核。总的来说,3*3的卷积核相对于5*5和7*7的来说有以下优势:(1)计算速度快,效率高。(2)取得的感受野是一样的。(3)3*3的卷积核相对于一个大尺寸的卷积核来说有更多的非线性效果。
池化层:池化层一般在卷积层之后,主要起到降维的作用。因为经过卷积后,网络提取和很多的特征信息,不乏有一些相似的可以互相替代的信息,如果都保留的话就大大提高了信息的冗余程度,也会让计算的难度增加,池化层正好能解决这个问题。池化主要有两个方法,一个是最大池化,另一个是均值池化,最大池化层可以更好地保留图像的纹理信息,平均池化层可以让图像的局部空间信息得以保留,本发明中就用到了最大池化层和均值池化层相结合的策略,把最大池化层换成最大池化层和平均池化层的结合可以提高特征提取的精度,从而提高身 份识别的精度。
全连接层:全连接层常常放在最后一层中,主要起到特征加权的作用。本发明中把最后的全连接层由卷积层来替代,替换规则是卷积核大小设置为输入空间的大小,这样就可以接受任意大小的图片输入,同时CNN共享了大量计算,提高了整个网络的运行效率。
本发明还在每个最大池化层后面加上了BN层。BN层有以下优势:(1)训练速度得到加快,这样我们就可以使用较大的学习率来训练网络。(2)网络的泛化能力得到提高。(3)BN层从本质上说就是一个归一化网络层,所以可局部响应归一化层可由它来替代。
随着深度学习的应用越来越广泛,我们对精度的要求也越来越高,但是高精度依赖大量的标注数据或者是图像,标注过程是十分耗时耗力的,迁移学习就能很好的解决这个问题,所以迁移学习受到越来越多的关注。我们用的只要是基于特征的迁移,这个方法主要关注的是如何找出源领域与目标领域之间共同的特征表示,然后利用这些特征进行知识迁移。
权利要求1、一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,包括以下步骤:
(1)根据视频进行逐帧提取,再进行翻转、裁剪、对比度增强等操作得到扩充后的数据集,然后进行测试集和训练集的划分;
(2)将每个池化层后添加BN层构建改进网络层后的BN‐VGG16模型,使得对粗降维后的结果再进行精细化降维,提高整个网络的精度;另一方面,便于我们使用较大的学习率来训练网络,也不用担心梯度消失问题的发生,提高网络的训练速度。采用改进后的BN‐VGG16模型自动提取猪的深度特征,即猪的颜色、纹理、形状等特征,为最后猪的身份识别做好准备。
(3)本专利将现有的粒子群算法改进为高斯‐改良因子粒子群算法(Gaussian‐Improvement factor particle swarm optimization,简称G‐IFPSO)。第一点改进之处是在最优粒子中添加了高斯扰动,使得接下来的粒子都向着最优粒子的邻域进行学习,避免陷入局部最优,提高了猪的身份识别的精度。第二点改进之处是对速度权重根据迭代次数实时优化,提高了算法的全局搜索能力;并添加偏移量,使得权重不会消失,提高了猪的身份识别的效率。第三点改进之处是对 自身学习因子和种群学习因子进行优化,即让学习因子随迭代次数进行最优化,再次提高了算法的全局搜索能力,提高了猪的身份识别的速度。
(4)利用步骤1处理好的训练集进行训练,采用G‐IFPSO算法对加权融合的损失函数中的交叉熵损失函数和均方误差损失函数的权重进行优化,并保存预训练的特征提取网络Pre‐VGG16。这步可以进一步提高猪的身份识别的精度。
(5)将现有的LDP算法改进为多分块改进的绝对值差分局部方向模式算法(Multi Block Improve Absolute Difference Local Direction Pattern,简称MB‐IADLDP)。用于猪的传统特征提取,为特征融合和猪的身份识别提供特征信息。
(6)把Pre‐VGG16特征提取网络分别迁移到两个不同的神经网络中进行训练,并对网络参数进行微调,然后将数据集调整为224*224*3,并对调整后的数据集进行多分块改进的绝对值差分局部方向模式(Multi Block Improve Absolute Difference Local Direction Pattern,简称MB‐IADLDP)特征提取,再把这两个神经网络提取的特征以及MB‐IADLDP特征进行串行融合,即向量融合,最后进行猪的身份识别。利用BN‐VGG16模型结合迁移学习以及特征融合方法对猪进行身份识别,并针对模型的实验结果进行分析,得出实验结论。
权利要求2.根据权利要求1所述的步骤(1)具体包括:先对视频进行逐帧提取得到图片;然后对得到的图片进行预处理,即对图像进行水平翻转和随机方向翻转、伽马变换、直方图均衡化、对数变换、去噪和添加噪声点扩充数据集,最终得到处理后的数据集,由一开始的500张扩充到4900张;最后对处理后的数据集进行划分,以6:1的比例划分为训练集和测试集。
权利要求3.根据权利要求1所述的步骤(2)对VGG16的改进具体包括:在每个最大池化层后加个BN(Batch Normalization)层。整个网络的结构就是有2个包含64个卷积核的卷积层,后接一个最大池化层和BN层,2个包含128个卷积核的卷积层,后接一个最大池化层和BN层,3个包含256个卷积核的卷积层,后接一个最大池化层和BN层,3个包含512个卷积核的卷积层,后接一个最大池化层和BN层,3个包含512个卷积核的卷积层,后接一个最大池化层和BN层,2个包含4096个神经元的全连接层,1个包含1000个神经元的全连接层,最后是一个softmax层。通常情况下,BN层会加在卷积层后面防止梯度消失等 问题,同时BN层因为归一化的原因还有一定的降维作用,而池化层就是降维的作用,放在池化层后对粗降维后的结果再进行精细化降维,使得整个网络的精度得到提高。在神经网络中,一般来说每层的数据分布是不一样的,从而导致网络收敛和训练困难,但是BN层可以把每层的数据转换为方差是1、均值为0的状态下,这样每层就容易收敛,整个网络的收敛和训练速度就加快了。在神经网络中,如果网络的激活输出很大,其对应的梯度就会很小,这样导致网络的学习速率就会很慢,进而就会梯度消失,无法继续训练,而BN层可以看作是一个正则化约束(就是给平面不可约代数曲线以某种形式的全纯参数表示),从而解决梯度消失。神经网络各个层可能都会朝着一个方向进行训练学习,这样可能会导致过拟合,而BN层的mini‐batch会把所有的样本都被关联在了一起,同样一个样本的输出不再仅仅取决于样本本身,也取决于跟这个样本同属于一个batch的其他样本,并且每个网络都是随机取batch,这样整个网络就不会朝一个方向去训练学习,也就防止过拟合现象的发生,如附图6所示加了BN层比没加BN层的识别精度高。BN层可以让整个网络的训练速度得到加快,同时网络的泛化能力也得到了提高,这样我们就可以使用较大的学习率来训练网络,也不用担心梯度消失问题的发生。
所述的步骤(3)对粒子群算法的改进在于对最优粒子添加高斯扰动,使得接下来的粒子都向着最优粒子的邻域进行学习,而不是向着该最优粒子学习,从而解决的传统粒子群算法容易陷入局部最优的问题。
所述的步骤(3)对粒子群算法的改进在于对权重根据迭代次数实时优化,提高了算法的全局搜索能力;并添加偏移量,使得权重不会消失。
所述的步骤(3)对粒子群算法的改进在于对自身学习因子和种群学习因子进行优化,即让学习因子随迭代次数进行最优化,再次提高了算法的全局搜索能力。
所述的步骤(4)训练过程具体包括:在训练过程中的dropout的值设置为0.65,其目的是防止过拟合现象的发生;把训练好的数据集的维度调整为224*224*3;其中损失函数选择交叉熵损失函数和均方误差损失函数,并对这两种函数进行加权融合。
交叉熵损失函数可以适应多类别的情况,而猪的特征都是多种多样的,交叉 熵损失函数十分适合,而且交叉熵损失函数是对数形式的函数,在接近上边界的时候,高梯度的状态仍能保持,不会影响收敛速度,但是它的运算过程很复杂,计算速度不快,而均方误差损失函数可以弥补这个缺陷,两者结合优势互补,提高整个模型的运行速度;最后进行迭代训练,当迭代损失值小于一定的阈值后,训练停止,得出模型并保存预训练的特征提取网络。
所述步骤(5)中的MB-IADLDP特征提取具体过程如下:对处理好的图像进行尺寸变换,变换成222*222,然后对它进行分块,每个分块的尺寸为3*3,共有74个分块,得到3*3的分块的编码G i后进行Kirsch掩膜算子计算得到E i,再分别进行差值编码和绝对编码,对差值编码得到的结果取结果最大的3个,即把取得结果最大的3个方向置1,其他方向置0,把绝对编码最大值的方向置1,其他置0。对得到的这两个结果进行加权融合得到最终的MB-IADLDP特征提取结果,最后得到74*8维度的矩阵,整个提取过程如图2所示。差值编码是为了让中心像素g c周围的8个领域像素各自和周围联系更紧密,从而丰富提取信息;因为绝对值的大的那个方向说明该方向纹理效果是最好的,让绝对值编码和差值编码的结果进行加权融合,这样既保留了主要纹理,又减少了信息冗余。
所述步骤(6)在神经网络特征融合中运用迁移学习的具体描述如下:将BN‐VGG16的特征提取网络应用到猪的身份识别网络Pig‐VGG16上去,把Pre‐VGG16网络迁移学习分别运用在两个神经网络模型中,两个网络的区别就是最后一个池化层的不同,一个是均值池化层,一个是最大池化层,最大池化层可以更好地保留图像的纹理信息,平均池化层可以让图像的局部空间信息得以保留,两者结合可以提高特征提取的精度,从而提高身份识别的精度,再把这两个神经网络提取的特征以及MB-IADLDP提取的特征进行串行融合,最后把融合的结果在输入全连接层和softmax层进行最后的身份识别。融合策略具体是将待融合的特征进行展开,分别归一化后,相互连接形成一个新的特征向量,其中生成的新特征向量的长度等于待连接的特征向量的长度的总和,然后送入神经网络中得到最终识别结果。把PIG‐VGG16的全连接层改成卷积层,这样对输入图片的维度就没有限制了,可以对不同尺度的图片进行处理,把Pre‐VGG16网络迁移到猪的身份识别网络Pig‐VGG16上,就不用一直对特征提取网络进行训练,单次训练完成后就能一直用下去,提高了效率;接着初始化猪的身份识别网络的训练后的参 数,并将参数调整为自定义值,即调整为身份识别网络在历史训练时刻时的参数,即dropout设置为0.6,Epoch设置为25,卷积核使用3*3大小,损失函数使用交叉熵损失函数和均方误差损失函数;把这个训练过程至少分为两段周期,并在相邻的两个周期之间,进行参数调整。整个过程的TensorFlow2.0上完成。先分别根据BN‐VGG16的各个模块,分别写出卷积层、池化层、全连接层模块并调试保存;再在池化层后面添加BN层的程序代码并调试;然后用主程序输入数据集并调用各模块进行模型训练;达到迭代次数后保存特征提取部分模型;接着,迁移到两个不同的网络中,因为特征提取部分是一样的,所以能直接调用,只需修改最后一个池化层即可;把两个神经网络以及MB-IADLDP提取的特征进行融合,融合结果输入全连接层和softmax层进行最后的身份识别。观察本方法和传统VGG16以及BN‐VGG16在猪身份识别精度上的差别,得出最后的对比结果。与现有的方法相比,本发明具有以下明显优势:
(1)在每个最大池化层添加了BN层,使得整个网络的训练速度得到加快,这样我们就可以使用较大的学习率来训练网络,同时网络的泛化能力也得到提高。
(2)损失函数是交叉熵损失函数和均方误差损失函数加权融合,加权值进过了G‐IFPSO算法的优化,可以通过迭代得出最优权值。粒子群算法的改进之处是在速度权值和精英粒子的改进,并且添加了高斯扰动,这样使得权重一直在变化且不会消失,从而提高全局搜索的能力,并且解决了容易陷入局部最优的问题。
(3)把两个神经网络进行融合,这两个神经网络主要是池化层的不同。最大池化层可以更好地保留图像的纹理信息,平均池化层可以让图像的局部空间信息得以保留,两者结合可以提高特征提取的精度,从而提高身份识别的精度。
(4)采用迁移学习策略,把VGG16的特征提取模块迁移到猪的身份识别网络Pig‐Vgg16上去,提高整个网络的效率,同时也不需要反复训练模块,节省了时间。
(5)最后的全连接层由卷积层来替代,使得整个网络能够不同尺度的图片,实现整个网络的尺度自由。
附图说明
为了能够更清楚的说明本发明的具体实施步骤以及实验原理,下面我简单说明一下本发明中需要的附图:
图1为实验方法的流程图;
图2为MB‐IADLDP特征提取过程;
图3为Kirsch掩膜算子;
图4为传统的VGG16模型;
图5为改进的VGG16模型BN‐VGG16;
图6为基于迁移学习方法的VGG16模型;
图7为添加BN层后的实验对比图;
图8为实验结果的对比图。
具体实施方式
以下内容结合以上附图以及具体的实例进行详细说明。
权利要求1、一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,包括以下步骤:
(1)根据视频进行逐帧提取,再进行翻转、裁剪、对比度增强等操作得到扩充后的数据集,然后进行测试集和训练集的划分;
(2)将每个池化层后添加BN层构建改进网络层后的BN‐VGG16模型,使得对粗降维后的结果再进行精细化降维,提高整个网络的精度;另一方面,便于我们使用较大的学习率来训练网络,也不用担心梯度消失问题的发生,提高网络的训练速度。采用改进后的BN‐VGG16模型自动提取猪的深度特征,即猪的颜色、纹理、形状等特征,为最后猪的身份识别做好准备。
(3)本专利将现有的粒子群算法改进为高斯‐改良因子粒子群算法(Gaussian‐Improvement factor particle swarm optimization,简称G‐IFPSO)。第一点改进之处是在最优粒子中添加了高斯扰动,使得接下来的粒子都向着最优粒子的邻域进行学习,避免陷入局部最优,提高了猪的身份识别的精度。第二点改进之处是对速度权重根据迭代次数实时优化,提高了算法的全局搜索能力;并添加偏移量,使得权重不会消失,提高了猪的身份识别的效率。第三点改进之处是对自身学习因子和种群学习因子进行优化,即让学习因子随迭代次数进行最优化, 再次提高了算法的全局搜索能力,提高了猪的身份识别的速度。
(4)利用步骤1处理好的训练集进行训练,采用G‐IFPSO算法对加权融合的损失函数中的交叉熵损失函数和均方误差损失函数的权重进行优化,并保存预训练的特征提取网络Pre‐VGG16。这步可以进一步提高猪的身份识别的精度。
(5)将现有的LDP算法改进为多分块改进的绝对值差分局部方向模式算法(Multi Block Improve Absolute Difference Local Direction Pattern,简称MB‐IADLDP)。用于猪的传统特征提取,为特征融合和猪的身份识别提供特征信息。
(6)把Pre‐VGG16特征提取网络分别迁移到两个不同的神经网络中进行训练,并对网络参数进行微调,然后将数据集调整为224*224*3,并对调整后的数据集进行多分块改进的绝对值差分局部方向模式(Multi Block Improve Absolute Difference Local Direction Pattern,简称MB‐IADLDP)特征提取,再把这两个神经网络提取的特征以及MB‐IADLDP特征进行串行融合,即向量融合,最后进行猪的身份识别。利用BN‐VGG16模型结合迁移学习以及特征融合方法对猪进行身份识别,并针对模型的实验结果进行分析,得出实验结论。
权利要求2.根据权利要求1所述的步骤(1)具体包括:先对视频进行逐帧提取得到图片;然后对得到的图片进行预处理,即对图像进行水平翻转和随机方向翻转、伽马变换、直方图均衡化、对数变换、去噪和添加噪声点扩充数据集,最终得到处理后的数据集,由一开始的500张扩充到4900张;最后对处理后的数据集进行划分,以6:1的比例划分为训练集和测试集。
权利要求3.根据权利要求1所述的步骤(2)对VGG16的改进具体包括:在每个最大池化层后加个BN(Batch Normalization)层。整个网络的结构就是有2个包含64个卷积核的卷积层,后接一个最大池化层和BN层,2个包含128个卷积核的卷积层,后接一个最大池化层和BN层,3个包含256个卷积核的卷积层,后接一个最大池化层和BN层,3个包含512个卷积核的卷积层,后接一个最大池化层和BN层,3个包含512个卷积核的卷积层,后接一个最大池化层和BN层,2个包含4096个神经元的全连接层,1个包含1000个神经元的全连接层,最后是一个softmax层。通常情况下,BN层会加在卷积层后面防止梯度消失等问题,同时BN层因为归一化的原因还有一定的降维作用,而池化层就是降维的 作用,放在池化层后对粗降维后的结果再进行精细化降维,使得整个网络的精度得到提高。在神经网络中,一般来说每层的数据分布是不一样的,从而导致网络收敛和训练困难,但是BN层可以把每层的数据转换为方差是1、均值为0的状态下,这样每层就容易收敛,整个网络的收敛和训练速度就加快了。在神经网络中,如果网络的激活输出很大,其对应的梯度就会很小,这样导致网络的学习速率就会很慢,进而就会梯度消失,无法继续训练,而BN层可以看作是一个正则化约束(就是给平面不可约代数曲线以某种形式的全纯参数表示),从而解决梯度消失。神经网络各个层可能都会朝着一个方向进行训练学习,这样可能会导致过拟合,而BN层的mini‐batch会把所有的样本都被关联在了一起,同样一个样本的输出不再仅仅取决于样本本身,也取决于跟这个样本同属于一个batch的其他样本,并且每个网络都是随机取batch,这样整个网络就不会朝一个方向去训练学习,也就防止过拟合现象的发生,如附图6所示加了BN层比没加BN层的识别精度高。BN层可以让整个网络的训练速度得到加快,同时网络的泛化能力也得到了提高,这样我们就可以使用较大的学习率来训练网络,也不用担心梯度消失问题的发生。
权利要求4.根据权利要求1所述的步骤(3)对粒子群算法的改进在于对最优粒子添加高斯扰动,使得接下来的粒子都向着最优粒子的邻域进行学习,而不是向着该最优粒子学习,从而解决的传统粒子群算法容易陷入局部最优的问题,改进的粒子群算法的公式如下:
Figure PCTCN2021099162-appb-000001
P gm——粒子群的最优值;
P' gm——扰动后的粒子群的最优值;
P im——个体最优值;
N(μ,σ)——高斯函数,其中μ是平均值,σ为方差;
v im——速度分量;
x im——位置分量;
w——惯性权重;
c 1——自身学习因子;
c 2——种群学习因子;
r 1r 2——0到1之间的随机值;
适应度函数:
F(x)=aQ+b       (2)
其中a为标量系数,b为偏移量,Q为加权融合后的损失函数,具体如式(3)所示。
权利要求5.根据权利要求1所述的步骤(3)对粒子群算法的改进在于对速度权重根据迭代次数实时优化,提高了算法的全局搜索能力;并添加偏移量,使得权重不会消失。改进的速度权重公式如下:
Figure PCTCN2021099162-appb-000002
i max——最大迭代次数;
i——当前迭代次数;
d——偏移量。
权利要求6.根据权利要求1所述的步骤(3)对粒子群算法的改进在于对自身学习因子和种群学习因子进行优化,即让学习因子随迭代次数进行最优化,再次提高了算法的全局搜索能力。改进的学习因子公式如下:
Figure PCTCN2021099162-appb-000003
i max——最大迭代次数;
i——当前迭代次数。
权利要求7.根据权利要求1所述的步骤(4)训练过程具体包括:在训练过程中的dropout的值设置为0.65,其目的是防止过拟合现象的发生;把训练好的数据集的维度调整为224*224*3;其中损失函数选择交叉熵损失函数和均方误差 损失函数,并对这两种函数进行加权融合,加权公式如式(5)所示。
Figure PCTCN2021099162-appb-000004
α——交叉熵损失函数最后趋于稳定的损失值;
β——均方误差损失函数最后趋于稳定的损失值;
L——交叉熵损失函数,如式(4)所示;
MSE——均方误差损失函数,如式(5)所示。
Figure PCTCN2021099162-appb-000005
交叉熵损失函数如式(6)所示
Figure PCTCN2021099162-appb-000006
M——类别的数量;
d——表示第d个类别;
L d——第d个类别的损失函数值;
y dc——指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;
p dc——对于观测样本i属于本类别的预测概率。
均方误差损失函数如式(7)所示
Figure PCTCN2021099162-appb-000007
y c——表示第i个输入的值;
y′ c——表示其预测值。
接下来用G‐IFPSO算法对权值进行优化,优化算法过程如下:
(8)初始化参数,即粒子的位置、速度、个体最优位置、种群最优位置、学习因子;
(9)根据式(2)随着迭代次数不断更新粒子群算法的权重;
(10)根据式(3)随着迭代次数使得学习因子取得当前最优值;
(11)根据式(1)(3)(4)更新粒子的位置以及速度分量;
(12)根据式(2)计算出适应度的值;
(13)比较粒子的个体极值以及全局极值,不断进行优值替换;
(14)如果已经达到最大的迭代次数,输出最优解(η,γ),否则就返回第二步,继续训练。
交叉熵损失函数可以适应多类别的情况,而猪的特征都是多种多样的,交叉熵损失函数十分适合,而且交叉熵损失函数是对数形式的函数,在接近上边界的时候,高梯度的状态仍能保持,不会影响收敛速度,但是它的运算过程很复杂,计算速度不快,而均方误差损失函数可以弥补这个缺陷,两者结合优势互补,提高整个模型的运行速度;最后进行迭代训练,当迭代损失值小于一定的阈值后,训练停止,得出模型并保存预训练的特征提取网络。
权利要求8.根据权利要求1所述步骤(5)中的MB-IADLDP特征提取具体过程如下:对处理好的图像进行尺寸变换,变换成222*222,然后对它进行分块,每个分块的尺寸为3*3,共有74个分块,得到3*3的分块的编码G i后进行Kirsch掩膜算子计算得到E i,如公式(8)所示,再分别进行差值编码和绝对编码,如公式(9)和公式(10)所示,对差值编码得到的结果取结果最大的3个,即把取得结果最大的3个方向置1,其他方向置0,把绝对编码最大值的方向置1,其他置0。对得到的这两个结果进行加权融合得到最终的MB-IADLDP特征提取结果,最后得到74*8维度的矩阵,整个提取过程如图2所示。差值编码是为了让中心像素g c周围的8个领域像素各自和周围联系更紧密,从而丰富提取信息;因为绝对值的大的那个方向说明该方向纹理效果是最好的,让绝对值编码和差值编码的结果进行加权融合,这样既保留了主要纹理,又减少了信息冗余。
E i=G i*M j,i=1,2,...,74,j=0,2,...,7       (8)
G i——第i个分块的编码值;
M j——第j方向的Kirsch掩膜算子;
差值编码公式如下:
Figure PCTCN2021099162-appb-000008
e i——分块中中心像素周围的第i个编码;
绝对编码公式如下:
da i=|e i-e i+4|,i=0,1,...,3      (10)
e k——分块中第k大的编码值;
Figure PCTCN2021099162-appb-000009
Figure PCTCN2021099162-appb-000010
权利要求9.根据权利要求1所述步骤(6)在神经网络特征融合中运用迁移学习的具体描述如下:将BN‐VGG16的特征提取网络应用到猪的身份识别网络Pig‐VGG16上去,把Pre‐VGG16网络迁移学习分别运用在两个神经网络模型中,两个网络的区别就是最后一个池化层的不同,一个是均值池化层,一个是最大池化层,最大池化层可以更好地保留图像的纹理信息,平均池化层可以让图像的局部空间信息得以保留,两者结合可以提高特征提取的精度,从而提高身份识别的精度,再把这两个神经网络提取的特征以及MB-IADLDP提取的特征进行串行融合,最后把融合的结果在输入全连接层和softmax层进行最后的身份识别。融合策略具体是将待融合的特征进行展开,分别归一化后,相互连接形成一个新的特征向量,其中生成的新特征向量的长度等于待连接的特征向量的长度的总和,然后送入神经网络中得到最终识别结果。把PIG‐VGG16的全连接层改成卷积层,这样对输入图片的维度就没有限制了,可以对不同尺度的图片进行处理,把Pre‐VGG16网络迁移到猪的身份识别网络Pig‐VGG16上,就不用一直对特征提取网络进行训练,单次训练完成后就能一直用下去,提高了效率;接着初始化猪的身份识别网络的训练后的参数,并将参数调整为自定义值,即调整为身份识别网络在历史训练时刻时的参数,即dropout设置为0.6,Epoch设置为25,卷积核使用3*3大小,损失函数使用交叉熵损失函数和均方误差损失函数;把这个训练过程至少分为两段周期,并在相邻的两个周期之间,进行参数调整。整个过程的TensorFlow2.0上完成。先分别根据BN‐VGG16的各个模块,分别写出卷积层、池 化层、全连接层模块并调试保存;再在池化层后面添加BN层的程序代码并调试;然后用主程序输入数据集并调用各模块进行模型训练;达到迭代次数后保存特征提取部分模型;接着,迁移到两个不同的网络中,因为特征提取部分是一样的,所以能直接调用,只需修改最后一个池化层即可;把两个神经网络以及MB-IADLDP提取的特征进行融合,融合结果输入全连接层和softmax层进行最后的身份识别。观察本方法和传统VGG16以及BN‐VGG16在猪身份识别精度上的差别,得出最后的对比结果。如图7所示,Pig‐VGG16网络的识别精度是最高的,而且在一开始精度可以达到0.6,这是传统VGG16以及改进VGG16网络无法比拟的,由此可见Pig‐VGG16网络比传统VGG16以及改进VGG16更适合于猪的身份识别。
以上实例仅为本发明的举例论证,来具体说明本发明的可行性,但不仅仅限于此。

Claims (9)

  1. 一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,包括以下步骤:
    步骤1,根据视频进行逐帧提取,再进行翻转、裁剪、对比度增强等操作得到扩充后的数据集,然后进行测试集和训练集的划分;
    步骤2,将每个池化层后添加BN层构建改进网络层后的BN‐VGG16模型;
    步骤3,将粒子群算法改进为高斯‐改良因子粒子群算法G‐IFPSO;
    步骤4,利用步骤1处理好的训练集进行训练,采用G‐IFPSO算法对加权融合的损失函数中的交叉熵损失函数和均方误差损失函数的权重进行优化,并保存预训练的特征提取网络Pre‐VGG16;
    步骤5,采用多分块改进的绝对值差分局部方向模式算法用于猪的传统特征提取,为特征融合和猪的身份识别提供特征信息;
    步骤6,把Pre‐VGG16特征提取网络分别迁移到两个不同的神经网络中进行训练,并对网络参数进行微调,然后将数据集调整为224*224*3,并对调整后的数据集进行多分块改进的绝对值差分局部方向模式MB‐IADLDP特征提取,再把这两个神经网络提取的特征以及MB‐IADLDP特征进行串行融合,即向量融合,最后进行猪的身份识别。
  2. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤1具体包括:先对视频进行逐帧提取得到图片;然后对得到的图片进行预处理,即对图像进行水平翻转和随机方向翻转、伽马变换、直方图均衡化、对数变换、去噪和添加噪声点扩充数据集,最终得到处理后的数据集,由一开始的500张扩充到4900张;最后对处理后的数据集进行划分,以6:1的比例划分为训练集和测试集。
  3. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤2中构建改进网络层后的BN‐VGG16模型具体包括:在每个最大池化层后加个BN层,整个网络的结构就是有2个包含64个卷积核的卷积层,后接一个最大池化层和BN层,2个包含128个卷积核的卷积层,后接一个最大池化层和BN层,3个包含256个卷积核的卷积层,后接一个最大池化层和BN层,3个包含512个卷积核的卷积层,后接一个最大池化层和BN层, 3个包含512个卷积核的卷积层,后接一个最大池化层和BN层,2个包含4096个神经元的全连接层,1个包含1000个神经元的全连接层,最后是一个softmax层。通常情况下,BN层会加在卷积层后面防止梯度消失等问题,同时BN层因为归一化的原因还有一定的降维作用,而池化层就是降维的作用,放在池化层后对粗降维后的结果再进行精细化降维,使得整个网络的精度得到提高。
  4. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤3中,对粒子群算法改进,对最优粒子添加高斯扰动,改进的粒子群算法的公式如下:
    Figure PCTCN2021099162-appb-100001
    P gm——粒子群的最优值;
    P' gm——扰动后的粒子群的最优值;
    P im——个体最优值;
    N(μ,σ)——高斯函数,其中μ是平均值,σ为方差;
    v im——速度分量;
    x im——位置分量;
    w——惯性权重;
    c 1——自身学习因子;
    c 2——种群学习因子;
    r 1 r 2——0到1之间的随机值;
    适应度函数:
    F(x)=aQ+b    (2)
    其中a为标量系数,b为偏移量,Q为加权融合后的损失函数。
  5. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤3中,对粒子群算法改进,还需要对速度权重根据迭代次数实时优化,并添加偏移量,使得权重不会消失,改进的速度权重公式如下:
    Figure PCTCN2021099162-appb-100002
    i max——最大迭代次数;
    i——当前迭代次数;
    d——偏移量。
  6. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤3中,对粒子群算法改进,还需要对自身学习因子和种群学习因子进行优化,即让学习因子随迭代次数进行最优化,改进的学习因子公式如下:
    Figure PCTCN2021099162-appb-100003
    i max——最大迭代次数;
    i——当前迭代次数。
  7. 根据权利要求6所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤4中利用步骤1处理好的训练集进行训练具体包括:在训练过程中的dropout的值设置为0.65,其目的是防止过拟合现象的发生;把训练好的数据集的维度调整为224*224*3;其中损失函数选择交叉熵损失函数和均方误差损失函数,并对这两种函数进行加权融合,加权公式如式(5)所示:
    Figure PCTCN2021099162-appb-100004
    α——交叉熵损失函数最后趋于稳定的损失值;
    β——均方误差损失函数最后趋于稳定的损失值;
    L——交叉熵损失函数,如式(4)所示;
    MSE——均方误差损失函数,如式(5)所示;
    Figure PCTCN2021099162-appb-100005
    交叉熵损失函数如式(6)所示
    Figure PCTCN2021099162-appb-100006
    M——类别的数量;
    d——表示第d个类别;
    L d——第d个类别的损失函数值;
    y dc——指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;
    p dc——对于观测样本i属于本类别的预测概率。
    均方误差损失函数如式(7)所示
    Figure PCTCN2021099162-appb-100007
    y c——表示第i个输入的值;
    y′ c——表示其预测值;
    采用G‐IFPSO算法对权值进行优化,优化算法过程如下:
    (1)初始化参数,即粒子的位置、速度、个体最优位置、种群最优位置、学习因子;
    (2)根据式(2)随着迭代次数不断更新粒子群算法的权重;
    (3)根据式(3)随着迭代次数使得学习因子取得当前最优值;
    (4)根据式(1)(3)(4)更新粒子的位置以及速度分量;
    (5)根据式(2)计算出适应度的值;
    (6)比较粒子的个体极值以及全局极值,不断进行优值替换;
    (7)如果已经达到最大的迭代次数,输出最优解(η,γ),否则就返回第二步,继续训练;
    最后进行迭代训练,当迭代损失值小于一定的阈值后,训练停止,得出模型并保存预训练的特征提取网络。
  8. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤6中的MB-IADLDP特征提取具体过程如下:对处理好 的图像进行尺寸变换,变换成222*222,然后对它进行分块,每个分块的尺寸为3*3,共有74个分块,得到3*3的分块的编码G i后进行Kirsch掩膜算子计算得到E i,如公式(8)所示,再分别进行差值编码和绝对编码,如公式(9)和公式(10)所示,对差值编码得到的结果取结果最大的3个,即把取得结果最大的3个方向置1,其他方向置0,把绝对编码最大值的方向置1,其他置0。对得到的这两个结果进行加权融合得到最终的MB-IADLDP特征提取结果,最后得到74*8维度的矩阵,,差值编码是为了让中心像素g c周围的8个领域像素各自和周围联系更紧密,从而丰富提取信息;因为绝对值的大的那个方向说明该方向纹理效果是最好的,让绝对值编码和差值编码的结果进行加权融合,这样既保留了主要纹理,又减少了信息冗余。
    E i=G i*M j,i=1,2,...,74,j=0,2,...,7    (8)
    G i——第i个分块的编码值;
    M j——第j方向的Kirsch掩膜算子;
    差值编码公式如下:
    Figure PCTCN2021099162-appb-100008
    e i——分块中中心像素周围的第i个编码;
    绝对编码公式如下:
    da i=|e i-e i+4|,i=0,1,...,3    (10)
    e k——分块中第k大的编码值;
    Figure PCTCN2021099162-appb-100009
    Figure PCTCN2021099162-appb-100010
  9. 根据权利要求1所述的一种基于迁移学习的改进VGG16网络猪的身份识别方法,其特征在于,步骤6中,把Pre‐VGG16特征提取网络分别迁移到两个不同的神经网络中进行训练的具体描述如下:将BN‐VGG16的特征提取网络应用到 猪的身份识别网络Pig‐VGG16上去,把Pre‐VGG16网络迁移学习分别运用在两个神经网络模型中,两个网络的区别就是最后一个池化层的不同,一个是均值池化层,一个是最大池化层,再把这两个神经网络提取的特征以及MB-IADLDP提取的特征进行串行融合,最后把融合的结果在输入全连接层和softmax层进行最后的身份识别;融合策略具体是将待融合的特征进行展开,分别归一化后,相互连接形成一个新的特征向量,其中生成的新特征向量的长度等于待连接的特征向量的长度的总和,然后送入神经网络中得到最终识别结果;把PIG‐VGG16的全连接层改成卷积层;接着初始化猪的身份识别网络的训练后的参数,并将参数调整为自定义值,即调整为身份识别网络在历史训练时刻时的参数,即dropout设置为0.6,Epoch设置为25,卷积核使用3*3大小,损失函数使用交叉熵损失函数和均方误差损失函数;把这个训练过程至少分为两段周期,并在相邻的两个周期之间,进行参数调整;整个过程的TensorFlow2.0上完成,先分别根据BN‐VGG16的各个模块,分别写出卷积层、池化层、全连接层模块并调试保存;再在池化层后面添加BN层的程序代码并调试;然后用主程序输入数据集并调用各模块进行模型训练;达到迭代次数后保存特征提取部分模型;接着,迁移到两个不同的网络中,因为特征提取部分是一样的,所以能直接调用,只需修改最后一个池化层即可;把两个神经网络以及MB-IADLDP提取的特征进行融合,融合结果输入全连接层和softmax层进行最后的身份识别。
PCT/CN2021/099162 2021-06-03 2021-06-09 一种基于迁移学习的改进vgg16网络猪的身份识别方法 WO2022252272A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
GB2219795.8A GB2611257B (en) 2021-06-03 2021-06-09 Pig identity identification method by using improved vgg16 network based on transfer learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110618450.7A CN113469356B (zh) 2021-06-03 2021-06-03 一种基于迁移学习的改进vgg16网络猪的身份识别方法
CN202110618450.7 2021-06-03

Publications (1)

Publication Number Publication Date
WO2022252272A1 true WO2022252272A1 (zh) 2022-12-08

Family

ID=77872193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/099162 WO2022252272A1 (zh) 2021-06-03 2021-06-09 一种基于迁移学习的改进vgg16网络猪的身份识别方法

Country Status (3)

Country Link
CN (1) CN113469356B (zh)
GB (1) GB2611257B (zh)
WO (1) WO2022252272A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012367A (zh) * 2023-02-14 2023-04-25 山东省人工智能研究院 一种基于深度学习的胃部胃黏膜特征及位置识别方法
CN116647376A (zh) * 2023-05-25 2023-08-25 中国人民解放军军事科学院国防科技创新研究院 一种基于声纹信息的水声网络节点身份认证方法
CN116824512A (zh) * 2023-08-28 2023-09-29 西华大学 一种27.5kV可视化接地刀闸状态识别方法及装置
CN116881639A (zh) * 2023-07-10 2023-10-13 国网四川省电力公司营销服务中心 一种基于生成对抗网络的窃电数据合成方法
CN116975656A (zh) * 2023-09-22 2023-10-31 唐山师范学院 基于声发射信号的智能损伤检测识别方法及系统
CN116978099A (zh) * 2023-07-25 2023-10-31 湖北工业大学 基于羊脸的轻量级羊身份识别模型构建方法及识别模型
CN116994067A (zh) * 2023-09-07 2023-11-03 佛山科学技术学院 基于冠状动脉钙化的血流储备分数的预测方法及系统
CN117392551A (zh) * 2023-12-12 2024-01-12 国网江西省电力有限公司电力科学研究院 一种基于鸟粪图像特征的电网鸟害识别方法及系统
CN117541991A (zh) * 2023-11-22 2024-02-09 无锡科棒安智能科技有限公司 一种基于安防机器人对异常行为智能识别方法及系统
CN117556715A (zh) * 2024-01-12 2024-02-13 湖南大学 基于信息融合的典型环境下智能电表退化分析方法及系统
CN117576573A (zh) * 2024-01-16 2024-02-20 广州航海学院 基于改进vgg16模型的建筑氛围评价方法、系统、设备及介质
CN117911829A (zh) * 2024-03-15 2024-04-19 山东商业职业技术学院 车辆导航的点云图像融合方法及系统
CN117934962A (zh) * 2024-02-06 2024-04-26 青岛兴牧畜牧科技发展有限公司 一种基于参照色卡图像校正的猪肉质量分类方法
CN118135566A (zh) * 2024-05-06 2024-06-04 苏州宝丽迪材料科技股份有限公司 一种半监督学习的纤维母粒电镜图像团聚结构区域识别方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299436A (zh) * 2021-12-30 2022-04-08 东北农业大学 融合时空双注意力机制的群养生猪争斗行为识别方法
CN114511926B (zh) * 2022-01-17 2024-05-14 江苏大学 一种基于改进支持向量机和光流法相结合的猪的采食行为识别方法
CN116259145A (zh) * 2022-09-26 2023-06-13 广州当康自然资源科技有限公司 一种基于ai智能识别的野猪预警与处置系统
CN118171049A (zh) * 2024-05-13 2024-06-11 西南交通大学 一种基于大数据的边缘计算的电池管理方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414626A (zh) * 2019-08-06 2019-11-05 广东工业大学 一种猪只品种识别方法、装置和计算机可读存储介质
CN111178197A (zh) * 2019-12-19 2020-05-19 华南农业大学 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
CN111241933A (zh) * 2019-12-30 2020-06-05 南京航空航天大学 一种基于通用对抗扰动的养猪场目标识别方法
US20200285896A1 (en) * 2019-03-09 2020-09-10 Tongji University Method for person re-identification based on deep model with multi-loss fusion training strategy
CN111666838A (zh) * 2020-05-22 2020-09-15 吉林大学 一种改进的残差网络猪脸识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200285896A1 (en) * 2019-03-09 2020-09-10 Tongji University Method for person re-identification based on deep model with multi-loss fusion training strategy
CN110414626A (zh) * 2019-08-06 2019-11-05 广东工业大学 一种猪只品种识别方法、装置和计算机可读存储介质
CN111178197A (zh) * 2019-12-19 2020-05-19 华南农业大学 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
CN111241933A (zh) * 2019-12-30 2020-06-05 南京航空航天大学 一种基于通用对抗扰动的养猪场目标识别方法
CN111666838A (zh) * 2020-05-22 2020-09-15 吉林大学 一种改进的残差网络猪脸识别方法

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012367B (zh) * 2023-02-14 2023-09-12 山东省人工智能研究院 一种基于深度学习的胃部胃黏膜特征及位置识别方法
CN116012367A (zh) * 2023-02-14 2023-04-25 山东省人工智能研究院 一种基于深度学习的胃部胃黏膜特征及位置识别方法
CN116647376B (zh) * 2023-05-25 2024-01-26 中国人民解放军军事科学院国防科技创新研究院 一种基于声纹信息的水声网络节点身份认证方法
CN116647376A (zh) * 2023-05-25 2023-08-25 中国人民解放军军事科学院国防科技创新研究院 一种基于声纹信息的水声网络节点身份认证方法
CN116881639A (zh) * 2023-07-10 2023-10-13 国网四川省电力公司营销服务中心 一种基于生成对抗网络的窃电数据合成方法
CN116978099B (zh) * 2023-07-25 2024-03-12 湖北工业大学 基于羊脸的轻量级羊身份识别模型构建方法及识别模型
CN116978099A (zh) * 2023-07-25 2023-10-31 湖北工业大学 基于羊脸的轻量级羊身份识别模型构建方法及识别模型
CN116824512A (zh) * 2023-08-28 2023-09-29 西华大学 一种27.5kV可视化接地刀闸状态识别方法及装置
CN116824512B (zh) * 2023-08-28 2023-11-07 西华大学 一种27.5kV可视化接地刀闸状态识别方法及装置
CN116994067B (zh) * 2023-09-07 2024-05-07 佛山科学技术学院 基于冠状动脉钙化的血流储备分数的预测方法及系统
CN116994067A (zh) * 2023-09-07 2023-11-03 佛山科学技术学院 基于冠状动脉钙化的血流储备分数的预测方法及系统
CN116975656B (zh) * 2023-09-22 2023-12-12 唐山师范学院 基于声发射信号的智能损伤检测识别方法及系统
CN116975656A (zh) * 2023-09-22 2023-10-31 唐山师范学院 基于声发射信号的智能损伤检测识别方法及系统
CN117541991A (zh) * 2023-11-22 2024-02-09 无锡科棒安智能科技有限公司 一种基于安防机器人对异常行为智能识别方法及系统
CN117392551B (zh) * 2023-12-12 2024-04-02 国网江西省电力有限公司电力科学研究院 一种基于鸟粪图像特征的电网鸟害识别方法及系统
CN117392551A (zh) * 2023-12-12 2024-01-12 国网江西省电力有限公司电力科学研究院 一种基于鸟粪图像特征的电网鸟害识别方法及系统
CN117556715A (zh) * 2024-01-12 2024-02-13 湖南大学 基于信息融合的典型环境下智能电表退化分析方法及系统
CN117556715B (zh) * 2024-01-12 2024-03-26 湖南大学 基于信息融合的典型环境下智能电表退化分析方法及系统
CN117576573A (zh) * 2024-01-16 2024-02-20 广州航海学院 基于改进vgg16模型的建筑氛围评价方法、系统、设备及介质
CN117576573B (zh) * 2024-01-16 2024-05-17 广州航海学院 基于改进vgg16模型的建筑氛围评价方法、系统、设备及介质
CN117934962A (zh) * 2024-02-06 2024-04-26 青岛兴牧畜牧科技发展有限公司 一种基于参照色卡图像校正的猪肉质量分类方法
CN117911829A (zh) * 2024-03-15 2024-04-19 山东商业职业技术学院 车辆导航的点云图像融合方法及系统
CN117911829B (zh) * 2024-03-15 2024-05-31 山东商业职业技术学院 车辆导航的点云图像融合方法及系统
CN118135566A (zh) * 2024-05-06 2024-06-04 苏州宝丽迪材料科技股份有限公司 一种半监督学习的纤维母粒电镜图像团聚结构区域识别方法

Also Published As

Publication number Publication date
GB2611257A (en) 2023-03-29
CN113469356A (zh) 2021-10-01
GB202219795D0 (en) 2023-02-08
CN113469356B (zh) 2024-06-07
GB2611257B (en) 2024-02-28

Similar Documents

Publication Publication Date Title
WO2022252272A1 (zh) 一种基于迁移学习的改进vgg16网络猪的身份识别方法
Teow Understanding convolutional neural networks using a minimal model for handwritten digit recognition
CN109886225A (zh) 一种基于深度学习的图像手势动作在线检测与识别方法
CN109255364A (zh) 一种基于深度卷积生成对抗网络的场景识别方法
CN108021947B (zh) 一种基于视觉的分层极限学习机目标识别方法
CN113158862B (zh) 一种基于多任务的轻量级实时人脸检测方法
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及系统
CN107609638A (zh) 一种基于线性解码器和插值采样优化卷积神经网络的方法
CN112307982A (zh) 基于交错增强注意力网络的人体行为识别方法
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
Xu et al. Face expression recognition based on convolutional neural network
CN111127360A (zh) 一种基于自动编码器的灰度图像迁移学习方法
CN114819091B (zh) 基于自适应任务权重的多任务网络模型训练方法及系统
CN116993975A (zh) 基于深度学习无监督领域适应的全景相机语义分割方法
CN116258990A (zh) 一种基于跨模态亲和力的小样本参考视频目标分割方法
CN116188509A (zh) 一种高效率三维图像分割方法
CN112241959A (zh) 基于超像素的注意力机制生成语义分割方法
CN117351542A (zh) 一种面部表情识别方法及系统
CN115797835A (zh) 一种基于异构Transformer的无监督视频目标分割算法
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
CN114170657A (zh) 融合注意力机制与高阶特征表示的面部情感识别方法
CN113128455A (zh) 一种细胞图像重构模型训练方法和系统
CN116993760A (zh) 一种基于图卷积和注意力机制的手势分割方法、系统、设备及介质
CN116597144A (zh) 一种基于事件相机的图像语义分割方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 202219795

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20210609

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21943631

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21943631

Country of ref document: EP

Kind code of ref document: A1