CN114445641A - 图像识别模型的训练方法、训练装置和训练网络 - Google Patents

图像识别模型的训练方法、训练装置和训练网络 Download PDF

Info

Publication number
CN114445641A
CN114445641A CN202210110009.2A CN202210110009A CN114445641A CN 114445641 A CN114445641 A CN 114445641A CN 202210110009 A CN202210110009 A CN 202210110009A CN 114445641 A CN114445641 A CN 114445641A
Authority
CN
China
Prior art keywords
loss function
preset
vit
convolutional neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210110009.2A
Other languages
English (en)
Inventor
申啸尘
周有喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinjiang Aiwinn Information Technology Co Ltd
Original Assignee
Xinjiang Aiwinn Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinjiang Aiwinn Information Technology Co Ltd filed Critical Xinjiang Aiwinn Information Technology Co Ltd
Priority to CN202210110009.2A priority Critical patent/CN114445641A/zh
Publication of CN114445641A publication Critical patent/CN114445641A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本申请涉及图像识别模型的训练方法、训练装置、训练网络和设备终端,该训练方法通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到第一损失函数值,获取卷积神经网络中多个中间层输出的特征图,将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值,根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新,根据第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对卷积神经网络进行权重和偏置更新,循环执行上述步骤以生成对应的图像识别模型。上述训练方法能够将传统的卷积神经网络结构和ViT网络进行融合。

Description

图像识别模型的训练方法、训练装置和训练网络
技术领域
本申请涉及图像识别领域,具体涉及一种图像识别模型的训练方法、训练装置、训练网络和设备终端。
背景技术
目前,将ViT网络模型(Vision Transformer,视觉转换器)应用在计算机视觉上以替代CNN(Convolutional Neural Networks,卷积神经网络)是计算机视觉研究的热点,ViT网络模型本质上是利用视觉自注意力网络机制关注图片中各部分的重要信息,从而输出对应的预测结果。
由于上述方法较为新颖,使用到很多在卷积神经网络中不常用或出现频率较低的特殊算子,而此类特殊算子往往不能被移动端设备很好的支持,进而导致现有计算机视觉领域的有效方法往往无法直接与这种采用ViT网络模型的新型视觉方法进行结合。
发明内容
鉴于此,本申请提供一种图像识别模型的训练方法、训练装置、训练网络和设备终端,能够在利用传统的卷积神经网络结构的基础上,进一步结合ViT网络的优点,将传统的卷积神经网络结构和ViT网络进行融合,以克服现有计算机视觉领域的有效方法往往无法直接与这种采用ViT网络的新型视觉方法进行结合的缺点。
一种图像识别模型的训练方法,包括:
通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到卷积神经网络对应的第一损失函数值;
获取卷积神经网络中多个中间层输出的特征图;
将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新;
根据第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对卷积神经网络进行权重和偏置更新;
循环执行上述步骤,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
在一个实施例中,通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到卷积神经网络对应的第一损失函数值的步骤包括:
通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以生成对应的预测值;
根据第一预设损失函数、预测值和预设标注值,得到卷积神经网络对应的第一损失函数值。
在一个实施例中,第一预设损失函数采用交叉熵损失函数,通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以生成对应的预测值的步骤之前还包括:
基于交叉熵损失函数,将训练图像数据集输入到初始卷积神经网络进行训练,直至交叉熵损失函数收敛,得到训练收敛后的卷积神经网络。
在一个实施例中,中间层为池化层,将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值的步骤包括:
将多个池化层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以获取各自对应的预测标签值;
根据第二预设损失函数、各个预设ViT网络各自对应的预测标签值和真实标签值,计算得到各个预设ViT网络各自对应的第二损失函数值。
在一个实施例中,将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值的步骤之前还包括:
基于第二预设损失函数,将训练图像数据集分别输入到各个初始ViT网络进行训练,直至各自对应的第二预设损失函数收敛,得到训练收敛后的预设ViT网络。
在一个实施例中,根据第一损失函数值和第二损失函数值对卷积神经网络进行权重和偏置更新的步骤包括:
将第一损失函数值和第二损失函数值按照预设比例进行加权处理,以得到加权后的损失函数值;
根据加权后的损失函数值,通过反向传播求取梯度对卷积神经网络进行权重和偏置更新。
此外,还提供一种图像识别模型的训练网络,包括:
卷积神经网络处理单元,用于对输入的训练图像数据集进行特征提取处理,以得到对应的第一损失函数值以及多个中间层输出的特征图;
ViT网络处理单元,与卷积神经网络处理单元中的多个中间层的输出端相连接,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
ViT网络处理单元还用于根据第二损失函数值对各个预设ViT网络进行权重和偏置更新;
卷积神经网络处理单元还用于根据第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对自身的卷积神经网络进行权重和偏置更新,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
此外,还提供一种图像识别模型的训练装置,包括:
第一函数值生成单元,用于通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到所述卷积神经网络对应的第一损失函数值;
特征图获取单元,用于获取所述卷积神经网络中多个中间层输出的特征图;
第二函数值生成单元,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
第一更新单元,用于根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新;
第二更新单元,用于根据所述第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对所述卷积神经网络进行权重和偏置更新;
模型生成单元,用于当所述卷积神经网络对应的第一预设损失函数收敛时生成对应的图像识别模型。
此外,还提供一种设备终端,设备终端包括处理器和存储器,存储器用于存储计算机程序,处理器运行计算机程序以使设备终端执行上述训练方法。
此外,还提供一种可读存储介质,可读存储介质存储有计算机程序,计算机程序在被处理器执行时实施上述训练方法。
上述图像识别模型的训练方法,通过将卷积神经网络输出的特征图输入到各个预设ViT网络,从而在特征图的层面直接对各个预设ViT网络的权重进行优化,同时,根据第一损失函数值和第二损失函数值对卷积神经网络进行权重和偏置更新,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型,从而让图像识别模型既可利用各个预设ViT网络进行充分训练,又可不依赖各个预设ViT网络而产生识别预测结果,进而使得上述图像识别模型能够更好的适配各个推理平台,并仍然可利用现有计算机视觉领域中各种优秀卷积神经网络结构以及对应的训练方法,实现了传统的卷积神经网络结构和ViT网络模型的有效融合,克服现有计算机视觉领域的有效方法往往无法直接与这种采用ViT网络模型的新型视觉方法进行结合的缺点。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种图像识别模型的训练方法的流程示意图;
图2是本申请实施例提供的一种得到卷积神经网络对应的第一损失函数值的方法流程示意图;
图3是本申请实施例提供的另一种图像识别模型的训练方法的流程示意图;
图4是本申请实施例提供的一种得到各个预设ViT网络对应的第二损失函数值的方法流程示意图;
图5是本申请实施例提供的又一种图像识别模型的训练方法的流程示意图;
图6是本申请实施例提供的一种对卷积神经网络进行权重和偏置更新的方法流程示意图;
图7是本申请实施例提供的一种图像识别模型的训练网络的结构框图;
图8是本申请实施例提供的一种图像识别模型的训练装置的结构框图。
具体实施方式
下面结合附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而非全部实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在不冲突的情况下,下述各个实施例及其技术特征可以相互组合。
ViT网络模型(Vision Transformer,视觉转换器)的本质是将输入的图像分块,分成多个patch(小块)并标定每块位置信息(即顺序),经过线性投影后,进一步经过线性变换送入transformer encoder,transformer encoder的本质是多头自注意力机制,找到每一小块图片与其它块图片的相关性,将注意力集中(即权重分配)到与全图联系最紧密的patch中,然后综合这些信息得到全局的特征并输出预测标签。
如图1所示,提供一种图像识别模型的训练方法,该训练方法包括:
步骤S110,通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到卷积神经网络对应的第一损失函数值。
其中,卷积神经网络在对训练图像数据集进行处理时,通常需要不断的对训练图像数据集进行卷积处理,从而进行特征提取处理,从而得到卷积神经网络对应的第一损失函数值。
步骤S120,获取卷积神经网络中多个中间层输出的特征图。
其中,卷积神经网络在对训练图像数据集进行处理时,通常需要不断的对训练图像数据集进行卷积处理,因而在卷积处理过程中可输出得到多个特征图,因而可获取卷积神经网络中多个中间层输出的特征图。
步骤S130,将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值。
其中,各个预设ViT网络的输入端分别与卷积神经网络中多个中间层一一对应相连接,从而对多个中间层输出的特征图分别进行特征提取处理,可得到各个预设ViT网络各自对应的第二损失函数值。
步骤S140,根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新。
其中,在上述训练过程中,在通过将卷积神经网络中多个中间层输出的特征图输入到各个预设ViT网络进行特征提取时,需要同步对各个预设ViT网络自身进行权重和偏置更新,即训练过程中需要对各个预设ViT网络自身进行独立优化,从而在下一次对输入的卷积神经网络中多个中间层输出的特征图进行特征提取时,能够不断的降低第二预设损失函数值以进行优化。
步骤S150,根据第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对卷积神经网络进行权重和偏置更新。
其中,在根据第二损失函数值同步对各个预设ViT网络自身进行权重和偏置更新后,还需要进一步对卷积神经网络进行权重和偏置更新,此时进一步将第二损失函数值和第一损失函数值进行融合,以将各个预设ViT网络对应的第二损失函数值作为卷积神经网络整体损失函数值的一部分,从而使得卷积神经网络能够综合利用第一损失函数值和第二损失函数值对自身网络进行优化。
步骤S160,循环执行上述步骤,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
其中,卷积神经网络循环执行上述步骤S110至步骤S150,以对自身进行权重和偏置更新,直至卷积神经网络对应的第一预设损失函数收敛,从而生成对应的图像识别模型。
其中,生成的图像识别模型中需要去除上述各个预设ViT网络。
上述图像识别模型的训练方法,通过将卷积神经网络输出的特征图输入到各个预设ViT网络,从而在特征图的层面直接对各个预设ViT网络的权重进行优化,同时,根据第一损失函数值和第二损失函数值对卷积神经网络进行权重和偏置更新,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型,从而让图像识别模型既可利用各个预设ViT网络进行充分训练,又可不依赖各个预设ViT网络而产生识别预测结果,进而使得上述图像识别模型能够更好的适配各个推理平台,并仍然可利用现有计算机视觉领域中各种优秀卷积神经网络结构以及对应的训练方法,实现了传统的卷积神经网络结构和ViT网络模型的有效融合,克服现有计算机视觉领域的有效方法往往无法直接与这种采用ViT网络模型的新型视觉方法进行结合的缺点。
在一个实施例中,如图2所示,步骤S110包括:
步骤S112,通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以生成对应的预测值。
其中,卷积神经网络在对输入的训练图像数据集进行特征提取处理时,会得到对应的预测值。
步骤S114,根据第一预设损失函数、预测值和预设标注值,得到卷积神经网络对应的第一损失函数值。
其中,训练图像数据集的每张训练图片数据均有对应的预设标注值,因此,在得到预测值之后,可进一步根据第一预设损失函数计算得到卷积神经网络对应的第一损失函数值。
在一个实施例中,第一预设损失函数采用交叉熵损失函数,如图3所示,步骤S112之前还包括:
步骤S170,基于交叉熵损失函数,将训练图像数据集输入到初始卷积神经网络进行训练,直至交叉熵损失函数收敛,得到训练收敛后的卷积神经网络。
其中,卷积神经网络通常为已经训练收敛的卷积神经网络,在步骤S110之前,可基于交叉熵损失函数,将训练图像数据集输入到初始卷积神经网络进行训练,直至交叉熵损失函数收敛,从而得到训练收敛后的卷积神经网络。
在一个实施例中,中间层为池化层,如图4所示,步骤S130包括:
步骤S132,将多个池化层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以获取各自对应的预测标签值。
步骤S134,根据第二预设损失函数、各个预设ViT网络各自对应的预测标签值和真实标签值,计算得到各个预设ViT网络各自对应的第二损失函数值。
其中,池化层在卷积神经网络中是起到压缩特征图的作用,包含了各个尺度的特征图,中间层选择为池化层,目的在于充分利用多个尺度的特征图对各个预设ViT网络进行训练,在中间层选择为池化层的基础上,通过将多个池化层输出的特征图输入各个预设ViT网络进行特征提取处理,以获取各自对应的预测标签值,进而根据第二预设损失函数、各个预测标签值和对应的真实标签值,得到各个预设ViT网络对应的第二损失函数值,从而为后续的训练过程奠定基础。
在一个实施例中,上述池化层采用最大池化层,上述卷积神经网络采用VGG16主干网络。
在一个实施例中,如图5所示,步骤S132之前还包括:
步骤S180,基于第二预设损失函数,将训练图像数据集分别输入到各个初始ViT网络进行训练,直至各自对应的第二预设损失函数收敛,得到训练收敛后的各个预设ViT网络。
其中,在执行步骤S130之前,通常基于第二预设损失函数,将训练图像数据集分别输入到各个初始ViT网络进行训练,直至各自对应的第二预设损失函数收敛,得到训练收敛后的各个预设ViT网络。
在一个实施例中,如图6所示,步骤S150包括:
步骤S152,将第一损失函数值和第二损失函数值按照预设比例进行加权处理,以得到加权后的损失函数值。
其中,在将第一损失函数值和第二损失函数值进行融合时,通常需要对第一损失函数值和第二损失函数值按照预设比例进行加权处理,以得到加权后的损失函数值。
步骤S154,根据加权后的损失函数值,通过反向传播求取梯度对卷积神经网络进行权重和偏置更新。
其中,加权后的损失函数值作为卷积神经网络的整体函数损失值,进一步通过反向传播求取梯度对卷积神经网络进行权重和偏置更新。
本实施例中,通过将第一损失函数值和第二损失函数值按照预设比例进行加权处理,以得到加权后的损失函数值,从而根据加权后的损失函数值,通过反向传播求取梯度对卷积神经网络进行权重和偏置更新,考虑了ViT网络的预测优点,从而将统的卷积神经网络结构和ViT网络模型进行融合,以克服现有计算机视觉领域的有效方法往往无法直接与这种采用ViT网络模型的新型视觉方法进行结合的缺点。
此外,还提供一种图像识别方法,该图像识别方法采用上述实施例中训练方法所训练得到的图像识别模型进行图像识别。
此外,如图7所示,还提供一种图像识别模型的训练网络200,包括:
卷积神经网络处理单元210,用于对输入的训练图像数据集进行特征提取处理,以得到对应的第一损失函数值以及多个中间层输出的特征图;
ViT网络处理单元220,与卷积神经网络处理单元210中的多个中间层的输出端相连接,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
ViT网络处理单元220还用于根据第二损失函数值对各个预设ViT网络进行权重和偏置更新;
卷积神经网络处理单元210还用于根据第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对自身的卷积神经网络进行权重和偏置更新,直至卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
此外,如图8所示,还提供一种图像识别模型的训练装置300,包括:
第一函数值生成单元310,用于通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到所述卷积神经网络对应的第一损失函数值;
特征图获取单元320,用于获取所述卷积神经网络中多个中间层输出的特征图;
第二函数值生成单元330,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
第一更新单元340,用于根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新;
第二更新单元350,用于根据所述第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对所述卷积神经网络进行权重和偏置更新;
模型生成单元360,用于当所述卷积神经网络对应的第一预设损失函数收敛时生成对应的图像识别模型。
此外,还提供一种可读存储介质,可读存储介质存储有计算机程序,计算机程序在被处理器执行时实施上述训练方法。
上述训练装置中各个单元的划分仅用于举例说明,在其他实施例中,可将上述训练装置按照需要划分为不同的单元,以完成上述训练装置的全部或部分功能。关于的上述训练装置的具体限定可以参见上文中对于方法的限定,在此不再赘述。
即,以上仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,例如各实施例之间技术特征的相互结合,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
另外,对于特性相同或相似的结构元件,本申请可采用相同或者不相同的标号进行标识。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,“例如”一词是用来表示“用作例子、例证或说明”。本申请中被描述为“例如”的任何一个实施例不一定被解释为比其它实施例更加优选或更加具优势。为了使本领域任何技术人员能够实现和使用本申请,本申请给出了以上描述。在以上描述中,为了解释的目的而列出了各个细节。
应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其它实施例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。

Claims (10)

1.一种图像识别模型的训练方法,其特征在于,包括:
通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到所述卷积神经网络对应的第一损失函数值;
获取所述卷积神经网络中多个中间层输出的特征图;
将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新;
根据所述第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对所述卷积神经网络进行权重和偏置更新;
循环执行上述步骤,直至所述卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
2.根据权利要求1所述的训练方法,其特征在于,所述通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到所述卷积神经网络对应的第一损失函数值的步骤包括:
通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以生成对应的预测值;
根据第一预设损失函数、所述预测值和预设标注值,得到所述卷积神经网络对应的第一损失函数值。
3.根据权利要求2所述的训练方法,其特征在于,所述第一预设损失函数采用交叉熵损失函数,所述通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以生成对应的预测值的步骤之前还包括:
基于所述交叉熵损失函数,将所述训练图像数据集输入到初始卷积神经网络进行训练,直至所述交叉熵损失函数收敛,得到训练收敛后的卷积神经网络。
4.根据权利要求1所述的训练方法,其特征在于,所述中间层为池化层,所述将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值的步骤包括:
将所述多个池化层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以获取各自对应的预测标签值;
根据第二预设损失函数、各个预设ViT网络各自对应的预测标签值和真实标签值,计算得到各个预设ViT网络各自对应的第二损失函数值。
5.根据权利要求4所述的训练方法,其特征在于,所述将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值的步骤之前还包括:
基于第二预设损失函数,将所述训练图像数据集输入到分别输入到各个初始ViT网络进行训练,直至所述第二预设损失函数收敛,得到训练收敛后的各个预设ViT网络。
6.根据权利要求1所述的训练方法,其特征在于,所述根据所述第一损失函数值和所述第二损失函数值对所述卷积神经网络进行权重和偏置更新的步骤包括:
将所述第一损失函数值和所述第二损失函数值按照预设比例进行加权处理,以得到加权后的损失函数值;
根据所述加权后的损失函数值,通过反向传播求取梯度对所述卷积神经网络进行权重和偏置更新。
7.一种图像识别模型的训练网络,其特征在于,包括:
卷积神经网络处理单元,用于对输入的训练图像数据集进行特征提取处理,以得到对应的第一损失函数值以及多个中间层输出的特征图;
ViT网络处理单元,与所述卷积神经网络处理单元中的多个中间层的输出端相连接,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
所述ViT网络处理单元还用于根据所述第二损失函数值对各个预设ViT网络进行权重和偏置更新;
所述卷积神经网络处理单元还用于根据所述第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对自身的卷积神经网络进行权重和偏置更新,直至所述卷积神经网络对应的第一预设损失函数收敛以生成对应的图像识别模型。
8.一种图像识别模型的训练装置,其特征在于,包括:
第一函数值生成单元,用于通过卷积神经网络对输入的训练图像数据集进行特征提取处理,以得到所述卷积神经网络对应的第一损失函数值;
特征图获取单元,用于获取所述卷积神经网络中多个中间层输出的特征图;
第二函数值生成单元,用于将各个中间层输出的特征图分别输入到各自对应的预设ViT网络进行特征提取处理,以得到各个预设ViT网络各自对应的第二损失函数值;
第一更新单元,用于根据各自对应的第二损失函数值,分别对各个预设ViT网络进行权重和偏置更新;
第二更新单元,用于根据所述第一损失函数值和各个预设ViT网络各自对应的第二损失函数值对所述卷积神经网络进行权重和偏置更新;
模型生成单元,用于当所述卷积神经网络对应的第一预设损失函数收敛时生成对应的图像识别模型。
9.一种设备终端,其特征在于,所述设备终端包括处理器和存储器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述设备终端执行权利要求1至6中任一项所述的训练方法。
10.一种可读存储介质,其特征在于,所述可读存储介质存储有计算机程序,所述计算机程序在被处理器执行时实施权利要求1至6中任一项所述的训练方法。
CN202210110009.2A 2022-01-29 2022-01-29 图像识别模型的训练方法、训练装置和训练网络 Pending CN114445641A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210110009.2A CN114445641A (zh) 2022-01-29 2022-01-29 图像识别模型的训练方法、训练装置和训练网络

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210110009.2A CN114445641A (zh) 2022-01-29 2022-01-29 图像识别模型的训练方法、训练装置和训练网络

Publications (1)

Publication Number Publication Date
CN114445641A true CN114445641A (zh) 2022-05-06

Family

ID=81371276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210110009.2A Pending CN114445641A (zh) 2022-01-29 2022-01-29 图像识别模型的训练方法、训练装置和训练网络

Country Status (1)

Country Link
CN (1) CN114445641A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147669A (zh) * 2022-06-24 2022-10-04 北京百度网讯科技有限公司 基于视觉转换器模型的图像处理方法、训练方法和设备
CN115393953A (zh) * 2022-07-28 2022-11-25 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147669A (zh) * 2022-06-24 2022-10-04 北京百度网讯科技有限公司 基于视觉转换器模型的图像处理方法、训练方法和设备
CN115393953A (zh) * 2022-07-28 2022-11-25 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备
CN115393953B (zh) * 2022-07-28 2023-08-08 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备

Similar Documents

Publication Publication Date Title
CN114445641A (zh) 图像识别模型的训练方法、训练装置和训练网络
CN109990790A (zh) 一种无人机路径规划方法及装置
CN110119746B (zh) 一种特征识别方法及装置、计算机可读存储介质
CN116580257A (zh) 特征融合模型训练及样本检索方法、装置和计算机设备
CN111310057A (zh) 在线学习挖掘方法、装置、在线学习系统及服务器
CN114529765A (zh) 一种数据处理方法、设备以及计算机可读存储介质
CN116910611A (zh) 基于大数据的智能环境监测系统及其方法
CN115146761A (zh) 一种缺陷检测模型的训练方法和相关装置
CN109858031B (zh) 神经网络模型训练、上下文预测方法及装置
CN114511083A (zh) 一种模型的训练方法、装置、存储介质及电子装置
CN110135428A (zh) 图像分割处理方法和装置
CN115049851B (zh) 基于YOLOv5网络的目标检测方法、装置和设备终端
CN116797681A (zh) 渐进式多粒度语义信息融合的文本到图像生成方法及系统
CN111428612A (zh) 行人重识别方法、终端、装置及存储介质
CN113792713B (zh) 模型训练、人脸识别模型更新方法、电子设备及存储介质
CN114463559A (zh) 图像识别模型的训练方法、装置、网络和图像识别方法
CN115457269A (zh) 一种基于改进DenseNAS的语义分割方法
CN112819006B (zh) 图像处理方法、装置及电子设备
CN110502715B (zh) 点击概率的预测方法及装置
CN110728217B (zh) Sar图像识别方法、装置、设备和存储介质
CN113822790A (zh) 一种图像处理方法、装置、设备及计算机可读存储介质
CN115240171B (zh) 道路结构感知方法及装置
CN117173719B (zh) 文本识别方法、装置、设备及存储介质
CN115146018B (zh) 一种目标确定方法及装置
CN113283549B (zh) 一种车辆属性识别模型的训练方法、系统及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination