CN113610016A - 视频帧特征提取模型的训练方法、系统、设备及存储介质 - Google Patents
视频帧特征提取模型的训练方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN113610016A CN113610016A CN202110918442.4A CN202110918442A CN113610016A CN 113610016 A CN113610016 A CN 113610016A CN 202110918442 A CN202110918442 A CN 202110918442A CN 113610016 A CN113610016 A CN 113610016A
- Authority
- CN
- China
- Prior art keywords
- video frame
- network
- feature extraction
- training
- paths
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 126
- 238000000605 extraction Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 51
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 230000009466 transformation Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical group C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 229910015234 MoCo Inorganic materials 0.000 description 1
- 241000219000 Populus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频帧特征提取模型的训练方法、系统、设备及存储介质。方法包括:S1、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;S2、将两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;S3、将两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;S4、计算相似度矩阵的损失值;S5、如损失值大于阈值,则根据损失值调整对比训练网络,并返回S1;否则判定对比训练网络拟合,并转入S6;S6、提取对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。系统:图像增强单元、双路特征提取单元、相似度矩阵单元、损失值计算单元、判断单元、单路网络提取单元。
Description
技术领域
本发明涉及计算机机器视觉技术领域,特别涉及视频帧特征提取模型的训练方法、系统、设备及存储介质。
背景技术
图片样例比对,又被称为图片同源比对,是指一个图片通过缩放、压缩、部分旋转、颜色变换、格式转换、部分裁剪、马赛克、模糊、贴标、文字遮挡等处理的图片仍然与原图正确匹配。
目前图片样例提取的方法基本是采用基于传统手工提取特征的方法,包括直接提取局部敏感哈希(LSH)建立索引,或者提取颜色分布特征,HOG、SIFT等梯度特征来进行特征提取的方法,这类方法容易受到噪声的干扰,无法适应图片的各种变换操作,比如基于颜色分布特征的方法无法适应颜色变换的场景,HOG、SIFT等梯度特征的方法无法有效适应文字遮挡、部分裁剪、马赛克、一定程度的模糊等场景,在实际算法应用中,往往会造成非常高的漏检率。
因此,需要一种视频帧特征提取模型,并对该视频帧特征提取模型加以训练拟合,进而可以完成图片同源比对时的特征提取。
发明内容
本发明提供了视频帧特征提取模型的训练方法、系统、设备及存储介质,用以解决现有技术中容易受到噪声干扰,无法适应图片变换,漏检率较高的问题。
为达到上述目的,本发明提供以下技术方案:
第一部分,本发明实施例的一种视频帧特征提取模型的训练方法,包括下列步骤:S1、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;S2、将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;S3、将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;S4、计算所述相似度矩阵的损失值;S5、如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回S1;否则判定所述的对比训练网络拟合,并转入S6;S6、提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
优选的,步骤S1中所述的图像增强,具体包括:上下加黑边、上下翻转、左右翻转、上下左右同时翻转、行列变换、视频帧压缩、视频帧切片、灰度变换、尺度变换、运动模糊、高斯模糊、仿射变换、中值模糊、亮度扰动、色度扰动、饱和度扰动、对比度增强、锐化,或/和浮雕。
进一步的,原视频帧图像与其增强后得到的增强视频帧图像之间为相似视频帧对,以及同一原视频帧图像增强后得到的各增强视频帧图像两两之间互为相似视频帧对;不同原视频帧图像之间为不相似视频帧对,以及非同一原视频帧图像增强后得到的各增强视频帧图像两两之间互为不相似视频帧对。
进一步的,步骤S4中计算相似度矩阵的损失值,具体通过如下公式计算:
其中,C表示相似度矩阵,加号之前部分表示相似视频帧对的损失值,加号之后部分表示不相似视频帧对的损失值。
优选的,步骤S1中所述的两路增强视频帧图像集内的视频帧顺序保持一致。
优选的,所述特征提取子网络的主干网络是具有跨层连接结构的网络。
进一步的,所述特征提取子网络的主干网络以ResNet网络、DenseNet网络,或者SE-Net网络作为基础。
第二部分,本发明实施例的一种视频帧特征提取模型的训练系统,包括:图像增强单元,用于将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;双路特征提取单元,用于将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;相似度矩阵单元,用于将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;损失值计算单元,用于计算所述相似度矩阵的损失值;判断单元,如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回所述图像增强单元;否则判定所述的对比训练网络拟合,并转入单路网络提取单元;所述单路网络提取单元,用于提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
第三部分,本发明实施例的一种计算机设备,包括:存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明任意实施例所述的视频帧特征提取模型的训练方法。
第四部分,本发明实施例的一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本发明任意实施例所述的视频帧特征提取模型的训练方法。
本发明的视频帧特征提取模型的训练方法、系统、设备及存储介质,相对于现有技术,使用卷积神经网络模型训练得到特征提取模型,增加了模型的变换适应性,也使得应对各类视频帧变换更灵活,避免了底层视频帧空域特征易受噪声的影响,较传统特征提取方案更加鲁棒,降低了漏检率;并且缓解了对比学习依赖大量负样本提升效果的问题,使用相似度矩阵的相似度度量方式,简化了数据集准备和模型训练的难度,提高了模型训练的效果。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例1的视频帧特征提取模型的训练方法流程图;
图2为本发明实施例1中视频帧图像增强操作及标注标签的过程图;
图3为本发明实施例1中对比训练网络的架构图;
图4为本发明实施例1中ResNet50为基础的特征提取网络结构示意图;
图5为常见对比学习流程图;
图6为本发明实施例1中的对比训练网络的训练流程图;
图7为本发明实施例2的视频帧特征提取模型的训练系统结构示意图;
图8为本发明实施例3的计算机设备的结构示意图。
具体实施方式
发明人经过研究发现,目前模型的构建都是与领域知识密切相关的,对领域理解越清晰,构建的模型就越有针对性,效果也会越好。发明人考虑到在构建视频帧样例特征提取模型之前,首先要明确应用的场景。图片样例比对是指比对的图片是否同源,其应用场景是来自于视频帧来源追溯,主要应用于版权保护等领域。视频帧/图片检索往往关注视觉表观,比如两个完全不同的拍摄地点、只要场景类似,视频帧/图片检索往往也会返回较高的相似度,比如从北京颐和园和苏州拙政园拍摄的两帧视频帧/两张图片,两个完全不同的地点,但是都因为有假山、有湖水,有杨柳等,在视频帧/图片检索关注视觉表观看来具有比较高的相似度,视频帧/图片检索对空间特征往往具有很高的适应性,空间的改变对视频帧/图片检索的效果并没有明显影响;与人脸比对也不同,人脸比对强调的哪怕随着个人装扮和年龄的变化,人脸比对对同一个人脸也会返回较高的相似度,时间改变对人脸比对的效果应该鲁棒。而本发明的样例比对模型是比对场景的两帧视频帧/图片是否同源,在时间和空间上都有更加严格的要求,要求必须是同一帧视频帧经过缩放、压缩、部分旋转、颜色变换、格式转换、部分裁剪、马赛克、模糊、贴标、文字遮挡、增加边框等处理的视频帧仍然与原视频帧具有很高的相似度。这样的变换操作要求指导了发明人进行数据集收集和预处理的流程、同时也表明本发明与之前的诸多基于视觉表观特征提取的模型会有一些差异,本发明更加关注视频帧的简单处理变换,视觉表观特征提取模型则更加关注于视频帧语义特征。另一方面,受自监督学习中的对比学习的启发,本发明构建了基于对比网络训练得到的视频帧特征提取模型,并优化了模型训练方法。与传统的有监督学习需要大量人工标注数据的方法不同,所谓自监督学习,是通过数据的一部分去预测另一部分从而产生标签预测的过程。以下通过实施例具体详述。
实施例1、本实施例的视频帧特征提取模型的训练方法,参见图1所示,包括下列主要步骤:
S110、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集。
具体的,首先收集原视频帧数据集,例如收集约60万张原视频帧图像,并且保证数据集中没有大量相同的原视频帧图像。具体可以采用网络爬取的随机图像数据集,虽然不能避免出现相同的原视频帧图像,但是概率较小,因此可以满足数据集中没有大量相同的原视频帧图像;或者采用已有的数据集。然后对原视频帧数据集中任一批次的原视频帧图像进行图像增强,具体采用包括但不限于:上下加黑边、上下翻转、左右翻转、上下左右同时翻转、行列变换、视频帧压缩、视频帧切片、灰度变换、尺度变换、运动模糊、高斯模糊、仿射变换、中值模糊、亮度扰动、色度扰动、饱和度扰动、对比度增强、锐化,或/和浮雕。数据增强的多样性也会使得网络模型能够适应更多种类的视频帧变换方式,增强模型鲁棒性。
与传统的人手工标注视频帧样本标签的方式不同,如图2所示,通过对原视频帧图像增强操作,自然而然就标注了视频帧对的标签,即原视频帧图像与经过如上述变换的增强视频帧图像之间为相似视频帧对,以及同一原视频帧图像增强后得到的各增强视频帧图像两两之间也互为相似视频帧对;不同原视频帧图像之间为不相似视频帧对,以及非同一原视频帧图像增强后得到的各增强视频帧图像两两之间也互为不相似视频帧对。例如:相似视频帧标签值为1,不相似视频帧标签值为0。
之后得到两路增强视频帧图像集,两路增强视频帧图像集内的视频帧顺序保持一致。
S120、将两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集。
本实施例中,对比训练网络的架构如图3所示,对比训练网络中包含两路相同或不同结构的特征提取子网络分支,用于接收两路视频帧的输入,通过网络将视频帧映射到低维度的空间表示,对比两路网络的输出相似度,即可评价两路输入视频帧的相似程度。如图4所示,特征提取子网络的主干网络是具有跨层连接结构的网络,例如:以ResNet网络、DenseNet网络,或者SE-Net网络,一方面这类网络模型由于加了跨层连接,使得训练过程的梯度变化更加平滑,不容易出现梯度消失的问题,从而有利于网络向更深的更具变大的结构迈进,而深度学习的观点也普遍认为更深的网络学习到的特征越具有表现力,降低数据噪声对模型的影响;另一方面,ResNet50作为经典的网络结构,很多硬件平台都做了充分的优化,能够保证模型在实际进行特征提取过程中的效率。再配合特征维度映射层和归一化层,实现特征的提取。
具体在本实施例中,将两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集。相较传统的特征提取方式,只能适应某几种视频帧变换并且难以修改的缺点,本实施例的方法基于对比训练网络的特征提取方式,可以在数据集的数据增强方式上做更新,能达到改变模型适应范围的目的。
S130、将两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵。
如上所述,由于各视频帧图像已经被自动标记了相似或不相似标签,因此获得两路特征集中的各特征也带有相应的标签。
常用的对比学习训练框架大多采用如图5所示的流程。输入的是视频帧对,标签为不相似和相似,分别标记为0和1。视频帧图像A和视频帧图像A'组成的正样本对,即相似视频帧对,视频帧图像A'由A的数据增强变换得到,经过特征提取子网络后的特征A和特征A',两特征点乘得到的相似度的优化目标为标签值1;视频帧图像A和视频帧图像B组成负样本对,即不相似视频帧对,经过特征提取子网络后的特征A和特征B,两特征间的相似度优化目标为标签0。基于以上目标构建目标函数,使用梯度下降优化方法,训练后就得到了特征提取子网络的权重,通过此模型能够得到有利于同源视频帧比对的视频帧特征表示。但是,其基本机制是视频帧正负样本对之间相似度得到损失进行模型训练。实验表明,更多的负样本参与损失计算能使得模型得到更好的效果,所以使用队列的方式(MoCo V1)或者使用更多的计算设备(SimCLR)来引入更多样本对,可以提升模型效果。然而,在模型训练中损失函数计算时,该方案只考虑了构造的视频帧样本对内两图之间的对比损失。
基于上述分析,本实施例中认为输入的一个批次的原视频帧图像两两之间相互为不相似视频帧对。如图6所示,四个原视频帧图像ABCD组成一个批次,经过数据增强后分别得到A1、B1、C、D1和A2、B2、C2、D2两路增强视频帧图像集,两路增强视频帧图像集内视频帧顺序保持一致。其中,相同索引位置的A1和A2、B1和B2、C1和C1、D1和D2为相似视频帧对,不相同索引位置的A1与B2、C2、D2分别为不相似视频帧对,以此类推。每个增强视频帧图像经特征提取子网络后,得到一个维度大小为固定维度(如:256维)的特征向量,图中FA1、FB1等表示特征向量,一组特征向量组成一个矩阵,输出的两组特征向量做互相关乘法计算(矩阵乘法),即可得到两组特征的相似度矩阵,相似度矩阵为方阵,矩阵的秩为批次图像的大小,图6中秩为4。参照前述的相似视频帧对和不相似视频帧对,相似度矩阵的主对角线上为相似视频帧对相似度,即A1和A2、B1和B2、C1和C2、D1和D2,除主对角线外其他位置为不相似视频帧对的相似度,即A1和B2、B1和A2等,相似度矩阵对应的标签值,即为单位矩阵,其主对角线位置元素值为1,其余位置元素值为0。因此,计算整个批次的原视频帧图像之间的相似度,则能够有效的引入更多的负样本信息。同时,可以只构造相似视频帧对即可完成数据集输入准备的过程,从而避免了多余的计算并加快模型的训练速度。
S140、计算所述相似度矩阵的损失值。
相似度矩阵的损失值计算公式如下:
其中,C为两个网络输出特征的互相关矩阵,加和第一项为相似视频帧对的损失值,第二项为不相似视频帧对的损失值。
S150、如损失值大于阈值,则根据损失值调整对比训练网络,并返回S110;否则判定对比训练网络拟合,并转入S160;
具体使用反向传播算法,调整对比训练网络的参数。不断迭代上述步骤,以使损失值不断减小,直至小于等于阈值。
S160、提取对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
训练完成的对比训练网络,其网络结构中包含两路特征提取子网络,并不适用于特征提取的应用。本实施例中,将任一路特征提取子网络从对比训练网络的结构中剥离出来,即完成了视频帧特征提取模型的训练。对于需要特征提取的视频帧样例集,经过该视频帧特征提取模型的一次前向传播,视频帧特征提取模型的输出即是所需要的对比特征。
综上所述,现有深度卷积网络的训练需要大量的视频帧数据,在有监督学习的情境下,需要对大量视频帧进行人工标注,给定视频帧正确的标签,才能完成网络模型的训练。而本实施例的视频帧特征提取模型的训练方法中采用的自监督对比训练网络,无需进行数据标注工作,采用自身设定的样本对生成方式即可完成标签的自动生成,从而达到网络训练的目的。因此,对比训练网络的数据集拥有容易构造,数据规模很大,无需标注成本等优势。另一方面,网络学习的目标即是对视频帧的各种格式和变换、以及遮挡等处理鲁棒,而对比训练网络可以同时接受两路视频帧作为输入,从而让网络学习相应的变换,所以对比训练网络的结构也符合视频帧样例比对的需求。再一方面,本实施例使用相似度矩阵的方式,获得了正样本对的损失和大量负样本对的损失,对于训练得到效果较好的模型十分有益。原视频帧图像采样方式,正样本对和负样本对数量相当,因为正样本对很相似,拉近网络对正样本对输出的特征距离较容易,而单个视频帧,拉远所有其他视频帧与其特征的距离则较难,要使用大量的负样本对才可以完成。因此,本实施例使用相似度矩阵的方式来增加负样本对数据,引入大量负样本提升了网络效果。
实施例2、本实施例的视频帧特征提取模型的训练系统,参见图7所示,包括:图像增强单元210、双路特征提取单元220、相似度矩阵单元230、损失值计算单元240、判断单元250,以及单路网络提取单元260。
图像增强单元210,用于将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集。具体的,首先收集原视频帧数据集,例如收集约60万张原视频帧图像,并且保证数据集中没有大量相同的原视频帧图像。具体可以采用网络爬取的随机图像数据集,虽然不能避免出现相同的原视频帧图像,但是概率较小,因此可以满足数据集中没有大量相同的原视频帧图像;或者采用已有的数据集。然后对原视频帧数据集中任一批次的原视频帧图像进行图像增强,具体采用包括但不限于:上下加黑边、上下翻转、左右翻转、上下左右同时翻转、行列变换、视频帧压缩、视频帧切片、灰度变换、尺度变换、运动模糊、高斯模糊、仿射变换、中值模糊、亮度扰动、色度扰动、饱和度扰动、对比度增强、锐化,或/和浮雕。数据增强的多样性也会使得网络模型能够适应更多种类的视频帧变换方式,增强模型鲁棒性。与传统的人手工标注视频帧样本标签的方式不同,通过对原视频帧图像增强操作,自然而然就标注了视频帧对的标签,即原视频帧图像与经过如上述变换的增强视频帧图像之间为相似视频帧对,以及同一原视频帧图像增强后得到的各增强视频帧图像两两之间也互为相似视频帧对;不同原视频帧图像之间为不相似视频帧对,以及非同一原视频帧图像增强后得到的各增强视频帧图像两两之间也互为不相似视频帧对。例如:相似视频帧标签值为1,不相似视频帧标签值为0。之后得到两路增强视频帧图像集,两路增强视频帧图像集内的视频帧顺序保持一致。
双路特征提取单元220,用于将两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集。具体的,对比训练网络中包含两路相同或不同结构的特征提取子网络分支,用于接收两路视频帧的输入,通过网络将视频帧映射到低维度的空间表示,对比两路网络的输出相似度,即可评价两路输入视频帧的相似程度。特征提取子网络的主干网络是具有跨层连接结构的网络,例如:以ResNet网络、DenseNet网络,或者SE-Net网络,一方面这类网络模型由于加了跨层连接,使得训练过程的梯度变化更加平滑,不容易出现梯度消失的问题,从而有利于网络向更深的更具变大的结构迈进,而深度学习的观点也普遍认为更深的网络学习到的特征越具有表现力,降低数据噪声对模型的影响;另一方面,ResNet50作为经典的网络结构,很多硬件平台都做了充分的优化,能够保证模型在实际进行特征提取过程中的效率。再配合特征维度映射层和归一化层,实现特征的提取。具体在本实施例中,将两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集。相较传统的特征提取方式,只能适应某几种视频帧变换并且难以修改的缺点,本实施例的方法基于对比训练网络的特征提取方式,可以在数据集的数据增强方式上做更新,能达到改变模型适应范围的目的。
相似度矩阵单元230,用于将两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵。具体的,由于各视频帧图像已经被自动标记了相似或不相似标签,因此获得两路特征集中的各特征也带有相应的标签。本实施例中认为输入的一个批次的原视频帧图像两两之间相互为不相似视频帧对。例如:四个原视频帧图像ABCD组成一个批次,经过数据增强后分别得到A1、B1、C、D1和A2、B2、C2、D2两路增强视频帧图像集,两路增强视频帧图像集内视频帧顺序保持一致。其中,相同索引位置的A1和A2、B1和B2、C1和C1、D1和D2为相似视频帧对,不相同索引位置的A1与B2、C2、D2分别为不相似视频帧对,以此类推。每个增强视频帧图像经特征提取子网络后,得到一个维度大小为固定维度(如:256维)的特征向量,FA1、FB1等表示特征向量,一组特征向量组成一个矩阵,输出的两组特征向量做互相关乘法计算(矩阵乘法),即可得到两组特征的相似度矩阵,相似度矩阵为方阵,矩阵的秩为批次图像的大小。参照前述的相似视频帧对和不相似视频帧对,相似度矩阵的主对角线上为相似视频帧对相似度,即A1和A2、B1和B2、C1和C2、D1和D2,除主对角线外其他位置为不相似视频帧对的相似度,即A1和B2、B1和A2等,相似度矩阵对应的标签值,即为单位矩阵,其主对角线位置元素值为1,其余位置元素值为0。因此,计算整个批次的原视频帧图像之间的相似度,则能够有效的引入更多的负样本信息。同时,可以只构造相似视频帧对即可完成数据集输入准备的过程,从而避免了多余的计算并加快模型的训练速度。
判断单元250,如损失值大于阈值,则根据损失值调整对比训练网络,并返回图像增强单元210;否则判定对比训练网络拟合,并转入单路网络提取单元260。具体使用反向传播算法,调整对比训练网络的参数。不断迭代,以使损失值不断减小,直至小于等于阈值。
单路网络提取单元260,用于提取对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。训练完成的对比训练网络,其网络结构中包含两路特征提取子网络,并不适用于特征提取的应用。本实施例中,将任一路特征提取子网络从对比训练网络的结构中剥离出来,即完成了视频帧特征提取模型的训练。对于需要特征提取的视频帧样例集,经过该视频帧特征提取模型的一次前向传播,视频帧特征提取模型的输出即是所需要的对比特征。
综上所述,现有深度卷积网络的训练需要大量的视频帧数据,在有监督学习的情境下,需要对大量视频帧进行人工标注,给定视频帧正确的标签,才能完成网络模型的训练。而本实施例的视频帧特征提取模型的训练系统中采用的自监督对比训练网络,无需进行数据标注工作,采用自身设定的样本对生成方式即可完成标签的自动生成,从而达到网络训练的目的。因此,对比训练网络的数据集拥有容易构造,数据规模很大,无需标注成本等优势。另一方面,网络学习的目标即是对视频帧的各种格式和变换、以及遮挡等处理鲁棒,而对比训练网络可以同时接受两路视频帧作为输入,从而让网络学习相应的变换,所以对比训练网络的结构也符合视频帧样例比对的需求。再一方面,本实施例使用相似度矩阵的方式,获得了正样本对的损失和大量负样本对的损失,对于训练得到效果较好的模型十分有益。原视频帧图像采样方式,正样本对和负样本对数量相当,因为正样本对很相似,拉近网络对正样本对输出的特征距离较容易,而单个视频帧,拉远所有其他视频帧与其特征的距离则较难,要使用大量的负样本对才可以完成。因此,本实施例使用相似度矩阵的方式来增加负样本对数据,引入大量负样本提升了网络效果。
实施例3、本实施例的计算机设备,参见图8所示,显示的计算机设备300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机设备300以通用计算设备的形式表现。计算机设备300的组件可以包括但不限于:一个或者多个处理器或者处理单元301,系统存储器302,连接不同系统组件(包括系统存储器302和处理单元301)的总线303。
总线303表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备300典型的包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备300访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器302可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)304和/或高速缓存305。计算机设备300可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统306可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线303相连。系统存储器302可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块307的程序/实用工具308,可以存储在例如系统存储器302中,这样的程序模块307包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块307通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备300也可以与一个显示器310或多个外部设备309(例如键盘、指向设备、等)通信,还可与一个或者多个使得用户能与该计算机设备300交互的设备通信,和/或与使得该计算机设备300能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口311进行。并且,计算机设备300还可以通过网络适配器312与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网通信。如图8所示,网络适配器312通过总线303与计算机设备300的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元301通过运行存储在系统存储器302中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种视频帧特征提取模型的训练方法,包括下列步骤:S110、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;S120、将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;S130、将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;S140、计算所述相似度矩阵的损失值;S150、如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回S110;否则判定所述的对比训练网络拟合,并转入S160;S160、提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
实施例4、本实施例的包含计算机可执行指令的存储介质,其内部存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的一种视频帧特征提取模型的训练方法,包括下列步骤:S110、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;S120、将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;S130、将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;S140、计算所述相似度矩阵的损失值;S150、如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回S110;否则判定所述的对比训练网络拟合,并转入S160;S160、提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
本实施例的包含计算机可执行指令的存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种视频帧特征提取模型的训练方法,其特征在于,包括下列步骤:
S1、将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;
S2、将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;
S3、将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;
S4、计算所述相似度矩阵的损失值;
S5、如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回S1;否则判定所述的对比训练网络拟合,并转入S6;
S6、提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
2.如权利要求1所述的视频帧特征提取模型的训练方法,其特征在于,步骤S1中所述的图像增强,具体包括:上下加黑边、上下翻转、左右翻转、上下左右同时翻转、行列变换、视频帧压缩、视频帧切片、灰度变换、尺度变换、运动模糊、高斯模糊、仿射变换、中值模糊、亮度扰动、色度扰动、饱和度扰动、对比度增强、锐化,或/和浮雕。
3.如权利要求2所述的视频帧特征提取模型的训练方法,其特征在于,原视频帧图像与其增强后得到的增强视频帧图像之间为相似视频帧对,以及同一原视频帧图像增强后得到的各增强视频帧图像两两之间互为相似视频帧对;不同原视频帧图像之间为不相似视频帧对,以及非同一原视频帧图像增强后得到的各增强视频帧图像两两之间互为不相似视频帧对。
5.如权利要求1所述的视频帧特征提取模型的训练方法,其特征在于,步骤S1中所述的两路增强视频帧图像集内的视频帧顺序保持一致。
6.如权利要求1所述的视频帧特征提取模型的训练方法,其特征在于,所述特征提取子网络的主干网络是具有跨层连接结构的网络。
7.如权利要求6所述的视频帧特征提取模型的训练方法,其特征在于,所述特征提取子网络的主干网络以ResNet网络、DenseNet网络,或者SE-Net网络作为基础。
8.一种视频帧特征提取模型的训练系统,其特征在于,包括:
图像增强单元,用于将任一批次的原视频帧图像经过图像增强后,获取两路增强视频帧图像集;
双路特征提取单元,用于将所述的两路增强视频帧图像集分别输入对比训练网络包含的两路特征提取子网络,获得两路特征集;
相似度矩阵单元,用于将所述的两路特征集沿特征维度作互相关乘法计算,得到相似度矩阵;
损失值计算单元,用于计算所述相似度矩阵的损失值;
判断单元,如所述的损失值大于阈值,则根据所述的损失值调整所述对比训练网络,并返回所述图像增强单元;否则判定所述的对比训练网络拟合,并转入单路网络提取单元;
所述单路网络提取单元,用于提取所述对比训练网络包含的任一路特征提取子网络,完成视频帧特征提取模型的训练。
9.一种计算机设备,包括:存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的视频帧特征提取模型的训练方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一项所述的视频帧特征提取模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110918442.4A CN113610016B (zh) | 2021-08-11 | 2021-08-11 | 视频帧特征提取模型的训练方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110918442.4A CN113610016B (zh) | 2021-08-11 | 2021-08-11 | 视频帧特征提取模型的训练方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610016A true CN113610016A (zh) | 2021-11-05 |
CN113610016B CN113610016B (zh) | 2024-04-23 |
Family
ID=78340230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110918442.4A Active CN113610016B (zh) | 2021-08-11 | 2021-08-11 | 视频帧特征提取模型的训练方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610016B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792821A (zh) * | 2021-11-15 | 2021-12-14 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN115115904A (zh) * | 2022-06-08 | 2022-09-27 | 马上消费金融股份有限公司 | 基于对比学习的模型训练方法及装置 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842134A (zh) * | 2012-07-16 | 2012-12-26 | 西安电子科技大学 | 基于sar图像的快速景象匹配方法 |
CN106570141A (zh) * | 2016-11-04 | 2017-04-19 | 中国科学院自动化研究所 | 近似重复图像检测方法 |
CN106991373A (zh) * | 2017-03-02 | 2017-07-28 | 中国人民解放军国防科学技术大学 | 一种基于深度学习和图论的拷贝视频检测方法 |
CN109636714A (zh) * | 2018-08-30 | 2019-04-16 | 沈阳聚声医疗系统有限公司 | 一种超声宽景成像的图像拼接方法 |
CN109947963A (zh) * | 2019-03-27 | 2019-06-28 | 山东大学 | 一种基于深度学习的多尺度哈希检索方法 |
CN110059605A (zh) * | 2019-04-10 | 2019-07-26 | 厦门美图之家科技有限公司 | 一种神经网络训练方法、计算设备及存储介质 |
CN110321958A (zh) * | 2019-07-08 | 2019-10-11 | 北京字节跳动网络技术有限公司 | 神经网络模型的训练方法、视频相似度确定方法 |
CN111666922A (zh) * | 2020-07-02 | 2020-09-15 | 上海眼控科技股份有限公司 | 视频匹配方法、装置、计算机设备和存储介质 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111950653A (zh) * | 2020-08-24 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 视频处理方法和装置、存储介质及电子设备 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112507990A (zh) * | 2021-02-04 | 2021-03-16 | 北京明略软件系统有限公司 | 视频时空特征学习、抽取方法、装置、设备及存储介质 |
CN112948626A (zh) * | 2021-05-14 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN113011568A (zh) * | 2021-03-31 | 2021-06-22 | 华为技术有限公司 | 一种模型的训练方法、数据处理方法及设备 |
CN113033283A (zh) * | 2020-12-18 | 2021-06-25 | 神思电子技术股份有限公司 | 一种改进的视频分类系统 |
CN113111684A (zh) * | 2020-01-10 | 2021-07-13 | 字节跳动有限公司 | 神经网络模型的训练方法、装置和图像处理系统 |
CN113139628A (zh) * | 2021-06-22 | 2021-07-20 | 腾讯科技(深圳)有限公司 | 样本图像的识别方法、装置、设备及可读存储介质 |
CN113223055A (zh) * | 2021-05-31 | 2021-08-06 | 华中科技大学 | 图像目标跟踪模型建立方法及图像目标跟踪方法 |
CN113239855A (zh) * | 2021-05-27 | 2021-08-10 | 北京字节跳动网络技术有限公司 | 一种视频检测方法、装置、电子设备以及存储介质 |
-
2021
- 2021-08-11 CN CN202110918442.4A patent/CN113610016B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842134A (zh) * | 2012-07-16 | 2012-12-26 | 西安电子科技大学 | 基于sar图像的快速景象匹配方法 |
CN106570141A (zh) * | 2016-11-04 | 2017-04-19 | 中国科学院自动化研究所 | 近似重复图像检测方法 |
CN106991373A (zh) * | 2017-03-02 | 2017-07-28 | 中国人民解放军国防科学技术大学 | 一种基于深度学习和图论的拷贝视频检测方法 |
CN109636714A (zh) * | 2018-08-30 | 2019-04-16 | 沈阳聚声医疗系统有限公司 | 一种超声宽景成像的图像拼接方法 |
CN109947963A (zh) * | 2019-03-27 | 2019-06-28 | 山东大学 | 一种基于深度学习的多尺度哈希检索方法 |
CN110059605A (zh) * | 2019-04-10 | 2019-07-26 | 厦门美图之家科技有限公司 | 一种神经网络训练方法、计算设备及存储介质 |
CN110321958A (zh) * | 2019-07-08 | 2019-10-11 | 北京字节跳动网络技术有限公司 | 神经网络模型的训练方法、视频相似度确定方法 |
CN113111684A (zh) * | 2020-01-10 | 2021-07-13 | 字节跳动有限公司 | 神经网络模型的训练方法、装置和图像处理系统 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111666922A (zh) * | 2020-07-02 | 2020-09-15 | 上海眼控科技股份有限公司 | 视频匹配方法、装置、计算机设备和存储介质 |
CN111950653A (zh) * | 2020-08-24 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 视频处理方法和装置、存储介质及电子设备 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN113033283A (zh) * | 2020-12-18 | 2021-06-25 | 神思电子技术股份有限公司 | 一种改进的视频分类系统 |
CN112507990A (zh) * | 2021-02-04 | 2021-03-16 | 北京明略软件系统有限公司 | 视频时空特征学习、抽取方法、装置、设备及存储介质 |
CN113011568A (zh) * | 2021-03-31 | 2021-06-22 | 华为技术有限公司 | 一种模型的训练方法、数据处理方法及设备 |
CN112948626A (zh) * | 2021-05-14 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN113239855A (zh) * | 2021-05-27 | 2021-08-10 | 北京字节跳动网络技术有限公司 | 一种视频检测方法、装置、电子设备以及存储介质 |
CN113223055A (zh) * | 2021-05-31 | 2021-08-06 | 华中科技大学 | 图像目标跟踪模型建立方法及图像目标跟踪方法 |
CN113139628A (zh) * | 2021-06-22 | 2021-07-20 | 腾讯科技(深圳)有限公司 | 样本图像的识别方法、装置、设备及可读存储介质 |
Non-Patent Citations (4)
Title |
---|
ZHIYUAN LIANG: "Local Semantic Siamese Networks for Fast Tracking", 《IEEE XPLORE》, 17 December 2019 (2019-12-17) * |
张俊: "基于孪生全卷积网络的单目标跟踪方法研究", 《CNKI中国知网》, 15 February 2021 (2021-02-15) * |
李智: "基于数据增强和多通道神经网络的人员搜索方法", 《CNKI中国知网》, 15 January 2020 (2020-01-15) * |
陆丽华: "图像匹配算法及其高速并行实现方法研究", 《百度学术》, 15 August 2012 (2012-08-15) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792821A (zh) * | 2021-11-15 | 2021-12-14 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN113792821B (zh) * | 2021-11-15 | 2022-02-15 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN115115904A (zh) * | 2022-06-08 | 2022-09-27 | 马上消费金融股份有限公司 | 基于对比学习的模型训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113610016B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
Zhao et al. | Dd-cyclegan: Unpaired image dehazing via double-discriminator cycle-consistent generative adversarial network | |
Oron et al. | Extended lucas-kanade tracking | |
CN114332135B (zh) | 一种基于双模型交互学习的半监督医学图像分割方法及装置 | |
Zhang et al. | A new haze removal approach for sky/river alike scenes based on external and internal clues | |
CN108122234A (zh) | 卷积神经网络训练及视频处理方法、装置和电子设备 | |
US10198801B2 (en) | Image enhancement using self-examples and external examples | |
CN109413510B (zh) | 视频摘要生成方法和装置、电子设备、计算机存储介质 | |
WO2023160312A1 (zh) | 基于自监督学习的行人重识别方法、装置、设备及存储介质 | |
CN113610016B (zh) | 视频帧特征提取模型的训练方法、系统、设备及存储介质 | |
CN114511041B (zh) | 模型训练方法、图像处理方法、装置、设备和存储介质 | |
CN116229056A (zh) | 基于双分支特征融合的语义分割方法、装置、设备 | |
WO2022218012A1 (zh) | 特征提取方法、装置、设备、存储介质以及程序产品 | |
CN108985190A (zh) | 目标识别方法和装置、电子设备、存储介质、程序产品 | |
Jia et al. | Effective meta-attention dehazing networks for vision-based outdoor industrial systems | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN114648613A (zh) | 基于可变形神经辐射场的三维头部模型重建方法及装置 | |
CN113569855A (zh) | 一种舌象分割方法、设备及存储介质 | |
CN111445496B (zh) | 一种水下图像识别跟踪系统及方法 | |
CN114170558B (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
Su et al. | Physical model and image translation fused network for single-image dehazing | |
CN117011137B (zh) | 基于rgb相似度特征匹配的图像拼接方法、装置及设备 | |
CN116704432A (zh) | 基于分布不确定性的多模态特征迁移人群计数方法及装置 | |
CN114758130B (zh) | 图像处理及模型训练方法、装置、设备和存储介质 | |
CN113962332B (zh) | 基于自优化融合反馈的显著目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |