CN115114480A - 数据处理方法、装置、设备、可读存储介质及程序产品 - Google Patents
数据处理方法、装置、设备、可读存储介质及程序产品 Download PDFInfo
- Publication number
- CN115114480A CN115114480A CN202210443286.5A CN202210443286A CN115114480A CN 115114480 A CN115114480 A CN 115114480A CN 202210443286 A CN202210443286 A CN 202210443286A CN 115114480 A CN115114480 A CN 115114480A
- Authority
- CN
- China
- Prior art keywords
- video
- text
- encoder
- feature
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 31
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 171
- 238000012545 processing Methods 0.000 claims abstract description 120
- 238000005070 sampling Methods 0.000 claims description 112
- 238000012549 training Methods 0.000 claims description 76
- 230000008569 process Effects 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 15
- 238000013459 approach Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 abstract description 35
- 238000013473 artificial intelligence Methods 0.000 abstract description 16
- 230000000007 visual effect Effects 0.000 description 26
- 230000000694 effects Effects 0.000 description 17
- 238000012360 testing method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000000873 masking effect Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000002829 reductive effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 101100153581 Bacillus anthracis topX gene Proteins 0.000 description 2
- 101150041570 TOP1 gene Proteins 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 241001636070 Didymosphenia geminata Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提出了一种数据处理方法、装置、设备、可读存储介质及程序产品,可应用于云技术、人工智能、智慧平台、应用软件、车载、文本视频检索等领域或场景,该方法包括:获取待检测视频描述文本,将待检测视频描述文本输入文本编码器中进行处理,得到待检测视频描述文本的文本特征;将待检测视频的视频图像输入第一视频编码器中进行处理,得到待检测视频的视频特征;根据文本特征和视频特征,确定待检测视频描述文本和待检测视频的匹配结果。通过本申请实施例,可以提高视频描述文本与待检测视频的匹配结果的生成效率和准确率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及数据处理方法、数据处理装置、计算机设备、计算机可读存储介质以及计算机程序产品。
背景技术
互联网中存储了大量的视频,基于不同的业务情况,我们希望能够利用一段视频描述文本从大量视频中获取与该视频描述文本相关的视频。目前,常采用人工检测的方法获取与视频描述文本相匹配的视频。具体的,当给定视频描述文本时,通过人工检索的方式从视频数据库中确定出与视频描述文本相关的多个视频,再对确定出的多个视频进行相关度排序,最终输出视频描述文本的匹配结果。上述方法依靠人工对视频进行判断和分析,主观因素较强,效率较低,并且人工主要观察视频的全局特征,感知能力受限,无法对细粒度的图像特征进行分析,导致准确率较低。因此,如何提高视频描述文本与待检测视频的匹配结果的生成效率和准确率,是目前亟需解决的问题。
发明内容
本申请提供了一种数据处理方法、装置、设备、可读存储介质及程序产品,可以提高视频描述文本与待检测视频的匹配结果的生成效率和准确率。
第一方面,本申请提供了一种数据处理方法,该方法包括:
获取待检测视频描述文本,将上述待检测视频描述文本输入文本编码器中进行处理,得到上述待检测视频描述文本的文本特征;
将待检测视频的视频图像输入第一视频编码器中进行处理,得到上述待检测视频的视频特征;
根据上述文本特征和上述视频特征,确定上述待检测视频描述文本和上述待检测视频的匹配结果;
其中,上述文本编码器和上述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,上述文本编码器用于获取样本视频的视频描述文本的参考文本特征;上述第二视频编码器用于获取上述样本视频的采样图像序列的第一区域特征集;上述第一视频编码器用于获取上述采样图像序列的掩码图像序列的全局特征和第二区域特征集;上述全局特征和上述参考文本特征用于确定全局损失,上述第一区域特征集和上述第二区域特征集用于确定局部损失,上述文本编码器的网络参数是根据上述全局损失调整得到,上述第一视频编码器的网络参数是根据上述局部损失调整得到。
第二方面,本申请提供了一种数据处理装置,该装置包括:
获取模块,用于获取待检测视频描述文本,将上述待检测视频描述文本输入文本编码器中进行处理,得到上述待检测视频描述文本的文本特征;
处理模块,用于将待检测视频的视频图像输入第一视频编码器中进行处理,得到上述待检测视频的视频特征;
匹配模块,用于根据上述文本特征和上述视频特征,确定上述待检测视频描述文本和上述待检测视频的匹配结果。
其中,上述文本编码器和上述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,上述文本编码器用于获取样本视频的视频描述文本的参考文本特征;上述第二视频编码器用于获取上述样本视频的采样图像序列的第一区域特征集;上述第一视频编码器用于获取上述采样图像序列的掩码图像序列的全局特征和第二区域特征集;上述全局特征和上述参考文本特征用于确定全局损失,上述第一区域特征集和上述第二区域特征集用于确定局部损失,上述文本编码器的网络参数是根据上述全局损失调整得到,上述第一视频编码器的网络参数是根据上述局部损失调整得到。
第三方面,本申请提供了一种计算机设备,包括:处理器、存储装置和通信接口,上述处理器、上述通信接口和上述存储装置相互连接,其中,上述存储装置存储有可执行程序代码,上述处理器用于调用上述可执行程序代码,用以实现上述的数据处理方法。
第四方面,本申请提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序包括程序指令,上述程序指令被处理器执行,用以实现如上述的数据处理方法。
第五方面,本申请提供了一种计算机程序产品,上述计算机程序产品包括计算机程序或计算机指令,上述计算机程序或计算机指令被处理器执行,用以实现上述的数据处理方法。
本申请通过文本编码器获取待检测视频描述文本的文本特征,通过第一视频编码器获取待检测视频的视频特征;再根据文本特征和视频特征,确定待检测视频描述文本和待检测视频的匹配结果,通过上述双编码器的结构自动化的获取文本特征和视频特征并进行特征匹配,相比于人工检索方式,提高了视频描述文本与待检测视频的匹配结果的生成效率。
上述方法采用还原掩码图像的方法进行模型预训练。具体来说,在结合第二视频编码器对文本编码器和第一视频编码器进行联合训练的过程中,利用第二视频编码器提取样本视频的采样图像序列的第一区域特征集,利用第一视频编码器提取该采样图像序列对应的掩码图像序列的第二区域特征集,基于第一区域特征集和第二区域特征集确定局部损失。
通过局部损失可以对第一视频编码器的网络参数进行优化,这样可以使得优化后的第一视频编码器以第二视频编码器提取的特征作为重构目标,并构建被掩码的区域的预测特征。通过最小化第一视频编码的预测特征与重构目标的差异,可以对第一视频编码器施加细粒度的监督,以提高第一视频编码器提取细粒度特征的能力。
利用文本编码器提取视频描述文本的参考文本特征,利用第一视频编码器提取掩码图像序列的全局特征,基于参考文本特征和全局特征确定全局损失。通过全局损失可以对文本编码器的网络参数进行优化,以提高文本编码器获取与第一视频编码器提取的视频特征对齐的文本特征的能力。
基于该全局损失对文本编码器的网络参数进行优化,基于该局部损失对第一视频编码器的网络参数进行优化,可以提高文本编码器和第一视频编码器的处理效果,采用通过此训练方式得到的模型进行视频描述文本和待检测视频的匹配操作,可以提高匹配结果的准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的一种数据处理系统的架构示意图;
图2是本申请一个示例性实施例提供的一种数据处理方法的流程示意图;
图3是本申请一个示例性实施例提供的一种数据处理系统的处理流程示意图;
图4是本申请一个示例性实施例提供的另一种数据处理方法的流程示意图;
图5是本申请一个示例性实施例提供的一种数据处理系统的预训练流程示意图;
图6是本申请一个示例性实施例提供的一种数据处理装置的示意框图;
图7是本申请一个示例性实施例提供的一种计算机设备的示意框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中所涉及到的“第一”、“第二”等描述仅用于描述目的,而不能理解为指示或者暗示其相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的技术特征可以明示或者隐含的包括至少一个该特征。
本发明实施例可应用于云计算、云物联、人工智能、智慧平台、应用软件、车载、文本视频检索等领域或场景,下面将对几个典型应用领域或场景进行介绍。
云计算(cloud computing)指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需资源;广义云计算指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需服务。这种服务可以是IT和软件、互联网相关,也可是其他服务。云计算是网格计算(Grid Computing)、分布式计算(DistributedComputing)、并行计算(Parallel Computing)、效用计算(Utility Computing)、网络存储(Network StorageTechnologies)、虚拟化(Virtualization)、负载均衡(Load Balance)等传统计算机和网络技术发展融合的产物。随着互联网、实时数据流、连接设备多样化的发展,以及搜索服务、社会网络、移动商务和开放协作等需求的推动,云计算迅速发展起来。不同于以往的并行分布式计算,云计算的产生从理念上将推动整个互联网模式、企业管理模式发生革命性的变革。本申请可以将视频描述文本、待检测视频的匹配结果等数据存储于云服务器上,当需要使用上述不同数据时,可以在云服务器上直接获取,极大地提高了数据获取速度。
云物联(Cloud IOT)旨在将传统物联网中传感设备感知的信息和接受的指令连入互联网中,真正实现网络化,并通过云计算技术实现海量数据存储和运算,由于物联网的特性是物与物相连接,实时感知各个“物体”当前的运行状态,在这个过程中会产生大量的数据信息,如何将这些信息汇总,如何在海量信息中筛取有用信息为后续发展做决策支持,这些已成为影响物联网发展的关键问题,而基于云计算和云存储技术的物联云也因此成为物联网技术和应用的有力支持。
智能交通系统(Intelligent Traffic System,ITS)又称智能运输系统(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。本申请应用于智能交通系统,可以根据视频描述文本从视频数据库中获取与视频描述文本相匹配的视频,便于进行针对不同违规类型的交通录制视频的检索,提高了智能交通系统的智能化和交通监管的效率。
智能车路协同系统(Intelligent Vehicle Infrastructure CooperativeSystems,IVICS),简称车路协同系统,是智能交通系统(ITS)的一个发展方向。车路协同系统是采用先进的无线通信和新一代互联网等技术,全方位实施车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成的安全、高效和环保的道路交通系统。
本申请还可应用在人工智能领域(Artificial Intelligence,AI),人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器学习/深度学习等几大方向。本申请实施例提供的方案涉及人工智能技术下属的机器学习和计算机视觉技术,下面将对此进行叙述。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习等技术。本申请主要涉及机器学习技术中的归纳学习技术,归纳学习技术旨在从大量的经验数据中归纳抽取出一般的判定规则和模式,是从特殊情况推导出一般规则的学习方法。具体来说,本申请提出的方法利用文本编码器,第一视频编码器和第二视频编码器对视频描述文本和待检测视频进行处理,得到匹配结果,文本编码器,第一视频编码器和第二视频编码器可以集成在文本视频检索模型中,该模型基于人工神经网络、归纳学习等技术生成,并根据样本视频及其视频描述文本进行预训练,以达到更优的模型处理效果,提高匹配结果的准确性。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建、自动驾驶、智慧交通等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。具体来说,本申请提出的方法利用计算机视觉技术分别对采样图像和掩码图像进行图像特征提取,再根据提取的图像特征计算区域特征集,从而确定局部损失。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服、车联网、自动驾驶、3D游戏等。随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
互联网中存储了大量的视频,基于不同的业务情况,我们希望能够利用一段文本描述从大量视频中获取与该文本描述相关的视频。目前,常采用人工检测的方法获取与文本描述相匹配的视频。具体的,当给定文本描述时,通过人工检索的方式从待检测视频集合中确定出与文本描述相关的多个视频,再对确定出的多个视频进行相关度排序,最终输出文本描述的视频匹配结果。上述方法主要依靠人眼去判断和分析,主观因素较强,效率较低,并且人眼主要观察视频的全局特征,感知能力受限,无法对细粒度的图像特征进行分析,导致准确率较低。
基于此,本申请首先提出一种文本视频检索方法。当给定一段文本描述后,通过文本视频检索模型首先提取文本描述的语义特征,然后从数据库里通过对比特征相似度来检索出与文字内容匹配的视频。用于文本视频检索的文本视频检索模型的预训练采用“双编码器”的结构来实现高效检索,其中两个单独的编码器分别提取全局的视频特征和文本特征,并且通过对比学习来优化两个编码器。
在上述文本视频检索方法中,本申请还提供两种模型预训练方法。
第一种方法是采用两个独立的编码器来分别编码文本特征和视频特征,并将它们投射到同一个特征空间,该类方法通过对比学习来区分成对和不成对的文本视频数据。但是,该方法忽略了文本和视频详细的局部特征,也忽略了文本和特征之间的对齐。
第二种方法通过联结视频和文本作为一个联合编码器的输入,来实现跨模态的特征融合,该类方法采用一个二分类器来预测视频和文本是否对齐。但是,该方法在检索时每个文本视频对都必须输入到模型中,导致检索效率低。上述两种方法的双编码器架构对全局视频和文本特征的粗粒度对齐阻碍了模型捕获详细的局部特征,从而限制了文本视频检索性能的进一步提升。
本申请将视觉掩码建模(Masked Vision Modeling,MVM)引入模型的预训练,通过随机掩码(即遮盖)图像里一定比例的图像块,训练模型重建这些被掩码的图像块,以此促进模型对局部视觉特征的学习。基于上述方法,本申请提出了一种结合双编码器结构和视觉掩码建模的方法进行文本视频检索,在保证高检索效率的同时,实现视频特征和文本特征细粒度的对齐。
具体的,本申请提出的方法通过随机掩码视频里一定比例的视频块,训练模型通过对可见的视频块进行空间和时间维度的推理,重建出与文本语义对齐的被掩码的视频块。为了构建具有注入了文本语义的掩码视频重建目标,使用第二视频编码器(例如快照视频编码器snapshot video encoder)来为被遮盖的视频块生成重建目标,并利用第一视频编码器(例如视频编码器video encoder)的参数来更新第二视频编码器的参数。这样,第二编码器聚合了训练中的第一视频编码器的知识,使得它获取的重构目标逐渐和文本语义对齐。
通过第二视频编码器获取重构目标来执行视觉掩码建模,可以迭代地优化训练中的第一视频编码器,使其能够捕获与局部文本特征对齐的视频特征,从而进一步增强第二视频编码器。上述方法成功地将视觉掩码建模用于视频文本预训练,且无需额外的预训练阶段来提供重构目标。
具体来说,在“双编码器”架构的基础上,通过使用一个额外的第二视频编码器来提供视觉掩码建模的重构目标,且这个第二视频编码器仅仅用于预训练,保证了双编码器在检索中的高效率。在每次训练迭代中,通过在空间维度和时间维度上随机掩码高比例的视频块,被掩码的掩码视频送到第一视频编码器来执行去噪和自动编码的过程,而原始视频被送到第二视频编码器来获取重构目标。直观上来说,给定高比例掩码的视频,第一视频编码器被训练通过重构目标来推理并恢复出被掩码的掩码视频,这不仅增强了对局部视觉特征的判别性,也提高了细粒度的视频与视频描述文本的对齐。
综上所述,上述方法具备以下三个优点。
第一点是,通过使用双编码器结构来将视觉掩码建模应用于视频文本预训练中,并发挥双编码器结构与视觉掩码建模结合后,在细粒度视频特征理解和视频文本局部语义对齐上的优势。
第二点是,利用第二视频编码器为视觉掩码建模提供重构目标,通过视觉掩码建模迭代优化的第一视频编码器可以反向增强第二视频编码器。
第三点是,基于上述方法在多个文本视频检索数据集上进行相关测试,与现有的方法相比,取得了更好的结果。本申请还进一步评估了零样本的动作识别(这一任务可以视为视频到文本的检索),本申请提出的方法也取得了更好的结果。
可以理解的是,在本申请的具体实施方式中,涉及到待检测视频、视频描述文本等相关的数据,当本申请以上实施例运用到具体产品或技术中时,相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本申请将具体通过如下实施例进行说明:
请参阅图1,图1是本申请一个示例性实施例提供的一种数据处理系统的架构示意图。如图1所示,该数据处理系统具体可以包括终端设备101和服务器102。其中,终端设备101和服务器102之间通过网络连接,比如,通过局域网、广域网、移动互联网等连接。操作对象在终端设备101的浏览器或者客户端应用上进行诸如数据输入等操作。服务器102可以响应于该操作,为操作对象提供各种数据处理的服务。
具体的,服务器102可以获取待检测视频描述文本(该获取待检测视频描述文本可以是终端设备101通过操作对象的数据输入操作获取到的数据);服务器102将待检测视频描述文本输入文本编码器中进行处理,得到待检测视频描述文本的文本特征,并将待检测视频(其中,待检测视频可以是操作对象在终端设备101上进行数据输入操作时指定的,也可以是存在于服务器102中的视频数据库)的视频图像输入第一视频编码器中进行处理,得到待检测视频的视频特征;服务器102根据文本特征和视频特征,确定待检测视频描述文本和待检测视频的匹配结果;服务器102最终将匹配结果发送给终端设备101,并由终端设备101展示该匹配结果。
终端设备101也称为终端(Terminal)、用户设备(user equipment,UE)、接入终端、用户单元、移动设备、用户终端、无线通信设备、用户代理或用户装置。终端设备可以是智能家电、具有无线通信功能的手持设备(例如智能手机、平板电脑)、计算设备(例如个人电脑(personal computer,PC)、车载终端、智能语音交互设备、可穿戴设备或者其他智能装置等,但并不局限于此。
服务器102可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
可以理解的是,本申请实施例描述的系统的架构示意图是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定。例如,本申请实施例所提供的数据处理方法除了可以由服务器102执行,还可以由不同于服务器102且能够与终端设备101和/或服务器102通信的其他服务器或服务器集群执行。本领域普通技术人员可知,图1中的终端设备和服务器的数目仅仅是示意性的。根据业务实现需要,可以配置具有任意数目的终端设备和服务器。并且,随着系统架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。在后续实施例中,将以终端设备指代上述终端设备101,以服务器指代上述服务器102,后续实施例中将不再赘述。
请参阅图2,图2是本申请一个示例性实施例提供的一种数据处理方法的流程示意图,以该方法应用于文本视频检索系统(该文本视频检索系统可配置在图1的服务器102或终端设备101中)为例进行说明,该方法可包括以下步骤:
S201、获取待检测视频描述文本,将待检测视频描述文本输入文本编码器中进行处理,得到待检测视频描述文本的文本特征。
本申请实施例中,待检测视频描述文本为需要进行文本视频检索任务的目标文本(也即是确定待检测视频描述文本和待检测视频之间的匹配结果)。文本编码器可以提取文本的文本特征,通过文本编码器对待检测视频描述文本进行处理,得到待检测视频描述文本的文本特征。其中,待检测视频描述文本的文本特征用于与后续步骤确定出的待检测视频的视频特征计算相似度,从而确定待检测视频描述文本与待检测视频的匹配结果。
S202、将待检测视频的视频图像输入第一视频编码器中进行处理,得到待检测视频的视频特征。
本申请实施例中,待检测视频为需要进行文本视频检索任务的目标视频。第一视频编码器可以提取图像的图像特征,通过第一视频编码器对待检测视频的视频图像进行处理,得到能够表征待检测视频的视频特征。
在一实施例中,待检测视频的视频图像是从待检测视频中提取的,待检测视频的视频图像可以是将待检测视频进行逐帧提取后得到的全部图像帧,也可以是按照一定的采样规则(例如间隔采样等),对待检测视频进行采样操作后得到的一部分图像帧。由于视频通常在相邻帧(或相近帧)的同一位置呈现出相似的视觉内容,这使得通过逐帧采样方法获取到的多个图像帧的图像特征相似,从而导致使用该图像数据得到的匹配结果准确度较低。通过设置采样规则进行采样,可以在保证后续处理效果的前提下减少采样图像数据量,提高待检测视频的采样效率和对采样图像进行处理的效率,并且提高使用该图像数据得到的匹配结果的准确性。
在一实施例中,可以采用间隔采样(间隔采样视为在采集多个视频图像时,需要设定间隔帧数进行采集,该设定间隔帧数可大可小,并不限定其最大阈值或最小阈值)的方法获取待检测视频的视频图像,并且该设定间隔帧数可以是固定的值,也可以是不固定的值。具体的,文本视频检索系统可以通过设置采集图像帧的设定间隔帧数(例如设定间隔帧数为1帧,即每间隔1帧图像后进行采样,此时可以保证采集到的任意两个视频图像不为相邻帧图像;又如设定间隔帧数为100帧,也即是每间隔100帧图像后进行采样)进行间隔采样。根据该思想处理完待检测视频的所有图像帧,并将采集的图像帧作为待检测视频的视频图像输入。
在一实施例中,由于在同一待检测视频中,任意两个视频图像的间隔越大,图像的相关性越小。为了提高掩码图像推理的难度以达到更优的模型处理效果,可以采用间隔采样的特殊情况,即稀疏采样(稀疏采样视为在连续采集的两个视频图像需要达到较大的间隔阈值,即限定最小阈值。间隔阈值应该根据具体业务情况而定)来获取待检测视频的视频图像。具体的,文本视频检索系统可以通过设置采集图像帧的间隔阈值(例如间隔阈值为15帧,那么可以每间隔20帧图像后,进行采样)进行稀疏采样;也可以通过设置采集图像帧的随机间隔范围(例如间隔阈值为15帧,那么可以在[20,40]的范围内确定一个目标间隔值,也即是在采集完一帧后,随机从[20,40]中确定目标间隔值(例如25),再采集与上一帧间隔目标间隔值之后的图像帧(即与上一帧间隔25帧的图像帧)进行稀疏采样,根据该思想处理完待检测视频的所有图像帧,并将采集的图像帧作为待检测视频的视频图像输入)。
S203、根据文本特征和视频特征,确定待检测视频描述文本和待检测视频的匹配结果;其中,文本编码器和第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,文本编码器用于获取样本视频的视频描述文本的参考文本特征;第二视频编码器用于获取样本视频的采样图像序列的第一区域特征集;第一视频编码器用于获取采样图像序列的掩码图像序列的全局特征和第二区域特征集;全局特征和参考文本特征用于确定全局损失,第一区域特征集和第二区域特征集用于确定局部损失,文本编码器的网络参数是根据全局损失调整得到,第一视频编码器的网络参数是根据局部损失调整得到。
本申请实施例中,文本特征可以表征待检测视频描述文本的特征信息,视频特征可以表征待检测视频的特征信息,通过对文本特征和视频特征进行相似度计算,文本视频检索系统可以确定待检测视频描述文本和待检测视频的匹配结果。匹配结果可以是以匹配得分的形式呈现(例如,匹配程度越高,匹配得分越高;匹配程度越低,匹配得分越低);匹配结果也可以是以二分类的形式呈现(例如,二分类结果包括匹配和不匹配)。
在一实施例中,文本视频检索系统可以通过对文本特征和视频特征进行点积计算来确定文本特征和视频特征的相似度。一般来说,相似度越高,则表示待检测视频描述文本和待检测视频的匹配度越高;相似度越低,则表示待检测视频描述文本和待检测视频的匹配度越低。通过使用独立的双编码器结构获取文本特征和视频特征,并通过点积计算相似度进而确定匹配结果,从而提高了视频描述文本与待检测视频的匹配结果的生成效率。
本申请实施例中,文本编码器和第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,文本编码器用于获取样本视频的视频描述文本的参考文本特征;第二视频编码器用于获取样本视频的采样图像序列的第一区域特征集;第一视频编码器用于获取采样图像序列的掩码图像序列的全局特征和第二区域特征集;全局特征和参考文本特征用于确定全局损失,第一区域特征集和第二区域特征集用于确定局部损失,文本编码器的网络参数是根据全局损失调整得到,第一视频编码器的网络参数是根据局部损失调整得到。
在一实施例中,文本编码器的网络参数也可以是根据全局损失和局部损失联合调整得到;第一视频编码器的网络参数也可以是根据全局损失和局部损失联合调整得到。
具体而言,一组训练数据可以包括样本视频(包括采样图像序列,以及对采样图像序进行掩码处理后的掩码图像序列)和视频描述文本。文本编码器获取的视频描述文本的参考文本特征可以表征视频描述文本的特征信息;第一视频编码器获取的掩码图像序列的第二区域特征集可以表征掩码图像序列的局部特征信息;第二视频编码器获取的采样图像序列的第一区域特征集可以表征采样图像序列的局部特征信息。
通过第一区域特征集和第二区域特征集确定局部损失(第二视频编码器的作用可以理解为,通过生成第一区域特征集,为视觉掩码建模提供重构目标;第一视频编码器的作用可以理解为,通过生成第二区域特征集,构建被掩码的区域)。通过最小化预测第一区域特征集和第二区域特征集中互相匹配的各组特征对之间的距离,对第一视频编码器施加细粒度的监督,用以提高第一视频编码器的处理效果,从而提高了视频描述文本与待检测视频的匹配结果的准确率。
在一实施例中,文本视频检索系统可以采用对比学习的方法来最大化待检测视频的视频特征和匹配的视频描述文本的文本特征之间的相似度,并且最小化待检测视频的视频特征和不匹配的视频描述文本的文本特征之间的相似度,从而提高第一视频编码器和文本编码器的处理效果。
其中,上述文本编码器、第一视频编码器与第二视频编码器联合训练的具体过程,将在后续实施例中介绍,本实施例不再赘述。
在一实施例中,待检测视频包含于视频数据库中,视频数据库包括多个视频,在上述确定待检测视频描述文本和待检测视频的匹配结果之后,还可以包括以下步骤:根据所述多个视频中各个视频与所述待检测视频描述文本的匹配结果,从所述视频数据库中确定与所述待检测视频描述文本相匹配的匹配视频。
其中,视频数据库包括多个视频,多个视频中的每个视频可根据步骤S201-S203的步骤,确定出对应的匹配结果;再从多个视频对应的多个匹配中确定与待检测视频描述文本相匹配的匹配视频。例如,当匹配结果以匹配得分的形式呈现,那么文本视频检索系统可以将满足匹配得分阈值的匹配结果所对应的视频作为与所述待检测视频描述文本相匹配的匹配视频;当匹配结果以二分类的形式呈现,那么文本视频检索系统可以将匹配结果为“匹配”的匹配结果所对应的视频作为与所述待检测视频描述文本相匹配的匹配视频)。
请参阅图3,图3是本申请一个示例性实施例提供的一种数据处理系统(即文本视频检索系统)的处理流程示意图。图中包括文本编码器和第一视频编码器,文本视频检索系统将待检测视频描述文本(例如“两艘小船在山前的湖中飘着”)输入文本编码器,得到待检测视频描述文本的文本特征;文本视频检索系统同时将待检测视频的视频图像(该视频图像可以是文本视频检索系统对待检测视频进行采样后得到的,也可以是由文本视频检索系统直接获取的视频图像)输入第一视频编码器,得到待检测视频的视频特征;文本视频检索系统通过对文本特征和视频特征进行相似度比较,从而得到待检测视频描述文本和待检测视频的匹配结果。
本申请的有益效果在于:本申请通过文本编码器获取待检测视频描述文本的文本特征,通过第一视频编码器获取待检测视频的视频特征;再根据文本特征和视频特征,通过计算文本特征和视频特征的点积确定相似度,进而确定待检测视频描述文本和待检测视频的匹配结果,通过上述双编码器的结构自动化的获取文本特征和视频特征并进行特征匹配,相比于人工检索方式,提高了视频描述文本与待检测视频的匹配结果的生成效率。
上述方法采用还原视觉掩码的方法进行模型预训练,具体来说,在结合第二视频编码器对文本编码器和第一视频编码器进行联合训练的过程中,文本编码器获取的参考文本特征可以表征视频描述文本的特征信息;第一视频编码器获取的全局特征和第二区域特征集可以分别表征掩码图像序列的全局特征信息和局部特征信息;第二视频编码器获取的第一区域特征集可以表征采样图像序列的局部特征。利用第二视频编码器提取样本视频的采样图像序列的第一区域特征集,利用第一视频编码器提取该采样图像序列对应的掩码图像序列的第二区域特征集,基于第一区域特征集和第二区域特征集确定局部损失。
通过局部损失可以对第一视频编码器的网络参数进行优化,这样可以使得优化后的第一视频编码器以第二视频编码器提取的特征作为重构目标,并构建被掩码区域的预测特征。通过最小化第一视频编码的预测特征与重构目标的差异,可以对第一视频编码器施加细粒度的监督,以提高第一视频编码器获取细粒度特征的能力。
利用文本编码器提取视频描述文本的参考文本特征,利用第一视频编码器提取掩码图像序列的全局特征,基于参考文本特征和全局特征确定全局损失。通过全局损失可以对文本编码器的网络参数进行优化,以提高文本编码器获取与第一视频编码器提取的视频特征对齐的文本特征的能力。
基于该全局损失对文本编码器的网络参数进行优化,基于该局部损失对第一视频编码器的网络参数进行优化,可以提高文本编码器和第一视频编码器的处理效果,采用通过此训练方式得到的模型进行视频描述文本和待检测视频的匹配操作,可以提高匹配结果的准确性。
本申请可以通过对比学习的方法来最大化待检测视频的视频特征和匹配的视频描述文本的文本特征之间的相似度,并且最小化待检测视频的视频特征和不匹配的视频描述文本的文本特征之间的相似度,从而提高第一视频编码器和文本编码器的处理效果。采用通过此训练方式得到的模型进行视频描述文本和待检测视频的匹配操作,可以提高匹配结果的准确性。
本申请可应用于文本视频检索任务,通过计算视频数据库中每个视频与待检测视频描述文本的匹配结果,再根据多个匹配结果确定与待检测视频描述文本相匹配的匹配视频,并进行结果输出。本申请还提出通过设置采样规则(如间隔采样等)进行采样,从而生成采样图像序列,可以在保证后续处理效果的前提下减少采样图像数据量,提高待检测视频的采样效率和对采样图像进行处理的效率,并且提高使用该图像数据得到的匹配结果的准确性。
请参阅图4,图4是本申请一个示例性实施例提供的一种数据处理方法的流程示意图,以该方法应用于文本视频检索系统(该文本视频检索系统可配置在图1中的服务器102或终端设备101中)为例进行说明,该方法可包括以下步骤:
S401、获取样本视频的视频描述文本和采样图像序列,并获取采样图像序列对应的掩码图像序列。
本申请实施例中,一组训练数据可以包括样本视频(包括采样图像序列,以及对采样图像序进行掩码处理后的掩码图像序列)和视频描述文本,该视频描述文本与样本视频的展示内容相匹配。采样图像序列是从样本视频中提取的,作为第二视频编码器的输入数据。掩码图像序列是由采样图像序列处理得到的,作为第一视频编码器的输入数据。
在一实施例中,上述获取样本视频的采样图像序列的过程,可以根据以下步骤实现:对样本视频进行间隔采样处理,得到采样图像序列,采样图像序列中的任意两个采样图像不相邻。
其中,采样图像序列携带图像序列,该图像序列是指采样图像中,每帧图像按照在样本视频中所出现的先后顺序进行排列的。例如,文本视频检索系统可以分别对样本视频的第2帧、第5帧、第8帧图像进行采样,从而生成采样图像序列。那么第2帧图像的序列为1,第5帧图像的序列为2,第8帧图像的序列为3。
在一实施例中,文本视频检索系统可以利用一个样本视频以及该样本视频的视频描述文本产生多组训练数据(即利用1个样本视频以及该样本视频的视频描述文本,进行多次训练),通过在采集采样图像序列的过程中设置不同的采集方法,得到一个样本视频对应的多组采样图像序列;在对采样图像序列进行掩码处理的过程中通过掩码不同图像区域,生成一组采样图像序列对应的多个掩码图像序列。
示例性的,样本视频包括10帧,在采集第一组训练数据时,采集1、4、7帧图像作为一组,采集2、5、8帧图像作为一组,采集3、6、9帧图像作为一组;根据得到的三组图像生成三组采样图像序列,再对三组采样图像序列进行掩码处理,得到三组掩码图像序列,这样就得到了三组训练数据。在掩码处理过程中,针对每一组采样图像序列,可以通过掩码不同图像区域,生成多个掩码图像序列(例如分别掩码左上角区域、左下角区域、右上角区域和右下区域生成四组掩码图像序列)。
通过上述方法,可以通过少量的样本视频及其视频描述文本,生成大量的训练数据进行模型的预训练,减少数据量,提高训练效率。需要说明的是,上述选择每组训练数据采集的帧数,以及掩码的区域只是示例性的,还可通过随机生成每组训练数据采集的帧数,以及掩码的区域的方法获取多组训练数据。具体训练数据的生成方法应根据实际业务情况进行选择,本申请不对其进行限定。
在一实施例中,文本视频检索系统可以通过设置采集图像帧的间隔阈值(例如20,也即是每间隔20帧图像后,进行采样);文本视频检索系统也可以通过设置采集图像帧的随机间隔范围(例如[20,40],也即是在采集完一帧后,随机从[20,40]中确定目标间隔值(例如25),再采集与上一帧间隔目标间隔值之后的图像帧(即与上一帧间隔25帧的图像帧),根据该思想处理完待检测视频的所有图像帧,并将采集的图像帧作为待检测视频的视频图像输入)。通过上述方法,可以保证采样图像序列中的多帧图像的图像特征具有一定差异性,提高图像特征提取的效果。
在一实施例中,上述获取采样图像序列对应的掩码图像序列,可以根据以下步骤实现:对采样图像序列中的各个采样图像进行掩码处理,得到掩码图像序列,各个采样图像中被掩码处理的图像区域相匹配。
由于视频通常在相邻帧(时空相邻块)或相近帧的同一位置呈现出相似的视觉内容,这使得文本视频检索系统通过逐帧采样方法获取到的多个图像帧的图像特征相似,通过对时空相邻快插值可以轻松恢复被遮盖的掩码区域,从而导致使用该图像数据得到的匹配结果准确度较低。
为了使视觉掩码建模这一任务更加具有挑战性来提高数据处理模型对空间维度和时间维度的理解,本申请采用管状遮盖策略来沿着空间维度和时间维度对样本视频进行掩码(也即是对经过间隔采样后得到的采样图像序列中各个采样图像的同一位置进行掩码处理,而不是独立地掩码每个采样图像的内容)。通过上述方法抑制了第一视频编码器通过对相邻帧的视觉内容插值来重构被掩码的视频内容(即掩码区域),而是需要在空间维度和时间维度上对可见的视频内容进行视觉推理,提高了模型的处理效果,同时也提高了匹配结果的准确性。并且,通过间隔采样方法,可以在保证处理效果的前提下减少采样图像数据量,提高待检测视频的采样效率和对采样图像的处理效率。
S402、将样本视频的视频描述文本输入初始文本编码器中进行特征提取,得到参考文本特征。
其中,步骤S402的具体实施方式参见前述实施例中步骤S201的相关描述,本实施例不再赘述。
S403、将采样图像序列输入初始第二视频编码器中进行特征提取,得到第一区域特征集,以及将掩码图像序列输入初始第一视频编码器中进行特征提取,得到全局特征和第二区域特征集。
本申请实施例中,初始第一视频编码器和初始第二视频编码器为进行预训练之前的初始化模型。第二视频编码器(以及初始第二视频编码器)可以对图像进行特征提取处理,从而得到图像的特征信息。第二视频编码器与第一视频编码器的结构相同,用于对本申请中不同类型的图像(即采样图像序列和掩码图像序列)进行处理。
在一实施例中,上述将掩码图像序列输入初始第一视频编码器中进行特征提取,得到第二区域特征集的过程,可以根据以下步骤实现:
(1)、将掩码图像序列输入初始第一视频编码器中进行处理,针对掩码图像序列中的目标掩码图像,对目标掩码图像进行区域划分处理,并提取各个划分图像区域的区域特征;其中,目标掩码图像中包含掩码区域的第一图像区域的区域特征,是根据参考掩码图像中的非掩码部分以及目标掩码图像中的非掩码部分预测得到的预测特征,且预测特征趋近于由初始第二视频编码器对采样图像序列中与第一图像区域相匹配的第二图像区域提取的特征;目标掩码图像为掩码图像序列中的任一掩码图像,参考掩码图像为掩码图像序列中除目标掩码图像之外的掩码图像。
本申请实施例中,目标掩码图像为掩码图像序列中的任一掩码图像,文本视频检索系统通过对目标掩码图像进行区域划分处理,并提取各个划分图像区域的区域特征。第一图像区域的区域特征,是根据参考掩码图像中的非掩码部分以及目标掩码图像中的非掩码部分预测得到的预测特征,参考掩码图像为掩码图像序列中除目标掩码图像之外的掩码图像。也即是说,文本视频检索系统获取目标掩码图像的掩码区域,是通过目标掩码图像的非掩码区域,以及参考掩码图像的非掩码区域推理而来,通过在空间维度和时间维度上对可见的视频内容进行视觉推理,加强数据处理模型对空间维度和时间维度的理解,从而提高了模型的处理效果,同时也提高了匹配结果的准确度。
在一实施例中,在推理目标掩码图像的掩码区域时,文本视频检索系统可以基于多个参考掩码图像进行推理,从而提高掩码区域推理的准确性。同时,还可以对多个参考掩码图像进行权重划分,例如,将掩码图像序列中与目标掩码图像较近的参考掩码图像的权重设置较大;将掩码图像序列中与目标掩码图像较远的参考掩码图像的权重设置较小;或者在满足距离阈值时,忽略该距离较远的参考掩码图像,从而有针对性的选择用于进行掩码区域推理的数据,进一步提高掩码区域推理的准确性。
在一实施例中,第一图像区域为需要进行图像还原的区域,第一图像区域可以是掩码区域,也可以是包括掩码区域的区域(也即是除了包含掩码区域,还包含未被掩码的部分区域),还可以是整个采样图像。上述方法提高了本申请数据选择,以及区域划分的灵活性。
(2)、根据针对掩码图像序列中各个掩码图像提取的区域特征,得到第二区域特征集。
本申请实施例中,掩码图像序列中包括多个掩码图像,针对每个掩码图像,文本视频检索系统可以采用步骤S403中(1)的方法得到每个掩码图像的多个区域特征,再将多个掩码图像的多个区域特征按照时间维度和空间维度进行合并,作为第二区域特征集。
示例性的,掩码图像序列中包括M个掩码图像,文本视频检索系统对每个掩码图像进行区域划分处理,得到N个划分图像区域,并提取N个划分图像区域对应的N个区域特征,那么第二区域特征集包含有M*N个区域特征。第二区域特征集中的各个区域特征按照掩码图像序列中各个掩码图像的序列,以及每个区域特征在掩码图像的位置进行排列。同理,采样图像序列采用相同方法进行区域划分和排列,本实施例不再赘述。
在一实施例中,上述将掩码图像序列输入初始第一视频编码器中进行特征提取,得到全局特征的过程,可以通过以下几种方法实现。
第一种方式是,将掩码图像序列中包括的M个掩码图像输入第一视频编码器中进行处理,得到M个掩码图像对应的M个待融合全局特征;然后对M个待融合全局特征进行特征融合处理,得到掩码图像序列的全局特征。
第二种方式是,将掩码图像序列中包括的M个掩码图像进行图像合并处理,得到一个合并掩码图像,然后将合并掩码图像输入第一视频编码器中进行处理,得到掩码图像序列的全局特征。
第三种方式是,将掩码图像序列输入初始第一视频编码器中进行特征提取,得到第二区域特征集,然后对第二区域特征集进行融合处理,得到掩码图像序列的全局特征。通过上述多种方法获取掩码图像序列的全局特征,可以提高数据处理的灵活性。
S404、根据全局特征和参考文本特征确定全局损失,以及根据第一区域特征集和第二区域特征集确定局部损失。
本申请实施例中,全局特征可以表征样本视频的采样图像序列的特征信息;参考文本特征可以表征视频描述文本的特征信息;第一区域特征集可以表征采样图像序列的局部特征;第二区域特征集可以表征掩码图像序列的局部特征。文本视频检索系统通过第一区域特征集和第二区域特征集可以确定局部损失(第二视频编码器的作用可以理解为,通过生成第一区域特征集,为视觉掩码建模提供重构目标;第一视频编码器的作用可以理解为,通过生成第二区域特征集,构建被掩码的区域)。
文本视频检索系统通过最小化预测第一区域特征集和第二区域特征集中互相匹配的各组特征对之间的距离(也即是最小化局部损失),可以对第一视频编码器施加细粒度的监督,用以提高第一视频编码器的处理效果,从而提高了视频描述文本与待检测视频的匹配结果的准确率。
在一实施例中,第一区域特征集由初始第二编码器针对采样图像序列中各个采样图像提取的区域特征构成,每一个区域特征对应采样图像的一个划分图像区域。
其中,初始第二编码器根据采样图像序列确定第一区域特征集的过程,请参见步骤S403中将掩码图像序列输入初始第一视频编码器中进行特征提取,得到全局特征和第二区域特征集的相关描述,本实施例不再赘述。
上述根据全局特征和参考文本特征确定全局损失,以及根据第一区域特征集和第二区域特征集确定局部损失,可以根据以下步骤实现。
(1)、将全局特征和参考文本特征进行匹配处理,根据匹配处理后的全局特征和匹配处理后的参考文本特征,确定全局损失。
本申请实施例中,全局特征是图像维度的特征,参考文本特征是文本维度的特征,为了能够在同一特征维度下对齐全局特征和参考文本特征,文本视频检索系统需要对全局特征和参考文本特征进行匹配处理,从而提高全局损失的准确性和有效性。
在一实施例中,文本视频检索系统可以对全局特征和参考文本特征进行多模态特征对齐处理,并根据多模态特征对齐处理后全局特征和参考文本特征确定全局损失。多模态特征对齐处理可以将全局特征和参考文本特征投射到同一个特征空间,该方法可以使用对比学习来区分成对和不成对的文本视频数据。除此之外,还可以联结样本视频和视频描述文本作为一个联合编码器的输入,来实现跨模态的特征融合,再用一个二分类器来预测样本视频和视频描述文本是否对齐。
(2)、针对第一区域特征集中的任一区域特征,从第二区域特征集中确定与任一区域特征相匹配的匹配区域特征。
本申请实施例中,匹配区域特征是从第二区域特征集中确定的,上述任一区域特征是从第一区域特征集中确定的,上述任一区域特征与匹配区域特征是在空间维度和时间维度相对应的(也即是在采样图像序列和掩码图像序列中同一序列且同一图像区域的所对应的特征)。
(3)、确定任一区域特征和匹配区域特征之间的差异参数,并根据差异参数确定局部损失。
本申请实施例中,针对第一区域特征集和第二区域特征集,可以得到对应不同划分图像区域的多个差异参数(也即是多组任一区域特征和匹配区域特征之间的差异参数),每个差异参数都可以表征采样图像序列和掩码图像序列中相匹配的划分图像区域的特征差异,用以进行局部损失的计算。其中,上述局部损失既可以指代对应多组任一区域特征和匹配区域特征的多个局部损失的集合,也可以指代任一组任一区域特征和匹配区域特征的局部损失。
S405、根据全局损失调整初始文本编码器的网络参数,根据调整后的文本编码器确定训练后的文本编码器;以及根据局部损失调整初始第一视频编码器的网络参数,根据调整后的第一视频编码器确定训练后的第一视频编码器。
在一实施例中,上述根据全局损失调整初始文本编码器的网络参数,以及根据局部损失调整初始第一视频编码器的网络参数的过程可以通过以下方式实现:针对一组样本视频和视频描述文本而言,文本视频检索系统通过全局损失调整初始文本编码器的网络参数,通过局部损失调整初始第一视频编码器的网络参数,以使得第一视频编码器能够捕获跟视频描述文本的文本特征对齐的局部视觉语义(即第二区域特征集)。在此过程中,针对对应多组任一区域特征和匹配区域特征的多个局部损失,分别利用各个局部损失迭代的调整初始第一视频编码器的网络参数(也可以调整初始文本编码器的网络参数)。
在一实施例中,文本编码器的网络参数也可以是根据全局损失和局部损失联合调整得到;第一视频编码器的网络参数也可以是根据全局损失和局部损失联合调整得到。
针对多组样本视频和视频描述文本而言,可以基于上述方法迭代优化初始文本编码器和初始第一视频编码器的网络参数,最后根据调整后的文本编码器和调整后的第一视频编码器确定训练后的文本编码器和训练后的第一视频编码器。
在一实施例中,基于上述方法还可以执行以下步骤实现。
(1)、在第一视频编码器的网络参数调整后,根据第一视频编码器的调整后的网络参数更新第二视频编码器的网络参数,得到调整后的第二视频编码器。
(2)、结合调整后的第二视频编码器,对调整后的文本编码器和调整后的第一视频编码器再次进行联合训练,以得到训练后的文本编码器和训练后的第一视频编码器;其中,调整后的第二视频编码器针对样本视频的采样图像获取的特征,趋近于调整后的文本编码器针对样本视频的视频描述文本获取的文本特征。
本申请实施例中,文本编码器、第一视频编码器和第二视频编码器可以进行联合训练,由于第一视频编码器和第二视频编码器具有相同的结构,根据第一视频编码器的调整后的网络参数更新(例如参数同步,参数调整等)第二视频编码器的网络参数之后,可以使第二视频编码器聚合第一视频编码器的知识,从而让第二视频编码器获取的针对样本视频的采样图像获取的特征(包括样本视频的全局特征和局部特征),趋近于调整后的文本编码器针对样本视频的视频描述文本获取的文本特征(也即是第二视频编码器获取到的掩码图像的重构目标逐渐与参考文本特征对齐),提高了模型处理的准确性,从而得到更准确的视频描述文本与待检测视频的匹配结果。
在一实施例中,可以通过以下方式对第二视频编码器进行参数更新:在一个训练周期内(即利用同一组样本视频和视频描述文本),固定第二视频编码器的网络参数,那么在第k个训练周期时,第二视频编码器的网络参数的更新公式如下。
{θs}k=λ{θs}k-1+(1-λ){θv}k-1
其中,{θs}k为第二视频编码器在第k个训练周期结束时的网络参数,{θs}k-1为第二视频编码器在第k-1个训练周期结束时的网络参数,{θv}k-1为第一视频编码器在第k-1个训练周期结束时的网络参数,λ为常数。
通过上述方法对第二视频编码器的网络参数的进行更新,使得第二视频编码器的优化过程更加平滑,从而让第二视频编码器获取到的掩码图像的重构目标逐渐与参考文本特征对齐,以此得到更准确的视频描述文本与待检测视频的匹配结果。
S406、获取待检测视频描述文本,将待检测视频描述文本输入文本编码器中进行处理,得到待检测视频描述文本的文本特征。
S407、将待检测视频的视频图像输入第一视频编码器中进行处理,得到待检测视频的视频特征。
S408、根据文本特征和视频特征,确定待检测视频描述文本和待检测视频的匹配结果。
其中,步骤S406~S408的具体实施方式参见前述实施例中步骤S201~S203的相关描述,本实施例不再赘述。
请参阅图5,图5是本申请一个示例性实施例提供的一种数据处理系统(即文本视频检索系统)的预训练流程示意图,在预训练过程中,除了文本编码器和第一视频编码器,还包括第二视频编码器,文本视频检索系统将样本视频的视频描述文本(例如“两艘小船在山前的湖中飘着”)输入文本编码器,得到视频描述文本的参考文本特征;文本视频检索系统将样本视频的采样图像序列(该采样图像序列可以是文本视频检索系统对样本视频进行采样后得到的,也可以是由文本视频检索系统直接获取的采样图像序列)输入第二视频编码器,得到采样图像序列的第一区域特征集。
文本视频检索系统同时将样本视频的掩码图像序列(该掩码图像序列可以是文本视频检索系统对样本视频的采样图像序列进行掩码处理后得到的,也可以是由文本视频检索系统直接获取的掩码图像序列)输入第一视频编码器,得到掩码图像序列的第二区域特征集和掩码图像序列的全局特征。
根据第一区域特征集和第二区域特征集确定局部损失(同时通过第一区域特征集对第二区域特征集进行监督),根据参考文本特征和全局特征确定全局损失(也即是对参考文本特征和全局特征进行相似度对比);文本视频检索系统再根据局部损失和全局损失对文本编码器、第一视频编码器和第二视频编码器进行联合训练,最终得到训练后的模型。
基于上述文本视频检索和预训练方法,本申请在四个检索数据集上进行了相关测试。
测试方法包括零样本和训练集微调两种方法(零样本方法是指,针对每个数据集采用相同的模型参数进行测试任务,也即是不进行模型网络参数的更新;训练集微调方法是指针对每个数据集,对模型参数进行更新,将参数更新后的模型运用于后续测试任务),具体测试结果如下表。
表1a
表1b
方法 | 年限 | 视觉输入 | 预训练数据集 | 数量 | R@1 | R@5 | R@10 | MedR |
ActBERT | 2020 | ResNet-3D | HowTo100M | 120M | 16.3 | 42.8 | 56.9 | 10.0 |
UniVl | 2020 | S3D | HowTo100M | 110M | 21.2 | 49.6 | 63.1 | 6.0 |
MMT | 2020 | S3D | HowTo100M | 120M | 26.6 | 57.1 | 69.6 | 4.0 |
HERO | 2021 | SlowFast | TV,HowTo100M | 120M | 16.8 | 43.4 | 57.7 | - |
NoiseEst | 2021 | ResNext-101 | HowTo100M | 110M | 17.4 | 41.6 | 53.6 | 8.0 |
ClipBert | 2021 | Raw Videos | COCO,VisGenome | 5.6M | 22.0 | 46.8 | 59.9 | 6.0 |
AVLnet | 2021 | ResNext-101 | HowTo100M | 120M | 27.1 | 55.6 | 66.6 | 4.0 |
VLM | 2021 | S3D | HowTo100M | 120M | 28.1 | 55.5 | 67.4 | 4.0 |
TACo | 2021 | I3D,S3D | HowTo100M | 120M | 28.4 | 57.8 | 71.2 | 4.0 |
SupportSet | 2021 | R(2+1)D-34 | HowTo100M | 120M | 30.1 | 58.5 | 69.3 | 3.0 |
VideoCLIP | 2021 | S3D | HowTo100M | 110M | 30.9 | 55.4 | 66.8 | - |
Frozen | 2021 | Raw Videos | CC3M,WebVid-2M | 5.5M | 31.0 | 59.5 | 70.5 | 3.0 |
Ours | 2022 | Raw Videos | CC3M,WebVid-2M | 5.5M | 37.7 | 63.6 | 73.8 | 3.0 |
表1a和表1b展示了在MSR-VTT数据集上的文本到视频的检索结果,采用零样本方法的测试结果为表1a,采用训练集微调方法的测试结果为表1b。表格中包括多个指标,包括方法、年限、视觉输入、预训练数据集、数量、R@1、R@5、R@10和MedR。其中,“视觉输入”指标用于指示获取视频特征的特征网络,该指标下的“Raw Videos”表示直接使用原始视频进行训练,而无需通过特征网络预先提取视频特征后进行训练;“数量”指标用于指示预训练的视频文本对数;R@K(例如R@1、R@5和R@10)可以理解为真实结果存在于前K个预测结果中的准确率;MedR可以理解为真实结果在多个预测结果中的第R个,较高的R@K和较低的MedR表示更好的结果。
从表中可以看出,Ours方法(即本申请提出的方法)具有较高的R@K以及较低的MedR,取得了比其他方法更好的处理结果。
表2a
方法 | R@1 | R@5 | R@10 | MedR |
NoiseEst | 13.7 | 35.7 | 47.7 | 12.0 |
SupportSet | 21.4 | 46.2 | 57.7 | 6.0 |
Frozen | 33.7 | 64.7 | 76.3 | 3.0 |
Ours | 44.4 | 76.2 | 87.0 | 2.0 |
表2b
方法 | R@1 | R@5 | R@10 | MedR |
NoiseEst | 20.3 | 49.0 | 63.3 | 6.0 |
SupportSet | 28.4 | 60.0 | 72.9 | 4.0 |
Frozen | 45.6 | 79.8 | 88.2 | 2.0 |
Ours | 53.9 | 83.5 | 90.2 | 1.0 |
表2a和表2b展示了在MSVD数据集上的文本到视频的检索结果,采用零样本方法的测试结果为表2a,采用训练集微调方法的测试结果为表2b。表格中包括多个指标,包括R@1、R@5、R@10和MedR。其中,R@K(例如R@1、R@5和R@10)可以理解为真实结果存在于前K个预测结果中的准确率;MedR可以理解为真实结果在多个预测结果中的第R个,较高的R@K和较低的MedR表示更好的结果。
从表中可以看出,Ours方法(即本申请提出的方法)具有较高的R@K以及较低的MedR,取得了比其他方法更好的处理结果。
表3a
方法 | R@1 | R@5 | R@10 | MedR |
AVLnet | 1.4 | 5.9 | 9.4 | 273.5 |
NoiseEst | 4.2 | 11.6 | 17.1 | 119.0 |
Frozen | 9.3 | 22.0 | 30.1 | 51.0 |
Ours | 11.1 | 24.7 | 30.6 | 50.7 |
表3b
方法 | R@1 | R@5 | R@10 | MedR |
NoiseEst | 6.4 | 19.8 | 28.4 | 39.0 |
MMT | 12.9 | 29.9 | 40.1 | 19.3 |
Frozen | 15.0 | 30.8 | 39.8 | 20.0 |
Ours | 17.8 | 35.6 | 44.1 | 15.5 |
表3a和表3b展示了在MSR-VTT数据集上的文本到视频的检索结果,采用零样本方法的测试结果为表3a,采用训练集微调方法的测试结果为表3b。表格中包括多个指标,包括R@1、R@5、R@10和MedR。其中,R@K(例如R@1、R@5和R@10)可以理解为真实结果存在于前K个预测结果中的准确率;MedR可以理解为真实结果在多个预测结果中的第R个,较高的R@K和较低的MedR表示更好的结果。
从表中可以看出,Ours方法(即本申请提出的方法)具有较高的R@K以及较低的MedR,取得了比其他方法更好的处理结果。
表4a
方法 | R@1 | R@5 | R@10 | MedR |
VideoCLIP | 16.6 | 40.9 | - | - |
Frozen | 21.1 | 46.0 | 56.2 | 7.0 |
Ours | 27.2 | 50.3 | 63.6 | 5.0 |
表4b
方法 | R@1 | R@5 | R@10 | MedR |
HERO | 2.1 | - | 11.4 | - |
CE | 16.1 | 41.1 | 82.7 | 8.3 |
ClipBert | 20.4 | 48.0 | 60.8 | 6.0 |
Frozen | 31.0 | 59.8 | 72.4 | 3.0 |
Ours | 36.6 | 63.9 | 74.0 | 3.0 |
表4a和表4b展示了在DiDeMo数据集上的文本到视频的检索结果,采用零样本方法的测试结果为表4a,采用训练集微调方法的测试结果为表4b。表格中包括多个指标,包括R@1、R@5、R@10和MedR。其中,R@K(例如R@1、R@5和R@10)可以理解为真实结果存在于前K个预测结果中的准确率;MedR可以理解为真实结果在多个预测结果中的第R个,较高的R@K和较低的MedR表示更好的结果。
从表中可以看出,Ours方法(即本申请提出的方法)具有较高的R@K以及较低的MedR,取得了比其他方法更好的处理结果。
表5
表5展示了在HMDB51和UCF101数据集上的零样本动作识别结果(零样本的动作识别这一任务可以视为视频到文本的检索),本申请将top1作为测评指标(top1可以理解为真实结果预测结果中的第一个的准确率)。S1、S2和S3表示不同的测试划分集,Mean表示在三个测试划分集上的平均结果。
从表中可以看出,Ours方法(即本申请提出的方法)具有较高的Mean,取得了比其他方法更好的处理结果。
本申请的有益效果在于:本申请提出利用一个样本视频以及该样本视频的视频描述文本产生多组训练数据,通过在采集采样图像序列的过程中设置不同的采集方法,得到一个样本视频对应的多组采样图像序列;在对采样图像序列进行掩码处理的过程中通过掩码不同图像区域,生成一组采样图像序列对应的多个掩码图像序列。通过上述方法,可以通过少量的样本视频及其视频描述文本,生成大量的训练数据进行模型的预训练,减少数据量,提高训练效率。
本申请还提出,通过设置采集图像帧的间隔阈值,或者设置采集图像帧的随机间隔范围,保证采样图像序列中的多帧图像的图像特征具有一定差异性,以此提高图像特征提取的效果。
本申请还提出,在获取采样图像序列和掩码图像序列时,对经过间隔采样得到的采样图像序列中各个采样图像的同一位置进行掩码处理,得到掩码图像序列。通过上述方法抑制了第一视频编码器通过对相邻帧的视觉内容插值来重构掩码区域,使其需要在空间维度和时间维度上对可见的视频内容进行视觉推理,加强数据处理模型对空间维度和时间维度的理解从而提高了模型的处理效果,同时也间接提高了匹配结果的准确性。并且,通过间隔采样方法,可以在保证处理效果的前提下减少采样图像数据量,提高待检测视频的采样效率和对采样图像进行处理的效率。
本申请还提出,在推理目标掩码图像的掩码区域时,可以基于多个参考掩码图像进行推理,并且可以对多个参考掩码图像进行权重划分,例如,将掩码图像序列中与目标掩码图像较近的参考掩码图像的权重设置较大;将掩码图像序列中与目标掩码图像较远的参考掩码图像的权重设置较小;或者在满足距离阈值时,忽略该距离较远的参考掩码图像,从而有针对性的选择用于进行掩码区域推理的数据,提高掩码区域推理的准确性。
本申请还提出多种获取掩码图像序列的全局特征的方法,第一种是将掩码图像序列中每个掩码图像对应的全局特征进行特征融合,得到掩码图像序列的全局特征;第二种是将掩码图像序列中包括的多个掩码图像进行图像合并,再根据合并后的掩码图像确定掩码图像序列的全局特征;第三种是对得到的第二区域特征集进行处理,得到掩码图像序列的全局特征。通过上述多种方法提高了数据处理的灵活性。
本申请还提出,全局特征是图像维度的特征,参考文本特征是文本维度的特征,通过对全局特征和参考文本特征进行匹配处理,使得将全局特征和参考文本特征在同一特征维度下对齐,从而提高全局损失的准确性和有效性。
本申请还提出,针对对应多组区域特征和匹配区域特征的多个局部损失,分别利用各个局部损失迭代的调整初始第一视频编码器和初始文本编码器的网络参数。在第一视频编码器的网络参数调整后,可以根据第一视频编码器的调整后的网络参数更新第二视频编码器的网络参数,使得第二视频编码器聚合第一视频编码器的知识,从而让第二视频编码器获取的视频特征趋近于文本编码器获取的文本特征(也即是第二视频编码器获取到的掩码图像的重构目标逐渐与参考文本特征对齐),提高了模型处理的准确性;再结合调整后的第二视频编码器对调整后的文本编码器和调整后的第一视频编码器再次进行联合训练,以得到训练后的文本编码器和训练后的第一视频编码器,通过联合训练以及参数更新方法,能够得到更准确的视频描述文本与待检测视频的匹配结果。
本申请还提高了一种具体的网络参数更新方法,使得第二视频编码器的优化过程更加平滑,从而让第二视频编码器获取到的掩码图像的重构目标逐渐与参考文本特征对齐。
请参阅图6,图6是本申请实施例提供的一种数据处理装置的示意框图。其中,数据处理装置具体可以包括:
获取模块601,用于获取待检测视频描述文本,将上述待检测视频描述文本输入文本编码器中进行处理,得到上述待检测视频描述文本的文本特征;
处理模块602,用于将待检测视频的视频图像输入第一视频编码器中进行处理,得到上述待检测视频的视频特征;
匹配模块603,用于根据上述文本特征和上述视频特征,确定上述待检测视频描述文本和上述待检测视频的匹配结果;
其中,上述文本编码器和上述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,上述文本编码器用于获取样本视频的视频描述文本的参考文本特征;上述第二视频编码器用于获取上述样本视频的采样图像序列的第一区域特征集;上述第一视频编码器用于获取上述采样图像序列的掩码图像序列的全局特征和第二区域特征集;上述全局特征和上述参考文本特征用于确定全局损失,上述第一区域特征集和上述第二区域特征集用于确定局部损失,上述文本编码器的网络参数是根据上述全局损失调整得到,上述第一视频编码器的网络参数是根据上述局部损失调整得到。
可选的,上述获取模块601还用于:
获取上述样本视频的视频描述文本和采样图像序列,并获取上述采样图像序列对应的掩码图像序列;
上述处理模块602,还用于:
将上述样本视频的视频描述文本输入初始文本编码器中进行特征提取,得到上述参考文本特征;
将上述采样图像序列输入初始第二视频编码器中进行特征提取,得到上述第一区域特征集,以及将上述掩码图像序列输入初始第一视频编码器中进行特征提取,得到上述全局特征和上述第二区域特征集;
根据上述全局特征和上述参考文本特征确定上述全局损失,以及根据上述第一区域特征集和上述第二区域特征集确定上述局部损失;
根据上述全局损失调整上述初始文本编码器的网络参数,根据调整后的文本编码器确定训练后的文本编码器;以及根据上述局部损失调整上述初始第一视频编码器的网络参数,根据调整后的第一视频编码器确定训练后的第一视频编码器。
可选的,上述处理模块602,在用于获取上述样本视频的采样图像序列时,具体用于:
对上述样本视频进行间隔采样处理,得到采样图像序列;上述采样图像序列中的任意两个采样图像不相邻;
上述获取上述采样图像序列对应的掩码图像序列,包括:
对上述采样图像序列中的各个采样图像进行掩码处理,得到上述掩码图像序列;上述各个采样图像中被掩码处理的图像区域相匹配。
可选的,上述处理模块602,在用于将上述掩码图像序列输入初始第一视频编码器中进行特征提取,得到上述第二区域特征集时,具体用于:
将上述掩码图像序列输入初始第一视频编码器中进行处理,针对上述掩码图像序列中的目标掩码图像,对上述目标掩码图像进行区域划分处理,并提取各个划分图像区域的区域特征;
其中,上述目标掩码图像中包含掩码区域的第一图像区域的区域特征,是根据参考掩码图像中的非掩码部分以及上述目标掩码图像中的非掩码部分预测得到的预测特征,且上述预测特征趋近于由上述初始第二视频编码器对上述采样图像序列中与上述第一图像区域相匹配的第二图像区域提取的特征;上述目标掩码图像为上述掩码图像序列中的任一掩码图像,上述参考掩码图像为上述掩码图像序列中除上述目标掩码图像之外的掩码图像;
根据针对上述掩码图像序列中各个掩码图像提取的区域特征,得到上述第二区域特征集。
可选的,上述第一区域特征集由上述初始第二编码器针对上述采样图像序列中各个采样图像提取的区域特征构成,每一个区域特征对应采样图像的一个划分图像区域,上述处理模块602,在用于根据上述全局特征和上述参考文本特征确定上述全局损失,以及根据上述第一区域特征集和上述第二区域特征集确定上述局部损失时,具体用于:
将上述全局特征和上述参考文本特征进行匹配处理,根据匹配处理后的全局特征和匹配处理后的参考文本特征,确定全局损失;
针对上述第一区域特征集中的任一区域特征,从上述第二区域特征集中确定与上述任一区域特征相匹配的匹配区域特征;
确定上述任一区域特征和上述匹配区域特征之间的差异参数,并根据上述差异参数确定上述局部损失。
可选的,上述处理模块602,在用于根据调整后的文本编码器和第一视频编码器确定训练后的文本编码器和第一视频编码器时,具体用于:
在上述第一视频编码器的网络参数调整后,根据上述第一视频编码器的调整后的网络参数更新上述第二视频编码器的网络参数,得到调整后的第二视频编码器;
结合上述调整后的第二视频编码器,对调整后的文本编码器和调整后的第一视频编码器再次进行联合训练,以得到训练后的文本编码器和训练后的第一视频编码器;
其中,上述调整后的第二视频编码器针对样本视频的采样图像获取的特征,趋近于调整后的文本编码器针对样本视频的视频描述文本获取的文本特征。
可选的,上述待检测视频包含于视频数据库中,上述视频数据库包括多个视频,上述匹配模块603,还用于:
根据上述多个视频中各个视频与上述待检测视频描述文本的匹配结果,从上述视频数据库中确定与上述待检测视频描述文本相匹配的匹配视频。
需要说明的是,本申请实施例的数据处理装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
请参阅图7,图7是本申请实施例提供的一种计算机设备的示意框图。如图所示的本实施例中的智能终端可以包括:处理器701、存储装置702以及通信接口703。上述处理器701、存储装置702以及通信接口703之间可以进行数据交互。
上述存储装置702可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储装置702也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),固态硬盘(solid-state drive,SSD)等;上述存储装置702还可以包括上述种类的存储器的组合。
上述处理器701可以是中央处理器(central processing unit,CPU)。在一个实施例中,上述处理器701还可以是图形处理器(Graphics Processing Unit,GPU)。上述处理器701也可以是由CPU和GPU的组合。在一个实施例中,上述存储装置702用于存储程序指令,上述处理器701可以调用上述程序指令,执行如下操作:
获取待检测视频描述文本,将上述待检测视频描述文本输入文本编码器中进行处理,得到上述待检测视频描述文本的文本特征;
将待检测视频的视频图像输入第一视频编码器中进行处理,得到上述待检测视频的视频特征;
根据上述文本特征和上述视频特征,确定上述待检测视频描述文本和上述待检测视频的匹配结果;
其中,上述文本编码器和上述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,上述文本编码器用于获取样本视频的视频描述文本的参考文本特征;上述第二视频编码器用于获取上述样本视频的采样图像序列的第一区域特征集;上述第一视频编码器用于获取上述采样图像序列的掩码图像序列的全局特征和第二区域特征集;上述全局特征和上述参考文本特征用于确定全局损失,上述第一区域特征集和上述第二区域特征集用于确定局部损失,上述文本编码器的网络参数是根据上述全局损失调整得到,上述第一视频编码器的网络参数是根据上述局部损失调整得到。
可选的,上述处理器701还用于:
获取上述样本视频的视频描述文本和采样图像序列,并获取上述采样图像序列对应的掩码图像序列;
将上述样本视频的视频描述文本输入初始文本编码器中进行特征提取,得到上述参考文本特征;
将上述采样图像序列输入初始第二视频编码器中进行特征提取,得到上述第一区域特征集,以及将上述掩码图像序列输入初始第一视频编码器中进行特征提取,得到上述全局特征和上述第二区域特征集;
根据上述全局特征和上述参考文本特征确定上述全局损失,以及根据上述第一区域特征集和上述第二区域特征集确定上述局部损失;
根据上述全局损失调整上述初始文本编码器的网络参数,根据调整后的文本编码器确定训练后的文本编码器;以及根据上述局部损失调整上述初始第一视频编码器的网络参数,根据调整后的第一视频编码器确定训练后的第一视频编码器。
可选的,上述处理器701,在用于获取上述样本视频的采样图像序列时,具体用于:
对上述样本视频进行间隔采样处理,得到采样图像序列;上述采样图像序列中的任意两个采样图像不相邻;
上述获取上述采样图像序列对应的掩码图像序列,包括:
对上述采样图像序列中的各个采样图像进行掩码处理,得到上述掩码图像序列;上述各个采样图像中被掩码处理的图像区域相匹配。
可选的,上述处理器701,在用于将上述掩码图像序列输入初始第一视频编码器中进行特征提取,得到上述第二区域特征集时,具体用于:
将上述掩码图像序列输入初始第一视频编码器中进行处理,针对上述掩码图像序列中的目标掩码图像,对上述目标掩码图像进行区域划分处理,并提取各个划分图像区域的区域特征;
其中,上述目标掩码图像中包含掩码区域的第一图像区域的区域特征,是根据参考掩码图像中的非掩码部分以及上述目标掩码图像中的非掩码部分预测得到的预测特征,且上述预测特征趋近于由上述初始第二视频编码器对上述采样图像序列中与上述第一图像区域相匹配的第二图像区域提取的特征;上述目标掩码图像为上述掩码图像序列中的任一掩码图像,上述参考掩码图像为上述掩码图像序列中除上述目标掩码图像之外的掩码图像;
根据针对上述掩码图像序列中各个掩码图像提取的区域特征,得到上述第二区域特征集。
可选的,上述第一区域特征集由上述初始第二编码器针对上述采样图像序列中各个采样图像提取的区域特征构成,每一个区域特征对应采样图像的一个划分图像区域,上述处理器701,在用于根据上述全局特征和上述参考文本特征确定上述全局损失,以及根据上述第一区域特征集和上述第二区域特征集确定上述局部损失时,具体用于:
将上述全局特征和上述参考文本特征进行匹配处理,根据匹配处理后的全局特征和匹配处理后的参考文本特征,确定全局损失;
针对上述第一区域特征集中的任一区域特征,从上述第二区域特征集中确定与上述任一区域特征相匹配的匹配区域特征;
确定上述任一区域特征和上述匹配区域特征之间的差异参数,并根据上述差异参数确定上述局部损失。
可选的,上述处理器701,在用于根据调整后的文本编码器和第一视频编码器确定训练后的文本编码器和第一视频编码器时,具体用于:
在上述第一视频编码器的网络参数调整后,根据上述第一视频编码器的调整后的网络参数更新上述第二视频编码器的网络参数,得到调整后的第二视频编码器;
结合上述调整后的第二视频编码器,对调整后的文本编码器和调整后的第一视频编码器再次进行联合训练,以得到训练后的文本编码器和训练后的第一视频编码器;
其中,上述调整后的第二视频编码器针对样本视频的采样图像获取的特征,趋近于调整后的文本编码器针对样本视频的视频描述文本获取的文本特征。
可选的,上述待检测视频包含于视频数据库中,上述视频数据库包括多个视频,上述处理器701,还用于:
根据上述多个视频中各个视频与上述待检测视频描述文本的匹配结果,从上述视频数据库中确定与上述待检测视频描述文本相匹配的匹配视频。
具体实现中,本申请实施例中所描述的处理器701、存储装置702以及通信接口703可执行本申请实施例图2或图4提供的数据处理方法的相关实施例中所描述的实现方式,也可执行本申请实施例图6提供的数据处理装置的相关实施例中所描述的实现方式,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法、装置和系统,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的;例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式;例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且计算机可读存储介质中存储有前文提及的数据处理装置所执行的计算机程序,且该计算机程序包括程序指令,当处理器执行上述程序指令时,能够执行前文图2、图4所对应实施例中的方法,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。作为示例,程序指令可以被部署在一个计算机设备上,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算机设备可以组成区块链系统。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备可以执行前文图2、图4所对应实施例中的方法,因此,这里将不再进行赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,上述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本申请的部分实施例而已,当然不能以此来限定本申请之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本申请权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (11)
1.一种数据处理方法,其特征在于,所述方法包括:
获取待检测视频描述文本,将所述待检测视频描述文本输入文本编码器中进行处理,得到所述待检测视频描述文本的文本特征;
将待检测视频的视频图像输入第一视频编码器中进行处理,得到所述待检测视频的视频特征;
根据所述文本特征和所述视频特征,确定所述待检测视频描述文本和所述待检测视频的匹配结果;
其中,所述文本编码器和所述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,所述文本编码器用于获取样本视频的视频描述文本的参考文本特征;所述第二视频编码器用于获取所述样本视频的采样图像序列的第一区域特征集;所述第一视频编码器用于获取所述采样图像序列的掩码图像序列的全局特征和第二区域特征集;所述全局特征和所述参考文本特征用于确定全局损失,所述第一区域特征集和所述第二区域特征集用于确定局部损失,所述文本编码器的网络参数是根据所述全局损失调整得到,所述第一视频编码器的网络参数是根据所述局部损失调整得到。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述样本视频的视频描述文本和采样图像序列,并获取所述采样图像序列对应的掩码图像序列;
将所述样本视频的视频描述文本输入初始文本编码器中进行特征提取,得到所述参考文本特征;
将所述采样图像序列输入初始第二视频编码器中进行特征提取,得到所述第一区域特征集,以及将所述掩码图像序列输入初始第一视频编码器中进行特征提取,得到所述全局特征和所述第二区域特征集;
根据所述全局特征和所述参考文本特征确定所述全局损失,以及根据所述第一区域特征集和所述第二区域特征集确定所述局部损失;
根据所述全局损失调整所述初始文本编码器的网络参数,根据调整后的文本编码器确定训练后的文本编码器;以及根据所述局部损失调整所述初始第一视频编码器的网络参数,根据调整后的第一视频编码器确定训练后的第一视频编码器。
3.根据权利要求2所述的方法,其特征在于,获取所述样本视频的采样图像序列,包括:
对所述样本视频进行间隔采样处理,得到采样图像序列;所述采样图像序列中的任意两个采样图像不相邻;
所述获取所述采样图像序列对应的掩码图像序列,包括:
对所述采样图像序列中的各个采样图像进行掩码处理,得到所述掩码图像序列;所述各个采样图像中被掩码处理的图像区域相匹配。
4.根据权利要求2或3所述的方法,其特征在于,将所述掩码图像序列输入初始第一视频编码器中进行特征提取,得到所述第二区域特征集,包括:
将所述掩码图像序列输入初始第一视频编码器中进行处理,针对所述掩码图像序列中的目标掩码图像,对所述目标掩码图像进行区域划分处理,并提取各个划分图像区域的区域特征;其中,所述目标掩码图像中包含掩码区域的第一图像区域的区域特征,是根据参考掩码图像中的非掩码部分以及所述目标掩码图像中的非掩码部分预测得到的预测特征,且所述预测特征趋近于由所述初始第二视频编码器对所述采样图像序列中与所述第一图像区域相匹配的第二图像区域提取的特征;所述目标掩码图像为所述掩码图像序列中的任一掩码图像,所述参考掩码图像为所述掩码图像序列中除所述目标掩码图像之外的掩码图像;
根据针对所述掩码图像序列中各个掩码图像提取的区域特征,得到所述第二区域特征集。
5.根据权利要求4所述的方法,其特征在于,所述第一区域特征集由所述初始第二编码器针对所述采样图像序列中各个采样图像提取的区域特征构成,每一个区域特征对应采样图像的一个划分图像区域;
所述根据所述全局特征和所述参考文本特征确定所述全局损失,以及根据所述第一区域特征集和所述第二区域特征集确定所述局部损失,包括:
将所述全局特征和所述参考文本特征进行匹配处理,根据匹配处理后的全局特征和匹配处理后的参考文本特征,确定全局损失;
针对所述第一区域特征集中的任一区域特征,从所述第二区域特征集中确定与所述任一区域特征相匹配的匹配区域特征;
确定所述任一区域特征和所述匹配区域特征之间的差异参数,并根据所述差异参数确定所述局部损失。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述第一视频编码器的网络参数调整后,根据所述第一视频编码器的调整后的网络参数更新所述第二视频编码器的网络参数,得到调整后的第二视频编码器;
结合所述调整后的第二视频编码器,对调整后的文本编码器和调整后的第一视频编码器再次进行联合训练,以得到训练后的文本编码器和训练后的第一视频编码器;
其中,所述调整后的第二视频编码器针对样本视频的采样图像获取的特征,趋近于调整后的文本编码器针对样本视频的视频描述文本获取的文本特征。
7.根据权利要求1-3或6中任一项所述的方法,其特征在于,所述待检测视频包含于视频数据库中,所述视频数据库包括多个视频,所述方法还包括:
根据所述多个视频中各个视频与所述待检测视频描述文本的匹配结果,从所述视频数据库中确定与所述待检测视频描述文本相匹配的匹配视频。
8.一种数据处理装置,其特征在于,所述装置包括:
获取模块,用于获取待检测视频描述文本,将所述待检测视频描述文本输入文本编码器中进行处理,得到所述待检测视频描述文本的文本特征;
处理模块,用于将待检测视频的视频图像输入第一视频编码器中进行处理,得到所述待检测视频的视频特征;
匹配模块,用于根据所述文本特征和所述视频特征,确定所述待检测视频描述文本和所述待检测视频的匹配结果;其中,所述文本编码器和所述第一视频编码器是结合第二视频编码器联合训练得到;在联合训练过程中,所述文本编码器用于获取样本视频的视频描述文本的参考文本特征;所述第二视频编码器用于获取所述样本视频的采样图像序列的第一区域特征集;所述第一视频编码器用于获取所述采样图像序列的掩码图像序列的全局特征和第二区域特征集;所述全局特征和所述参考文本特征用于确定全局损失,所述第一区域特征集和所述第二区域特征集用于确定局部损失,所述文本编码器的网络参数是根据所述全局损失调整得到,所述第一视频编码器的网络参数是根据所述局部损失调整得到。
9.一种计算机设备,其特征在于,包括:处理器、存储装置和通信接口,所述处理器、所述通信接口和所述存储装置相互连接,其中,所述存储装置存储有可执行程序代码,所述处理器用于调用所述可执行程序代码,用以实现如权利要求1~7中任一项所述的数据处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行,用以实现如权利要求1~7中任一项所述的数据处理方法。
11.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序或计算机指令,所述计算机程序或计算机指令被处理器执行时,用以实现如权利要求1~7中任一项所述的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210443286.5A CN115114480A (zh) | 2022-04-26 | 2022-04-26 | 数据处理方法、装置、设备、可读存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210443286.5A CN115114480A (zh) | 2022-04-26 | 2022-04-26 | 数据处理方法、装置、设备、可读存储介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115114480A true CN115114480A (zh) | 2022-09-27 |
Family
ID=83324874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210443286.5A Pending CN115114480A (zh) | 2022-04-26 | 2022-04-26 | 数据处理方法、装置、设备、可读存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115114480A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051859A (zh) * | 2023-02-21 | 2023-05-02 | 阿里巴巴(中国)有限公司 | 服务提供方法、设备和存储介质 |
WO2024104068A1 (zh) * | 2022-11-15 | 2024-05-23 | 腾讯科技(深圳)有限公司 | 视频检测方法、装置、设备、存储介质及产品 |
WO2024159914A1 (zh) * | 2023-01-31 | 2024-08-08 | 中国科学院深圳先进技术研究院 | 弱监督时序边界定位方法、装置、电子设备及存储介质 |
WO2024199409A1 (zh) * | 2023-03-31 | 2024-10-03 | 华为技术有限公司 | 一种数据处理方法及其装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021088510A1 (zh) * | 2019-11-05 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机以及可读存储介质 |
CN112927712A (zh) * | 2021-01-25 | 2021-06-08 | 网易(杭州)网络有限公司 | 视频生成方法、装置和电子设备 |
US20210224601A1 (en) * | 2019-03-05 | 2021-07-22 | Tencent Technology (Shenzhen) Company Limited | Video sequence selection method, computer device, and storage medium |
CN114090823A (zh) * | 2021-09-09 | 2022-02-25 | 秒针信息技术有限公司 | 视频检索方法、装置、电子设备及计算机可读存储介质 |
CN114186564A (zh) * | 2021-11-05 | 2022-03-15 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置以及电子设备 |
-
2022
- 2022-04-26 CN CN202210443286.5A patent/CN115114480A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210224601A1 (en) * | 2019-03-05 | 2021-07-22 | Tencent Technology (Shenzhen) Company Limited | Video sequence selection method, computer device, and storage medium |
WO2021088510A1 (zh) * | 2019-11-05 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机以及可读存储介质 |
CN112927712A (zh) * | 2021-01-25 | 2021-06-08 | 网易(杭州)网络有限公司 | 视频生成方法、装置和电子设备 |
CN114090823A (zh) * | 2021-09-09 | 2022-02-25 | 秒针信息技术有限公司 | 视频检索方法、装置、电子设备及计算机可读存储介质 |
CN114186564A (zh) * | 2021-11-05 | 2022-03-15 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置以及电子设备 |
Non-Patent Citations (1)
Title |
---|
曹磊;万旺根;侯丽;: "基于多特征的视频描述生成算法研究", 电子测量技术, no. 16, 23 August 2020 (2020-08-23) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024104068A1 (zh) * | 2022-11-15 | 2024-05-23 | 腾讯科技(深圳)有限公司 | 视频检测方法、装置、设备、存储介质及产品 |
WO2024159914A1 (zh) * | 2023-01-31 | 2024-08-08 | 中国科学院深圳先进技术研究院 | 弱监督时序边界定位方法、装置、电子设备及存储介质 |
CN116051859A (zh) * | 2023-02-21 | 2023-05-02 | 阿里巴巴(中国)有限公司 | 服务提供方法、设备和存储介质 |
CN116051859B (zh) * | 2023-02-21 | 2023-09-08 | 阿里巴巴(中国)有限公司 | 服务提供方法、设备和存储介质 |
WO2024199409A1 (zh) * | 2023-03-31 | 2024-10-03 | 华为技术有限公司 | 一种数据处理方法及其装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115114480A (zh) | 数据处理方法、装置、设备、可读存储介质及程序产品 | |
CN111241989B (zh) | 图像识别方法及装置、电子设备 | |
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN112084331A (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
WO2021218471A1 (zh) | 一种用于图像处理的神经网络以及相关设备 | |
CN112597941A (zh) | 一种人脸识别方法、装置及电子设备 | |
CN112052837A (zh) | 基于人工智能的目标检测方法以及装置 | |
CN111401406A (zh) | 一种神经网络训练方法、视频帧处理方法以及相关设备 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN113095475A (zh) | 一种神经网络的训练方法、图像处理方法以及相关设备 | |
EP4105828A1 (en) | Model updating method and related device | |
CN114550053A (zh) | 一种交通事故定责方法、装置、计算机设备及存储介质 | |
CN114140841A (zh) | 点云数据的处理方法、神经网络的训练方法以及相关设备 | |
CN113159315A (zh) | 一种神经网络的训练方法、数据处理方法以及相关设备 | |
CN115424056A (zh) | 模型训练方法和装置、图像分类方法、设备和介质 | |
WO2024179446A1 (zh) | 一种图像处理方法以及相关设备 | |
CN112308093B (zh) | 基于图像识别的空气质量感知方法、模型训练方法及系统 | |
Wei et al. | Lightweight multimodal feature graph convolutional network for dangerous driving behavior detection | |
CN113822134A (zh) | 一种基于视频的实例跟踪方法、装置、设备及存储介质 | |
CN114581734B (zh) | 分类模型训练方法、装置、设备以及存储介质 | |
CN112667864B (zh) | 图对齐方法、装置、电子设备及存储介质 | |
CN117036765A (zh) | 图像分类模型处理及图像分类方法、装置和计算机设备 | |
CN117011740A (zh) | 视频检测方法和装置、存储介质及电子设备 | |
CN115482377A (zh) | 图像处理方法、计算机程序产品、存储介质及电子设备 | |
CN115966030A (zh) | 图像处理方法、装置及智能终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |