CN114359768B - 一种基于多模态异质特征融合的视频密集事件描述方法 - Google Patents

一种基于多模态异质特征融合的视频密集事件描述方法 Download PDF

Info

Publication number
CN114359768B
CN114359768B CN202111159640.3A CN202111159640A CN114359768B CN 114359768 B CN114359768 B CN 114359768B CN 202111159640 A CN202111159640 A CN 202111159640A CN 114359768 B CN114359768 B CN 114359768B
Authority
CN
China
Prior art keywords
video
event
feature
description
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111159640.3A
Other languages
English (en)
Other versions
CN114359768A (zh
Inventor
刘晋
韩冰
李颖
吴中岱
龚沛朱
张喜亮
王骏翔
郭磊
胡蓉
朱晓蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Cosco Shipping Technology Co Ltd
Shanghai Ship and Shipping Research Institute Co Ltd
Original Assignee
Dalian Maritime University
Cosco Shipping Technology Co Ltd
Shanghai Ship and Shipping Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University, Cosco Shipping Technology Co Ltd, Shanghai Ship and Shipping Research Institute Co Ltd filed Critical Dalian Maritime University
Priority to CN202111159640.3A priority Critical patent/CN114359768B/zh
Publication of CN114359768A publication Critical patent/CN114359768A/zh
Application granted granted Critical
Publication of CN114359768B publication Critical patent/CN114359768B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及计算机视觉领域,具体涉及一种基于多模态异质特征融合的视频事件描述方法。本发明利用I3D卷积网络剪辑视频并提取动态视觉特征,VGGish模型提取音频韵律特征;将场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对特征向量进行图嵌入;将提取的三个特征进行三重多模态循环融合;自适应多模态数据平衡,使动态视觉、音频韵律特征相互契合,保证事件提取合理;描述重构解码器,利用描述重构算法对视频事件进行检测,并根据预训练语言字典生成视频场景事件的描述。有效解决了视频描述方法中频繁生成共现描述等无意义描述的问题,并有效利用多模态信息挖掘出场景事件的关系。

Description

一种基于多模态异质特征融合的视频密集事件描述方法
技术领域
本发明涉及计算机视觉,涉及视频描述领域,具体涉及一种基于多模态异质特征融合的视频密集事件描述方法。
背景技术
计算机视觉的应用范围与规模是目前人工智能应用中最为广泛与普遍的,且早已深入日常生活与工作的多方面,涉及到网络安全、系统评价、监控、智能机器等,在人类文明发展中有着重要的推动作用,推动社会的发展和进步。计算机视觉人工智能的图像识别中,主要分为静态图像和动态图像,静态图像主要包含图片等内容,动态图像主要是视频等内容。对于视频描述任务来说,可以识别视频中这些事件之间的关系,并把所有事件描述出来,是目前比较重要的研究领域,尤其是涉及到视频监控、网络安全、系统评价等具体应用中。
目前,由于互联网以及终端应用的高度发展,涉及的开放域、长视频、密集事件的视频往往数不胜数,而且处于不断的更新状态。又因为在开放域的长视频中通常包括多个事件,其中牵涉多个行为以及实体,因此合理的描述方式应是对每个事件进行定位并描述。一般的视频描述任务针对一个视频只会生成一句文本描述,当视频中包含多个事件或者复杂场景时,这样的描述显然是不充分的。
此外,由于图像描述任务会对每一张图片生成一句文本描述,如果将图像描述方法应用在视频中则是对特定的视频帧进行描述,如果对每一帧都描述,则会需要较高的计算成本,并且由于生成的描述也过于稠密,还需要使用后处理对描述进行整合,增大了很多工作量。
在图像或视频描述领域,传统机器学习方法已经不满足要求,现在利用卷积神经网络(Convolutional Neural Networks)是比较常用的。其中最大的一个原因就是,图像数据的特征设计,即特征描述一直是计算机视觉研究的痛点。
在特征描述中,重点在于特征融合,特征级融合即对抽象特征进行融合,可分早期融合和晚期融合。早期融合是先将特征融合后再送入模型预测,晚期融合是先将特征送入模型预测再进行融合后统一打分。传统特征融合算法多为早期融合,一般就是对多模态特征进行相加或者级联操作,但是这些简单的线性融合方法无法具备多模态特征间复杂的特征交互能力。目前,融合时参数过多以及多模态特征无法充分交互成了多模态融合领域的的主要问题,而且传统融合算法大多达不到现实中多场景应用的要求,缺少模型的泛化能力。
虽然已有诸多视频描述相关的研究工作,但目前来看,视频描述仍然面临着许多挑战。不仅是因为视频描述任务本身对模型的编码解码能力要求较高,还在于当前的一些客观因素限制了视频描述的发展,具体可以总结如下:(1)目前对于开放域、长视频、密集事件的视频描述方法的需求正在日益提升,而目前的大量研究工作集中在图像描述或是仅包含单个事件的短视频描述;(2)目前的视频描述方法太依赖对已知数据的直观理解,生成简单的共现描述,缺乏对潜在信息的推理过程,导致模型的理解能力局限性较大;(3)大多数视频描述方法还未能完全利用已有数据,仅利用单一模态数据进行分析限制了模型的结构和性能。
发明内容
为了有效解决长视频、密集事件的视频描述方法中频繁生成共现描述等无意义描述的弊端,同时满足多场景的应用的要求,本发明提供一种基于多模态异质特征融合的视频密集事件描述方法。
本发明请求保护以下技术方案,
本发明提供一种基于多模态异质特征融合的视频密集事件描述方法,其特征在于,包括以下步骤:
特征提取,利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频片段中的音频韵律特征向量;
场景图特征嵌入,将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
三重多模态循环融合,将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;
描述重构解码器,包括预训练的语言字典解码器以及描述重构算法,通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述;所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
进一步的,所述动态视觉特征Fm,其中其中N为抽取的视频剪辑的数量,整体对应的维度是Tv×dv;所述音频韵律特征向量对应的维度是Ta×da,音频特征向量被转化为具有语义的128维的特征向量。
进一步的,在场景图特征嵌入过程中,输入为视频帧,首先经过Mask R-CNN检测视频帧图片中的物体包围框坐标等物体位置信息,确定物体目标所在位置,得到物体区域;再将所述视频帧原图和所述物体区域分别送入视觉场景图生成器生成场景图,将所述视频帧图片信息以及被检测出来的物体位置信息等视觉信息进行语义化表征,得到实体编码、属性编码和关系编码,之后将这些编码送入联合嵌入层进行联合表征得到语义信息,将所述语义信息嵌入所述实体编码、属性编码和关系编码中对应的特征向量;再通过图卷积对特征向量进行图嵌入,得到场景图特征嵌入向量;在此过程中对实体之间的关联进行强化推理。
进一步的,本发明在三重多模态循环融合之后,还包括:
自适应多模态数据平衡,利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
进一步的,所述特定值是指中心位置center=p+σ(c),其中σ(·)是sigmoid函数,作用是把c的值缩放到[0,1]区间内,用来确定中心点p的右邻域;事件时长length=anchor·e,其中e是缩放系数;置信度分数confidence=σ(o)。
进一步的,所述全卷积网络皆采用一维卷积对时序维度上进行特征提取,第一层的卷积核大小为k,第二层和第三层的卷积核都为1,前两层的激活函数是Relu,最后一层的激活函数是sigmoid。
进一步的,在三重多模态循环融合过程中,所述规范化函数指是Softmax函数。
在在三重多模态循环融合过程中,维度为Tv×dv以及Ta×da的动态视觉特征向量和音频特征向量先被送入自注意力层进行特征表示。
进一步的,所述高置信度分数取前100的事件,聚类算法采用根据欧式距离的K-Means算法。
进一步的,所述语言字典的预训练方法为,将已标注的描述文本转换为场景图,再通过图卷积网络进行场景图特征嵌入,将得到的向量与所述预训练的语言字典进行计算对场景图特征进行重编码,再将重编码后的向量送入解码器重构后进行文本描述,通过比较重构后的文本描述与所述已标注的描述文本的差异来监督模型学习;所述标注描述文本是存于数据集中,用于预训练的数据;
所述预训练的语言字典,是指预训练的语言字典D是一个维度为d×L的矩阵;
所述重编码,是指进行重编码的计算,过程如下:
其中dl表示D中第l列向量,此处D的作用就是将人类语言习惯进行编码嵌入。
进一步的,在所述描述重构解码器步骤中,所述的描述重构算法具体为:
本发明还提供一种兼顾参数量与交互强度的融合方法,其特征在于,可以用于实现权利要求1所述的三重多模态循环融合,在不产生高维特征的前提下,让多种特征进行深层次融合。
本发明还提供一种基于多模态异质特征融合的视频密集事件描述的装置,其特征在于,
特征提取模块,用于利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频片段中的音频韵律特征向量;
场景图特征嵌入模块,用于将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
三重多模态循环融合模块,用于将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;所述三重多模态循环融合模块包括预先建立的一种兼顾参数量与交互强度的融合方法,在不产生高维特征的前提下,让多种特征进行深层次融合;
描述重构解码器模块,用于通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述,所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
进一步的,还包括自适应多模态数据平衡模块,用于利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
与现有技术相比,本发明的优势在于:
(1)本发明针对视频密集事件的描述,通过利用I3D卷积网络以及VGGish模型提取特征,对视频描述任务的进一步细化,解决了长视频的描述的对每个事件进行定位问题。并在视频密集事件描述方法中首次提出使用场景图特征嵌入的方式,并通过本发明设计的三重多模态循环融合模块实现了多模态循环融合,使得视频密集描述任务描述了事件对象之间的关联关系、效果更好,解决了目前的大量研究工作集中在图像描述或是仅包含单个事件的短视频描述的缺陷。
(2)本发明搭载了自适应多模态数据平衡,使得动态视觉和音频韵律两个特征的相互契合,保证事件提取的合理性,提高了模型的泛化能力。
(3)本发明还重构了解码器,设计了一种描述重构算法对视频事件进行检测,并根据预训练得到的语言字典生成视频场景事件的描述,有效的解决了视频描述方法中频繁生成共现描述等无意义描述的弊端,并且有效利用了多模态信息挖掘出场景事件的关系。
附图说明
图1.本发明提供的一种基于多模态异质特征融合的视频密集事件描述方法的步骤示意图。
图2.本发明提供的一种基于多模态异质特征融合的视频密集事件描述装置的配置程序图。
图3.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述装置的配置程序图。
图4.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的步骤示意图。
图5.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的流程图。
图6.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的场景图嵌入生成示意图。
图7.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的三重多模态循环融合模块示意图。
图8.本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的语言字典训练示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整地描述,显然,所描述的实施例仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
为刚便于理解本发明的技术方案,下面对本发明涉及的专业名词做详细说明。
视频密集事件描述任务是对视频描述任务的进一步细化,刚好解决了长视频的描述的对每个事件进行定位问题。视频密集事件描述任务是先定位视频中包含关键事件的视频片段,包括事件发生和结束的时间戳,再对获取到的片段进行描述,最后再对多句描述进行整合。该任务能够保证生成的描述在时序上的正确性,且满足对多事件描述的需求,同时也比一般的视频描述任务更具有挑战性。
场景图是有向图的一种数据结构,可以定义为元组(三元组)G=(O,E),其中O是图像中检测到的一组对象,在图中表示为节点。每个对象都有Oi=(Ci,Ai)的形式,其中Ci和Ai分别是对象的类别和属性。而E是一组有向边,表示宾语之间的成对关系,可以是动词、空间、介词和比较级。场景图能够包含图像的结构化语义信息,包括当前对象、对象属性和成对关系的知识。因此,场景图可以为图像检索、视频问题回答和图像生成等其他视觉任务提供有益的先验知识。
图卷积是图卷积神经网络结构中的一种计算方法。
图嵌入指的是将高维的特征向量进行计算映射成低维的向量,这样的好处是可以抽取向量之间更深层的关系,并且减轻计算量。
开放域可以理解为公开域,比如不侵权的视频领域。开放域视频是指包括教育、医疗、科学等多个领域的视频,本发明的方法并不局限于某一领域。
为使本发明技术方案的优点更加清楚,下面结合附图和实施例对本发明做详细说明。
本发明提供了一种基于多模态异质特征融合的视频密集事件描述方法,其中,包括以下步骤,如图1所示:
步骤S11,特征提取,利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频片段中的音频韵律特征向量;
步骤S12,场景图特征嵌入,将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
步骤S13,三重多模态循环融合,将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;
步骤S14,描述重构解码器,包括预训练的语言字典解码器以及描述重构算法,通过描述重构算法对视频密集事件进行检测,这里视频密集事件是视频帧的事件的集合;并利用预训练的语言字典解码器来解码生成视频场景事件的描述;所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
基于上述方法,本发明还提供了一种基于多模态异质特征融合的视频密集事件描述装置,图2为其配置程序图。如图2所示,包括:
特征提取模块101,用于对开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频片段中的音频韵律特征向量。
进一步的,在特征提取模块101中,具体包括利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;所述动态视觉特征Fm,其中其中N为抽取的视频剪辑的数量,整体对应的维度是Tv×dv;所述音频韵律特征向量对应的维度是Ta×da,音频特征向量被转化为具有语义的128维的特征向量。VGGish模型的网络结构本质上就是卷积神经网络中的VGG网络,该模型以音频数据作为输入,从中提取具有语义信息的特征向量。
场景图特征嵌入模块102,用于将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量。
进一步的,在场景图特征嵌入模块102中,输入为视频帧,首先经过Mask R-CNN检测视频帧图片中的物体包围框坐标等物体位置信息,确定物体目标所在位置,得到物体区域;再将所述视频帧原图和所述物体区域分别送入视觉场景图生成器生成场景图,将所述视频帧图片信息以及被检测出来的物体位置信息等视觉信息进行语义化表征,得到实体编码、属性编码和关系编码,之后将这些编码送入联合嵌入层进行联合表征得到语义信息,将所述语义信息嵌入所述实体编码、属性编码和关系编码中对应的特征向量;再通过图卷积对特征向量进行图嵌入,得到场景图特征嵌入向量;在此过程中对实体之间的关联进行强化推理。
三重多模态循环融合模块103,用于将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;
进一步的,所述三重多模态循环融合模块包括预先建立的一种兼顾参数量与交互强度的融合方法,在不产生高维特征的前提下,让多种特征进行深层次融合。所述规范化函数指是Softmax函数。其中,维度为Tv×dv以及Ta×da的动态视觉特征向量和音频特征向量先被送入自注意力层进行特征表示。
这里需要注意的是,本发明还提供了一种兼顾参数量与交互强度的融合方法,其中,可以用于实现上述方法中的所述的三重多模态循环融合,在不产生高维特征的前提下,让多种特征进行深层次融合。
这里当然还涉及其他多重融合,比如可以同时对三个特征向量或者是两个特征向量、一个特征图做融合。包括在不考虑计算机性能的前提下,对任意数量的模态特征进行循环融合。但是由于随着特征融合数量的增多,必然会导致计算性能的下降,而且有可能还会引发模型的过拟合问题,因此,三种特征融合效果是良好的、可接受的。
描述重构解码器模块104,用于通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述,所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
除上述实施例图2中的功能模块外,本发明还提供了另一种包含自适应多模态数据平衡模块的基于多模态异质特征融合的视频密集事件描述装置,如图4所示,是本发明提供的另一种基于多模态异质特征融合的视频密集事件描述装置的配置程序图,包括:特征提取模块201、场景图特征嵌入模块202、三重多模态循环融合模块203、自适应多模态数据平衡模块204以及描述重构解码器模块205,所述自适应多模态数据平衡模块204,用于利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
图3是本发明基于图4中的程序功能模块的装置,提供的另一种基于多模态异质特征融合的视频密集事件描述方法的步骤示意图。其中描述了本发明的另一种基于多模态异质特征融合的视频密集事件描述方法的步骤。具体如下:
步骤S21特征提取,对开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频片段中的音频韵律特征向量;
步骤S22场景图特征嵌入,将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
步骤S23三重多模态循环融合,将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;
步骤S24自适应多模态数据平衡,利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
步骤S25描述重构解码器,包括预训练的语言字典解码器以及描述重构算法,通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述,所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
为了便于更清楚的了解本发明的具体的实施过程,在图3提供的另一种基于多模态异质特征融合的视频密集事件描述方法的步骤的基础上,这里提供了另一种包含步骤S24自适应多模态数据平衡的基于多模态异质特征融合的视频密集事件描述方法的具体的实施流程示意图。如图5所示,本发明可以通过以下的步骤实现对视频流中密集事件的描述,有效解决了视频描述方法中频繁生成共现描述等无意义描述的弊端,并且有效利用了多模态信息挖掘出场景事件的关系。其中,将输入的视频流中开放域长视频经过S21进行剪辑后,分别提取动态视觉特征和音频韵律特征;通过S22将提取的动态视觉特征进行场景图特征嵌入,得到场景图特征;通过S23三个特征进行三重多模态循环特征融合,再经过S24自适应多模态数据平衡后,再通过S25描述重构解码器,得到生成视频场景事件的描述。
具体的分步骤过程,如下所示:
步骤S21特征提取包括:提取动态视觉特征,利用I3D卷积网络选取一定数量视频剪辑(clip),这里是指选取的开放域或者实际监控视频中的长视频逐个视频进行剪辑;并对其中的动态视觉特征Fm进行提取,在获取动态视觉特征的同时还能获取平滑的流动信息,这里平滑的流动信息指的是光流信息。I3D是C3D模型和双流网络的结合体,它不仅通过对二维网络中的所有卷积核和池化核额外赋予了一个时间维度来将二维卷积扩展到了三维,还使用了Inception(INC)结构来提升运算效率。
步骤S21特征提取还包括:音频韵律信息抽取,使用预训练的VGGish模型来提取视频源中音频韵律特征向量。具体来说,利用VGGish模型将音频韵律特征向量转化为具有语义的128维的特征向量,而128维的特征向量与动态视觉特征向量融合起来作为下游模型的输入。首先将输入音频重采样为1.6万赫兹的单声道音频;其次,使用20毫秒的海宁时窗和15毫秒的帧移对音频进行短时傅里叶变换得到频谱图;然后,将频谱图映射到64阶的梅尔滤波器组中计算梅尔声谱;最后,将这些特征以0.96秒的时长进行组帧,每一帧都包含64个梅尔频带,时长10毫秒(即总共96帧)。模型最终输出为128维的特征向量,即da=128。
在本实施例中,所述I3D卷积网络模型具体为:I3D中有两个支路并行对输入的视频以及视频的光流图进行处理,光流图通过opencv提取得到,最终将两条支路的结果进行线性相加得到最终的视觉特征作为输出。本文使用的I3D模型在Kinetics数据集上进行预训练,其输入为64帧RGB视频和光流视频,每帧图片大小为224*224,视频帧率为25。在提取过程中,本文将输入的视频取中心位置截取为224*224的尺寸,同时按照64帧进行分段。I3D模型每64帧输出1024维RGB特征向量和光流特征向量,最后再对这两个向量做加和得到针对64帧视频段的1024维输出向量。
步骤S22场景图特征嵌入,是将场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对特征向量进行图嵌入。这里的场景对象指视频帧中的对象,如“人”,“马”,“医院”,“手表”等实体对象。具体可见图7中绘制出的场景图。具体来说,首先经过Mask R-CNN检测视频帧图片中的物体包围框坐标等物体位置信息,确定物体目标所在位置,得到物体区域;再将所述视频帧原图和所述物体区域分别送入视觉场景图生成器生成场景图,将所述视频帧图片信息以及被检测出来的物体位置信息等视觉信息进行语义化表征,得到实体编码、属性编码和关系编码,之后将这些编码送入联合嵌入层进行联合表征得到语义信息,将所述语义信息嵌入所述实体编码、属性编码和关系编码中对应的特征向量;再通过图卷积对特征向量进行图嵌入,得到场景图特征嵌入向量;在此过程中对实体之间的关联进行强化推理。这里所述的实体编码,属性编码,关系编码中对应的特征向量,其中,如图7所示,实体是人,马,乡村小路,关系是riding和on,属性是红色;此处是为了配合理解举例,实际过程中这些都是被编码的向量。
步骤S23是三重多模态循环融合,将场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备。
进一步的,首先将所述场景图特征嵌入向量、所述动态视觉特征向量、所述音频特征向量,这三种特征投影到同一低维空间中,并将同一维度的特征向量分别进行循环矩阵操作,将其转化为循环矩阵,从第二行向量开始,把每一个行向量都定义为上一个行向量将整体循环右移一个元素。其次,将每一种向量与除此种特征信息之外所有的循环矩阵做元素积,以探索各个特征向量信息之间所包含的复杂关联。最后,对三种不同模态交互后的特征向量进行归一化和正则化后送入解码器中,并为重构解码器做准备。
步骤S24是自适应多模态数据平衡,使所述动态视觉和音频韵律两个特征的相互契合,保证事件提取的合理性。具体来说,首先利用全卷积网络对动态视觉特征向量和音频特征向量在时序维度上进行特征提取,并使用三个特定值来预测事件的时序边界以及置信度分数。其次,将得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件。最终对这些事件进行聚类,选择各个聚类中心组成最终的事件集合。例如:一段音频特征中全是噪音,这里认为在这个时间维度上的音频韵律特征向量严重影响此维度的动态视觉特征向量,导致多模态融合的无效性,影响后期事件的描述。而多模态平衡主要体现在这里,使得动态视频特征和音频特征相互契合,保证事件提取的合理性。
进一步的,这里使用的三个特征值来预测事件的时序边界以及置信度分数具体为:
事件发生时间段的中心位置center=p+σ(c),其中σ(·)是sigmoid函数,作用是把c的值缩放到[0,1]区间内,用来确定中心点p的右邻域;事件时长length=anchor·e,其中e是缩放系数;置信度分数confidence=σ(o)。这里利用置信度分数来筛选合理的事件,剔除无意义的事件,如:同一事件中的空白期,无法对这种事件生成其描述。
在本实施例中,所述的多模态数据平衡,本质上是一个全卷积网络,由三层卷积层组成。其中卷积皆采用一维卷积对时序维度上进行特征提取,来确定哪些时间段包含重要的事件。第一层的卷积核大小为k,第二层和第三层的卷积核都为1,前两层的激活函数是Relu,最后一层的激活函数是sigmoid。该模块的输入是由编码模块输出的维度分别为Tv×dv以及Ta×da的动态视觉特征向量和音频韵律特征向量。这里我们分别对动态视觉和音频两条线路使用该机制来提取时序维度上的事件,再将提取到的事件输入到公共池进行排序,最终选择出合适的事件集合。
进一步的,所述的卷积操作具体为:动态视觉特征向量和音频韵律特征向量需要分别做Kv和Ka(Kv=Ka)次全卷积操作,以便能够动态捕捉不同时长的事件,且每次操作中第一层卷积核的k值都不同,以保证卷积核具有丰富的感受野。
进一步的,所述预测事件的数量具体为:这里定义来决定在做第m次全卷积操作时需要预测的事件的数量。由于动态视觉特征向量的维度Tv和音频韵律特征向量的维度Ta是不同的,因此本文还分别定义了/>和/>来保证/>和/>尽可能接近,使得两条线路生成的事件在数量上尽可能匹配。
进一步的,所述最终事件集合具体为:时序维度上提取到的事件被送入公共池,在公共池中将所有事件按照降序排列并选取置信度分数前100的事件,最后使用K-Means算法根据欧氏距离对这些事件进行聚类,选择各个聚类中心组成最终的事件集合。
步骤S25是描述重构解码器,包括预训练的语言字典解码器以及描述重构算法。其中,语言字典的预训练方法为,将已标注的描述文本转换为场景图,再通过图卷积网络进行特征嵌入,将得到的向量与预训练的语言字典D(D是一个维度为d×L的矩阵)进行计算对特征进行重编码,再将重编码后的向量送入解码器重构文本描述,通过比较重构后的描述与已标注的描述文本的差异来监督模型学习。所述重编码的计算过程如下:
其中dl表示D中第l列向量,此处D的作用就是将人类语言习惯进行编码嵌入。
进一步的,在S25步骤中,描述重构算法可以将生成的多事件描述整合成一段完整的描述,以此来保证描述在逻辑上的时序正确性。
所述的描述重构算法具体为:
为了更便于理解本发明设计的步骤S22场景图特征嵌入的具体实施过程,这里列出图6,是本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的场景图嵌入生成示意图。
如图6所示,根据Mask R-CNN检测出图中对象的位置,并依据对象的局部信息和对象间的全局信息生成场景图G,G=<eo,ea,er>,eo,ea,er分别代表场景图中实体、属性和关系对应的向量表示。图6中aij表示第i个实体的第j个属性,oi表示第i个实体,rij表示oi和oj之间的关系,箭头头部的实体代表关系主体,尾部的实体代表关系客体。生成场景图后利用四个空间图卷积层gr,ga,gs,go对实体、关系和属性向量进行图嵌入,四个图卷积层都具有相同的结构:一层用Relu函数激活的全连接层,可将其形式化表达为g(·)=ReLU(fc(concat(e1,e2,…,en))),ei表示所有输入的向量。对于关系特征嵌入定义如下:对于场景图中每一对关系<oi,rij,oj>,
上式能将oi和oj上下文关系合并起来。对于属性特征嵌入定义如下:对于场景图中的某个实体oi及其属性aij
上式能将oi和oi的所有属性合并起来。对于实体特征嵌入定义如下:对于场景图中的每个实体oi,由于在某个关系中,实体既有可能是关系主体又有可能是关系客体,因此需要将不同的情况都囊括进来,故
sbj是指以oi为关系主体的关系客体集合,obj是指以oi为关系客体的关系主体集合,是指与oi相关的关系总数。通过对场景图生成的实体、属性、关系向量分别进行嵌入,利用图卷积网络在嵌入过程中推理图中相邻节点之间的关联,强化节点之间的语义关系和语义约束,即关联推理过程。
为了更便于理解本发明设计的步骤S3重多模态循环融合的具体实施过程,这里列出图7,是本发明提供的另一种基于多模态异质特征融合的视频密集事件描述方法的三重多模态循环融合模块示意图。
如图7所示,与/>分别是动态视觉特征向量和音频韵律特征向量,而vT是特征图,所以以vT为基准进行投影,如下公式所示:
Vv=WvvT
其中矩阵Wi,i∈{1,2,3的上标T代表转置操作,映射后的特征向量/>此时特征向量Vq、Va、Vv都在同一维度上,接着分别对其进行循环矩阵的改造,具体做法是从第二行向量开始,把每一个行向量都定义为上一个行向量将整体循环右移一个元素,改造后的循环矩阵如下公式所示:
Cq=Ciro(Vq)
Ca=Ciro(Va)
Cv=Ciro(Vv)
其中,分别为转化后的矩阵,Ciro(V)为循环矩阵改造函数。最后,分别将每种特征向量与另外两种不同向量改造而成的循环矩阵做元素积,以探索三种模态信息之间的充分交互,如下公式所示:
其中,fi为对应模态特征的循环矩阵的第i行特征向量,⊙为元素积操作, 为交融后的特征向量。
在本实施例中,本发明还提供了另一种基于多模态异质特征融合的视频密集事件描述方法的语言字典训练示意图。
如图8所示,为了避免生成的描述停留在浅显的共现描述,如:图8中有两个人,而无法描述出此二人的关系,活动等;需要将语言先验知识提炼成一个知识字典,该字典能够与视觉输入信息进行融合计算,并指导模型给出更具深层理解的有意义描述。为获取该字典,本实例中设计了一个自监督的代理任务:将已标注的文本描述S转换成场景图G,其目的是为了从文本中提取实体、属性和关系。接着将得到的向量与预训练的语言字典D(D是一个维度为d×L的矩阵)进行计算对特征进行重编码Ψ,再将重编码后的向量送入解码器重构文本描述,通过比较重构后的描述与标注描述的差异来监督模型学习。其中重编码的计算过程如下:
式中dl表示D中第l列向量,此处D的作用就是将人类语言习惯进行编码嵌入。对语言知识提取模型进行训练实际上就是在训练D中的参数。
用于比较重构后的描述与标注描述的差异来监督模型学习的损失函数如下:
其中Ss表示模型输出的描述结果,是一句句子,S为人为标注的数据集标签,dif表示衡量模型输出与标签之间差距的算法,在本实例中所使用的是CIDEr-D度量算法。
本发明还提供一种电子装置,其中,该装置包括存储器、处理器,所述存储器上存储有可在所述处理器上运行本发明所述装置的配置程序系统,所述配置程序被所述处理器执行时可以实现本发明所述视频密集事件描述方法。
本发明还提供一种计算机可读存储介质,其中,所述计算机可读的存储介质上存储有本发明所述装置的配置程序,所述配置程序可以被一个或多个处理器执行,以实现如本发明所述视频密集事件描述方法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (16)

1.一种基于多模态异质特征融合的视频密集事件描述方法,其特征在于,包括以下步骤:
特征提取,利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频帧中的音频韵律特征向量;
场景图特征嵌入,将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
三重多模态循环融合,将场景图特征嵌入向量、所述动态视觉特征向量、所述音频韵律特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;
描述重构解码器,包括预训练的语言字典解码器以及描述重构算法,通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述;所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
2.根据权利要求1所述的视频密集事件描述方法,其特征还在于,
所述动态视觉特征Fm,其中其中N为抽取的视频剪辑的数量,整体对应的维度是Tv×dv
所述音频韵律特征向量对应的维度是Ta×da,音频韵律特征向量被转化为具有语义的128维的特征向量。
3.根据权利要求1或2所述的视频密集事件描述方法,其特征还在于,
在场景图特征嵌入过程中,输入为视频帧,首先经过Mask R-CNN检测视频帧图片中的物体包围框坐标等物体位置信息,确定物体目标所在位置,得到物体区域;再将所述视频帧原图和所述物体区域分别送入视觉场景图生成器生成场景图,将所述视频帧图片信息以及被检测出来的物体位置信息等视觉信息进行语义化表征,得到实体编码、属性编码和关系编码,之后将这些编码送入联合嵌入层进行联合表征得到语义信息,将所述语义信息嵌入所述实体编码、属性编码和关系编码中对应的特征向量;再通过图卷积对特征向量进行图嵌入,得到场景图特征嵌入向量;在此过程中对实体之间的关联进行强化推理。
4.根据权利要求1所述的视频密集事件描述方法,其特征还在于,
在三重多模态循环融合之后,还包括:
自适应多模态数据平衡,利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
5.根据权利要求4所述的视频密集事件描述方法,其特征还在于,
所述特定值是指中心位置center=p+σ(c),其中σ(·)是sigmoid函数,作用是把c的值缩放到[0,1]区间内,用来确定中心点p的右邻域;事件时长length=anchor·e,其中e是缩放系数;置信度分数confidence=σ(o)。
6.根据权利要求4或5所述的视频密集事件描述方法,其特征还在于,
所述全卷积网络皆采用一维卷积对时序维度上进行特征提取,第一层的卷积核大小为k,第二层和第三层的卷积核都为1,前两层的激活函数是Relu,最后一层的激活函数是sigmoid。
7.根据权利要求1或4所述的视频密集事件描述方法,其特征还在于,
在三重多模态循环融合过程中,所述规范化函数指是Softmax函数。
8.根据权利要求1或4所述的视频密集事件描述方法,其特征还在于,在在三重多模态循环融合过程中,维度为Tv×dv以及Ta×da的动态视觉特征向量和音频韵律特征向量先被送入自注意力层进行特征表示。
9.根据权利要求4所述的视频密集事件描述方法,其特征还在于,所述高置信度分数取前100的事件,聚类算法采用根据欧式距离的K-Means算法。
10.根据权利要求1所述的视频密集事件描述方法,其特征还在于,所述语言字典的预训练方法为,将已标注的描述文本转换为场景图,再通过图卷积网络进行场景图特征嵌入,将得到的向量与所述预训练的语言字典进行计算对场景图特征进行重编码,再将重编码后的向量送入解码器重构后进行文本描述,通过比较重构后的文本描述与所述已标注的描述文本的差异来监督模型学习;所述标注描述文本是存于数据集中,用于预训练的数据;
所述预训练的语言字典,是指预训练的语言字典D是一个维度为d×L的矩阵;
所述重编码,是指进行重编码的计算,过程如下:
其中dl表示D中第l列向量,此处D的作用就是将人类语言习惯进行编码嵌入。
11.根据权利要求1或10所述的视频密集事件描述方法,其特征还在于,在所述描述重构解码器步骤中,所述的描述重构算法具体为:
输入为:视频的开始时间P和结束时间Q;事件集合E,每个事件包含属性:事件的中心时间点m,事件时长l,置信度分数s,事件对应的描述z;
输出为:候选描述集合Z;
具体步骤为:
S1:根据m和l计算出每个事件的开始时间s和结束时间e:
S2:计算出事件之间的tIOU,将重叠事件去重;
S3:将事件按照开始时间升序排列并选择开始时间最早的事件作为基准事件k;
S4:从剩余事件集合E-k中选择开始时间在[ks,ks+ε]中的事件一同组成起始事件集合E1
S5:从剩余事件集合E-E1中选择开始时间在中的事件与E1中对应的事件组成事件序列集合/>
S6:重复步骤5并更新直到选择的事件的结束时间在[Q-ε,Q]范围内,更新/>选择结束;
S7:将中每个事件序列对应的文本描述进行合并后加入到候选描述集合Z。
12.一种兼顾参数量与交互强度的融合方法,其特征在于,可以用于实现权利要求1所述的三重多模态循环融合,在不产生高维特征的前提下,让多种特征进行深层次融合。
13.一种基于多模态异质特征融合的视频密集事件描述的装置,其特征在于,
特征提取模块,用于利用I3D卷积网络选取开放域中长视频进行剪辑得到对应的视频帧,并对所述视频帧中的动态视觉特征Fm进行提取,获取动态视觉特征向量;利用VGGish模型来提取所述视频帧中的音频韵律特征向量;
场景图特征嵌入模块,用于将视频帧中的场景对象信息进行语义化表征,生成场景图谱,得到实体编码,属性编码和关系编码,通过图卷积对所述实体编码、属性编码、关系编码中对应的特征向量进行图嵌入,得到场景图特征嵌入向量;
三重多模态循环融合模块,用于将场景图特征嵌入向量、所述动态视觉特征向量、所述音频韵律特征向量作为输入,并将其进行三重多模态循环融合,再将输出的向量使用规范化函数沿通道做归一化,并且利用Dropout进行正则化后输入到解码器中,并为重构解码器做准备;所述三重多模态循环融合模块包括预先建立的一种兼顾参数量与交互强度的融合方法,在不产生高维特征的前提下,让多种特征进行深层次融合;
描述重构解码器模块,用于通过描述重构算法对视频密集事件进行检测;并利用预训练的语言字典解码器来解码生成视频场景事件的描述,所述预训练的语言字典解码器是指利用预训练的语言字典来对视频场景事件的描述进行解码的模块。
14.根据权利要求13所述的视频密集事件描述的装置,其特征在于,
还包括自适应多模态数据平衡模块,用于利用全卷积网络对所述动态视觉特征向量和所述音频韵律特征向量在时序维度上进行特征提取,并使用特定值来预测事件的时序边界以及置信度分数;其次,将预测得到的事件送入公共池中,并按照降序排列并选取高置信度分数的事件;最终对所述高置信度分数的事件进行聚类,选择各个对应的聚类中心来组成最终的事件集合。
15.一种电子装置,其特征在于,该装置包括存储器、处理器,所述存储器上存储有可在所述处理器上运行如权利要求13-14所述装置的配置程序系统,所述配置程序被所述处理器执行时可以实现如权利要求1-11所述视频密集事件描述方法。
16.一种计算机可读存储介质,其特征在于,所述计算机可读的存储介质上存储有如权利要求13-14所述装置的配置程序,所述配置程序可以被一个或多个处理器执行,以实现如权利要求1-11所述视频密集事件描述方法。
CN202111159640.3A 2021-09-30 2021-09-30 一种基于多模态异质特征融合的视频密集事件描述方法 Active CN114359768B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111159640.3A CN114359768B (zh) 2021-09-30 2021-09-30 一种基于多模态异质特征融合的视频密集事件描述方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111159640.3A CN114359768B (zh) 2021-09-30 2021-09-30 一种基于多模态异质特征融合的视频密集事件描述方法

Publications (2)

Publication Number Publication Date
CN114359768A CN114359768A (zh) 2022-04-15
CN114359768B true CN114359768B (zh) 2024-04-16

Family

ID=81095830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111159640.3A Active CN114359768B (zh) 2021-09-30 2021-09-30 一种基于多模态异质特征融合的视频密集事件描述方法

Country Status (1)

Country Link
CN (1) CN114359768B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708472B (zh) * 2022-06-06 2022-09-09 浙江大学 面向ai实训的多模态数据集标注方法、装置及电子设备
CN115496134B (zh) * 2022-09-14 2023-10-03 北京联合大学 基于多模态特征融合的交通场景视频描述生成方法和装置
CN115438197B (zh) * 2022-11-07 2023-03-24 巢湖学院 一种基于双层异质图的事理知识图谱关系补全方法及系统
CN116089654B (zh) * 2023-04-07 2023-07-07 杭州东上智能科技有限公司 一种基于音频监督的可转移视听文本生成方法和系统
CN117196096A (zh) * 2023-08-21 2023-12-08 中电科新型智慧城市研究院有限公司 目标事件的预测方法、装置、终端设备及存储介质
CN117113281B (zh) * 2023-10-20 2024-01-26 光轮智能(北京)科技有限公司 多模态数据的处理方法、设备、智能体和介质
CN117407507A (zh) * 2023-10-27 2024-01-16 北京百度网讯科技有限公司 基于大语言模型的事件处理方法、装置、设备及介质
CN117556220B (zh) * 2024-01-09 2024-03-22 吉林大学 用于康复护理的智能辅助系统及方法
CN117726977B (zh) * 2024-02-07 2024-04-12 南京百伦斯智能科技有限公司 基于dcnn的实验操作关键节点评分方法和系统
CN118279803A (zh) * 2024-05-08 2024-07-02 珠海澳大科技研究院 一种基于语义消歧结构化编码的视频描述方法
CN118395195A (zh) * 2024-06-28 2024-07-26 浪潮电子信息产业股份有限公司 模型训练方法、视频定位方法、系统、设备、产品及介质
CN118444620A (zh) * 2024-07-08 2024-08-06 青岛科技大学 一种面向终端设备的智能场景生成方法及智慧家庭系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648746A (zh) * 2018-05-15 2018-10-12 南京航空航天大学 一种基于多模态特征融合的开放域视频自然语言描述生成方法
WO2020190112A1 (en) * 2019-03-21 2020-09-24 Samsung Electronics Co., Ltd. Method, apparatus, device and medium for generating captioning information of multimedia data
CN113392717A (zh) * 2021-05-21 2021-09-14 杭州电子科技大学 一种基于时序特征金字塔的视频密集描述生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648746A (zh) * 2018-05-15 2018-10-12 南京航空航天大学 一种基于多模态特征融合的开放域视频自然语言描述生成方法
WO2020190112A1 (en) * 2019-03-21 2020-09-24 Samsung Electronics Co., Ltd. Method, apparatus, device and medium for generating captioning information of multimedia data
CN113392717A (zh) * 2021-05-21 2021-09-14 杭州电子科技大学 一种基于时序特征金字塔的视频密集描述生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多特征的视频描述生成算法研究;曹磊;万旺根;侯丽;;电子测量技术;20200823(16);全文 *

Also Published As

Publication number Publication date
CN114359768A (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN114359768B (zh) 一种基于多模态异质特征融合的视频密集事件描述方法
WO2023050295A1 (zh) 一种基于多模态异质特征融合的视频密集事件描述方法
Le-Khac et al. Contrastive representation learning: A framework and review
Zhang et al. Learning affective features with a hybrid deep model for audio–visual emotion recognition
US11657230B2 (en) Referring image segmentation
Pouyanfar et al. Multimodal deep learning based on multiple correspondence analysis for disaster management
Zhou et al. Facial depression recognition by deep joint label distribution and metric learning
Guanghui et al. Multi-modal emotion recognition by fusing correlation features of speech-visual
Praveen et al. Audio–visual fusion for emotion recognition in the valence–arousal space using joint cross-attention
Hazourli et al. Multi-facial patches aggregation network for facial expression recognition and facial regions contributions to emotion display
Wu et al. Facial kinship verification: A comprehensive review and outlook
Zhang Voice keyword retrieval method using attention mechanism and multimodal information fusion
Lee et al. Timeconvnets: A deep time windowed convolution neural network design for real-time video facial expression recognition
Gurnani et al. Saf-bage: Salient approach for facial soft-biometric classification-age, gender, and facial expression
Chauhan et al. Analysis of Intelligent movie recommender system from facial expression
Singh et al. Age, gender prediction and emotion recognition using convolutional neural network
de Lima Costa et al. High-level context representation for emotion recognition in images
Cheng et al. Multimodal sentiment analysis based on attentional temporal convolutional network and multi-layer feature fusion
Saleem et al. Stateful human-centered visual captioning system to aid video surveillance
Zhao et al. SWRR: Feature Map Classifier Based on Sliding Window Attention and High-Response Feature Reuse for Multimodal Emotion Recognition
Zhao et al. Multi-view dimensionality reduction via subspace structure agreement
Sharma et al. Machine learning techniques for real-time emotion detection from facial expressions
Chen et al. Learning an attention-aware parallel sharing network for facial attribute recognition
Irene et al. Person search over security video surveillance systems using deep learning methods: A review
Wang et al. Audiovisual emotion recognition via cross-modal association in kernel space

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Liu Jin

Inventor after: Zhu Xiaorong

Inventor after: Han Bing

Inventor after: Li Ying

Inventor after: Wu Zhongdai

Inventor after: Gong Peizhu

Inventor after: Zhang Xiliang

Inventor after: Wang Junxiang

Inventor after: Guo Lei

Inventor after: Hu Rong

Inventor before: Liu Jin

Inventor before: Gong Peizhu

Inventor before: Zhang Xiliang

Inventor before: Wu Zhongdai

Inventor before: Wang Junxiang

Inventor before: Guo Lei

Inventor before: Hu Rong

Inventor before: Han Bing

Inventor before: Zhu Xiaorong

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant