CN116935292A - 一种基于自注意力模型的短视频场景分类方法及系统 - Google Patents
一种基于自注意力模型的短视频场景分类方法及系统 Download PDFInfo
- Publication number
- CN116935292A CN116935292A CN202311188902.8A CN202311188902A CN116935292A CN 116935292 A CN116935292 A CN 116935292A CN 202311188902 A CN202311188902 A CN 202311188902A CN 116935292 A CN116935292 A CN 116935292A
- Authority
- CN
- China
- Prior art keywords
- frame
- self
- video
- shot
- shots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000011218 segmentation Effects 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及视频分类系统技术领域,提供了一种基于自注意力模型的短视频场景分类方法及系统。该方法包括,确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。本发明提高了短视频特征的语义表征能力,保证了语义信息不被削弱。
Description
技术领域
本发明涉及视频分类系统技术领域,尤其涉及一种基于自注意力模型的短视频场景分类方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
视频场景分类是对视频中包含的静态或动态场景进行分类,是视频内容理解中的一项重要任务。近年来,随着计算机视觉的快速发展,出现了许多视频场景分类的方法。传统的视频场景分类方法是从视觉模态中提取特征。研究人员提出了多种提取视频场景时空特征的方法,包括分别对时空特征建模或直接对时空特征建模。随着深度学习框架在计算机视觉领域的发展,卷积神经网络也被应用到视频场景分类中。三维卷积和长、短特征的表示也被用来表示视频场景的时空特征。
与传统视频不同,短视频数据大多来自普通社交媒体用户,不同于电影和剧集,短视频制作过程简单,没有特定的表达形式和团队配置要求,具有生产流程简单、制作门槛低等特点。这给短视频场景的分类带来了以下挑战;1)短视频多模态之间的一致性和互补性的协调问题;2)噪声信息;3)同一场景的数据类紧凑性差;4)数据不完整;5)各模态的语义强度不一致;6)数据类别不平衡。这些问题使得传统的短视频场景表示方法无法学习到语义丰富的场景表示。近年来,一些短视频场景分类研究已经考虑到上述挑战,并提出了相应的方法。然而,大多数短视频都存在镜头拼接的问题,导致镜头之间的不连续。如果采用短视频场景的序列化特征提取方法,语义信息会被削弱。再加上短视频存在噪声信息,这些显著影响了短视频特征的语义表征能力,降低了短视频分类的准确率。
发明内容
为了解决上述背景技术中存在短视频中镜头不连续导致的内容差异较大的问题和存在噪声信息等技术问题,本发明提供一种基于自注意力模型的短视频场景分类方法及系统,其通过将短视频进行镜头分割和去噪处理,增强了短视频中多镜头的场景语义强度,更好地学习短视频场景的特征表示。并将该特征表示的短视频数据进行分类,提高了同一视频内镜头间内容差异大和存在噪声问题下短视频分类的准确率。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供一种基于自注意力模型的短视频场景分类方法。
一种基于自注意力模型的短视频场景分类方法,包括:
确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
进一步地,所述确定待处理视频的镜头边界的过程采用TransNetV2方法,所述采用TransNetV2方法的过程包括:每个镜头对应一个DDCNN单元、跳跃连接和帧相似度计算。
进一步地,采用VGG16_places365网络提取每个关键帧的场景特征。
进一步地,所述去噪处理的过程包括:采用编码器对每个关键帧的场景特征进行编码处理后,经解码器进行解码处理,得到去噪后的帧特征。
进一步地,所述自注意力模型为:
其中,是第i个样本的多头自注意力的特征表示,是连接操作,/>表示自注意力机制中的查询矩阵,/>表示键矩阵,/>表示/>的转置,/>表示数值矩阵,三个矩阵都是输入X经过三次不同的线性转换得到的投影矩阵,上标j是样本的索引,h是head的索引,表示第h个头,/>表示缩放系数。
进一步地,在对待处理视频进行分类之前,包括:将重构损失和帧级分类损失和镜头级分类损失的加权和作为目标函数,采用随机梯度下降算法对目标函数进行优化。
进一步地,所述重构损失为:
所述帧级分类损失为:
所述镜头级分类损失为
其中,表示镜头关键帧和预测结果的均方误差,/>表示模型预测结果和标签的交叉熵,视频用/>表示,其中/>,m是每个视频包含的镜头数,并且/>,f 是每个镜头的尺寸,每个镜头中的关键帧用/>表示,l是框架的索引,/>,q为一个镜头的关键帧数,d为帧的尺寸,,/>。
本发明的第二个方面提供一种基于自注意力模型的短视频场景分类系统。
一种基于自注意力模型的短视频场景分类系统,包括:
镜头分割模块,其被配置为:确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
帧提取模块,其被配置为:基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
特征提取模块,其被配置为:对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
去噪和加权模块,其被配置为:基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
分类模块,其被配置为:基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
进一步地,所述自注意力模型为:
其中,是第i个样本的多头自注意力的特征表示,是连接操作,/>表示自注意力机制中的查询矩阵,/>表示键矩阵,/>表示/>的转置,/>表示数值矩阵,三个矩阵都是输入X经过三次不同的线性转换得到的投影矩阵,上标j是样本的索引,h是head的索引,表示第h个头,/>表示缩放系数。
进一步地,在对待处理视频进行分类之前,包括:将重构损失和帧级分类损失和镜头级分类损失的加权和作为目标函数,采用随机梯度下降算法对目标函数进行优化;
所述重构损失为:
所述帧级分类损失为:
所述镜头级分类损失为
其中,表示镜头关键帧和预测结果的均方误差,/>表示模型预测结果和标签的交叉熵,视频用/>表示,其中/>,m是每个视频包含的镜头数,并且/>,f 是每个镜头的尺寸,每个镜头中的关键帧用/>表示,l是框架的索引,/>,q为一个镜头的关键帧数,d为帧的尺寸,,/>。
与现有技术相比,本发明的有益效果是:
本发明对镜头内视频帧之间的关联及镜头间的关联建模,提高了短视频特征的语义表征能力,保证了语义信息不被削弱。
本发明考虑了短视频噪声问题,采用去噪模型,从而获得更好的短视频场景特征表示和更好的分类性能。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明示出的基于自注意力模型的短视频场景分类方法的框架图;
图2是本发明示出的基于自注意力模型的短视频场景分类方法的流程图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要注意的是,附图中的流程图和框图示出了根据本公开的各种实施例的方法和系统的可能实现的体系架构、功能和操作。应当注意,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分可以包括一个或多个用于实现各个实施例中所规定的逻辑功能的可执行指令。也应当注意,在有些作为备选的实现中,方框中所标注的功能也可以按照不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,或者它们有时也可以按照相反的顺序执行,这取决于所涉及的功能。同样应当注意的是,流程图和/或框图中的每个方框、以及流程图和/或框图中的方框的组合,可以使用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以使用专用硬件与计算机指令的组合来实现。
实施例一
本实施例提供了一种基于自注意力模型的短视频场景分类方法,本实施例以该方法应用于服务器进行举例说明,可以理解的是,该方法也可以应用于终端,还可以应用于包括终端和服务器和系统,并通过终端和服务器的交互实现。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务器、云通信、中间件服务、域名服务、安全服务CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。本实施例中,该方法包括以下步骤:
确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
下面结合附图对本实施例的技术方案进行详细介绍,如图1、图2所示:
S1:数据集预处理
为了充分保持短视频的真实分布,数据集在类内是不平衡的,很多类别存在不一致。对数据集进行预处理,去除对场景语义分析无用的噪声数据。并按照7:3的比例分为训练集和测试集。
S2:镜头分割
首先根据镜头边界将短视频分成m个镜头。使用TransNetV2方法检测镜头边界。视频帧需要调整为48×27×3,输入到TransNetV2内的6个DDCNN单元。其中每个单元由四个3×3×3卷积操作组成,每个卷积操作都有F个过滤器和不同的扩展率(时间维度为1,2,4,8)。DDCNN单元包括卷积操作和批处理归一化。通过DDCNN进行特征学习,与一些传统方法的RGB直方图特征和可学习相似特征拼接,再进行一些全连接操作后,最终获取每一帧是否是镜头边界帧的概率,从而完成视频分割。在镜头分割结果中,只使用前6个镜头,如果少于6个镜头,复制已有的镜头。
S3:镜头特征提取
在分割的镜头中提取关键帧,每5秒提取一帧,每个镜头总共提取50个关键帧。使用VGG16_places365网络提取每一帧的场景特征。VGG16_places365是在包含365个类别的大型图像场景数据集上训练的网络。它在地点数据集和其他场景识别数据集上都取得了最好的识别性能。该网络由13个卷积层、3个全连接层、5个池化层和1个softmax层组成。
S4:视频帧去噪
在提取每个镜头视频关键帧的特征后,使用去噪自编码器对视频中每个关键帧的场景特征进行编码和解码。编码模块采用两层全连接和LeakyRelu激活函数,解码模块是编码模块的反向操作。编解码器模型计算:
其中,表示每个镜头中的关键帧, l是框架的索引,/>,其中 q为一个镜头的关键帧数,d 为帧的尺寸,/>和/>为编码器的权值,/>和/>是解码器的权重,/>为LeakyRelu激活函数。/>,/>。
S5:帧级通道注意力
同一镜头中的所有帧经过去噪自编码器后,输入到通道注意力中,学习帧的重要性。将权重与去噪自编码器生成的视频帧的特征相乘,得到每帧按重要性加权的特征表示。
帧的学习权重:
通道注意力的计算:
式中,是Softmax,d1为模型去噪后原始帧特征的维数。
S6:镜头级多头自注意力
使用镜头级多头自注意力模型来关联同一视频的不同镜头,从而学习多个镜头与短视频场景的语义表征之间的关联。对于多头自注意力,需要从原始特征中获取Query(Q)、Key(K)和Value(V)。
式中,,/>和/>是/>的映射矩阵。
多头自注意力计算如下:
其中,是第i个样本的多头自注意力的特征表示,是连接操作,/>表示自注意力机制中的查询矩阵,/>表示键矩阵,/>表示/>的转置,/>表示数值矩阵,三个矩阵都是输入X经过三次不同的线性转换得到的投影矩阵,上标j是样本的索引,h是head的索引,表示第h个头,/>表示缩放系数。
所有镜头的特征经过多头自注意力模块进行关联,将关联后的多头特征通过串联方式进行连接,得到视频的场景特征表示。最后采用softmax对短视频进行场景分类。
S7:计算损失
最后的损失包括重构损失、帧级分类损失/>和镜头级分类损失/>三部分。
重构损失是解码后的特征向量与去噪后的自编码器输入向量的差值,损失函数采用均方误差损失:
。
帧级分类损失是编码器模型输出与标签输出的差值,损失函数采用交叉熵损失:
镜头级分类损失是多头自注意输出与标签输出的差值,损失函数采用交叉熵损失:
最后的损失是三个损失的加权和:
其中,表示镜头关键帧和预测结果的均方误差,/>表示模型预测结果和标签的交叉熵,视频用/>表示,其中/>,m是每个视频包含的镜头数,并且/>,f 是每个镜头的尺寸,每个镜头中的关键帧用/>表示,l是框架的索引,/>,q为一个镜头的关键帧数,d为帧的尺寸,,/>。
S8:模型优化
将最后的损失Loss作为目标函数,采用随机梯度下降(SGD)算法对目标函数进行优化。
实施例二
本实施例提供了一种基于自注意力模型的短视频场景分类系统。
一种基于自注意力模型的短视频场景分类系统,包括:
镜头分割模块,其被配置为:确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
帧提取模块,其被配置为:基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
特征提取模块,其被配置为:对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
去噪和加权模块,其被配置为:基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
分类模块,其被配置为:基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
此处需要说明的是,上述镜头分割模块、帧提取模块、特征提取模块、去噪和加权模块以及分类模块与实施例一中的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于自注意力模型的短视频场景分类方法,其特征在于,包括:
确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
2.根据权利要求1所述的基于自注意力模型的短视频场景分类方法,其特征在于,所述确定待处理视频的镜头边界的过程采用TransNetV2方法,所述采用TransNetV2方法的过程包括:每个镜头对应一个DDCNN单元、跳跃连接和帧相似度计算。
3.根据权利要求1所述的基于自注意力模型的短视频场景分类方法,其特征在于,采用VGG16_places365网络提取每个关键帧的场景特征。
4.根据权利要求1所述的基于自注意力模型的短视频场景分类方法,其特征在于,所述去噪处理的过程包括:采用编码器对每个关键帧的场景特征进行编码处理后,经解码器进行解码处理,得到去噪后的帧特征。
5.根据权利要求1所述的基于自注意力模型的短视频场景分类方法,其特征在于,所述自注意力模型为:
其中,是第i个样本的多头自注意力的特征表示,/> 是连接操作,/>表示自注意力机制中的查询矩阵,/>表示键矩阵,/>表示/>的转置,/>表示数值矩阵,三个矩阵都是输入X经过三次不同的线性转换得到的投影矩阵,上标j是样本的索引,h是head的索引,表示第h个头,/>表示缩放系数。
6.根据权利要求1所述的基于自注意力模型的短视频场景分类方法,其特征在于,在对待处理视频进行分类之前,包括:将重构损失和帧级分类损失和镜头级分类损失的加权和作为目标函数,采用随机梯度下降算法对目标函数进行优化。
7.根据权利要求6所述的基于自注意力模型的短视频场景分类方法,其特征在于,所述重构损失为:
所述帧级分类损失为:
所述镜头级分类损失为
其中,表示镜头关键帧和预测结果的均方误差,/>表示模型预测结果和标签的交叉熵,视频用/>表示,其中/>,m是每个视频包含的镜头数,并且/>,f 是每个镜头的尺寸,每个镜头中的关键帧用/>表示,l是框架的索引,/>,q为一个镜头的关键帧数,d为帧的尺寸,,/>。
8.一种基于自注意力模型的短视频场景分类系统,其特征在于,包括:
镜头分割模块,其被配置为:确定待处理视频的镜头边界,进行镜头分割,得到若干个分割镜头;
帧提取模块,其被配置为:基于若干个分割镜头,先提取关键帧,再提取每个关键帧的场景特征;
特征提取模块,其被配置为:对每个关键帧的场景特征进行去噪处理,得到去噪后的帧特征;
去噪和加权模块,其被配置为:基于同一镜头下的去噪后的帧特征,采用帧级通道注意力处理,得到帧权值,并将帧权值与去噪后的帧特征相乘,得到特征表示;
分类模块,其被配置为:基于若干个特征表示,采用自注意力模型关联同一视频的不同镜头,学习多个镜头与短视频场景的语义表征之间的关联,得到分类结果。
9.根据权利要求8基于自注意力模型的短视频场景分类系统,其特征在于,所述自注意力模型为:
其中,是第i个样本的多头自注意力的特征表示,/> 是连接操作,/>表示自注意力机制中的查询矩阵,/>表示键矩阵,/>表示/>的转置,/>表示数值矩阵,三个矩阵都是输入X经过三次不同的线性转换得到的投影矩阵,上标j是样本的索引,h是head的索引,表示第h个头,/>表示缩放系数。
10.根据权利要求8基于自注意力模型的短视频场景分类系统,其特征在于,在对待处理视频进行分类之前,包括:将重构损失和帧级分类损失和镜头级分类损失的加权和作为目标函数,采用随机梯度下降算法对目标函数进行优化;
所述重构损失为:
所述帧级分类损失为:
所述镜头级分类损失为
其中,表示镜头关键帧和预测结果的均方误差,/>表示模型预测结果和标签的交叉熵,视频用/>表示,其中/>,m是每个视频包含的镜头数,并且/>,f 是每个镜头的尺寸,每个镜头中的关键帧用/>表示,l是框架的索引,/>,q为一个镜头的关键帧数,d为帧的尺寸,,/>。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311188902.8A CN116935292B (zh) | 2023-09-15 | 2023-09-15 | 一种基于自注意力模型的短视频场景分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311188902.8A CN116935292B (zh) | 2023-09-15 | 2023-09-15 | 一种基于自注意力模型的短视频场景分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116935292A true CN116935292A (zh) | 2023-10-24 |
CN116935292B CN116935292B (zh) | 2023-12-08 |
Family
ID=88377440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311188902.8A Active CN116935292B (zh) | 2023-09-15 | 2023-09-15 | 一种基于自注意力模型的短视频场景分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116935292B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456431A (zh) * | 2023-12-26 | 2024-01-26 | 南京邮电大学 | 一种基于扩张卷积和密集连接的镜头边界检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341462A (zh) * | 2017-06-28 | 2017-11-10 | 电子科技大学 | 一种基于注意力机制的视频分类方法 |
CN112613486A (zh) * | 2021-01-07 | 2021-04-06 | 福州大学 | 基于多层注意力和BiGRU的专业立体视频舒适度分类方法 |
CN115002559A (zh) * | 2022-05-10 | 2022-09-02 | 上海大学 | 基于门控多头位置注意力机制的视频摘要算法及系统 |
CN115223082A (zh) * | 2022-07-19 | 2022-10-21 | 重庆邮电大学 | 一种基于时空多尺度Transformer的航拍视频分类方法 |
CN116189047A (zh) * | 2023-01-04 | 2023-05-30 | 天津大学 | 一种基于多模态信息聚合的短视频分类方法 |
WO2023109361A1 (zh) * | 2021-12-14 | 2023-06-22 | 北京有竹居网络技术有限公司 | 用于视频处理的方法、系统、设备、介质和产品 |
-
2023
- 2023-09-15 CN CN202311188902.8A patent/CN116935292B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341462A (zh) * | 2017-06-28 | 2017-11-10 | 电子科技大学 | 一种基于注意力机制的视频分类方法 |
CN112613486A (zh) * | 2021-01-07 | 2021-04-06 | 福州大学 | 基于多层注意力和BiGRU的专业立体视频舒适度分类方法 |
WO2023109361A1 (zh) * | 2021-12-14 | 2023-06-22 | 北京有竹居网络技术有限公司 | 用于视频处理的方法、系统、设备、介质和产品 |
CN115002559A (zh) * | 2022-05-10 | 2022-09-02 | 上海大学 | 基于门控多头位置注意力机制的视频摘要算法及系统 |
CN115223082A (zh) * | 2022-07-19 | 2022-10-21 | 重庆邮电大学 | 一种基于时空多尺度Transformer的航拍视频分类方法 |
CN116189047A (zh) * | 2023-01-04 | 2023-05-30 | 天津大学 | 一种基于多模态信息聚合的短视频分类方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456431A (zh) * | 2023-12-26 | 2024-01-26 | 南京邮电大学 | 一种基于扩张卷积和密集连接的镜头边界检测方法 |
CN117456431B (zh) * | 2023-12-26 | 2024-03-26 | 南京邮电大学 | 一种基于扩张卷积和密集连接的镜头边界检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116935292B (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Saliency detection via the improved hierarchical principal component analysis method | |
CN112507898B (zh) | 一种基于轻量3d残差网络和tcn的多模态动态手势识别方法 | |
WO2022105125A1 (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN110517329A (zh) | 一种基于语义分析的深度学习图像压缩方法 | |
CN111738054B (zh) | 一种基于时空自编码器网络和时空cnn的行为异常检测方法 | |
CN116935292B (zh) | 一种基于自注意力模型的短视频场景分类方法及系统 | |
CN114973049B (zh) | 一种统一卷积与自注意力的轻量视频分类方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN113971735A (zh) | 一种深度图像聚类方法、系统、设备、介质及终端 | |
EP4390725A1 (en) | Video retrieval method and apparatus, device, and storage medium | |
CN116682144B (zh) | 一种基于多层次跨模态差异调和的多模态行人重识别方法 | |
CN111898638B (zh) | 融合不同视觉任务的图像处理方法、电子设备及介质 | |
CN114863229A (zh) | 图像分类方法和图像分类模型的训练方法、装置 | |
CN113297804A (zh) | 基于U-Transformer多层次特征重构的异常检测方法及系统 | |
Zhao et al. | Detecting deepfake video by learning two-level features with two-stream convolutional neural network | |
CN117217368A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
CN116229106A (zh) | 一种基于双u结构的视频显著性预测方法 | |
CN113657272B (zh) | 一种基于缺失数据补全的微视频分类方法及系统 | |
CN116600119B (zh) | 视频编码、解码方法、装置、计算机设备和存储介质 | |
CN115937742B (zh) | 视频场景分割、视觉任务处理方法、装置、设备以及介质 | |
US20220417540A1 (en) | Encoding Device and Method for Utility-Driven Video Compression | |
CN117011741A (zh) | 视频检测模型的训练方法、装置、设备及存储介质 | |
CN117011219A (zh) | 物品质量检测方法、装置、设备、存储介质和程序产品 | |
CN115147931A (zh) | 基于detr的人物成对解码交互的人与物交互检测方法 | |
Rui et al. | Data Reconstruction based on supervised deep auto-encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |