CN117037046B - 一种视听事件检测方法、装置、存储介质及电子设备 - Google Patents

一种视听事件检测方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117037046B
CN117037046B CN202311293169.6A CN202311293169A CN117037046B CN 117037046 B CN117037046 B CN 117037046B CN 202311293169 A CN202311293169 A CN 202311293169A CN 117037046 B CN117037046 B CN 117037046B
Authority
CN
China
Prior art keywords
audio
video
features
segmented
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311293169.6A
Other languages
English (en)
Other versions
CN117037046A (zh
Inventor
俞菲
尚苗
万志国
洪晓鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202311293169.6A priority Critical patent/CN117037046B/zh
Publication of CN117037046A publication Critical patent/CN117037046A/zh
Application granted granted Critical
Publication of CN117037046B publication Critical patent/CN117037046B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本说明书公开了一种视听事件检测方法、装置、存储介质及电子设备。在本说明书提供的视听事件检测方法中,获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频;将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;根据该音视频对的融合特征确定该音视频对的视听事件检测结果。

Description

一种视听事件检测方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种视听事件检测方法、装置、存储介质及电子设备。
背景技术
人类在很大程度上依靠视觉和听觉线索来了解周围的环境。例如,可以联合声音和外观在交响演奏时将不同乐器的声音区分开来。这些视听信息在大脑中进行整合,对于全面感知世界至关重要。受人类这种认知能力的启发,通过整合多模态信号探索具有深度模型的视听学习成为广受业界关注的命题。
视听事件检测作为多模态信号整合感知的一类任务,受到越来越多的关注。然而,现有的方法只是对视听表示进行简单特征级别的融合,并未涉及到高级的语义特征,因而只是对视频中的声音事件进行区域响应,无法进行事件语义上的判别。
因此,如何更好地结合视觉与听觉信息进行更加全面的视听事件检测是一个亟待解决的问题。
发明内容
本说明书提供一种视听事件检测方法、装置、存储介质及电子设备,以至少部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种视听事件检测方法,包括:
获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;
采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频;
将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;
针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;
根据该音视频对的融合特征确定该音视频对的视听事件检测结果。
可选地,采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频,具体包括:
根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频;
根据各分段音频在所述目标音视频数据中的时间段分布,对所述目标视频进行分段,得到在所述目标音视频数据中时间段分布与所述各分段音频相同的各分段视频。
可选地,根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频,具体包括:
确定所述目标音频中各音频帧的短时能量;
对所述目标音频中,短时能量为指定阈值的音频帧进行标记,并对所述目标音频的起始音频帧与结尾音频帧进行标记;
将所述目标音频中任意两个连续的标记,将该两个标记所在的音频帧之间的音频内容确定为分段音频。
可选地,对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,具体包括:
根据所述视频特征,确定该音视频对中的分段视频的视频语义特征,并根据所述音频特征,确定该音视频对中的分段音频的音频语义特征;
对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的融合特征。
可选地,对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的融合特征,具体包括:
对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的一致性语义特征;
对所述一致性语义特征与该音视频对中的分段视频的视频特征进行融合,得到该音视频对的融合特征。
可选地,针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征,具体包括:
针对每个音视频对,将该音视频对输入预先训练的检测模型,通过所述检测模型中的提取子网提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,具体包括:
通过所述检测模型中的融合子网,对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征;
根据该音视频对的融合特征确定该音视频对的视听事件检测结果,具体包括:
将该音视频对的融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该音视频对的视听事件检测结果。
可选地,预先训练检测模型,具体包括:
获取样本音视频数据,并从所述样本音视频数据中提取样本视频与样本音频;
采用同一方式对所述样本视频与所述样本音频进行分段,得到相同数量的样本分段视频与样本分段音频;
将在所述样本音视频数据中位于同一时间段的样本分段视频与样本分段音频确定为样本音视频对,并确定各样本音视频对的标注事件;
针对每个样本音视频对,将该样本音视频对输入待训练的检测模型,通过所述检测模型中的提取子网提取该样本音视频对中的样本分段视频的待优化视频特征与样本分段音频的待优化音频特征;
通过所述检测模型中的融合子网,对所述待优化视频特征与所述待优化音频特征进行融合,得到该样本音视频对的待优化融合特征;
将该样本音视频对的待优化融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该样本音视频对的待优化视听事件检测结果;
以所述待优化视听视频检测结果与所述标注事件之间的差异最小为优化目标,对所述检测模型进行训练。
本说明书提供的一种视听事件检测装置,所述装置包括:
获取模块,用于获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;
分段模块,用于采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频;
组合模块,用于将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;
提取模块,用于针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
融合模块,用于对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;
检测模块,用于根据该音视频对的融合特征确定该音视频对的视听事件检测结果。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述视听事件检测方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述视听事件检测方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的视听事件检测方法中,获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频;将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;根据该音视频对的融合特征确定该音视频对的视听事件检测结果。
在采用本说明书提供的视听事件检测方法对目标音视频数据进行视听事件检测时,可在提取出目标音视频数据的目标视频与目标音频后,对目标视频与目标音频进行分段,得到相同数量的分段视频与分段音频,并将对应的分段视频与分段音频确定为音视频对;通过提取音视频对的视频特征与音频特征,并对二者进行语义层面的融合,得到融合特征;最终根据融合特征确定出音视频对的视听事件检测结果。采用本方法可在检测出视听事件发生的位置的同时,判别出发生的视听事件的类别,得到更加全面可靠的视听事件检测结果。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种视听事件检测方法的流程示意图;
图2为本说明书中一种检测模型的结构示意图;
图3为本说明书提供的一种视听事件检测装置的示意图;
图4为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种试听事件检测方法的流程示意图,具体包括以下步骤:
S100:获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频。
本说明书所提供的视听事件检测方法中的所有步骤均可由任何具有计算功能的电子设备实现,例如终端、服务器等设备。
本方法主要用于根据环境中的视觉信息与听觉信息确定出环境中发生的事件。基于此,可在此步骤中,首先获取环境中的目标音视频数据,例如由摄像机或机器人拍摄下的带有声音的视频等数据。随后,可分别提取出目标音视频数据中的目标视频与目标音频。
可以想到的,提取出的目标视频与目标音频应相互对应,即,目标视频与目标音频的时长相同,且用于描述同一时间段内的事物;目标视频的每一视频帧与目标音频的每一音频帧相互对应。
额外的,也可分别从环境中提取目标视频与目标音频,例如可分别通过摄像头、收音器等设备采集目标视频与目标音频,本说明书对此不做具体限制。
S102:采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频。
在步骤S100中获取到相互对应的目标视频与目标音频后,可在此步骤中,对目标视频与目标音频进行分段。考虑在实际应用过程中,在目标音视频持续的时间内可能会发生多个事件,为了保证事件检测的准确率,在本方法中,采用对目标视频与目标音频进行分段的方式,得到分段视频与分段音频,分别检测每个分段内发生的事件。通过上述方式可将一段时间内发生的多个事件区分开,以达到分段检测的效果。
需要注意的是,在对目标视频与目标音频进行分段的过程中,需要采用同一方式对目标视频和目标音频进行分段。换句话说,对目标视频与目标音频进行切分的时间节点应相同,最终得到相同数量的分段视频与分段音频,且各分段视频与各分段音频也一一对应。
在实际应用的过程中,对目标视频和目标音频进行分段的方式可存在多种,本说明书在此提供一种具体实施例以供参考。具体的,可根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频;根据各分段音频在所述目标音视频数据中的时间段分布,对所述目标视频进行分段,得到在所述目标音视频数据中时间段分布与所述各分段音频相同的各分段视频。
可以想到的,对于固定不变的环境来说,在同一状态下,采集到的环境中的声音也应该是几乎不变的。从目标音频的频谱脉冲的角度来说,在环境状态未发生改变时,频谱脉冲也会较为稳定,波动较小或规律性较强。而当环境中发生事件时,事件所带来的声音便会使采集到的目标音频发生较为明显的变化,进而对目标音频的频谱脉冲带来影响。因此,通过分析目标音频的频谱脉冲的变化,便能够相对准确地判断出一个时间段内是否发生了事件,从而对目标音频与进行合理地分段。
而在对目标音频进行分段,得到分段音频后,可采用相同的格式对目标视频进行分段。换句话说,可以以对目标视频分段得到的分段视频的时间段分布与分段音频的时间段分布相同为目标,对目标音频与目标视频进行分段。举例来说,假设从时长为30秒(seconds,s)的目标音视频数据提取出了目标视频与目标音频,二者相互对应且时长也均为30s;假设在根据目标音频的频谱脉冲对目标音频进行分段时,最终得到4个分段音频,其在原本目标音频中所处的时间段分为别0s~6s、7s~17s、18s~22s、23s~30s。那么相对应的,按照上述时间段分布的格式,对目标视频进行相同的分段,得到在目标视频中所处的时间段分别为0s~6s、7s~17s、18s~22s、23s~30s的4个分段视频。
在根据目标音频的频谱脉冲对目标音频进行分段时,可具体的,确定所述目标音频中各音频帧的短时能量;对所述目标音频中,短时能量为指定阈值的音频帧进行标记,并对所述目标音频的起始音频帧与结尾音频帧进行标记;将所述目标音频中任意两个连续的标记,将该两个标记所在的音频帧之间的音频内容确定为分段音频。
一般地,在发生事件时,目标音频的短时能量相比于未发生事件时会有所升高。可以认为,当目标音频的短时能量未达到指定阈值时,没有事件发生;而当目标音频的短时能量达到指定阈值时,则有事件发生。其中,指定阈值可根据具体需求进行设置。在上述理论下,可以设置出一个指定阈值ρ,并以ρ为基准对目标音频进行分割。在目标音频的频谱脉冲中,以音频帧为单位,每当频谱脉冲经过ρ,也就是每当一个音频帧的短时能量为ρ时,则对该音频帧进行标记,同时,对目标音频起始的音频帧与结束的音频帧进行标记,并最终将每两个连续的标记之间的音频内容确定为分段音频。
沿用上例进行说明,假设在一个30s的目标音频中,第6s、第17s、第22s对应的音频帧的短时能量为ρ,那么便可将目标音频分段为0s~6s、7s~17s、18s~22s、23s~30s的4个分段音频。
S104:将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对。
在经过步骤S102对目标音频与目标视频进行分段后,可在此步骤中,将各对应的分段视频与分段音频确定为音视频对。由于在对目标视频与目标音频进行分段时,是以将不同时间段内发生的不同时间区分开来的思想进行划分的,因此在本方法的后续步骤中,会以音视频对为单位进行事件检测,也就是根据一个时间段内的视觉信息与听觉信息检测该时间段内发生的事件。
沿用上例,假设经过分段后得到了0s~6s、7s~17s、18s~22s、23s~30s的4个分段视频与0s~6s、7s~17s、18s~22s、23s~30s的4个分段音频,那么将位于同一时间段的分段视频与分段音频确定为音视频对,也就是将0s~6s的分段音频与分段视频确定为音视频对、将7s~17s的分段音频与分段视频确定为音视频对、将18s~22s的分段音频与分段视频确定为音视频对、将23s~30s的分段音频与分段视频确定为音视频对,共确定出4个音视频对。
S106:针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征。
在检测一个音视频对中的事件时,可首先分别提取出音视频对中的分段视频的视频特征与分段音频的音频特征。具体的,可通过卷积神经网络提取每个音视频对中的视频特征与音频特征。对于视频流输入,将分段视频的每个视频帧的图像输入在ImageNet上预训练的卷积神经网络中,获得分段视频的视频特征。对于音频流输入,首先通过短时傅里叶变换将时频信号转换为频谱图,随后将频谱图输入在AudioSet上预训练的卷积神经网络,获得分段音频的音频特征/>
其中,T表示音视频对中的分段视频与分段音频的帧数,H、W分别表示预先设置的分段视频的高和宽,需要注意的是,H和W的单位同样可根据应用时的具体需求进行确定。在本方法中,进行视听事件检测时,最终需要确定出事件发生在目标视频中的哪一部分区域中,而区域的划分便是由H与W来确定的。也就是说,在本方法中可将目标视频划分为H×W个区域。和/>分别为根据提取特征所用的卷积神经网络得到的特征维度参数。
S108:对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义。
在此步骤中,可对步骤S106中提取出的视频特征与音频特征进行融合,得到音视频对的具有视听一致性的融合特征。为了保证融合后的融合特征能够较好地表示出音视频数据的语义,可更进一步地,根据所述视频特征,确定该音视频对中的分段视频的视频语义特征,并根据所述音频特征,确定该音视频对中的分段音频的音频语义特征;对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的融合特征。
首先,可分别对视频特征和音频特征进行进一步的语义提取。对于视频特征,可先经过全局均值池化层(Global Average Pooling,GAP)将其空间上的特征进行整合,然后利用线性层对其通道特征进行语义提取,得到最终的视频语义特征/>;对于音频特征/>,可直接利用线性层处理其通道特征进行语义提取,得到音频特征。通过分别对早期的视频特征与音频特征进行的进一步处理,将两模态的特征对齐嵌入到语义级别的隐藏空间,以便后续对二者进行进一步的融合。其中,/>为根据处理视频特征与音频特征的网络参数得到的特征维度参数。这一过程可形式化为:
随后,可通过联合学习,对视频语义特征与音频语义特征进行融合,得到高级的具有视听一致性的融合特征。具体的,可建立由玻尔兹曼机组成的深度置信网络(DeepBelief Network,DBN)进行视听一致性建模,深度玻尔兹曼机包括可见层、隐藏层和输出层,将高层次的视频语义特征和音频语义特征输入到深度玻尔兹曼机的可见层,输出层便可输出高阶的融合特征。使用方法检出限(Method Detection Limit,MDL)方法进行多模态玻尔兹曼机的深度学习,具体地,可针对每种模态在预训练层上贪婪地训练玻尔兹曼机,特别是,隐藏层变量的后验用作训练新图层的数据,通过学习的隐藏层表示,模型可以更容易地学习跨模态的高阶相关性;隐藏层用于表征分段视频和分段音频之间的高阶关系。
更进一步地,在融合的过程中,除了额外获取分段视频与分段音频的语义表示外,还可进一步将融合后的语义的表征与视频特征再次进行融合,建立起语义表征与视频的空间特征之间的联系。具体的,可对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的一致性语义特征;对所述一致性语义特征与该音视频对中的分段视频的视频特征进行融合,得到该音视频对的融合特征。
利用非局部时空注意力模块,可对一致性语义特征与视频特征进行融合,得到音视频对最终的融合特征。在将视频特征与音频特征融合到一起后,可得到音视频对的一致性语义特征,用于表征音视频对中的事件的语义;而将一致性语义特征进一步与用于表征视频空间特征的视频特征进行融合,得到的融合特征可表征出视频的空间与事件的语义之间的联系。具体地,可对一致性语义特征进行线性层处理与特征复制操作,得到维度对齐一致性语义特征/>,利用非局部时空注意力模块(Spacetime Non-local Block)融合视频特征/>与一致性语义特征/>,即以一致性语义特征/>作为引导,利用注意力机制增强视频特征/>上对于视听事件语义的区域响应,最终得到以一致性语义特征/>引导的融合特征/>
S110:根据该音视频对的融合特征确定该音视频对的视听事件检测结果。
最终,可根据步骤S108中得到的融合特征,确定出音视频对的视听事件检测结果。视听事件检测结果用于表示音视频对在目标音视频数据中所处的时间段内的事件发生情况。视听事件检测结果的表示方式可存在多种,本说明书在此给出一种具体实施例以供参考。
具体的,可基于融合特征对视听多事件做检测定位,将融合特征输入多实例卷积回归头以进行多事件热图回归。其中,卷积回归头由三层1*1卷积层与ReLu激活层组成,每层1*1卷积层后接一层ReLu激活层,卷积层的输出通道数随层数减少,直到最后一层输出通道数为C,C表示能够检测出的事件类别数。上述过程可形式化为:
视听事件检测最终输出的激活热图为,/>为时间帧/>上通道i的输出热图,代表视听事件/>的发生区域响应。可以理解为,一个音视频对的激活热图为数量T×C个大小为H×W的矩阵。其中,T表示音视频对的帧数,C表示能够检测出的事件总类别数,H×W表示视频图像的区域数量。当第t帧内发生事件i时,那么发生事件i的区域在H×W的矩阵中对应元素的值为1,未发生事件i的区域对应元素的值为0。
需要注意的是,本说明书上述步骤S106~S110所述的方法为对一个音视频对进行视听事件检测的过程,对步骤S104中得到的所有音视频对均执行上述过程,即可完成对整个目标音视频数据的视听事件检测。
在采用本说明书提供的视听事件检测方法对目标音视频数据进行视听事件检测时,可在提取出目标音视频数据的目标视频与目标音频后,对目标视频与目标音频进行分段,得到相同数量的分段视频与分段音频,并将对应的分段视频与分段音频确定为音视频对;通过提取音视频对的视频特征与音频特征,并对二者进行语义层面的融合,得到融合特征;最终根据融合特征确定出音视频对的视听事件检测结果。采用本方法可在检测出视听事件发生的位置的同时,判别出发生的视听事件的类别,得到更加全面可靠的视听事件检测结果。
额外的,本说明书上述步骤S106~S110所述的方法可整合到一个神经网络模型中完成,将该神经网络模型称为检测模型。具体的,如图2所示,检测模型可至少包括提取子网、融合子网、输出子网;针对每个音视频对,将该音视频对输入预先训练的检测模型,通过所述检测模型中的提取子网提取该音视频对中的分段视频的视频特征与分段音频的音频特征;通过所述检测模型中的融合子网,对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征;将该音视频对的融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该音视频对的视听事件检测结果。
其中,各子网内的网络层仍可采用如本说明书步骤S106~S110中所介绍的网络层,也可采用其它网络层,仅需保证能够实现对应功能即可,本说明书对此不做具体限制。
同时,在上述采用检测模型的方式下,需要对检测模型进行预先训练。具体的,可获取样本音视频数据,并从所述样本音视频数据中提取样本视频与样本音频;采用同一方式对所述样本视频与所述样本音频进行分段,得到相同数量的样本分段视频与样本分段音频;将在所述样本音视频数据中位于同一时间段的样本分段视频与样本分段音频确定为样本音视频对,并确定各样本音视频对的标注事件;针对每个样本音视频对,将该样本音视频对输入待训练的检测模型,通过所述检测模型中的提取子网提取该样本音视频对中的样本分段视频的待优化视频特征与样本分段音频的待优化音频特征;通过所述检测模型中的融合子网,对所述待优化视频特征与所述待优化音频特征进行融合,得到该样本音视频对的待优化融合特征;将该样本音视频对的待优化融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该样本音视频对的待优化视听事件检测结果;以所述待优化视听视频检测结果与所述标注事件之间的差异最小为优化目标,对所述检测模型进行训练。
其中,样本音视频对的标注事件可表示为,其中/>,即/>,/>。与视听事件检测结果的输出形式类似的,对于时间帧t发生的事件i,则标签/>对应的事件发生位置取值为1,其余位置为0。
在对检测模型进行训练时,可存在全监督与自监督两种不同的训练方式。对于全监督与自监督两种方式可分别制定不同损失函数。具体地,对于全监督设定,设置对比损失函数,即:
其中,分别表示正、负响应,/>为模型在时间帧/>上对于事件类别/>的回归激活热图输出,对于事件的位置需要做出正响应,/>为对应的标注事件,由真值事件确定;/>表示Frobenius内积,是对指定张量的逐元素乘积求和。
对于自监督设定,设置平滑损失函数,即:
其中,分别表示正、负响应,/>为模型在时间帧/>上对于事件类别/>的回归激活热图输出;/>分别为正、负响应平滑伪标签,即:
,/>
其中、/>分别为正、负响应阈值参数,且有/>;/>为控制平滑程度的温度参数。
以上是本说明书提供的视听事件检测方法,基于同样的思路,本说明书还提供了相应的视听事件检测装置,如图3所示。
图3为本说明书提供的一种视听事件检测装置示意图,具体包括:
获取模块200,用于获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;
分段模块202,用于采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频;
组合模块204,用于将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;
提取模块206,用于针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
融合模块208,用于对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;
检测模块210,用于根据该音视频对的融合特征确定该音视频对的视听事件检测结果。
可选地,所述分段模块202,具体用于根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频;根据各分段音频在所述目标音视频数据中的时间段分布,对所述目标视频进行分段,得到在所述目标音视频数据中时间段分布与所述各分段音频相同的各分段视频。
可选地,所述分段模块202,具体用于确定所述目标音频中各音频帧的短时能量;对所述目标音频中,短时能量为指定阈值的音频帧进行标记,并对所述目标音频的起始音频帧与结尾音频帧进行标记;将所述目标音频中任意两个连续的标记,将该两个标记所在的音频帧之间的音频内容确定为分段音频。
可选地,所述融合模块208,具体用于根据所述视频特征,确定该音视频对中的分段视频的视频语义特征,并根据所述音频特征,确定该音视频对中的分段音频的音频语义特征;对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的融合特征。
可选地,所述融合模块208,具体用于对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的一致性语义特征;对所述一致性语义特征与该音视频对中的分段视频的视频特征进行融合,得到该音视频对的融合特征。
可选地,所述提取模块206,具体用于针对每个音视频对,将该音视频对输入预先训练的检测模型,通过所述检测模型中的提取子网提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
所述融合模块208,具体用于通过所述检测模型中的融合子网,对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征;
所述检测模块210,具体用于将该音视频对的融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该音视频对的视听事件检测结果。
可选地,所述装置还包括训练模块212,具体用于获取样本音视频数据,并从所述样本音视频数据中提取样本视频与样本音频;采用同一方式对所述样本视频与所述样本音频进行分段,得到相同数量的样本分段视频与样本分段音频;将在所述样本音视频数据中位于同一时间段的样本分段视频与样本分段音频确定为样本音视频对,并确定各样本音视频对的标注事件;针对每个样本音视频对,将该样本音视频对输入待训练的检测模型,通过所述检测模型中的提取子网提取该样本音视频对中的样本分段视频的待优化视频特征与样本分段音频的待优化音频特征;通过所述检测模型中的融合子网,对所述待优化视频特征与所述待优化音频特征进行融合,得到该样本音视频对的待优化融合特征;将该样本音视频对的待优化融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该样本音视频对的待优化视听事件检测结果;以所述待优化视听视频检测结果与所述标注事件之间的差异最小为优化目标,对所述检测模型进行训练。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的视听事件检测方法。
本说明书还提供了图4所示的电子设备的示意结构图。如图4所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的视听事件检测方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (8)

1.一种视听事件检测方法,其特征在于,包括:
获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;
采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频,使得各分段音频与各分段视频在目标音视频数据中的时间段分布相同;
将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;
针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;
根据该音视频对的融合特征确定该音视频对的视听事件检测结果;
对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,具体包括:
对所述视频特征进行语义提取,确定该音视频对中的分段视频的视频语义特征,对所述音频特征进行语义提取,确定该音视频对中的分段音频的音频语义特征;
对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的一致性语义特征;
对所述一致性语义特征与该音视频对中的分段视频的视频特征进行融合,得到该音视频对的融合特征。
2.如权利要求1所述的方法,其特征在于,采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频,具体包括:
根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频;
根据各分段音频在所述目标音视频数据中的时间段分布,对所述目标视频进行分段,得到在所述目标音视频数据中时间段分布与所述各分段音频相同的各分段视频。
3.如权利要求2所述的方法,其特征在于,根据所述目标音频的频谱脉冲对所述目标音频进行分段,得到所述目标音频的分段音频,具体包括:
确定所述目标音频中各音频帧的短时能量;
对所述目标音频中,短时能量为指定阈值的音频帧进行标记,并对所述目标音频的起始音频帧与结尾音频帧进行标记;
将所述目标音频中任意两个连续的标记,将该两个标记所在的音频帧之间的音频内容确定为分段音频。
4.如权利要求1所述的方法,其特征在于,针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征,具体包括:
针对每个音视频对,将该音视频对输入预先训练的检测模型,通过所述检测模型中的提取子网提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,具体包括:
通过所述检测模型中的融合子网,对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征;
根据该音视频对的融合特征确定该音视频对的视听事件检测结果,具体包括:
将该音视频对的融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该音视频对的视听事件检测结果。
5.如权利要求4所述的方法,其特征在于,预先训练检测模型,具体包括:
获取样本音视频数据,并从所述样本音视频数据中提取样本视频与样本音频;
采用同一方式对所述样本视频与所述样本音频进行分段,得到相同数量的样本分段视频与样本分段音频;
将在所述样本音视频数据中位于同一时间段的样本分段视频与样本分段音频确定为样本音视频对,并确定各样本音视频对的标注事件;
针对每个样本音视频对,将该样本音视频对输入待训练的检测模型,通过所述检测模型中的提取子网提取该样本音视频对中的样本分段视频的待优化视频特征与样本分段音频的待优化音频特征;
通过所述检测模型中的融合子网,对所述待优化视频特征与所述待优化音频特征进行融合,得到该样本音视频对的待优化融合特征;
将该样本音视频对的待优化融合特征输入所述检测模型的输出子网,得到所述输出子网输出的该样本音视频对的待优化视听事件检测结果;
以所述待优化视听事件检测结果与所述标注事件之间的差异最小为优化目标,对所述检测模型进行训练。
6.一种视听事件检测装置,其特征在于,包括:
获取模块,用于获取目标音视频数据,并从所述目标音视频数据中提取目标视频与目标音频;
分段模块,用于采用同一方式对所述目标视频与所述目标音频进行分段,得到相同数量的分段视频与分段音频,使得各分段音频与各分段视频在目标音视频数据中的时间段分布相同;
组合模块,用于将在所述目标音视频数据中位于同一时间段的分段视频与分段音频确定为音视频对;
提取模块,用于针对每个音视频对,提取该音视频对中的分段视频的视频特征与分段音频的音频特征;
融合模块,用于对所述视频特征与所述音频特征进行融合,得到该音视频对的融合特征,所述融合特征用于表征该音视频对的视听事件语义;
检测模块,用于根据该音视频对的融合特征确定该音视频对的视听事件检测结果;
所述融合模块,具体用于:
对所述视频特征进行语义提取,确定该音视频对中的分段视频的视频语义特征,对所述音频特征进行语义提取,确定该音视频对中的分段音频的音频语义特征;
对所述视频语义特征与所述音频语义特征进行融合,得到该音视频对的一致性语义特征;
对所述一致性语义特征与该音视频对中的分段视频的视频特征进行融合,得到该音视频对的融合特征。
7.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~5任一项所述的方法。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~5任一项所述的方法。
CN202311293169.6A 2023-10-08 2023-10-08 一种视听事件检测方法、装置、存储介质及电子设备 Active CN117037046B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311293169.6A CN117037046B (zh) 2023-10-08 2023-10-08 一种视听事件检测方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311293169.6A CN117037046B (zh) 2023-10-08 2023-10-08 一种视听事件检测方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN117037046A CN117037046A (zh) 2023-11-10
CN117037046B true CN117037046B (zh) 2024-01-09

Family

ID=88632251

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311293169.6A Active CN117037046B (zh) 2023-10-08 2023-10-08 一种视听事件检测方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117037046B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650722A (zh) * 2009-06-01 2010-02-17 南京理工大学 基于音视频融合的足球视频精彩事件检测方法
CN114140708A (zh) * 2021-08-16 2022-03-04 阿里巴巴达摩院(杭州)科技有限公司 视频处理方法、装置及计算机可读存储介质
CN114519809A (zh) * 2022-02-14 2022-05-20 复旦大学 一种基于多尺度语义网络的视听视频解析装置及方法
CN114694076A (zh) * 2022-04-08 2022-07-01 浙江理工大学 基于多任务学习与层叠跨模态融合的多模态情感分析方法
CN114998800A (zh) * 2022-06-06 2022-09-02 中移(杭州)信息技术有限公司 视频检测方法、装置、设备及计算机可读存储介质
CN115393968A (zh) * 2022-08-26 2022-11-25 中国科学院上海微系统与信息技术研究所 一种融合自监督多模态特征的视听事件定位方法
CN115861879A (zh) * 2022-11-25 2023-03-28 北京邮电大学 基于事件一致性的视听事件检测方法及装置
WO2023050295A1 (zh) * 2021-09-30 2023-04-06 中远海运科技股份有限公司 一种基于多模态异质特征融合的视频密集事件描述方法
CN116246214A (zh) * 2023-05-08 2023-06-09 浪潮电子信息产业股份有限公司 视听事件定位方法、模型训练方法、装置及设备和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102444712B1 (ko) * 2016-01-12 2022-09-20 한국전자통신연구원 다중-모달리티 특징 융합을 통한 퍼스널 미디어 자동 재창작 시스템 및 그 동작 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650722A (zh) * 2009-06-01 2010-02-17 南京理工大学 基于音视频融合的足球视频精彩事件检测方法
CN114140708A (zh) * 2021-08-16 2022-03-04 阿里巴巴达摩院(杭州)科技有限公司 视频处理方法、装置及计算机可读存储介质
WO2023050295A1 (zh) * 2021-09-30 2023-04-06 中远海运科技股份有限公司 一种基于多模态异质特征融合的视频密集事件描述方法
CN114519809A (zh) * 2022-02-14 2022-05-20 复旦大学 一种基于多尺度语义网络的视听视频解析装置及方法
CN114694076A (zh) * 2022-04-08 2022-07-01 浙江理工大学 基于多任务学习与层叠跨模态融合的多模态情感分析方法
CN114998800A (zh) * 2022-06-06 2022-09-02 中移(杭州)信息技术有限公司 视频检测方法、装置、设备及计算机可读存储介质
CN115393968A (zh) * 2022-08-26 2022-11-25 中国科学院上海微系统与信息技术研究所 一种融合自监督多模态特征的视听事件定位方法
CN115861879A (zh) * 2022-11-25 2023-03-28 北京邮电大学 基于事件一致性的视听事件检测方法及装置
CN116246214A (zh) * 2023-05-08 2023-06-09 浪潮电子信息产业股份有限公司 视听事件定位方法、模型训练方法、装置及设备和介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"A Review on Methods and Applications in Multimodal Deep Learning";Summaira Jabeen等;《ACM Transactions on Multimedia Computing, Communications, and Applications》;第19卷(第2s期);全文 *
基于本体的多模式融合语义提取模型;李敏;高珏;吴佳家;许华虎;;计算机技术与发展(第09期);全文 *
多模态特征融合的新闻视频故事分割方法;文军;曾璞;徐建军;栾悉道;吴玲达;;小型微型计算机系统(第01期);全文 *

Also Published As

Publication number Publication date
CN117037046A (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
CN113095124B (zh) 一种人脸活体检测方法、装置以及电子设备
CN109034183B (zh) 一种目标检测方法、装置及设备
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
CN116402062B (zh) 一种基于多模态感知数据的文本生成方法及装置
CN115828162B (zh) 一种分类模型训练的方法、装置、存储介质及电子设备
CN115600157B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN116343314A (zh) 一种表情识别方法、装置、存储介质及电子设备
CN117197781B (zh) 一种交通标志识别的方法、装置、存储介质及电子设备
CN116186330B (zh) 一种基于多模态学习的视频去重方法及装置
CN116630480B (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
CN117037046B (zh) 一种视听事件检测方法、装置、存储介质及电子设备
CN116824331A (zh) 一种模型训练、图像识别方法、装置、设备及存储介质
CN116152933A (zh) 一种异常检测模型的训练方法、装置、设备及存储介质
CN114998962A (zh) 一种活体检测以及模型训练方法及装置
CN112397073A (zh) 一种音频数据处理方法及装置
CN111598092A (zh) 图像中目标区域的确定方法、目标识别方法及装置
CN113642603B (zh) 一种数据匹配方法、装置、存储介质及电子设备
CN117237744B (zh) 一种图像分类模型的训练方法、装置、介质及电子设备
CN112950732B (zh) 一种图像生成方法、装置、存储介质及电子设备
CN116188919B (zh) 一种测试方法、装置、可读存储介质及电子设备
CN116563387A (zh) 一种标定模型的训练方法、装置、存储介质以及电子设备
CN116245773A (zh) 一种人脸合成模型训练方法、装置、存储介质及电子设备
CN116704178A (zh) 一种图像的实例分割方法、装置、存储介质及电子设备
CN117392688A (zh) 一种图像分类的方法、装置、存储介质以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant