CN111681680A - 视频识别物体获取音频方法、系统、装置及可读存储介质 - Google Patents

视频识别物体获取音频方法、系统、装置及可读存储介质 Download PDF

Info

Publication number
CN111681680A
CN111681680A CN202010518577.7A CN202010518577A CN111681680A CN 111681680 A CN111681680 A CN 111681680A CN 202010518577 A CN202010518577 A CN 202010518577A CN 111681680 A CN111681680 A CN 111681680A
Authority
CN
China
Prior art keywords
audio
matching score
video
specific sound
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010518577.7A
Other languages
English (en)
Other versions
CN111681680B (zh
Inventor
薛媛
金若熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Xinghe Shangshi Film Media Co ltd
Original Assignee
Hangzhou Xinghe Shangshi Film Media Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Xinghe Shangshi Film Media Co ltd filed Critical Hangzhou Xinghe Shangshi Film Media Co ltd
Priority to CN202010518577.7A priority Critical patent/CN111681680B/zh
Publication of CN111681680A publication Critical patent/CN111681680A/zh
Application granted granted Critical
Publication of CN111681680B publication Critical patent/CN111681680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开视频识别物体获取音频方法,基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;对模块化的特定发声物体通过深度残差网络模型进行识别分析处理,得到特定发声物体的种类;基于特定发声物体的种类提取其发声特征并构建特定发声物体的物体类别和特定发声物体音频;分别得到第一匹配分数和神经网络匹配分数,进而得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。先对待处理视频进行处理得到特定发声物体,再给特定发声物体选择合适音频,后续可以给视频进行配音或者将这个音频做其他用途使用。

Description

视频识别物体获取音频方法、系统、装置及可读存储介质
技术领域
本发明涉及视频处理技术领域,尤其涉及一种视频识别物体获取音频方法、系统、装置及可读存储介质。
背景技术
目前,随着科技的发展,多媒体音视频技术被广发的应用在各个领域中,给视频中特定发声物体配好音效会给观众代来更好的感受,有助于观众对各个领域的理解与认知,如何制作出好看的视频显得更加重要。
在现有视频处理的技术中,包括对视频的剪辑、特效、字幕或者添加音频素材等,都是独立进行的,比如给视频的特定发声物体进行拟音,一般都是通过拟音师进行拟音,要么是和视频同步拟音,要么是先录制好视频,再对特定发声物体进行拟音然后进行添加,或者是现场可以让人进行拟音直接录制在视频中,但是而视频中除了人物之外的声音就很难去匹配,现在都是通过拟音师把拍摄现场没有完成的声音部分,通过后期再进行制作,比如脚步声、开关门声、倒水声等拟好匹配到视频中。
传统的给给视频中的特定发生物体去匹配特效的方式比较慢并且准确率不高,比如单个的特定发声物体的音效和实际的声音是差距很大的,比如,鞋子踩在地面的声音,如果通过拟音师去拟音,由于鞋子不同,地面不同,需要拟很多特效音,万一不够准确会使得观众的感受不好,而现有技术中又不存在直接构建出特效音频,大部分都是事先录制好再去匹配给视频中的特定发声物体,导致工作人员的工作量很大,需要花费大量的时间,而且操作方式极不灵活。
发明内容
本发明针对现有技术中的缺点,提供了一种视频识别物体获取音频方法、系统、装置及可读存储介质。
为了解决上述技术问题,本发明通过下述技术方案得以解决:
一种视频识别物体获取音频方法,包括以下步骤:
基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
作为一种可实施方式,所述深度残差网络模型获得过程如下:
获取若干包含特定发声物体的图像,剔除不合格的特定发声物体的图像,得到合格特定发声物体的图像;
将合格特定发声物体的图像进行预处理,得到合格特定发声物体的图像数据集,并划分为训练集和验证集;
将训练集输入至初始深度残差网络模型中进行训练,再通过验证集对训练结果进行进行验证,得到能够获取到特定发声物体的种类的深度残差网络模型。
作为一种可实施方式,音频介绍为音频的介绍内容文本,音频关键词包括至少三个描述音频的词语,所述描述音频的词语包括特定发声物体的类别名称和发声声音的类别名称。
作为一种可实施方式,所述基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数,具体为:
对特定发声物体的物体类别和音频介绍进行分词处理得到单词;
分别获取特定发声物体的物体类别与音频介绍、音频关键词重合的单词比例,得到第一比例和第二比例,将第一比例和第二比例进行加权平均处理,得到单词匹配分数,所述单词匹配分数=物体类别和音频介绍的单词重合比例*音频介绍权重+物体类别和音频关键词单词重合比例*音频关键词权重,其中,音频介绍权重+音频关键词权重=1;
基于音频介绍的统计数据,得到物体类别TF-IDF向量,通过物体类别TF-IDF向量与音频介绍TF-IDF向量的第一余弦相似度,将第一余弦相似度作为TF-IDF匹配分数,所述TF-IDF匹配分数=cosine_similarity(物体类别TF-IDF向量,音频介绍TF-IDF向量);
将单词匹配分数和TF-IDF匹配分数进行加权平均处理,得到第一匹配分数,所述第一匹配分数=单词匹配分数*单词权重+TF-IDF匹配分数*TF-IDF权重,其中,单词权重+TF-IDF权重=1;
获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,经过计算得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数。
作为一种可实施方式,所述基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,具体为:
将第一匹配分数和神经网络匹配分数进行加权平均处理,得到视频音频匹配分数,所述视频音频匹配分数=第一匹配分数*第一权重+神经网络匹配分数*神经网络权重,其中,第一权重+神经网络权重=1。
作为一种可实施方式,所述根据视频音频匹配分数得到特定发声物体的一种或者几种合适音频步骤之后还包括:
根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
一种视频识别物体获取音频系统,包括帧图流生成模块、第一处理模块、第二处理模块、特征构建模块、分数获取模块以及音频选择模块;
所述帧图流生成模块被设置为:基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
所述第一处理模块,用于采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
所述第二处理模块,用于对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
所述特征构建模块被设置为:基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
所述分数获取模块被设置为:基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
所述音频选择模块被设置为:基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
作为一种可实施方式,还包括搜索匹配模块和混音处理模块;
所述搜索匹配模块,用于根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
所述混音处理模块,用于将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如下的方法步骤:
基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
一种视频识别物体获取音频装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如下的方法步骤:
基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
本发明由于采用了以上技术方案,具有显著的技术效果:
本发明的视频识别物体获取音频方法、系统、装置及可读存储介质,包含以下步骤:基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。先对待处理视频进行处理得到特定发声物体,再给特定发声物体选择合适音频,后续可以给视频进行配音或者将这个音频做其他用途使用。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明方法的流程示意图;
图2是本发明系统的整体结构示意图。
具体实施方式
下面结合实施例对本发明做进一步的详细说明,以下实施例是对本发明的解释而本发明并不局限于以下实施例。
实施例1:
一种视频识别物体获取音频方法,如附图1所示,包括以下步骤:
S100、基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
S200、采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
S300、对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
S400、基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
S500、基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
S600、基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
在一个实施例中,首先需要对待处理视频进行特定发声物体识别,得到特定发声物体的类别,再去对这些特定发声物体构建音频,进而选择合适的音频进行匹配。具体地,待处理的视频是指用户提供的需要添加音效的视频片段,采取降频抽帧方式对待处理的视频提取视频关键帧,并且将抽帧频率设置为可调参数,抽帧频率的不设置下限,由视频本身的采码率(通常视频为25帧每秒)来决定抽帧频率的上限,对待处理的视频抽帧后可生成有时序的静态帧图即帧图流,Frame Image Stream,此帧图流用于下一步的特定发声物体识别。
在实现的过程中,首先需要降频抽取视频关键帧:基于待处理的视频中出现的有配音价值的物体/人物需有一定的连续存在时长,一般不考虑在待处理的视频的一两帧之内出现消失的物体配音,因为这种从配音技术上来说,意义不大。在具体操作中,如果帧图流中的视频关键帧是这样的:识别的物体类别若2秒之前的帧种不含有该类别,则视为该物体从这一秒开始发声;若前2秒到该帧种已经存在次物体,则视为物体在继续发声,发声时间最小值设为5秒。实际操作中,还可以根据物体的发声规律,为不同物体设定不同的继续发声时间以及最小发声时间。通过降低视频关键帧的频率的方式抽取视频关键帧用以物体识别:比如采码率为25帧/秒的视频,通过降频后将采样关键帧的频率设置为1张/秒,也就是说从每25张关键帧图片中抽取一帧作为未来一秒视频内出现物体的识别输入样本,这样的话就能有效简单的降低读取次数,从而提升处理速度。同时,将抽帧频率设置为可调参数,抽帧频率的不设置下限,由视频本身的采码率(通常视频为25帧每秒)来决定抽帧频率的上限,这样使用者根据自己的视频样本特点决定合适的抽帧频率。
再次,通过抽取视频关键帧生成的帧图流,并基于内嵌的深度卷积神经网络(DeepCNN)进行模块化的多物体识别。对于帧图流中的每张静态帧图,通过网络对图像个像素点RGB三色通道的像素值进行高度非线性运算,生成以各个可识别特定发声物体为中心的概率向量,深度卷积神经网络经由各概率向量中的最大值判断特定发声物体的类别,并根据在特定发声物体中心周围矩形区域内概率向量的数值分布特点裁定当前物体选择框的大小。所生成的选择框将用于截取每帧图像中某个具体特定发声物体的截图,以进行第二阶段更详细的特定发声物体识别。需要解释的是:在这个步骤中所有涉及到的神经网络均来自于python语言、TensorFlow深度学习框架里物体识别程序库里的预训练Fast-RCNN网络。
本实施例得到模块化的特定发声物体,相应的是采用了模块化设计嵌入物体识别的各层深度卷积神经网络。使用的深度卷积神经网络可以任意切换各级物体识别中所需的一级深度神经网络以适应特殊的使用场景或特别的物体类别,例如对鞋与地面进行细化分类的识别网络便不基于任何预训练过的CNN模型。模块化设计可扩展为在各级识别中嵌入多个深度卷积神经网络,并利用集成学习(Ensemble Learning)的算法,提升总体物体识别的正确率、定位精度以及细化分类的识别准确度。
例如:利用多个深度神经网络对同一张视频关键帧进行多物体识别,每个深度神经网络对于每个识别出的特定发声物体的选择框可能在大小位置上稍有不同,集成学习算法可以利用每个深度神经网络对所识别的选择框的确信值(0到1之间,越接近1说明网络越确定选择框的正确性,确信值是模型对于物体识别是否正确的概率判断,可以理解为模型对于一次物体识别的信心,信心越高则这次物体识别的正确率越高。)将多个选择框进行加权平均,从而微调出一个更可靠的物体定位的选择框,以便产生更高质量的截图进行后续步骤的识别。
得到模块化的特定发声物体还需要通过深度残差网络模型进行多级识别分析处理,得到特定发声物体的种类并提取其发声特征。具体可以参见以下方式:
现有的深度神经网络还不能从一副自然图像中识别所有物体的细节,因此可以提出了多级物体识别网络的技术解决构架。在此实施例中,多级识别分析处理遵循的是“由粗到细”的设计理念:针对一副帧图流中的每张静态帧图,先利用一级的深度神经网络进行初步分析识别处理,得到大概的特定发声物体的种类(例如人物,鞋类,门窗),再针对每个物体所在位置的细部截图、利用新的神经网络进行物体细分种类的多级识别分析处理,得到特定发声物体的种类(例如鞋类是否是运动鞋、板鞋或皮鞋)。本实施例的多级识别分析处理能扩展为更多级(比如三级或者三级以上)的图像识别构架,一般情况下,由于实验中用到的抽帧图象清晰度受到限制,采用二级深度神经网络进行二级识别分析处理就可以实现目前所需的功能。
在此,重点讲述通过二级深度神经网络进行二级识别分析处理的过程:初步识别分析处理是采用第一级深度识别网络,其来源于预训练Fast-RCNN网络;多级识别分析处理采用的是多级深度识别网络,在此,采用的是二级识别分析处理的二级深度识别网络,其针对第一级深度识别网络识别出的个别关键物件进行进一步细化识别,例如针对第一级深度识别网络在静态帧图中识别出的“鞋类”,二级深度识别网络会针对“鞋类”部分的截图再进行二次识别分析处理,以判断“鞋的种类”以及“地面种类”。更加具体地,本实施例可识别四种不同的细化鞋类(运动鞋,皮鞋,高跟鞋,其他),以及五种不同的细化地面(瓷砖地,木板地,水泥地,沙地,其他)。二级深度识别网络的具体网络架构是基于50层的深度残差网络(Resnet50)设计而成。参见以下深度残差网络模型获得过程如下:
S310、获取若干包含特定发声物体的图像,剔除不合格的特定发声物体的图像,得到合格特定发声物体的图像;
S320、将合格特定发声物体的图像进行预处理,得到合格特定发声物体的图像数据集,并划分为训练集和验证集;
S330、将训练集输入至初始深度残差网络模型中进行训练,再通过验证集对训练结果进行进行验证,得到能够获取到特定发声物体的种类的深度残差网络模型。
在现有技术中是不存在针对鞋类或地面或者其他特定发声物体识别进行过预训练的深度残差网络,本实施例中使用的深度残差网络不基于任何预训练参数,其网络参数完全从随机数进行原始训练,训练所需的图像集均来自实际视频的截图,并针对出现的鞋子和地面种类进行人工标定。此图像训练集至少包含17000+张大小不一,宽高比不定,最高分辨率不超过480p的,并且主体为鞋和地面胡总恶化是其他特定发声物体的图片,在训练深度残差网络模型,需要剔除那些不合格的图像,比如很模糊的、图片中物体是残缺的这种图片,将剩余的合格的图像分为训练集和验证集。这些图片不同于公开的图像识别数据集,它们大多为形状非正方形的低分辨率图片,这是考虑到了实际使用场景中视频抽帧的图片的截图形状并不规则、分辨率也可能由于视频压缩算法而降低,不规则与低分辨率可理解为图像集里内含的噪音,从而使在此数据集上训练出的网络拥有更强的抗噪能力,并且对于鞋类和地面有优化过的针对性。通过本实施例的深度残差网络得到对于地面的五种细化种类的识别正确率(计算于测试集上)达到73.4%,远高于随机选择(20%)和从众选择(35.2%);对四种鞋类的识别精度也在同一量级;实际识别速度利用单一英伟达P100显卡可达100张图每秒。
并额外将Resnet50固有的、网络末端的单层感知机(Multi-layer perceptron)加深为两层,配以随机失活设计(Dropout=0.5),以适应各种具体物件所需的识别类别的种类要求,这样就能在一定程度上避免因网络参数过多而造成的过拟合现象(对训练集的识别效果远优于测试集的情况)。
本实施例中采用的深度残差网络(Resnet50),本实施例是基于现有深度残差网络做了相应的训练,使得能够识别本实施例所需要的特定发声物体的种类,也就是说对单张图片的计算识别流程以及针对具体使用场景进行了相应的改动,深度残差网络(Resnet50)可读取像素值不低于224×224的方形RGB图像,对于形状为矩形以及长宽不为224像素的输入图像,本实施例采用常规的线性插值法将输入图像首先变形为规则的224×224×3(RGB三个颜色通道)的浮点数矩阵;矩阵输入网络后会经过一系列卷积区块进行卷积运算变形为抽象度越来越高,尺寸越来越小的特征图(feature maps);卷积区块是卷积神经网络(CNN)常规设计的基础单元,Resnet50中使用的卷积区块由三个到四个二维卷积层(2Dconvolution)配合随机失活设计(dropout)、批量归一化层(batch normalization)以及线性整流层(rectified linear unit,ReLU)构成,同时与每个区块并行的还有一个残差通路(residual layer,只包含简单的一层二维卷积层或是对输入矩阵的简单复制)。前一区块输出的特征图通过残差通路和卷积区块通路分别计算后输出为两个新的,维度一致的矩阵,简单相加后构成下一区块的输入矩阵。深度残差网络(Resnet50)名称中的数字指代所有的卷积区块中一共包含50层二维卷积层。通过所有卷积区块后的深度残差网络输出为2048维的一阶向量,然后通过一层的感知机(Perceptron)输出为维度1000的向量,本实施例在此基础上增加了一层输出维度可调的感知机,用以符合实际物体细类识别的种类数量,也即用于鞋类识别的输出维度即为4,地面识别的输出维度即为5。深度残差网络最后的输出向量的各元素值代表了图像属于某一种类的概率值,最终的种类标定由最大的概率值决定。与Resnet50类似的常用深度残差网络还有Resnet34,Resnet101等;其他的常用图像识别网络还有Alexnet、VGGnet、InceptionNet等,在此,其实这些也可以应用在本实施例中,但是效果不佳,因此选取了深度残差网络(Resnet50)。
另外,本实施例中二级识别网络构架即深度残差网络(Resnet50)同时支持反馈学习模式:在二级深度识别网络的识别准确率达不到场景需求的时候,可以通过第一级深度识别网络识别的物体选定框对帧图流进行截图,以截图作为新的数据集进行人工标定并微调二级深度识别网络即深度残差网络(Resnet50)。这样的话就可以在待处理的视频内容发生重大改变的时候利用已训练的模型和少量新数据迅速获得较高的识别准确率,并由此缩短适应新的应用场景的准备周期。第一级深度识别网络也可根据视频类型的变化或应用场景的变化进行阶段性的重新训练,以适应新的视频数据特点。
进一步,二级深度识别网络中各级识别出的特定发声物体信息采用同样的格式合并储存。针对每个物体储存信息有:物体大类(上级网络识别)、物体大类确信值、物体细类(二级深度识别网络识别)、物体细类确信值、物体定位选择框宽高以及中心(以帧图像素为测量单位),所有信息以json文件格式进行下一步处理。
在一个实施例中,为了使得特定发声物体的物体类别和特定发声物体音频产生关联,本实施例采用自然语言作为待处理的视频特定发声物体的物体类别与音频匹配的中间表达,自然语言作为匹配表达的方法使得表达利于人们理解和标注,以及音频库整理和维护。
对于待处理的视频,从视频中识别出的物体类别作为自然语言表示(例如“猫”);对于音频,可以使用两类自然语言标注:音频介绍和音频关键词,即音频包括音频介绍和音频关键词,在此,音频介绍可以理解为:用一句话或短语来介绍音频的内容(例如“一个人在雪地里走路的声音”),音频关键词用三个关键单词来音频的内容(例如“鞋/雪地/脚步声”)。不同于音频介绍,音频关键词一定要包含了发声物体和发声声音类别,综上,音频关键词的引入连接了物体识别类别和声音介绍之间的不匹配。可以参见步骤S400将音频解析为音频介绍和音频关键词,其中,音频介绍为音频的介绍内容文本,音频关键词包括至少三个描述音频的词语,所述描述音频的词语包括特定发声物体的类别名称和发声声音的类别名称。
对于特定发声物体,直接使用物体识别的类别名作为其自然语言表示,因为计算机不能理解理解自然语言,因此进一步将自然语言表达映射为向量表达。具体来讲,本实施例引入两种自然语言的向量表达:TF-IDF(term frequency-inverse documentfrequency)与BERT(Bidirectional Encoder Representations from Transformers)。
在具体的实施例中,通过音频介绍文本来计算TF-IDF向量,TF-IDF向量表示的是每个单词在一段文字中对一段文字整体的语义有多大的影响。具体为:先通过分词器“结巴分词”,对所有的音频的音频介绍进行中文分词:再计算每个单词在每个音频介绍中的词频TF,以及每个单词在所有音频介绍的集合中的词频DF;对于一个音频介绍,可以计算其中任何一个单词的TF-IDF:TF-IDF=TF*log(1/DF+1);在此一定要注意,此TF-IDF计算公式为一种归一化后的TF-IDF,目的是为了确保数值稳定性;最后,对于任意一段文字,都计算出这段文字的TF-IDF向量。先将所有文本库单词排序,按照该顺序,计算每个单词在该段文字的TF-IDF值,若该段文字不包含此单词,则视其TF-IDF值为0。最后,得到长度与文本库词汇量相同的向量,即为该段文字的TF-IDF向量表达。
进一步地:计算BERT向量,在实施例中的BERT是一种Transformer神经网络结构,用大规模的无监督学习训练网络参数,所得的模型可以直接运用到下游自然语言理解问题中,直接对自然语言中的句子和短语进行向量映射。本实施例将两者(以及简单的单词匹配)结合的方法,这样结果更加精准。
在一个实施例中,使用Pytorch库中的pytorch_pretrained_bert中的预训练的中文BERT模型计算句子的BERT向量表达。为了满足匹配的效率,采用最小的BERT模型“bert_base_chinese”。具体来讲,先将句子拆分陈逐个字符,在句子的最前和最后分别加入“[CLS]”和“[SEP]”字符,作为输入index_tokens,将和入index_tokens同长的全0列表作为输入segment_ids,将两个输入同时输入到预训练BERT模型中,取出最后一层神经网络对应第一个字符(“[CLS]”)的输出向量,作为该句的BERT向量。
音频和视频构建的过程即是视频中识别出的物体类别和音频介绍,音频关键词的匹配,通过计算出的匹配分数来选择合适的音频,匹配分数的计算是通过两种方式进行的,一种是传统方法,一种是神经网络方式,传统方法的优势在于当音频与视频的自然语言表达有相同单词时,能准确计算出分数;神经网络计算匹配分数的的优势在于当两者自然语言表达没有单词重叠时,可以做到对语言表达大意的匹配,本实施例同时使用两种方法的分数并将其合并,有助于做到两种方法的互补。
在一个实施例中,步骤S500所述基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数,具体为:
S510、对特定发声物体的物体类别和音频介绍进行分词处理得到单词;
S520、分别获取特定发声物体的物体类别与音频介绍、音频关键词重合的单词比例,得到第一比例和第二比例,将第一比例和第二比例进行加权平均处理,得到单词匹配分数,所述单词匹配分数=物体类别和音频介绍的单词重合比例*音频介绍权重+物体类别和音频关键词单词重合比例*音频关键词权重,其中,音频介绍权重+音频关键词权重=1;
S530、基于音频介绍的统计数据,得到物体类别TF-IDF向量,通过物体类别TF-IDF向量与音频介绍TF-IDF向量的第一余弦相似度,将第一余弦相似度作为TF-IDF匹配分数,所述TF-IDF匹配分数=cosine_similarity(物体类别TF-IDF向量,音频介绍TF-IDF向量);
S540、将单词匹配分数和TF-IDF匹配分数进行加权平均处理,得到第一匹配分数,所述第一匹配分数=单词匹配分数*单词权重+TF-IDF匹配分数*TF-IDF权重,其中,单词权重+TF-IDF权重=1;
S550、获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,经过计算得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数。
步骤S510-步骤S540是采用传统方法进行匹配的,首先用结巴分词器对特定发声物体的物体类别,声音介绍进行分词。然后计算特定发声物体的物体类别分别和声音介绍,声音关键词重合的单词比例,并将两个比例加权平均,作为单词匹配分数;根据声音介绍文本中的统计数据,得到特定发声物体的物体类别的TF-IDF向量表达。之后,计算物体TF-IDF向量与声音介绍TF-IDF向量的余弦相似度,作为TF-IDF匹配分数,将单词匹配分数和TF-IDF匹配分数加权平均,得到传统方法匹配分数也就是步骤中所说的第一匹配分数。当然,于其他实施例中,得到第一匹配分数的技术也可能是其他技术手段,在此不再赘述。
而步骤S550中获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,进而得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数是通过神经网络匹配的方法实现的。
在一个实施例中,步骤S600中所述基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,具体为:将第一匹配分数和神经网络匹配分数进行加权平均处理,得到视频音频匹配分数,所述视频音频匹配分数=第一匹配分数*第一权重+神经网络匹配分数*神经网络权重,其中,第一权重+神经网络权重=1。
实际操作中,可以根据需要调节加权平均的权重,如果希望特定发声物体的物体类别的名称准确出现在音频介绍或关键词中,可以增加传统匹配分数的权重来增加准确性;如果希望特定发声物体的物体类别的名称虽不在音频介绍或关键词中,但语义相同,可以增加神经网络匹配分数的权重来增加泛化性。
具体地,可以根据最终匹配分数,对于每个识别出的物体,选择出10个最匹配的音频作为配音推荐,当然其他个数也是可以的。
作为一种可实施方式,所述根据视频音频匹配分数得到特定发声物体的一种或者几种合适音频步骤之后还包括:
根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
在一个实施例中,在步骤S600所述根据视频音频匹配分数得到特定发声物体的一种或者几种合适音频步骤之后还包括以下步骤:
S700、根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
S800、将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
在一个实施例中,根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配,也就是现有技术中的给视频中的特定发声物体进行拟音,在此是通过视频音频匹配分数使得特定发声物体和音频进行匹配,这是单独的配音。后面还可以进行整体配音,就是将产生的音频进行混音,当找到配音所需的音频文件以及各个音频文件播放的起止时间后,就能读取所需的所有音频文件,并将每一个音频文件转化为统一的频域信号格式,以方便后续的剪辑。
在本实施例中,可以读取任意常用格式的音频文件,包括wav和mp3等,提高了使用场景以及泛化至其它特定音频库的能力。
将所有音频进行混音处理的具体过程为:每一段音频将被智能拉伸或压缩至配音所需要的时长,首先把音频开始和结束阶段的静音部分切除,这样可以使得配音与视频中触发配音的画面同时发生,使得配音效果最佳。再查看消除首尾静音后的音频时长是否比需要播放的时间更长,若是,则剪切音频至配音所需播放时长,并在末尾使用渐出效果,以消除音频突然暂停的突兀感。若不是,则循环播放该音频直至配音所需播放时长,在循环播放时,前后两段音频的首尾相连处将采用一定时长的重叠以及渐入渐出效果,以使循环播放处无缝衔接,让这段长音频听起来自然完整,使用户拥有最佳的听觉体验。渐入渐出的时长将与重叠的时长相等,时长将通过一个分段函数依据音频时长确定,若原音频时长小于20秒,则将重叠与渐入渐出时间设为音频时长的10%,这样能使得重叠部分时长适中,有利于平缓地过渡前后段音频,这样也有利于短视频更多的保留非重叠部分以播放给用户。若原音频时长大于20秒,则将重叠与渐入渐出时间设为2秒,这样可以避免长音频出现不必要的长过渡期,以尽可能地播放非重叠的音频。
最后,按上述步骤处理过的各个音频合并到一起,并添加进视频的音轨,输出新的带有配音的视频文件,完成整个配音过程。
实施例2:
一种视频识别物体获取音频系统,如图2所示,包括帧图流生成模块100、第一处理模块200、第二处理模块300、特征构建模块400、分数获取模块500以及音频选择模块600;
所述帧图流生成模块100被设置为:基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
所述第一处理模块200,用于采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
所述第二处理模块300,用于对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
所述特征构建模块400被设置为:基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
所述分数获取模块500被设置为:基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
所述音频选择模块600被设置为:基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
在一个实施例中,还包括搜索匹配模块700和混音处理模块800;
所述搜索匹配模块700,用于根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
所述混音处理模块800,用于将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
在一个实施例中,所述所述第二处理模块300中的深度残差网络模型获得过程如下:
获取若干包含特定发声物体的图像,剔除不合格的特定发声物体的图像,得到合格特定发声物体的图像;
将合格特定发声物体的图像进行预处理,得到合格特定发声物体的图像数据集,并划分为训练集和验证集;
将训练集输入至初始深度残差网络模型中进行训练,再通过验证集对训练结果进行进行验证,得到能够获取到特定发声物体的种类的深度残差网络模型。
在一个实施例中,所述特征构建模块400被设置为:音频介绍为音频的介绍内容文本,音频关键词包括至少三个描述音频的词语,所述描述音频的词语包括特定发声物体的类别名称和发声声音的类别名称。
在一个实施例中,所述分数获取模块500被设置为:所述基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数,具体为:
对特定发声物体的物体类别和音频介绍进行分词处理得到单词;
分别获取特定发声物体的物体类别与音频介绍、音频关键词重合的单词比例,得到第一比例和第二比例,将第一比例和第二比例进行加权平均处理,得到单词匹配分数,所述单词匹配分数=物体类别和音频介绍的单词重合比例*音频介绍权重+物体类别和音频关键词单词重合比例*音频关键词权重,其中,音频介绍权重+音频关键词权重=1;
基于音频介绍的统计数据,得到物体类别TF-IDF向量,通过物体类别TF-IDF向量与音频介绍TF-IDF向量的第一余弦相似度,将第一余弦相似度作为TF-IDF匹配分数,所述TF-IDF匹配分数=cosine_similarity(物体类别TF-IDF向量,音频介绍TF-IDF向量);
将单词匹配分数和TF-IDF匹配分数进行加权平均处理,得到第一匹配分数,所述第一匹配分数=单词匹配分数*单词权重+TF-IDF匹配分数*TF-IDF权重,其中,单词权重+TF-IDF权重=1;
获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,经过计算得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数。
在一个实施例中,所述音频选择模块600被设置为:所述基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,具体为:
将第一匹配分数和神经网络匹配分数进行加权平均处理,得到视频音频匹配分数,所述视频音频匹配分数=第一匹配分数*第一权重+神经网络匹配分数*神经网络权重,其中,第一权重+神经网络权重=1。
上述视频识别物体获取音频系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备或者移动终端的处理器中,也可以以软件形式存储于计算机设备或者移动终端的存储器中,以便于处理器调用执行以上各个模块对应的操作。
对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
实施例3:
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下的方法步骤:
基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
在一个实施例中,处理器执行计算机程序时,实现所述对待处理视频进行识别处理,得到待处理视频中的特定发声物体的种类并提取其发声特征,具体为:
将待处理的视频的相关信息降低抽帧频率,抽取视频关键帧;
将抽取的视频关键帧生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行多级识别分析处理,得到待处理视频中的特定发声物体的种类并提取其发声特征。
在一个实施例中,处理器执行计算机程序时,实现音频介绍为音频的介绍内容文本,音频关键词包括至少三个描述音频的词语,所述描述音频的词语包括特定发声物体的类别名称和发声声音的类别名称。
在一个实施例中,处理器执行计算机程序时,实现所述基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数,具体为:
对特定发声物体的物体类别和音频介绍进行分词处理得到单词;
分别获取特定发声物体的物体类别与音频介绍、音频关键词重合的单词比例,得到第一比例和第二比例,将第一比例和第二比例进行加权平均处理,得到单词匹配分数,所述单词匹配分数=物体类别和音频介绍的单词重合比例*音频介绍权重+物体类别和音频关键词单词重合比例*音频关键词权重,其中,音频介绍权重+音频关键词权重=1;
基于音频介绍的统计数据,得到物体类别TF-IDF向量,通过物体类别TF-IDF向量与音频介绍TF-IDF向量的第一余弦相似度,将第一余弦相似度作为TF-IDF匹配分数,所述TF-IDF匹配分数=cosine_similarity(物体类别TF-IDF向量,音频介绍TF-IDF向量);
将单词匹配分数和TF-IDF匹配分数进行加权平均处理,得到第一匹配分数,所述第一匹配分数=单词匹配分数*单词权重+TF-IDF匹配分数*TF-IDF权重,其中,单词权重+TF-IDF权重=1;
获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,经过计算得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数。
在一个实施例中,处理器执行计算机程序时,实现所述基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,具体为:
将第一匹配分数和神经网络匹配分数进行加权平均处理,得到视频音频匹配分数,所述视频音频匹配分数=第一匹配分数*第一权重+神经网络匹配分数*神经网络权重,其中,第一权重+神经网络权重=1。
在一个实施例中,处理器执行计算机程序时,实现所述根据视频音频匹配分数得到特定发声物体的一种或者几种合适音频步骤之后还包括:
根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
实施例4:
在一个实施例中,提供了一种视频识别物体获取音频装置,该视频识别物体获取音频装置可以是服务器也可以是移动终端。该视频识别物体获取音频装置包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该视频识别物体获取音频装置的处理器用于提供计算和控制能力。该视频识别物体获取音频装置的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该数据库用于存储视频识别物体获取音频装置的所有数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现视频识别物体获取音频方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
需要说明的是:
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
此外,需要说明的是,本说明书中所描述的具体实施例,其零、部件的形状、所取名称等可以不同。凡依本发明专利构思所述的构造、特征及原理所做的等效或简单变化,均包括于本发明专利的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (10)

1.一种视频识别物体获取音频方法,其特征在于,包括以下步骤:
基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
2.根据权利要求1所述的视频识别物体获取音频方法,其特征在于,所述深度残差网络模型获得过程如下:
获取若干包含特定发声物体的图像,剔除不合格的特定发声物体的图像,得到合格特定发声物体的图像;
将合格特定发声物体的图像进行预处理,得到合格特定发声物体的图像数据集,并划分为训练集和验证集;
将训练集输入至初始深度残差网络模型中进行训练,再通过验证集对训练结果进行进行验证,得到能够获取到特定发声物体的种类的深度残差网络模型。
3.根据权利要求1所述的视频识别物体获取音频方法,其特征在于,音频介绍为音频的介绍内容文本,音频关键词包括至少三个描述音频的词语,所述描述音频的词语包括特定发声物体的类别名称和发声声音的类别名称。
4.根据权利要求3所述的视频识别物体获取音频方法,其特征在于,所述基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数,具体为:
对特定发声物体的物体类别和音频介绍进行分词处理得到单词;
分别获取特定发声物体的物体类别与音频介绍、音频关键词重合的单词比例,得到第一比例和第二比例,将第一比例和第二比例进行加权平均处理,得到单词匹配分数,所述单词匹配分数=物体类别和音频介绍的单词重合比例*音频介绍权重+物体类别和音频关键词单词重合比例*音频关键词权重,其中,音频介绍权重+音频关键词权重=1;
基于音频介绍的统计数据,得到物体类别TF-IDF向量,通过物体类别TF-IDF向量与音频介绍TF-IDF向量的第一余弦相似度,将第一余弦相似度作为TF-IDF匹配分数,所述TF-IDF匹配分数=cosine_similarity(物体类别TF-IDF向量,音频介绍TF-IDF向量);
将单词匹配分数和TF-IDF匹配分数进行加权平均处理,得到第一匹配分数,所述第一匹配分数=单词匹配分数*单词权重+TF-IDF匹配分数*TF-IDF权重,其中,单词权重+TF-IDF权重=1;
获取特定发声物体的物体类别的BERT向量和音频介绍的BERT向量,经过计算得到BERT向量的余弦相似度,将余弦相似度作为神经网络匹配分数。
5.根据权利要求1所述的视频识别物体获取音频方法,其特征在于,所述基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,具体为:
将第一匹配分数和神经网络匹配分数进行加权平均处理,得到视频音频匹配分数,所述视频音频匹配分数=第一匹配分数*第一权重+神经网络匹配分数*神经网络权重,其中,第一权重+神经网络权重=1。
6.根据权利要求1所述的视频识别物体获取音频方法,其特征在于,所述根据视频音频匹配分数得到特定发声物体的一种或者几种合适音频步骤之后还包括:
根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
7.一种视频识别物体获取音频系统,其特征在于,包括帧图流生成模块、第一处理模块、第二处理模块、特征构建模块、分数获取模块以及音频选择模块;
所述帧图流生成模块被设置为:基于待处理视频的相关信息设置抽帧频率,抽取视频关键帧并生成帧图流;
所述第一处理模块,用于采用深度卷积神经网络模型对所述帧图流进行模块化多物体识别,得到模块化的特定发声物体;
所述第二处理模块,用于对模块化的特定发声物体通过深度残差网络模型进行至少二次识别分析处理,得到特定发声物体的种类;
所述特征构建模块被设置为:基于特定发声物体的种类提取其发声特征,基于发声特征构建特定发声物体的物体类别和特定发声物体音频,其中,音频包括音频介绍和音频关键词;
所述分数获取模块被设置为:基于特定发声物体的物体类别、音频介绍以及音频关键词进行分数匹配处理分别得到第一匹配分数和神经网络匹配分数;
所述音频选择模块被设置为:基于第一匹配分数和神经网络匹配分数得到视频音频匹配分数,根据视频音频匹配分数得到特定发声物体至少一种合适的音频。
8.根据权利要求7所述的视频识别物体获取音频系统,其特征在于,还包括搜索匹配模块和混音处理模块;
所述搜索匹配模块,用于根据视频音频匹配分数将特定发声物体与选择的音频进行搜索匹配,使得音频介绍、音频关键词与特定发声物体的物体类别相互匹配;
所述混音处理模块,用于将所有音频进行混音处理,形成完整的音频文件,将音频文件添加进视频的音轨使得音频文件和视频同步。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任意一项所述的方法步骤。
10.一种视频识别物体获取音频装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任意一项所述的方法步骤。
CN202010518577.7A 2020-06-09 2020-06-09 视频识别物体获取音频方法、系统、装置及可读存储介质 Active CN111681680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010518577.7A CN111681680B (zh) 2020-06-09 2020-06-09 视频识别物体获取音频方法、系统、装置及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010518577.7A CN111681680B (zh) 2020-06-09 2020-06-09 视频识别物体获取音频方法、系统、装置及可读存储介质

Publications (2)

Publication Number Publication Date
CN111681680A true CN111681680A (zh) 2020-09-18
CN111681680B CN111681680B (zh) 2023-08-25

Family

ID=72454190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010518577.7A Active CN111681680B (zh) 2020-06-09 2020-06-09 视频识别物体获取音频方法、系统、装置及可读存储介质

Country Status (1)

Country Link
CN (1) CN111681680B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153461A (zh) * 2020-09-25 2020-12-29 北京百度网讯科技有限公司 用于定位发声物的方法、装置、电子设备及可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010105089A1 (en) * 2009-03-11 2010-09-16 Google Inc. Audio classification for information retrieval using sparse features
CN104394331A (zh) * 2014-12-05 2015-03-04 厦门美图之家科技有限公司 一种画面视频中添加匹配音效的视频处理方法
US20150143416A1 (en) * 2013-11-21 2015-05-21 Thomson Licensing Method and apparatus for matching of corresponding frames in multimedia streams
US20150169747A1 (en) * 2013-12-12 2015-06-18 Google Inc. Systems and methods for automatically suggesting media accompaniments based on identified media content
CN109089156A (zh) * 2018-09-19 2018-12-25 腾讯科技(深圳)有限公司 一种音效调节方法、装置及终端
CN109493888A (zh) * 2018-10-26 2019-03-19 腾讯科技(武汉)有限公司 漫画配音方法及装置、计算机可读存储介质、电子设备
CN109920409A (zh) * 2019-02-19 2019-06-21 标贝(深圳)科技有限公司 一种声音检索方法、装置、系统及存储介质
CN109948721A (zh) * 2019-03-27 2019-06-28 北京邮电大学 一种基于视频描述的视频场景分类方法
CN110839173A (zh) * 2019-11-18 2020-02-25 上海极链网络科技有限公司 一种音乐匹配方法、装置、终端及存储介质
CN111026840A (zh) * 2019-11-26 2020-04-17 腾讯科技(深圳)有限公司 文本处理方法、装置、服务器和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010105089A1 (en) * 2009-03-11 2010-09-16 Google Inc. Audio classification for information retrieval using sparse features
US20150143416A1 (en) * 2013-11-21 2015-05-21 Thomson Licensing Method and apparatus for matching of corresponding frames in multimedia streams
US20150169747A1 (en) * 2013-12-12 2015-06-18 Google Inc. Systems and methods for automatically suggesting media accompaniments based on identified media content
CN104394331A (zh) * 2014-12-05 2015-03-04 厦门美图之家科技有限公司 一种画面视频中添加匹配音效的视频处理方法
CN109089156A (zh) * 2018-09-19 2018-12-25 腾讯科技(深圳)有限公司 一种音效调节方法、装置及终端
CN109493888A (zh) * 2018-10-26 2019-03-19 腾讯科技(武汉)有限公司 漫画配音方法及装置、计算机可读存储介质、电子设备
CN109920409A (zh) * 2019-02-19 2019-06-21 标贝(深圳)科技有限公司 一种声音检索方法、装置、系统及存储介质
CN109948721A (zh) * 2019-03-27 2019-06-28 北京邮电大学 一种基于视频描述的视频场景分类方法
CN110839173A (zh) * 2019-11-18 2020-02-25 上海极链网络科技有限公司 一种音乐匹配方法、装置、终端及存储介质
CN111026840A (zh) * 2019-11-26 2020-04-17 腾讯科技(深圳)有限公司 文本处理方法、装置、服务器和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUNIL RAVULAPALLI等: "Association of Sound to Motion in Video using Perceptual Organization" *
李应: "局部搜索的音频数据检索", vol. 3, no. 3, pages 259 - 264 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153461A (zh) * 2020-09-25 2020-12-29 北京百度网讯科技有限公司 用于定位发声物的方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN111681680B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN108648746A (zh) 一种基于多模态特征融合的开放域视频自然语言描述生成方法
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN111681678B (zh) 自动生成音效并匹配视频的方法、系统、装置及存储介质
CN111626049B (zh) 多媒体信息的标题修正方法、装置、电子设备及存储介质
Poignant et al. Unsupervised speaker identification in TV broadcast based on written names
CN110782875B (zh) 一种基于人工智能的语音韵律处理方法及装置
CN112487139A (zh) 基于文本的自动出题方法、装置及计算机设备
CN110782918B (zh) 一种基于人工智能的语音韵律评估方法及装置
US20220092109A1 (en) Method and system for presenting a multimedia stream
CN114143479B (zh) 视频摘要的生成方法、装置、设备以及存储介质
CN110597958B (zh) 文本分类模型训练和使用方法及装置
CN114363695B (zh) 视频处理方法、装置、计算机设备和存储介质
CN113923521A (zh) 一种视频的脚本化方法
CN111681680B (zh) 视频识别物体获取音频方法、系统、装置及可读存储介质
CN114125506B (zh) 语音审核方法及装置
CN111681676B (zh) 视频物体识别构建音频方法、系统、装置及可读存储介质
CN115965810A (zh) 一种基于多模态一致性的短视频谣言检测方法
CN111681679B (zh) 视频物体音效搜索匹配方法、系统、装置及可读存储介质
CN113642536B (zh) 数据处理方法、计算机设备以及可读存储介质
CN111681677B (zh) 视频物体音效构建方法、系统、装置及可读存储介质
CN115169472A (zh) 针对多媒体数据的音乐匹配方法、装置和计算机设备
CN116561294A (zh) 手语视频的生成方法、装置、计算机设备及存储介质
Zhan et al. Application of machine learning and image target recognition in English learning task
Wang et al. Video Captioning Based on Joint Image–Audio Deep Learning Techniques
CN112530456B (zh) 一种语言类别的识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant