CN107492383B - 直播内容的筛选方法、装置、设备及存储介质 - Google Patents

直播内容的筛选方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN107492383B
CN107492383B CN201710667061.7A CN201710667061A CN107492383B CN 107492383 B CN107492383 B CN 107492383B CN 201710667061 A CN201710667061 A CN 201710667061A CN 107492383 B CN107492383 B CN 107492383B
Authority
CN
China
Prior art keywords
audio
frequency spectrum
screening
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710667061.7A
Other languages
English (en)
Other versions
CN107492383A (zh
Inventor
王兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Liujie Information Technology Co ltd
Original Assignee
Shanghai Liujie Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Liujie Information Technology Co ltd filed Critical Shanghai Liujie Information Technology Co ltd
Priority to CN201710667061.7A priority Critical patent/CN107492383B/zh
Publication of CN107492383A publication Critical patent/CN107492383A/zh
Application granted granted Critical
Publication of CN107492383B publication Critical patent/CN107492383B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种直播内容的筛选方法、装置、设备及存储介质,其中,所述方法包括:获取直播中的音频,将所述音频分割为若干音频片段;根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系;将所述频谱图片输入评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。可以利用卷积神经网络分类器自动得到精确度较高的筛选结果,能够统一对直播内容的评价标准,且评价速度快,效率更高。

Description

直播内容的筛选方法、装置、设备及存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种直播内容的筛选方法、装置、设备及存储介质。
背景技术
随着互联网技术的发展,用户终端可以通过互联网进行多媒体直播,使观众观看该多媒体直播的多媒体直播流。当需要观看直播时,用户按照自己的需求,点击进入一直播间,进而直播服务器基于用户的选择,将用户选择的直播间的直播视频流发送到用户设备(User Equipment,UE)上,使用户在UE上观看该直播间件对应的直播视频。为了方便用户找到属于自己偏好的直播间或直播内容,服务器会按照直播间推荐策略向用户推荐一些直播间。
目前,选取优秀的直播内容向用户进行推荐通常采用人工推荐的方式,即由工作人员通过观看直播内容后给出相应的评价,并根据评价向用户进行推荐。但上述方法存在如下问题:由于直播的内容繁多,采用人工评价的方法工作量大、成本高且效率低;并且由于每个工作人员的喜好不同,无法实现评价标准的统一。
发明内容
本发明实施例提供了一种直播内容的筛选方法、装置、设备及存储介质,以解决现有技术中对直播内容筛选成本高、效率低及标准不统一的技术问题。
第一方面,本发明实施例提供了一种直播内容的筛选方法,包括:
获取直播中的音频,将所述音频分割为若干音频片段;
将所述音频片段转换为相应的频谱;
根据所述频谱生成相应的频谱图片;
将所述频谱图片输入评价卷积神经网络分类器,获取所述评价卷积神经网络分类器的输出结果;
根据所述输出结果计算筛选结果。
第二方面,本发明实施例还提供了一种直播内容的筛选装置,包括:
分割模块,用于获取直播中的音频,将所述音频分割为若干音频片段;
图片生成模块,用于根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系;
结果输出模块,用于将所述频谱图片输入评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。
第三方面,本发明实施例还提供了一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述实施例提供的直播内容的筛选方法方法。
第四方面,本发明实施例还提供了包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如上述实施例提供的直播内容的筛选方法。
本发明实施例提供的直播内容的筛选方法、装置、设备及存储介质,通过将音频分割为若干音频片段,并将音频片段的频域特征和时域特征结合,生成相应的频谱图片。并利用完成训练的评价卷积神经网络分类器输出评价筛选结果。可以利用卷积神经网络分类器自动得到精确度较高的筛选结果,能够统一对直播内容的评价标准,且评价速度快,效率更高。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明实施例一提供的直播内容的筛选方法的流程示意图;
图2是本发明实施例二提供的直播内容的筛选方法的流程示意图;
图3是本发明实施例三提供的直播内容的筛选方法的流程示意图;
图4是本发明实施例四提供的直播内容的筛选方法的流程示意图;
图5是本发明实施例五提供的直播内容的筛选装置的结构示意图;
图6是本发明实施例六提供的服务器的结构图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的直播内容的筛选方法的流程图,本实施例可适用于对直播内容进行评价筛选的情况,该方法可以由直播内容的筛选装置来执行,并可集成于直播内容筛选服务器中,具体包括如下步骤:
S110,获取直播中的音频,将所述音频分割为若干音频片段。
随着互联网络技术的发展,直播的概念有了新的拓展和发展,通过网络信号,在线收看体育赛事、活动、新闻和娱乐化表演等成为当前直播的主流。在主播进行直播时,可以通过直播服务器获取到直播中的音频内容。为便于后期进行处理和分析,可以将音频进行分割,得到若干较小的音频片段。示例性的,可以按照直播时的时间,将所述音频分割为若干音频片段。或者,利用音频中的某些特征,例如短时间的无声波等,对音频进行分割。
在本实施例中,由于需要对分割后的音频片段进行处理,且处理时要考虑相应的时间因素,因此,需要将所述音频分割为若干时间等长的音频片段。每个音频片段对应的时长可以根据对音频片段的处理能力和所述音频片段所承载的信息量进行设定。示例性的,可以将时长设定为2.56s。将所述音频分割为每段时长为2.56s的音频片段。
S120,根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系。
频谱是频率谱密度的简称,是频率的分布曲线。声音的音色表现力与频谱密切相关。将音频片段转换为频谱的目的在于把音频信号的幅值、相位或能量变换为以频率坐标轴来表示。频谱为频率的分布曲线。通过频谱转换可以获得该音频文件的频谱分布信息。即该音频文件的各个有效频率成分以及有效频率分布的范围。但频谱无法体现时域与频域的对应关系,因此,在本实施例中,需要根据音频片段的频率特征结合时域生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系。示例性的,可以对音频片段进行离散傅里叶变换,获取到每个音频片段的频谱值,所述频谱值可以是该音频片段多个采样点的频率密度的均值。建立一个二维坐标系,其横坐标为每个音频片段的先后序号,纵坐标为频谱值。依次填入所有音频片段的频谱值,生成相应的频谱图片。
S130,将所述频谱图片输入评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。
卷积神经网络(Convolutional Neural Network,CNN),是一种前馈神经网络,人工神经元可以响应周围单元,尤其适用于图像处理。其基本结构可以包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。特征检测层通过训练数据进行学习,所以在使用CNN时,避免了显示的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。因此,卷积神经网络以其局部权值共享的特殊结构在图像处理方面有着独特的优越性。通过卷积运算,可以使原信号特征增强,并且降低噪音。
在本实施例中,可以预先设立一个评价卷积神经网络分类器,将多个音频的频谱图片和筛选结果作为训练样本输入到评价卷积神经网络分类器进行训练。在训练完成后,向所述评价卷积神经网络分类器中输入上述所得到的频谱图片,评价卷积神经网络分类器给出相应的评价筛选结果。
本实施例通过将音频分割为若干音频片段,并将音频片段的频域特征和时域特征结合,生成相应的频谱图片。并利用完成训练的评价卷积神经网络分类器输出评价筛选结果。可以利用卷积神经网络分类器自动得到精确度较高的筛选结果,能够统一对直播内容的评价标准,且评价速度快,效率更高。
实施例二
图2为本发明实施例二提供的直播内容的筛选方法的流程示意图。本实施例以上述实施例为基础进行优化,在本实施例中,将所述根据所述音频片段生成频谱图片,具体优化为:将所述音频片段分割为若干音频单元;对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值;根据所述频谱值生成所述音频片段的频谱图片;并将所述根据所述评价卷积神经网络分类器的输出筛选结果,具体优化为:根据所述频谱图片对应的时间权重值和价卷积神经网络分类器的输出计算筛选结果。
相应的,本实施例所提供的直播内容的筛选方法,具体包括:
S210,获取直播中的音频,将所述音频分割为若干音频片段。
S220,将所述音频片段分割为若干音频单元。
对于一些时间较长的音频,对其进行分割所得到的音频片段,每个音频片段由于其采样率较低,其所包含的信息量比较少,不能够准确的反应音频片段中的频谱。因此,需要将音频片段再次进行分割,以得到能够充分体现频谱变化信息的音频单元。示例性的,需要将所述音频片段分割为若干时间等长的音频单元。每个音频单元对应的时长可以根据对音频片段的处理能力和所述音频片段所承载的信息量进行设定。示例性的,可以将时长设定为20ms。将所述音频片段分割为每段时长为20ms的音频单元。
S230,对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值。
离散傅里叶变换(discrete Fourier transform,DFT)是傅里叶变换在时域和频域上都呈现离散的形式,将时域信号的采样变换为在离散时间傅里叶变换(DTFT)频域的采样。获取到每个音频片段的频谱值,所述频谱值可以是该音频片段多个采样点的频率密度的均值。
S240,根据所述频谱值生成所述音频片段的频谱图片。
示例性的,建立一个二维坐标系,其横坐标为每个音频单元的先后序号,纵坐标为频谱值。依次填入所有音频单元的频谱值,根据所述二维坐标系,可以生成相应的频谱图片。例如:如果一个音频片段中共包括128个音频单元,相应的可以建立一个128*128像素的频谱图片。
S250,将所述频谱图片输入评价卷积神经网络分类器,根据所述频谱图片对应的时间权重值和评价卷积神经网络分类器的输出计算筛选结果。
将所述频谱图片输入评价卷积神经网络分类器。得到相应的输出结果。由于所述直播的音频由多段音频片段组成。相应的,卷积神经网络分类器会给出多个筛选结果。需要将其综合,以得到一个筛选结果。在本实施例中,可以根据所述频谱图片对应的时间权重值和评价卷积神经网络分类器的输出计算筛选结果。示例性的,由于直播中通常由开场-高潮-结束三个时间顺序部分组成,可以根据预先建立的时间窗函数设定每个音频片段权重值,所述时间窗函数可以为两侧小、中间大的平滑曲线函数。根据所述频谱图片,即所述频谱图片对应到的音频片段的权重值与其对应的输出计算筛选结果。
本实施例通过将所述根据所述音频片段生成频谱图片,具体优化为:将所述音频片段分割为若干音频单元;对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值;根据所述频谱值生成所述音频片段的频谱图片;并将所述根据所述评价卷积神经网络分类器的输出筛选结果,具体优化为:根据所述频谱图片对应的时间权重值和价卷积神经网络分类器的输出计算筛选结果。可以提高每段音频片段的采样率,增强每个频谱图片中的信息,能够提高筛选的准确性。
实施例三
图3为本发明实施例三提供的直播内容的筛选方法的流程示意图。本实施例以上述实施例为基础进行优化,在本实施例中,在将所述频谱图片输入评价卷积神经网络分类器之前,增加如下步骤:将所述音频按直播场景进行分类;相应的,所述将所述频谱图片输入评价卷积神经网络分类器,具体优化为:将所述频谱图片输入与所述直播场景对应的评价卷积神经网络分类器
相应的,本实施例所提供的直播内容的筛选方法,具体包括:
S310,获取直播中的音频,将所述音频分割为若干音频片段。
S320,根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系。
S330,将所述音频按直播场景进行分类。
目前,直播可以分为以下几个种类:赛事直播、游戏直播、唱歌直播和聊天直播等。对于每一种类的直播,其对应的音频有不同的呈现,其评价标准也并不一致。例如:对于游戏直播,可以根据游戏直播中的游戏配音判断游戏直播是否精彩;而对于唱歌直播,则更多需要根据音品来确定直播内容是否优秀。而这两种标准在音频的频域上则有完全不同的呈现,因此,需要将直播的音频进行分类,以更好的对当前直播的音频进行筛选。
可以通过多种方式对音频按直播场景进行分类,例如:对于每种直播通常都有相应的文字标签,该文字标签可以由管理员输入,也可以由用户输入。根据这些标签可以对音频按直播场景进行分类。
S340,将所述频谱图片输入与所述直播场景对应的评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。
如上所述,每种类型的直播场景的评价标准不同,因此需要对于每种直播场景都相应可以预先设立一个评价卷积神经网络分类器,将相应直播场景类型的多个音频的频谱图片和筛选结果作为训练样本输入到与所述直播场景对应评价卷积神经网络分类器进行训练。在训练完成后,向所述评价卷积神经网络分类器中输入上述所得到的频谱图片,该评价卷积神经网络分类器给出相应的评价筛选结果。
本实施例通过在将所述频谱图片输入评价卷积神经网络分类器之前,增加如下步骤:将所述音频按直播场景进行分类;相应的,所述将所述频谱图片输入评价卷积神经网络分类器,具体优化为:将所述频谱图片输入与所述直播场景对应的评价卷积神经网络分类器。可以根据不同直播场景的音频频率特征建立相应的卷积神经网络分类器,并可以将频谱图片按照直播场景选择对应的卷积神经网络分类器,能够进一步提高筛选结果的准确性。
实施例四
图4为本发明实施例四提供的直播内容的筛选方法的流程示意图。本实施例以上述实施例为基础进行优化,在本实施例中,将所述音频按直播场景进行分类,具体优化为:通过分类卷积神经网络分类器对所述音频按直播场景进行分类。
相应的,本实施例所提供的直播内容的筛选方法,具体包括:
S410,获取直播中的音频,将所述音频分割为若干音频片段。
S420,根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系。
S430,通过分类卷积神经网络分类器对所述音频按直播场景进行分类。
虽然可以通过直播的标签确定当前音频的直播场景分类,但是直播的标签由于是人为标注的,尤其有可能是用户进行标注的,不可避免的会产生标注错误。因此,在本实施例中,可以通过分类卷积神经网络分类器对所述音频进行分类。示例性的,可以根据音频训练分类卷积神经网络分类器,并可根据分类卷积神经网络分类器对输入的音频自动进行分类。
S440,将所述频谱图片输入与所述直播场景对应的评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。
本实施例通过将所述音频按直播场景进行分类,具体优化为:通过分类卷积神经网络分类器对所述音频按直播场景进行分类。利用卷积神经网络分类器能够准确地对音频进行分类。
实施例五
图5是本发明实施例五提供的直播内容的筛选装置的结构示意图,如图5所示,所述装置包括:
分割模块510,用于获取直播中的音频,将所述音频分割为若干音频片段;
图片生成模块520,用于根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系;
结果输出模块530,用于将所述频谱图片输入评价卷积神经网络分类器,根据所述评价卷积神经网络分类器的输出筛选结果。
本实施例提供的直播内容的筛选装置,通过将音频分割为若干音频片段,并将音频片段的频域特征和时域特征结合,生成相应的频谱图片。并利用完成训练的评价卷积神经网络分类器输出评价筛选结果。可以利用卷积神经网络分类器自动得到精确度较高的筛选结果,能够统一对直播内容的评价标准,且评价速度快,效率更高。
在上述各实施例的基础上,所述分割模块用于:
将所述音频分割为若干时间等长的音频片段。
在上述各实施例的基础上,所述图片生成模块,包括:
分割单元,用于将所述音频片段分割为若干音频单元;
频谱值得到单元,用于对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值;
图片生成单元,用于根据所述频谱值生成所述音频片段的频谱图片;
相应的,所述结果输出模块,包括:
筛选结果计算单元,用于根据所述频谱图片对应的时间权重值和价卷积神经网络分类器的输出计算筛选结果。
在上述各实施例的基础上,所述装置还包括:
分类模块,用于将所述音频按直播场景进行分类;
相应的,所述结果输出模块,包括:
输入单元,用于将所述频谱图片输入与所述直播场景对应的评价卷积神经网络分类器。
在上述各实施例的基础上,所述分类模块,用于:
通过分类卷积神经网络分类器对所述音频按直播场景进行分类。
本发明实施例所提供的直播内容的筛选装置可执行本发明任意实施例所提供的直播内容的筛选方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6为本发明实施例七提供的一种终端的结构示意图。图6示出了适于用来实现本发明实施方式的示例性终端12的框图。图6显示的终端12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,终端12以通用计算设备的形式表现。终端12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
终端12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被终端12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。终端12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
终端12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备/终端/服务器12交互的设备通信,和/或与使得该终端12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,终端12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与终端12的其它模块通信。应当明白,尽管图中未示出,可以结合终端12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的直播内容的筛选方法。
实施例七
本发明实施例八还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如上述实施例提供的直播内容的筛选方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种直播内容的筛选方法,其特征在于,包括:
获取直播中的音频,将所述音频按照直播开场、高潮和结束的时间顺序分割为若干音频片段;
根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系;
将所述音频按直播场景进行分类,将所述频谱图片输入所述直播场景对应的评价卷积神经网络分类器,所述评价卷积神经网络分类器给出多个筛选结果,根据所述评价卷积神经网络分类器的输出筛选结果,包括:根据所述频谱图片对应的音频片段的权重值与所述频谱图片对应的音频片段对应的所述评价卷积神经网络分类器的输出计算所述筛选结果,所述频谱图片对应的音频片段的权重值根据时间窗函数设定,所述时间窗函数为两侧小、中间大的平滑曲线函数,所述筛选结果包括所述直播内容是否精彩或是否优秀的筛选结果。
2.根据权利要求1所述的方法,其特征在于,将所述音频分割为若干音频片段,包括:
将所述音频分割为若干时间等长的音频片段。
3.根据权利要求1所述的方法,其特征在于,所述根据所述音频片段生成频谱图片,包括:
将所述音频片段分割为若干音频单元;
对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值;
根据所述频谱值生成所述音频片段的频谱图片。
4.根据权利要求1所述的方法,其特征在于,所述将所述音频按直播场景进行分类,包括:
通过分类卷积神经网络分类器对所述音频按直播场景进行分类。
5.一种直播内容的筛选装置,其特征在于,包括:
分割模块,用于获取直播中的音频,将所述音频按照直播开场、高潮和结束的时间顺序分割为若干音频片段;
图片生成模块,用于根据所述音频片段生成频谱图片,所述频谱图片用于表征音频片段中的频率和时间的对应关系;
结果输出模块,用于将所述音频按直播场景进行分类,将所述频谱图片输入所述直播场景对应的评价卷积神经网络分类器,所述评价卷积神经网络分类器给出多个筛选结果,根据所述评价卷积神经网络分类器的输出筛选结果,所述结果输出模块具体用于:根据所述频谱图片对应的音频片段的权重值与所述频谱图片对应的音频片段对应的所述评价卷积神经网络分类器的输出计算所述筛选结果,所述频谱图片对应的音频片段的权重值根据时间窗函数设定,所述时间窗函数为两侧小、中间大的平滑曲线函数,所述筛选结果包括所述直播内容是否精彩或是否优秀的筛选结果。
6.根据权利要求5所述的装置,其特征在于,所述图片生成模块,包括:
分割单元,用于将所述音频片段分割为若干音频单元;
频谱值得到单元,用于对所述音频单元进行离散傅里叶变换,得到所述若干音频单元的频谱值;
图片生成单元,用于根据所述频谱值生成所述音频片段的频谱图片。
7.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的直播内容的筛选方法。
8.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-4任一所述的直播内容的筛选方法。
CN201710667061.7A 2017-08-07 2017-08-07 直播内容的筛选方法、装置、设备及存储介质 Active CN107492383B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710667061.7A CN107492383B (zh) 2017-08-07 2017-08-07 直播内容的筛选方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710667061.7A CN107492383B (zh) 2017-08-07 2017-08-07 直播内容的筛选方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN107492383A CN107492383A (zh) 2017-12-19
CN107492383B true CN107492383B (zh) 2022-01-11

Family

ID=60645206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710667061.7A Active CN107492383B (zh) 2017-08-07 2017-08-07 直播内容的筛选方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN107492383B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108172213B (zh) * 2017-12-26 2022-09-30 北京百度网讯科技有限公司 娇喘音频识别方法、装置、设备及计算机可读介质
CN108122562A (zh) * 2018-01-16 2018-06-05 四川大学 一种基于卷积神经网络和随机森林的音频分类方法
CN108764304B (zh) * 2018-05-11 2020-03-06 Oppo广东移动通信有限公司 场景识别方法、装置、存储介质及电子设备
CN109166593B (zh) * 2018-08-17 2021-03-16 腾讯音乐娱乐科技(深圳)有限公司 音频数据处理方法、装置及存储介质
CN111723235B (zh) * 2019-03-19 2023-09-26 百度在线网络技术(北京)有限公司 音乐内容识别方法、装置及设备
CN109979441A (zh) * 2019-04-03 2019-07-05 中国计量大学 一种基于深度学习的鸟类识别方法
CN110392273B (zh) * 2019-07-16 2023-08-08 北京达佳互联信息技术有限公司 音视频处理的方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529929A (zh) * 2006-09-05 2009-09-09 Gn瑞声达A/S 具有基于直方图的声环境分类的助听器
CN101847412A (zh) * 2009-03-27 2010-09-29 华为技术有限公司 音频信号的分类方法及装置
CN105895110A (zh) * 2016-06-30 2016-08-24 北京奇艺世纪科技有限公司 一种音频文件的分类方法及装置
CN106257439A (zh) * 2015-06-19 2016-12-28 Tcl集团股份有限公司 多媒体播放器中的多媒体文件存储方法和装置
CN106653032A (zh) * 2016-11-23 2017-05-10 福州大学 低信噪比环境下基于多频带能量分布的动物声音检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028325B1 (en) * 1999-09-13 2006-04-11 Microsoft Corporation Annotating programs for automatic summary generation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529929A (zh) * 2006-09-05 2009-09-09 Gn瑞声达A/S 具有基于直方图的声环境分类的助听器
CN101847412A (zh) * 2009-03-27 2010-09-29 华为技术有限公司 音频信号的分类方法及装置
CN106257439A (zh) * 2015-06-19 2016-12-28 Tcl集团股份有限公司 多媒体播放器中的多媒体文件存储方法和装置
CN105895110A (zh) * 2016-06-30 2016-08-24 北京奇艺世纪科技有限公司 一种音频文件的分类方法及装置
CN106653032A (zh) * 2016-11-23 2017-05-10 福州大学 低信噪比环境下基于多频带能量分布的动物声音检测方法

Also Published As

Publication number Publication date
CN107492383A (zh) 2017-12-19

Similar Documents

Publication Publication Date Title
CN107492383B (zh) 直播内容的筛选方法、装置、设备及存储介质
CN107295362B (zh) 基于图像的直播内容筛选方法、装置、设备及存储介质
CN107995535B (zh) 一种展示视频的方法、装置、设备和计算机存储介质
CN108460396B (zh) 负采样方法和装置
CN108989882B (zh) 用于输出视频中的音乐片段的方法和装置
US11321667B2 (en) System and method to extract and enrich slide presentations from multimodal content through cognitive computing
CN109300179B (zh) 动画制作方法、装置、终端和介质
US11842278B2 (en) Object detector trained via self-supervised training on raw and unlabeled videos
US11682415B2 (en) Automatic video tagging
CN110189394B (zh) 口型生成方法、装置及电子设备
CN111836118B (zh) 视频处理方法、装置、服务器及存储介质
CN110674349B (zh) 视频poi识别方法、装置及电子设备
CN110278447B (zh) 基于连续特征的视频推送方法、装置及电子设备
EP3172681A1 (en) Identifying presentation styles of educational videos
CN109815448B (zh) 幻灯片生成方法及装置
CN111883107A (zh) 语音合成、特征提取模型训练方法、装置、介质及设备
CN112819099A (zh) 网络模型的训练方法、数据处理方法、装置、介质及设备
CN112182281B (zh) 一种音频推荐方法、装置及存储介质
US11734348B2 (en) Intelligent audio composition guidance
CN110781849A (zh) 一种图像处理方法、装置、设备及存储介质
US20220044105A1 (en) Training multimodal representation learning model on unnanotated multimodal data
CN110060324B (zh) 图像渲染方法、装置及电子设备
CN110555117B (zh) 一种数据处理方法、装置及电子设备
CN110475139B (zh) 一种视频字幕的遮挡方法、装置、存储介质及电子设备
CN112084954A (zh) 视频目标的检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant