CN108132995A - 用于处理音频信息的方法和装置 - Google Patents
用于处理音频信息的方法和装置 Download PDFInfo
- Publication number
- CN108132995A CN108132995A CN201711386445.8A CN201711386445A CN108132995A CN 108132995 A CN108132995 A CN 108132995A CN 201711386445 A CN201711386445 A CN 201711386445A CN 108132995 A CN108132995 A CN 108132995A
- Authority
- CN
- China
- Prior art keywords
- audio
- information
- frequency information
- segment
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000011218 segmentation Effects 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 134
- 230000002996 emotional effect Effects 0.000 claims description 30
- 238000005516 engineering process Methods 0.000 claims description 29
- 238000012512 characterization method Methods 0.000 claims description 18
- 230000008451 emotion Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 9
- 230000001755 vocal effect Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000010977 jade Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了用于处理音频信息的方法和装置。该方法的一具体实施方式包括:对目标音频信息进行分析,生成目标音频信息的特征信息,其中,特征信息包括声音特征信息;基于特征信息,确定用于分割目标音频信息的至少一个分割点;按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。该实施方式提高了音频信息分割的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于处理音频信息的方法和装置。
背景技术
随着互联网技术的发展,现在每个用户每天接收到的信息量成百上千,用户正面临着海量信息甄选困难的难题。为了解决上述难题,信息流产品应运而生,这种产品形态使得用户由主动获取信息的方式转变为被动接收其感兴趣信息的方式,让用户能够在更短时间内获取更多的信息,信息流产品也逐步变成了用户获取信息的最重要的入口。
发明内容
本申请实施例提出了用于处理音频信息的方法和装置。
第一方面,本申请实施例提供了一种用于处理音频信息的方法,包括:对目标音频信息进行分析,生成目标音频信息的特征信息,其中,特征信息包括声音特征信息;基于特征信息,确定用于分割目标音频信息的至少一个分割点;按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
在一些实施例中,特征信息还包括文本信息;以及该方法还包括:针对至少两个音频信息片段中的每个音频信息片段,对该音频信息片段对应的文本信息进行分析得到文本关键内容,并基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息。
在一些实施例中,在对该音频信息片段对应的文本信息进行分析得到文本关键内容之后,该方法还包括:利用文本转语音技术将文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息,并将关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。
在一些实施例中,该方法还包括:获取候选音频信息片段集合;针对候选音频信息片段集合中的每个音频信息片段,确定该音频信息片段的标签信息与候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度,并将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。
在一些实施例中,该方法还包括:基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。
在一些实施例中,基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段,包括:获取利用目标用户终端进行搜索的用户所输入的搜索信息;确定搜索信息与每个音频信息片段的标签信息之间的第二匹配度;按照第二匹配度由大到小的顺序选取预设数目个音频信息片段,并向目标用户终端推送选取出的音频信息片段。
在一些实施例中,基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段,包括:在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,音频信息推荐表用于表征时间段与标签信息之间的对应关系;确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度;向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。
在一些实施例中,基于特征信息,确定用于分割目标音频信息的至少一个分割点,包括:生成声音特征信息的特征向量,并将针对声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对目标音频信息的至少一个第一分割点,其中,第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。
在一些实施例中,特征信息还包括文本信息;以及基于特征信息,确定用于分割目标音频信息的至少一个分割点,包括:生成文本信息的特征向量,并将针对文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对目标音频信息的至少一个第二分割点,其中,第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。
在一些实施例中,基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄,其中,年龄识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的年龄之间的对应关系;生成与年龄相关的第一标签信息。
在一些实施例中,基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别,其中,性别识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的性别之间的对应关系;生成与性别相关的第二标签信息。
在一些实施例中,基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息,其中,情绪识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的情绪信息之间的对应关系;生成与情绪信息相关的第三标签信息。
在一些实施例中,基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型,其中,声音类型识别模型用于表征由声音特征信息所生成的特征向量与声音类型之间的对应关系;生成与声音类型相关的第四标签信息。
第二方面,本申请实施例提供了一种用于处理音频信息的装置,包括:第一生成单元,配置用于对目标音频信息进行分析,生成目标音频信息的特征信息,其中,特征信息包括声音特征信息;确定单元,配置用于基于特征信息,确定用于分割目标音频信息的至少一个分割点;分割单元,配置用于按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
在一些实施例中,特征信息还包括文本信息;以及该装置还包括:第二生成单元,配置用于针对至少两个音频信息片段中的每个音频信息片段,对该音频信息片段对应的文本信息进行分析得到文本关键内容,并基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息。
在一些实施例中,该装置还包括:添加单元,配置用于利用文本转语音技术将文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息,并将关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。
在一些实施例中,该装置还包括:获取单元,配置用于获取候选音频信息片段集合;第三生成单元,配置用于针对候选音频信息片段集合中的每个音频信息片段,确定该音频信息片段的标签信息与候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度,并将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。
在一些实施例中,该装置还包括:推送单元,配置用于基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。
在一些实施例中,推送单元,包括:第一获取模块,配置用于获取利用目标用户终端进行搜索的用户所输入的搜索信息;第一确定模块,配置用于确定搜索信息与每个音频信息片段的标签信息之间的第二匹配度;第一推送模块,配置用于按照第二匹配度由大到小的顺序选取预设数目个音频信息片段,并向目标用户终端推送选取出的音频信息片段。
在一些实施例中,推送单元,包括:第二获取模块,配置用于在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,音频信息推荐表用于表征时间段与标签信息之间的对应关系;第二确定模块,配置用于确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度;第二推送模块,配置用于向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。
在一些实施例中,确定单元进一步配置用于:生成声音特征信息的特征向量,并将针对声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对目标音频信息的至少一个第一分割点,其中,第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。
在一些实施例中,特征信息还包括文本信息;以及确定单元进一步配置用于:生成文本信息的特征向量,并将针对文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对目标音频信息的至少一个第二分割点,其中,第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。
在一些实施例中,第二生成单元,包括:第一输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄,其中,年龄识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的年龄之间的对应关系;第一生成模块,配置用于生成与年龄相关的第一标签信息。
在一些实施例中,第二生成单元,包括:第二输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别,其中,性别识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的性别之间的对应关系;第二生成模块,配置用于生成与性别相关的第二标签信息。
在一些实施例中,第二生成单元,包括:第三输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息,其中,情绪识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的情绪信息之间的对应关系;第三生成模块,配置用于生成与情绪信息相关的第三标签信息。
在一些实施例中,第二生成单元,包括:第四输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型,其中,声音类型识别模型用于表征由声音特征信息所生成的特征向量与声音类型之间的对应关系;第四生成模块,配置用于生成与声音类型相关的第四标签信息。
第三方面,本申请实施例还提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现本申请提供的用于处理音频信息的方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请提供的用于处理音频信息的方法。
本申请提供的用于处理音频信息的方法和装置,通过对目标音频信息进行分析,并生成上述目标音频信息的特征信息,之后基于上述特征信息确定用于分割上述目标音频信息的至少一个分割点,最后按照上述至少一个分割点对上述目标音频信息进行分割得到至少两个音频信息片段,从而有效利用了目标音频信息中的特征信息,提高了音频信息分割的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于处理音频信息的方法的一个实施例的流程图;
图3是根据本申请的用于处理音频信息的方法的一个应用场景的示意图;
图4是根据本申请的用于处理音频信息的方法的又一个实施例的流程图;
图5是根据本申请的用于处理音频信息的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理音频信息的方法或用于处理音频信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括用户终端1011、1012、1013,网络102和服务器103。其中,网络102用以在用户终端1011、1012、1013和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用用户终端1011、1012、1013通过网络102与服务器103交互,以接收或发送消息等。用户终端1011、1012、1013上可以安装有各种客户端应用,例如新闻类应用、搜索类应用等。
用户终端1011、1012、1013可以是具有扬声器并且支持信息交互的各种电子设备,包括但不限于智能手表、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器103可以是提供各种服务的服务器,例如对用户终端1011、1012、1013上输出的音频信息片段提供支持的后台服务器。后台服务器可以对目标音频信息进行分析等处理,并将处理结果(例如音频信息片段)反馈给用户终端。
需要说明的是,本申请实施例所提供的用于处理音频信息的方法一般由服务器103执行,相应地,用于处理音频信息的装置一般设置于服务器103中。
应该理解,图1中的用户终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的用户终端、网络和服务器。
继续参考图2,示出了根据本申请的用于处理音频信息的方法的一个实施例的流程200。该用于处理音频信息的方法,包括以下步骤:
步骤201,对目标音频信息进行分析,生成目标音频信息的特征信息。
在本实施例中,用于处理音频信息的方法运行于其上的电子设备(例如图1所示的服务器)可以对目标音频信息进行分析,以生成上述目标音频信息的特征信息。音频信息是指自然界中各种音源发出的可闻声和由计算机通过专门设备合成的语音或音乐,上述目标音频信息可以是待分割的音频信息,待分割的音频信息可以是音频长度大于预设长度阈值的音频信息,可以是存在于预先建立的音频信息库中的音频信息。上述特征信息可以包括声音特征信息,上述声音特征信息可以包括响度、音调和音色等。响度也可以称为音量,是指声音的响亮程度,响度的大小取决于声源的振幅,振幅越大响度越大。音调主要由声音的频率决定,同时也与声音强度有关,对于一定强度的纯音,音调随频率的升降而升降;对于一定频率的纯音,低频纯音的音调随声强增加而下降,高频纯音的音调却随强度增加而上升。音色是指声音的特性,主要由发声物体本身材料和结构等决定。
在本实施例中,上述电子设备可以利用声纹识别技术对上述目标音频信息进行声音特征信息提取,生成上述目标音频信息的声音特征信息。声纹(Voiceprint)是用电声学仪器显示的携带言语信息的声波频谱,声纹识别也可称为说话人识别,是一种通过声音判别说话人身份的技术。特征提取是声纹识别中的一个任务,特征提取是提取并选择对说话人的声纹具有可分性强、稳定性高等特性的声学或语言特征。利用声纹识别技术提取出声音特征信息可以包括:与人类的发音机制的解剖学结构有关的声学特征(如频谱、倒频谱、共振峰、基音、反射系数等等)、鼻音、带深呼吸音、沙哑音、笑声等;受社会经济状况、受教育水平、出生地等影响的语义、修辞、发音、言语习惯等;个人特点或受父母影响的韵律、节奏、速度、语调、音量等特征。从利用数学方法可以建模的角度出发,声纹自动识别模型目前可以使用的特征可以包括以下至少一项:声学特征(倒频谱);词法特征(说话人相关的词N-Gram(大词汇连续语音识别中常用的一种语言模型),音素N-Gram);韵律特征;语种、方言和口音信息。
需要说明的是,上述目标音频信息的特征信息可以是上述目标音频信息中每一帧音频的特征信息。
在本实施例中,上述电子设备在对上述目标音频信息进行分析之前,可以首先对上述目标音频信息进行去噪处理。
步骤202,基于特征信息,确定用于分割目标音频信息的至少一个分割点。
在本实施例中,若上述特征信息是上述电子设备利用声纹识别技术提取出的上述目标音频信息中的声纹特征信息,上述电子设备可以将声纹特征信息发生变化的至少一个转换点确定为用于分割上述目标音频信息的至少一个分割点。作为示例,若上述目标音频信息为访谈类节目的音频信息,上述电子设备可以利用声纹识别技术提取出上述访谈类节目的音频信息中每一音频帧的声纹特征信息,上述声纹特征信息可以用于区分访谈类节目中的至少一个主持人和至少一个嘉宾,上述电子设备可以通过确定声纹特征信息发生变换的至少一个转换点,确定用于分割至少一个主持人和至少一个嘉宾的音频信息的分割点。
在本实施例中,若上述电子设备利用语音识别技术提取出上述目标音频信息的音色信息之后,上述电子设备可以将音色信息发生变化的至少一个转换点确定为用于分割上述目标音频信息的至少一个分割点。作为示例,若上述目标音频信息为钢琴与小提琴经典名曲的合辑,上述电子设备可以利用语音识别技术提取出上述钢琴与小提琴经典名曲的合辑中每一音频帧的音色信息,上述电子设备可以通过确定音色信息发生变换的至少一个转换点,从而确定用于分割钢琴的音频信息与小提琴的音频信息的分割点。
需要说明的是,上述分割点可以是分割时间点,由于音频信息具有对应的音轨或进度条,音轨或进度条上通常显示有音频的时间信息;上述分割点也可以表征为两个相邻音频帧的中点。
在本实施例的一些可选的实现方式中,上述电子设备可以首先生成上述声音特征信息的特征向量;之后,可以将针对上述声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对上述目标音频信息的至少一个第一分割点。此处,上述第一分割点可以是分割时间点,例如,若分割时间点为2分20秒,则表征需要在上述目标音频信息的2分20秒处对上述目标音频信息进行分割。需要说明的是,第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。作为示例,第一分割点识别模型可以是技术人员基于对大量的特征向量和第一分割点的统计而预先制定的、存储有多个特征向量与第一分割点的对应关系的对应关系表。此处,由特征信息生成特征向量的方法是目前广泛研究和应用的公知技术,在此不再赘述。
上述电子设备可以预先按照以下步骤训练第一分割点识别模型:
首先,上述电子设备可以获取第一样本数据集合,其中,上述第一样本数据集合中的每个第一样本数据包括音频样本信息的声音特征信息、用于分割音频样本信息的至少一个第一分割点。
之后,针对上述第一样本数据集合中的每个第一样本数据,上述电子设备可以生成该第一样本数据中的音频样本信息的声音特征信息的特征向量。
最后,上述电子设备可以使用深度神经网络(Deep Neural Network,DNN)模型,将针对每个第一样本数据中的音频样本信息的声音特征信息所生成的特征向量作为输入,将该第一样本数据中的用于分割音频样本信息的至少一个第一分割点作为输出,利用机器学习方法,对该模型进行训练,得到第一分割点识别模型。
在本实施例的一些可选的实现方式中,上述特征信息还可以包括文本信息。上述电子设备可以利用语音识别技术将上述目标音频信息转换成文本信息。上述电子设备可以首先生成上述文本信息的特征向量;之后,可以将针对上述文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对上述目标音频信息的至少一个第二分割点。此处,上述第二分割点可以是分割时间点。需要说明的是,第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。作为示例,第二分割点识别模型可以是技术人员基于对大量的特征向量和第二分割点的统计而预先制定的、存储有多个特征向量与第二分割点的对应关系的对应关系表。此处,由文本信息生成特征向量的方法,以及利用语音识别技术将音频信息转换成文本信息的方法均是目前广泛研究和应用的公知技术,在此不再赘述。
上述电子设备可以预先按照以下步骤训练第二分割点识别模型:
首先,上述电子设备可以获取第二样本数据集合,其中,上述第二样本数据集合中的每个第二样本数据包括音频样本信息的文本信息、用于分割音频样本信息的至少一个第二分割点。
之后,针对上述第二样本数据集合中的每个第二样本数据,上述电子设备可以生成该第二样本数据中的音频样本信息的文本信息的特征向量。
最后,上述电子设备可以使用深度神经网络模型,将针对每个第二样本数据中的音频样本信息的文本信息所生成的特征向量作为输入,将该第二样本数据中的用于分割音频样本信息的至少一个第二分割点作为输出,利用机器学习方法,对该模型进行训练,得到第二分割点识别模型。
步骤203,按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
在本实施例中,在步骤202中确定出至少一个分割点之后,上述电子设备可以按照上述至少一个分割点对上述目标音频信息进行分割得到至少两个音频信息片段。若上述分割点为分割时间点,上述电子设备可以在上述目标音频信息对应的音轨或进度条上查找到上述至少一个分割时间点,并在查找到的分割时间点处对上述目标音频信息进行分割得到至少两个音频信息片段。若上述分割点表征为两个相邻音频帧的中点,上述电子设备可以在上述目标音频信息查找到上述两个相邻音频帧,并在上述两个相邻音频帧的中点处对上述目标音频信息进行分割得到至少两个音频信息片段。
继续参见图3,图3是根据本实施例的用于处理音频信息的方法的应用场景的一个示意图。在图3的应用场景中,服务器301首先对包含钢琴、小提琴与古筝经典名曲的目标音频信息302进行分析,生成目标音频信息302的特征信息303,特征信息303包括每一音频帧的音色信息;之后,服务器301确定出音色信息在第3分10秒和第7分37秒处发生变化,则可以将3分10秒和7分37秒这两个时间点确定为用于分割目标音频信息302的两个分割点304;最后,服务器301可以在目标音频信息302所对应音轨的3分10秒和7分37秒处分别对目标音频信息302进行分割,得到A音频信息片段3051、B音频信息片段3052和C音频信息片段3053。
本申请的上述实施例提供的方法通过基于从目标音频信息中提取出的特征信息,对目标音频信息进行切分,提高了音频信息分割的准确性。
进一步参考图4,其示出了用于处理音频信息的方法的又一个实施例的流程400。该用于处理音频信息的方法的流程400,包括以下步骤:
步骤401,对目标音频信息进行分析,生成目标音频信息的特征信息。
在本实施例中,用于处理音频信息的方法运行于其上的电子设备(例如图1所示的服务器)可以对目标音频信息进行分析,以生成上述目标音频信息的特征信息。上述特征信息可以包括声音特征信息,上述声音特征信息可以包括响度、音调和音色等。上述特征信息还可以包括文本信息,上述电子设备可以利用语音识别技术将上述目标音频信息转换成文本信息。此处,利用语音识别技术将音频信息转换成文本信息的方法是目前广泛研究和应用的公知技术,在此不再赘述。
在本实施例中,上述电子设备可以利用MFCC(Mel-Frequency CepstralCoefficients,梅尔频率倒谱系数)特征提取的方法,提取上述目标音频信息的特征信息,MFCC是一种在自动语音和说话人识别中广泛使用的特征。上述电子设备可以通过如下步骤提取上述目标音频信息的MFCC特征:首先,可以对上述目标音频信息进行预处理,例如,预加重(加强语音信号性能(性噪比、处理精度等))、分帧和加时间窗等处理;之后,针对每个短时分析窗,可以通过FFT(Fast Fourier Transformation,离散傅氏变换的快速算法)得到该短时分析窗对应的频谱;而后,将每个短时分析窗对应的频谱通过Mel滤波器组得到Mel频谱;最后,在Mel频谱上进行倒谱分析,获取Mel频谱倒谱系数MFCC,该MFCC就是这帧音频信息的声音特征。
步骤402,基于特征信息,确定用于分割目标音频信息的至少一个分割点。
在本实施例中,上述电子设备可以首先建立上述文本信息与上述目标音频信息的音轨或进度条之间的对应关系。上述电子设备可以在预先建立的分割字符库中查找存在于上述目标音频信息中分割字符,上述分割字符通常为常见的片段分割点语句,例如,开头描述语句和结尾描述语句等,在以演讲为应用场景的音频信息中,常见的开头描述语句可以为“那接下来我们来讲”,常见的片段分割点语句可以为“举个例子”。上述电子设备可以将查找到的分割字符之前或之后的字符所对应于音轨或进度条上的时间点确定为分割时间点,用以分割包含分割字符的音频片段和分割字符之前或之后的音频片段。
在本实施例中,上述电子设备可以对上述文本信息进行切词,并删除切词得到的词语集合中的停用词,生成关键词集合;之后,可以将上述关键词集合划分成至少一个关键词子集合,其中,每个关键词子集合包含相同的关键词;而后,针对每个关键词子集合,确定该关键词子集合中的各个关键词所对应的时间点,若该关键词子集合中的关键词出现在预设时间段内的比例大于预设的比例阈值,则可以将该时间段的起始时间点和结束时间点分别确定为分割点。作为示例,若关键词子集合中包括10个词语“卢浮宫”,在03:00到06:05的时间段内“卢浮宫”在上述目标音频信息出现了9次,且“卢浮宫”在03:00到06:05的时间段内出现的比例0.9大于预设的比例阈值0.7,则可以将03:00到06:05的时间段的起始时间点03:00和结束时间点06:05分别确定为对上述目标音频信息进行分割的分割时间点。
步骤403,按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
在本实施例中,步骤403的操作与步骤203的操作基本相同,在此不再赘述。
步骤404,针对至少两个音频信息片段中的每个音频信息片段,对该音频信息片段对应的文本信息进行分析得到文本关键内容,并基于文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息。
在本实施例中,针对在步骤403中分割得到的至少两个音频信息片段中的每个音频信息片段,上述电子设备可以对该音频信息片段对应的文本信息进行分析得到文本关键内容。上述电子设备可以利用TF-IDF(Term Frequency–Inverse Document Frequency,词频-逆向文件频率)、LDA(Latent Dirichlet Allocation,文档主题生成模型)和word2Vec等方法进行文本分析从而提取出文本关键内容。TF-IDF用以评估一个字词对于一个文件集或一个语料库中的其中一份文件的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。LDA是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。所谓生成模型,通常是指一篇文章的每个词都是通过“以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语”这样一个过程得到。word2vec也叫word embeddings(词向量),是将自然语言中的字词转为计算机可以理解的稠密向量(Dense Vector)。上述文本关键内容可以包括文本关键字,也可以包括由文本关键字组成的对文本内容进行概括性描述的描述信息。
在本实施例中,上述电子设备可以基于上述文本关键内容,生成该音频信息片段的标签信息。具体地,若上述文本关键内容包括文本关键字,上述电子设备可以将文本关键字添加到该音频信息片段的标签信息中;若上述文本关键内容包括由文本关键字组成的对文本内容进行概括性描述的描述信息,上述电子设备可以将上述描述信息添加到该音频信息片段的标签信息中。
在本实施例的一些可选的实现方式中,上述电子设备可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄;最后,上述电子设备可以生成与上述年龄相关的第一标签信息,上述电子设备中可以存储有年龄与标签信息之间的对应关系表,可以在上述年龄与标签信息之间的对应关系表中查找与上述年龄对应的标签信息作为第一标签信息。例如,若上述年龄为5-10岁,生成的第一标签信息可以包括“童声”、“可爱”、“软萌”等等。此处,说话人的年龄可以为年龄所处的年龄段。需要说明的是,年龄识别模型可以用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的年龄之间的对应关系。作为示例,年龄识别模型可以是技术人员基于对大量的由声音特征信息所生成的特征向量和声音特征信息所指示的说话人的年龄的统计而预先制定的、存储有多个特征向量与年龄的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储至上述电子设备中的、对由声音特征信息所生成的特征向量中的一个或多个数值进行数值计算以得到用于表征年龄的计算结果的计算公式。
上述电子设备可以预先按照以下步骤训练年龄识别模型:
首先,上述电子设备可以获取第三样本数据集合,其中,上述第三样本数据集合中的每个第三样本数据包括音频样本信息的声音特征信息和声音特征信息所指示的说话人的年龄。
之后,针对上述第三样本数据集合中的每个第三样本数据,上述电子设备可以生成该第三样本数据中的音频样本信息的声音特征信息的特征向量。
最后,上述电子设备可以使用朴素贝叶斯模型(Naive Bayesian Model,NBM)或支持向量机(Support Vector Machine,SVM)或深度神经网络等用于分类的模型,将针对每个第三样本数据中的音频样本信息的声音特征信息所生成的特征向量作为输入,将该第三样本数据中的声音特征信息所指示的说话人的年龄作为输出,利用机器学习方法,对该模型进行训练,得到年龄识别模型。
在本实施例的一些可选的实现方式中,上述电子设备可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别;最后,上述电子设备可以生成与上述性别相关的第二标签信息,上述电子设备中可以存储有性别与标签信息之间的对应关系表,可以在上述性别与标签信息之间的对应关系表中查找与上述性别对应的标签信息作为第二标签信息。例如,若上述性别为男,生成的第二标签信息可以包括“男声”、“磁性”、“低沉”等等;若上述性别为女,生成的第二标签信息可以包括“女声”、“甜美”等等。需要说明的是,性别识别模型可以用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的性别之间的对应关系。作为示例,性别识别模型可以是技术人员基于对大量的由声音特征信息所生成的特征向量和声音特征信息所指示的说话人的性别的统计而预先制定的、存储有多个特征向量与性别的对应关系的对应关系表。
上述电子设备可以预先按照以下步骤训练性别识别模型:
首先,上述电子设备可以获取第四样本数据集合,其中,上述第四样本数据集合中的每个第四样本数据包括音频样本信息的声音特征信息和声音特征信息所指示的说话人的性别。
之后,针对上述第四样本数据集合中的每个第四样本数据,上述电子设备可以生成该第四样本数据中的音频样本信息的声音特征信息的特征向量。
最后,上述电子设备可以使用朴素贝叶斯模型或支持向量机或深度神经网络等用于分类的模型,将针对每个第四样本数据中的音频样本信息的声音特征信息所生成的特征向量作为输入,将该第四样本数据中的声音特征信息所指示的说话人的性别作为输出,利用机器学习方法,对该模型进行训练,得到性别识别模型。
在本实施例的一些可选的实现方式中,上述电子设备可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息;最后,上述电子设备可以生成与上述情绪信息相关的第三标签信息,上述电子设备中可以存储有情绪信息与标签信息之间的对应关系表,可以在上述情绪信息与标签信息之间的对应关系表中查找与上述情绪信息对应的标签信息作为第三标签信息。情绪信息可以包括但不限于以下至少一项:高兴、伤心和愤怒。例如,若上述情绪信息为高兴,生成的第三标签信息可以包括“喜悦”、“高兴”、“开心”等等;若上述情绪信息为伤心,生成的第三标签信息可以包括“哀伤”、“伤感”等等。需要说明的是,情绪识别模型可以用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的情绪信息之间的对应关系。作为示例,情绪识别模型可以是技术人员基于对大量的由声音特征信息所生成的特征向量和声音特征信息所指示的说话人的情绪信息的统计而预先制定的、存储有多个特征向量与情绪信息的对应关系的对应关系表。
上述电子设备可以预先按照以下步骤训练情绪识别模型:
首先,上述电子设备可以获取第五样本数据集合,其中,上述第五样本数据集合中的每个第五样本数据包括音频样本信息的声音特征信息和声音特征信息所指示的说话人的情绪信息。
之后,针对上述第五样本数据集合中的每个第五样本数据,上述电子设备可以生成该第五样本数据中的音频样本信息的声音特征信息的特征向量。
最后,上述电子设备可以使用朴素贝叶斯模型或支持向量机或深度神经网络等用于分类的模型,将针对每个第五样本数据中的音频样本信息的声音特征信息所生成的特征向量作为输入,将该第五样本数据中的声音特征信息所指示的说话人的情绪信息作为输出,利用机器学习方法,对该模型进行训练,得到情绪识别模型。
在本实施例的一些可选的实现方式中,上述电子设备可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型;最后,上述电子设备可以生成与上述声音类型相关的第四标签信息,上述电子设备中可以存储有声音类型与标签信息之间的对应关系表,可以在上述声音类型与标签信息之间的对应关系表中查找与上述声音类型对应的标签信息作为第四标签信息。声音类型可以包括但不限于以下至少一项:清脆、沙哑、醇厚。例如,若上述声音类型为沙哑,生成的第四标签信息可以包括“低沉”、“沙哑”等等。需要说明的是,声音类型识别模型可以用于表征由声音特征信息所生成的特征向量与声音类型之间的对应关系。作为示例,声音类型识别模型可以是技术人员基于对大量的由声音特征信息所生成的特征向量和声音类型的统计而预先制定的、存储有多个特征向量与声音类型的对应关系的对应关系表。
上述电子设备可以预先按照以下步骤训练声音类型识别模型:
首先,上述电子设备可以获取第六样本数据集合,其中,上述第六样本数据集合中的每个第六样本数据包括音频样本信息的声音特征信息和声音特征信息对应的声音类型。
之后,针对上述第六样本数据集合中的每个第六样本数据,上述电子设备可以生成该第六样本数据中的音频样本信息的声音特征信息的特征向量。
最后,上述电子设备可以使用朴素贝叶斯模型或支持向量机或深度神经网络等用于分类的模型,将针对每个第六样本数据中的音频样本信息的声音特征信息所生成的特征向量作为输入,将该第六样本数据中的声音特征信息对应的声音类型作为输出,利用机器学习方法,对该模型进行训练,得到声音类型识别模型。
步骤405,基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。
在本实施例中,上述电子设备可以基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。上述电子设备可以提取使用目标用户终端进行操作的用户的用户画像信息,确定用户的用户画像信息与每个音频信息片段的标签信息之间的匹配度,并选取用户画像信息与标签信息之间的匹配度大于预设的匹配度阈值的标签信息对应的音频信息片段,最后可以向上述目标用户终端推送选取出的音频信息片段。作为示例,若用户画像信息为宅男、动漫和游戏,上述电子设备可以向上述目标用户终端推送标签信息为“游戏”、“萌妹子”、“动漫”的音频信息片段。
在本实施例的一些可选的实现方式中,上述电子设备可以首先获取利用目标用户终端进行搜索的用户所输入的搜索信息,其中,上述目标用户终端可以是安装了目标应用的用户终端,上述目标应用可以是上述电子设备为其提供后台服务的应用;之后,可以确定上述搜索信息与每个音频信息片段的标签信息之间的第二匹配度,上述电子设备可以利用基于语义词典的词语相似度计算方法、基于语料统计的词语相似度计算方法等确定搜索信息与标签信息之间的匹配度;最后,上述电子设备可以按照第二匹配度由大到小的顺序选取预设数目个(例如,3个)音频信息片段,并可以向上述目标用户终端推送选取出的音频信息片段。作为示例,若上述目标音频信息为“红楼梦有声小说音频信息”,上述目标用户终端中的搜索信息包括“林黛玉进贾府”,上述电子设备可以确定搜索信息“林黛玉”与每个音频信息片段的标签信息的第二匹配度,并按照第二匹配度由大到小的顺序选取两个音频信息片段“林黛玉外貌描述片段”和“林妹妹进贾府片段节选”,并向上述目标用户终端推送选取出的上述两个音频信息片段。
在本实施例的一些可选的实现方式中,上述电子设备可以首先在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,上述音频信息推荐表用于表征时间段与标签信息之间的对应关系;之后,可以确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度,上述电子设备可以利用基于语义词典的词语相似度计算方法、基于语料统计的词语相似度计算方法等确定搜索信息与标签信息之间的匹配度;最后,上述电子设备可以向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。作为示例,若上述目标音频信息为“经典音乐集锦”,当前时间段为21点到23点之间,上述电子设备可以在上述音频信息推荐表中获取与21点到23点之间的时间段相对应的标签信息为“安静”、“动听”等,上述电子设备可以在分割出的至少两个音频信息片段中查找与标签信息“安静”、“动听”的第三匹配度大于上述第二匹配度阈值的标签信息所对应的音频信息片段为“钢琴曲reason”、“民谣歌曲片段”等,并向用户终端推送。
在本实施例的一些可选的实现方式中,上述电子设备可以利用文本转语音技术(TTS,Text To Speech)将上述文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息。使用文本转语音技术,上述电子设备可以将文本信息转换成自然语言进行输出,并在转换过程中对该音频信息片段中的声音进行拟合,使得转换得到的关键音频信息的声音类型与该音频信息片段对应的声音特征信息所指示的声音特征相似。作为示例,若上述文本关键内容为“林妹妹进贾府”,该音频信息片段对应的声音特征信息所指示的声音特征为清脆,上述电子设备可以将文本信息“林妹妹进贾府”转换成语音信息,并且转换成的语音信息的声音类型为清脆。此处,利用文本转语音技术将文本信息转换成语音信息的方法是目前广泛研究和应用的公知技术,在此不再赘述。
之后,上述电子设备可以将上述关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。上述预设位置可以为该音频信息片段的起始位置、结尾位置或者音频中间的任意位置。
需要说明的是,为了使得用户更好地理解音频信息片段的内容,保证从目标音频信息提取出的音频信息片段的独立性,可以将上述文本关键内容与一些概括性的、承上启下的过渡文本内容进行融合,之后,再利用文本转语音技术将融合后的文本信息转换成语音信息。上述过渡文本内容通常为常用的开头或结尾的描述语句。作为示例,若上述文本关键内容为“红楼梦”和“林妹妹进贾府”,上述电子设备可以将上述文本关键内容“红楼梦”、“林妹妹进贾府”和过渡文本内容进行融合生成融合后的文本信息为“热门大戏《红楼梦》中林妹妹进贾府的片段精选”。
在本实施例的一些可选的实现方式中,上述电子设备可以首先获取候选音频信息片段集合,候选音频信息片段可以是电子设备对至少一个目标音频信息进行分割所得到的音频信息片段;之后,针对上述候选音频信息片段集合中的每个音频信息片段,上述电子设备可以确定该音频信息片段的标签信息与上述候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度,上述电子设备可以利用基于语义词典的词语相似度计算方法、基于语料统计的词语相似度计算方法等确定标签信息与标签信息之间的第一匹配度;最后,可以将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。通过这种方式可以将内容相似的音频信息片段进行合并,从而可以增加音频信息的内容量。作为示例,若上述候选音频信息片段集合中包括多个标签信息为“林黛玉”、“外貌描写”的音频信息片段,上述电子设备可以将上述多个标签信息为“林黛玉”、“外貌描写”的音频信息片段进行合并,生成合并后的对林黛玉的外貌描写的音频信息片段。上述电子设备还可以在合并后的对林黛玉的外貌描写的音频信息片段的开头增加“《红楼梦》中对林黛玉的外貌描写”,以减小多音频信息片段所合成的音频信息的突兀感。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于处理音频信息的方法的流程400突出了生成各个音频信息片段的标签信息的步骤以及向目标用户终端推送音频信息片段的步骤。由此,本实施例描述的方案实现了更准确的标签信息生成和更有针对性的信息推送。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于处理音频信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于处理音频信息的装置500包括:第一生成单元501、确定单元502和分割单元503。其中,第一生成单元501配置用于对目标音频信息进行分析,生成目标音频信息的特征信息,其中,特征信息包括声音特征信息;确定单元502配置用于基于特征信息,确定用于分割目标音频信息的至少一个分割点;分割单元503配置用于按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
在本实施例中,用于处理音频信息的装置500的第一生成单元501、确定单元502和分割单元503的具体处理可以参考图2对应实施例中的步骤201、步骤202和步骤203。
在本实施例的一些可选的实现方式中,上述特征信息还可以包括文本信息。上述用于处理音频信息的装置500还可以包括第二生成单元(图中未示出)。针对上述至少两个音频信息片段中的每个音频信息片段,上述第二生成单元可以对该音频信息片段对应的文本信息进行分析得到文本关键内容。上述第二生成单元可以基于上述文本关键内容,生成该音频信息片段的标签信息。具体地,若上述文本关键内容包括文本关键字,上述第二生成单元可以将文本关键字添加到该音频信息片段的标签信息中;若上述文本关键内容包括由文本关键字组成的对文本内容进行概括性描述的描述信息,上述第二生成单元可以将上述描述信息添加到该音频信息片段的标签信息中。
在本实施例的一些可选的实现方式中,上述用于处理音频信息的装置500还可以包括添加单元(图中未示出)。上述添加单元可以利用文本转语音技术将上述文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息。之后,上述添加单元可以将上述关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。上述预设位置可以为该音频信息片段的起始位置、结尾位置或者音频中间的任意位置。
在本实施例的一些可选的实现方式中,上述用于处理音频信息的装置500还可以包括获取单元(图中未示出)和第三生成单元(图中未示出)。上述获取单元可以首先获取候选音频信息片段集合;之后,针对上述候选音频信息片段集合中的每个音频信息片段,上述第三生成单元可以确定该音频信息片段的标签信息与上述候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度;最后,上述第三生成单元可以将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。通过这种方式可以将内容相似的音频信息片段进行合并,从而可以增加音频信息的内容量。
在本实施例的一些可选的实现方式中,上述用于处理音频信息的装置500还可以包括推送单元(图中未示出)。上述推送单元可以基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。上述推送单元可以提取使用目标用户终端进行操作的用户的用户画像信息,确定用户的用户画像信息与每个音频信息片段的标签信息之间的匹配度,并选取用户画像信息与标签信息之间的匹配度大于预设的匹配度阈值的标签信息对应的音频信息片段,最后可以向上述目标用户终端推送选取出的音频信息片段。
在本实施例的一些可选的实现方式中,上述推送单元可以包括第一获取模块(图中未示出)、第一确定模块(图中未示出)和第一推送模块(图中未示出)。上述第一获取模块可以首先获取利用目标用户终端进行搜索的用户所输入的搜索信息,其中,上述目标用户终端可以是安装了目标应用的用户终端;之后,上述第一确定模块可以确定上述搜索信息与每个音频信息片段的标签信息之间的第二匹配度;最后,上述第一推送模块可以按照第二匹配度由大到小的顺序选取预设数目个音频信息片段,并可以向上述目标用户终端推送选取出的音频信息片段。
在本实施例的一些可选的实现方式中,上述推送单元可以包括第二获取模块(图中未示出)、第二确定模块(图中未示出)和第二推送模块(图中未示出)。上述第二获取模块可以首先在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,上述音频信息推荐表用于表征时间段与标签信息之间的对应关系;之后,上述第二确定模块可以确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度;最后,上述第二推送模块可以向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。
在本实施例的一些可选的实现方式中,上述确定单元502可以首先生成上述声音特征信息的特征向量;之后,上述确定单元502可以将针对上述声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对上述目标音频信息的至少一个第一分割点。此处,上述第一分割点可以是分割时间点。需要说明的是,第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。
在本实施例的一些可选的实现方式中,上述特征信息还可以包括文本信息。上述确定单元502可以首先生成上述文本信息的特征向量;之后,上述确定单元502可以将针对上述文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对上述目标音频信息的至少一个第二分割点。此处,上述第二分割点可以是分割时间点。需要说明的是,第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。
在本实施例的一些可选的实现方式中,上述第二生成单元可以包括第一输入模块(图中未示出)和第一生成模块(图中未示出)。上述第一输入模块可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄;最后,上述第一生成模块可以生成与上述年龄相关的第一标签信息,上述第一生成模块中可以存储有年龄与标签信息之间的对应关系表,可以在上述年龄与标签信息之间的对应关系表中查找与上述年龄对应的标签信息作为第一标签信息。
在本实施例的一些可选的实现方式中,上述第二生成单元可以包括第二输入模块(图中未示出)和第二生成模块(图中未示出)。上述第二输入模块可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,上述第二输入模块可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别;最后,上述第二生成模块可以生成与上述性别相关的第二标签信息,上述第二生成模块中可以存储有性别与标签信息之间的对应关系表,可以在上述性别与标签信息之间的对应关系表中查找与上述性别对应的标签信息作为第二标签信息。
在本实施例的一些可选的实现方式中,上述第二生成单元可以包括第三输入模块(图中未示出)和第三生成模块(图中未示出)。上述第三输入模块可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,上述第三输入模块可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息;最后,上述第三生成模块可以生成与上述情绪信息相关的第三标签信息,上述第三生成模块中可以存储有情绪信息与标签信息之间的对应关系表,可以在上述情绪信息与标签信息之间的对应关系表中查找与上述情绪信息对应的标签信息作为第三标签信息。
在本实施例的一些可选的实现方式中,上述第二生成单元可以包括第四输入模块(图中未示出)和第四生成模块(图中未示出)。上述第四输入模块可以首先生成该音频信息片段对应的声音特征信息的特征向量;之后,上述第四输入模块可以将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型;最后,上述第四生成模块可以生成与上述声音类型相关的第四标签信息,上述第四生成模块中可以存储有声音类型与标签信息之间的对应关系表,可以在上述声音类型与标签信息之间的对应关系表中查找与上述声音类型对应的标签信息作为第四标签信息。
下面参考图6,其示出了适于用来实现本发明实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如液晶显示器(LCD)以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一生成单元、确定单元和分割单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。例如,第一生成单元还可以被描述为“对目标音频信息进行分析,生成目标音频信息的特征信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:对目标音频信息进行分析,生成目标音频信息的特征信息,其中,特征信息包括声音特征信息;基于特征信息,确定用于分割目标音频信息的至少一个分割点;按照至少一个分割点对目标音频信息进行分割得到至少两个音频信息片段。
以上描述仅为本发明的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (28)
1.一种用于处理音频信息的方法,包括:
对目标音频信息进行分析,生成所述目标音频信息的特征信息,其中,所述特征信息包括声音特征信息;
基于所述特征信息,确定用于分割所述目标音频信息的至少一个分割点;
按照所述至少一个分割点对所述目标音频信息进行分割得到至少两个音频信息片段。
2.根据权利要求1所述的方法,其中,所述特征信息还包括文本信息;以及
所述方法还包括:
针对所述至少两个音频信息片段中的每个音频信息片段,对该音频信息片段对应的文本信息进行分析得到文本关键内容,并基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息。
3.根据权利要求2所述的方法,其中,在所述对该音频信息片段对应的文本信息进行分析得到文本关键内容之后,所述方法还包括:
利用文本转语音技术将所述文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息,并将所述关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。
4.根据权利要求2所述的方法,其中,所述方法还包括:
获取候选音频信息片段集合;
针对所述候选音频信息片段集合中的每个音频信息片段,确定该音频信息片段的标签信息与所述候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度,并将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。
5.根据权利要求2所述的方法,其中,所述方法还包括:
基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。
6.根据权利要求5所述的方法,其中,所述基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段,包括:
获取利用目标用户终端进行搜索的用户所输入的搜索信息;
确定所述搜索信息与每个音频信息片段的标签信息之间的第二匹配度;
按照第二匹配度由大到小的顺序选取预设数目个音频信息片段,并向所述目标用户终端推送选取出的音频信息片段。
7.根据权利要求5所述的方法,其中,所述基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段,包括:
在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,所述音频信息推荐表用于表征时间段与标签信息之间的对应关系;
确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度;
向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。
8.根据权利要求1所述的方法,其中,所述基于所述特征信息,确定用于分割所述目标音频信息的至少一个分割点,包括:
生成所述声音特征信息的特征向量,并将针对所述声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对所述目标音频信息的至少一个第一分割点,其中,所述第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。
9.根据权利要求1或8所述的方法,其中,所述特征信息还包括文本信息;以及
所述基于所述特征信息,确定用于分割所述目标音频信息的至少一个分割点,包括:
生成所述文本信息的特征向量,并将针对所述文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对所述目标音频信息的至少一个第二分割点,其中,所述第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。
10.根据权利要求2所述的方法,其中,所述基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:
生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄,其中,所述年龄识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的年龄之间的对应关系;
生成与所述年龄相关的第一标签信息。
11.根据权利要求2所述的方法,其中,所述基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:
生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别,其中,所述性别识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的性别之间的对应关系;
生成与所述性别相关的第二标签信息。
12.根据权利要求2所述的方法,其中,所述基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:
生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息,其中,所述情绪识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的情绪信息之间的对应关系;
生成与所述情绪信息相关的第三标签信息。
13.根据权利要求2或10-12之一所述的方法,其中,所述基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息,包括:
生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型,其中,所述声音类型识别模型用于表征由声音特征信息所生成的特征向量与声音类型之间的对应关系;
生成与所述声音类型相关的第四标签信息。
14.一种用于处理音频信息的装置,包括:
第一生成单元,配置用于对目标音频信息进行分析,生成所述目标音频信息的特征信息,其中,所述特征信息包括声音特征信息;
确定单元,配置用于基于所述特征信息,确定用于分割所述目标音频信息的至少一个分割点;
分割单元,配置用于按照所述至少一个分割点对所述目标音频信息进行分割得到至少两个音频信息片段。
15.根据权利要求14所述的装置,其中,所述特征信息还包括文本信息;以及
所述装置还包括:
第二生成单元,配置用于针对所述至少两个音频信息片段中的每个音频信息片段,对该音频信息片段对应的文本信息进行分析得到文本关键内容,并基于所述文本关键内容和/或该音频信息片段对应的声音特征信息,生成该音频信息片段的标签信息。
16.根据权利要求15所述的装置,其中,所述装置还包括:
添加单元,配置用于利用文本转语音技术将所述文本关键内容转换成与该音频信息片段对应的声音特征信息所指示的声音特征相似的关键音频信息,并将所述关键音频信息添加到该音频信息片段的预设位置中生成添加后的音频信息片段。
17.根据权利要求15所述的装置,其中,所述装置还包括:
获取单元,配置用于获取候选音频信息片段集合;
第三生成单元,配置用于针对所述候选音频信息片段集合中的每个音频信息片段,确定该音频信息片段的标签信息与所述候选音频信息片段集合中除该音频信息片段之外的其它音频信息片段的标签信息之间的第一匹配度,并将第一匹配度大于预设的第一匹配度阈值的标签信息对应的音频信息片段与该音频信息片段进行合并,生成合并后的音频信息片段。
18.根据权利要求15所述的装置,其中,所述装置还包括:
推送单元,配置用于基于每个音频信息片段的标签信息,向目标用户终端推送音频信息片段。
19.根据权利要求18所述的装置,其中,所述推送单元,包括:
第一获取模块,配置用于获取利用目标用户终端进行搜索的用户所输入的搜索信息;
第一确定模块,配置用于确定所述搜索信息与每个音频信息片段的标签信息之间的第二匹配度;
第一推送模块,配置用于按照第二匹配度由大到小的顺序选取预设数目个音频信息片段,并向所述目标用户终端推送选取出的音频信息片段。
20.根据权利要求18所述的装置,其中,所述推送单元,包括:
第二获取模块,配置用于在预设的音频信息推荐表中获取与当前时间段对应的标签信息,其中,所述音频信息推荐表用于表征时间段与标签信息之间的对应关系;
第二确定模块,配置用于确定获取到的标签信息与每个音频信息片段的标签信息之间的第三匹配度;
第二推送模块,配置用于向目标用户终端推送第三匹配度大于预设的第二匹配度阈值的标签信息对应的音频信息片段。
21.根据权利要求14所述的装置,其中,所述确定单元进一步配置用于:
生成所述声音特征信息的特征向量,并将针对所述声音特征信息所生成的特征向量输入到预先训练的第一分割点识别模型中得到针对所述目标音频信息的至少一个第一分割点,其中,所述第一分割点识别模型用于表征由声音特征信息所生成的特征向量与第一分割点之间的对应关系。
22.根据权利要求14或21所述的装置,其中,所述特征信息还包括文本信息;以及
所述确定单元进一步配置用于:
生成所述文本信息的特征向量,并将针对所述文本信息所生成的特征向量输入到预先训练的第二分割点识别模型中得到针对所述目标音频信息的至少一个第二分割点,其中,所述第二分割点识别模型用于表征由文本信息所生成的特征向量与第二分割点之间的对应关系。
23.根据权利要求15所述的装置,其中,所述第二生成单元,包括:
第一输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的年龄识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的年龄,其中,所述年龄识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的年龄之间的对应关系;
第一生成模块,配置用于生成与所述年龄相关的第一标签信息。
24.根据权利要求15所述的装置,其中,所述第二生成单元,包括:
第二输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的性别识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的性别,其中,所述性别识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的性别之间的对应关系;
第二生成模块,配置用于生成与所述性别相关的第二标签信息。
25.根据权利要求15所述的装置,其中,所述第二生成单元,包括:
第三输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的情绪识别模型中得到该音频信息片段对应的声音特征信息所指示的说话人的情绪信息,其中,所述情绪识别模型用于表征由声音特征信息所生成的特征向量与声音特征信息所指示的说话人的情绪信息之间的对应关系;
第三生成模块,配置用于生成与所述情绪信息相关的第三标签信息。
26.根据权利要求15或23-25之一所述的装置,其中,所述第二生成单元,包括:
第四输入模块,配置用于生成该音频信息片段对应的声音特征信息的特征向量,将针对该音频信息片段对应的声音特征信息所生成的特征向量输入到预先训练的声音类型识别模型中得到该音频信息片段对应的声音类型,其中,所述声音类型识别模型用于表征由声音特征信息所生成的特征向量与声音类型之间的对应关系;
第四生成模块,配置用于生成与所述声音类型相关的第四标签信息。
27.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-13中任一所述的方法。
28.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-13中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711386445.8A CN108132995A (zh) | 2017-12-20 | 2017-12-20 | 用于处理音频信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711386445.8A CN108132995A (zh) | 2017-12-20 | 2017-12-20 | 用于处理音频信息的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108132995A true CN108132995A (zh) | 2018-06-08 |
Family
ID=62390861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711386445.8A Pending CN108132995A (zh) | 2017-12-20 | 2017-12-20 | 用于处理音频信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108132995A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109192198A (zh) * | 2018-09-06 | 2019-01-11 | 北京邮电大学 | 一种基于声波感知的文本输入方法 |
CN109408717A (zh) * | 2018-10-23 | 2019-03-01 | 广东小天才科技有限公司 | 一种内容推荐方法及系统 |
CN109743624A (zh) * | 2018-12-14 | 2019-05-10 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
CN109754808A (zh) * | 2018-12-13 | 2019-05-14 | 平安科技(深圳)有限公司 | 语音转换文字的方法、装置、计算机设备及存储介质 |
CN109889882A (zh) * | 2019-01-24 | 2019-06-14 | 北京亿幕信息技术有限公司 | 一种视频剪辑合成方法和系统 |
CN109902289A (zh) * | 2019-01-23 | 2019-06-18 | 汕头大学 | 一种面向模糊文本挖掘的新闻视频主题分割方法 |
CN110265024A (zh) * | 2019-05-20 | 2019-09-20 | 平安普惠企业管理有限公司 | 需求文档生成方法及相关设备 |
CN110322872A (zh) * | 2019-06-05 | 2019-10-11 | 平安科技(深圳)有限公司 | 会议语音数据处理方法、装置、计算机设备和存储介质 |
CN110368005A (zh) * | 2019-07-25 | 2019-10-25 | 深圳大学 | 一种智能耳机及基于智能耳机的情绪及生理健康监控方法 |
CN110782902A (zh) * | 2019-11-06 | 2020-02-11 | 北京远鉴信息技术有限公司 | 音频数据确定方法、装置、设备和介质 |
CN110992984A (zh) * | 2019-12-02 | 2020-04-10 | 新华智云科技有限公司 | 音频处理方法及装置、存储介质 |
CN111626061A (zh) * | 2020-05-27 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 会议记录生成方法、装置、设备及可读存储介质 |
CN111901627A (zh) * | 2020-05-28 | 2020-11-06 | 北京大米科技有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN112201275A (zh) * | 2020-10-09 | 2021-01-08 | 深圳前海微众银行股份有限公司 | 声纹分割方法、装置、设备及可读存储介质 |
CN112331223A (zh) * | 2020-11-09 | 2021-02-05 | 合肥名阳信息技术有限公司 | 一种给配音添加背景音乐的方法 |
CN112382273A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN112382297A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN113051426A (zh) * | 2021-03-18 | 2021-06-29 | 深圳市声扬科技有限公司 | 音频信息分类方法、装置、电子设备及存储介质 |
CN113157968A (zh) * | 2021-04-07 | 2021-07-23 | 腾讯音乐娱乐科技(深圳)有限公司 | 获取同旋律音频组方法、终端及存储介质 |
CN116028662A (zh) * | 2023-02-15 | 2023-04-28 | 武汉理工大学三亚科教创新园 | 基于无监督交互式对齐的海洋遥感图像音频检索方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076996A1 (en) * | 2005-03-24 | 2010-03-25 | The Mitre Corporation | System and method for audio hot spotting |
CN104750685A (zh) * | 2013-12-25 | 2015-07-01 | 上海博泰悦臻网络技术服务有限公司 | 车载系统的音乐推荐方法和装置 |
CN105161093A (zh) * | 2015-10-14 | 2015-12-16 | 科大讯飞股份有限公司 | 一种判断说话人数目的方法及系统 |
CN105761720A (zh) * | 2016-04-19 | 2016-07-13 | 北京地平线机器人技术研发有限公司 | 一种基于语音属性分类的交互系统及其方法 |
CN106446260A (zh) * | 2016-10-18 | 2017-02-22 | 刘洋 | 自学习音乐推送方法和系统 |
CN106952644A (zh) * | 2017-02-24 | 2017-07-14 | 华南理工大学 | 一种基于瓶颈特征的复杂音频分割聚类方法 |
CN107295149A (zh) * | 2016-03-30 | 2017-10-24 | 北京搜狗科技发展有限公司 | 一种陌生电话的处理方法和装置 |
CN107480152A (zh) * | 2016-06-08 | 2017-12-15 | 北京新岸线网络技术有限公司 | 一种音频分析及检索方法和系统 |
-
2017
- 2017-12-20 CN CN201711386445.8A patent/CN108132995A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100076996A1 (en) * | 2005-03-24 | 2010-03-25 | The Mitre Corporation | System and method for audio hot spotting |
CN104750685A (zh) * | 2013-12-25 | 2015-07-01 | 上海博泰悦臻网络技术服务有限公司 | 车载系统的音乐推荐方法和装置 |
CN105161093A (zh) * | 2015-10-14 | 2015-12-16 | 科大讯飞股份有限公司 | 一种判断说话人数目的方法及系统 |
CN107295149A (zh) * | 2016-03-30 | 2017-10-24 | 北京搜狗科技发展有限公司 | 一种陌生电话的处理方法和装置 |
CN105761720A (zh) * | 2016-04-19 | 2016-07-13 | 北京地平线机器人技术研发有限公司 | 一种基于语音属性分类的交互系统及其方法 |
CN107480152A (zh) * | 2016-06-08 | 2017-12-15 | 北京新岸线网络技术有限公司 | 一种音频分析及检索方法和系统 |
CN106446260A (zh) * | 2016-10-18 | 2017-02-22 | 刘洋 | 自学习音乐推送方法和系统 |
CN106952644A (zh) * | 2017-02-24 | 2017-07-14 | 华南理工大学 | 一种基于瓶颈特征的复杂音频分割聚类方法 |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109192198A (zh) * | 2018-09-06 | 2019-01-11 | 北京邮电大学 | 一种基于声波感知的文本输入方法 |
US11322142B2 (en) | 2018-09-06 | 2022-05-03 | Beijing University Of Posts And Telecommunications | Acoustic sensing-based text input method |
CN109192198B (zh) * | 2018-09-06 | 2020-08-07 | 北京邮电大学 | 一种基于声波感知的文本输入方法 |
CN109408717A (zh) * | 2018-10-23 | 2019-03-01 | 广东小天才科技有限公司 | 一种内容推荐方法及系统 |
CN109408717B (zh) * | 2018-10-23 | 2022-03-29 | 广东小天才科技有限公司 | 一种内容推荐方法及系统 |
CN109754808A (zh) * | 2018-12-13 | 2019-05-14 | 平安科技(深圳)有限公司 | 语音转换文字的方法、装置、计算机设备及存储介质 |
CN109754808B (zh) * | 2018-12-13 | 2024-02-13 | 平安科技(深圳)有限公司 | 语音转换文字的方法、装置、计算机设备及存储介质 |
CN109743624B (zh) * | 2018-12-14 | 2021-08-17 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
CN109743624A (zh) * | 2018-12-14 | 2019-05-10 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
CN109902289A (zh) * | 2019-01-23 | 2019-06-18 | 汕头大学 | 一种面向模糊文本挖掘的新闻视频主题分割方法 |
CN109889882A (zh) * | 2019-01-24 | 2019-06-14 | 北京亿幕信息技术有限公司 | 一种视频剪辑合成方法和系统 |
CN110265024A (zh) * | 2019-05-20 | 2019-09-20 | 平安普惠企业管理有限公司 | 需求文档生成方法及相关设备 |
CN110322872A (zh) * | 2019-06-05 | 2019-10-11 | 平安科技(深圳)有限公司 | 会议语音数据处理方法、装置、计算机设备和存储介质 |
CN110368005A (zh) * | 2019-07-25 | 2019-10-25 | 深圳大学 | 一种智能耳机及基于智能耳机的情绪及生理健康监控方法 |
CN110782902A (zh) * | 2019-11-06 | 2020-02-11 | 北京远鉴信息技术有限公司 | 音频数据确定方法、装置、设备和介质 |
CN110992984B (zh) * | 2019-12-02 | 2022-12-06 | 新华智云科技有限公司 | 音频处理方法及装置、存储介质 |
CN110992984A (zh) * | 2019-12-02 | 2020-04-10 | 新华智云科技有限公司 | 音频处理方法及装置、存储介质 |
CN111626061A (zh) * | 2020-05-27 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 会议记录生成方法、装置、设备及可读存储介质 |
CN111901627A (zh) * | 2020-05-28 | 2020-11-06 | 北京大米科技有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN111901627B (zh) * | 2020-05-28 | 2022-12-30 | 北京大米科技有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN112201275A (zh) * | 2020-10-09 | 2021-01-08 | 深圳前海微众银行股份有限公司 | 声纹分割方法、装置、设备及可读存储介质 |
CN112201275B (zh) * | 2020-10-09 | 2024-05-07 | 深圳前海微众银行股份有限公司 | 声纹分割方法、装置、设备及可读存储介质 |
CN112331223A (zh) * | 2020-11-09 | 2021-02-05 | 合肥名阳信息技术有限公司 | 一种给配音添加背景音乐的方法 |
CN112382297A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN112382273A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN113051426A (zh) * | 2021-03-18 | 2021-06-29 | 深圳市声扬科技有限公司 | 音频信息分类方法、装置、电子设备及存储介质 |
CN113157968A (zh) * | 2021-04-07 | 2021-07-23 | 腾讯音乐娱乐科技(深圳)有限公司 | 获取同旋律音频组方法、终端及存储介质 |
CN116028662A (zh) * | 2023-02-15 | 2023-04-28 | 武汉理工大学三亚科教创新园 | 基于无监督交互式对齐的海洋遥感图像音频检索方法 |
CN116028662B (zh) * | 2023-02-15 | 2023-06-13 | 武汉理工大学三亚科教创新园 | 基于无监督交互式对齐的海洋遥感图像音频检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108132995A (zh) | 用于处理音频信息的方法和装置 | |
Choi et al. | Neural analysis and synthesis: Reconstructing speech from self-supervised representations | |
CN108962219B (zh) | 用于处理文本的方法和装置 | |
Van Den Oord et al. | Wavenet: A generative model for raw audio | |
Ma et al. | Short utterance based speech language identification in intelligent vehicles with time-scale modifications and deep bottleneck features | |
Oord et al. | Wavenet: A generative model for raw audio | |
Martin et al. | Mothers speak less clearly to infants than to adults: A comprehensive test of the hyperarticulation hypothesis | |
CN110211565A (zh) | 方言识别方法、装置及计算机可读存储介质 | |
CN107707745A (zh) | 用于提取信息的方法和装置 | |
CN110246488A (zh) | 半优化CycleGAN模型的语音转换方法及装置 | |
Swain et al. | Study of feature combination using HMM and SVM for multilingual Odiya speech emotion recognition | |
Hemakumar et al. | Speech recognition technology: a survey on Indian languages | |
Pervaiz et al. | Emotion recognition from speech using prosodic and linguistic features | |
CN114927126A (zh) | 基于语义分析的方案输出方法、装置、设备以及存储介质 | |
Xin et al. | Laughter synthesis using pseudo phonetic tokens with a large-scale in-the-wild laughter corpus | |
Gupta et al. | An automatic speech recognition system in Indian and foreign languages: A state-of-the-art review analysis | |
Radha et al. | Towards modeling raw speech in gender identification of children using sincNet over ERB scale | |
Qadri et al. | Speech emotion recognition using feature fusion of TEO and MFCC on multilingual databases | |
Anil Kumar et al. | Emotion Recognition from Speech Biometric System Using Machine Learning Algorithms | |
Liu et al. | A New Speech Encoder Based on Dynamic Framing Approach. | |
Gharavian et al. | Combined classification method for prosodic stress recognition in Farsi language | |
Zhao et al. | Multi-speaker Chinese news broadcasting system based on improved Tacotron2 | |
Saad et al. | A Case Study on the Independence of Speech Emotion Recognition in Bangla and English Languages using Language-Independent Prosodic Features | |
Radzikowski et al. | Non-native speech recognition using audio style transfer | |
Weweler | Single-Speaker End-To-End Neural Text-To-Speech Synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |