CN109241312B - 旋律的填词方法、装置及终端设备 - Google Patents
旋律的填词方法、装置及终端设备 Download PDFInfo
- Publication number
- CN109241312B CN109241312B CN201810905480.4A CN201810905480A CN109241312B CN 109241312 B CN109241312 B CN 109241312B CN 201810905480 A CN201810905480 A CN 201810905480A CN 109241312 B CN109241312 B CN 109241312B
- Authority
- CN
- China
- Prior art keywords
- chinese character
- melody
- oscillogram
- split
- pronunciation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明公开了一种旋律的填词方法、装置及终端设备,包括:将待填词的旋律转换为声音波形图,并按照预设的频段时间,对声音波形图进行拆分,得到多个拆分波形图;依次将拆分的旋律声音波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得对应的汉字;按拆分顺序输出,得到拆分的声音向量旋律及汉字读音向量旋律对应的歌词。采用本发明,可根据现有的音乐旋律智能地生成与之匹配的歌词,降低了音乐创作门槛,且采用基于旋律与汉字读音的相似度进行歌词匹配,增强了旋律与歌词的关联性。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及旋律的填词方法、装置及终端设备。
背景技术
音乐,是用组织音构成的听觉意象,表达了人类的思想感情以及社会现实生活。随着时代的变迁和发展,音乐无时无刻地存在于人类工作、生活的方方面面,其中以“歌曲”的表达形式较为普遍。但由于音乐创作属于艺术创作类,具有较高的音乐素养,因此大部分人即使喜爱音乐,却无法进行音乐创作。
为解决以上问题,现有技术中,通常采用两种方式:一是用户手动上传旋律和歌词,然后整合成歌曲;二是用户手动上传旋律,系统基于旋律长短得出歌词的组成个数,然后在歌词库中随机提取满足个数范围的词语,最后整合成歌曲。但现有技术存在以下不足:歌词用户提供,而作词是一个专业性较强的行为,前提需要具有较高的音乐素养,因此无法解决根本问题;歌词随机生成,难以避免歌词与旋律风格不搭,难以营造歌曲意境的融合;歌词与旋律相互独立,两者之间缺乏关联性。
发明内容
本发明实施例所要解决的技术问题在于,提供旋律的填词方法、装置及终端设备,增强旋律与歌词的关联性。
为解决上述问题,本发明实施例提供一种旋律的填词方法,适于在计算设备中执行,至少包括如下步骤:
将待填词的旋律转换为声音波形图,并按照预设的频段时间,对所述声音波形图进行拆分,得到多个拆分波形图;
依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字;其中,所述汉字读音波形图数据库记录了所有汉字的汉字读音波形图;
将所有的所述拆分波形图和所有所述拆分波形图对应的汉字,按拆分顺序输出,得到所述旋律及所述旋律对应的歌词。
进一步的,所述汉字读音波形图数据库记录了第一汉字的汉字读音波形图;
所述第一汉字的汉字读音波形图由所述第一汉字的多个语种的音频文件转换而获得。
进一步的,所述第一汉字通过多渠道抓取的方式获得。
进一步的,所述依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字,具体为:
获取每个所述拆分波形图对应的频段向量,以及获取每个所述汉字读音波形图对应的汉字读音向量;
通过余弦相似度算法,分别计算每个所述频段向量与每个所述汉字读音向量的夹角余弦值大小;
将所述余弦值由大到小进行排列,得到与每个所述拆分波形图相似度最高的汉字作为对应的汉字。
进一步的,本发明的另一个实施例还提供了一种旋律的填词装置,包括:
旋律拆分模块,用于将待填词的旋律转换为声音波形图,并按照预设的频段时间,对所述声音波形图进行拆分,得到多个拆分波形图;
比较模块,用于依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字;其中,所述汉字读音波形图数据库记录了所有汉字的汉字读音波形图;
输出模块,将所有的所述拆分波形图和所有所述拆分波形图对应的汉字,按拆分顺序输出,得到所述旋律及所述旋律对应的歌词。
进一步的,所述汉字读音波形图数据库记录了第一汉字的汉字读音波形图;
所述第一汉字的汉字读音波形图由所述第一汉字的多个语种的音频文件转换而获得。
进一步的,还包括:
汉字获取模块,用于通过多渠道抓取的方式获取所述第一汉字。
进一步的,所述比较模块包括余弦计算单元;
所述余弦计算单元用于获取每个所述拆分波形图对应的频段向量,以及获取每个所述汉字读音波形图对应的汉字读音向量;
通过余弦相似度算法,分别计算每个所述频段向量与每个所述汉字读音向量的夹角余弦值大小;
将所述余弦值由大到小进行排列,得到与每个所述拆分波形图相似度最高的汉字作为对应的汉字。
进一步的,本发明的又一实施例还提供了一种旋律的填词终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述任一所述的填词方法。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种旋律的填词方法、装置及终端设备,所述方法包括:提取所有汉字,并将每个汉字转换成的汉字读音波形图与通过旋律转换成声音波形图后进行拆分得到的多个拆分波形图进行相似度比较,得到拆分波形图对应的汉字波形图,从而对波形图进行转换后得到完整的歌曲。采用本发明,可根据现有的音乐旋律智能地生成与之匹配的歌词,无需用户具备较高的音乐素养,降低了普罗大众的使用门槛,且采用基于旋律与汉字读音的相似度进行歌词匹配,增强了旋律与歌词的关联性。
附图说明
图1是本发明的一个实施例提供的旋律的填词方法的流程示意图;
图2是本发明的另一个实施例提供的旋律的填词方法的流程示意图;
图3是本发明的另一个实施例提供的旋律的填词方法的流程示意图;
图4是本发明的一个实施例提供的旋律的填词装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-3。
参见图1,是本发明的一个实施例提供的旋律的填词方法的流程示意图,包括:
S11,将待填词的旋律转换为声音波形图,并按照预设的频段时间,对声音波形图进行拆分,得到多个拆分波形图。
S12,依次将多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个拆分波形图对应的汉字。
需要说明的是,汉字读音波形图数据库记录了所有汉字的汉字读音波形图。
进一步的,汉字读音波形图数据库记录了第一汉字的汉字读音波形图,所述第一汉字的汉字读音波形图由第一汉字的多个语种的音频文件转换而获得。
进一步的,第一汉字通过多渠道抓取的方式获得。
具体的,在本实施例中,通过网页抓取等方式,提取所有汉字,并把每个汉字转换为粤语、国语、闽南语等多个语种的音频文件,并将所有的音频文件统一转换为汉字读音波形图,根据所有汉字读音波形图建立汉字读音波形图数据库。
S13,将所有的拆分波形图和所有拆分波形图对应的汉字,按拆分顺序输出,得到旋律及旋律对应的歌词。
对于步骤S11,在本实施例中,对于用户或系统提供的待填词的音乐旋律,将旋律转换为声音波形图,并基于设定的每个频段的时间将波形图拆分成多个拆分波形图,如将每个频段设置为2秒,则将旋律拆分成多个时间为2秒的拆分波形图。
对于步骤S12,具体的,获取每个拆分波形图对应的频段向量,以及获取每个汉字读音波形图对应的汉字读音向量。通过余弦相似度算法,分别计算每个所述频段向量与每个所述汉字读音向量的夹角余弦值大小。将余弦值由大到小进行排列,得到与每个拆分波形图相似度最高的汉字作为对应的汉字。
上述公式代表二维空间中,频段向量a的坐标是(x1,y1),汉字读音向量b的坐标是(x2,y2),cosθ是向量a、b的余弦值。其中,余弦值的取值范围是[-1,1],余弦值越趋近于1,代表两个向量的方向越接近,夹角越小。余弦值越趋近于-1,代表两个向量的方向越相反,夹角越大。余弦值接近于0,代表两个向量近乎于蒸饺,夹角近乎于垂直。
利用上述公式,可以得到n维空间的余弦值,具体表示为:
上述公式代表n维空间中,频段向量A=(A1,A2,…An),汉字读音向量B=(B1,B2,…Bn),其中Ai代表频段向量A中第i个子集,Bi代表汉字读音向量B中第i个子集。根据上述公式,计算每个拆分波形图与每个汉字读音波形图的余弦值大小后,以拆分波形图为基准,把余弦值由小到大进行排列,得出每个拆分波形图相似度最高的汉字。
对于步骤S13,在本实施例中,按照原先旋律将拆分波形图和汉字读音波形图进行转换后,先后输出所有拆分波形图对应的频段旋律和对应的汉字,使在旋律指定频段时间里显示对应的汉字,得到完整的旋律及对应的歌词。
本发明实施例提供一种填词方法,通过提取汉字并将汉字对应的多种音频文件转换为汉字读音波形图,与将旋律转换为声音波形图后进行拆分得到的多个拆分波形图进行相似度比较,得到拆分波形图对应的汉字读音波形图,从而对波形图进行转换后得到完整的歌曲。采用本发明,可根据现有的音乐旋律智能地生成与之匹配的歌词,无需用户具备较高的音乐素养,降低了普罗大众的使用门槛,满足了用户谱曲作词的创作需求。且采用基于旋律与汉字读音的相似度进行歌词匹配,增强了旋律与歌词的关联性。
参见图4,是本发明的一个实施例提供的旋律的填词装置的结构示意图,包括:
汉字提取模块101,用于通过多渠道抓取的方式获取所述第一汉字。
在本实施例中,汉字提取模块101通过网页抓取等方式,提取所有汉字,并把每个汉字转换为粤语、国语、闽南语等多个语种的音频文件,并将所有的音频文件统一转换为汉字读音波形图,根据所有汉字读音波形图建立汉字读音波形图数据库。
旋律拆分模块102,用于将待填词的旋律转换为声音波形图,并按照预设的频段时间,对声音波形图进行拆分,得到多个拆分波形图。
在本实施例中,旋律拆分模块102用于对于用户或系统提供的音乐旋律,将旋律转换为声音波形图,并基于设定的每个频段的时间将波形图拆分成多个拆分波形图,如将每个频段设置为2秒,则将旋律拆分成多个时间为2秒的拆分波形图。
比较模块103,用于依次将多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个拆分波形图对应的汉字。
具体的,比较模块103包括余弦计算单元201。余弦计算单元201用于通过余弦相似度算法,计算每个拆分波形图对应的频段向量与每个汉字读音波形图对应的汉字读音向量的夹角余弦值大小。将余弦值由大到小进行排列,得到拆分波形图相似度最高的汉字作为对应的汉字。
上述公式代表二维空间中,频段向量a的坐标是(x1,y1),汉字读音向量b的坐标是(x2,y2),cosθ是向量a、b的余弦值。其中,余弦值的取值范围是[-1,1],余弦值越趋近于1,代表两个向量的方向越接近,夹角越小。余弦值越趋近于-1,代表两个向量的方向越相反,夹角越大。余弦值接近于0,代表两个向量近乎于蒸饺,夹角近乎于垂直。
利用上述公式,可以得到n维空间的余弦值,具体表示为:
上述公式代表n维空间中,频段向量A=(A1,A2,…An),汉字读音向量B=(B1,B2,…Bn),其中Ai代表频段向量A中第i个子集,Bi代表汉字读音向量B中第i个子集。根据上述公式,计算每个拆分波形图与每个汉字读音波形图的余弦值大小后,以拆分波形图为基准,把余弦值由小到大进行排列,得出每个拆分波形图相似度最高的汉字。
输出模块104,用于将所有的拆分波形图和所有拆分波形图对应的汉字进行转换后,按拆分顺序输出,得到旋律及旋律对应的歌词。
在本实施例中,输出模块104用于按照原先旋律将拆分波形图和汉字读音波形图进行转换后,使在旋律指定频段时间里显示对应的汉字,得到完整的旋律及对应的歌词。
本发明实施例提供一种旋律的填词装置,通过提取汉字并将汉字对应的多种音频文件转换为汉字读音波形图,与将旋律转换为声音波形图后进行拆分得到的多个拆分波形图进行相似度比较,得到拆分波形图对应的汉字读音波形图,从而对波形图进行转换后得到完整的歌曲。采用本发明,可根据现有的音乐旋律智能地生成与之匹配的歌词,无需用户具备较高的音乐素养,降低了普罗大众的使用门槛,并提供多个语种,满足不同用户谱曲作词的创作需求。且采用基于旋律与汉字读音的相似度进行歌词匹配,增强了旋律与歌词的关联性。
本发明的又一实施例还提供了一种旋律的填词终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述的填词方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
Claims (9)
1.一种旋律的填词方法,其特征在于,至少包括如下步骤:
将待填词的旋律转换为声音波形图,并按照预设的频段时间,对所述声音波形图进行拆分,得到多个拆分波形图;
依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字;其中,所述汉字读音波形图数据库记录了所有汉字的汉字读音波形图;
将所有的所述拆分波形图和所有所述拆分波形图对应的汉字,按拆分顺序输出,得到所述旋律及所述旋律对应的歌词。
2.根据权利要求1所述的旋律的填词方法,其特征在于,所述汉字读音波形图数据库记录了第一汉字的汉字读音波形图;
所述第一汉字的汉字读音波形图由所述第一汉字的多个语种的音频文件转换而获得。
3.根据权利要求2所述的旋律的填词方法,其特征在于,所述第一汉字通过多渠道抓取的方式获得。
4.根据权利要求1所述的旋律的填词方法,其特征在于,所述依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字,具体为:
获取每个所述拆分波形图对应的频段向量,以及获取每个所述汉字读音波形图对应的汉字读音向量;
通过余弦相似度算法,分别计算每个所述频段向量与每个所述汉字读音向量的夹角余弦值大小;
将所述余弦值由大到小进行排列,得到与每个所述拆分波形图相似度最高的汉字作为对应的汉字。
5.一种旋律的填词设备,其特征在于,包括:
旋律拆分模块,用于将待填词的旋律转换为声音波形图,并按照预设的频段时间,对所述声音波形图进行拆分,得到多个拆分波形图;
比较模块,用于依次将所述多个拆分波形图与汉字读音波形图数据库中汉字读音波形图进行相似度比较,分别获得每个所述拆分波形图对应的汉字;其中,所述汉字读音波形图数据库记录了所有汉字的汉字读音波形图;
输出模块,将所有的所述拆分波形图和所有所述拆分波形图对应的汉字,按拆分顺序输出,得到所述旋律及所述旋律对应的歌词。
6.根据权利要求5所述的旋律的填词设备,其特征在于,所述汉字读音波形图数据库记录了第一汉字的汉字读音波形图;
所述第一汉字的汉字读音波形图由所述第一汉字的多个语种的音频文件转换而获得。
7.根据权利要求6所述的旋律的填词设备,其特征在于,还包括:
汉字获取模块,用于通过多渠道抓取的方式获取所述第一汉字。
8.根据权利要求5所述的旋律的填词设备,其特征在于,所述比较模块包括余弦计算单元;
所述余弦计算单元用于获取每个所述拆分波形图对应的频段向量,以及获取每个所述汉字读音波形图对应的汉字读音向量;
通过余弦相似度算法,分别计算每个所述频段向量与每个所述汉字读音向量的夹角余弦值大小;
将所述余弦值由大到小进行排列,得到与每个所述拆分波形图相似度最高的汉字作为对应的汉字。
9.一种旋律的填词终端设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的填词方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810905480.4A CN109241312B (zh) | 2018-08-09 | 2018-08-09 | 旋律的填词方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810905480.4A CN109241312B (zh) | 2018-08-09 | 2018-08-09 | 旋律的填词方法、装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241312A CN109241312A (zh) | 2019-01-18 |
CN109241312B true CN109241312B (zh) | 2021-08-31 |
Family
ID=65071474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810905480.4A Active CN109241312B (zh) | 2018-08-09 | 2018-08-09 | 旋律的填词方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241312B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106547789B (zh) * | 2015-09-22 | 2021-02-05 | 阿里巴巴集团控股有限公司 | 一种歌词生成方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101471068A (zh) * | 2007-12-26 | 2009-07-01 | 三星电子株式会社 | 通过哼唱音乐旋律搜索基于波形的音乐文件的方法和系统 |
CN102881309A (zh) * | 2012-09-24 | 2013-01-16 | 广东欧珀移动通信有限公司 | 歌词文件生成、校对方法及装置 |
CN104391980A (zh) * | 2014-12-08 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 生成歌曲的方法和装置 |
CN105893430A (zh) * | 2015-12-08 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 歌词匹配方法及装置 |
CN106202073A (zh) * | 2015-04-30 | 2016-12-07 | 中国电信股份有限公司 | 音乐推荐方法及系统 |
CN106547789A (zh) * | 2015-09-22 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 一种歌词生成方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5471858B2 (ja) * | 2009-07-02 | 2014-04-16 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
-
2018
- 2018-08-09 CN CN201810905480.4A patent/CN109241312B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101471068A (zh) * | 2007-12-26 | 2009-07-01 | 三星电子株式会社 | 通过哼唱音乐旋律搜索基于波形的音乐文件的方法和系统 |
CN102881309A (zh) * | 2012-09-24 | 2013-01-16 | 广东欧珀移动通信有限公司 | 歌词文件生成、校对方法及装置 |
CN104391980A (zh) * | 2014-12-08 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 生成歌曲的方法和装置 |
CN106202073A (zh) * | 2015-04-30 | 2016-12-07 | 中国电信股份有限公司 | 音乐推荐方法及系统 |
CN106547789A (zh) * | 2015-09-22 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 一种歌词生成方法及装置 |
CN105893430A (zh) * | 2015-12-08 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 歌词匹配方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109241312A (zh) | 2019-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976812B (zh) | 一种语音识别方法及其设备 | |
JP6238312B2 (ja) | テキストの音声化及び意味に基づくオーディオhip | |
CN111694940B (zh) | 一种用户报告的生成方法及终端设备 | |
CN112185321B (zh) | 歌曲生成 | |
US20220366880A1 (en) | Method and electronic device for recognizing song, and storage medium | |
CN109920409B (zh) | 一种声音检索方法、装置、系统及存储介质 | |
CN109346045A (zh) | 基于长短时神经网络的多声部音乐生成方法及装置 | |
CN110675886A (zh) | 音频信号处理方法、装置、电子设备及存储介质 | |
CN112309365A (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN109147831A (zh) | 一种语音连接播放方法、终端设备及计算机可读存储介质 | |
Benetos et al. | Characterisation of acoustic scenes using a temporally-constrained shift-invariant model | |
CN110600014A (zh) | 一种模型训练方法、装置、存储介质及电子设备 | |
CN112185341A (zh) | 基于语音合成的配音方法、装置、设备和存储介质 | |
CN113360598A (zh) | 基于人工智能的匹配方法、装置、电子设备及存储介质 | |
CN116386594A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN109241312B (zh) | 旋律的填词方法、装置及终端设备 | |
CN112233648B (zh) | 结合rpa及ai的数据的处理方法、装置、设备及存储介质 | |
Reimao | Synthetic speech detection using deep neural networks | |
CN112652309A (zh) | 一种方言语音转换方法、装置、设备及存储介质 | |
JP7372402B2 (ja) | 音声合成方法、装置、電子機器及び記憶媒体 | |
CN115019787B (zh) | 一种交互式同音异义词消歧方法、系统、电子设备和存储介质 | |
CN111681680B (zh) | 视频识别物体获取音频方法、系统、装置及可读存储介质 | |
CN115440198B (zh) | 混合音频信号的转换方法、装置、计算机设备和存储介质 | |
CN112767923B (zh) | 一种语音识别方法及装置 | |
CN117174092B (zh) | 基于声纹识别与多模态分析的移动语料转写方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |