CN101188110B - 提高文本和语音匹配效率的方法 - Google Patents
提高文本和语音匹配效率的方法 Download PDFInfo
- Publication number
- CN101188110B CN101188110B CN2006101146222A CN200610114622A CN101188110B CN 101188110 B CN101188110 B CN 101188110B CN 2006101146222 A CN2006101146222 A CN 2006101146222A CN 200610114622 A CN200610114622 A CN 200610114622A CN 101188110 B CN101188110 B CN 101188110B
- Authority
- CN
- China
- Prior art keywords
- character string
- character
- timestamp
- substring
- string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
本发明涉及一种提高文本和语音匹配效率的方法,它包括以下步骤:步骤1:用语音识别软件识别语音文件得到带时间戳的文本;步骤2:将带时间戳的文本与用户输入的文本比对;步骤3:将带时间戳的文本中的时间戳赋给用户输入的文本。该方法效率高,无需人工介入,可大批量的匹配语音和文本文件。
Description
技术领域
本发明涉及一种提高文本和语音匹配效率的方法。
背景技术
在练习外语听力时,我们需要知道正在播放的外语所对应的文字,从而知道自己理解的程度。例如,电脑正在播放”how are you dong?”的一段录音,有的人可能只听懂了一两个单词,如果没有看到”how are you dong?”的文本,他就不知道自己理解的程度。现在有一些程序可以帮助人匹配文本和语音,但是这些程序需要人的介入,即手工拷贝粘贴文本。其大致步骤如下:首先听一段音频,看一下时间,记下音频结尾距离开始的时间差,然后选择、拷贝并粘贴文本,把时间插在文本后(如lyrics文件格式,“how are you doing?[00:21.18]”),这种匹配方法枯燥无味,非常低效,而且容易出错。
经本发明人研究发现,导致匹配效率低下的原因是人的介入,现有方法的两大瓶颈步骤是人工确定句子结尾并记下时间差,和选择、拷贝、粘贴文本等动作。
发明内容
鉴于上述,本发明提出了一种提高文本和语音匹配效率的方法,其包括以下步骤:
步骤1用语音识别软件识别语音文件得到带时间戳的文本;
步骤2将带时间戳的文本与用户输入的文本比对;
步骤3将带时间戳的文本中的时间戳赋给用户输入的文本。
其中:
在所述步骤1中,对应于同一个语音音频文件,输入利用语音识别软件识别出的文本和用户提供的文本,分别简称为S字符串和Y字符串,S字符串中带有时间戳;
所述步骤2进一步分为:
步骤20:从S字符串和Y字符串中删除标点符号,对Y串中的标点符号左侧第一个单词作出被删除标点符号的标记,在S字符串和Y字符串中,用单个空白字符取代连续的空白字符,用一个除字母和标点符号外的字符替代空白字符;
步骤21:对S字符串和Y字符串进行逐字符比较,并对齐S字符串和Y字符串;
所述步骤3进一步分为:
步骤30:在对齐的两个字符串中于相同位置或相近位置处寻找相同和非常相似的单词,这些单词被称为锚单词,以每个锚单词右侧的第一个替代空白字符的字符的位置为分割点,将S字符串和Y字符串在该分割点处分割,这样S字符串和Y字符串被分割成同样数目的子字符串;
步骤31:将S字符串的子字符串和Y字符串的子字符串从左到右一一对应;
步骤32:如果S字符串的子字符串的锚单词后面没有识别软件提供的时间戳,则将S字符串和Y字符串的子字符串分别与同串的下一个子字符串合并,如果S字符串中合并后的新子字符串的锚单词后面仍然没有时间戳,则继续与下一个子字符串合并,直至S字符串中新子字符串的锚单词后面带有时间戳为止,然后把S字符串的子字符串的锚单词后面的时间戳赋给Y字符串的子字符串的最后的单词,这样Y串的子字符串都带有时间戳;
步骤33:如果表示一个句子终结的标点符号的前面的字符串的时间戳不是落在语音波谷,则比较波峰两侧的波谷的长度,将时间戳移到较长的波谷的开始处,在同一个波谷的结束处加上一个时间戳;如果时间戳落在波谷中间而且波谷的宽度超过0.3秒,将时间戳移至波谷开始处,在同一个波谷处的结束处加上一个时间戳;
步骤34:在Y字符串中,用空白字符替换先前替代空白字符的字符,在标记被删除标点符号的单词后加回标点符号,即得到我们所需的带时间戳的用户提供的字符串。
在所述步骤21中,采用以下算法之一对S字符串和Y字符串进行逐字符比较和对齐:基于Smith Waterman算法、Needleman-Wunsch算法、BLAST算法,FASTA算法,Clustal算法、遗传算法、模拟退火算法、Hidden Markov Model对齐算法。
在所述步骤32中,把S字符串的子字符串的锚单词后面的时间戳赋给Y字符串的子字符串的最后的单词以后,如果Y字符串的某些子字符串被标记带有标点符号,这些子字符串将于标点符号附近分裂成更小的字符串,则在这些子字符串的标点符号后面加上时间戳,该时间戳为前一个子字符串的时间戳与该子字符串中标点符号前的小字符串的时长之和,该小字符串的时长根据其有意义的字符的个数在所属子字符串中的比例分配。
在所述步骤20中,标记被删除标点符号的方法是:每一个单词在Y串中有一个位置,对Y字符串中的每一个单词构造一个类,其第一个数据成员表示带有标点符号的单词在Y串的位置,第二个数据成员表示该单词后面所带的标点符号。
在所述步骤20中,包括将Y字符串中的数字用对应的外语单词代替。
在所述步骤20中,用一个下划线替代空白字符。
本发明的优点是:效率高,无需人工介入,可大批量的匹配语音和文本文件。
具体实施方式
利用语音识别软件分析语音音频文件,可得出识别后的文本文件和相应的时间戳。一般而言,语音识别软件在识别非特定人的语音时,准确率常常不高,如讲话的人发音不标准或者语速比较快,致使识别出的文本不是很准确,可能会低至50%,甚至更低。本发明将识别出的文本进一步和用户提供的文本进行比较和对齐,然后将识别软件提供的时间戳和用户提供的文本对应起来,即实现所谓文本和语音自动匹配。经过实际检验,自动匹配的准确率是用户可以接受的。本发明方法步骤具体描述如下:
1)对应于同一个语音音频文件,输入利用语音识别软件识别出的文本和用户提供的文本,为描述方便起见,在本文中,将语音识别软件识别出的文本简称S串,将用户提供的文本简称Y串。S串中带有时间戳。时间戳表示其对应的文本结束的时间。例如:Y串:”in this country on the first day of spring,some areas”;S串:”in[0.5]this[0.7]country[1.0]on efforts[1.4]to[1.6]bring[2.0]some areas[2.7]”。
在这里为了表达方便,将时间戳嵌于S字符串中,其单位是秒。
2)从S字符串中删除标点符号,将Y字符串中的数字用对应的外语单词代替(如用单词seven代替数字7),从Y字符串中删除标点符号,对Y串中的标点符号左侧第一个单词作出被删除标点符号的标记。标记被删除标点符号的方法是:每一个单词在Y串中有一个位置,对Y字符串中的每一个单词构造一个类,其第一个数据成员表示带有标点符号的单词在Y串的位置,第二个数据成员表示该单词后面所带的标点符号。例如spring是Y串中第9个单词且其后有一个逗号。在S字符串和Y字符串中,用单个空白字符取代连续的空白字符,用一个除字母和标点符号外的字符替代空白字符。在本实施例中用下划线字符”_”替代空白字符。现在单词被下划线字符”_”隔开。即:
Y串:”in_this_country_on_the_first_day_of_spring_some_areas”;
S串:”in_this_country_on_efforts_to_bring_some_areas”。
其中,Y串中单词spring右边的逗号被删除,但是单词spring被标记带有逗号。
3)对Y串和S串进行逐字符比较和对齐两个字符串(或简称比对)。可用于比对的算法有Smith Waterman算法,Needleman-Wunsch算法,BLAST(Basic Local AlignmentSearch Tool)算法,FASTA算法,Clustal算法,遗传算法,模拟退火算法和HiddenMarkov Model对齐算法。
现详细描述其中一种基于Smith Waterman算法的比对方法:
定义相似函数:如果p和q是两个字符,那么X(p,q)表示p和q字符在进行比较时的相似值,称为一个相似函数。相似函数还包括当p为空字符或q为空字符的情况。
建立相似矩阵:对于Y串和S串,它们的所有元素都属于同一个字符集。此字符集中每一个元素和另外一个元素都有相似值。将它们排列起来构成一个矩阵。相似矩阵中的每一个数字都是X(p,q)相似函数的值。相似矩阵的每一个格子的值是预先定义的或由用户输入的。如下列出了相似矩阵的一部分:
插入空字符:当两个字符串对齐后,一个串中某些字符不能在对比串中相同位置找到字符,则在对比串中用空字符表示,例如在比对后的图中,Y串中的the单词中t字符在S串中并没有对应的字符,于是在S串中同样的位置插入空字符(-)(中划线)。通常空字符和其他字符的相似函数值都一样大,是一个负的常数。插入空字符会降低字符串间的相似性。
建立局部最佳相似矩阵M:假设S串有n个字符,Y串有m个字符。将初始条件列(即i=0)和S串n个字符从左向右排列构成矩阵的横坐标,将初始条件行(即j=0)和Y串m个字符从上到下排列构成(n+1)×(m+1)矩阵的纵坐标,在S串和Y串中的任意两个位置i和j相交处的格子填入局部最佳相似值(M[i,j]=F(i,j))。局部最佳相似值由以下的局部最佳相似函数得出:
F(i,j)=0(i=0或j=0)
和
1≤i≤n,1≤j≤m,-为空字符
S[i]为S串中第i个字符,Y[j]为Y串中第j个字符
在边框的格子的局部最佳相似值都为0,任意一个不在上边框和左边框的格子的局部最佳相似值可由局部最佳相似函数公式推导得出。将所有格子的值用迭代方法求出,然后比较所有的局部最佳相似值F(i,j)可以得到最大一个,假设是F(u,v)或M[u,v],u可能不等于n,v可能不等于m。
在得到(n+1)×(m+1)局部最佳相似矩阵F和M[u,v]后,用回溯法得到一条自左上至右下的路径和新的S串和Y串,S串和Y串可能被插入空字符。以下为回溯法的伪代码:
for(i=u,j=v;i>0 && j>0;){
if(M[i,j]==M[i-1,j-1]+X(S[i],Y[j])){
i--,j--;
}
else if(M[i,j]==M[i-1,j]+X(S[i],′-′)){
i--;
insert(′-′,Y,j);
}else if(M[i,j]==M[i,j-1]+X(′-′,Y[j-1])){
j--;
insert(′_′,S,i);
}else
break;
}
以上insert(a,b,c)表示将字符a插于字符串b的第c个位置。将Y串和S串一起打印出来即可得到以下比对后的结果:
Y串:in_this_country_on_the_first-_day_of_spring_some_areas
S串:in_this_country_on_--effor-ts_---to-_-bring_some_areas
如果回溯得到的路径不完整,即不是从(n,m)到(1,1)。路径不完整有三种情况,头部缺失,尾部缺失和头尾都缺失。对于头部缺失,将较长的的缺失字符串原样列出,较短的缺失字符串向右对齐,在其左端补上空字符串。对于尾部缺失,将较长的缺失字符串原样列出,较短的字符串的缺失部分向左对齐,左端补上空字符串。以下为补上字符串处理头部或尾部缺失的情况:
4)在对齐的两个字符串中于相同位置或相近位置处寻找非常相似和相同的单词,这些单词被称为锚单词。若两个单词中共有的字符数大于较长的单词的字符数的70%,则这两个单词称为相似单词,如first和efforts,共有的字符是一个f,一个r,一个t和一个s,总共4个字符,较长的单词efforts有7个字符,4/7小于70%,这两个单词不是相似单词。以每个锚单词的右侧第一个下划线字符的位置为分割点,将两个字符串在分割点处分割,这样两个字符串被分割成同样数目的子字符串。锚单词是子字符串的最后一个单词。
Y串的锚单词按从左到右的顺序是in,this,country,on,spring,some,areas;
S串的锚单词按从左到右的顺序是:in,this,country,on,bring,some,areas。
5)将S字符串的子字符串和Y字符串的子字符串从左到右一一对应,S串中的第1个子字符串对应Y串中的第1个子字符串,S串中的第2个子字符串对应Y串中的第2个子字符串,依此类推。为表示方便用”/”分隔子字符串。两个字符串对应后如下:
Y串:”in/this/country/on/the_first-_day_of_spring/some/areas”;
S串:”in/this/country/on/--effor-ts_---to-_-bring/some/areas”。
6)如果S字符串的子字符串的锚单词后面没有识别软件提供的时间戳,则将S字符串和Y字符串的子字符串分别与同串的下一个子字符串合并,如果S字符串中合并后的新子字符串的锚单词(最后的单词)后面仍然没有时间戳,则继续与下一个子字符串合 并,直至S字符串中新子字符串的锚单词后面带有时间戳为止。如some和areas合并成一个子字符串。结果,S串中所有的子字符串的锚单词后面都有时间戳。然后把S字符串的子字符串的锚单词后面的时间戳赋给Y字符串的子字符串的最后的单词,这样Y串的子字符串也都带有时间戳。即:
Y串:”in[0.5]/this[0.7]/country[1.0]/on_the_first-_day_of_spring[2.0]/some_areas[2.7]”;
S串:”in[0.5]/this[0.7]/country[1.0]/on_--effor-ts_---to-_-bring[2.0]/some_areas[2.7]”
7)如果Y串的某些子字符串被标记带有标点符号(如,。!?等),这些子字符串将于标点符号附近分裂成更小的字符串,小字符串的时长根据其有意义的字符的个数与其所在子字符串字符的个数按比例分配。例如,母字符串-“[5]what are you doing here?Steve[7.5]”有25个有意义的字符,时长为7.5-5=2.5秒,在标点符号“?”处分裂成2个小字符串“what are you doing here”和“Steve”。第一个小子字符串有20个有意义的字符,则其时长为20/25*2.5=2秒,其时间戳为前一个子字符串的时间戳加上时长为7秒。这样整个字符串变为“[5]what are you doing here?[7]Steve[7.5]”。
8)时间戳微调。如果表示一个句子终结的标点符号(如句号,感叹号,问号等)的前面的字符串的时间戳不是落在语音波谷(也就是说在波峰),则比较波峰两侧的波谷的长度,将时间戳移到较长的波谷的开始处,在同一个波谷处的结束处加上一个时间戳,因为人们说话时在句子终结处通常比其他地方会停止更长的时间;如果时间戳落在波谷中间(即没有声音或音量特低的地方)而且波谷的宽度超过0.3秒,将时间戳移至波谷开始处,在同一个波谷的结束处加上一个时间戳。
9)在Y字符串中,删掉子字符串中的连字符”-”,用空白字符替换下划线,在标记被删除标点符号的单词后加回标点符号,即得到我们所需的带时间戳的用户提供的字符串。这样,最后的Y串为:
”in[0.5]this[0.7]country[1.0]on the first day of spring,[2.0]some areas[2.7]”。
本发明的优点是快速,效率高,无需人工介入,可大批量的匹配语音和文本文件。
从以上描述可知,本发明方法的精髓在于首先用语音识别语音文件得到带时间戳的文本,然后将带时间戳的文本与用户输入的文本比对,最后将带时间戳的文本中的时间戳赋给用户输入的文本。任何基于本发明精髓的变换和改进,均应视为本发明权利要求载明的范围之内。
Claims (6)
1.一种提高文本和语音匹配效率的方法,其特征在于包括以下步骤:
步骤1用语音识别软件识别语音文件得到带时间戳的文本;
步骤2将带时间戳的文本与用户输入的文本比对;
步骤3将带时间戳的文本中的时间戳赋给用户输入的文本;
其中:
在所述步骤1中,对应于同一个语音音频文件,输入利用语音识别软件识别出的文本和用户提供的文本,分别简称为S字符串和Y字符串,S字符串中带有时间戳;
所述步骤2进一步分为:
步骤20:从S字符串和Y字符串中删除标点符号,对Y串中的标点符号左侧第一个单词作出被删除标点符号的标记,在S字符串和Y字符串中,用单个空白字符取代连续的空白字符,用一个除字母和标点符号外的字符替代空白字符;
步骤21:对S字符串和Y字符串进行逐字符比较,并对齐S字符串和Y字符串;
所述步骤3进一步分为:
步骤30:在对齐的两个字符串中于相同位置或相近位置处寻找相同和非常相似的单词,这些单词被称为锚单词,以每个锚单词右侧的第一个替代空白字符的字符的位置为分割点,将S字符串和Y字符串在该分割点处分割,这样S字符串和Y字符串被分割成同样数目的子字符串;
步骤31:将S字符串的子字符串和Y字符串的子字符串从左到右一一对应;
步骤32:如果S字符串的子字符串的锚单词后面没有识别软件提供的时间戳,则将S字符串和Y字符串的子字符串分别与同串的下一个子字符串合并,如果S字符串中合并后的新子字符串的锚单词后面仍然没有时间戳,则继续与下一个子字符串合并,直至S字符串中新子字符串的锚单词后面带有时间戳为止,然后把S字符串的子字符串的锚单词后面的时间戳赋给Y字符串的子字符串的最后的单词,这样Y串的子字符串都带有时间戳;
步骤33:如果表示一个句子终结的标点符号的前面的字符串的时间戳不是落在语音波谷,则比较波峰两侧的波谷的长度,将时间戳移到较长的波谷的开始处,在同一个波谷的结束处加上一个时间戳;如果时间戳落在波谷中间而且波谷的宽度超过0.3秒,则将时间戳移至波谷开始处,在同一个波谷的结束处加上一个时间戳;
步骤34:在Y字符串中,用空白字符替换先前替代空白字符的字符,在标记被删除标点符号的单词后加回标点符号,即得到我们所需的带时间戳的用户提供的字符串。
2.如权利要求1所述的提高文本和语音匹配效率的方法,其特征在于:
在所述步骤21中,采用以下算法之一对S字符串和Y字符串进行逐字符比较和对齐:基于Smith Waterman算法、Needleman-Wunsch算法、BLAST算法,FASTA算法,Clustal算法、遗传算法、模拟退火算法、Hidden Markov Model对齐算法。
3.如权利要求1所述的提高文本和语音匹配效率的方法,其特征在于:
在所述步骤32中,把S字符串的子字符串的锚单词后面的时间戳赋给Y字符串的子字符串的最后的单词以后,如果Y字符串的某些子字符串被标记带有标点符号,这些子字符串将于标点符号附近分裂成更小的字符串,则在这些子字符串的标点符号后面加上时间戳,该时间戳为前一个子字符串的时间戳与该子字符串中标点符号前的小字符串的时长之和,该小字符串的时长根据其有意义的字符的个数在所属子字符串中的比例分配。
4.如权利要求1所述的提高文本和语音匹配效率的方法,其特征在于:
在所述步骤20中,标记被删除标点符号的方法是:每一个单词在Y串中有一个位置,对Y字符串中的每一个单词构造一个类,其第一个数据成员表示带有标点符号的单词在Y串的位置,第二个数据成员表示该单词后面所带的标点符号。
5.如权利要求1所述的提高文本和语音匹配效率的方法,其特征在于:
在所述步骤20中,包括将Y字符串中的数字用对应的外语单词代替。
6.如权利要求1所述的提高文本和语音匹配效率的方法,其特征在于:
在所述步骤20中,用一个下划线替代空白字符。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2006101146222A CN101188110B (zh) | 2006-11-17 | 2006-11-17 | 提高文本和语音匹配效率的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2006101146222A CN101188110B (zh) | 2006-11-17 | 2006-11-17 | 提高文本和语音匹配效率的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101188110A CN101188110A (zh) | 2008-05-28 |
CN101188110B true CN101188110B (zh) | 2011-01-26 |
Family
ID=39480463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006101146222A Expired - Fee Related CN101188110B (zh) | 2006-11-17 | 2006-11-17 | 提高文本和语音匹配效率的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101188110B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101996631B (zh) * | 2009-08-28 | 2014-12-03 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
US9236047B2 (en) | 2010-05-21 | 2016-01-12 | Microsoft Technology Licensing, Llc | Voice stream augmented note taking |
CN104900233A (zh) * | 2015-05-12 | 2015-09-09 | 深圳市东方泰明科技有限公司 | 一种声音与文本全自动匹配对齐的方法 |
CN106558309B (zh) * | 2015-09-28 | 2019-07-09 | 中国科学院声学研究所 | 一种口语对话策略生成方法及口语对话方法 |
CN107039034B (zh) * | 2016-02-04 | 2020-05-01 | 科大讯飞股份有限公司 | 一种韵律预测方法及系统 |
CN106710597B (zh) * | 2017-01-04 | 2020-12-11 | 广东小天才科技有限公司 | 语音数据的录音方法及装置 |
CN107230475B (zh) * | 2017-05-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种语音关键词识别方法、装置、终端及服务器 |
EP3544001B8 (en) * | 2018-03-23 | 2022-01-12 | Articulate.XYZ Ltd | Processing speech-to-text transcriptions |
CN109660681A (zh) * | 2018-12-05 | 2019-04-19 | 福建星网智慧软件有限公司 | 一种ip-pbx语音播报的自动化测试方法及系统 |
CN112270919B (zh) * | 2020-09-14 | 2022-11-22 | 深圳随锐视听科技有限公司 | 视频会议自动补音的方法、系统、存储介质及电子设备 |
CN112202803A (zh) * | 2020-10-10 | 2021-01-08 | 北京字节跳动网络技术有限公司 | 音频处理的方法、装置、终端及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649060A (en) * | 1993-10-18 | 1997-07-15 | International Business Machines Corporation | Automatic indexing and aligning of audio and text using speech recognition |
CN1794216A (zh) * | 2005-11-01 | 2006-06-28 | 无敌科技(西安)有限公司 | 一种将音频文件与对应的文字数据同步播放的方法 |
EP1246166B1 (en) * | 2001-03-29 | 2006-10-11 | Matsushita Electric Industrial Co., Ltd. | Speech recognition based captioning system |
-
2006
- 2006-11-17 CN CN2006101146222A patent/CN101188110B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649060A (en) * | 1993-10-18 | 1997-07-15 | International Business Machines Corporation | Automatic indexing and aligning of audio and text using speech recognition |
EP1246166B1 (en) * | 2001-03-29 | 2006-10-11 | Matsushita Electric Industrial Co., Ltd. | Speech recognition based captioning system |
CN1794216A (zh) * | 2005-11-01 | 2006-06-28 | 无敌科技(西安)有限公司 | 一种将音频文件与对应的文字数据同步播放的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101188110A (zh) | 2008-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101188110B (zh) | 提高文本和语音匹配效率的方法 | |
CN110717031B (zh) | 一种智能会议纪要生成方法和系统 | |
CN103823867B (zh) | 一种基于音符建模的哼唱式音乐检索方法及系统 | |
Schmidt | EXMARaLDA and the FOLK tools-two toolsets for transcribing and annotating spoken language. | |
CN100514446C (zh) | 一种基于语音识别及语音分析的发音评估方法 | |
CN110209836A (zh) | 远程监督关系抽取方法及装置 | |
WO2005027092A1 (ja) | 文書作成閲覧方法、文書作成閲覧装置、文書作成閲覧ロボットおよび文書作成閲覧プログラム | |
CN110750974B (zh) | 一种裁判文书结构化处理方法及系统 | |
US7987093B2 (en) | Speech synthesizing device, speech synthesizing system, language processing device, speech synthesizing method and recording medium | |
CN107578778A (zh) | 一种口语评分的方法 | |
US20020065653A1 (en) | Method and system for the automatic amendment of speech recognition vocabularies | |
CN106782603A (zh) | 智能语音评测方法及系统 | |
WO2012014301A1 (ja) | 飲酒状態判定装置及び飲酒状態判定方法 | |
CN108231066A (zh) | 语音识别系统及其方法与词汇建立方法 | |
CN109299266A (zh) | 一种用于中文新闻突发事件的文本分类与抽取方法 | |
CN106168954A (zh) | 一种基于编辑距离的负面信息模式模糊匹配方法 | |
CN109979257A (zh) | 一种基于英语朗读自动打分进行分拆运算精准矫正的方法 | |
CN109492112A (zh) | 一种基于知识图谱的计算机辅助写作科普文章的方法 | |
CN110992988B (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
US7289958B2 (en) | Automatic language independent triphone training using a phonetic table | |
CN113205717A (zh) | 基于深度学习的英语口语训练方法 | |
CN103020046A (zh) | 基于人名起源分类的人名音译方法 | |
CN111460147A (zh) | 一种基于语义增强的标题短文本分类方法 | |
CN111159463A (zh) | 一种音乐情感识别方法及系统 | |
US20220238102A1 (en) | Wake-up word recognition training system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110126 Termination date: 20131117 |