CN102687197B - 声音识别用词典制作装置、声音识别装置及声音合成装置 - Google Patents
声音识别用词典制作装置、声音识别装置及声音合成装置 Download PDFInfo
- Publication number
- CN102687197B CN102687197B CN201080056433.9A CN201080056433A CN102687197B CN 102687197 B CN102687197 B CN 102687197B CN 201080056433 A CN201080056433 A CN 201080056433A CN 102687197 B CN102687197 B CN 102687197B
- Authority
- CN
- China
- Prior art keywords
- language
- dictionary
- phoneme tags
- user
- string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- C—CHEMISTRY; METALLURGY
- C01—INORGANIC CHEMISTRY
- C01G—COMPOUNDS CONTAINING METALS NOT COVERED BY SUBCLASSES C01D OR C01F
- C01G41/00—Compounds of tungsten
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- C—CHEMISTRY; METALLURGY
- C01—INORGANIC CHEMISTRY
- C01P—INDEXING SCHEME RELATING TO STRUCTURAL AND PHYSICAL ASPECTS OF SOLID INORGANIC COMPOUNDS
- C01P2006/00—Physical properties of inorganic compounds
- C01P2006/80—Compositional purity
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
Abstract
根据本发明,包括:用户词典,该用户词典登记有输入声音的音素标签串;以及语言间音响数据映射表,该语言间音响数据映射表对语言之间的音素标签的对应关系进行了规定,参照语言间音响数据映射表,将登记到用户词典的音素标签串从制作用户词典时的语言的音素标签串转换成切换后的语言的音素标签串。
Description
技术领域
本发明涉及根据用户发出的声音来对声音识别用词典进行词汇登记的识别词典制作装置、利用该识别词典制作装置的声音识别装置及声音合成装置。
背景技术
在采用声音识别的应用中,有时会对用户发出的声音进行登记以用作识别对象语。在下文中,将该动作称作用户词典生成。作为利用声音生成用户词典的示例,有以下情形:用声音来登记与广播的频率相对应的广播电台名、或用声音来登记与电话号码相对应的人名和地名。
此外,在车载导航系统、便携式终端等可跨多国使用的设备所装载的声音识别中,要求有语言切换功能。
作为相关的现有技术,例如在专利文献1中公开了一种使用语言切换方法,该使用语言切换方法在对电子词典的使用语言进行切换时,将对用户发出的声音进行声音识别而获得的字符数据和装置内所存储的词汇相对照,从而决定用户想要使用的语言。
一般而言,对每一语言收集声音数据,用所收集的声音数据来构建声音识别算法和声音标准模型,利用该声音识别算法和声音标准模型来识别用户发出的声音。因此,当切换了语言的情况下,需要对声音识别单元本身和声音标准模型进行切换。
以往,提出了一种声音识别装置,该声音识别装置利用众所周知的声音识别技术,对每一语言生成最佳地呈现用户发出的声音的音素(phoneme)的标签串,并作为用户词典来保存,从而即使对声音识别所使用的语言进行切换,也能对用户发出的声音进行声音识别。
但是,在每次变更语言都制作音素标签串的情况下,存在以下问题:即,由于将发出声音保存到存储器并进行处理,因此,需要能确保发出声音的保存区域的大容量存储器。
此外,在不能将发出声音保存到存储器中的情况下,必须对假设的所有语言分别制作音素标签串,但即使是制作单一语言的音素标签串的情况下也要耗费较长时间,因此,对假设的所有语言而言,所需的处理时间较庞大。此外,还需要能保存所有语言的音素标签串的大容量存储器。
本发明是为了解决上述问题而完成的,其目的在于获得不需要对发出声音进行保存的大容量存储器且不需要对所有语言预先制作音素标签串,并能缩短对每一语言制作音素标签串的制作时间的识别词典制作装置、利用该识别词典制作装置的声音识别装置及声音合成装置。
现有技术文献
专利文献
专利文献1:日本专利特开2001-282788号公报
发明内容
本发明所涉及的识别词典制作装置包括:音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;音响数据匹配部,该音响数据匹配部将从音响分析部输入的输入声音的音响特征的时间序列和音响标准模式存储部中存储的音响标准模式进行对照,以制作输入声音的音素标签串;用户词典存储部,该用户词典存储部对登记有音响数据匹配部所制作的输入声音的音素标签串的用户词典进行存储;语言存储部,该语言存储部对登记到用户词典的音素标签串的语言进行存储;语言切换部,该语言切换部对语言进行切换;映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;以及音素标签串转换部,该音素标签串转换部参照映射表存储部中存储的映射表,将登记到用户词典的音素标签串从语言存储部中存储的语言的音素标签串转换成由语言切换部进行切换后的语言的音素标签串。
根据本发明,包括:用户词典,该用户词典登记有输入声音的音素标签串;以及映射表,该映射表对语言之间的音素标签的对应关系进行了规定,参照映射表,将登记到用户词典的音素标签串从制作用户词典时的语言的音素标签串转换成切换后的语言的音素标签串。
由此,即使切换语言,也能参照映射表来快速地将登记词汇转换成切换后的语言所使用的词汇,因此带来以下效果:不需要对发出声音进行保存的大容量存储器且不需要对所有语言预先制作音素标签串,能缩短对每一语言制作音素标签串的制作时间。
附图说明
图1是表示根据本发明的实施方式1的识别词典制作装置的结构的框图。
图2是表示根据实施方式1的识别词典制作装置的用户词典登记动作流程的流程图。
图3是表示根据实施方式1的识别词典制作装置的语言切换后的用户词典登记动作流程的流程图。
图4是表示根据本发明的实施方式2的声音识别装置的结构的框图。
图5是表示根据实施方式2的声音识别装置的动作流程的流程图。
图6是表示根据本发明的实施方式3的声音合成装置的结构的框图。
图7是表示根据实施方式3的声音合成装置的动作流程的流程图。
图8是表示根据本发明的实施方式4的识别词典制作装置的结构的框图。
图9是表示根据实施方式4的识别词典制作装置的用户词典登记动作流程的流程图。
图10是表示根据实施方式4的识别词典制作装置的语言切换后的用户词典登记动作流程的流程图。
具体实施方式
下面,为了更详细地说明本发明,根据附图对用于实施本发明的方式进行说明。
实施方式1
图1是表示根据本发明的实施方式1的识别词典制作装置的结构的框图。图1中,实施方式1的识别词典制作装置1包括麦克风2a、声音捕获部2、音响分析部3、每一语言的音响标准模式4、音响数据匹配部5、用户词典登记部(用户词典存储部)6、制作用户词典时的语言存储部(语言存储部)7、语言切换部8、音素标签串转换部9以及语言间音响数据映射表保存部(映射表存储部)10。
声音捕获部2是将麦克风2a所捕获的声音转换成数字信号的结构部。音响分析部3对由声音捕获部2执行了数字信号化的声音信号进行分析以转换成音响特征的时间序列的结构部。例如,以一定时间间隔对声音信号进行分析,并计算表示声音的特征的音响特征量(音响特征量矢量)。
音响标准模式4是与语言X(X=1、2、3、……)的各音素标签串分别对应的标准的音响特征(对声音片断表示音响特征量的性质的标准模型),例如,以音素为单位、利用HMM(隐马尔科夫模型:Hidden MarkovModel)等来进行模型化。音响数据匹配部5是将音响分析部3所获得的输入声音的音响特征的时间序列和语言X的音响标准模式4相对照,根据与构成音响标准模式4的标准音响特征相对应的音素标签串来制作与输入声音最相似的音素标签串的结构部。
用户词典登记部6是具有用户词典的结构部,将音响数据匹配部5所制作的输入声音的音素标签串存放到用户词典中。制作用户词典时的语言存储部7是将在制作用户词典时设定为声音识别语言的设定语言进行存储的存储部。语言切换部8是对用作声音识别语言的设定语言进行切换的结构部。
音素标签串转换部9是利用语言间音响数据映射表、将由登记到用户词典时的语言所呈现的音素标签串转换成由语言切换部8进行变更后的语言的音素标签串的结构部。语言间音响数据映射表保存部10是将表示彼此不同的一对语言的音素标签之间的对应关系的语言间音响数据映射表进行存储的存储部。
此外,当一种语言无法呈现另一种语言的某一音素标签的情况下,将该一种语言所能呈现的音素标签中、与另一种语言的那个音素标签相似的音素标签与该音素标签(即,另一种语言的那个音素标签)进行对应。例如,日语中无法呈现英语的音素标签/l/。因此,在日语和英语的语言间音响数据映射表中,将英语的音素标签/l/与发音相似的日语的音素标签/r/进行对应。
此外,对于声音捕获部2、音响分析部3、音响标准模式4、音响数据匹配部5、用户词典登记部6、制作用户词典时的语言存储部7、语言切换部8、音素标签串转换部9及语言间音响数据映射表保存部10,通过将按照本发明要点的识别词典制作程序存储到计算机中,并使CPU进行执行,从而能在该计算机上作为硬件和软件协作的具体单元来实现。而且,音响标准模式4、用户词典登记部6、制作用户词典时的语言存储部7及语言间音响数据映射表保存部10所使用的存储区域由上述计算机上所装载的存储装置、例如硬盘装置和外部存储介质等来构建。
接下来,对动作进行说明。
图2是表示根据实施方式1的识别词典制作装置的用户词典登记动作流程的流程图。
用户指示利用输入装置来开始制作用户词典(步骤ST1),之后说出要登记的词汇。例如,假设说出人名‘Michael’。声音捕获部2经由麦克风2a捕获从用户发出的声音,将该输入声音转换成数字信号之后,输出到音响分析部3(步骤ST2)。
接着,制作用户词典时的语言存储部7对音响数据匹配部5中当前设定的、用户词典登记时的设定语言进行确认(步骤ST3),登记到自身中(步骤ST4)。另外,设定语言是在利用识别词典制作装置1的声音识别装置和声音合成装置中、预先作为成为声音识别和声音合成对象的语言而设定的语言。在图2的示例中,将英语设为设定语言。音响分析部3对在步骤ST2中从声音捕获部2输入的声音信号进行音响分析,将该声音信号转换成音响特征的时间序列(步骤ST5)。
音响数据匹配部5读出与自身设定的语言(设定语言)相对应的音响标准模式4,将该设定语言的音响标准模式4和由音响分析部3获得的输入声音的音响特征的时间序列进行对照,根据与构成音响标准模式4的标准音响特征相对应的音素标签串,来制作与输入声音的音响特征的时间序列最相似的、表示该输入声音的最佳音素标签串(步骤ST6)。例如,在输入声音为‘Michael’且设定语言为英语的情况下,如图2所示,获得音素标签串‘#、/m/、/a/、/i/、/k/、/l/、#’。
用户词典登记部6将音响数据匹配部5所制作的输入声音的音素标签串登记到用户词典(步骤ST7)。由此,可制作用户词典,该用户词典中登记有与设定语言的登记词汇文本相对应的音素标签串。
接着,对切换了设定语言的情况下的动作进行说明。
图3是表示根据实施方式1的识别词典制作装置的语言切换后的用户词典登记动作流程的流程图,表示在执行图2所示的用户词典登记之后切换了语言的情形。
例如,在用户利用输入装置对语言切换部8指定新语言时,语言切换部8将切换后的语言设定到音素标签串转换部9(步骤ST1a)。此处,假设切换到日语。
音素标签串转换部9读出在制作用户词典时的语言存储部7中存储的语言,对登记用户词典时的设定语言进行确认(步骤ST2a)。如上所述,在图2中,登记用户词典时的设定语言是英语。
随后,音素标签串转换部9利用步骤ST2a中确认的登记用户词典时的设定语言和由语言切换部8指定的切换后的语言,对语言间音响数据映射表保存部10进行检索,读取与登记用户词典时的设定语言和切换后的语言相对应的语言间音响数据映射表。
如图3所示,语言间音响数据映射表是表示英语音素标签和日语音素标签之间的对应关系的表数据。例如,图3中,英语音素标签中,标号A所示的发音相似的3个不同的音素标签包含无法由日语呈现的音素标签。在该情况下,用日语音素标签中的与标号A所示的音素标签发音相似的1个音素标签(/a/)进行对应。此外,由于在日语中无法呈现英语音素标签/l/,因此,将英语音素标签/l/与发音相似的日语音素标签/r/进行对应。
音素标签串转换部9基于从语言间音响数据映射表保存部10读取的语言间音响数据映射表,将用户词典中登记的音素标签串转换成切换后的语言的音素标签串(步骤ST3a)。
例如,如图3所示,‘Michael’的英语音素标签串‘#、/m/、/a/、/i/、/k/、/l/、#’基于英语和日语的语言间音响数据映射表中的对应关系,被转换成日语音素标签串‘#、/m/、/a/、/i/、/k/、/r/、#’。
另外,例如在以下参考文献1中公开了语言间音响数据映射表的制作方法。
(参考文献1):日本专利特开2007-155833号公报
用户词典登记部6将步骤ST3a中由音素标签串转换部9进行了转换后的音素标签串重新存放到用户词典中(步骤ST4a)。在图3中,登记词汇为‘Michael’且切换后的语言为日语,因此,将日语音素标签串‘#、/m/、/a/、/i/、/k/、/r/、#’作为1个登记词语进行存放。
如上所述,根据本实施方式1,包括:用户词典,该用户词典登记有输入声音的音素标签串;以及语言间音响数据映射表,该语言间音响数据映射表对语言之间的音素标签的对应关系进行了规定,参照语言间音响数据映射表,将登记到用户词典的音素标签串从制作用户词典时的语言的音素标签串转换成切换后的语言的音素标签串。
通过这种结构,即使在设定语言从登记用户词典时起发生了变更的情况下,也能基于语言间音响数据映射表来转换音素标签串,从而能制作变更后的语言的用户词典,并能显著缩短制作对应语言的音素标签串的处理时间。
此外,即使在每次变更语言时都制作音素标签串的情况下,也不需要保存发出的声音,而仅保存登记用户词典时的音素标签串,也不需要预先对假设的所有语言制作音素标签。因此,也不需要大容量存储器。
实施方式2
图4是表示根据本发明的实施方式2的声音识别装置的结构的框图,表示利用了根据上述实施方式1的识别词典制作装置的声音识别装置。在图4中,实施方式2的声音识别装置1A在上述实施方式1所示的识别词典制作装置1的结构的基础上,还包括词典对照部11、利用每一语言的音响标准模式来呈现的一般词典12及识别结果输出部13。另外,在图4中,对与图1相同或同样地进行工作的结构部标注相同标号,并省略其说明。
词典对照部11是将输入声音的音素标签串、利用设定语言的音响标准模式来呈现的一般词典12的词汇、以及用户词典登记部6的用户词典中所登记的词汇进行对照,从一般词典12和用户词典的词汇中确定与输入声音的音素标签串最相似的词汇的结构部。一般词典12是利用语言X(X=1、2、3、……)的音响标准模式来呈现的词典,登记有该语言的地名等大词汇(音素标签串)。识别结果输出部13是输出声音识别结果的结构部,输出作为词典对照部11所产生的对照结果而获得的、与输入声音的音素标签串最相似的词汇。
此外,对于词典对照部11、利用每一语言的音响标准模式来呈现的一般词典12及识别结果输出部13,通过将按照本发明要点的声音识别程序存储在计算机中,并使CPU进行执行,从而能在该计算机上作为硬件和软件协作的具体单元来实现。而且,音响标准模式4和一般词典12所使用的存储区域由上述计算机所装载的存储装置、例如硬盘装置和外部存储介质等来构建。
接下来,对动作进行说明。
图5是表示根据实施方式2的声音识别装置的动作流程的流程图。
用户指示利用输入装置来开始进行声音识别(步骤ST1b),之后发出作为声音识别对象的声音。例如,假设说出人名‘Michael’。声音捕获部2经由麦克风2a捕获从用户发出的声音,将该输入声音转换成数字信号之后,输出到音响分析部3(步骤ST2b)。音响分析部3对在步骤ST2b中从声音捕获部2输入的声音信号进行音响分析,将该声音信号转换成音响特征的时间序列。
音响数据匹配部5读出在制作用户词典时的语言存储部7中存储的语言,对登记用户词典时的设定语言进行确认(步骤ST3b)。在图5中,假设登记用户词典时的设定语言是日语。
随后,音响数据匹配部5根据从音响分析部3获取的输入声音的音响特征的时间序列、设定语言的音响标准模式4,来对该输入声音制作设定语言的音素标签串(步骤ST4b)。例如,在输入声音为‘Michael’且设定语言为日语的情况下,作为利用日语的音响标准模式来呈现的音素标签串而获得‘#、/m/、/a/、/i/、/k/、/r/、#’。
接着,词典对照部11将音响数据匹配部5所制作的输入声音的音素标签串、利用设定语言的音响标准模式4来呈现的一般词典12的词汇、以及用户词典登记部6的用户词典中所登记的词汇进行对照,从一般词典12和用户词典的词汇中确定与输入声音的音素标签串最相似的词汇(步骤ST5b)。识别结果输出部13输出作为词典对照部11所产生的对照结果而获得的、与输入声音的音素标签串最相似的词汇(步骤ST6b)。
如图5所示,在利用设定语言(此处为日语)的音响标准模式来呈现的一般词典12中,登记有地名等大词汇作为音素标签串。此外,如上述实施方式1所示,在用户词典中通过用户的话语,将任意词汇作为音素标签串来登记。此处,在作为用户词典的登记词语1而登记了‘#、/m/、/a/、/i/、/k/、/r/、#’的情况下,词典对照部11确定登记词语1作为与输入声音的音素标签串最相似的词汇,识别结果输出部13输出登记词语1作为识别结果。
如上所述,根据本实施方式2,在上述实施方式1的识别词典制作装置的结构的基础上,还包括:一般词典存储部,该一般词典存储部存储有一般词典12;词典对照部11,该词典对照部11将音响数据匹配部5所制作的输入声音的音素标签串、一般词典12和用户词典进行对照,从一般词典12和用户词典中确定与输入声音的音素标签串最相似的词汇;以及识别结果输出部13,该识别结果输出部13将词典对照部11所确定的词汇作为声音识别结果来输出,因此,在上述实施方式1的效果的基础上,还能提供利用用户词典来进行声音识别的声音识别装置1A。
实施方式3
图6是表示根据本发明的实施方式3的声音合成装置的结构的框图,表示利用了根据上述实施方式1的识别词典制作装置的声音合成装置。图6中,实施方式3的声音合成装置1B在上述实施方式1所示的识别词典制作装置1的结构、上述实施方式2所示的利用每一语言的音响标准模式来呈现的一般词典12的基础上,还包括文本输入部14、登记词语部分检测部15、登记词语部分音素标签串置换部(登记词汇置换部)16、其它部分音素标签串置换部(一般词典置换部)17以及声音合成部18。另外,在图6中,对与图1和图4相同或同样地进行工作的结构部标注相同标号,并省略其说明。
文本输入部14是输入要转换成声音的文本的结构部。登记词语部分检测部15是在从文本输入部14获取的输入文本中检测出登记到用户词典的登记词语的结构部。登记词语部分音素标签串置换部16是将登记词语部分检测部15所检测出的登记词语置换成从用户词典获取的音素标签串的结构部。其它部分音素标签串置换部17是经由登记词语部分音素标签串置换部16、将除了登记词语部分检测部15所检测出的登记词语以外的输入文本部分进行输入的结构部,将登记词语以外的输入文本部分的词语置换成从利用设定语言的音响标准模式来呈现的一般词典12获取的音素标签串。声音合成部18是根据与音素标签串置换部16、17所获得的输入文本相关的音素标签串来生成该输入文本的合成声音的结构部。
另外,对于文本输入部14、登记词语部分检测部15、登记词语部分音素标签串置换部16、其它部分音素标签串置换部17和声音合成部18,通过将按照本发明的要点的声音合成程序存储在计算机中,并使CPU进行执行,从而能在该计算机上作为硬件和软件协作的具体单元来实现。而且,音响标准模式4和一般词典12所使用的存储区域由上述计算机所装载的存储装置、例如硬盘装置和外部存储介质等来构建。
接下来,对动作进行说明。
图7是表示根据实施方式3的声音合成装置的动作流程的流程图。
用户利用文本输入部14来输入要转换成声音的文本(步骤ST1c)。此时,设定对用户词典的登记词语进行识别的识别符。例如,如图7所示,在将用户词典的登记词语1作为文本进行输入的情况下,在登记词语1的前后设定登记词语的识别符即双引号(日文:二重括弧)。
登记词语部分检测部15从文本输入部14获取输入文本,利用输入文本中所设定的登记词语的识别符来检测出登记词语(步骤ST2c)。在图7的示例中,检测出前后设定有双引号的登记词语1。
接着,登记词语部分音素标签串置换部16将登记词语部分检测部15所检测出的登记词语置换成从用户词典获取的音素标签串(步骤ST3c)。由此,将登记词语1置换成对应的音素标签串即‘#、/m/、/a/、/i/、/k/、/r/、#’。
其它部分音素标签串置换部17经由登记词语部分音素标签串置换部16,将输入文本中的除了登记词语部分检测部15所检测出的登记词语以外的部分进行输入,将登记词语以外的输入文本部分的词语置换成从一般词典12获取的音素标签串(步骤ST4c)。此处,将设定语言设为日语,如图7所示,将登记词语以外的输入文本部分即助词‘は’、名词‘大阪’、助词‘に’、动词‘いった’分别置换成登记到日语的一般词典12中的对应音素标签串。
声音合成部18根据与登记词语部分音素标签串置换部16和其它部分音素标签串置换部17所获得的输入文本相关的音素标签串,来生成该输入文本的合成声音(步骤ST5c)。在图7的示例中,输出合成声音‘マイクルは大阪に行った’。此处,用日语的音素标签来说出登记词语1以外的部分,但如上述实施方式1所示,登记词语1即‘マイクル’在设定到用户词典时的设定语言为英语,因此以英语来发音。
如上所述,根据本实施方式3,在上述实施方式1的识别词典制作装置的结构的基础上,还包括:文本输入部14,该文本输入部14输入文本;登记词语部分检测部15,该登记词语部分检测部15从由文本输入部14输入的文本的字符串中,检测出与登记到用户词典的音素标签串相当的词汇部分;登记词语部分音素标签串置换部16,该登记词语部分音素标签串置换部16将登记词语部分检测部15所检测出的词汇部分置换成从用户词典获取的对应音素标签串;其它部分音素标签串置换部17,该其它部分音素标签串置换部17将文本的字符串中的除了由登记词语部分检测部15检测出的词汇部分以外的部分置换成一般词典12的对应音素标签串;以及声音合成部18,该声音合成部18根据登记词语部分音素标签串置换部16和其它部分音素标签串置换部17所获得的文本的音素标签串来生成该文本的合成声音。
通过这种结构,在上述实施方式1的效果的基础上,还能提供利用用户词典来进行声音合成的声音合成装置1B。
实施方式4
图8是表示根据本发明的实施方式4的识别词典制作装置的结构的框图。在图8中,实施方式4的识别词典制作装置1a包括登记时的音响模式设定部19,来替代上述实施方式1的结构中的制作用户词典时的语言存储部7。登记时的音响模式设定部19是无论利用识别词典制作装置1a的声音识别装置和声音合成装置中所设定的设定语言为何种语言、都将预先登记到自身中的规定语言设定为音响数据匹配部5的处理中所使用的音响标准模式4的语言的结构部。该规定语言与设定语言无关、预先登记到登记时的音响模式设定部19中。另外,在图8中,对与图1所示的结构部相同或同样地进行工作的结构部标注相同标号,并省略其说明。
接下来,对动作进行说明。
图9是表示根据实施方式4的识别词典制作装置的用户词典登记动作流程的流程图。
用户指示利用输入装置来开始制作用户词典(步骤ST1d),之后说出要登记的词汇。例如,假设说明人名“Michael”。声音捕获部2经由麦克风2a捕获从用户发出的声音,将该输入声音转换成数字信号之后,输出到音响分析部3(步骤ST2d)。
随后,登记时的音响模式设定部19将预先登记到自身中的规定语言替代系统的设定语言来设定于音响数据匹配部5(步骤ST3d)。在图9的示例中,将英语设为规定语言。音响分析部3对在步骤ST2d中从声音捕获部2输入的声音信号进行音响分析,将该声音信号转换成音响特征的时间序列(步骤ST4d)。
音响数据匹配部5从登记时的音响模式设定部19读出与所设定的规定语言相对应的音响标准模式4,根据该设定语言的音响标准模式4、音响分析部3所获得的输入声音的音响特征的时间序列,来制作表示输入声音的最佳音素标签串(步骤ST5d)。例如,若输入声音为‘Michael’且规定语言为英语,则如图9所示,获得音素标签串‘#、/m/、/a/、/i/、/k/、/l/、#’。
用户词典登记部6将音响数据匹配部5所制作的输入声音的音素标签串登记到用户词典(步骤ST6d)。
接着,音素标签串转换部9基于从语言间音响数据映射表保存部10读取的语言间音响数据映射表,将如上所述那样获得的对应于输入声音(登记词汇)的规定语言的音素标签串和系统中当前设定的设定语言的音素标签相对应,将利用登记到用户词典中的规定语言的登记词汇的音素标签串转换成设定语言的音素标签串,并作为当前的用户词典登记到用户词典登记部6(步骤ST7d)。
接着,对切换设定语言的情况下的动作进行说明。
图10是表示根据实施方式4的识别词典制作装置的语言切换后的用户词典登记动作流程的流程图,表示在执行图9所示的用户词典登记之后切换了语言的情形。
在用户利用输入装置对语言切换部8指定新语言时,语言切换部8将切换后的语言设定到音素标签串转换部9(步骤ST1e)。此处,假设切换到日语。
音素标签串转换部9利用从语言切换部8指定的切换后的语言和规定语言,对语言间音响数据映射表保存部10进行检索,读取与登记用户词典时的规定语言和切换后的语言相对应的语言间音响数据映射表,基于该语言间音响数据映射表,将登记到用户词典的规定语言的音素标签串转换成切换后的语言的音素标签串(步骤ST2e)。
例如,作为规定语言的英语的‘Michael’的音素标签串‘#、/m/、/a/、/i/、/k/、/l/、#’基于与作为切换后的语言的日语之间的语言间音响数据映射表的对应关系,被转换成日语音素标签串‘#、/m/、/a/、/i/、/k/、/r/、#’。
用户词典登记部6将步骤ST2e中由音素标签串转换部9进行了转换后的音素标签串追加存放到用户词典中(步骤ST3e)。在图10中,登记词汇文本为‘Michael’且切换后的语言为日语,因此,将日语音素标签串‘#、/m/、/a/、/i/、/k/、/r/、#’作为登记词语进行存放。
如上所述,根据本实施方式4,包括:用户词典,该用户词典登记有输入声音的音素标签串;语言间音响数据映射表,该语言间音响数据映射表对语言之间的音素标签的对应关系进行规定;以及登记时的音响模式设定部19,该登记时的音响模式设定部19从音响标准模式中选择预先设定的语言的音响标准模式,参照语言间音响数据映射表,将登记到用户词典的音素标签串从由登记时的音响模式设定部19所选择的语言的音素标签串转换成切换后的语言的音素标签串。
若在上述实施方式1中,在可将N种语言设定为登记到用户词典的词汇的对象语言的情况下,则需要与登记到用户词典时的语言和可设定的语言的(N×(N-1))/2个所有组合相对应的语言间音响数据映射表,而此时,通过这种结构,则只需要与登记时的音响模式设定部19所设定的1种规定语言和上述可设定的语言的(N-1)个组合相对应的语言间音响数据映射表,从而能减小语言间音响数据映射表的数据大小。
此外,在上述实施方式2和上述实施方式3中,表示了利用上述实施方式1的识别词典制作装置1来构成声音识别装置及声音合成装置的情形,但在图4和图6所示的结构中,还可与图8所示的上述实施方式4的识别词典制作装置1a进行组合来替代上述实施方式1的识别词典制作装置以构成声音识别装置和声音合成装置。由此,能提供还能一并获得上述实施方式4的效果的声音识别装置和声音合成装置。
工业上的实用性
本发明所涉及的识别词典制作装置不需要保存发出声音的大容量存储器,不需要对所有语言制作音素标签串,能缩短对每一语言制作音素标签串的制作时间,从而能适用于车载设备的声音识别装置和声音合成装置。
Claims (6)
1.一种声音识别用词典制作装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的所述输入声音的音响特征的时间序列和所述音响标准模式存储部中存储的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言存储部,该语言存储部对登记到所述用户词典的音素标签串的语言进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;以及
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述语言存储部中存储的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串。
2.一种声音识别装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的所述输入声音的音响特征的时间序列和所述音响标准模式存储部中存储的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言存储部,该语言存储部对登记到所述用户词典的音素标签串的语言进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述语言存储部中存储的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串;
一般词典存储部,该一般词典存储部对利用所述音响标准模式来呈现的词汇的一般词典进行存储;
词典对照部,该词典对照部将所述音响数据匹配部所制作的所述输入声音的音素标签串、所述一般词典、和所述用户词典进行对照,从所述一般词典和所述用户词典中确定与所述输入声音的音素标签串最相似的词汇;以及
识别结果输出部,该识别结果输出部将由所述词典对照部所确定的词汇作为声音识别结果来输出。
3.一种声音合成装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的所述输入声音的音响特征的时间序列和所述音响标准模式存储部中存储的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言存储部,该语言存储部对登记到所述用户词典的音素标签串的语言进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述语言存储部中存储的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串;
文本输入部,该文本输入部输入文本;
登记词语部分检测部,该登记词语部分检测部从由所述文本输入部输入的文本的字符串中,检测出与登记到所述用户词典的音素标签串相符的词汇部分;
登记词汇置换部,该登记词汇置换部将所述登记词语部分检测部所检测出的所述词汇部分置换成从所述用户词典获取的与该词汇部分相对应的音素标签串;
一般词典置换部,该一般词典置换部将所述文本的字符串中的、除了所述登记词语部分检测部所检测出的所述词汇部分以外的部分置换成用所述音响标准模式呈现的包含一般词汇的词典的对应词汇的音素标签串;以及
声音合成部,该声音合成部根据所述登记词汇置换部及所述一般词典置换部所获得的所述文本的音素标签串,来生成该文本的合成声音。
4.一种声音识别用词典制作装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响标准模式设定部,该音响标准模式设定部从所述音响标准模式存储部所存储的音响标准模式中,选择预先设定的语言的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的输入声音的音响特征的时间序列和所述音响标准模式设定部所选择的语言的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;以及
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述音响标准模式设定部所选择的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串。
5.一种声音识别装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响标准模式设定部,该音响标准模式设定部从所述音响标准模式存储部所存储的音响标准模式中,选择预先设定的语言的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的输入声音的音响特征的时间序列和所述音响标准模式设定部所选择的语言的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述音响标准模式设定部所选择的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串;
一般词典存储部,该一般词典存储部对利用所述音响标准模式来呈现的词汇的一般词典进行存储;
词典对照部,该词典对照部将所述音响数据匹配部所制作的所述输入声音的音素标签串、所述一般词典、和所述用户词典进行对照,从所述一般词典和所述用户词典中确定与所述输入声音的音素标签串最相似的词汇;以及
识别结果输出部,该识别结果输出部将由所述词典对照部所确定的词汇作为声音识别结果来输出。
6.一种声音合成装置,其特征在于,包括:
音响分析部,该音响分析部对输入声音的声音信号进行音响分析以输出音响特征的时间序列;
音响标准模式存储部,该音响标准模式存储部对每一语言存储有表示标准的音响特征的音响标准模式;
音响标准模式设定部,该音响标准模式设定部从所述音响标准模式存储部所存储的音响标准模式中,选择预先设定的语言的音响标准模式;
音响数据匹配部,该音响数据匹配部将从所述音响分析部输入的输入声音的音响特征的时间序列和所述音响标准模式设定部所选择的语言的音响标准模式进行对照,以制作所述输入声音的音素标签串;
用户词典存储部,该用户词典存储部对登记有所述音响数据匹配部所制作的所述输入声音的音素标签串的用户词典进行存储;
语言切换部,该语言切换部对语言进行切换;
映射表存储部,该映射表存储部对规定了语言间的音素标签的对应关系的映射表进行存储;
音素标签串转换部,该音素标签串转换部参照所述映射表存储部中存储的映射表,将登记到所述用户词典的音素标签串从所述音响标准模式设定部所选择的语言的音素标签串转换成由所述语言切换部进行切换后的语言的音素标签串;
文本输入部,该文本输入部输入文本;
登记词语部分检测部,该登记词语部分检测部从由所述文本输入部输入的文本的字符串中,检测出与登记到所述用户词典的音素标签串相符的词汇部分;
登记词汇置换部,该登记词汇置换部将所述登记词语部分检测部所检测出的所述词汇部分置换成从所述用户词典获取的与该词汇部分相对应的音素标签串;
一般词典置换部,该一般词典置换部将所述文本的字符串中的、除了所述登记词语部分检测部所检测出的所述词汇部分以外的部分置换成用所述音响标准模式呈现的包含一般词汇的词典的对应词汇的音素标签串;以及
声音合成部,该声音合成部根据所述登记词汇置换部及所述一般词典置换部所获得的所述文本的音素标签串,来生成该文本的合成声音。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2010/000369 WO2011089651A1 (ja) | 2010-01-22 | 2010-01-22 | 認識辞書作成装置、音声認識装置及び音声合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102687197A CN102687197A (zh) | 2012-09-19 |
CN102687197B true CN102687197B (zh) | 2014-07-23 |
Family
ID=44306475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080056433.9A Expired - Fee Related CN102687197B (zh) | 2010-01-22 | 2010-01-22 | 声音识别用词典制作装置、声音识别装置及声音合成装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9177545B2 (zh) |
JP (1) | JP4942860B2 (zh) |
CN (1) | CN102687197B (zh) |
DE (1) | DE112010005168B4 (zh) |
WO (1) | WO2011089651A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013195928A (ja) * | 2012-03-22 | 2013-09-30 | Yamaha Corp | 音声素片切出装置 |
JP5990962B2 (ja) * | 2012-03-23 | 2016-09-14 | ヤマハ株式会社 | 歌唱合成装置 |
JP5942559B2 (ja) * | 2012-04-16 | 2016-06-29 | 株式会社デンソー | 音声認識装置 |
US9197481B2 (en) * | 2012-07-10 | 2015-11-24 | Tencent Technology (Shenzhen) Company Limited | Cloud-based translation method and system for mobile client |
US9886947B2 (en) * | 2013-02-25 | 2018-02-06 | Seiko Epson Corporation | Speech recognition device and method, and semiconductor integrated circuit device |
US9953630B1 (en) * | 2013-05-31 | 2018-04-24 | Amazon Technologies, Inc. | Language recognition for device settings |
JP6263868B2 (ja) * | 2013-06-17 | 2018-01-24 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
JP6080978B2 (ja) * | 2013-11-20 | 2017-02-15 | 三菱電機株式会社 | 音声認識装置および音声認識方法 |
US9747897B2 (en) * | 2013-12-17 | 2017-08-29 | Google Inc. | Identifying substitute pronunciations |
US9824684B2 (en) * | 2014-11-13 | 2017-11-21 | Microsoft Technology Licensing, Llc | Prediction-based sequence recognition |
US10403265B2 (en) | 2014-12-24 | 2019-09-03 | Mitsubishi Electric Corporation | Voice recognition apparatus and voice recognition method |
US10628567B2 (en) * | 2016-09-05 | 2020-04-21 | International Business Machines Corporation | User authentication using prompted text |
US11361752B2 (en) * | 2017-09-11 | 2022-06-14 | Mitsubishi Electric Corporation | Voice recognition dictionary data construction apparatus and voice recognition apparatus |
JP6920153B2 (ja) * | 2017-09-27 | 2021-08-18 | 株式会社日立情報通信エンジニアリング | 通話音声処理システム及び通話音声処理方法 |
CN109243428B (zh) * | 2018-10-15 | 2019-11-26 | 百度在线网络技术(北京)有限公司 | 一种建立语音识别模型的方法、语音识别方法及系统 |
US10957318B2 (en) * | 2018-11-02 | 2021-03-23 | Visa International Service Association | Dynamic voice authentication |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1172992A (zh) * | 1996-06-25 | 1998-02-11 | 微软公司 | 在自然语言解析器中识别和解析常混词的方法和系统 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4267101B2 (ja) * | 1997-11-17 | 2009-05-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声識別装置、発音矯正装置およびこれらの方法 |
US6233553B1 (en) * | 1998-09-04 | 2001-05-15 | Matsushita Electric Industrial Co., Ltd. | Method and system for automatically determining phonetic transcriptions associated with spelled words |
KR100277694B1 (ko) * | 1998-11-11 | 2001-01-15 | 정선종 | 음성인식시스템에서의 발음사전 자동생성 방법 |
US6363342B2 (en) * | 1998-12-18 | 2002-03-26 | Matsushita Electric Industrial Co., Ltd. | System for developing word-pronunciation pairs |
US7292980B1 (en) * | 1999-04-30 | 2007-11-06 | Lucent Technologies Inc. | Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems |
US6434521B1 (en) * | 1999-06-24 | 2002-08-13 | Speechworks International, Inc. | Automatically determining words for updating in a pronunciation dictionary in a speech recognition system |
JP3378547B2 (ja) * | 1999-12-27 | 2003-02-17 | 日本電信電話株式会社 | 音声認識方法及び装置 |
US6389394B1 (en) * | 2000-02-09 | 2002-05-14 | Speechworks International, Inc. | Method and apparatus for improved speech recognition by modifying a pronunciation dictionary based on pattern definitions of alternate word pronunciations |
US6272464B1 (en) | 2000-03-27 | 2001-08-07 | Lucent Technologies Inc. | Method and apparatus for assembling a prediction list of name pronunciation variations for use during speech recognition |
JP2001282788A (ja) | 2000-03-28 | 2001-10-12 | Kyocera Corp | 電子辞書装置及び電子辞書装置の使用言語切替方法、記憶媒体 |
US7181395B1 (en) | 2000-10-27 | 2007-02-20 | International Business Machines Corporation | Methods and apparatus for automatic generation of multiple pronunciations from acoustic data |
US6738738B2 (en) * | 2000-12-23 | 2004-05-18 | Tellme Networks, Inc. | Automated transformation from American English to British English |
US20020087317A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented dynamic pronunciation method and system |
EP1233406A1 (en) * | 2001-02-14 | 2002-08-21 | Sony International (Europe) GmbH | Speech recognition adapted for non-native speakers |
JP2002247646A (ja) | 2001-02-19 | 2002-08-30 | Sony Corp | 携帯端末装置およびコンピュータプログラム |
EP1239459A1 (en) * | 2001-03-07 | 2002-09-11 | Sony International (Europe) GmbH | Adaptation of a speech recognizer to a non native speaker pronunciation |
US7043431B2 (en) * | 2001-08-31 | 2006-05-09 | Nokia Corporation | Multilingual speech recognition system using text derived recognition models |
US7149688B2 (en) * | 2002-11-04 | 2006-12-12 | Speechworks International, Inc. | Multi-lingual speech recognition with cross-language context modeling |
AU2003295682A1 (en) * | 2002-11-15 | 2004-06-15 | Voice Signal Technologies, Inc. | Multilingual speech recognition |
US7593849B2 (en) * | 2003-01-28 | 2009-09-22 | Avaya, Inc. | Normalization of speech accent |
DE10304460B3 (de) * | 2003-02-04 | 2004-03-11 | Siemens Ag | Generieren und Löschen von Aussprachevarianten zur Verringerung der Wortfehlerrate in der Spracherkennung |
US7266495B1 (en) * | 2003-09-12 | 2007-09-04 | Nuance Communications, Inc. | Method and system for learning linguistically valid word pronunciations from acoustic data |
US7567896B2 (en) * | 2004-01-16 | 2009-07-28 | Nuance Communications, Inc. | Corpus-based speech synthesis based on segment recombination |
US7415411B2 (en) * | 2004-03-04 | 2008-08-19 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers |
US7590533B2 (en) * | 2004-03-10 | 2009-09-15 | Microsoft Corporation | New-word pronunciation learning using a pronunciation graph |
DE602004023134D1 (de) * | 2004-07-22 | 2009-10-22 | France Telecom | Spracherkennungsverfahren und -system, das an die eigenschaften von nichtmuttersprachlern angepasst ist |
GB2424742A (en) * | 2005-03-31 | 2006-10-04 | Ibm | Automatic speech recognition |
US7630898B1 (en) * | 2005-09-27 | 2009-12-08 | At&T Intellectual Property Ii, L.P. | System and method for preparing a pronunciation dictionary for a text-to-speech voice |
JP2007155833A (ja) | 2005-11-30 | 2007-06-21 | Advanced Telecommunication Research Institute International | 音響モデル開発装置及びコンピュータプログラム |
US20070255567A1 (en) * | 2006-04-27 | 2007-11-01 | At&T Corp. | System and method for generating a pronunciation dictionary |
US8290775B2 (en) * | 2007-06-29 | 2012-10-16 | Microsoft Corporation | Pronunciation correction of text-to-speech systems between different spoken languages |
TW200926142A (en) * | 2007-12-12 | 2009-06-16 | Inst Information Industry | A construction method of English recognition variation pronunciation models |
US7472061B1 (en) * | 2008-03-31 | 2008-12-30 | International Business Machines Corporation | Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations |
US8073693B2 (en) * | 2008-12-04 | 2011-12-06 | At&T Intellectual Property I, L.P. | System and method for pronunciation modeling |
US8788256B2 (en) * | 2009-02-17 | 2014-07-22 | Sony Computer Entertainment Inc. | Multiple language voice recognition |
WO2011004502A1 (ja) * | 2009-07-08 | 2011-01-13 | 株式会社日立製作所 | 音声編集合成装置及び音声編集合成方法 |
-
2010
- 2010-01-22 DE DE112010005168.2T patent/DE112010005168B4/de not_active Expired - Fee Related
- 2010-01-22 WO PCT/JP2010/000369 patent/WO2011089651A1/ja active Application Filing
- 2010-01-22 CN CN201080056433.9A patent/CN102687197B/zh not_active Expired - Fee Related
- 2010-01-22 JP JP2011550720A patent/JP4942860B2/ja not_active Expired - Fee Related
- 2010-01-22 US US13/500,855 patent/US9177545B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1172992A (zh) * | 1996-06-25 | 1998-02-11 | 微软公司 | 在自然语言解析器中识别和解析常混词的方法和系统 |
Non-Patent Citations (4)
Title |
---|
JP特开2000-352989A 2000.12.19 |
JP特开2001-188556A 2001.07.10 |
JP特开2001-296880A 2001.10.26 |
JP特开平11-202889A 1999.07.30 |
Also Published As
Publication number | Publication date |
---|---|
DE112010005168B4 (de) | 2018-12-13 |
DE112010005168T5 (de) | 2012-11-08 |
WO2011089651A1 (ja) | 2011-07-28 |
JPWO2011089651A1 (ja) | 2013-05-20 |
US9177545B2 (en) | 2015-11-03 |
US20120203553A1 (en) | 2012-08-09 |
JP4942860B2 (ja) | 2012-05-30 |
CN102687197A (zh) | 2012-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102687197B (zh) | 声音识别用词典制作装置、声音识别装置及声音合成装置 | |
JP6434948B2 (ja) | 名前発音システム及び方法 | |
CN110223695B (zh) | 一种任务创建方法及移动终端 | |
EP2595143B1 (en) | Text to speech synthesis for texts with foreign language inclusions | |
JP2019046468A (ja) | インターフェイススマートインタラクティブ制御方法、装置、システム及びプログラム | |
EP0892353A2 (en) | Method and apparatus for speech translation with unrecognized segments | |
CN111402862B (zh) | 语音识别方法、装置、存储介质及设备 | |
WO2011121649A1 (ja) | 音声認識装置 | |
CN108564944B (zh) | 智能控制方法、系统、设备及存储介质 | |
Qian et al. | Capturing L2 segmental mispronunciations with joint-sequence models in computer-aided pronunciation training (CAPT) | |
CN102439660A (zh) | 基于置信度得分的语音标签方法和装置 | |
CN108305611B (zh) | 文本转语音的方法、装置、存储介质和计算机设备 | |
US20140236597A1 (en) | System and method for supervised creation of personalized speech samples libraries in real-time for text-to-speech synthesis | |
CN113380222A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
JP2022554149A (ja) | テキスト情報処理方法及び装置 | |
CN113327574A (zh) | 一种语音合成方法、装置、计算机设备和存储介质 | |
JP6109451B2 (ja) | 音声認識装置及び音声認識方法 | |
CN101253547B (zh) | 语音对话方法和系统 | |
JP2012177815A (ja) | 音響モデル学習装置、および音響モデル学習方法 | |
CN113327575A (zh) | 一种语音合成方法、装置、计算机设备和存储介质 | |
CN115700871A (zh) | 模型训练和语音合成方法、装置、设备及介质 | |
JP6179884B2 (ja) | Wfst作成装置、音声認識装置、音声翻訳装置、wfst作成方法、およびプログラム | |
CN111916062A (zh) | 语音识别方法、装置和系统 | |
CN111402859A (zh) | 一种语音词典生成方法、设备及计算机可读存储介质 | |
CN115240633A (zh) | 用于文本到语音转换的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140723 Termination date: 20220122 |
|
CF01 | Termination of patent right due to non-payment of annual fee |