CN111506736A - 文本发音获取方法、装置和电子设备 - Google Patents
文本发音获取方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111506736A CN111506736A CN202010267829.3A CN202010267829A CN111506736A CN 111506736 A CN111506736 A CN 111506736A CN 202010267829 A CN202010267829 A CN 202010267829A CN 111506736 A CN111506736 A CN 111506736A
- Authority
- CN
- China
- Prior art keywords
- pronunciation
- text
- predicted
- pronunciations
- search result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了文本发音获取方法、装置和电子设备,涉及知识图谱领域。具体实现方案为:通过获取待预测文本,利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。由于预测模型通过目标字的发音,以及目标字的释义信息进行训练,可提高预测模型对目标字的发音预测的准确率,这样,在待预测文本包括目标字的情况下,通过预测模型对待预测文本的发音进行预测,也相应的会提高获取的待预测文本的文本发音的准确率。
Description
技术领域
本申请涉及计算机技术领域中知识图谱技术,尤其涉及一种文本发音获取方法、装置和电子设备。
背景技术
随着技术的发展,人机对话软件、翻译软件等应用的使用也越来越广泛,基于文本获取对应发音的应用场景越来越多,例如问答场景、翻译场景等需要发音作为输入或输出的领域。但是,目前获取文本发音的方法,准确率较低。
发明内容
本申请实施例提供一种文本发音获取方法、装置和电子设备,以解决目前获取文本发音的方法,准确率较低的问题。
为解决上述技术问题,本申请是这样实现的:
本申请第一方面提供一种文本发音获取方法,包括:
获取待预测文本;
利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
本申请第二方面提供一种文本发音获取装置,包括:
第一获取模块,用于获取待预测文本;
第二获取模块,用于利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
本申请第三方面提供一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的方法。
本申请第四方面提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面所述的方法。
上述申请中的一个实施例具有如下优点或有益效果:
通过获取待预测文本,利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。由于预测模型通过目标字的发音,以及目标字的释义信息进行训练,可提高预测模型对目标字的发音预测的准确率,这样,在待预测文本包括目标字的情况下,通过预测模型对待预测文本的发音进行预测,也相应的会提高获取的待预测文本的文本发音的准确率。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例提供的文本发音获取方法的流程图之一;
图2是本申请实施例提供的文本发音获取方法的流程图之二;
图3是本申请实施例从训练文本中获得的特征信息示意图;
图4是本申请实施例提供的文本发音获取方法的流程图之三;
图5是本申请实施例提供的文本发音获取装置的结构图;
图6是用来实现本申请实施例的文本发音获取方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
参见图1,图1是本申请实施例提供的文本发音获取方法的流程图之一,如图1所示,本实施例提供一种文本发音获取方法,应用于电子设备,包括以下步骤:
步骤101、获取待预测文本。
待预测文本可为词语、成语或者字数在预设个数范围内的短文本,预设个数可根据实际情况进行设置,在此不做限定。
步骤102、利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
目标字包括多音字,多音字为在不同的场景下,例如表达不同的释义时,具有不同发音的字。目标字还可包括单音字,单音字为只有一种发音的字。发音可为拼音。预测模型对待预测文本的发音进行预测,获得待预测文本的发音。
本实施例中,通过获取待预测文本,利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。由于预测模型通过目标字的发音,以及目标字的释义信息进行训练,可提高预测模型对目标字的发音预测的准确率,这样,在待预测文本包括目标字的情况下,通过预测模型对待预测文本的发音进行预测,也相应的会提高获取的待预测文本的文本发音的准确率。
如图2所示,本实施例提供一种文本发音获取方法,应用于电子设备,包括以下步骤:
步骤201、获取待预测文本。
待预测文本可为词语、成语或者字数在预设个数范围内的短文本,预设个数可根据实际情况进行设置,在此不做限定。若待预测文本不包括多音字,即待预测文本全为单音字,可依次为各个字确定发音,本实施例中不讨论此种情况。若待预测文本包括多音字,则通过预测模型进行发音预测。
步骤202、利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
目标字包括多音字,多音字为在不同的场景下,例如表达不同的释义时,具有不同发音的字。目标字还可包括单音字,单音字为只有一种发音的字。发音可为拼音。
图2所示的实施例为待预测文本中包括多音字的情况。预测模型对待预测文本的发音进行预测,会获得至少两个发音,以及至少两个发音的各发音对应的发音得分。例如,若待预测文本为“十分”,由于“分”为多音字,有两种读音,预测模型会获得两个预测发音,分别为“shi2fen1”和“shi2fen4”,其中,数字2表示“shi”的声调,即二声;数字1表示“fen”的声调,即一声;数字4表示“fen”的声调,即四声。“shi2fen1”对应的发音得分为0.95,“shi2fen4”对应的发音得分为0.05。发音得分越高,表示待预测文本为该发音得分对应的发音的概率越大。
若待预测文本包括多个多音字,预测模型可对这多个多音字中的各个多音字分别进行预测,最后按照待预测文本中各字的综合得分进行排序,并最终确定各个不同发音对应的发音得分。
在本申请一个实施例中,所述训练样本还包括如下一项或多项:
包括所述目标字的训练文本中各字的发音,以及所述训练文本的释义信息;
所述训练文本中目标字的发音,以及目标字的位置坐标;
所述训练文本中目标字的发音,以及伴侣字的部首和所述部首的坐标差;
所述训练文本中目标字的发音,以及伴侣字的释义特征;
所述训练文本中目标字的发音,以及伴侣字的坐标差。
具体的,训练文本可为词语、成语或者字数在预设个数范围内的短文本。训练文本包括目标字,目标字可为多音字或单音字。训练样本可包括多个训练文本,每个训练文本包括一个目标字。伴侣字为训练文本中除目标字之外的其他字,一个训练文本可有多个伴侣字。若训练文本包括多个多音字,可分别将多个多音字的各多音字作为目标字,使得每个训练文本中的目标字只有一个多音字。
训练样本包括所述目标字的训练文本中各字的发音,以及所述训练文本的释义信息(也可称为释义特征或释义)。训练文本的释义特征的作用是:作为训练文本语境释义的简化表示,即当训练文本中的任何一个字读对应的音时,它应具有关联此释义特征,或者当它具有关联此释义特征时,它应该读这个音。
根据词语重要性接口对词语或短语的实体进行切分,取重要性高的成分作为其训练文本的释义特征。如训练文本“枪杆”的释义为“枪身,泛指武器或武装力量,也说枪杆子。”根据词语重要性,其释义特征为“武器、武装、枪杆子”,即获得训练文本“枪杆”各字的发音分别为“qiang1”“gan3”,训练文本对应的释义信息为“武器、武装、枪杆子”,则基于该训练文本可知,“枪=qiang1=武器、武装、枪杆子”和“杆=gan3=武器、武装、枪杆子”,其中,“=”可理解为“对应”,即“枪”对应“qiang1”对应“武器、武装、枪杆子”,“杆”对应“gan3”对应“武器、武装、枪杆子”。
图3所示为从训练文本中获得的体现不同角度的特征信息示意图。
训练样本包括目标字的发音,以及所述目标字的释义信息。目标字的释义特征(也可称为释义特征或释义)的作用是,脱离语境,单个字的释义的简化表示。如果目标字读指定音,它表示该释义特征的意思。反过来,如果包括目标字的训练文本的释义接近该单字的某一个读音下的释义特征,则该训练文本中目标字应该读该指定音。
“杆”有两个读音,“枪杆”的读音(本申请中读音即为发音)是“qiang1gan3”,若目标字为“枪杆”的“杆”,杆在“gan3”读音下的释义为“器物上较细长的棍状物。有的实心,有的中空。”,对其使用词语重要性接口,其释义特征为“器物、细长、棍状物、实心、中空”。特别地,如果其是特殊的读音习惯,如姓氏或地名,在此同样会被加入释义特征。
“杆”在读gan3声的时候,其释义特征为“器物、细长、棍状物、实心、中空”。“杆=gan3=器物、细长、棍状物、实心、中空”,“=”可理解为“对应”,即“杆”对应“gan3”对应“器物、细长、棍状物、实心、中空”。预测模型在训练过程中,当“杆”出现在其他训练文本中,综合联系其训练文本的释义特征、目标字释义特征(后面介绍)、伴侣字释义特征,得出其杆的读音,比如判断训练文本“杆棒”时,其释义为“用作兵器的木棒。”,特征为“兵器、木棒”,综合分析,提升其gan3的发音的得分。
训练样本还包括所述训练文本中目标字的发音,以及目标字的位置坐标。目标字的坐标位置作用是归纳目标字的读音与位置的关系:例如,“枪杆”的“枪”,在“枪杆”中是开头的第一个字,也是倒数第二个字,即从尾部的第二个字,记作(1,2)。而“枪杆”的“杆”,在“枪杆”中是开头第二个字,也是倒数第一个字,即尾部第一个字,记作(2,1)。
又例如“的确”的“的”,读音为di2,常出现在首位,那么在预测模型中,当“的”出现在第一位的时候,它读(di2)的权重应相应提高。
所述训练样本还包括所述训练文本中目标字的发音,以及伴侣字的部首和所述部首的坐标差。
对于训练文本中非目标字的任意其他文字,均是伴侣字。比如“枪杆”的“枪”为目标字的时候,“枪杆”的“杆”即为其伴侣字。伴侣字的作用是在目标字所在的环境因素(即训练文本),利用语境中有价值的信息去关联目标字与其读音。下面以训练文本为“枪杆”,目标字为“杆”,伴侣字为“枪”为例进行说明:
伴侣字的部首以及其坐标差:伴侣字部首为“木”,它作为语境的特征,与目标字的读音建立联系,并且用坐标差来表征其强度。“枪杆=枪=木(-1)=杆gan3”,其中+1表示伴侣字以第一个字的索引为1,第二个字为2,以此类推,“枪杆”的“枪”作为伴侣字,与目标字“杆”的位置差为1-2=-1,即“部首:木”出现在“枪杆”的“杆”的左侧一个位置。
它的作用是,当其他训练文本具有相同特征时,比如“杠杆”,当确定“杆”的读音(作为目标字时),其伴侣字“杠”同样满足“部首:木”出现在左侧一个位置,则预测模型会对“杆”读gan3进行加权,以提高“杆”读gan3的得分。
训练样本还包括:所述训练文本中目标字的发音,以及伴侣字的释义特征。
以“枪杆”的“枪”作为伴侣字为例,“枪”的释义为:长杆上装有金属尖头的冷兵器;通常指口径在20毫米以下,利用火药气体压力抛射弹头的武器,如手枪、步枪、冲锋枪、机关枪和具有特种用途的专用枪;形状像枪的器具;枪替,考试时替别人作文章或答题。
根据词语重要性接口,得到其释义特征为“长杆、金属、兵器、火药、武器、器具、答题”,则其他训练文本中含有“杆”作为目标字时,综合考虑其训练文本的释义特征、伴侣字释义特征,若其与“枪”的释义特征“长杆、金属、兵器、火药、武器、器具、答题”具有关联性,则预测模型中“杆gan3”的读音得分应被加权提升。
所述训练样本还包括:所述训练文本中目标字的发音,以及伴侣字的坐标差。
与伴侣字部首坐标差接近,通过坐标差来表征不同字的连续性,以及其组合强度。若“枪杆”中“杆”读3声,则对于训练文本为“枪杆子”、“枪杆儿”、“铁枪杆”、“木枪杆”、“火枪杆”,预测模型应感知“枪”对“杆”造成的影响,从而加权“杆”读“gan3”权重,即增加“杆”读“gan3”的得分。
训练文本可为数据集中的数据。训练样本包括的每个信息都能表征一定的角度,训练样本确定好之后,利用训练样本对预测模型进行训练,调整预测模型的权重,以获得训练好的预测模型。预测模型可为神经网络模型。
本实施例中,训练样本可包括上述多项信息,可使得训练样本从多个方面获取特征来对预测模型进行训练,以提高预测模型的预测准确率,使得后续使用预测模型对待预测文本的发音进行预测时,可提高预测模型预测的准确率。
步骤203、根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音。
在网络资源上搜索待预测文本的发音,第一网络搜索即在网络资源上进行搜索。第一搜索结果包括待预测文本的一个或多个发音。
可利用网络资源对预测模型的预测结果进行校验。利用每一个语境单字的所有拼音作为备选,例如分包括fen1、fen4这两种发音,通过如下两种方式进行第一网络搜索获取整段待预测文本的读音:
对待预测文本的所有文字的发音进行搜索,例如,若待预测文本为“十分美丽”,则通过第一网络搜索搜“十分美丽”的发音;
对待预测文本的语境单字发音进行搜索,例如,通过第一网络搜索搜“十分美丽”中“分”的发音。
通过上述两种搜索方式,获得第一搜索结果。
步骤204、若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。
对第一搜索结果进行分析,若第一搜索结果中第一发音出现的次数与第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音。例如,若待预测文本为“十分”,第一搜索结果中读音为“shi2fen1”的发音一共有8个搜索结果项,读音为“shi2fen4”的发音有2个搜索结果项,则第一搜索结果中出现次数最多的发音为“shi2fen1”,“shi2fen1”为第一发音,第一搜索结果中所有发音出现的次数之和为10次(即8加2),第一发音出现的次数与第一搜索结果中所有发音出现的次数之和的比值为0.8,若0.8大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,即综合第一发音和所述至少两个发音来确定待预测文本的文本发音,以进一步提高对待预测文本的发音进行预测的准确率。其中,预测阈值可根据实际情况进行设置,例如0.7,在此不做限定。
在本申请一个实施例中,步骤204,若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分;
将所述至少两个发音中最高的发音得分对应的发音确定为所述待预测文本的文本发音。
本实施例中,若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分,即增加第二发音对应的发音得分。例如,若待预测文本为“十分”,第一发音为“shi2fen1”,所述至少两个发音分别为“shi2fen1”和“shi2fen4”,各发音对应的得分分别为0.95和0.05,第一发音与所述至少两个发音中的第二发音“shi2fen1”相同,则可将“shi2fen1”的得分调高至0.98,将“shi2fen4”的得分调低至0.02,当然也可以只调高“shi2fen1”的得分,而不对“shi2fen4”的得分进行调整。然后选择得分最高的发音得分“shi2fen1”作为待预测文本的文本发音,由于第二发音原本为至少两个发音中对应的发音得分最高的发音,在考虑第一发音的影响的情况下,第二发音仍旧为至少两个发音中最高的发音得分对应的发音,第一发音对待预测文本的预测结果的影响不大。
又例如,若待预测文本为“十分”,第一发音为“shi2fen4”,所述至少两个发音分别为“shi2fen1”和“shi2fen4”,各发音对应的得分分别为0.55和0.45,第一发音与所述至少两个发音中的第二发音“shi2fen4”相同,则可将“shi2fen4”的得分调高至0.55,将“shi2fen1”的得分调低至0.45,当然也可以只调高“shi2fen4”的得分,而不对“shi2fen1”的得分进行调整。然后选择得分最高的发音得分“shi2fen4”作为待预测文本的文本发音,由于第二发音原本不为至少两个发音中对应的发音得分最高的发音,在考虑第一发音的影响的情况下,第二发音成为至少两个发音中最高的发音得分对应的发音,第一发音对待预测文本的预测结果的影响较大。
第一发音可认为是网络最优答案,第一发音为待预测文本的文本发音的概率比较大,此时,基于第一发音来调整至少两个发音中各个发音对应的发音得分,可提高待预测文本的文本发音的准确率。
本实施例中,在第一发音与所述至少两个发音中的第二发音相同时,调整至少两个发音中各发音对应的发音得分,并将调整后的最高发音得分对应的发音确定为待预测文本的文本发音,可提高待预测文本的文本发音的准确率。
在本申请一个实施例中,若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,所述数据集中的数据用于对所述预测模型进行更新;
调整所述至少两个发音中各发音对应的发音得分。
具体的,第一发音可认为是网络最优答案,第一发音为待预测文本的文本发音的概率比较大,若第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,说明第一发音也是预测模型的预测结果中发音得分最高的发音,则第一发音为待预测文本的实际发音的概率很大,此种情况下,将待预测文本与所述第一发音的对应关系存入数据集中,便于后续采用数据集中的数据对预测模型进行更新,例如,按照预设时间间隔对预测模型进行更新,或者数据集中每增加预设数量的新数据时,对预测模型进行更新,提高预测模型的预测准确率。
调整所述至少两个发音中各发音对应的发音得分时,可增加第二发音对应的发音得分,减少其他发音对应的发音得分。
进一步的,在对待预测文本通过预测模型进行预测之前,可在数据集中对待预测文本的发音进行搜索,若查找成功,则将查找到的发音确定为待预测文本的文本发音,若查找失败,则通过预测模型对待预测文本进行预测。数据集包括文本以及文本的发音。
本实施例中,若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,并使用数据集中的数据对所述预测模型进行更新,可以提高预测模型的预测准确率,并且由于自动收集预测模型的训练样本,还提高了预测模型的训练效率。
步骤202-步骤204为步骤102的一种具体实现方式。
本实施例中,利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。第一发音可认为是网络最优答案,第一发音为待预测文本的文本发音的概率比较大,此时,根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,可提高待预测文本的文本发音的准确率。
参见图4,图4是本申请实施例提供的文本发音获取方法的流程图之三,如图4所示,本实施例提供一种文本发音获取方法,应用于电子设备,包括以下步骤:
步骤301、获取待预测文本。
待预测文本可为词语、成语或者字数在预设个数范围内的训练文本,预设个数可根据实际情况进行设置,在此不做限定。
步骤302、对所述待预测文本的释义信息进行第二网络搜索,获得第二搜索结果。
在网络资源上搜索待预测文本的释义信息,第二网络搜索即在网络资源上进行待预测文本的释义信息搜索。第二搜索结果包括待预测文本的释义信息。
为了提高预测模型的预测准确率,本实施例中,可增加有利于预测模型进行预测的辅助信息,即基于第二网络搜索获得的待预测文本的释义信息。
步骤303、对所述第二搜索结果进行信息抽取,并将抽取获得的抽取信息确定为所述待预测文本的释义信息。
第二搜索结果中可能包括多个搜索子结果,每个搜索子结果中可能包括对待预测文本的释义信息的描述,在获得第二搜索结果后,可利用词语重要性接口对其进行抽取,将抽取获得的抽取信息作为待预测文本的释义信息。
步骤304、基于所述待预测文本的释义信息,利用所述预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音。
在利用预测模型对待预测文本的发音进行预测时,也将待预测文本的释义信息输入至预测模型中,以增加有利于预测模型进行预测的辅助信息,提高预测模型的预测准确率。
预测模型在获得预测结果后,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。具体可采用步骤202-步骤204中的相关记载,在此不做赘述。
步骤302-步骤304为步骤102的一种具体实现方式。
本实施例中,在利用预测模型对待预测文本的发音进行预测时,也将通过网络搜索获得的待预测文本的释义信息输入至预测模型中,以增加有利于预测模型进行预测的辅助信息,提高预测模型的预测准确率,从而提高所述待预测文本的文本发音的准确率。
参见图5,图5是本申请实施例提供的文本发音获取装置的结构图,如图5所示,本实施例提供一种文本发音获取装置400,包括:
第一获取模块401,用于获取待预测文本;
第二获取模块402,用于利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
在本申请一个实施例中,所述第二获取模块402,包括:
第一获取子模块,用于利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;
第二获取子模块,用于根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;
第一确定子模块,用于若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。
在本申请一个实施例中,所述第一确定子模块,包括:
调整单元,用于若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分;
确定单元,用于将所述至少两个发音中最高的发音得分对应的发音确定为所述待预测文本的文本发音。
在本申请一个实施例中,所述第二获取模块402,包括:
第三获取子模块,用于对所述待预测文本的释义信息进行第二网络搜索,获得第二搜索结果;
抽取子模块,用于对所述第二搜索结果进行信息抽取,并将抽取获得的抽取信息确定为所述待预测文本的释义信息;
第四获取子模块,用于基于所述待预测文本的释义信息,利用所述预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音。
在本申请一个实施例中,所述训练样本还包括如下一项或多项:
包括所述目标字的训练文本中各字的发音,以及所述训练文本的释义信息;
所述训练文本中目标字的发音,以及目标字的位置坐标;
所述训练文本中目标字的发音,以及伴侣字的部首和所述部首的坐标差;
所述训练文本中目标字的发音,以及伴侣字的释义特征;
所述训练文本中目标字的发音,以及伴侣字的坐标差。
在本申请一个实施例中,所述调整单元,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,所述数据集中的数据用于对所述预测模型进行更新;
调整所述至少两个发音中各发音对应的发音得分。
文本发音获取装置400能够实现图1、图2、图4所示的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本申请实施例的文本发音获取装置400,通过获取待预测文本,利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。由于预测模型通过目标字的发音,以及目标字的释义信息进行训练,可提高预测模型对目标字的发音预测的准确率,这样,在待预测文本包括目标字的情况下,通过预测模型对待预测文本的发音进行预测,也相应的会提高获取的待预测文本的文本发音的准确率。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的文本发音获取方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的文本发音获取方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的文本发音获取方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的文本发音获取方法对应的程序指令/模块(例如,附图5所示的第一获取模块501和第二获取模块502)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的文本发音获取方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据实现文本发音获取方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至实现文本发音获取方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现文本发音获取方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与实现文本发音获取方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过获取待预测文本,利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。由于预测模型通过目标字的发音,以及目标字的释义信息进行训练,可提高预测模型对目标字的发音预测的准确率,这样,在待预测文本包括目标字的情况下,通过预测模型对待预测文本的发音进行预测,也相应的会提高获取的待预测文本的文本发音的准确率。
利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。第一发音可认为是网络最优答案,第一发音为待预测文本的文本发音的概率比较大,此时,根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,可提高待预测文本的文本发音的准确率。
在利用预测模型对待预测文本的发音进行预测时,也将通过网络搜索获得的待预测文本的释义信息输入至预测模型中,以增加有利于预测模型进行预测的辅助信息,提高预测模型的预测准确率,从而提高所述待预测文本的文本发音的准确率。
在第一发音与所述至少两个发音中的第二发音相同时,调整至少两个发音中各发音对应的发音得分,并将调整后的最高发音得分对应的发音确定为待预测文本的文本发音,可提高待预测文本的文本发音的准确率。
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,并使用数据集中的数据对所述预测模型进行更新,可以提高预测模型的预测准确率,并且由于自动收集预测模型的训练样本,还提高了预测模型的训练效率。
训练样本可包括多项信息,可使得训练样本从多个方面获取特征来对预测模型进行训练,以提高预测模型的预测准确率,使得后续使用预测模型对待预测文本的发音进行预测时,可提高预测模型预测的准确率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种文本发音获取方法,其特征在于,包括:
获取待预测文本;
利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
2.根据权利要求1所述的文本发音获取方法,其特征在于,所述利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,包括:
利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;
根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;
若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。
3.根据权利要求2所述的文本发音获取方法,其特征在于,所述若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分;
将所述至少两个发音中最高的发音得分对应的发音确定为所述待预测文本的文本发音。
4.根据权利要求1所述的文本发音获取方法,其特征在于,所述利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,包括:
对所述待预测文本的释义信息进行第二网络搜索,获得第二搜索结果;
对所述第二搜索结果进行信息抽取,并将抽取获得的抽取信息确定为所述待预测文本的释义信息;
基于所述待预测文本的释义信息,利用所述预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音。
5.根据权利要求1所述的文本发音获取方法,其特征在于,所述训练样本还包括如下一项或多项:
包括所述目标字的训练文本中各字的发音,以及所述训练文本的释义信息;
所述训练文本中目标字的发音,以及目标字的位置坐标;
所述训练文本中目标字的发音,以及伴侣字的部首和所述部首的坐标差;
所述训练文本中目标字的发音,以及伴侣字的释义特征;
所述训练文本中目标字的发音,以及伴侣字的坐标差。
6.根据权利要求3所述的文本发音获取方法,其特征在于,所述若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,所述数据集中的数据用于对所述预测模型进行更新;
调整所述至少两个发音中各发音对应的发音得分。
7.一种文本发音获取装置,其特征在于,包括:
第一获取模块,用于获取待预测文本;
第二获取模块,用于利用预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音,所述预测模型的训练样本包括目标字的发音,以及所述目标字的释义信息。
8.根据权利要求7所述的文本发音获取装置,其特征在于,所述第二获取模块,包括:
第一获取子模块,用于利用预测模型对所述待预测文本的发音进行预测,获得至少两个发音,以及所述至少两个发音的各发音对应的发音得分;
第二获取子模块,用于根据所述待预测文本进行第一网络搜索,获得第一搜索结果,所述第一搜索结果包括所述待预测文本的至少一个发音;
第一确定子模块,用于若所述第一搜索结果中第一发音出现的次数与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,则根据所述至少两个发音和所述第一发音确定所述待预测文本的文本发音,其中,所述第一发音为所述第一搜索结果中出现次数最多的发音。
9.根据权利要求8所述的文本发音获取装置,其特征在于,所述第一确定子模块,包括:
调整单元,用于若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中的第二发音相同,则调整所述至少两个发音中各发音对应的发音得分;
确定单元,用于将所述至少两个发音中最高的发音得分对应的发音确定为所述待预测文本的文本发音。
10.根据权利要求7所述的文本发音获取装置,其特征在于,所述第二获取模块,包括:
第三获取子模块,用于对所述待预测文本的释义信息进行第二网络搜索,获得第二搜索结果;
抽取子模块,用于对所述第二搜索结果进行信息抽取,并将抽取获得的抽取信息确定为所述待预测文本的释义信息;
第四获取子模块,用于基于所述待预测文本的释义信息,利用所述预测模型对所述待预测文本的发音进行预测,获得所述待预测文本的文本发音。
11.根据权利要求7所述的文本发音获取装置,其特征在于,所述训练样本还包括如下一项或多项:
包括所述目标字的训练文本中各字的发音,以及所述训练文本的释义信息;
所述训练文本中目标字的发音,以及目标字的位置坐标;
所述训练文本中目标字的发音,以及伴侣字的部首和所述部首的坐标差;
所述训练文本中目标字的发音,以及伴侣字的释义特征;
所述训练文本中目标字的发音,以及伴侣字的坐标差。
12.根据权利要求9所述的文本发音获取装置,其特征在于,所述调整单元,包括:
若所述第一发音与所述第一搜索结果中所有发音出现的次数之和的比值大于预设阈值,且所述第一发音与所述至少两个发音中最高的发音得分对应的第二发音相同,则将所述待预测文本与所述第一发音的对应关系存入数据集中,所述数据集中的数据用于对所述预测模型进行更新;
调整所述至少两个发音中各发音对应的发音得分。
13.一种电子设备,其特征在于,包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010267829.3A CN111506736B (zh) | 2020-04-08 | 2020-04-08 | 文本发音获取方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010267829.3A CN111506736B (zh) | 2020-04-08 | 2020-04-08 | 文本发音获取方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111506736A true CN111506736A (zh) | 2020-08-07 |
CN111506736B CN111506736B (zh) | 2023-08-08 |
Family
ID=71875942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010267829.3A Active CN111506736B (zh) | 2020-04-08 | 2020-04-08 | 文本发音获取方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111506736B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113806479A (zh) * | 2021-09-02 | 2021-12-17 | 深圳市声扬科技有限公司 | 文本注音的方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1816846A (zh) * | 2003-06-04 | 2006-08-09 | 株式会社建伍 | 用于选择话音数据的设备、方法和程序 |
JP4545363B2 (ja) * | 1999-06-24 | 2010-09-15 | スピーチワークス・インターナショナル・インコーポレーテッド | 音声認識システムにおける発音辞書の精度の自動的決定 |
JP2012038151A (ja) * | 2010-08-09 | 2012-02-23 | Aba Kk | 漢字検索システム、漢字検索方法及びプログラム |
US20120220275A1 (en) * | 2009-10-28 | 2012-08-30 | Kyocera Corporation | Electronic device and electronic device control method |
CN106843523A (zh) * | 2016-12-12 | 2017-06-13 | 百度在线网络技术(北京)有限公司 | 基于人工智能的文字输入方法和装置 |
CN107515850A (zh) * | 2016-06-15 | 2017-12-26 | 阿里巴巴集团控股有限公司 | 确定多音字发音的方法、装置和系统 |
CN110310619A (zh) * | 2019-05-16 | 2019-10-08 | 平安科技(深圳)有限公司 | 多音字预测方法、装置、设备及计算机可读存储介质 |
CN110807331A (zh) * | 2019-10-24 | 2020-02-18 | 百度在线网络技术(北京)有限公司 | 一种多音字读音预测方法、装置和电子设备 |
-
2020
- 2020-04-08 CN CN202010267829.3A patent/CN111506736B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4545363B2 (ja) * | 1999-06-24 | 2010-09-15 | スピーチワークス・インターナショナル・インコーポレーテッド | 音声認識システムにおける発音辞書の精度の自動的決定 |
CN1816846A (zh) * | 2003-06-04 | 2006-08-09 | 株式会社建伍 | 用于选择话音数据的设备、方法和程序 |
US20120220275A1 (en) * | 2009-10-28 | 2012-08-30 | Kyocera Corporation | Electronic device and electronic device control method |
US20150113392A1 (en) * | 2009-10-28 | 2015-04-23 | Kyocera Corporation | Electronic device and electronic device control method |
JP2012038151A (ja) * | 2010-08-09 | 2012-02-23 | Aba Kk | 漢字検索システム、漢字検索方法及びプログラム |
CN107515850A (zh) * | 2016-06-15 | 2017-12-26 | 阿里巴巴集团控股有限公司 | 确定多音字发音的方法、装置和系统 |
CN106843523A (zh) * | 2016-12-12 | 2017-06-13 | 百度在线网络技术(北京)有限公司 | 基于人工智能的文字输入方法和装置 |
CN110310619A (zh) * | 2019-05-16 | 2019-10-08 | 平安科技(深圳)有限公司 | 多音字预测方法、装置、设备及计算机可读存储介质 |
CN110807331A (zh) * | 2019-10-24 | 2020-02-18 | 百度在线网络技术(北京)有限公司 | 一种多音字读音预测方法、装置和电子设备 |
Non-Patent Citations (3)
Title |
---|
DONG WANG 等: "《Stochastic Pronunciation Modeling for Out-of-Vocabulary Spoken Term Detection》" * |
刘红: "《连续语境下多音字语音和语义信息的认知机制研究》" * |
戴国徽: "《汉语发音中多音离合词的读音消歧》" * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113806479A (zh) * | 2021-09-02 | 2021-12-17 | 深圳市声扬科技有限公司 | 文本注音的方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111506736B (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111125335B (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN111709247B (zh) | 数据集处理方法、装置、电子设备和存储介质 | |
CN111797226B (zh) | 会议纪要的生成方法、装置、电子设备以及可读存储介质 | |
CN112163405B (zh) | 问题的生成方法和装置 | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
CN106843737B (zh) | 文本输入方法、装置及终端设备 | |
CN111859997B (zh) | 机器翻译中的模型训练方法、装置、电子设备及存储介质 | |
CN112541076B (zh) | 目标领域的扩充语料生成方法、装置和电子设备 | |
CN111177355B (zh) | 基于搜索数据的人机对话交互方法、装置和电子设备 | |
CN106528846B (zh) | 一种检索方法及装置 | |
KR101126406B1 (ko) | 유사어 결정 방법 및 시스템 | |
CN110717340B (zh) | 推荐方法、装置、电子设备及存储介质 | |
CN103514230A (zh) | 一种用于根据语料序列训练语言模型的方法与设备 | |
CN111651578A (zh) | 人机对话方法、装置及设备 | |
CN102982125A (zh) | 一种用于确定同义文本的方法和装置 | |
CN111160013A (zh) | 文本纠错方法及装置 | |
CN112329453A (zh) | 样本章节的生成方法、装置、设备以及存储介质 | |
CN111737966A (zh) | 文档重复度检测方法、装置、设备和可读存储介质 | |
CN111984774A (zh) | 搜索方法、装置、设备以及存储介质 | |
CN112099647A (zh) | 应用操作方法、装置、电子设备及可读存储介质 | |
CN111506736A (zh) | 文本发音获取方法、装置和电子设备 | |
CN112084150A (zh) | 模型训练、数据检索方法,装置,设备以及存储介质 | |
CN111753964A (zh) | 神经网络的训练方法和装置 | |
CN115145924A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN112101020B (zh) | 训练关键短语标识模型的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |