CN109213856A - 一种语义识别方法及系统 - Google Patents

一种语义识别方法及系统 Download PDF

Info

Publication number
CN109213856A
CN109213856A CN201811232528.6A CN201811232528A CN109213856A CN 109213856 A CN109213856 A CN 109213856A CN 201811232528 A CN201811232528 A CN 201811232528A CN 109213856 A CN109213856 A CN 109213856A
Authority
CN
China
Prior art keywords
voice
word
identification model
speech
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811232528.6A
Other languages
English (en)
Inventor
魏誉荧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN201811232528.6A priority Critical patent/CN109213856A/zh
Publication of CN109213856A publication Critical patent/CN109213856A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明属于语义识别领域,公开了一种语义识别方法及系统,其方法包括:利用获取的训练样本集对初始识别模型进行训练,得到识别模型;获取待识别语音信息;将待识别语音信息输入识别模型,去除待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;对目标语音进行语义理解,得到语义识别结果。本发明通过识别模型对待识别语音信息中的语气词等非关键词和重复内容进行过滤,解决用户语句中冗余信息太多而导致语义理解错误的问题,从而提高语义识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。

Description

一种语义识别方法及系统
技术领域
本发明属于语义识别技术领域,特别涉及一种语义识别方法及系统。
背景技术
随着智能终端及网络技术的迅速发展,人们越来越习惯地使用智能终端中人机交互场景来完成各种需求,如在学习的过程中,碰到不理解的知识点、不会解的习题时,在智能学习设备中语音输入相关知识点,即可搜索到对应的答案和知识讲解,以便对用户进行学习辅导。
目前,在人机交互场景中,准确理解语义是做出正确应答的基础。但是,由于学生在讲话过程中,经常夹杂相关的语气词或同一句话重复念的情况。当对学生输入的语音进行语音识别后,由于语气词或重复词等的存在,会使得程序无法准确的理解其真实意图,从而无法为学生推荐相关的学习内容或推荐的解答并不是学生所需的,使得用户的体验感较差,不利于产品的推广和使用。
发明内容
本发明的目的是提供一种语义识别方法及系统,实现提高语义识别准确率的目的。
本发明提供的技术方案如下:
一方面,提供一种语义识别方法,包括:
利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
获取待识别语音信息;
将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
对所述目标语音进行语义理解,得到语义识别结果。
优选地,所述的利用获取的训练样本集对初始识别模型进行训练,得到识别模型具体包括:
建立语音库,所述语音库中包括若干用户的语音;
将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型。
优选地,所述的将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音具体包括:
将所述语音库中的每条语音中的词语进行词性标注;
根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音。
优选地,所述的对所述目标语音进行语义理解,得到语义识别结果具体包括:
提取出所述目标语音中的语音特征;
根据提取出的语音特征,识别出所述目标语音对应的地域信息;
根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
识别校正后的所述目标语音,得到对应的文本信息;
对所述文本信息进行语义理解,得到语义识别结果。
优选地,所述的获取待识别语音信息之后还包括:
根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
另一方面,还提供一种语义识别系统,包括:
识别模型获取模块,用于利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
语音信息获取模块,用于获取待识别语音信息;
目标语音生成模块,用于将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
语义识别模块,用于对所述目标语音进行语义理解,得到语义识别结果。
优选地,所述识别模型获取模块具体包括:
语音库建立单元,用于建立语音库,所述语音库中包括若干用户的语音;
标准语音生成单元,用于将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
识别模型获取单元,用于利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型。
优选地,所述标准语音生成单元包括:
词性标注子单元,用于将所述语音库中的每条语音中的词语进行词性标注;
分词子单元,用于根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
非关键词去除子单元,用于根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
去重子单元,用于在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音。
优选地,所述语义识别模块具体包括:
语音特征提取单元,用于提取出所述目标语音中的语音特征;
地域信息识别单元,用于根据提取出的语音特征,识别出所述目标语音对应的地域信息;
声韵母映射表查找单元,用于根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
校正单元,用于根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
语音识别单元,用于识别校正后的所述目标语音,得到对应的文本信息;
语义识别单元,用于对所述文本信息进行语义理解,得到语义识别结果。
优选地,语义识别系统还包括:
映射关系更新模块,用于根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
声韵母映射表更新模块,用于根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
与现有技术相比,本发明提供的一种语义识别方法及系统具有以下有益效果:
1、本发明先通过训练样本集,训练得到识别模型,然后根据识别模型,去除待识别语音信息中不影响真实语义的非关键词和重复内容,生成最终句式,即目标语音,然后对目标语音进行语义理解,得到正确的语义识别结果;本发明通过识别模型对待识别语音信息中的语气词等非关键词和重复内容进行过滤,解决用户语句中冗余信息太多而导致语义理解错误的问题,从而提高语义识别的准确率,以便更准确的了解用户的真实意图,更好地为用户服务,提高用户的使用体验。
2、本发明的训练样本集中的标准语音可由软件对语音库中的语音进行非关键词和重复内容的去除而得到,然后由人工进行审核更正;无需人工对每条语音进行非关键词和重复内容的去除,提高了训练样本集的获取效率。
3、本发明通过对目标语音进行声母和韵母的校正,可提高语音识别的准确率,从而进一步提高语义识别的准确率。
4、本发明根据获取的待识别语音信息,更新声韵母映射表,可针对用户进行个性化的语音校正,从而提高语音识别的准确率,进一步提高语义识别的准确率。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对一种语义识别方法及系统的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明一种语义识别方法的第一实施例的流程示意图;
图2是本发明一种语义识别方法的第二实施例的流程示意图;
图3是本发明一种语义识别方法的第三实施例的流程示意图;
图4是本发明一种语义识别方法的第四实施例的流程示意图;
图5是本发明一种语义识别方法的第五实施例的流程示意图;
图6是本发明一种语义识别系统的一个实施例的结构示意框图;
图7是本发明一种语义识别系统的另一个实施例的结构示意框图。
附图标号说明:
100、识别模型获取模块;110、语音库建立单元;
120、标准语音生成单元;121、词性标注子单元;
122、分词子单元;123、非关键词去除子单元;
124、去重子单元;130、识别模型获取单元;
200、语音信息获取模块;300、目标语音生成模块;
400、语义识别模块;410、语音特征提取单元;
420、地域信息识别单元;430、声韵母映射表查找单元;
440、校正单元;450、语音识别单元;
460、语义识别单元;500、映射关系更新模块;
600、声韵母映射表更新模块。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
为使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
根据本发明提供的第一实施例,如图1所示,一种语义识别方法,包括:
S100利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
具体地,目前的机器学习方法,例如深度学习方法相较于传统的方法,更多的依赖于海量的训练数据。随着训练数据的提升,新的机器学习方法能够不断提升机器的精度,这个特征在传统的方法中是不存在的。因此,为了提高识别模型的识别精度,我们需要获取大量的训练数据,形成训练样本集,以对初始识别模型进行训练,得到训练后的识别模型。初始识别模型是一种基于训练样本训练的模型,如神经网络模型、卷积神经网络模型、深度神经网络模型、支持向量机网络模型、决策森林网络模型、贝叶斯网络模型等。
S200获取待识别语音信息;
S300将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
具体地,通过训练样本集训练得到识别模型后,将待识别语音信息输入识别模型,识别模型按训练的规则对待识别语音信息中不影响语义的非关键词和重复内容进行过滤去除,即去除待识别语音信息中的冗余信息,生成正确的关键词语句,以利于语义理解。
例如,用户输入的待识别语音信息为“这道非常难的应用题怎么怎么做”,用户想表达的真实意图是“这道题怎么做”,但是由于输入的待识别语音信息中包含较多的干扰信息,使得智能终端对输入的待识别语音信息“这道非常难的应用题怎么怎么做”进行语义识别时,不仅识别效率较低,而且识别的准确率也会产生一定的影响。而当通过识别模型对用户输入的待识别语音信息中的非关键词“非常难的应用”以及重复内容“怎么”等干扰信息去除后,得到的正确的关键语句为“这道题怎么做”,当对“这道题怎么做”进行语义识别时,不仅识别效率较高,而且识别的准确率也较高。
S400对所述目标语音进行语义理解,得到语义识别结果。
具体地,通过识别模型得到目标语音后,如得到“这道题怎么做”后,先对语音“这道题怎么做”进行语音识别,即将“这道题怎么做”识别为文本信息,然后对识别出的文本信息进行语义识别,得到语义识别结果。
本实施例中,先通过训练样本集,训练得到识别模型,然后根据识别模型,去除待识别语音信息中不影响真实语义的非关键词和重复内容,生成最终句式,即目标语音,然后对目标语音进行语义理解,得到正确的语义识别结果;本发明通过识别模型对待识别语音信息中的语气词等非关键词和重复内容进行过滤,解决用户语句中冗余信息太多而导致语义理解错误的问题,从而提高语义识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
根据本发明提供的第二实施例,如图2所示,一种语义识别方法,包括:
S110建立语音库,所述语音库中包括若干用户的语音;
具体地,为了获得海量的训练数据,我们需要收集大量的语音语料,以建立语音库,在收集语料时,可根据不同的用户群体进行收集,如语音识别产品用于学习产品上,则其用户群体为学生,我们可以收集大量的学生的语音数据建立语音库,使得训练样本集中的数据更接近于需要识别的语音的语音特点,从而提高训练后的识别模型的识别效果。如语音识别产品用于智能音箱等人机交互设备中,则需要收集各种不同群体的语音数据,使得训练数据更符合训练目的,从而提高识别模型的识别效果。
S120将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
具体地,建立语音库后,需要对语音库中的每条语音进行处理,以得到训练样本。在语音库中,每条语音与其对应的标准语音即为一个训练样本。通过对语音库中的每条语音进行处理,即可得到若干个训练样本。通过若干训练样本对初始识别模型进行训练。
在对每条语音进行处理时,可通过人工去除每条语音中的非关键词和重复内容,也可通过机器去除每条语音中的非关键词和重复内容,生成每条语音对应的标准语音。
S130利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型;
具体地,通过对语音库中的每条语音进行处理,得到若干个训练样本后,利用训练样本对初始识别模型进行训练,即可得到训练完成后的识别模型。
S200获取待识别语音信息;
S300将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
S400对所述目标语音进行语义理解,得到语义识别结果。
根据本发明提供的第三实施例,如图3所示,一种语义识别方法,包括:
S110建立语音库,所述语音库中包括若干用户的语音;
S121将所述语音库中的每条语音中的词语进行词性标注;
具体地,建立语音库后,可对语音库中的每条语音进行语音识别,生成对应的语音识别文本,然后对语音识别文本中的词语进行词性标注,词性包括名词、动词、形容词、区别词、代词、数词、量词、副词、介词、连词、助词、语气词、拟声词、叹词等。语音识别可采用现有的语音识别技术进行识别。词性标注可由现有的经训练后的词性标注模型进行文本的词性标注。
S122根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
具体地,对语音识别文本中的词语进行词性标注后,根据标注的词性,利用分词软件对每条语音进行分词,得到对应的词语词性及词语音频。
例如,语音库中的某一条语音为“我非常喜欢喜欢学习”,将语音“我非常喜欢喜欢学习”识别为文本后,对文本“我非常喜欢喜欢学习”进行词性标注,即“我”是名词n,“非常”是副词adv,“喜欢”是动词v,“学习”是名词n,根据各个词语的词性,对语音“我非常喜欢喜欢学习”进行分词,得到词语“我”的音频及对应的词性说明-名词n、词语“非常”的音频及对应的词性说明-副词adv、词语“喜欢”的音频及对应的词性说明-动词v、词语“学习”的音频及对应的词性说明-名词n。对分词后的词语可按原语音中词语所在位置进行排列,得到分词后的向量为[我/n,非常/adv,喜欢/v,喜欢/v,学习/n]。
S123根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
具体地,对语音库中的语音进行词性标注及分词后,根据词语的词性和词语在原语音中所处的位置,去除原语音中不影响语义的非关键词。
例如,根据词性,对语音“我非常喜欢喜欢学习”进行分词,得到的向量为[我/n,非常/adv,喜欢/v,喜欢/v,学习/n],根据词语“非常”的词性和其在原语音中所处的位置可知,在原语音中“非常”位于动词前,主要用于修饰动词,表示一种程度,其对“我喜欢学习”的语义不会产生影响,即去除“非常”后,原语音的语义不会产生变化。因此,本实施例可根据词语的词性和所处的位置,利用软件对语音中不影响语义的非关键词进行去除,避免使用人工去除,提高训练样本集的获取效率。
S124在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音;
具体地,将语音“我非常喜欢喜欢学习”中的非关键词“非常”去除后,得到语音“我喜欢喜欢学习”,现在需要去除重复的词语“喜欢”,由于重复的词语的语音波形高度具有相同或相近的特点,因此,可以在语音“我喜欢喜欢学习”中,提取出语音波形的高度相似的词语,即提取出“喜欢”和“喜欢”,然后保留一个词语“喜欢”,将另一个词语“喜欢”去除,通过此步骤,即可达到去重的目的,即将语音中不影响语义识别的重复词语删除,以生成对应的标准语音“我喜欢学习”。
S130利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型;
S200获取待识别语音信息;
S300将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
具体地,将待识别语音信息输入识别模型后,识别模型可根据训练的规则对待识别语音信息中的非关键词和重复内容进行过滤去除。
如待识别语音信息为“我非常喜欢喜欢学习”,则先根据去除非关键词“非常”,然后去除重复的词语“喜欢”,即可生成目标语音“我喜欢学习”。
S400对所述目标语音进行语义理解,得到语义识别结果。
本实施例中,训练样本集中的标准语音可由软件对语音库中的语音进行非关键词和重复内容的去除而得到,然后由人工进行审核更正;无需人工对每条语音进行非关键词和重复内容的去除,提高了训练样本集的获取效率。
根据本发明提供的第四实施例,如图4所示,一种语义识别方法,包括:
S100利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
S200获取待识别语音信息;
S300将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
S410提取出所述目标语音中的语音特征;
具体地,由于不同地域的人,在说同一句话时,其说话的语调、语速和声调等不会完全相同,存在一定的差异性。因此,可以搜集各个地区的用户语音信息,然后提取出不同地域的语音特征,将不同地域的语音特征存放在不同地域的语音特征库中,以建立不同地域各自对应的地域语音特征库,并建立地域语音特征库与对应的地域之间的地域映射表。
一个地域的地域语音特征库中可包含语调、语速和声调中的一种或多种,语调可具有一种或多种,语速也可具有一种或多种、声调也可具有一种或多种。
得到目标语音后,提取出目标语音中的语音特征,语音特征可为语调、语速或声调中的一种或多种。
S420根据提取出的语音特征,识别出所述目标语音对应的地域信息;
具体地,建立地域语音特征库后,根据提取出的语音特征与不同地域的地域语音特征库进行比对,以查找到对应的地域语音特征库。
查找到对应的地域语音特征库后,即可根据地域映射表查找到对应的地域信息。
S430根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域对声母混用及韵母混用的情况不同,因此需要预先建立不同地域的声母混用及韵母混用的声韵母映射表。
建立声韵母映射表具体包括:
根据地域信息,按地域对声母混用及韵母混用进行分类;
建立混用声母与对应声母之间的映射关系,以及韵母混用的混用韵母与对应韵母之间的映射关系;
根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域,声母混用及韵母混用的情况不同,因此先按地域对声母混用及韵母混用的情况进行分类。
例如,湖北人存在l和n混用、z和zh混用、s和sh混用、c和ch混用等声母混用情况;并存在an和ang混用、en和eng混用、in和ing混用等韵母混用情况。而福建人则存在h和f混用的声母混用情况。
按地域对声母混用及韵母混用的情况进行分类后,建立混用声母与混用声母对应的声母之间的映射关系,建立混用韵母与混用韵母对应的韵母之间的映射关系,如建立l与n之间的映射关系,建立z与zh之间的映射关系,同理,建立an与ang之间的映射关系,建立en与eng之间的映射关系等。
建立声母混用和韵母混用的的映射关系后,根据声母混用的映射关系和韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
S440根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
具体地,建立不同地域的声母混用及韵母混用的声韵母映射表后,根据用户的地域信息,即可准确的对用户输入的语音进行校正,从而提高语音识别的准确率。
例如,目标语音中包括语音“liulai”,根据声韵母映射表将“liulai”校正为“niunai牛奶”。
S450识别校正后的所述目标语音,得到对应的文本信息;
S460对所述文本信息进行语义理解,得到语义识别结果。
本实施例通过对目标语音进行声母和韵母的校正,可提高语音识别的准确率,从而进一步提高语义识别的准确率。
根据本发明提供的第五实施例,如图5所示,一种语义识别方法,包括:
S100利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
S200获取待识别语音信息;
S300将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
S410提取出所述目标语音中的语音特征;
S420根据提取出的语音特征,识别出所述目标语音对应的地域信息;
S430根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
S440根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
S450识别校正后的所述目标语音,得到对应的文本信息;
S460对所述文本信息进行语义理解,得到语义识别结果;
S500根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
S600根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
具体地,获取到待识别语音信息后,根据待识别语音信息中包含的发音,对混用声母与对应声母之间的映射关系进行更新,并对混用韵母与对应韵母之间的映射关系进行更新。
由于,最先开始建立的混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系都是根据不同地域的普遍特点建立的,但是,当用户从之前居住的地域移居到其他地域且居住较长时间后,其会受当地发音的影响,使其混用声母和混用韵母的情况发生一定程度的变化,此时,不能再以根据地域的普遍特点而建立的声韵母映射关系表对待识别语音进行校正,而需要对混用声母与对应声母之间的映射关系、以及混用韵母与对应韵母之间的映射关系进行更新,以便对用户进行个性化的语言校正,从而提高语言识别的准确率。
例如,用户之前的经常居住地在南方,其存在z和zh、s和sh、c和ch混用的情况,后面移居到北方,由于北方的发音相比于南方更为标准,当用户在北方居住一段时间后,其可能对z和zh、s和sh、c和ch不再混用了,此时,我们可以针对该用户,对声韵母映射表进行更新。至于如何判断用户是否对某个声母或韵母不再混用了,我们可以根据获取到的待识别语音信息进行判断,如用户不再将“知乎zhihu”说成“资乎zihu”了,也不再将zh说成z了。
由于用户的发音具有偶然性,在对声韵母映射表进行更新时,不能根据一次获取的待识别语音信息即对声韵母映射表进行更新,而需要根据一段时间内获取的待识别语音信息综合分析后,对声韵母映射表进行更新,防止因用户的发音偶然性而导致声韵母映射表更新后,影响待识别语音信息的校正,从而影响语音的识别准确率。
本实施例中,通过获取的待识别语音信息,更新声韵母映射表,可针对用户进行个性化的语音校正,从而提高语音识别的准确率。
根据本发明提供的第六实施例,如图6所示,一种语义识别系统,包括:
识别模型获取模块100,用于利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
具体地,目前的机器学习方法,例如深度学习方法相较于传统的方法,更多的依赖于海量的训练数据。随着训练数据的提升,新的机器学习方法能够不断提升机器的精度,这个特征在传统的方法中是不存在的。因此,为了提高识别模型的识别精度,我们需要获取大量的训练数据,形成训练样本集,以对初始识别模型进行训练,得到识别模型。初始识别模型是一种基于训练样本训练的模型,如神经网络模型、卷积神经网络模型、深度神经网络模型、支持向量机网络模型、决策森林网络模型、贝叶斯网络模型等。
语音信息获取模块200,用于获取待识别语音信息;
目标语音生成模块300,用于将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
具体地,通过训练样本集训练得到识别模型后,将待识别语音信息输入识别模型,识别模型按训练的规则对待识别语音信息中不影响语义的非关键词和重复内容进行过滤去除,即去除待识别语音信息中的冗余信息,生成正确的关键词语句,以利于语义理解。
例如,用户输入的待识别语音信息为“这道非常难的应用题怎么怎么做”,用户想表达的真实意图是“这道题怎么做”,但是由于输入的待识别语音信息中包含较多的干扰信息,使得智能终端对输入的待识别语音信息“这道非常难的应用题怎么怎么做”进行语义识别时,不仅识别效率较低,而且识别的准确率也会产生一定的影响。而当通过识别模型对用户输入的待识别语音信息中的非关键词“非常难的应用”以及重复内容“怎么”等干扰信息去除后,得到的正确的关键语句为“这道题怎么做”,当对“这道题怎么做”进行语义识别时,不仅识别效率较高,而且识别的准确率也较高。
语义识别模块400,用于对所述目标语音进行语义理解,得到语义识别结果。
具体地,通过识别模型得到目标语音后,如得到“这道题怎么做”后,先对语音“这道题怎么做”进行语音识别,即将“这道题怎么做”识别为文本信息,然后对识别出的文本信息进行语义识别,得到语义识别结果。
本实施例中,先通过训练样本集,训练得到识别模型,然后根据识别模型,去除待识别语音信息中不影响真实语义的非关键词和重复内容,生成最终句式,即目标语音,然后对目标语音进行语义理解,得到正确的语义识别结果;本发明通过识别模型对待识别语音信息中的语气词等非关键词和重复内容进行过滤,解决用户语句中冗余信息太多而导致语义理解错误的问题,从而提高语义识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
根据本发明提供的第七实施例,如图7所示,一种语义识别系统,包括:
识别模型获取模块100,用于利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
语音信息获取模块200,用于获取待识别语音信息;
目标语音生成模块300,用于将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
语义识别模块400,用于对所述目标语音进行语义理解,得到语义识别结果。
优选地,识别模型获取模块100具体包括:
语音库建立单元110,用于建立语音库,所述语音库中包括若干用户的语音;
具体地,为了获得海量的训练数据,我们需要收集大量的语音语料,以建立语音库,在收集语料时,可根据不同的用户群体进行收集,如语音识别产品用于学习产品上,则其用户群体为学生,我们可以收集大量的学生的语音数据建立语音库,使得训练样本集中的数据更接近于需要识别的语音的语音特点,从而提高训练后的识别模型的识别效果。如语音识别产品用于智能音箱等人机交互设备中,则需要收集各种不同群体的语音数据,使得训练数据更符合训练目的,从而提高识别模型的识别效果。
标准语音生成单元120,用于将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
具体地,建立语音库后,需要对语音库中的每条语音进行处理,以得到训练样本。在语音库中,每条语音与其对应的标准语音即为一个训练样本。通过对语音库中的每条语音进行处理,即可得到若干个训练样本。
在对每条语音进行处理时,可通过人工去除每条语音中的非关键词和重复内容,也可通过机器去除每条语音中的非关键词和重复内容,生成每条语音对应的标准语音。
识别模型获取单元130,用于利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型。
具体地,通过对语音库中的每条语音进行处理,得到若干个训练样本后,利用训练样本对初始识别模型进行训练,即可得到训练完成后的识别模型。
优选地,所述标准语音生成单元120包括:
词性标注子单元121,用于将所述语音库中的每条语音中的词语进行词性标注;
具体地,建立语音库后,可对语音库中的每条语音进行语音识别,生成对应的语音识别文本,然后对语音识别文本中的词语进行词性标注,词性包括名词、动词、形容词、区别词、代词、数词、量词、副词、介词、连词、助词、语气词、拟声词、叹词等。语音识别可采用现有的语音识别技术进行识别。词性标注可由现有的经训练后的词性标注模型进行文本的词性标注。
分词子单元122,用于根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
具体地,对语音识别文本中的词语进行词性标注后,根据标注的词性,利用分词软件对每条语音进行分词,得到对应的词语词性及词语音频。
例如,语音库中的某一条语音为“我非常喜欢喜欢学习”,将语音“我非常喜欢喜欢学习”识别为文本后,对文本“我非常喜欢喜欢学习”进行词性标注,即“我”是名词n,“非常”是副词adv,“喜欢”是动词v,“学习”是名词n,根据各个词语的词性,对语音“我非常喜欢喜欢学习”进行分词,得到词语“我”的音频及对应的词性说明-名词n、词语“非常”的音频及对应的词性说明-副词adv、词语“喜欢”的音频及对应的词性说明-动词v、词语“学习”的音频及对应的词性说明-名词n。对分词后的词语可按原语音中词语所在位置进行排列,得到分词后的向量为[我/n,非常/adv,喜欢/v,喜欢/v,学习/n]。
非关键词去除子单元123,用于根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
具体地,对语音库中的语音进行词性标注及分词后,根据词语的词性和词语在原语音中所处的位置,去除原语音中不影响语义的非关键词。
例如,根据词性,对语音“我非常喜欢喜欢学习”进行分词,得到的向量为[我/n,非常/adv,喜欢/v,喜欢/v,学习/n],根据词语“非常”的词性和其在原语音中所处的位置可知,在原语音中“非常”位于动词前,主要用于修饰动词,表示一种程度,其对“我喜欢学习”的语义不会产生影响,即去除“非常”后,原语音的语义不会产生变化。因此,本实施例可根据词语的词性和所处的位置,利用软件对语音中不影响语义的非关键词进行去除,避免使用人工去除,提高训练样本集的获取效率。
去重子单元124,用于在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音。
具体地,将语音“我非常喜欢喜欢学习”中的非关键词“非常”去除后,得到语音“我喜欢喜欢学习”,在语音“我喜欢喜欢学习”中,提取出语音波形的高度较相似的词语“喜欢”和“喜欢”,保留一个词语“喜欢”,将另一个词语“喜欢”去除,通过此步骤,即可达到去重的目的,即将语音中不影响语义识别的重复词语删除,以生成对应的标准语音“我喜欢学习”。
优选地,所述语义识别模块400具体包括:
语音特征提取单元410,用于提取出所述目标语音中的语音特征;
具体地,由于不同地域的人,在说同一句话时,其说话的语调、语速和声调等不会完全相同,存在一定的差异性。因此,可以搜集各个地区的用户语音,然后提取出不同地域的语音特征,将不同地域的语音特征存放在不同地域的语音特征库中,以建立不同地域各自对应的地域语音特征库,并建立地域语音特征库与对应的地域之间的地域映射表。
一个地域的地域语音特征库中可包含语调、语速和声调中的一种或多种,语调可具有一种或多种,语速也可具有一种或多种、声调也可具有一种或多种。
得到目标语音后,提取出目标语音中的语音特征,语音特征可为语调、语速或声调中的一种或多种。
地域信息识别单元420,用于根据提取出的语音特征,识别出所述目标语音对应的地域信息;
具体地,建立地域语音特征库后,根据提取出的语音特征与不同地域的地域语音特征库进行比对,以查找到对应的地域语音特征库。
查找到对应的地域语音特征库后,即可根据地域映射表查找到对应的地域信息。
声韵母映射表查找单元430,用于根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域对声母混用及韵母混用的情况不同,因此需要预先建立不同地域的声母混用及韵母混用的声韵母映射表。
建立声韵母映射表具体包括:
根据地域信息,按地域对声母混用及韵母混用进行分类;
建立混用声母与对应声母之间的映射关系,以及韵母混用的混用韵母与对应韵母之间的映射关系;
根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域,声母混用及韵母混用的情况不同,因此先按地域对声母混用及韵母混用的情况进行分类。
例如,湖北人存在l和n混用、z和zh混用、s和sh混用、c和ch混用等声母混用情况;并存在an和ang混用、en和eng混用、in和ing混用等韵母混用情况。而福建人则存在h和f混用的声母混用情况。
按地域对声母混用及韵母混用的情况进行分类后,建立混用声母与混用声母对应的声母之间的映射关系,建立混用韵母与混用韵母对应的韵母之间的映射关系,如建立l与n之间的映射关系,建立z与zh之间的映射关系,同理,建立an与ang之间的映射关系,建立en与eng之间的映射关系等。
建立声母混用和韵母混用的的映射关系后,根据声母混用的映射关系和韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
校正单元440,用于根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
具体地,建立不同地域的声母混用及韵母混用的声韵母映射表后,根据用户的地域信息,即可准确的对用户输入的语音进行校正,从而提高语音识别的准确率。
例如,目标语音中包括语音“liulai”,根据声韵母映射表将“liulai”校正为“niunai牛奶”。
语音识别单元450,用于识别校正后的所述目标语音,得到对应的文本信息;
语义识别单元460,用于对所述文本信息进行语义理解,得到语义识别结果。
优选地,还包括:
映射关系更新模块500,用于根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
声韵母映射表更新模块600,用于根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
具体地,获取到待识别语音信息后,根据待识别语音信息中包含的发音,对混用声母与对应声母之间的映射关系进行更新,并对混用韵母与对应韵母之间的映射关系进行更新。
由于,最先开始建立的混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系都是根据不同地域的普遍特点建立的,但是,当用户从之前居住的地域移居到其他地域且居住较长时间后,其会受当地发音的影响,使其混用声母和混用韵母的情况发生一定程度的变化,此时,不能再以根据地域的普遍特点而建立的声韵母映射关系表对待识别语音进行校正,而需要对混用声母与对应声母之间的映射关系、以及混用韵母与对应韵母之间的映射关系进行更新,以便对用户进行个性化的语言校正,从而提高语言识别的准确率。
例如,用户之前的经常居住地在南方,其存在z和zh、s和sh、c和ch混用的情况,后面移居到北方,由于北方的发音相比于南方更为标准,当用户在北方居住一段时间后,其可能对z和zh、s和sh、c和ch不再混用了,此时,我们可以针对该用户,对声韵母映射表进行更新。至于如何判断用户是否对某个声母或韵母不再混用了,我们可以根据获取到的待识别语音信息进行判断,如用户不再将“知乎zhihu”说成“资乎zihu”了,也不再将zh说成z了。
由于用户的发音具有偶然性,在对声韵母映射表进行更新时,不能根据一次获取的待识别语音信息即对声韵母映射表进行更新,而需要根据一段时间内获取的待识别语音信息综合分析后,对声韵母映射表进行更新,防止因用户的发音偶然性而导致声韵母映射表更新后,影响待识别语音信息的校正,从而影响语音的识别准确率。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种语义识别方法,其特征在于,包括:
利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
获取待识别语音信息;
将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
对所述目标语音进行语义理解,得到语义识别结果。
2.根据权利要求1所述的一种语义识别方法,其特征在于,所述的利用获取的训练样本集对初始识别模型进行训练,得到识别模型具体包括:
建立语音库,所述语音库中包括若干用户的语音;
将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型。
3.根据权利要求2所述的一种语义识别方法,其特征在于,所述的将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音具体包括:
将所述语音库中的每条语音中的词语进行词性标注;
根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音。
4.根据权利要求1-3任一项所述的一种语义识别方法,其特征在于,所述的对所述目标语音进行语义理解,得到语义识别结果具体包括:
提取出所述目标语音中的语音特征;
根据提取出的语音特征,识别出所述目标语音对应的地域信息;
根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
识别校正后的所述目标语音,得到对应的文本信息;
对所述文本信息进行语义理解,得到语义识别结果。
5.根据权利要求4所述的一种语义识别方法,其特征在于,所述的获取待识别语音信息之后还包括:
根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
6.一种语义识别系统,其特征在于,包括:
识别模型获取模块,用于利用获取的训练样本集对初始识别模型进行训练,得到识别模型;
语音信息获取模块,用于获取待识别语音信息;
目标语音生成模块,用于将所述待识别语音信息输入所述识别模型,去除所述待识别语音信息中不影响语义的非关键词和重复内容,生成目标语音;
语义识别模块,用于对所述目标语音进行语义理解,得到语义识别结果。
7.根据权利要求6所述的一种语义识别系统,其特征在于,所述识别模型获取模块具体包括:
语音库建立单元,用于建立语音库,所述语音库中包括若干用户的语音;
标准语音生成单元,用于将所述语音库中的每条语音中的非关键词和重复内容去除,生成每条语音对应的标准语音;
识别模型获取单元,用于利用所述语音库中的每条语音及每条语音对应的标准语音对初始识别模型进行训练,得到识别模型。
8.根据权利要求7所述的一种语义识别系统,其特征在于,所述标准语音生成单元包括:
词性标注子单元,用于将所述语音库中的每条语音中的词语进行词性标注;
分词子单元,用于根据标注的词性,对每条语音进行分词,得到分词后的词语的音频及对应的词性;
非关键词去除子单元,用于根据词语的词性和词语所处的位置,在每条语音中去除不影响语义的非关键词;
去重子单元,用于在去除非关键词的每条语音中,提取语音波形的高度相似的词语,保留其中一个词语,将剩余的词语去除,生成每条语音对应的标准语音。
9.根据权利要求6-8任一项所述的一种语义识别系统,其特征在于,所述语义识别模块具体包括:
语音特征提取单元,用于提取出所述目标语音中的语音特征;
地域信息识别单元,用于根据提取出的语音特征,识别出所述目标语音对应的地域信息;
声韵母映射表查找单元,用于根据所述地域信息,查找到预先建立的对应的声母混用及韵母混用的声韵母映射表;
校正单元,用于根据所述声韵母映射表,对所述目标语音中的相关声母及韵母进行校正;
语音识别单元,用于识别校正后的所述目标语音,得到对应的文本信息;
语义识别单元,用于对所述文本信息进行语义理解,得到语义识别结果。
10.根据权利要求9所述的一种语义识别系统,其特征在于,还包括:
映射关系更新模块,用于根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
声韵母映射表更新模块,用于根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
CN201811232528.6A 2018-10-22 2018-10-22 一种语义识别方法及系统 Pending CN109213856A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811232528.6A CN109213856A (zh) 2018-10-22 2018-10-22 一种语义识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811232528.6A CN109213856A (zh) 2018-10-22 2018-10-22 一种语义识别方法及系统

Publications (1)

Publication Number Publication Date
CN109213856A true CN109213856A (zh) 2019-01-15

Family

ID=64979945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811232528.6A Pending CN109213856A (zh) 2018-10-22 2018-10-22 一种语义识别方法及系统

Country Status (1)

Country Link
CN (1) CN109213856A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109545015A (zh) * 2019-01-23 2019-03-29 广东小天才科技有限公司 一种科目类型的识别方法及家教设备
CN109783820A (zh) * 2019-01-18 2019-05-21 广东小天才科技有限公司 一种语义解析方法及系统
CN110210030A (zh) * 2019-05-31 2019-09-06 三角兽(北京)科技有限公司 语句分析的方法及装置
CN110265010A (zh) * 2019-06-05 2019-09-20 四川驹马科技有限公司 基于百度语音的货车多人语音识别方法及系统
CN110310620A (zh) * 2019-07-23 2019-10-08 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
WO2020211756A1 (zh) * 2019-04-15 2020-10-22 深圳数字生命研究院 语义识别方法、装置、计算机可读存储介质和计算机设备
CN111858865A (zh) * 2019-04-30 2020-10-30 北京嘀嘀无限科技发展有限公司 一种语义识别方法、装置、电子设备及计算机可读存储介质
CN112102833A (zh) * 2020-09-22 2020-12-18 北京百度网讯科技有限公司 语音识别方法、装置、设备及存储介质
CN112148696A (zh) * 2019-06-26 2020-12-29 广东小天才科技有限公司 一种学习内容分享方法及智能装置
CN113781998A (zh) * 2021-09-10 2021-12-10 未鲲(上海)科技服务有限公司 基于方言纠正模型的语音识别方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819469A (zh) * 2009-11-06 2010-09-01 无敌科技(西安)有限公司 中文内容拼写校正的方法
CN106407971A (zh) * 2016-09-14 2017-02-15 北京小米移动软件有限公司 文字识别方法及装置
CN106503231A (zh) * 2016-10-31 2017-03-15 北京百度网讯科技有限公司 基于人工智能的搜索方法和装置
CN107045496A (zh) * 2017-04-19 2017-08-15 畅捷通信息技术股份有限公司 语音识别后文本的纠错方法及纠错装置
CN108053823A (zh) * 2017-11-28 2018-05-18 广西职业技术学院 一种语音识别系统及方法
CN108304427A (zh) * 2017-04-28 2018-07-20 腾讯科技(深圳)有限公司 一种用户客群分类方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819469A (zh) * 2009-11-06 2010-09-01 无敌科技(西安)有限公司 中文内容拼写校正的方法
CN106407971A (zh) * 2016-09-14 2017-02-15 北京小米移动软件有限公司 文字识别方法及装置
CN106503231A (zh) * 2016-10-31 2017-03-15 北京百度网讯科技有限公司 基于人工智能的搜索方法和装置
CN107045496A (zh) * 2017-04-19 2017-08-15 畅捷通信息技术股份有限公司 语音识别后文本的纠错方法及纠错装置
CN108304427A (zh) * 2017-04-28 2018-07-20 腾讯科技(深圳)有限公司 一种用户客群分类方法和装置
CN108053823A (zh) * 2017-11-28 2018-05-18 广西职业技术学院 一种语音识别系统及方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109783820A (zh) * 2019-01-18 2019-05-21 广东小天才科技有限公司 一种语义解析方法及系统
CN109545015A (zh) * 2019-01-23 2019-03-29 广东小天才科技有限公司 一种科目类型的识别方法及家教设备
WO2020211756A1 (zh) * 2019-04-15 2020-10-22 深圳数字生命研究院 语义识别方法、装置、计算机可读存储介质和计算机设备
CN111858865A (zh) * 2019-04-30 2020-10-30 北京嘀嘀无限科技发展有限公司 一种语义识别方法、装置、电子设备及计算机可读存储介质
CN110210030A (zh) * 2019-05-31 2019-09-06 三角兽(北京)科技有限公司 语句分析的方法及装置
CN110265010A (zh) * 2019-06-05 2019-09-20 四川驹马科技有限公司 基于百度语音的货车多人语音识别方法及系统
CN112148696A (zh) * 2019-06-26 2020-12-29 广东小天才科技有限公司 一种学习内容分享方法及智能装置
CN110310620A (zh) * 2019-07-23 2019-10-08 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
CN110310620B (zh) * 2019-07-23 2021-07-13 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
CN112102833A (zh) * 2020-09-22 2020-12-18 北京百度网讯科技有限公司 语音识别方法、装置、设备及存储介质
CN112102833B (zh) * 2020-09-22 2023-12-12 阿波罗智联(北京)科技有限公司 语音识别方法、装置、设备及存储介质
CN113781998A (zh) * 2021-09-10 2021-12-10 未鲲(上海)科技服务有限公司 基于方言纠正模型的语音识别方法、装置、设备及介质
CN113781998B (zh) * 2021-09-10 2024-06-07 河南松音科技有限公司 基于方言纠正模型的语音识别方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN109213856A (zh) 一种语义识别方法及系统
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN109388700A (zh) 一种意图识别方法及系统
CN108920622A (zh) 一种意图识别的训练方法、训练装置和识别装置
CN107818164A (zh) 一种智能问答方法及其系统
CN103810998B (zh) 基于移动终端设备的离线语音识别方法以及实现方法
CN103886034A (zh) 一种建立索引及匹配用户的查询输入信息的方法和设备
CN109949799B (zh) 一种语义解析方法及系统
CN108509409A (zh) 一种自动生成语义相近句子样本的方法
WO2024131111A1 (zh) 一种智能写作方法、装置、设备及非易失性可读存储介质
CN105138507A (zh) 一种基于模式自学习的中文开放式关系抽取方法
CN106897559A (zh) 一种面向多数据源的症状体征类实体识别方法及装置
CN110097094A (zh) 一种面向人物交互的多重语义融合少样本分类方法
CN107665188B (zh) 一种语义理解方法及装置
CN109977398A (zh) 一种特定领域的语音识别文本纠错方法
CN106980620A (zh) 一种对中文字串进行匹配的方法及装置
CN104050255A (zh) 基于联合图模型的纠错方法及系统
CN110175585A (zh) 一种简答题自动批改系统及方法
CN105446955A (zh) 一种自适应的分词方法
CN108304424A (zh) 文本关键词提取方法及文本关键词提取装置
CN111160027A (zh) 基于语义注意力的循环神经网络事件时序关系识别方法
CN111428104A (zh) 基于观点型阅读理解的癫痫病辅助医疗智能问答方法
CN109614493A (zh) 一种基于监督词向量的文本缩写识别方法及系统
CN116561274A (zh) 一种基于数字人技术与自然语言大模型的知识问答方法
CN116092472A (zh) 一种语音合成方法和合成系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190115