CN107451119A - 基于语音交互的语义识别方法及装置、存储介质、计算机设备 - Google Patents
基于语音交互的语义识别方法及装置、存储介质、计算机设备 Download PDFInfo
- Publication number
- CN107451119A CN107451119A CN201710619763.8A CN201710619763A CN107451119A CN 107451119 A CN107451119 A CN 107451119A CN 201710619763 A CN201710619763 A CN 201710619763A CN 107451119 A CN107451119 A CN 107451119A
- Authority
- CN
- China
- Prior art keywords
- word
- sound
- watch
- text
- watch sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims description 12
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 230000007423 decrease Effects 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 230000032258 transport Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 20
- 239000002609 medium Substances 0.000 description 8
- 230000002490 cerebral effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000003203 everyday effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000012120 mounting media Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
一种基于语音交互的语义识别方法及装置、存储介质、计算机设备,基于语音交互的语义识别方法包括:将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;对所述文字文本进行语义理解处理,以得到所述语音数据的语义。通过本发明技术方案可以提高语音识别的准确性。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种基于语音交互的语义识别方法及装置、存储介质、计算机设备。
背景技术
随着语音识别技术的发展,语音识别在许多领域都得到了应用。通常基于语音交互的语义理解方法和系统是针对输入的语音输出应答,以便用户进行进一步的操作。
在现有技术中,语音识别处理过程与语义理解处理过程串行且相互独立。语音识别负责利用语音识别技术将交互语音识别成为文字文本,语义理解负责利用语义理解技术,根据语音识别的文字文本给出语义理解应答。具体地,在语音识别处理过程中,将语音数据识别为单字,以形成文字文本;然后在语义理解过程中,利用分词词典将文字文本进行词语匹配,再进行语义理解。
但是,在现有的基于语音交互的语义理解方法和系统对语音数据的输出结果中,仍然存在语义理解偏差的问题。
发明内容
本发明解决的技术问题是如何提高语音识别的准确性。
为解决上述技术问题,本发明实施例提供一种基于语音交互的语义识别方法,基于语音交互的语义识别方法包括:将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
可选的,所述利用所述音学文本中的表音字进行词语匹配包括:利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
可选的,所述利用所述音学文本中的表音字进行词语匹配包括:将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:按照在所述预设词典中出现频率递减的方式选取预设表义词;将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
可选的,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
可选的,所述利用所述音学文本进行词语匹配包括:确定所述音学文本中的表音字在预设词典中所属的近音词类,其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述利用所述音学文本进行词语匹配还包括:如果匹配结果为不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字;将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述近音表音字包括标准表音字以及与所述标准表音字发音相似的相似表音字。
可选的,所述预设词典为分词词典,所述分词词典包括针对所有表义词的表音字。
可选的,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
可选的,所述基于语音交互的语义识别方法还包括:将所述语音数据的语义与知识库中的知识点进行匹配;输出与所述语音数据的语义相匹配的知识点中的答案。
本发明实施例还公开了一种基于语音交互的语义识别装置,基于语音交互的语义识别装置包括:转换模块,用以将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;匹配模块,用以利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;语义理解模块,用以对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
可选的,所述匹配模块利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
可选的,所述匹配模块包括:表音字匹配单元,用以将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;第一表义词确定单元,用以将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述表音字匹配单元包括:表义词选取子单元,用以按照在所述预设词典中出现频率递减的方式,依次选取预设表义词;第一表义词匹配子单元,用以将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
可选的,所述表音字匹配单元包括:第二表义词匹配子单元,用以将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
可选的,所述匹配模块包括:词类确定单元,用以确定所述音学文本中的表音字在预设词典中所属的近音词类;其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;第一近音表音字选取单元,用以选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;第二表义词确定单元,用以如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述匹配模块还包括:第二近音表音字选取单元,用以如果匹配结果为不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字;第三表义词确定单元,用以将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
可选的,所述近音表音字包括标准表音字以及与所述标准表音字发音相似的相似表音字。
可选的,所述预设词典为分词词典,所述分词词典包括针对所有表义词的表音字。
可选的,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
可选的,所述基于语音交互的语义识别装置还包括:知识点匹配模块,用以将所述语音数据的语义与知识库中的知识点进行匹配;答案输出模块,用以输出与所述语音数据的语义相匹配的知识点中的答案。
本发明实施例还公开了一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行所述基于语音交互的语义识别方法的步骤。
本发明实施例还公开了一种计算机设备,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行所述基于语音交互的语义识别方法的步骤。
与现有技术相比,本发明实施例的技术方案具有以下有益效果:
本发明技术方案将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;对所述文字文本进行语义理解处理,以得到所述语音数据的语义。相对于现有技术中将语音数据转换为包括单字的文字文本,再进行分词,本发明技术方案直接利用音学文本中的表音字进行词语匹配,得到包括与所述表音字匹配的表义词的文字文本,文字转换和分词操作同时完成,避免了表音字转换为表义字时的误差,还避免了表义字分词时的二次误差,从而提高了语音识别的准确性。此外,本发明技术方案通过节省步骤,还可以提高语音识别的识别效率。
进一步,所述利用所述音学文本中的表音字进行词语匹配包括:利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。本发明技术方案通过预先在预设词典中建立表音字索引,从而可以利用表音字索引与音学文本中的表音字进行匹配,确定包括表义词的文字文本。
进一步,所述利用所述音学文本进行词语匹配包括:确定所述音学文本中的表音字在预设词典中所属的近音词类;其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。本发明技术方案通过在预设词典中配置近音词类,从而可以在表音字进行词语匹配时,可以根据近音词类中权重值最大的近音表音字进行匹配,可以在音学文本的表音字不正确的情况下,例如混淆平舌音和卷舌音,或者前鼻音和后鼻音等的情况下,可以匹配到正确的表义词;也就是说,通过表音词类可以矫正用户发音错误导致的分词错误,从而进一步提高了语音识别的准确性。
附图说明
图1是本发明实施例一种基于语音交互的语义识别方法的流程图;
图2是图1所示步骤S102的一种具体实施方式的流程示意图;
图3是采用本发明实施例的一个典型的应用场景的示意图;
图4是本发明实施例一种基于语音交互的语义识别装置的结构示意图。
具体实施方式
如背景技术中所述,在现有的基于语音交互的语义理解方法和系统对语音数据的输出结果中,仍然存在语义理解偏差的问题。
本申请发明人基于对现有的基于语音交互的语义理解方法和系统的观察研究发现,除语义理解过程本身偏差外,大多数语义理解偏差主要源自以下两个方面:一、语音本身的发音特征,例如,平舌和卷舌等近似音素,造成语音识别过程无法得到正确的音学文本;二、语言中存在大量的多音字、同音字、近音字等音学特征,导致从音学文本到文字文本转换的过程中,无法实现准确匹配。
本发明技术方案基于上述观察研究发现,对现有的基于语音交互的自然语义理解方法和系统进行改进,直接利用音学文本中的表音字进行词语匹配,得到包括与所述表音字匹配的表义词的文字文本,文字转换和分词操作同时完成,避免了表音字转换为表义字时的误差,还避免了表义字分词时的二次误差,从而提高了语音识别的准确性。此外,本发明技术方案通过节省步骤,还可以提高语音识别的识别效率。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
图1是本发明实施例一种基于语音交互的语义识别方法的流程图。
图1所示的基于语音交互的语义识别方法可以包括以下步骤:
步骤S101:将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;
步骤S102:利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;
步骤S103:对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
具体实施中,在步骤S101中,可以将语音数据转换为对应的表音字,以得到音学文本。具体而言,语音数据可以是音频格式,例如mp3、wav、wma等;经过转换后的音学文本中包括至少一个表音字,音学文本可以是文本格式,例如txt、doc、docx、wps等,以便于进行后续步骤的处理。
本领域技术人员可以理解的是,从语音转换为音学文本可以采用任意可实施的方式,本发明实施例对此不做限制。
具体实施中,在步骤S102中,利用所述音学文本中的表音字进行词语匹配,可以确定与所述表音字匹配的表义词,以得到文字文本。具体而言,表义词可以是一个词语,可以包括至少一个表义字。其中,表音字可以是表义字的发音,表义字可以表示表音字的语义。例如,在汉语中,表音字为拼音,表义字为汉字;在英语中,表音字为音标,表义字为单词;其他语言环境中的表音字和表义字可以此类推,本发明实施例对此不做限制。
进一步而言,经过步骤S102得到的文字文本可以是经过分词操作后的文本。也就是说,文字文本中是包括表义词的,而不是未经分词的独立的单个表义字。所述文字文本可以直接用于语义理解过程,不需要再进行一次分词操作。
进而,在步骤S103中,可以对分词后的所述文字文本进行语义理解处理,从而获得语音数据的语义。
具体实施中,语音数据的语义可以是指语音数据所表达的内容的含义。具体而言,语音数据的语义可以采用关键词来表示,也可以采用关键句子或段落来表示。例如,语音数据的语义可以是疑问句,指令、陈述句、语义表达式等。
更进一步而言,对文字文本进行语义理解处理的过程可以是基于文字文本的上下文语境,来确定的文字文本的整体语义。
本发明实施例在语音识别过程通过音学文本匹配,直接利用语音数据转换的音学文本中的表音字进行词语匹配,得到包括与所述表音字匹配的表义词的文字文本,文字转换和分词操作同时完成,避免了表音字转换为表义字时的误差,还避免了表义字分词时的二次误差,从而提高了语音识别的准确性。此外,本发明技术方案通过节省步骤,还可以提高语音识别的识别效率。
优选地,步骤S102可以包括以下步骤:利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
本实施例中,预设词典可以预先配置表音字索引,预设词典可以包括多个词语。具体而言,表音字索引可以是预设词典中词语对应的表音字。则通过表音字索引可以将音学文本中的表音字与预设词典中的词语进行关联,进而可以利用音学文本中的表音字和表音字索引进行词语匹配,以得到文字文本。
进一步地,所述利用所述音学文本中的表音字进行词语匹配可以包括以下步骤:将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
本实施例中,预设词典中可以包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系。表音字索引可以包括至少一个表音字以及每个预设表义词与相应表音字的对应关系。也就是说,通过将音学文本中的表音字与预设词典中的表音字进行匹配,然后根据匹配得到的预设词典中的表音字以及上述对应关系确定对应的预设表义词,则可以确定该预设表义词为音学文本中的表音字匹配的表义词。将音学文本中的所有表音字均经过上述匹配过程后,可以得到音学文本相匹配的文字文本。
进一步地,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:按照在所述预设词典中出现频率递减的方式选取预设表义词;将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
本实施例中,每个预设表义词在所述预设词典中具备出现频率(也可以称为频次),出现频率较高的预设表义词为常用词。为了提高表音字匹配的准确性,可以先将音学文本中的表音字与出现频率较高的预设表义词进行匹配,直至音学文本中的所有表音字匹配到表义词。
具体而言,通过采用预设词典中的常用词与音学文本中的表音字进行匹配的方式,可以在保证匹配准确性的基础上,提高匹配的速度。此外,所述预设词典通常是针对特定领域,所述预设词典中的预设表义词的数量是有限的,则通过频率递减的方式选取的预设表义词的数量也是有限的,不会对表音字的匹配过程增加计算量。
在本发明实施例的一个变化例中,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
具体实施中,音学文本可以包括单个表音字或表音字组合。则可以将单个表音字或者表音字组合直接与预设词典中各个预设表义词对应的表音字进行匹配,如果匹配结果一致,则该预设表义词为表音字或者表音字组合匹配的表义词。本领域技术人员可以理解的是,音学文本中的表音字组合可以是常用词对应的表音词,是在从语义数据转换为音学文本的过程中进行组合形成的。
优选地,可参照图2,步骤S102可以包括步骤S1021至步骤S1026。
首先执行步骤S1021,确定所述音学文本中的表音字在预设词典中所属的近音词类。
其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重。具体而言,近音表音字可以表示多个发音相近的表音字,例如,平舌音与卷舌音,前鼻音与后鼻音;每一近音表音字的预设权重可以表示该近音表音字在预设词典所在领域中的使用频次。
进一步而言,近音词类可以是预先设置在预设词典中的。近音词类可以具备词类名。在确定音学文本中的表音字在预设词典中所属的近音词类时,可以计算音学文本中的表音字与所述词类名的相似度;也可以是确定包括音学文本中的表音字的近音词类为该表音字所属的近音词类。
然后执行步骤S1022,选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配。具体而言,为了兼顾音学文本中的表音字匹配的准确性与速度,可以选取权重值最大的近音表音字与该表音字进行匹配。
然后执行步骤S1023,判断匹配结果是否一致,如果是,则进入步骤S1024,否则进入步骤S1025。
在步骤S1024中,如果匹配结果一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
在步骤S1025中,如果匹配结果不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字。
再执行步骤S1026,将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
本实施例中,优先使用权重值最大的近音表音字与预设词典中的表音字进行匹配,权重值最大的近音表音字与预设词典中的表音字不匹配的情况下,再使用所述近音词类中其他权重的近音表音字与预设词典中的表音字进行匹配。本发明实施例采用上述匹配方式可以提高匹配效率。
本发明实施例通过在预设词典中配置近音词类,从而可以在表音字进行词语匹配时,可以根据近音词类中权重值最大的近音表音字进行匹配,可以在音学文本的表音字发音不标准的情况下,例如混淆平舌音和卷舌音,或者前鼻音和后鼻音等,可以匹配到正确的表义词;也就是说,通过表音词类可以矫正用户发音错误导致的分词错误,从而进一步提高了语音识别的准确性。
进一步地,所述近音表音字可以包括标准表音字以及与所述标准表音字发音相似的相似表音字。具体而言,标准表音字是指发音正确的表音字。相似表音字是指与标准表音字发音相似的表音字,在不同的语言环境中可以有不同的形式,例如在汉语言环境中,相似表音字可以是包括平舌音z、c、s的表音字和包括卷舌音(也可以称为翘舌音)zh、ch、sh、r的表音字;或者,包括前鼻音an、ian、uan、ü、an、en、in、uen、ün的表音字和包括后鼻音ang、iang、uang、eng、ing、ueng、ong、iong的表音字。
优选地,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
优选地,图1所示的基于语音交互的语义识别方法还可以包括以下步骤:将所述语音数据的语义与知识库中的知识点进行匹配;输出与所述语音数据的语义相匹配的知识点中的答案。
具体实施中,知识库可以存储多个知识点,每个知识点包括一个或多个预设的问题以及对应的答案信息。其中,所述问题不仅限于疑问句,可以为一个指令、陈述句、语义表达式等,用以与用户输入的问题进行匹配。所述答案信息为针对所述多个问题的应答。进一步而言,所述知识点包括标准问和多个扩展问,扩展问可以为用以表示该知识点语义的语义表达式和自然语句中的至少一种。
具体实施中,语音数据的语义与知识库中的知识点进行匹配的过程,可以是计算语音数据的语义与知识库中的知识点的标准问的语义相似度的过程。当所述语义相似度达到设定阈值时,则表示语音数据与知识库中的知识点相匹配,则可以输出与所述语音数据的语义相匹配的知识点中的答案。例如,语音数据的语义为“查余额”,并确定与语音数据的语义相似度最高的知识库中标准问为“剩余金额”,则将该标准问“剩余金额”对应的答案输出。
更具体而言,语音数据的语义与知识库中的知识点的语义相似度可以通过相关性得分(relevance score)来衡量,分数越高则语义相似度越高。可以采用TF-IDF算法计算语义相似度,此时词频(Term Frequency)和文档频率(Document Frequency)是影响语义相似度的因素。还可以进行笛卡尔积计算,然后采用编辑距离或Jaccard距离计算相似度。优选的,可以分别采用编辑距离和Jaccard距离计算相似度,并选取数值最大的相似度作为语义相似度。
图3是本发明实施例基于语音交互的语义识别方法的一个典型的应用场景的示意图。
在本应用场景中,虚线框内所示步骤S302至步骤S307可以是基于语音交互的语义识别方法的具体实施步骤。本实施例以汉语言环境为例进行说明,其他语言环境下可以以此类推,本发明实施例对此不做限制。
在步骤S301中,用户输入语音,该语音通常为音频格式。在步骤S302中,对输入的语音进行语音处理,可以得到音学文本,音学文本可以包括对应语音的多个拼音。在步骤S303中,利用音学文本中的拼音与分词词典中的词语进行匹配,可以得到与音学文本中的拼音匹配的多个词语,也即文字文本。在步骤S304中,利用文字文本中的词语进行过滤纠错,以实现对文字文本的进一步完善。在步骤S305中,对纠错后的文字文本进行词法分析,例如可以是词性或词语语义的确定等。在步骤S306中,对词法分析后的文字文本进行上下文处理,也即结合文字文本的上下文环境,以得到更加完善的文字文本的语义。进而在步骤S307中,利用文字文本的语义与知识库中的知识点进行匹配,以得到答案。最后在步骤S308中,输出该答案。
本领域技术人员可以理解的是,步骤S304至步骤S307的可采用现有技术中任意可实施的具体实施方式,本发明实施例对此不做限制。
在本实施例中,取消了语音处理过程中从拼音转换为包括单个字的文字文本过程,而在语义理解过程中增加音学文本匹配环节,则语义理解过程可以直接利用语音处理得到的音学文本,从而化语音识别偏差,规避语言处理偏差,提升基于语音交互的语义理解应答效果。
进一步而言,本实施例中的基于语音交互的语义识别方法可以用于智能问答场景,可以提高问答准确性。
图4是本发明实施例一种基于语音交互的语义识别装置的结构示意图。
图4所示的基于语音交互的语义识别装置40可以包括转换模块401、匹配模块402和语义理解模块403。
其中,转换模块401用以将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;匹配模块402用以利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;语义理解模块403用以对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
具体实施中,匹配模块402利用所述音学文本中的表音字进行词语匹配,可以确定与所述表音字匹配的表义词,以得到文字文本。具体而言,表义词可以是一个词语,可以包括至少一个表义字。其中,表音字可以是表义字的发音,表义字可以表示表音字的语义。例如,在汉语中,表音字为拼音,表义字为汉字;在英语中,表音字为音标,表义字为单词;其他语言环境中的表音字和表义字可以此类推,本发明实施例对此不做限制。
进一步而言,匹配模块402得到的文字文本可以是经过分词操作后的文本。也就是说,文字文本中是包括表义词的,而不是未经分词的独立的单个表义字。所述文字文本可以直接用于语义理解过程,不需要再进行一次分词操作。
进而,语义理解模块403可以对分词后的所述文字文本进行语义理解处理,从而获得语音数据的语义。
具体实施中,语音数据的语义可以是指语音数据所表达的内容的含义。具体而言,语音数据的语义可以采用关键词来表示,也可以采用关键句子或段落来表示。例如,语音数据的语义可以是疑问句,指令、陈述句、语义表达式等。
更进一步而言,对文字文本进行语义理解处理的过程可以是基于文字文本的上下文语境,来确定的文字文本的整体语义。
本发明实施例直接利用音学文本中的表音字进行词语匹配,得到包括与所述表音字匹配的表义词的文字文本,文字转换和分词操作同时完成,避免了表音字转换为表义字时的误差,还避免了表义字分词时的二次误差,从而提高了语音识别的准确性。此外,本发明技术方案通过节省步骤,还可以提高语音识别的识别效率。
优选地,匹配模块402利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
本实施例中,预设词典可以预先配置表音字索引,预设词典可以包括多个词语。具体而言,表音字索引可以是预设词典中词语对应的表音字。则通过表音字索引可以将音学文本中的表音字与预设词典中的词语进行关联,进而可以利用音学文本中的表音字和表音字索引进行词语匹配,以得到文字文本。
本发明实施例利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配,通过预先在预设词典中建立表音字索引,从而可以利用表音字索引与音学文本中的表音字进行匹配,确定包括表义词的文字文本。
优选地,匹配模块402可以包括表音字匹配单元4021和第一表义词确定单元4022。表音字匹配单元4021用以将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;第一表义词确定单元4022用以将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
本实施例中,预设词典中可以包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系。表音字索引可以包括至少一个表音字以及每个预设表义词与相应表音字的对应关系。也就是说,通过将音学文本中的表音字与预设词典中的表音字进行匹配,然后根据匹配得到的预设词典中的表音字以及上述对应关系确定对应的预设表义词,则可以确定该预设表义词为音学文本中的表音字匹配的表义词。将音学文本中的所有表音字均经过上述匹配过程后,可以得到音学文本相匹配的文字文本。
进一步地,表音字匹配单元4021可以包括表义词选取子单元40211和第一表义词匹配子单元40212。表义词选取子单元40211用以按照在所述预设词典中出现频率递减的方式,依次选取预设表义词;第一表义词匹配子单元40212用以将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
本实施例中,每个预设表义词在所述预设词典中具备出现频率(也可以称为频次),出现频率较高的预设表义词为常用词。为了提高表音字匹配的准确性,可以先将音学文本中的表音字与出现频率较高的预设表义词进行匹配,直至音学文本中的所有表音字匹配到表义词。
具体而言,通过采用预设词典中的常用词与音学文本中的表音字进行匹配的方式,可以在保证匹配准确性的基础上,提高匹配的速度。此外,所述预设词典通常是针对特定领域,所述预设词典中的预设表义词的数量是有限的,则通过频率递减的方式选取的预设表义词的数量也是有限的,不会对表音字的匹配过程增加计算量。
可选地,表音字匹配单元4021可以包括第二表义词匹配子单元40213,第二表义词匹配子单元40213用以将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
具体实施中,音学文本可以包括单个表音字或表音字组合。则可以将单个表音字或者表音字组合直接与预设词典中各个预设表义词对应的表音字进行匹配,如果匹配结果一致,则该预设表义词为表音字或者表音字组合匹配的表义词。本领域技术人员可以理解的是,音学文本中的表音字组合可以是常用词对应的表音词,是在从语义数据转换为音学文本的过程中进行组合形成的。
优选地,匹配模块402可以包括词类确定单元4023、第一近音表音字选取单元4024和第二表义词确定单元4025。
其中,词类确定单元4023用以确定所述音学文本中的表音字在预设词典中所属的近音词类;其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;第一近音表音字选取单元4024用以选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;第二表义词确定单元4025用以如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
具体实施中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重。具体而言,近音表音字可以表示多个发音相近的表音字,例如,平舌音与卷舌音,前鼻音与后鼻音;每一近音表音字的预设权重可以表示该近音表音字在预设词典所在领域中的使用频次。
进一步而言,近音词类可以是预先设置在预设词典中的。近音词类可以具备词类名。在确定音学文本中的表音字在预设词典中所属的近音词类时,可以计算音学文本中的表音字与所述词类名的相似度;也可以是确定包括音学文本中的表音字的近音词类为该表音字所属的近音词类。具体而言,为了兼顾音学文本中的表音字匹配的准确性与速度,可以选取权重值最大的近音表音字与该表音字进行匹配。
本实施例中,优先使用权重值最大的近音表音字与预设词典中的表音字进行匹配,权重值最大的近音表音字与预设词典中的表音字不匹配的情况下,再使用所述近音词类中其他权重的近音表音字与预设词典中的表音字进行匹配。本发明实施例采用上述匹配方式可以提高匹配效率。
进一步地,匹配模块402还可以包括第二近音表音字选取单元4026和第三表义词确定单元4027。第二近音表音字选取单元4026用以如果匹配结果为不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字;第三表义词确定单元4027用以将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
本发明实施例通过在预设词典中配置近音词类,从而可以在表音字进行词语匹配时,可以根据近音词类中权重值最大的近音表音字进行匹配,可以在音学文本的表音字发音不标准的情况下,例如混淆平舌音和卷舌音,或者前鼻音和后鼻音等,可以匹配到正确的表义词;也就是说,通过表音词类可以矫正用户发音错误导致的分词错误,从而进一步提高了语音识别的准确性。
进一步地,所述近音表音字包括标准表音字以及与所述标准表音字发音相似的相似表音字。具体而言,标准表音字是指发音正确的表音字。相似表音字是指与标准表音字发音相似的表音字,在不同的语言环境中可以有不同的形式,例如在汉语言环境中,相似表音字可以是包括平舌音z、c、s的表音字和包括卷舌音(也可以称为翘舌音)zh、ch、sh、r的表音字;或者,包括前鼻音an、ian、uan、ü、an、en、in、uen、ün的表音字和包括后鼻音ang、iang、uang、eng、ing、ueng、ong、iong的表音字。
优选地,所述预设词典为分词词典,所述分词词典包括针对所有表义词的表音字。
优选地,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
优选地,图4所示的基于语音交互的语义识别装置40还可以包括知识点匹配模块404和答案输出模块405。知识点匹配模块404用以将所述语音数据的语义与知识库中的知识点进行匹配;答案输出模块405,用以输出与所述语音数据的语义相匹配的知识点中的答案。具体实施中,知识库可以存储多个知识点,每个知识点包括一个或多个预设的问题以及对应的答案信息。其中,所述问题不仅限于疑问句,可以为一个指令、陈述句、语义表达式等,用以与用户输入的问题进行匹配。所述答案信息为针对所述多个问题的应答。进一步而言,所述知识点包括标准问和多个扩展问,扩展问可以为用以表示该知识点语义的语义表达式和自然语句中的至少一种。
具体实施中,语音数据的语义与知识库中的知识点进行匹配的过程,可以是计算语音数据的语义与知识库中的知识点的标准问的语义相似度的过程。当所述语义相似度达到设定阈值时,则表示语音数据与知识库中的知识点相匹配,则可以输出与所述语音数据的语义相匹配的知识点中的答案。例如,语音数据的语义为“查余额”,并确定与语音数据的语义相似度最高的知识库中标准问为“剩余金额”,则将该标准问“剩余金额”对应的答案输出。
更具体而言,语音数据的语义与知识库中的知识点的语义相似度可以通过相关性得分(relevance score)来衡量,分数越高则语义相似度越高。可以采用TF-IDF算法计算语义相似度,此时词频(Term Frequency)和文档频率(Document Frequency)是影响语义相似度的因素。还可以进行笛卡尔积计算,然后采用编辑距离或Jaccard距离计算相似度。优选的,可以分别采用编辑距离和Jaccard距离计算相似度,并选取数值最大的相似度作为语义相似度。
关于所述基于语音交互的语义识别装置40的工作原理、工作方式的更多内容,可以参照对图1至图2所示实施例的相关描述,这里不再赘述。
本发明实施例还公开了一种存储介质,其上存储有计算机指令,所述计算机指令运行时可以执行图1或图2中所示的基于语音交互的语义识别方法的步骤。所述存储介质可以是计算机存储介质。所述存储介质可以包括ROM、RAM、磁盘或光盘等。
本发明实施例还公开了一种计算机设备,所述计算机设备可以包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令。所述处理器运行所述计算机指令时可以执行图1或图2中所示的基于语音交互的语义识别方法的步骤。所述用户设备包括但不限于手机、计算机、平板电脑等计算机设备。
应当理解,虽然以上描述了本发明实施方式的一种实现形式可以是计算机程序产品,但是本发明的实施方式的方法或装置可以通过软件、硬件、或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的方法和设备可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的方法和装置可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
应当理解,尽管在上文的详细描述中提及了装置的若干模块或单元,但是这种划分仅仅是示例性而非强制性的。实际上,根据本发明的示例性实施方式,上文描述的两个或更多模块/单元的特征和功能可以在一个模块/单元中实现,反之,上文描述的一个模块/单元的特征和功能可以进一步划分为由多个模块/单元来实现。此外,上文描述的某些模块/单元在某些应用场景下可被省略。
应当理解,为了不模糊本发明的实施方式,说明书仅对一些关键、未必必要的技术和特征进行了描述,而可能未对一些本领域技术人员能够实现的特征做出说明。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。
Claims (24)
1.一种基于语音交互的语义识别方法,其特征在于,包括:
将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;
利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;
对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
2.根据权利要求1所述的基于语音交互的语义识别方法,其特征在于,所述利用所述音学文本中的表音字进行词语匹配包括:
利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
3.根据权利要求2所述的基于语音交互的语义识别方法,其特征在于,所述利用所述音学文本中的表音字进行词语匹配包括:
将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;
将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
4.根据权利要求3所述的基于语音交互的语义识别方法,其特征在于,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:
按照在所述预设词典中出现频率递减的方式选取预设表义词;
将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
5.根据权利要求3所述的基于语音交互的语义识别方法,其特征在于,所述将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配包括:
将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
6.根据权利要求1所述的基于语音交互的语义识别方法,其特征在于,所述利用所述音学文本进行词语匹配包括:
确定所述音学文本中的表音字在预设词典中所属的近音词类,其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;
选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;
如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
7.根据权利要求6所述的基于语音交互的语义识别方法,其特征在于,所述利用所述音学文本进行词语匹配还包括:
如果匹配结果为不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字;
将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
8.根据权利要求6或7所述的基于语音交互的语义识别方法,其特征在于,所述近音表音字包括标准表音字以及与所述标准表音字发音相似的相似表音字。
9.根据权利要求2至7任一项所述的基于语音交互的语义识别方法,其特征在于,所述预设词典为分词词典,所述分词词典包括针对所有表义词的表音字。
10.根据权利要求3至7任一项所述的基于语音交互的语义识别方法,其特征在于,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
11.根据权利要求1所述的基于语音交互的语义识别方法,其特征在于,还包括:
将所述语音数据的语义与知识库中的知识点进行匹配;
输出与所述语音数据的语义相匹配的知识点中的答案。
12.一种基于语音交互的语义识别装置,其特征在于,包括:
转换模块,用以将获取到的语音数据转换为音学文本,所述音学文本中包括至少一个表音字;
匹配模块,用以利用所述音学文本中的表音字进行词语匹配,以得到文字文本,所述文字文本中包括与所述表音字匹配的表义词;
语义理解模块,用以对所述文字文本进行语义理解处理,以得到所述语音数据的语义。
13.根据权利要求12所述的基于语音交互的语义识别装置,其特征在于,所述匹配模块利用所述音学文本中的表音字与包括表音字索引的预设词典进行词语匹配。
14.根据权利要求13所述的基于语音交互的语义识别装置,其特征在于,所述匹配模块包括:
表音字匹配单元,用以将所述音学文本中的表音字与所述预设词典中各个预设表义词的表音字进行匹配,其中,所述预设词典中包括至少一个表音字、多个表义词,以及每个预设表义词与相应表音字的对应关系;
第一表义词确定单元,用以将匹配的预设表义词作为与所述音学文本中的表音字匹配的表义词。
15.根据权利要求14所述的基于语音交互的语义识别装置,其特征在于,所述表音字匹配单元包括:
表义词选取子单元,用以按照在所述预设词典中出现频率递减的方式,依次选取预设表义词;
第一表义词匹配子单元,用以将选取的预设表义词的表音字与所述音学文本中的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
16.根据权利要求14所述的基于语音交互的语义识别装置,其特征在于,所述表音字匹配单元包括:
第二表义词匹配子单元,用以将所述音学文本中的表音字或表音字组合与所述预设词典中各个预设表义词的表音字进行匹配,直至所述音学文本中的所有表音字匹配完成。
17.根据权利要求12所述的基于语音交互的语义识别装置,其特征在于,所述匹配模块包括:
词类确定单元,用以确定所述音学文本中的表音字在预设词典中所属的近音词类;其中,所述预设词典中包括至少一个表音字、多个表义词、每个预设表义词与相应表音字的对应关系以及至少一个近音词类,每一近音词类包括多个近音表音字以及针对每一近音表音字的预设权重;
第一近音表音字选取单元,用以选取所述音学文本中的表音字所属的近音词类中权重值最大的近音表音字,将其与预设词典中的表音字进行匹配;
第二表义词确定单元,用以如果匹配结果为一致,则将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
18.根据权利要求17所述的基于语音交互的语义识别装置,其特征在于,所述匹配模块还包括:
第二近音表音字选取单元,用以如果匹配结果为不一致,则按照权重值递减的方式,在所述音学文本中的表音字所属的近音词类中依次选取近音表音字;
第三表义词确定单元,用以将选取的近音表音字与预设词典中的表音字进行匹配,直至匹配结果为一致,并将匹配的表音字对应的表义词作为与所述音学文本中的表音字匹配的表义词。
19.根据权利要求17或18所述的基于语音交互的语义识别装置,其特征在于,所述近音表音字包括标准表音字以及与所述标准表音字发音相似的相似表音字。
20.根据权利要求13至18任一项所述的基于语音交互的语义识别装置,其特征在于,所述预设词典为分词词典,所述分词词典包括针对所有表义词的表音字。
21.根据权利要求14至18任一项所述的基于语音交互的语义识别装置,其特征在于,所述表音字为汉字的拼音,所述预设表义词为汉语词语。
22.根据权利要求12所述的基于语音交互的语义识别装置,其特征在于,还包括:
知识点匹配模块,用以将所述语音数据的语义与知识库中的知识点进行匹配;
答案输出模块,用以输出与所述语音数据的语义相匹配的知识点中的答案。
23.一种存储介质,其上存储有计算机指令,其特征在于,所述计算机指令运行时执行权利要求1至11中任一项所述基于语音交互的语义识别方法的步骤。
24.一种计算机设备,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,其特征在于,所述处理器运行所述计算机指令时执行权利要求1至11中任一项所述基于语音交互的语义识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710619763.8A CN107451119A (zh) | 2017-07-26 | 2017-07-26 | 基于语音交互的语义识别方法及装置、存储介质、计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710619763.8A CN107451119A (zh) | 2017-07-26 | 2017-07-26 | 基于语音交互的语义识别方法及装置、存储介质、计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107451119A true CN107451119A (zh) | 2017-12-08 |
Family
ID=60489099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710619763.8A Pending CN107451119A (zh) | 2017-07-26 | 2017-07-26 | 基于语音交互的语义识别方法及装置、存储介质、计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107451119A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319978A (zh) * | 2018-02-01 | 2018-07-24 | 北京捷通华声科技股份有限公司 | 一种语义相似度计算方法及装置 |
CN109192202A (zh) * | 2018-09-21 | 2019-01-11 | 平安科技(深圳)有限公司 | 语音安全识别方法、装置、计算机设备及存储介质 |
CN109635091A (zh) * | 2018-12-14 | 2019-04-16 | 上海钛米机器人科技有限公司 | 一种语义识别方法、装置、终端设备和存储介质 |
CN109801630A (zh) * | 2018-12-12 | 2019-05-24 | 平安科技(深圳)有限公司 | 语音识别的数字转换方法、装置、计算机设备和存储介质 |
CN109858473A (zh) * | 2018-12-28 | 2019-06-07 | 天津幸福生命科技有限公司 | 一种自适应纠偏方法、装置、可读介质及电子设备 |
CN110021293A (zh) * | 2019-04-08 | 2019-07-16 | 上海汽车集团股份有限公司 | 语音识别方法及装置、可读存储介质 |
CN110097880A (zh) * | 2019-04-20 | 2019-08-06 | 广东小天才科技有限公司 | 一种基于语音识别的答题判定方法及装置 |
CN110970026A (zh) * | 2019-12-17 | 2020-04-07 | 用友网络科技股份有限公司 | 语音交互匹配方法、计算机设备以及计算机可读存储介质 |
CN111916085A (zh) * | 2020-06-16 | 2020-11-10 | 北京爱医声科技有限公司 | 基于发音相似度的人机对话匹配方法、装置及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923858A (zh) * | 2009-06-17 | 2010-12-22 | 劳英杰 | 一种实时同步互译语音终端 |
CN102541821A (zh) * | 2010-12-30 | 2012-07-04 | 微软公司 | 交互式多语种语言的带注释显示方法及系统 |
CN102867512A (zh) * | 2011-07-04 | 2013-01-09 | 余喆 | 自然语音识别方法和装置 |
CN103377652A (zh) * | 2012-04-25 | 2013-10-30 | 上海智臻网络科技有限公司 | 一种用于进行语音识别的方法、装置和设备 |
-
2017
- 2017-07-26 CN CN201710619763.8A patent/CN107451119A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923858A (zh) * | 2009-06-17 | 2010-12-22 | 劳英杰 | 一种实时同步互译语音终端 |
CN102541821A (zh) * | 2010-12-30 | 2012-07-04 | 微软公司 | 交互式多语种语言的带注释显示方法及系统 |
CN102867512A (zh) * | 2011-07-04 | 2013-01-09 | 余喆 | 自然语音识别方法和装置 |
CN103377652A (zh) * | 2012-04-25 | 2013-10-30 | 上海智臻网络科技有限公司 | 一种用于进行语音识别的方法、装置和设备 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319978A (zh) * | 2018-02-01 | 2018-07-24 | 北京捷通华声科技股份有限公司 | 一种语义相似度计算方法及装置 |
CN108319978B (zh) * | 2018-02-01 | 2021-01-22 | 北京捷通华声科技股份有限公司 | 一种语义相似度计算方法及装置 |
CN109192202A (zh) * | 2018-09-21 | 2019-01-11 | 平安科技(深圳)有限公司 | 语音安全识别方法、装置、计算机设备及存储介质 |
CN109801630A (zh) * | 2018-12-12 | 2019-05-24 | 平安科技(深圳)有限公司 | 语音识别的数字转换方法、装置、计算机设备和存储介质 |
CN109801630B (zh) * | 2018-12-12 | 2024-05-28 | 平安科技(深圳)有限公司 | 语音识别的数字转换方法、装置、计算机设备和存储介质 |
CN109635091A (zh) * | 2018-12-14 | 2019-04-16 | 上海钛米机器人科技有限公司 | 一种语义识别方法、装置、终端设备和存储介质 |
CN109858473A (zh) * | 2018-12-28 | 2019-06-07 | 天津幸福生命科技有限公司 | 一种自适应纠偏方法、装置、可读介质及电子设备 |
CN109858473B (zh) * | 2018-12-28 | 2023-03-07 | 天津幸福生命科技有限公司 | 一种自适应纠偏方法、装置、可读介质及电子设备 |
CN110021293A (zh) * | 2019-04-08 | 2019-07-16 | 上海汽车集团股份有限公司 | 语音识别方法及装置、可读存储介质 |
CN110097880A (zh) * | 2019-04-20 | 2019-08-06 | 广东小天才科技有限公司 | 一种基于语音识别的答题判定方法及装置 |
CN110970026A (zh) * | 2019-12-17 | 2020-04-07 | 用友网络科技股份有限公司 | 语音交互匹配方法、计算机设备以及计算机可读存储介质 |
CN111916085A (zh) * | 2020-06-16 | 2020-11-10 | 北京爱医声科技有限公司 | 基于发音相似度的人机对话匹配方法、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107451119A (zh) | 基于语音交互的语义识别方法及装置、存储介质、计算机设备 | |
US20200334008A1 (en) | Search and knowledge base question answering for a voice user interface | |
CN109686361B (zh) | 一种语音合成的方法、装置、计算设备及计算机存储介质 | |
CN104766606B (zh) | 将自然语言翻译成指令的方法、装置及其导航应用 | |
JP5421239B2 (ja) | 複数モードの入力メソッドエディタ | |
US10460034B2 (en) | Intention inference system and intention inference method | |
CN106649825B (zh) | 语音交互系统及其创建方法和装置 | |
CN105869640B (zh) | 识别针对当前页面中的实体的语音控制指令的方法和装置 | |
US20200357383A1 (en) | Speech Synthesis Method and Speech Synthesis Apparatus | |
WO2021179701A1 (zh) | 多语种语音识别方法、装置及电子设备 | |
US11195524B2 (en) | System and method for contextual search query revision | |
US11093110B1 (en) | Messaging feedback mechanism | |
CN104462071A (zh) | 语音翻译设备和语音翻译方法 | |
US20170103757A1 (en) | Speech interaction apparatus and method | |
JP2000112938A5 (zh) | ||
US11183176B2 (en) | Systems and methods for server-less voice applications | |
CN112562640B (zh) | 多语言语音识别方法、装置、系统及计算机可读存储介质 | |
JP2013083897A (ja) | 認識装置、認識プログラム、認識方法、生成装置、生成プログラムおよび生成方法 | |
US20220358297A1 (en) | Method for human-machine dialogue, computing device and computer-readable storage medium | |
US20140095152A1 (en) | Dialogue system using extended domain and natural language recognition method and computer-readable medium thereof | |
CN109872718A (zh) | 语音数据的答案获取方法及装置、存储介质、计算机设备 | |
CN103903615B (zh) | 一种信息处理方法及电子设备 | |
CN105895076B (zh) | 一种语音合成方法及系统 | |
CN109871528A (zh) | 语音数据的语义识别方法及装置、存储介质、计算机设备 | |
CN112632956A (zh) | 文本匹配方法、装置、终端和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171208 |
|
RJ01 | Rejection of invention patent application after publication |