CN112071304B - 一种语意分析方法及装置 - Google Patents
一种语意分析方法及装置 Download PDFInfo
- Publication number
- CN112071304B CN112071304B CN202010937215.1A CN202010937215A CN112071304B CN 112071304 B CN112071304 B CN 112071304B CN 202010937215 A CN202010937215 A CN 202010937215A CN 112071304 B CN112071304 B CN 112071304B
- Authority
- CN
- China
- Prior art keywords
- information
- voice data
- semantic
- tone
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012098 association analyses Methods 0.000 claims abstract description 10
- 238000007405 data analysis Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000010183 spectrum analysis Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 230000008451 emotion Effects 0.000 abstract description 5
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000010219 correlation analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
Abstract
本发明提出了一种语意分析方法及装置,涉及自然语言处理技术领域。方法包括:获取语音数据,并对其进行分析,以得到文本信息以及音调信息,文本信息仅能表达其文本对应的浅层含义,而音调信息可以表达出用户的感情色彩。根据预先训练好的语意模型对文本信息进行识别,以得到仅表示浅层含义的第一语意信息;根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,第二语意信息就可以准确的表达用户的实际语意。然后根据第二语意信息确定语意分析结果,可以准确的进行语义分析。
Description
技术领域
本发明涉及自然语言处理技术领域,具体而言,涉及一种语意分析方法及装置。
背景技术
近年来,语音识别技术的发展较大程度的提高了人机交互水平,而语意分析技术作为理解自然语言的关键部分,对于人机交互的智能化程度起到了决定性作用。然而,从自然语言的角度来说,大部分词具有一词多义的特点,一个词除了表达本意之外,还可能具有其它的隐含语意,仅通过关键字进行识别的方法无法准确识别出其实际意义。此外,当句子为口语化语句时,语义分析过程中可能无法寻找到句子中的谓语,进而难以实现准确的语意分析。
发明内容
本发明的目的在于提供一种语意分析方法及装置,用以改善现有技术中难以准确的语意分析的问题。
第一方面,本申请实施例提供一种语意分析方法,方法包括:获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息;根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息;根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,并根据第二语意信息确定语意分析结果。
上述实现过程中,先对语音数据进行分析以得到文本信息及音调信息,文本信息仅能表达其文本对应的浅层含义,而音调信息可以表达出用户的感情色彩,因此,先通过语意模型对文本信息进行识别,得到仅表示浅层含义的第一语意信息,然后继续根据音调信息对第一语意信息进行关联分析后,得到的第二语意信息就可以准确的表达用户的实际语意了,再根据第二语意信息确定语意分析结果以进行输出。因此,本方法可以准确的进行语义分析。
在本发明的一些实施例中,获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息的步骤,包括:从语音数据中提取声音特征量;将声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据;把声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据。
上述实现过程中,先从语音数据中提取声音特征量,然后获取声音特征量与声音库中的相似度最高的声音数据,最后再把声音数据和文字语音库内存储的语音数据进行对比匹配,得出文本信息。可以保证文本信息的准确性。
在本发明的一些实施例中,获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息的步骤,包括:对语音数据进行频谱分析,并从语音数据中提取出声调音素;根据声调音素在声调模型中匹配出语音数据的声调。
上述实现过程中,对语音数据进行频谱分析以准确地提取出声调音素,确定语音数据的声调,从而可以有效地减少声调识别中的错误识别声调,实现了准确识别声调语言中的声调,提高了声调识别的可靠性。
在本发明的一些实施例中,根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息的步骤,包括:对文本信息进行分词,得到至少一个词语;分别获取至少一个词语的特性;根据特性分别确定至少一个词语包含的信息量,并从至少一个词语中选取包含信息量多的至少一个词语作为关键词;分别以关键词为中心做窗口,确定关键词的上下文词语;将上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果;根据匹配结果分析语意,以得到第一语意信息。
上述实现过程中,将包含信息量多的至少一个词语作为关键词,并做窗口分别确定关键词的上下文词语,使得该方案能够标注句子中信息量较大的信息,从而实现重要信息的语义分析。此外,根据关键词进行语义分析,无需考虑句子的句法,提高了分析的效率。
第二方面,本申请实施例提供一种语意分析装置,装置包括:语音数据分析模块,用于获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息;识别模块,用于根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息;分析模块,用于根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,并根据第二语意信息确定语意分析结果。
在本发明的一些实施例中,语音数据分析模块包括:声音特征量提取单元,用于从语音数据中提取声音特征量;声音数据匹配单元,用于将声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据;文本信息匹配单元,用于把声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据。
在本发明的一些实施例中,语音数据分析模块包括:声调音素提取单元,用于对语音数据进行频谱分析,并从语音数据中提取出声调音素;声调匹配单元,用于根据声调音素在声调模型中匹配出语音数据的声调。
在本发明的一些实施例中,识别模块包括:分词单元,用于对文本信息进行分词,得到至少一个词语;标注单元,用于分别获取至少一个词语的特性;关键词选取单元,用于根据特性分别确定至少一个词语包含的信息量,并从至少一个词语中选取包含信息量多的至少一个词语作为关键词;上下文获取单元,用于分别以关键词为中心做窗口,确定关键词的上下文词语;模型匹配单元,用于将上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果;语意分析单元,用于根据匹配结果分析语意。
第三方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当一个或多个程序被处理器执行时,实现如上述第一方面中任一项的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项的方法。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种语意分析方法的流程图;
图2为本发明实施例提供的一种语意分析装置的结构框图;
图3为本发明实施例提供的一种电子设备的结构框图。
图标:100-语意分析装置;110-语音数据分析模块;120-识别模块;130-分析模块;101-存储器;102-处理器;103-通信接口。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
请参看图1,图1为本发明实施例提供的一种语意分析方法的流程图,语意分析方法包括如下步骤:
步骤S110:获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息。
获取语音数据一般可以通过声音获取设备,例如麦克风等传声器获取,用户对着麦克风讲话,以使麦克风可以收集到用户说话的语音数据。然后再对语音数据进行分析,以从语音数据中获取文本信息以及音调信息,文本信息用于分析以获取用户所说的话的含义,而音调信息则可以表示用户说话的语调。文本信息可以直接看出其一般含义,而音调信息则更能体现用户的情感。因此在对语音数据进行分析时可以获取到文本信息以及音调信息,以便于后续准确的进行语意分析。
可以理解地,语音数据还可以通过音频收集装置等直接收集得到。例如,直接对某个音频文件进行收集,以获取语音数据。
步骤S120:根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息。
语意模型是在关系模型基础上增加全新的数据构造器和数据处理原语,用来表达复杂的结构和丰富的语义的一类新的数据模型。例如,DSSM深度语义匹配模型、LSTM-DSSM深度语义匹配模型。语意模型可以包括文本预处理、文本特征提取、分类模型构建等部分。文本预处理可以包括分词过程以及去除停用词的步骤。文本特征提取可以包括文本特征提取、词向量的特征提取模型等步骤。分类模型构建包括传统机器学习方法、深度学习文本分类模型。通过预先训练好的语意模型对文本信息进行识别可以得到较为直观的第一语义信息。
步骤S130:根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,并根据第二语意信息确定语意分析结果。
第一语意信息加上对应的音调进行关联分析后,可以确定出第二语意信息,第二语意信息可以准确的表达用户实际的语意。因此,可以根据第二语意信息确定出最终的语义分析结果。
例如,对获取到的语音数据进行分析后,得到的文本信息为“你不去吃饭”,对文本信息进行识别后得到的第一语意信息就是对象为你,动作是不去吃饭。若音调信息为升调,则在根据第一语意信息分析其最可能表达的第二语意信息为对象为你,动作是不去吃饭,是问句。则再根据第二语意信息分析得到的语义分析结果为,不确定对象你是否要去吃饭。
上述实现过程中,先对语音数据进行分析以得到文本信息及音调信息,文本信息仅能表达其文本对应的浅层含义,而音调信息可以表达出用户的感情色彩,因此,先通过语意模型对文本信息进行识别,得到仅表示浅层含义的第一语意信息,然后继续根据音调信息对第一语意信息进行关联分析后,得到的第二语意信息就可以准确的表达用户的实际语意了,再根据第二语意信息确定语意分析结果以进行输出。因此,本方法可以准确的进行语义分析。
在本发明的一些实施例中,获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息的步骤,包括以下过程。先从语音数据中提取声音特征量,然后将声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据,再把声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据。
其中,可以把一个语音特征量与文字语音库中的模型化的声音数据进行匹配,得到匹配相似度排前的三个声音数据,然后再对语音特征量前后的语音特征量与文字语音库中的语音数据进行匹配,得到匹配相似度排前的三个语音数据,然后把语音数据对应的文字进行匹配,得到转化的文本信息。
例如,语音数据为“大家好”时,先对“大”进行语音特征量匹配,可能会匹配到“大、打、达”,然后对“家”进行语音特征量匹配,得到“家、加、+”,然后对“好”进行语音特征量匹配,得到“好、浩、豪”,然后通过文字扩展词句的语音数据匹配,得到文本信息“大家好”。
在本发明的一些实施例中,获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息的步骤,包括以下过程。首先对语音数据进行频谱分析,并从语音数据中提取出声调音素,然后根据声调音素在声调模型中匹配出语音数据的声调。
在对语音数据进行频谱分析时,可以根据语音数据提取梅尔频率倒谱系数作为特征参量,还可以提取梅尔频率倒谱系数、一阶梅尔频率倒谱系数和二阶梅尔频率倒谱系数作为特征参量。
从语音数据中提取出声调音素时,还可以先根据语音数据生成携带时间对准信息的语音序列,然后再根据语音序列从语音数据中提取出声调音素。
根据声调音素在声调模型中匹配出语音数据的声调,具体地可以是利用支撑向量机演算法,找出一组适当的超平面对声调音素进行声调分类。
在本发明的一些实施例中,根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息的步骤,包括以下步骤:对文本信息进行分词,得到至少一个词语。分别获取至少一个词语的特性。根据特性分别确定至少一个词语包含的信息量,并从至少一个词语中选取包含信息量多的至少一个词语作为关键词。分别以关键词为中心做窗口,确定关键词的上下文词语。将上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果。根据匹配结果分析语意,以得到第一语意信息。
用户输入语音为汉语时,可以采用汉语分词系统,如ICTCLAS等对用户输入语音对应的文本进行分词,而当用户输入语音为其他语言时,可以采用该语言对应的分词系统进行分词。例如,对文本信息进行分词,得到L个词语
获取词语的特性时,可以通过预设的标注规则对该L个词语进行标注,从而获取该L个词语的特性。该预设的标注规则可以根据需要进行在全领域范围内设置;预设的标注规则也可以与用户输入语音所属的使用领域对应,可以根据需要预先设置。以使用领域为订票系统为例,标注规则可以包括:人名、地名、航空公司、舱位、时间/日期、数字、形容词、副词、语气词、助词、连词等;对于其他使用领域,标注规则可以根据该使用领域相应的情况制定。可以理解地,也可以通过其他方式获取该L个词语的特性。
不同特性的词语包含的信息多少不同,为了便于衡量,可以预设每种特性对应的信息量,从而当获取到L个词语的特性后,可以直接根据特性分别确定L个词语包含的信息量。以使用领域为订票系统为例,信息量大的词语可以为名词和副词;如“从北京到上海最便宜的机票是什么时间”,这类问话中往往谓语只是一些系动词(“是”,“有”),代表意思仅仅希望获取信息,而名词“北京”、“上海”,以及程度副词短语“最便宜”才是系统需要识别理解的。
以L个词语中第一个关键词为中心,预设个数的上下文词语做窗口,确定该关键词的上下文词语;L个词语中关键词的个数大于1时,该窗口滑动到第二个关键词,确定该第二个关键词的上下文词语后,再次滑动窗口,直至L个词语中最后一个关键词。
基于同样的发明构思,本发明还提出一种语意分析装置100,请参看图2,图2为本发明实施例提供的一种语意分析装置的结构框图。该语意分析装置包括:
语音数据分析模块110,用于获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息。
识别模块120,用于根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息。
分析模块130,用于根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,并根据第二语意信息确定语意分析结果。
在本发明的一些实施例中,语音数据分析模块110包括:
声音特征量提取单元,用于从语音数据中提取声音特征量。
声音数据匹配单元,用于将声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据。
文本信息匹配单元,用于把声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据。
在本发明的一些实施例中,语音数据分析模块110包括:
声调音素提取单元,用于对语音数据进行频谱分析,并从语音数据中提取出声调音素。
声调匹配单元,用于根据声调音素在声调模型中匹配出语音数据的声调。
在本发明的一些实施例中,识别模块120包括:
分词单元,用于对文本信息进行分词,得到至少一个词语。
标注单元,用于分别获取至少一个词语的特性。
关键词选取单元,用于根据特性分别确定至少一个词语包含的信息量,并从至少一个词语中选取包含信息量多的至少一个词语作为关键词。
上下文获取单元,用于分别以关键词为中心做窗口,确定关键词的上下文词语。
模型匹配单元,用于将上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果。
语意分析单元,用于根据匹配结果分析语意。
请参阅图3,图3为本申请实施例提供的电子设备的一种示意性结构框图。电子设备包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,如本申请实施例所提供的语意分析装置100对应的程序指令/模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可以理解,图3所示的结构仅为示意,电子设备还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。图3中所示的各组件可以采用硬件、软件或其组合实现。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上,本申请实施例提供的一种语意分析方法及装置,该方法包括:获取语音数据,并对语音数据进行分析,以得到文本信息以及音调信息;根据预先训练好的语意模型对文本信息进行识别,以得到第一语意信息;根据第一语意信息以及音调信息进行关联分析,以得到第二语意信息,并根据第二语意信息确定语意分析结果。上述实现过程中,先对语音数据进行分析以得到文本信息及音调信息,文本信息仅能表达其文本对应的浅层含义,而音调信息可以表达出用户的感情色彩,因此,先通过语意模型对文本信息进行识别,得到仅表示浅层含义的第一语意信息,然后继续根据音调信息对第一语意信息进行关联分析后,得到的第二语意信息就可以准确的表达用户的实际语意了,再根据第二语意信息确定语意分析结果以进行输出。因此,本方法可以准确的进行语义分析。
以上仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种语意分析方法,其特征在于,所述方法包括:
获取语音数据,并对所述语音数据进行分析,以得到文本信息以及音调信息;
根据预先训练好的语意模型对所述文本信息进行识别,以得到第一语意信息;
根据第一语意信息以及所述音调信息进行关联分析,以得到第二语意信息,并根据所述第二语意信息确定语意分析结果;
获取语音数据,并对所述语音数据进行分析,以得到文本信息以及音调信息的步骤,包括:
从所述语音数据中提取声音特征量;
将所述声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据;
把所述声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,所述文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据;
获取语音数据,并对所述语音数据进行分析,以得到文本信息以及音调信息的步骤,包括:
对所述语音数据进行频谱分析,并从所述语音数据中提取出声调音素;
根据所述声调音素在声调模型中匹配出所述语音数据的声调。
2.根据权利要求1所述的方法,其特征在于,根据预先训练好的语意模型对所述文本信息进行识别,以得到第一语意信息的步骤,包括:
对所述文本信息进行分词,得到至少一个词语;
分别获取所述至少一个词语的特性;
根据所述特性分别确定所述至少一个词语包含的信息量,并从所述至少一个词语中选取包含信息量多的至少一个词语作为关键词;
分别以所述关键词为中心做窗口,确定所述关键词的上下文词语;
将所述上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果;
根据所述匹配结果分析语意,以得到第一语意信息。
3.一种语意分析装置,其特征在于,所述装置包括:
语音数据分析模块,用于获取语音数据,并对所述语音数据进行分析,以得到文本信息以及音调信息;
识别模块,用于根据预先训练好的语意模型对所述文本信息进行识别,以得到第一语意信息;
分析模块,用于根据第一语意信息以及所述音调信息进行关联分析,以得到第二语意信息,并根据所述第二语意信息确定语意分析结果;
文本分析模块用于根据从语音数据中提取声音特征量;将所述声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据;把所述声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,所述文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据;
音调分析模块用于根据对语音数据进行频谱分析,并从所述语音数据中提取出声调音素;根据所述声调音素在声调模型中匹配出所述语音数据的声调。
4.根据权利要求3所述的装置,其特征在于,所述语音数据分析模块包括:
声音特征量提取单元,用于从所述语音数据中提取声音特征量;
声音数据匹配单元,用于将所述声音特征量与声音库内的模型化的声音数据进行匹配,以获取相似度匹配的声音数据;
文本信息匹配单元,用于把所述声音数据与文字语音库内存储的语音数据进行对比匹配,得出文本信息,其中,所述文字语音库中存储有文字、文字对应的语音和文字扩展词句的语音数据。
5.根据权利要求3所述的装置,其特征在于,所述语音数据分析模块包括:
声调音素提取单元,用于对所述语音数据进行频谱分析,并从所述语音数据中提取出声调音素;
声调匹配单元,用于根据所述声调音素在声调模型中匹配出所述语音数据的声调。
6.根据权利要求3所述的装置,其特征在于,所述识别模块包括:
分词单元,用于对所述文本信息进行分词,得到至少一个词语;
标注单元,用于分别获取所述至少一个词语的特性;
关键词选取单元,用于根据所述特性分别确定所述至少一个词语包含的信息量,并从所述至少一个词语中选取包含信息量多的至少一个词语作为关键词;
上下文获取单元,用于分别以所述关键词为中心做窗口,确定所述关键词的上下文词语;
模型匹配单元,用于将所述上下文词语与预先训练得到的语意模型进行匹配,得到匹配结果;
语意分析单元,用于根据所述匹配结果分析语意。
7.一种电子设备,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-2中任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被
处理器执行时实现如权利要求1-2中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010937215.1A CN112071304B (zh) | 2020-09-08 | 2020-09-08 | 一种语意分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010937215.1A CN112071304B (zh) | 2020-09-08 | 2020-09-08 | 一种语意分析方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112071304A CN112071304A (zh) | 2020-12-11 |
CN112071304B true CN112071304B (zh) | 2024-03-15 |
Family
ID=73664478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010937215.1A Active CN112071304B (zh) | 2020-09-08 | 2020-09-08 | 一种语意分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112071304B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345383A (ja) * | 2002-05-27 | 2003-12-03 | Pioneer Electronic Corp | 音声認識装置、音声認識方法および音声認識プログラム |
WO2013185070A1 (en) * | 2012-06-08 | 2013-12-12 | Nvoq Incorporated | Apparatus and methods using a pattern matching speech recognition engine to train a natural language speech recognition engine |
CN105096942A (zh) * | 2014-05-21 | 2015-11-25 | 清华大学 | 语义分析方法和装置 |
CN107657017A (zh) * | 2017-09-26 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
CN109087670A (zh) * | 2018-08-30 | 2018-12-25 | 西安闻泰电子科技有限公司 | 情绪分析方法、系统、服务器及存储介质 |
CN109410923A (zh) * | 2018-12-26 | 2019-03-01 | 中国联合网络通信集团有限公司 | 语音识别方法、装置、系统及存储介质 |
CN109741738A (zh) * | 2018-12-10 | 2019-05-10 | 平安科技(深圳)有限公司 | 语音控制方法、装置、计算机设备及存储介质 |
CN110246519A (zh) * | 2019-07-25 | 2019-09-17 | 深圳智慧林网络科技有限公司 | 情绪识别方法、设备及计算机可读存储介质 |
CN111028827A (zh) * | 2019-12-10 | 2020-04-17 | 深圳追一科技有限公司 | 基于情绪识别的交互处理方法、装置、设备和存储介质 |
CN111128130A (zh) * | 2019-12-31 | 2020-05-08 | 秒针信息技术有限公司 | 语音数据处理方法和装置及电子装置 |
CN111259170A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种语音搜索方法、装置、电子设备及存储介质 |
CN111524534A (zh) * | 2020-03-20 | 2020-08-11 | 北京捷通华声科技股份有限公司 | 一种语音分析方法、系统、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2628436C1 (ru) * | 2016-04-12 | 2017-08-16 | Общество с ограниченной ответственностью "Аби Продакшн" | Классификация текстов на естественном языке на основе семантических признаков |
-
2020
- 2020-09-08 CN CN202010937215.1A patent/CN112071304B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345383A (ja) * | 2002-05-27 | 2003-12-03 | Pioneer Electronic Corp | 音声認識装置、音声認識方法および音声認識プログラム |
WO2013185070A1 (en) * | 2012-06-08 | 2013-12-12 | Nvoq Incorporated | Apparatus and methods using a pattern matching speech recognition engine to train a natural language speech recognition engine |
CN105096942A (zh) * | 2014-05-21 | 2015-11-25 | 清华大学 | 语义分析方法和装置 |
CN107657017A (zh) * | 2017-09-26 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
CN109087670A (zh) * | 2018-08-30 | 2018-12-25 | 西安闻泰电子科技有限公司 | 情绪分析方法、系统、服务器及存储介质 |
CN111259170A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种语音搜索方法、装置、电子设备及存储介质 |
CN109741738A (zh) * | 2018-12-10 | 2019-05-10 | 平安科技(深圳)有限公司 | 语音控制方法、装置、计算机设备及存储介质 |
CN109410923A (zh) * | 2018-12-26 | 2019-03-01 | 中国联合网络通信集团有限公司 | 语音识别方法、装置、系统及存储介质 |
CN110246519A (zh) * | 2019-07-25 | 2019-09-17 | 深圳智慧林网络科技有限公司 | 情绪识别方法、设备及计算机可读存储介质 |
CN111028827A (zh) * | 2019-12-10 | 2020-04-17 | 深圳追一科技有限公司 | 基于情绪识别的交互处理方法、装置、设备和存储介质 |
CN111128130A (zh) * | 2019-12-31 | 2020-05-08 | 秒针信息技术有限公司 | 语音数据处理方法和装置及电子装置 |
CN111524534A (zh) * | 2020-03-20 | 2020-08-11 | 北京捷通华声科技股份有限公司 | 一种语音分析方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112071304A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108428446B (zh) | 语音识别方法和装置 | |
CN108304372B (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
CN108304375B (zh) | 一种信息识别方法及其设备、存储介质、终端 | |
CN107729313B (zh) | 基于深度神经网络的多音字读音的判别方法和装置 | |
US7421387B2 (en) | Dynamic N-best algorithm to reduce recognition errors | |
CN113836277A (zh) | 用于数字助理的机器学习系统 | |
US20030046078A1 (en) | Supervised automatic text generation based on word classes for language modeling | |
CN106570180A (zh) | 基于人工智能的语音搜索方法及装置 | |
CN114580382A (zh) | 文本纠错方法以及装置 | |
CN109508441B (zh) | 通过自然语言实现数据统计分析的方法、装置及电子设备 | |
Boudchiche et al. | A hybrid approach for Arabic lemmatization | |
US20230069935A1 (en) | Dialog system answering method based on sentence paraphrase recognition | |
CN114036930A (zh) | 文本纠错方法、装置、设备及计算机可读介质 | |
CN112466279B (zh) | 一种英语口语发音自动纠正方法和装置 | |
CN110717045A (zh) | 一种基于信访信件概况的信件要素自动提取方法 | |
CN112885336A (zh) | 语音识别系统的训练、识别方法、装置、电子设备 | |
US20050187767A1 (en) | Dynamic N-best algorithm to reduce speech recognition errors | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
CN112071304B (zh) | 一种语意分析方法及装置 | |
CN114974310A (zh) | 基于人工智能的情感识别方法、装置、计算机设备及介质 | |
CN114298048A (zh) | 命名实体识别方法及装置 | |
CN111858860B (zh) | 搜索信息处理方法及系统、服务器、计算机可读介质 | |
CN109298796B (zh) | 一种词联想方法及装置 | |
CN113096667A (zh) | 一种错别字识别检测方法和系统 | |
CN111540363B (zh) | 关键词模型及解码网络构建方法、检测方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |