CN107229684B - 语句分类方法、系统、电子设备、冰箱及存储介质 - Google Patents
语句分类方法、系统、电子设备、冰箱及存储介质 Download PDFInfo
- Publication number
- CN107229684B CN107229684B CN201710331106.3A CN201710331106A CN107229684B CN 107229684 B CN107229684 B CN 107229684B CN 201710331106 A CN201710331106 A CN 201710331106A CN 107229684 B CN107229684 B CN 107229684B
- Authority
- CN
- China
- Prior art keywords
- word
- sentence
- target
- vector
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 239000013598 vector Substances 0.000 claims abstract description 227
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 112
- 239000011159 matrix material Substances 0.000 claims abstract description 61
- 230000015654 memory Effects 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 37
- 238000011176 pooling Methods 0.000 claims description 36
- 238000013507 mapping Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种语句分类方法、系统、电子设备、冰箱及存储介质,所述语句分类方法包括:获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量和词性向量;将所述目标语句中各词语对应的词语向量输入长短时记忆LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息;将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量;以及,根据所述目标语句的特征量对该目标语句进行分类。本发明能够提高对语句分类及语句类型识别的准确性,提升用户体验。
Description
技术领域
本发明实施例涉及智能家居技术领域,具体涉及一种语句分类方法、系统、电子设备、冰箱及存储介质。
背景技术
随着智能家电和智能手机的推广使用,人们越来越习惯利用智能家电和智能手机上的语音识别系统或搜索引擎发出问题询问或对智能家电进行控制。以语音识别系统为例,在将语音识别为语句文本后,需要对语句文本进行类型划分,在根据语句文本的类型确认获取对应的答案或操作指令,因此,语句分类的过程是实现智能问答、搜索引擎等语言处理任务的重要步骤。
目前的语句文本分类方法为基于深度学习方法对语句进行分类,其中利用卷积神经网络CNN(Convolutional Neural Network)模型,或者,循环神经网络RNN(RecurrentNeural Network)模型是较为常见的语句分类方法。
但在利用卷积神经网络CNN模型进行语句分类时,由于只能获取语句中各词语的抽象特征,缺少语句中各词语的语序特征进而造成的语句分类不准确的问题;而在利用循环神经网络RNN模型进行语句分类时,由于其抽象各词语特征的能力不如CNN,因也会造成的后续语句分类准确性低的问题。
发明内容
针对现有技术中的问题,本发明提供一种语句分类方法、系统、电子设备、冰箱及存储介质,本发明能够提高对语句分类及语句类型识别的准确性,提升用户体验。
为解决上述技术问题,本发明提供以下技术方案:
第一方面,本发明提供了一种语句分类方法,所述方法包括:
获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量和词性向量;
将所述目标语句中各词语对应的词语向量输入LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息;
将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量;
以及,根据所述目标语句的特征量对该目标语句进行分类。
进一步地,在所述获取目标语句中各词语对应的词语向量之前,所述方法还包括:
对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量;
通过一定方法生成预处理后的各语句中的各词语对应的词性向量;
以及,组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
进一步地,在所述组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量之后,所述方法还包括:
根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系;
相应的,所述获取目标语句中各词语对应的词语向量,包括:
根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
进一步地,所述将所述目标语句中各词语对应的词语向量输入LSTM模型中,得到目标语句的状态矩阵,包括:
将与目标语句中各词语对应的各所述词语向量依次按序输入LSTM中,获取所述目标语句对应的初始语义信息及语序信息的隐含状态;
以及,根据所述LSTM层提取的隐含状态,生成所述目标语句的状态矩阵。
进一步地,所述将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量,包括:
将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息构成各卷积层的卷积结果;
以及,将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
进一步地,将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量,包括:
分别将各卷积层的卷积结果进行合并,得到合并后的卷积结果组;
以及,将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
第二方面,本发明提供了一种语句分类系统,所述系统包括:
词语向量获取模块,用于获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量和词性向量;
LSTM模型处理模块,用于将所述目标语句中各词语对应的词语向量输入LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息;
CNN模型处理模块,用于将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量;
语句分类模块,用于根据所述目标语句的特征量对该目标语句进行分类。
进一步地,所述系统还包括:
词义向量获取单元,用于对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量;
词性向量生成单元,用于生成预处理后的各语句中的各词语对应的词性向量;
词语向量获取单元,用于组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
进一步地,所述系统还包括:
关键词向量库生成单元,用于根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系;
相应的,所述词语向量获取模块用于根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
进一步地,所述LSTM模型处理模块包括:
LSTM层处理单元,用于将与目标语句中各词语对应的各所述词语向量依次按序输入长短时记忆LSTM中,获取所述目标语句对应的初始语义信息及语序信息的隐含状态;
状态矩阵生成单元,用于根据所述LSTM层的隐含状态,生成所述目标语句的状态矩阵。
进一步地,所述CNN模型处理模块包括:
卷积层处理单元,用于将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息构成各卷积层的卷积结果;
池化层处理单元,用于将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
进一步地,所述池化层处理单元包括:
合并子单元,用于分别将各卷积层的卷积结果进行合并,得到合并后的卷积结果组;
特征量获取子单元,用于将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
第三方面,本发明提供了一种电子设备,包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行所述的语句分类方法。
第四方面,本发明提供了一种冰箱,所述冰箱上设有语音识别系统,且所述语音识别系统中包括一种电子设备;
所述电子设备包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行所述的语句分类方法。
第五方面,本发明提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行所述的语句分类方法。
由上述技术方案可知,本发明提供的语句分类方法,首先获取目标语句中各词语对应的词语向量,然后将所述目标语句中各词语对应的词语向量输入LSTM模型中,使得LSTM模型输出目标语句的状态矩阵,再将所述状态矩阵输入卷积神经网络CNN模型中,使得卷积神经网络CNN模型输出所述目标语句对应的特征量;相应的,根据所述目标语句的特征量对该目标语句进行分类。可见,本发明实施例提供的语句分类方法,首先通过LSTM模型初步获取目标语句中的各词语对应的语义和语序信息,在通过卷积神经网络CNN模型获取目标语句中的各词语的更为抽象且准确的语义信息,因而根据本发明实施例提供的方法,在提高了目标语句对应的语义信息的准确性的同时,也通过增加语序信息,提高了对目标语句分类及类型识别的准确性和可靠性,故使得用户体验提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一个实施例提供的语句分类方法的一种流程图;
图2是本发明的一个实施例提供的语句分类方法的另一种流程图;
图3是本发明的一个实施例提供的语句分类方法的再一种流程图;
图4是本发明的一个实施例提供的语句分类方法中步骤200的一种流程图;
图5是LSTM层提取目标语句的状态矩阵的示意图;
图6是本发明的一个实施例提供的语句分类方法中步骤300的一种流程图;
图7是现有的池化过程示意图;
图8是本发明的一个实施例提供的语句分类方法中步骤302的一种流程图;
图9是针对现有的池化过程进行改进的池化过程示意图;
图10是本发明的另一个实施例提供的语句分类系统的一种结构示意图;
图11是本发明的另一个实施例提供的语句分类系统的另一种结构示意图;
图12是本发明的另一个实施例提供的语句分类系统的再一种结构示意图;
图13是本发明的另一个实施例提供的语句分类系统中RNN模型处理模块20的一种结构示意图;
图14是本发明的另一个实施例提供的语句分类系统中CNN模型处理模块30的一种结构示意图;
图15是本发明的另一个实施例提供的语句分类系统中池化层处理单元32的一种结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对现有技术中的问题,本发明提供一种语句分类方法、系统、电子设备、冰箱及存储介质。可以理解的是,本发明实施例所述的电子设备可以装设在冰箱等家用电器上。本发明提供的语句分类方法,在提高了目标语句对应的语义信息的准确性的同时,也提供了其语序信息,提高对语句分类及语句类型识别的准确性,故使得用户体验提高。下面将通过第一至第五实施例对本发明进行详细解释说明。
图1示出了本发明第一个实施例提供的语句分类方法的流程图,参见图1,本发明第一个实施例提供的语句分类方法包括如下步骤:
步骤100:获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量。
在本步骤中,用于对语句进行分类的电子设备接收目标语句,并查找得到将该目标语句中各词语对应的词语向量,可以理解的是,用于对语句进行分类的电子设备接收外部处理模块发送的目标语句的文本,或者,用于对语句进行分类的电子设备直接接收目标语句的语音,并将该目标语句的语音转换为对应的目标语句的文本。
可以理解的是,这里所述的用于对语句进行分类的电子设备可以为一台硬件设备,也可以为安装在智能终端上的APP,或者为嵌入在某一硬件设备中的一个处理模块。
在本步骤中,所述词语向量中包括词义向量,且该词义向量记载了对应的词语本身以及该词语在其应用语句中相邻词语的信息,可以理解的是,各词语对应的词语向量是在获取目标语句前存储在用于对语句进行分类的电子设备能够调用的数据库中的。
可以理解的是,当一个语句中包括不止一个词语时,表示该语句中各词语的不止一个的词义向量按照在语句中出现的顺序依次排列,进而构成一个矩阵,这个矩阵与该语句是一一对应的关系。
在本步骤中,装设有用于对语句进行分类的电子设备的电器可以为一种冰箱,通过冰箱上的语音识别系统或操作面板,目标语句的文本可以为通过录入用户的问题或指定的语音转化而成的文本,也可以为用户直接输入的文本,无论是哪一种,均需要对其进行分类确认,这样才能够根据其所述类型迅速调取该类型对应的文字答案或操作指令等,但由于用户并不会按照统一标准进行目标语句的录入,因此会出现对目标语句的分类错误,这显然会造成答案或操作指令输出错误的情形,也必然会降低用户体验。因此需要提供一种语句分类方法以对目标语句进行快速且准确的分类,保证根据目标语句的类型能够准确且快速地输出其对应的答案或操作指令等,以便用户及时且准确的获取其想要了解问题答案或执行相应操作,进而实现装设有用于对语句进行分类的电子设备的电器的有效利用和正确操作,以提升用户体验。
在本步骤中,用于对语句进行分类的电子设备接收目标语句,并在预存的各词语对应的关键词向量库中查找得到将该目标语句中各词语对应的词语向量。可见,本发明实施例提供的基于深度学习的语句分类方法,由于在接收到目标语句后即获取了其对应的词语向量,从而减少了用户等待时间,故使得用户体验提高。
步骤200:将所述目标语句中各词语对应的词语向量输入LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息。
在本步骤中,用于对语句进行分类的电子设备将所述目标语句中各词语对应的词语向量输入长短时记忆LSTM(Long Short Term Memory)模型中,使得LSTM模型通过其隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出的设定,得到所述目标语句对应的初始语义信息及语序信息。可以理解的是,LSTM模型以包含有对应程序的处理单元的形式,设置在用于对语句进行分类的电子设备中的处理单元中。
在本步骤中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息。可以理解的是,每个输入的词语对应的词语向量的输出形态均包含该词语对应的初始语义信息及语序信息,因此,目标语句对应的各个词语按其在目标语句的先后顺序,其对应的初始语义信息及语序信息即组成了目标语句的状态矩阵。
在本步骤中,假设一个目标语句中包括依次出现的四个词语,且该四个词语对应的词语向量分别为:词语向量1、词语向量2、词语向量3个词语向量4;则该目标语句对应的所述状态矩阵中词语与该词语对应的初始语义信息及语序信息有如下的映射关系表1:
表1
目标语句中的词语 | 适配数据 |
向量1 | 语义信息1 |
向量1和2 | 语义信息和词序信息2 |
向量1、2和3 | 语义信息和词序信息3 |
… | … |
步骤300:将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量。
在本步骤中,用于对语句进行分类的电子设备将所述状态矩阵输入卷积神经网络CNN(Convolutional Neural Network)模型中,使得卷积神经网络CNN模型通过其每个神经元的输入与前一层的局部接受域相连而提取该局部的特征的设定,得到所述目标语句对应的特征量。可以理解的是,LSTM模型先输出抽象词义信息,在根据该抽象词义信息及次序信息得到所述目标语句对应的特征量,以及,卷积神经网络CNN模型以包含有对应程序的处理单元的形式,设置在用于对语句进行分类的电子设备中的处理单元中。
在步骤200和步骤300中,LSTM模型能够即获取目标语句中的词语对应的初始语义信息,又获取目标语句中的词语对应的语序信息,但经其获取的初始语义信息存在抽象程度差的缺陷,可能会导致后续的所述目标语句对应的特征量的获取的准确性降低;以及,卷积神经网络CNN模型能够准确获取目标语句中的输出词语对应的抽象语义信息,但却会丢失相应的语序信息,而在语句中,词序往往包含了用于理解语句的重要信息,这是因为相同词语的不同组合可能会得到完全不同意思的句子,会造成获取的所述目标语句对应的特征量的不够准确的问题。因此,需要提供一种语句分类方法来准确地结合LSTM模型和卷积神经网络CNN模型的优势,既能够获取目标语句中的各词语对应的语序信息,又能够获取目标语句中的各词语的更为抽象且准确的语义信息,以提高目标语句对应的特征量的准确性,进而保证对语句分类的准确性,使得用户能够获取与其输入问题或操作指令相匹配的答案或操作,进而实现装设有用于对语句进行分类的电子设备的电器的有效利用和正确操作,以提升用户体验。
在步骤200和步骤300中,首先通过LSTM模型获取目标语句中的各词语对应的初步语义信息和语序信息,在通过卷积神经网络CNN模型获取目标语句中的各词语的更为抽象且准确的语义信息。可见,本发明实施例提供的基于深度学习的语句分类方法,在提高了目标语句对应的语义信息的准确性的同时,也提供了其语序信息,提高了对目标语句识别的准确性,故使得用户体验提高。
步骤400:根据所述目标语句的特征量对该目标语句进行分类。
在本步骤中,用于对语句进行分类的电子设备根据所述目标语句的特征量对该目标语句进行分类。可以理解的是,在用于对语句进行分类的电子设备根据所述目标语句的特征量对该目标语句进行分类之后,用于对语句进行分类的电子设备可以将所述目标语句存储在特征量相同的数据库内,也可以通过对该目标语句的特征量的分类确认,到存储有该类型的数据库中遍历得到该目标语句对应的答案或操作等。
可以理解的是,用于对语句进行分类的电子设备根据设置在卷积神经网络CNN模型内的能够实现隐层和softmax层功能的程序单元对该目标语句进行分类。
由上述描述可知,本发明实施例提供的基于深度学习的语句分类方法,首先获取目标语句中各词语对应的词语向量,然后将所述目标语句中各词语对应的词语向量输入LSTM中,使得LSTM模型输出目标语句的状态矩阵,再将所述状态矩阵输入卷积神经网络CNN模型中,使得卷积神经网络CNN模型输出所述目标语句对应的特征量;相应的,根据所述目标语句的特征量对该目标语句进行分类。可见,本发明实施例提供的语句分类方法,首先通过LSTM模型获取目标语句中的各词语对应的初步语义信息和语序信息,在通过卷积神经网络CNN模型获取目标语句中的各词语的更为抽象且准确的语义信息,因而根据本发明实施例提供的方法,在提高了目标语句对应的语义信息的准确性的同时,也通过增加语序信息,提高了对目标语句分类及类型识别的准确性和可靠性,故使得用户体验提高。
在一种可选实施方式中,参见图2,在步骤100之前,所述方法还包括:
步骤001:对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量。
在本步骤中,用于对语句进行分类的电子设备对语句文本进行预处理。可以理解的是,语句文本为预先获取的常见语句组成的文本,该语句文本相当于一个词语的数据库;以及,对语句文本进行预处理可以为对语句中的词语进行分词、删除及忽略等处理。
可以理解的是,该语句文本可以根据用户录入的历史语句生成,也可以用于对语句进行分类的电子设备通过外部网络直接获取。
在本步骤中,用于对语句进行分类的电子设备获取预处理后的各语句中的各词语对应的词义向量。可以理解的是,词语对应的词义向量的获取是将词语表示成计算机可识别的对应的数字信息。
可以理解的是,用于对语句进行分类的电子设备中可以包含一个能够实现文本深度表示模型word2vec技术的程序单元,预处理后的各语句中的各词语输入该程序单元后,该程序单元输出对应的词义向量。
步骤002:生成预处理后的各语句中的各词语对应的词性向量。
在本步骤中,由于步骤001获取的词语对应的词义向量记载了对应的词语本身以及该词语在其应用语句中的相邻词语,但并未记载该词语的词性信息,例如,经文本深度表示模型word2vec训练出的词义向量虽然能较好的表达词义,但并没有表达词语的词性等信息,也就是说文本深度表示模型word2vec并没有将语句中隐藏的信息表达完全,其显然会造成后续的语句分类的结果不尽准确的问题。因此,本实施例中的基于深度学习的语句分类方法通过生成预处理后的各语句中的各词语对应的词性向量,解决了获取的词义向量中缺少词语的词性信息的问题。
步骤003:组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
在本步骤中,用于对语句进行分类的电子设备将各词语对应的所述词义向量和词性向量组合成各词语对应的词语向量。可以理解的是,各词语对应的词语向量既包括了词语对应的所述词义向量,又包括了词语对应的词性向量。
可见,本实施方式提供的基于深度学习的语句分类方法,通过在已获取词语所对应的词义信息的基础上,又通过随机方式获取词语的词性信息,以及通过将其二者结合为词语信息为后续的分类处理提供数据基础,从而提高了语句的隐藏的信息表达的完整性,进而提高了后续的语句分类结果的准确性,故使得用户体验提高。
针对现有的目标语句对应的词语向量的获取效率低的问题,为提高获取的目标语句对应的词语向量的效率,在一种可选实施方式中,参见图3,在步骤003之后,所述方法还包括:
步骤004:根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系。
在本步骤中,用于对语句进行分类的电子设备根据各词语对应的所述词语向量,生成关键词向量库,以供用于对语句进行分类的电子设在获取到目标语句时,直接在关键词向量库中查到其对应的词语向量。可以理解的是,关键词向量库存储的各词语与其对应的词语向量间的一一映射关系可以表现为下映射关系表2:
表2
词语 | 词语向量 |
词语1 | 词义向量b1、词性向量b1 |
词语2 | 词义向量b2、词性向量b2 |
词语3 | 词义向量b3、词性向量b3 |
词语4 | 词义向量b4、词性向量b4 |
... | … |
例如,假设向量w=[w0 w1 … wn]表示一系列的词语;矩阵v=[v0 v1 … vn]表示向量w中每个词语对应的词义向量,这些词义向量均由word2vec训练生成,这里词义向量的维度一般为128,具体根据实际需要选取;矩阵p=[p0 p1 … pn]表示向量w中每个词语对应的词性向量,这些词性向量是随机生成的,可以理解的是,不同词语之间可能具有相同的词性,那么这两个词语的词性向量一致。关键词向量库具体如下表3所示:
表3
其中,以表3中的第一组数据为例进行说明,[v0 p0]表示将两个向量拼接起来对应词语w0组成的一个词语向量的数字表示,进而扩充了词语w0所对应的信息。
相对于步骤004的设置,步骤100具体包括:
步骤101:根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
在本步骤中,用于对语句进行分类的电子设备接收目标语句,并根据获取的目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应词语向量。
例如,用于对语句进行分类的电子设备获取的一个问题语句Q后,在关键词向量库中经过索引得到该问题语句Q中出现的n个词语<q0、q1、…qn>的对应的n个词语向量[x0 x1… xn],以及该n个词语向量[x0 x1 … xn]组成的词语矩阵[x0 x1 … xn]T。
可见,本实施方式提供的基于深度学习的语句分类方法,通过根据词语向量生成关键词向量库,为后续目标语句对应词语向量的获取提供了一种快速且可靠的方式,从而减少了用户等待时间,故使得用户体验提高。
在一种可选实施方式中,参见图4,所述步骤200具体包括:
步骤201:将与目标语句中各词语对应的各所述词语向量依次按序输入长短时记忆LSTM中,获取所述LSTM层中包含所述目标语句对应的初始语义信息及语序信息的的隐含状态。
在本步骤中,用于对语句进行分类的电子设备将与目标语句对应的各所述词语向量依次按序输入长短时记忆LSTM(Long Short Term Memory)中,使得所述LSTM层提取得到所述目标语句对应的初始语义信息及语序信息,并保存所述LSTM层提取过程中的各单元的包含所述初始语义信息及语序信息的隐含状态。可以理解的是,除了LSTM层,门控制循环GRU(Gated Recurrent Unit)层也可以实现该功能。
步骤202:根据所述LSTM层的隐含状态,生成所述目标语句的状态矩阵。
在本步骤中,用于对语句进行分类的电子设备根据所述LSTM层提取过程中的各单元的隐含状态,生成所述目标语句的状态矩阵。可以理解的是,用于对语句进行分类的电子设备每个时刻向LSTM细胞单元输入一个词向量以及上一时刻的隐含状态,由此计算出当前时刻的隐含状态,将每一个时刻的隐含状态保存。
例如,如图5所示,用于对语句进行分类的电子设备将与目标语句对应的各所述词语矩阵中的每一个词语向量按顺序输入LSTM层中,可以理解的是,此处的词语向量是分时依次输入的,即每一个时刻输入一个词向量,即t0时刻输入x0,t1时刻输入x1等。LSTM层抽将初步提取出目标语句的语义信息和语序信息,并保存LSTM每个单元的隐含状态向量,目标语句的语义信息和语序信息也包含在隐含状态向量中,再将LSTM层输出的隐含状态向量拼接成状态矩阵[h0 h1 … hn]T。
可见,本实施方式提供的基于深度学习的语句分类方法,通过根据词语向量生成关键词向量库,提高了LSTM模型获取初始语义信息及语序信息的效率,并解决了应用CNN模型无法提取词语的词序信息的缺陷,提高了对语句进行分类的准确性,故使得用户体验提高。
为提高卷积神经网络CNN模型获取抽象语义信息及特征量的效率,在一种可选实施方式中,参见图6,所述步骤300具体包括:
步骤301:将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息构成各卷积层的卷积结果。
在本步骤中,用于对语句进行分类的电子设备将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,使得卷积层对输入的句子矩阵进行抽象化特征提取处理,获取目标语句对应的抽象语义信息,
步骤302:将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
在本步骤中,用于对语句进行分类的电子设备将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。可以理解的是,用于对语句进行分类的电子设备将所述卷积结果通过池化层以选择出最具有代表性的特征作为所述目标语句的特征量。
可以理解的是,卷积神经网络CNN模型的卷积层虽然具有较好的语义特征提取能力,但是丢失了问题的词序信息,而在语句中词序包含了重要信息,这是因为相同词语的不同组合可能会得到完全不同意思的语句。LSTM层的反馈机制能够很好利用问题的词序信息,但LSTM层的细胞单元对语句的语义信息提取能力不如卷积神经网络CNN模型的卷积层。因此,本实施方式中所述的基于深度学习的语句分类方法,在获取LSTM层的包含所述初始语义信息及语序信息的隐含状态后,根据隐含状态获取准确的抽象语义信息,既发挥LSTM层善于获取语序信息的优点,又充分利卷积神经网络CNN模型的卷积层在特征提取和抽象过程中的能力,二者进行了优势互补,提高了语句分类的准确性,并提高卷积神经网络CNN模型获取抽象语义信息及特征量的效率,故使得用户体验提高。
针对现有的如图7所示的池化方法可能会丢失句子信息的情况,为提高卷积神经网络CNN模型中的池化层进行目标语句的特征量的准确性,在一种可选实施方式中,参见图8,所述步骤302具体包括:
步骤302a:分别将各卷积层的卷积结果进行合并,得到合并后的同类型卷积结果组。
在本步骤中,参见图9,用于对语句进行分类的电子设备分别将各卷积层的卷积结果进行同类合并,对合并后的同类型卷积结果组进行池化操作,而且池化的对象是相同特征的不同卷积结果。此种池化操作的优势在于在相同特征的多种卷积结果中,选择出最佳的、最合适的结果表示该特征,经过这一层的池化操作后,就能得到所有输入特征的最佳表示。可以理解的是,合并是将相同的特征向量的不同卷积结果合成一个矩阵,例如有一个特征向量v在经过第一个卷积核后得到一个Feature Map f1,经过第二个卷积核后得到一个Feature Mapf2,将这两个Feature Map合并得到一个矩阵f=[f1f2]。。
步骤302b:将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
在本步骤中,用于对语句进行分类的电子设备分将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。可以理解的是,池化操作的方式不唯一,第一种是mean-pooling,即对池化窗中的值求平均,以均值来代表被池化区域的信息。第二种是max-pooling,即求解池化窗中的最大值,该种方法则是取池化窗中最大的值来代表被池化区域的信息,此种做法的出发点是取该区域中最优的值表示整个区域。
可见,本实施方式提供的基于深度学习的语句分类方法,通过将各卷积层的卷积结果进行同类合并,在相同特征的多种卷积结果中,选择出最佳的、最合适的结果表示该特征,经过这一层的池化操作后,就能得到所有输入特征的最佳表示,提高了语句分类的准确性,故使得用户体验提高。
可以理解的是,本实施例上述多个可选实施方式记载的方案可以自由组合,本发明对此不作限定。
基于同样的发明构思,本发明第二个实施例提供了一种语句分类系统,参见图10,该系统包括:词语向量获取模块10、LSTM模型处理模块20、CNN模型处理模块30和语句分类模块40;其中:
词语向量获取模块10,用于获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量。
LSTM模型处理模块20,用于将所述目标语句中各词语对应的词语向量输入循环神经网络LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息。
CNN模型处理模块30,用于将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量。
语句分类模块40,用于根据所述目标语句的特征量对该目标语句进行分类。
在一种可选实施方式中,参见图11,所述系统还包括:
词义向量获取单元01,用于对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量。
词性向量生成单元02,用于生成预处理后的各语句中的各词语对应的词性向量。
词语向量获取单元03,用于组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
在一种可选实施方式中,参见图12,所述系统还包括:
关键词向量库生成单元04,用于根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系。
相应的,所述词语向量获取模块10用于根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
在一种可选实施方式中,参见图13,所述LSTM模型处理模块20包括:
LSTM细胞记忆单元21,用于将与目标语句中各词语对应的各所述词语向量依次按序输入LSTM的记忆细胞中,获取所述LSTM层中包含所述目标语句对应的初始语义信息及语序信息的隐含状态。
状态矩阵生成单元22,用于根据所述LSTM层的隐含状态,生成所述目标语句的状态矩阵。
在一种可选实施方式中,参见图14,所述CNN模型处理模块30包括:
卷积层处理单元31,用于将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息与对应的所述语序信息构成各卷积层的卷积结果。
池化层处理单元32,用于将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
在一种可选实施方式中,参见图15,所述池化层处理单元32包括:
同类合并子单元32a,用于分别将各卷积层的卷积结果进行同类合并,得到合并后的同类型卷积结果组。
特征量获取子单元32b,用于将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
本实施例提供的语句分类系统,可以用于执行上述实施例所述的语句分类方法,其实现原理和技术效果类似,此处不再详述。
本实施例提供的语句分类系统,既可以是安装在家电设备上的应用程序APP,也可以是独立于家电设备而单独形成的专门用于对家电设备进行控制的终端产品,如手持移动产品。
本实施例提供的语句分类系统,在提高了目标语句对应的语义信息的准确性的同时,也提供了其语序信息,提高了对目标语句识别的准确性,故使得用户体验提高。下面将通过第一至第五实施例对本发明进行详细解释说明。
基于同样的发明构思,本发明第三个实施例提供了一种电子设备,包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行上述实施例所述的语句分类方法,其实现原理和技术效果类似,此处不再详述。
基于同样的发明构思,本发明第四个实施例提供了一种冰箱,该冰箱上设有语音识别系统,且所述语音识别系统中包括一种电子设备;
所述电子设备包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行上述实施例所述的语句分类方法,其实现原理和技术效果类似,此处不再详述。
基于同样的发明构思,本发明第五个实施例提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述实施例所述的语句分类方法,其实现原理和技术效果类似,此处不再详述。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (13)
1.一种语句分类方法,其特征在于,所述方法包括:
获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量和词性向量,所述词语向量为在预存的各词语对应的关键词向量库中查找得到的与各词语对应的向量;
将所述目标语句中各词语对应的词语向量输入长短时记忆LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息;
将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量;
以及,根据所述目标语句的特征量对该目标语句进行分类;
所述将所述目标语句中各词语对应的词语向量输入LSTM模型中,得到目标语句的状态矩阵,包括:
将与目标语句中各词语对应的各所述词语向量依次按序输入到LSTM中,通过LSTM层后,获取包含所述目标语句对应的初始语义信息及语序信息的隐含状态;
以及,根据所述LSTM层的隐含状态,生成所述目标语句的状态矩阵。
2.根据权利要求1所述的方法,其特征在于,在所述获取目标语句中各词语对应的词语向量之前,所述方法还包括:
对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量;
此外充分利用各语句中的各词语对应的词性信息并构建词性向量;
以及,组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
3.根据权利要求2所述的方法,其特征在于,在所述组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量之后,所述方法还包括:
根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系;
相应的,所述获取目标语句中各词语对应的词语向量,包括:
根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
4.根据权利要求1所述的方法,其特征在于,所述将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量,包括:
将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息构成各卷积层的卷积结果;
以及,将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
5.根据权利要求4所述的方法,其特征在于,所述将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量,包括:
分别将各卷积层的卷积结果进行合并,得到合并后的卷积结果组;
以及,将所述卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
6.一种语句分类系统,其特征在于,所述系统包括:
词语向量获取模块,用于获取目标语句中各词语对应的词语向量,其中,所述词语向量中包括词义向量和词性向量,所述词语向量为在预存的各词语对应的关键词向量库中查找得到的与各词语对应的向量;
LSTM模型处理模块,用于将所述目标语句中各词语对应的词语向量输入长短时记忆LSTM模型中,得到目标语句的状态矩阵,其中,所述状态矩阵中包括与所述目标语句对应的初始语义信息及语序信息;
CNN模型处理模块,用于将所述状态矩阵输入卷积神经网络CNN模型中,获取所述目标语句对应的特征量;
语句分类模块,用于根据所述目标语句的特征量对该目标语句进行分类;
所述LSTM模型处理模块包括:
LSTM层处理单元,用于将与目标语句中各词语对应的各所述词语向量依次按序输入LSTM层中,获取包含所述目标语句对应的初始语义信息及语序信息的隐含状态;
状态矩阵生成单元,用于根据所述LSTM层的隐含状态,组合生成所述目标语句的状态矩阵。
7.根据权利要求6所述的系统,其特征在于,所述系统还包括:
词义向量获取单元,用于对获取的语句文本进行预处理,并获取预处理后的各语句中的各词语对应的词义向量;
词性向量生成单元,用于生成预处理后的各语句中的各词语对应的词性向量;
词语向量获取单元,用于组合各词语对应的所述词义向量和词性向量,得到各词语对应的词语向量。
8.根据权利要求7所述的系统,其特征在于,所述系统还包括:
关键词向量库生成单元,用于根据各词语对应的所述词语向量,生成关键词向量库,其中,所述关键词向量库中存储有各词语与其对应的词语向量间的一一映射关系;
相应的,所述词语向量获取模块用于根据所述目标语句在所述关键词向量库中查找得到该目标语句的全部词语对应的词语向量。
9.根据权利要求6所述的系统,其特征在于,所述CNN模型处理模块包括:
卷积层处理单元,用于将所述状态矩阵输入所述卷积神经网络CNN模型中的卷积层中,获取目标语句对应的抽象语义信息,且各所述抽象语义信息构成各卷积层的卷积结果;
池化层处理单元,用于将所述卷积结果输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
10.根据权利要求9所述的系统,其特征在于,所述池化层处理单元包括:
合并子单元,用于分别将各卷积层的卷积结果进行合并,得到合并后的同类型卷积结果组;
特征量获取子单元,用于将所述同类型卷积结果组输入所述卷积神经网络CNN模型中的池化层中,得到所述目标语句的特征量。
11.一种电子设备,其特征在于,包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行权利要求1-5任一项所述的语句分类方法。
12.一种冰箱,其特征在于,所述冰箱上设有语音识别系统,且所述语音识别系统中包括一种电子设备;
所述电子设备包括:处理器、存储器和总线;其中,
处理器和存储器通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行权利要求1-5任一项所述的语句分类方法。
13.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,其特征在于,所述计算机指令使所述计算机执行权利要求1-5任一项所述的语句分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710331106.3A CN107229684B (zh) | 2017-05-11 | 2017-05-11 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710331106.3A CN107229684B (zh) | 2017-05-11 | 2017-05-11 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107229684A CN107229684A (zh) | 2017-10-03 |
CN107229684B true CN107229684B (zh) | 2021-05-18 |
Family
ID=59933293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710331106.3A Active CN107229684B (zh) | 2017-05-11 | 2017-05-11 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107229684B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110019793A (zh) * | 2017-10-27 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 一种文本语义编码方法及装置 |
CN107832400B (zh) * | 2017-11-01 | 2019-04-16 | 山东大学 | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 |
CN107943860B (zh) * | 2017-11-08 | 2020-10-27 | 北京奇艺世纪科技有限公司 | 模型的训练方法、文本意图的识别方法及装置 |
CN107832300A (zh) * | 2017-11-17 | 2018-03-23 | 合肥工业大学 | 面向微创医疗领域文本摘要生成方法及装置 |
CN108170736B (zh) * | 2017-12-15 | 2020-05-05 | 南瑞集团有限公司 | 一种基于循环注意力机制的文档快速扫描定性方法 |
CN108334891B (zh) * | 2017-12-15 | 2021-01-05 | 北京奇艺世纪科技有限公司 | 一种任务型意图分类方法及装置 |
CN108038209A (zh) * | 2017-12-18 | 2018-05-15 | 深圳前海微众银行股份有限公司 | 答案选择方法、装置和计算机可读存储介质 |
CN108268442A (zh) * | 2017-12-19 | 2018-07-10 | 芋头科技(杭州)有限公司 | 一种语句意图预测方法及系统 |
CN108153730A (zh) * | 2017-12-25 | 2018-06-12 | 北京奇艺世纪科技有限公司 | 一种多义词词向量训练方法及装置 |
CN108205592A (zh) * | 2017-12-30 | 2018-06-26 | 中国移动通信集团江苏有限公司 | 用户上网信令内容解析方法、装置、设备及存储介质 |
CN108154191B (zh) * | 2018-01-12 | 2021-08-10 | 北京经舆典网络科技有限公司 | 文档图像的识别方法和系统 |
CN108491208A (zh) * | 2018-01-31 | 2018-09-04 | 中山大学 | 一种基于神经网络模型的代码注释分类方法 |
CN108415893B (zh) * | 2018-03-15 | 2019-09-20 | 平安科技(深圳)有限公司 | 诗歌自动生成方法、装置、计算机设备及存储介质 |
CN108536678B (zh) * | 2018-04-12 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 文本关键信息提取方法、装置、计算机设备和存储介质 |
CN108595620B (zh) * | 2018-04-23 | 2022-04-26 | 百度在线网络技术(北京)有限公司 | 转义识别方法、装置、计算机设备及存储介质 |
CN108647785A (zh) * | 2018-05-17 | 2018-10-12 | 普强信息技术(北京)有限公司 | 一种神经网络自动建模方法、装置及存储介质 |
CN108804591A (zh) * | 2018-05-28 | 2018-11-13 | 杭州依图医疗技术有限公司 | 一种病历文本的文本分类方法及装置 |
CN109002519A (zh) * | 2018-07-09 | 2018-12-14 | 北京慧闻科技发展有限公司 | 基于卷积循环神经网络的答案选择方法、装置和电子设备 |
CN108846138B (zh) * | 2018-07-10 | 2022-06-07 | 苏州大学 | 一种融合答案信息的问题分类模型构建方法、装置和介质 |
CN110837227A (zh) * | 2018-08-15 | 2020-02-25 | 格力电器(武汉)有限公司 | 电器控制方法及装置 |
CN109147801B (zh) * | 2018-09-30 | 2021-08-10 | 深圳市元征科技股份有限公司 | 语音交互方法、系统、终端及存储介质 |
CN110991161B (zh) * | 2018-09-30 | 2023-04-18 | 北京国双科技有限公司 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
CN109543030B (zh) * | 2018-10-12 | 2023-04-07 | 平安科技(深圳)有限公司 | 客服机器人会话文本分类方法及装置、设备、存储介质 |
CN109815321B (zh) * | 2018-12-26 | 2020-12-11 | 出门问问信息科技有限公司 | 问答方法、装置、设备及存储介质 |
CN111435596B (zh) * | 2019-01-14 | 2024-01-30 | 珠海格力电器股份有限公司 | 调整目标设备运行状态方法、装置、存储介质及电子装置 |
CN110147533B (zh) * | 2019-01-24 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
CN110738984B (zh) * | 2019-05-13 | 2020-12-11 | 苏州闪驰数控系统集成有限公司 | 人工智能cnn、lstm神经网络语音识别系统 |
CN110334110A (zh) * | 2019-05-28 | 2019-10-15 | 平安科技(深圳)有限公司 | 自然语言分类方法、装置、计算机设备以及存储介质 |
CN110223675B (zh) * | 2019-06-13 | 2022-04-19 | 思必驰科技股份有限公司 | 用于语音识别的训练文本数据的筛选方法及系统 |
CN110309282B (zh) * | 2019-06-14 | 2021-08-27 | 北京奇艺世纪科技有限公司 | 一种答案确定方法及装置 |
CN112307199A (zh) * | 2019-07-14 | 2021-02-02 | 阿里巴巴集团控股有限公司 | 信息识别、数据处理方法、装置及设备、信息交互方法 |
CN110717022A (zh) * | 2019-09-18 | 2020-01-21 | 平安科技(深圳)有限公司 | 一种机器人对话生成方法、装置、可读存储介质及机器人 |
CN113658596A (zh) | 2020-04-29 | 2021-11-16 | 扬智科技股份有限公司 | 语意辨识方法与语意辨识装置 |
CN111985207B (zh) * | 2020-08-17 | 2023-06-06 | 中国人民解放军战略支援部队信息工程大学 | 一种访问控制策略的获取方法、装置及电子设备 |
CN113626605B (zh) * | 2021-08-31 | 2023-11-28 | 中国平安财产保险股份有限公司 | 信息分类方法、装置、电子设备及可读存储介质 |
CN114579740B (zh) * | 2022-01-20 | 2023-12-05 | 马上消费金融股份有限公司 | 文本分类方法、装置、电子设备及存储介质 |
CN114385890B (zh) * | 2022-03-22 | 2022-05-20 | 深圳市世纪联想广告有限公司 | 互联网舆情监控系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
CN106126502A (zh) * | 2016-07-07 | 2016-11-16 | 四川长虹电器股份有限公司 | 一种基于支持向量机的情感分类系统及方法 |
CN106599933A (zh) * | 2016-12-26 | 2017-04-26 | 哈尔滨工业大学 | 一种基于联合深度学习模型的文本情感分类方法 |
CN106649275A (zh) * | 2016-12-28 | 2017-05-10 | 成都数联铭品科技有限公司 | 基于词性信息和卷积神经网络的关系抽取方法 |
-
2017
- 2017-05-11 CN CN201710331106.3A patent/CN107229684B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
CN106126502A (zh) * | 2016-07-07 | 2016-11-16 | 四川长虹电器股份有限公司 | 一种基于支持向量机的情感分类系统及方法 |
CN106599933A (zh) * | 2016-12-26 | 2017-04-26 | 哈尔滨工业大学 | 一种基于联合深度学习模型的文本情感分类方法 |
CN106649275A (zh) * | 2016-12-28 | 2017-05-10 | 成都数联铭品科技有限公司 | 基于词性信息和卷积神经网络的关系抽取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107229684A (zh) | 2017-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107229684B (zh) | 语句分类方法、系统、电子设备、冰箱及存储介质 | |
CN111104495B (zh) | 基于意图识别的信息交互方法、装置、设备和存储介质 | |
CN112100349B (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN109658928B (zh) | 一种家庭服务机器人云端多模态对话方法、装置及系统 | |
CN108628974B (zh) | 舆情信息分类方法、装置、计算机设备和存储介质 | |
CN107291783B (zh) | 一种语义匹配方法及智能设备 | |
CN111368538B (zh) | 语音交互方法、系统、终端及计算机可读存储介质 | |
CN110853626B (zh) | 基于双向注意力神经网络的对话理解方法、装置及设备 | |
CN104199810A (zh) | 一种基于自然语言交互的智能服务方法及系统 | |
CN110502610A (zh) | 基于文本语义相似度的智能语音签名方法、装置及介质 | |
CN108733703A (zh) | 问答系统的答案预测方法及装置、电子设备、存储介质 | |
CN106649410B (zh) | 一种获取聊天回复内容的方法及装置 | |
CN111339277A (zh) | 基于机器学习的问答交互方法及装置 | |
CN110874401A (zh) | 信息处理方法、模型训练方法、装置、终端及计算设备 | |
WO2021135457A1 (zh) | 基于循环神经网络的情绪识别方法、装置及存储介质 | |
CN114120978A (zh) | 情绪识别模型训练、语音交互方法、装置、设备及介质 | |
CN117573821A (zh) | 知识问答方法、装置、设备和存储介质 | |
CN111400340A (zh) | 一种自然语言处理方法、装置、计算机设备和存储介质 | |
CN112579031A (zh) | 一种语音交互的方法、系统和电子设备 | |
CN117112595A (zh) | 一种信息查询方法、装置、电子设备及存储介质 | |
CN116226338A (zh) | 基于检索和生成融合的多轮对话系统及方法 | |
CN109165286A (zh) | 自动问答方法、装置及计算机可读存储介质 | |
CN118332086A (zh) | 一种基于大语言模型的问答对生成方法和系统 | |
CN115481229A (zh) | 一种应答话术推送方法、装置、电子设备及存储介质 | |
CN111625636A (zh) | 一种人机对话的拒绝识别方法、装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 230601 Building No. 198, building No. 198, Mingzhu Avenue, Anhui high tech Zone, Anhui Applicant after: Hefei Hualing Co.,Ltd. Address before: 230601 No. 176 Jinxiu Avenue, Hefei economic and Technological Development Zone, Anhui, China Applicant before: Hefei Hualing Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |