CN109815322B - 应答的方法、装置、存储介质及电子设备 - Google Patents
应答的方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN109815322B CN109815322B CN201811613083.6A CN201811613083A CN109815322B CN 109815322 B CN109815322 B CN 109815322B CN 201811613083 A CN201811613083 A CN 201811613083A CN 109815322 B CN109815322 B CN 109815322B
- Authority
- CN
- China
- Prior art keywords
- target
- text
- input text
- sample
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及一种应答的方法、装置、存储介质及电子设备,获取待应答的目标输入文本,并对该目标输入文本进行分词得到多个第一目标词语;获取预先建立的语义识别数据库,以及预先训练的语境识别模型;根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本的第一待确定应答文本;根据多个该第一目标词语和该第一待确定应答文本通过该语境识别模型,得到该目标输入文本的第二待确定应答文本;根据多个第一目标词语计算第一待确定应答文本与目标输入文本的第一关联参数,以及第二待确定应答文本与该目标输入文本的第二关联参数;根据该第一关联参数和该第二关联参数,从该第一待确定应答文本和该第二待确定应答文本中确定目标应答文本。
Description
技术领域
本公开涉及对话式人工智能领域,具体地,涉及一种应答的方法、装置、存储介质及电子设备。
背景技术
近年来,对话式人工智能技术得到快速发展,对话式人工智能是指机器人能够像人一样,可以与人进行流畅的对话,例如,聊天式机器人能够与人进行开放领域的闲聊,在技术实现上需要借助人工智能算法,并在海量数据的基础上建立聊天应答模型,这样,当用户输入一句话后,聊天应答模型会通过一系列复杂的计算输出相应的答案。
目前在聊天应答方法中,主要以两种方式为主,一种是检索式应答方法,另一种是生成式应答方法,其中,检索式应答是以建立索引,并以索引为基础进行最终的结果输出,但基于检索式应答方法完全依赖于语料库本身,输出的答案缺乏多样性;生成式应答一般是以循环神经网络为基础,通过深度学习训练,以模型为基础进行最终的结果输出,但基于生成式应答方法输出的答案较容易出现上下文不关联的问题,继而会输出诸如“我不知道”,“好的”等无意义的答案,从而会降低应答的准确率,并且用户体验较差。
发明内容
本公开提供一种应答的方法、装置、存储介质及电子设备。
第一方面,提供一种应答的方法,包括:获取待应答的目标输入文本,并对所述目标输入文本进行分词得到多个第一目标词语;获取预先建立的语义识别数据库,以及预先训练的语境识别模型;根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本;根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本;根据多个所述第一目标词语计算所述第一待确定应答文本与所述目标输入文本的第一关联参数,以及所述第二待确定应答文本与所述目标输入文本的第二关联参数;根据所述第一关联参数和所述第二关联参数,从所述第一待确定应答文本和所述第二待确定应答文本中确定目标应答文本。
可选地,所述语义识别数据库包括:至少一个样本输入文本,每个所述样本输入文本分词后得到的样本词语以及每个所述样本输入文本对应的样本应答文本,所述根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本包括:根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度;从所述样本输入文本中确定所述相似度最大的输入文本为相似输入文本;将所述相似输入文本对应的样本应答文本作为所述第一待确定应答文本。
可选地,所述语义识别数据库还包括:每个所述样本词语对应的识别权重,所述根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度包括:从所述语义识别数据库中确定每个所述样本输入文本的多个所述第一目标词语分别对应的权重;将每个所述样本输入文本中所述第一目标词语对应的权重相加得到所述相似度。
可选地,在获取预先建立的语义识别数据库前,所述方法还包括:获取至少一个样本输入文本,以及每个所述样本输入文本对应的样本应答文本;对所述样本输入文本进行分词得到所述样本词语,并计算每个所述样本词语在全部所述样本输入文本中的出现频率;根据所述出现频率确定每个所述样本词语对应的识别权重;根据所述样本输入文本、以及每个所述样本输入文本对应的所述样本应答文本、所述样本词语以及所述识别权重,得到所述语义识别数据库。
可选地,所述语境识别模型包括编码-解码模型,所述编码-解码模型包括编码子模型和解码子模型;所述根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本包括:对所述第一待确定应答文本进行分词得到第二目标词语;将所述第一目标词语进行向量转换得到第一词向量,并将所述第一词向量输入所述编码子模型得到所述目标输入文本对应的第一编码向量;将所述第二目标词语进行向量转换得到第二词向量,并将所述第二词向量输入所述编码子模型得到所述第一待确定应答文本对应的第二编码向量;根据所述第一编码向量和所述第二编码向量得到目标编码向量;将所述目标编码向量输入所述解码子模型得到应答向量,并根据所述应答向量得到所述第二待确定应答文本。
第二方面,提供一种应答的装置,包括:第一获取模块,用于获取待应答的目标输入文本,并对所述目标输入文本进行分词得到多个第一目标词语;第二获取模块,用于获取预先建立的语义识别数据库,以及预先训练的语境识别模型;第一确定模块,用于根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本;第二确定模块,用于根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本;第三确定模块,用于根据多个所述第一目标词语计算所述第一待确定应答文本与所述目标输入文本的第一关联参数,以及所述第二待确定应答文本与所述目标输入文本的第二关联参数;第四确定模块,用于根据所述第一关联参数和所述第二关联参数,从所述第一待确定应答文本和所述第二待确定应答文本中确定目标应答文本。
可选地,所述语义识别数据库包括:至少一个样本输入文本,每个所述样本输入文本分词后得到的样本词语以及每个所述样本输入文本对应的样本应答文本,所述第一确定模块,用于根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度;从所述样本输入文本中确定所述相似度最大的输入文本为相似输入文本;将所述相似输入文本对应的样本应答文本作为所述第一待确定应答文本。
可选地,所述语义识别数据库还包括:每个所述样本词语对应的识别权重,所述第一确定模块,用于从所述语义识别数据库中确定每个所述样本输入文本的多个所述第一目标词语分别对应的权重;将每个所述样本输入文本中所述第一目标词语对应的权重相加得到所述相似度。
可选地,所述装置还包括:第三获取模块,用于获取至少一个样本输入文本,以及每个所述样本输入文本对应的样本应答文本;第五确定模块,用于对所述样本输入文本进行分词得到所述样本词语,并计算每个所述样本词语在全部所述样本输入文本中的出现频率;第六确定模块,用于根据所述出现频率确定每个所述样本词语对应的识别权重;第七确定模块,用于根据所述样本输入文本、以及每个所述样本输入文本对应的所述样本应答文本、所述样本词语以及所述识别权重,得到所述语义识别数据库。
可选地,所述语境识别模型包括编码-解码模型,所述编码-解码模型包括编码子模型和解码子模型;所述第二确定模块,用于对所述第一待确定应答文本进行分词得到第二目标词语;将所述第一目标词语进行向量转换得到第一词向量,并将所述第一词向量输入所述编码子模型得到所述目标输入文本对应的第一编码向量;将所述第二目标词语进行向量转换得到第二词向量,并将所述第二词向量输入所述编码子模型得到所述第一待确定应答文本对应的第二编码向量;根据所述第一编码向量和所述第二编码向量得到目标编码向量;将所述目标编码向量输入所述解码子模型得到应答向量,并根据所述应答向量得到所述第二待确定应答文本。
第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开第一方面所述方法的步骤。
第四方面,提供一种电子设备,包括:存储器,其上存储有计算机程序;处理器,用于执行所述存储器中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,获取待应答的目标输入文本,并对所述目标输入文本进行分词得到多个第一目标词语;获取预先建立的语义识别数据库,以及预先训练的语境识别模型;根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本;根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本;根据多个所述第一目标词语计算所述第一待确定应答文本与所述目标输入文本的第一关联参数,以及所述第二待确定应答文本与所述目标输入文本的第二关联参数;根据所述第一关联参数和所述第二关联参数,从所述第一待确定应答文本和所述第二待确定应答文本中确定目标应答文本,也就是说,本公开可以通过预先建立的语义识别数据库以及预先训练的语境识别模型分别对获取到的待应答的目标输入文本进行识别,这样能够综合考虑目标输入文本的语义以及语境,从而提高对该目标输入文本识别的准确率,进而可以提高对该目标输入文本应答的准确率,并且可以克服相关技术中仅依赖于数据库本身,使得输出的答案缺乏多样性的问题。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据一示例性实施例示出的第一种应答方法的流程图;
图2是根据一示例性实施例示出的第二种应答方法的流程图;
图3是根据一示例性实施例示出的第一种应答装置的框图;
图4是根据一示例性实施例示出的第二种应答装置的框图;
图5是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
本公开提供一种应答的方法、装置、存储介质及电子设备,可以通过预先建立的语义识别数据库以及预先训练的语境识别模型分别对获取到的待应答的目标输入文本进行识别,这样能够综合考虑目标输入文本的语义以及语境,从而提高对该目标输入文本识别的准确率,进而可以提高对该目标输入文本应答的准确率,并且可以通过预先训练得到的语境识别模型确定该目标输入文本的第二待确定应答文本,从而克服了相关技术中仅依赖于数据库本身,使得输出的答案缺乏多样性的问题。
下面结合附图,对本公开的具体实施方式进行详细说明。
本公开以下实施例主要应用于机器人与人进行对话的场景下,例如,用户可以通过语音输入的方式或者文字输入的方式将待应答的目标输入文本输入至机器人,机器人在获取到该目标输入文本后,可以利用本公开提供的应答方法确定与该目标输入文本对应的目标应答文本,从而对用户输入的该目标输入文本做出应答。
图1是根据一示例性实施例示出的一种应答方法的流程图,如图1所示,该方法包括以下步骤:
S101,获取待应答的目标输入文本,并对该目标输入文本进行分词得到多个第一目标词语。
其中,该目标输入文本可以包括用户输入的待应答问题,例如“手机拍照效果不错吧”、“有给儿童推荐的儿童餐吗”等需要机器人做出应答的问题,该第一目标词语是指对该目标输入文本进行分词处理后得到的词语,例如,在该目标输入文本为“有给儿童推荐的儿童餐吗”时,对该目标输入文本进行分词后,可以得到对应该目标输入文本的该第一目标词语包括:“有”、“给”、“儿童”、“推荐”、“的”、“儿童餐”以及“吗”,此处只是举例说明,不同的分词方法得到的分析结果可能不相同,本公开对此不作限定,另外,在本步骤中,可以利用现有的分词方法对该目标输入文本进行分词得到多个该第一目标词语,在此不作赘述。
需要说明的是,在实际的应用场景中,用户在输入待应答的该目标输入文本时,可以通过语音方式输入,也可以通过文字方式输入,当然也可以通过其它方式输入该目标输入文本,本公开对此不作限定。
S102,获取预先建立的语义识别数据库,以及预先训练的语境识别模型。
其中,该语义识别数据库可以包括至少一个样本输入文本、对每个该样本输入文本分词后得到的样本词语、每个该样本输入文本对应的样本应答文本以及每个该样本词语对应的识别权重,例如,表1所示为预先建立的该语义数据库中的部分样本信息,如表1所示,“你吃饭了吗”、“有给儿童推荐的儿童餐吗”、“手机拍照效果不错吧”为该语义识别数据库中的三个该样本输入文本,与样本输入文本“你吃饭了吗”对应的该样本应答文本为“谢谢您的关心”,与样本输入文本“有给儿童推荐的儿童餐吗”对应的该样本应答文本为“您是想了解儿童辅食吗”,与样本输入文本“手机拍照效果不错吧”对应的该样本应答文本为“心动不如行动”,对该样本输入文本“你吃饭了吗”分词后得到的该样本词语为“你”、“吃饭”、“了”以及“吗”,并且,“你”对应的识别权重为0.10,“吃饭”对应的识别权重为0.40,“了”对应的识别权重为0.05,“吗”对应的识别权重为0.08,此处只是举例说明,本公开对此不做限定。
表1
在一种可能的实现方式中,可以通过以下方式预先建立该语义识别数据库:首先可以获取至少一个样本输入文本,以及每个该样本输入文本对应的样本应答文本,例如,可以预先从开源数据库中获取该样本输入文本以及对应的该样本应答文本,然后利用现有的分词方法对该样本输入文本进行分词得到该样本词语,并计算每个该样本词语在全部该样本输入文本中的出现频率,根据该出现频率确定每个该样本词语对应的识别权重,这样,可以根据该样本输入文本、每个该样本输入文本对应的该样本应答文本、该样本词语以及该识别权重,得到该语义识别数据库。
在计算每个该样本词语对应的识别权重时,可以通过以下公式计算得到:
其中,wdfi可以表示第i个样本词语的出现频率,widfi可以表示第i个样本词语的识别权重,n可以表示该语义识别数据库中全部样本词语的个数。
需要说明的是,该识别权重可以用于表示对应样本词语对于识别目标输入文本语义时的权重参数,该识别权重越大,该样本词语对于识别该目标输入文本语义时的参考价值更大,又因为考虑到实际的语义识别场景中,当该样本词语在全部样本输入文本中的出现频率较高时,通常该样本词语对于识别目标输入文本语义的参考价值较低,相反的,当该样本词语在全部样本输入文本中的出现频率较低时,该样本词语对于识别目标输入文本的语义的参考价值较高,例如,在识别目标输入文本“你吃饭了吗”的语义时,该目标输入文本对应的样本词语“了”、“吗”均为在全部样本输入文本中出现频率较高的词语,样本词语“你”、“吃饭”相比较于样本词语“了”、“吗”来说,在全部样本输入文本中的出现频率较低,而样本词语“你”、“吃饭”相比较于样本词语“了”、“吗”来说,对于识别“你吃饭了吗”的语义的参考价值更大,因此,该识别权重与该出现频率成反比的关系,在一种可能的实现方式中,可以根据该出现频率以及上述公式计算该样本词语的逆向问题频率(此时,公式中的widfi即为该逆向问题频率),然后可以将该逆向问题频率作为该识别权重。
该语境识别模型可以包括编码-解码模型,并且该编码-解码模型可以包括编码子模型和解码子模型,其中,该编码子模型的输出可以作为该解码子模型的输入,在一种可能的实现方式中,可以利用RNN(Recurrent Neural Network,循环神经网络)以及LSTM模型的变体模型GRU(Gated Recurrent Unit,门控循环单元)模型预先建立该编码-解码模型。
在预先训练得到该语境识别模型时,可以获取至少一个样本输入文本,以及每个该样本输入文本对应的样本应答文本(该样本应答文本即为模型训练时的期望输出)作为该语境识别模型的训练数据,然后利用该训练数据训练得到该语境识别模型,具体地,可以对该训练数据中所有的样本输入文本以及对应的样本应答文本进行分词处理,得到多个样本词语,然后利用该样本词语训练得到该语境识别模型。
在利用该样本词语训练得到该语境识别模型之前,还需要先对该样本词语进行量化处理,由于词向量可以度量词语之间的相似性,因此,在一种可能的实现方式中,可以将样本词语转换为词向量,具体地,可以获取预先训练得到的词嵌入模型(如word2vec),然后将每个该样本词语作为该词嵌入模型的输入,将该词嵌入模型的输出作为输入的样本词语的词向量,这样,可以利用该词嵌入模型将每个该样本词语转换为词向量,例如,将第i个样本词语wi输入该词嵌入模型后,可以得到第i个样本词语wi对应的词向量为Xi=(xi1,xi2,xi3,xi4)T。
示例地,以该语境识别模型为该编码-解码模型为例对预先训练得到该语境识别模型的具体实现方式进行说明,在具体训练过程中,可以将每个样本输入文本对应的样本词语的词向量输入该编码-解码模型中编码子模型,这样,该编码-解码模型中解码子模型可以输出与输入的样本输入文本对应的模型应答文本的词向量,又因为该语境识别模型的训练过程为有监督的训练,每个样本应答文本对应的样本词语的词向量即为模型训练时的期望输出,因此,可以利用该期望输出以及解码子模型输出的模型应答文本的词向量计算该模型的训练误差,并利用反向传递方法对该编码--解码模型的模型参数进行调节,从而确定该语境识别模型的模型参数,进而得到该语境识别模型,其中,该模型参数可以包括连接权值、偏移量等参数,上述示例只是举例说明,本公开对此不作限定,该语境识别模型也可以采用其他现有的训练方法预先得到,本公开对此不作限定。
还需说明的是,该语义识别数据库可以用于根据该目标输入文本对应的多个该第一目标词语识别该目标输入文本的语义特征,该语境识别模型可以用于识别该目标输入文本的语境特征,该语境特征可以包括该目标输入文本中各词出现的顺序、该目标输入文本与对应的应答文本出现的方式等特征。
S103,根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本的第一待确定应答文本。
在本步骤中,可以根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本与每个该样本输入文本的相似度,然后从该样本输入文本中确定该相似度最大的输入文本为相似输入文本,并将该相似输入文本对应的样本应答文本作为该第一待确定应答文本,其中,该相似度可以表示该目标输入文本与每个样本输入文本的相似程度,该相似输入文本可以包括与该目标输入文本相似程度最高的样本输入文本,该第一待确定应答文本可以包括通过该语义识别数据库确定的与该目标输入文本对应的应答文本。
另外,可以通过以下方式根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本与每个该样本输入文本的相似度:首先可以从该语义识别数据库中确定每个该样本输入文本的多个该第一目标词语分别对应的识别权重,然后将每个该样本输入文本中该第一目标词语对应的识别权重相加得到该相似度。
示例地,以该语义识别数据库中的全部该样本输入文本为表1所示的“你吃饭了吗”和“有给儿童推荐的儿童餐吗”,并且该目标输入文本为“推荐儿童餐”为例对确定该目标输入文本的第一待确定应答文本的具体实施方式进行说明,首先对该目标输入文本“推荐儿童餐”进行分词后得到该第一目标词语为“推荐”和“儿童餐”,其中,在该样本输入文本“你吃饭了吗”中,不包含该第一目标词语“推荐”和“儿童餐”,因此,可以确定在该样本输入文本“你吃饭了吗”中,该第一目标词语“推荐”和“儿童餐”对应的识别权重均为0,进而可以确定该目标输入文本“推荐儿童餐”与样本输入文本“你吃饭了吗”的相似度为0;在该样本输入文本“有给儿童推荐的儿童餐吗”中,包含该第一目标词语“推荐”和“儿童餐”,并且从表1中可以获取到在该样本输入文本“有给儿童推荐的儿童餐吗”中,该第一目标词语“推荐”的识别权重为0.45,该第一目标词语“儿童餐”的识别权重为0.53,此时,可以将该样本输入文本“有给儿童推荐的儿童餐吗”中的该第一目标词语对应的识别权重相加得到相似度,即为0.45+0.53=0.98,也就是说,该目标输入文本“推荐儿童餐”与样本输入文本“有给儿童推荐的儿童餐吗”的相似度为0.98,进而可以确定,样本输入文本“有给儿童推荐的儿童餐吗”即为该相似输入文本,也就是说,该相似输入文本“有给儿童推荐的儿童餐吗”对应的样本应答文本“您是想了解儿童辅食吗”即为该第一待确定应答文本,上述示例只是举例说明,本公开对此不作限定。
S104,根据多个该第一目标词语和该第一待确定应答文本通过该语境识别模型,得到该目标输入文本的第二待确定应答文本。
在本步骤中,可以对该第一待确定应答文本进行分词得到第二目标词语;将该第一目标词语进行向量转换得到第一词向量,并将该第一词向量输入该编码子模型得到该目标输入文本对应的第一编码向量;将该第二目标词语进行向量转换得到第二词向量,并将该第二词向量输入该编码子模型得到该第一待确定应答文本对应的第二编码向量;根据该第一编码向量和该第二编码向量得到目标编码向量;将该目标编码向量输入该解码子模型得到应答向量,并根据该应答向量得到该第二待确定应答文本。
其中,该应答向量可以包括该第二待确定应答文本中每个词语对应的词向量,该第二待确定应答文本可以包括根据该语境识别模型确定的与该目标输入文本对应的应答文本。
在一种可能的实现方式中,在根据该第一编码向量和该第二编码向量得到目标编码向量时,可以将该第一编码向量和该第二编码向量进行求和取平均,得到该目标编码向量;在将该目标编码向量输入该解码子模型时,该解码子模型的模型输出即为该应答向量,然后再将该应答向量按输出的先后顺序转换为对应的词语,并根据该词语以及该词语的转换顺序得到该第二待确定应答文本,需要说明的是,该目标编码向量为通过该语境识别模型综合考虑目标输入文本的语义特征及语境特征后确定的该目标编码向量,这样,可以提高对该目标输入文本识别的准确率。
另外,在本步骤中,可以根据现有的分词方法得到该第二目标词语,在将该第一目标词语进行向量转换得到第一词向量时,可以将每个第一目标词语作为词嵌入模型(如word2vec)的输入,将该词嵌入模型的输出作为该第一词向量,同样的,在将该第二目标词语进行向量转换得到第二词向量时,可以将每个第二目标词语作为词嵌入模型(如word2vec)的输入,将该词嵌入模型的输出作为该第二词向量。
S105,根据多个该第一目标词语计算该第一待确定应答文本与该目标输入文本的第一关联参数,以及该第二待确定应答文本与该目标输入文本的第二关联参数。
其中,该第一关联参数可以用于表示该第一待确定应答文本与该目标输入文本的关联程度,该第二关联参数可以用于表示该第二待确定应答文本与该目标输入文本的关联程度。
在一种可能的实现方式中,在计算该第一关联参数时,首先可以计算该目标输入文本与该第一待确定应答文本的重叠比,具体地,可以通过计算目标词语的个数与词语总数的比值得到该重叠比,其中,该目标词语是指该目标输入文本对应的第一目标词语与该第一待确定应答文本对应的样本词语重叠的词语,该词语总数是指该目标输入文本对应的第一目标词语的个数与该第一待确定应答文本对应的样本词语个数之和;然后计算该目标输入文本与该第一待确定应答文本的主题相似性,具体地,可以获取预先训练得到的主题嵌入模型,并通过该主题嵌入模型将该目标输入文本转换为对应的输入文本主题向量,将该待确定应答文本转换为对应的应答文本主题向量,并通过计算该输入文本主题向量与该应答文本主题向量的相似程度(例如,可以通过计算两个向量的距离计算该相似程度)得到该目标输入文本与该第一待确定应答文本的主题相似性;最后计算该目标输入文本与该第一待确定应答文本的词嵌入相似性,这里可以参考本示例S103中的描述的确定该目标输入文本与每个该样本输入文本的相似度的具体实现方式,在此不再赘述,这样,在得到该目标输入文本与该第一待确定应答文本的重叠比、该目标输入文本与该第一待确定应答文本的主题相似性以及该目标输入文本与该第一待确定应答文本的词嵌入相似性后,可以通过以下公式计算该第一关联参数:
score=h1*OR(query,candidate)+h2*TC(query,candidate)+h3*EC(query,candidate)
其中,score表示该第一关联参数,query表示该目标输入文本,candidate表示该第一待确定应答文本,OR(query,candidate)表示该目标输入文本与该第一待确定应答文本的重叠比,TC(query,candidate)表示该目标输入文本与该第一待确定应答文本的主题相似性,EC(query,candidate)表示该目标输入文本与该第一待确定应答文本的词嵌入相似性,h1表示与OR(query,candidate)对应的权重系数,h2表示与TC(query,candidate)对应的权重系数,h3表示与EC(query,candidate)对应的权重系数,并且上述三个权重系数可以根据经验值预先设置。
另外,在得到该第一关联参数后,可以按照与计算该第一关联参数同样的实现方式计算得到该第二关联参数,在此不再赘述。
S106根据该第一关联参数和该第二关联参数,从该第一待确定应答文本和该第二待确定应答文本中确定目标应答文本。
由于关联参数可以用于表示待确定应答文本与该目标输入文本的关联程度,也就是说,该关联参数越大,表示待确定应答文本与该目标输入文本的关联程度越高,因此,在一种可能的实现方式中,可以将该关联参数最大的待确定应答文本确定为该目标应答文本,具体地,首先比较该第一关联参数和该第二关联参数的大小,在确定该第一关联参数大于该第二关联参数时,可以将与该第一关联参数对应的该第一待确定应答文本确定为该目标应答文本,在根据该比较结果确定该第一关联参数小于该第二关联参数时,可以将与该第二关联参数对应的该第二待确定应答文本确定为该目标应答文本,在确定该第一关联参数等于该第二关联参数时,可以将该第一待确定应答文本和该第二待确定应答文本中任意一个应答文本确定为该目标应答文本。
采用上述方法,可以通过预先建立的语义识别数据库以及预先训练的语境识别模型分别对获取到的待应答的目标输入文本进行识别,这样能够综合考虑目标输入文本的语义以及语境,从而提高对该目标输入文本识别的准确率,进而可以提高对该目标输入文本应答的准确率,并且可以通过预先训练得到的语境识别模型确定该目标输入文本的第二待确定应答文本,从而克服了相关技术中仅依赖于数据库本身,使得输出的答案缺乏多样性的问题。
图2是根据一示例性实施例示出的一种应答方法的流程图,如图2所示,该方法包括以下步骤:
S201,获取待应答的目标输入文本,并对该目标输入文本进行分词得到多个第一目标词语。
其中,该目标输入文本可以包括用户输入的待应答问题,例如“手机拍照效果不错吧”、“有给儿童推荐的儿童餐吗”等需要机器人做出应答的问题,该第一目标词语是指对该目标输入文本进行分词处理后得到的词语,例如,在该目标输入文本为“有给儿童推荐的儿童餐吗”时,对该目标输入文本进行分词后,可以得到对应该目标输入文本的该第一目标词语包括:“有”、“给”、“儿童”、“推荐”、“的”、“儿童餐”以及“吗”,此处只是举例说明,不同的分词方法得到的分析结果可能不相同,本公开对此不作限定,另外,在本步骤中,可以利用现有的分词方法对该目标输入文本进行分词得到多个该第一目标词语,在此不作赘述。
需要说明的是,在实际的应用场景中,用户在输入待应答的该目标输入文本时,可以通过语音方式输入,也可以通过文字方式输入,当然也可以通过其它方式输入该目标输入文本,本公开对此不作限定。
S202,获取预先建立的语义识别数据库,以及预先训练的语境识别模型。
其中,该语义识别数据库可以包括至少一个样本输入文本、对每个该样本输入文本分词后得到的样本词语、每个该样本输入文本对应的样本应答文本以及每个该样本词语对应的识别权重,该语境识别模型可以包括编码-解码模型,并且该编码-解码模型可以包括编码子模型和解码子模型,其中,该编码子模型的输出可以作为该解码子模型的输入,在一种可能的实现方式中,可以利用RNN以及LSTM模型的变体模型GRU模型预先建立该编码-解码模型。
本步骤中预先建立该语义识别数据库,以及预先训练得到该语境识别模型的具体实现方式可以参考实施例1中S102中的相关描述,在此不再赘述。
另外,在一种可能的实现方式中,可以通过执行S203至S205通过该语义识别数据库确定该目标输入文本的第一待确定应答文本。
S203,从该语义识别数据库中确定每个样本输入文本的多个该第一目标词语分别对应的识别权重。
S204,将每个该样本输入文本中该第一目标词语对应的识别权重相加得到相似度。
其中,该相似度可以表示该目标输入文本与每个样本输入文本的相似程度。
S205,从该样本输入文本中确定该相似度最大的输入文本为相似输入文本,并将该相似输入文本对应的样本应答文本作为该第一待确定应答文本。
其中,该相似输入文本可以包括与该目标输入文本相似程度最高的样本输入文本,该第一待确定应答文本可以包括通过该语义识别数据库确定的与该目标输入文本对应的应答文本。
还需说明的是,本实施例S203至S205的具体实现方式可以参考实施例1中S103中的相关描述,在此不再赘述。
S206,对该第一待确定应答文本进行分词得到第二目标词语。
在本步骤中,同样可以利用现有的分词方法得到该第二目标词语。
S207,将该第一目标词语进行向量转换得到第一词向量,并将该第一词向量输入该编码子模型得到该目标输入文本对应的第一编码向量,将该第二目标词语进行向量转换得到第二词向量,并将该第二词向量输入该编码子模型得到该第一待确定应答文本对应的第二编码向量。
在本步骤中,同样可以利用预先训练得到的词嵌入模型将该第一目标词语进行向量转换得到第一词向量,将该第二目标词语进行向量转换得到第二词向量,具体实现方式可以参考S104中的相关描述,在此不再赘述。
S208,根据该第一编码向量和该第二编码向量得到目标编码向量。
在一种可能的实现方式中,可以将该第一编码向量和该第二编码向量进行求和取平均,得到该目标编码向量。
需要说明的是,该目标编码向量为通过该语境识别模型综合考虑目标输入文本的语义特征及语境特征后确定的该目标编码向量,这样,可以提高对该目标输入文本识别的准确率。
S209,将该目标编码向量输入该解码子模型得到应答向量,并根据该应答向量得到该第二待确定应答文本。
其中,该应答向量可以包括该第二待确定应答文本中每个词语对应的词向量,该第二待确定应答文本可以包括根据该语境识别模型确定的与该目标输入文本对应的应答文本。
在一种可能的实现方式中,在将该目标编码向量输入该解码子模型时,该解码子模型的模型输出即为该应答向量,然后再将该应答向量按输出的先后顺序转换为对应的词语(可以采用现有的转换方法将该应答向量转换为对应的词语),并根据该词语以及该词语的转换顺序得到该第二待确定应答文本。
S210,根据多个该第一目标词语计算该第一待确定应答文本与该目标输入文本的第一关联参数,以及该第二待确定应答文本与该目标输入文本的第二关联参数。
其中,该第一关联参数可以用于表示该第一待确定应答文本与该目标输入文本的关联程度,该第二关联参数可以用于表示该第二待确定应答文本与该目标输入文本的关联程度。
本步骤的具体实现方式可以参考实施例1中S105中的相关描述,在此不再赘述。
S211,根据该第一关联参数和该第二关联参数,从该第一待确定应答文本和该第二待确定应答文本中确定目标应答文本。
由于关联参数可以用于表示待确定应答文本与该目标输入文本的关联程度,也就是说,该关联参数越大,表示待确定应答文本与该目标输入文本的关联程度越高,因此,在一种可能的实现方式中,可以将该关联参数最大的待确定应答文本确定为该目标应答文本,具体地,首先比较该第一关联参数和该第二关联参数的大小,在确定该第一关联参数大于该第二关联参数时,可以将与该第一关联参数对应的该第一待确定应答文本确定为该目标应答文本,在根据该比较结果确定该第一关联参数小于该第二关联参数时,可以将与该第二关联参数对应的该第二待确定应答文本确定为该目标应答文本,在确定该第一关联参数等于该第二关联参数时,可以将该第一待确定应答文本和该第二待确定应答文本中任意一个应答文本确定为该目标应答文本。
采用上述方法,可以通过预先建立的语义识别数据库以及预先训练的语境识别模型分别对获取到的待应答的目标输入文本进行识别,这样能够综合考虑目标输入文本的语义以及语境,从而提高对该目标输入文本识别的准确率,进而可以提高对该目标输入文本应答的准确率,并且可以通过预先训练得到的语境识别模型确定该目标输入文本的第二待确定应答文本,从而克服了相关技术中仅依赖于数据库本身,使得输出的答案缺乏多样性的问题。
图3是根据一示例性实施例示出的一种应答装置的框图,如图3所示,该装置包括:
第一获取模块301,用于获取待应答的目标输入文本,并对该目标输入文本进行分词得到多个第一目标词语;
第二获取模块302,用于获取预先建立的语义识别数据库,以及预先训练的语境识别模型;
第一确定模块303,用于根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本的第一待确定应答文本;
第二确定模块304,用于根据多个该第一目标词语和该第一待确定应答文本通过该语境识别模型,得到该目标输入文本的第二待确定应答文本;
第三确定模块305,用于根据多个该第一目标词语计算该第一待确定应答文本与该目标输入文本的第一关联参数,以及该第二待确定应答文本与该目标输入文本的第二关联参数;
第四确定模块306,用于根据该第一关联参数和该第二关联参数,从该第一待确定应答文本和该第二待确定应答文本中确定目标应答文本。
可选地,该语义识别数据库包括:至少一个样本输入文本,每个该样本输入文本分词后得到的样本词语以及每个该样本输入文本对应的样本应答文本,该第一确定模块303,用于根据多个该第一目标词语通过该语义识别数据库确定该目标输入文本与每个该样本输入文本的相似度;从该样本输入文本中确定该相似度最大的输入文本为相似输入文本;将该相似输入文本对应的样本应答文本作为该第一待确定应答文本。
可选地,该语义识别数据库还包括:每个该样本词语对应的识别权重,该第一确定模块303,用于从该语义识别数据库中确定每个该样本输入文本的多个该第一目标词语分别对应的权重;将每个该样本输入文本中该第一目标词语对应的权重相加得到该相似度。
可选地,图4是根据图3所示实施例示出的一种应答装置的框图,如图4所示,该装置还包括:
第三获取模块307,用于获取至少一个样本输入文本,以及每个该样本输入文本对应的样本应答文本;
第五确定模块308,用于对该样本输入文本进行分词得到该样本词语,并计算每个该样本词语在全部该样本输入文本中的出现频率;
第六确定模块309,用于根据该出现频率确定每个该样本词语对应的识别权重;
第七确定模块310,用于根据该样本输入文本、以及每个该样本输入文本对应的该样本应答文本、该样本词语以及该识别权重,得到该语义识别数据库。
可选地,该语境识别模型包括编码-解码模型,该编码-解码模型包括编码子模型和解码子模型;该第二确定模块304,用于对该第一待确定应答文本进行分词得到第二目标词语;将该第一目标词语进行向量转换得到第一词向量,并将该第一词向量输入该编码子模型得到该目标输入文本对应的第一编码向量;将该第二目标词语进行向量转换得到第二词向量,并将该第二词向量输入该编码子模型得到该第一待确定应答文本对应的第二编码向量;根据该第一编码向量和该第二编码向量得到目标编码向量;将该目标编码向量输入该解码子模型得到应答向量,并根据该应答向量得到该第二待确定应答文本。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
采用上述装置,可以通过预先建立的语义识别数据库以及预先训练的语境识别模型分别对获取到的待应答的目标输入文本进行识别,这样能够综合考虑目标输入文本的语义以及语境,从而提高对该目标输入文本识别的准确率,进而可以提高对该目标输入文本应答的准确率,并且可以通过预先训练得到的语境识别模型确定该目标输入文本的第二待确定应答文本,从而克服了相关技术中仅依赖于数据库本身,使得输出的答案缺乏多样性的问题。
图5是根据一示例性实施例示出的一种电子设备500的框图。如图5所示,该电子设备500可以包括:处理器501,存储器502。该电子设备500还可以包括多媒体组件503,输入/输出(I/O)接口504,以及通信组件505中的一者或多者。
其中,处理器501用于控制该电子设备500的整体操作,以完成上述的应答方法中的全部或部分步骤。存储器502用于存储各种类型的数据以支持在该电子设备500的操作,这些数据例如可以包括用于在该电子设备500上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器502可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件503可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器502或通过通信组件505发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口504为处理器501和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件505用于该电子设备500与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件505可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备500可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的应答方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的应答方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器502,上述程序指令可由电子设备500的处理器501执行以完成上述的应答方法。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (8)
1.一种应答的方法,其特征在于,包括:
获取待应答的目标输入文本,并对所述目标输入文本进行分词得到多个第一目标词语;
获取预先建立的语义识别数据库,以及预先训练的语境识别模型;
根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本;根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本;
根据多个所述第一目标词语计算所述第一待确定应答文本与所述目标输入文本的第一关联参数,以及所述第二待确定应答文本与所述目标输入文本的第二关联参数;
根据所述第一关联参数和所述第二关联参数,从所述第一待确定应答文本和所述第二待确定应答文本中确定目标应答文本;
其中,所述语义识别数据库包括:至少一个样本输入文本,对每个所述样本输入文本分词后得到的样本词语以及每个所述样本输入文本对应的样本应答文本,所述根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本包括:
根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度;
从所述样本输入文本中确定所述相似度最大的输入文本为相似输入文本;
将所述相似输入文本对应的样本应答文本作为所述第一待确定应答文本。
2.根据权利要求1所述的方法,其特征在于,所述语义识别数据库还包括:每个所述样本词语对应的识别权重,所述根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度包括:
从所述语义识别数据库中确定每个所述样本输入文本的多个所述第一目标词语分别对应的识别权重;
将每个所述样本输入文本中所述第一目标词语对应的识别权重相加得到所述相似度。
3.根据权利要求2所述的方法,其特征在于,在获取预先建立的语义识别数据库前,所述方法还包括:
获取至少一个样本输入文本,以及每个所述样本输入文本对应的样本应答文本;
对所述样本输入文本进行分词得到所述样本词语,并计算每个所述样本词语在全部所述样本输入文本中的出现频率;
根据所述出现频率确定每个所述样本词语对应的识别权重;
根据所述样本输入文本、以及每个所述样本输入文本对应的所述样本应答文本、所述样本词语以及所述识别权重,得到所述语义识别数据库。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述语境识别模型包括编码-解码模型,所述编码-解码模型包括编码子模型和解码子模型;所述根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本包括:
对所述第一待确定应答文本进行分词得到第二目标词语;
将所述第一目标词语进行向量转换得到第一词向量,并将所述第一词向量输入所述编码子模型得到所述目标输入文本对应的第一编码向量;
将所述第二目标词语进行向量转换得到第二词向量,并将所述第二词向量输入所述编码子模型得到所述第一待确定应答文本对应的第二编码向量;
根据所述第一编码向量和所述第二编码向量得到目标编码向量;
将所述目标编码向量输入所述解码子模型得到应答向量,并根据所述应答向量得到所述第二待确定应答文本。
5.一种应答的装置,其特征在于,包括:
第一获取模块,用于获取待应答的目标输入文本,并对所述目标输入文本进行分词得到多个第一目标词语;
第二获取模块,用于获取预先建立的语义识别数据库,以及预先训练的语境识别模型;
第一确定模块,用于根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本的第一待确定应答文本;第二确定模块,用于根据多个所述第一目标词语和所述第一待确定应答文本通过所述语境识别模型,得到所述目标输入文本的第二待确定应答文本;
第三确定模块,用于根据多个所述第一目标词语计算所述第一待确定应答文本与所述目标输入文本的第一关联参数,以及所述第二待确定应答文本与所述目标输入文本的第二关联参数;
第四确定模块,用于根据所述第一关联参数和所述第二关联参数,从所述第一待确定应答文本和所述第二待确定应答文本中确定目标应答文本;
其中,所述语义识别数据库包括:至少一个样本输入文本,每个所述样本输入文本分词后得到的样本词语以及每个所述样本输入文本对应的样本应答文本,所述第一确定模块,用于根据多个所述第一目标词语通过所述语义识别数据库确定所述目标输入文本与每个所述样本输入文本的相似度;从所述样本输入文本中确定所述相似度最大的输入文本为相似输入文本;将所述相似输入文本对应的样本应答文本作为所述第一待确定应答文本。
6.根据权利要求5所述的装置,其特征在于,所述语境识别模型包括编码-解码模型,所述编码-解码模型包括编码子模型和解码子模型;所述第二确定模块,用于对所述第一待确定应答文本进行分词得到第二目标词语;将所述第一目标词语进行向量转换得到第一词向量,并将所述第一词向量输入所述编码子模型得到所述目标输入文本对应的第一编码向量;将所述第二目标词语进行向量转换得到第二词向量,并将所述第二词向量输入所述编码子模型得到所述第一待确定应答文本对应的第二编码向量;根据所述第一编码向量和所述第二编码向量得到目标编码向量;将所述目标编码向量输入所述解码子模型得到应答向量,并根据所述应答向量得到所述第二待确定应答文本。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-4中任一项所述方法的步骤。
8.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811613083.6A CN109815322B (zh) | 2018-12-27 | 2018-12-27 | 应答的方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811613083.6A CN109815322B (zh) | 2018-12-27 | 2018-12-27 | 应答的方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109815322A CN109815322A (zh) | 2019-05-28 |
CN109815322B true CN109815322B (zh) | 2021-03-12 |
Family
ID=66602946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811613083.6A Active CN109815322B (zh) | 2018-12-27 | 2018-12-27 | 应答的方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109815322B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110795913B (zh) * | 2019-09-30 | 2024-04-12 | 北京大米科技有限公司 | 一种文本编码方法、装置、存储介质及终端 |
CN110851581B (zh) * | 2019-11-19 | 2022-11-11 | 东软集团股份有限公司 | 一种模型参数确定方法、装置、设备及存储介质 |
CN111199148B (zh) * | 2019-12-26 | 2023-01-20 | 东软集团股份有限公司 | 文本相似度确定方法、装置、存储介质和电子设备 |
CN113470619B (zh) * | 2021-06-30 | 2023-08-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、介质及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649524A (zh) * | 2016-10-20 | 2017-05-10 | 宁波江东大金佰汇信息技术有限公司 | 一种改进型基于计算机云数据的深度学习智能应答系统 |
CN106970905A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种语义分析方法 |
CN107967261A (zh) * | 2017-11-17 | 2018-04-27 | 康成投资(中国)有限公司 | 智能客服中交互式问句语义理解方法 |
CN108833140A (zh) * | 2018-05-24 | 2018-11-16 | 携程旅游信息技术(上海)有限公司 | 交互式语音应答配置系统、方法、电子设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7945527B2 (en) * | 2006-09-21 | 2011-05-17 | Aebis, Inc. | Methods and systems for interpreting text using intelligent glossaries |
CN101178705A (zh) * | 2007-12-13 | 2008-05-14 | 中国电信股份有限公司 | 一种自然语言理解方法和人机交互智能系统 |
US8880537B2 (en) * | 2009-10-19 | 2014-11-04 | Gil Fuchs | System and method for use of semantic understanding in storage, searching and providing of data or other content information |
CN103970731B (zh) * | 2014-05-19 | 2017-07-04 | 无锡自然语言智能科技有限公司 | 汉语语义活性识别法 |
CN108304439B (zh) * | 2017-10-30 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 一种语义模型优化方法、装置及智能设备、存储介质 |
CN108427670A (zh) * | 2018-04-08 | 2018-08-21 | 重庆邮电大学 | 一种基于语境词向量和深度学习的情感分析方法 |
-
2018
- 2018-12-27 CN CN201811613083.6A patent/CN109815322B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106970905A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种语义分析方法 |
CN106649524A (zh) * | 2016-10-20 | 2017-05-10 | 宁波江东大金佰汇信息技术有限公司 | 一种改进型基于计算机云数据的深度学习智能应答系统 |
CN107967261A (zh) * | 2017-11-17 | 2018-04-27 | 康成投资(中国)有限公司 | 智能客服中交互式问句语义理解方法 |
CN108833140A (zh) * | 2018-05-24 | 2018-11-16 | 携程旅游信息技术(上海)有限公司 | 交互式语音应答配置系统、方法、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
基于内容分析的中文问答处理算法及系统实现;吴晨等;《计算机应用研究》;20060901;第139页-第142页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109815322A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815322B (zh) | 应答的方法、装置、存储介质及电子设备 | |
CN109658928B (zh) | 一种家庭服务机器人云端多模态对话方法、装置及系统 | |
JP7096444B2 (ja) | 画像領域位置決め方法、モデル訓練方法及び関連装置 | |
CN111164601B (zh) | 情感识别方法、智能装置和计算机可读存储介质 | |
US11354512B2 (en) | Method and device for generating dialog using trained dialog model | |
WO2020177282A1 (zh) | 一种机器对话方法、装置、计算机设备及存储介质 | |
CN109684510B (zh) | 视频排序方法、装置、电子设备及存储介质 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN111612070B (zh) | 基于场景图的图像描述生成方法及装置 | |
CN112069309B (zh) | 信息获取方法、装置、计算机设备及存储介质 | |
WO2020155619A1 (zh) | 带情感的机器聊天方法、装置、计算机设备及存储介质 | |
JP2018055548A (ja) | 対話装置、学習装置、対話方法、学習方法、およびプログラム | |
CN111914179B (zh) | 基于语义的模糊搜索方法和装置、存储介质及电子设备 | |
WO2021135457A1 (zh) | 基于循环神经网络的情绪识别方法、装置及存储介质 | |
WO2016173326A1 (zh) | 基于主题的交互系统及方法 | |
CN112131368B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
KR102544249B1 (ko) | 발화의 문맥을 공유하여 번역을 수행하는 전자 장치 및 그 동작 방법 | |
CN111753091A (zh) | 分类方法、分类模型的训练方法、装置、设备及存储介质 | |
CN110991182B (zh) | 用于专业领域的分词方法、装置、存储介质及电子设备 | |
CN116737895A (zh) | 一种数据处理方法及相关设备 | |
CN113868451A (zh) | 基于上下文级联感知的社交网络跨模态对话方法及装置 | |
CN112910761A (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN111797220A (zh) | 对话生成方法、装置、计算机设备和存储介质 | |
CN112036195A (zh) | 机器翻译方法、装置及存储介质 | |
WO2023040545A1 (zh) | 一种数据处理方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |