CN110674292B - 一种人机交互方法、装置、设备及介质 - Google Patents

一种人机交互方法、装置、设备及介质 Download PDF

Info

Publication number
CN110674292B
CN110674292B CN201910794930.1A CN201910794930A CN110674292B CN 110674292 B CN110674292 B CN 110674292B CN 201910794930 A CN201910794930 A CN 201910794930A CN 110674292 B CN110674292 B CN 110674292B
Authority
CN
China
Prior art keywords
semantic
target
semantic vector
statement
sample pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910794930.1A
Other languages
English (en)
Other versions
CN110674292A (zh
Inventor
陈观钦
陈远
王摘星
陈斌
王维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910794930.1A priority Critical patent/CN110674292B/zh
Publication of CN110674292A publication Critical patent/CN110674292A/zh
Application granted granted Critical
Publication of CN110674292B publication Critical patent/CN110674292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种人机交互方法、装置、设备及介质,所述方法包括获取语料库,所述语料库中包括语句和所述语句对应的回复语句;基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。本发明可以提升目标回复语句的准确度,提升了人机交互速度。

Description

一种人机交互方法、装置、设备及介质
技术领域
本发明涉及人工智能领域,尤其涉及一种人机交互方法、装置、设备及介质。
背景技术
在智能服务中,需要对用户常见的问题进行快速自动回答。现有技术中通常是判断用户发言所对应的文本和问题库中的问题的文本是否相似,然后寻找相似问题对应的答案作为回复。现有技术中通常通过训练机器学习模型来实现文本相似程度的判断。
然而,现有技术的机器学习模型需要把用户的问题文本和问题库中的问题文本进行一一比较,当问题库中的问题数量较多时,耗费较多资源,不能满足实时性要求并且判断的准确率偏低。
发明内容
为了解决现有技术中文本匹配耗时较长,导致难以提供高速进行人机交互的技术方案的技术问题,本发明实施例提供一种人机交互方法、装置、设备及介质。
一方面,本发明提供了一种人机交互方法,所述方法包括:
获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。
另一方面,本发明提供一种人机交互装置,所述装置包括:
语料库获取模块,用于获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
语义库生成模块,用于基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
第一语句获取模块,用于获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
目标语句查询模块,用于根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
回复模块,用于在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。
另一方面,本发明提供了一种人机交互设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现一种人机交互方法。
另一方面,本发明提供了一种计算机存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行一种人机交互方法。
本发明提供了一种人机交互方法、装置、设备及介质。本发明可以快速和低成本地构建大量的正负文本对数据集作为机器学习模型的训练集,自定义负例最大化间隔的余弦加权损失函数和机器学习模型的结构,从而使得通过训练所述机器学习模型得到语义提取模型能够输出与余弦度量一致的语义向量。在人机交互过程中,只需要使用语义提取模型对语料库中所有语句生成语义向量,然后使用所述语义提取模型对用户新输入的第一语句提取第一语义向量,通过各个语义向量和第一语义向量的相似度比较即可查询出与所述第一语句相近的目标语句,进而基于目标语句进行人机交互,极大提升了交互准确度,提升了人机交互速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明提供的Siamese网络结构示意图;
图2是本发明提供的一种人机交互方法的实施环境示意图;
图3是本发明提供的一种人机交互方法流程图;
图4是本发明提供的N、M可以取值为2,Q取值为5的机器学习模型结构示意图;
图5是本发明提供的根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求流程图;
图6是本发明提供的根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求流程图;
图7是本发明提供的述机器学习模型的训练方法流程图;
图8是本发明提供的构建正样本对数据集流程图;
图9是本发明提供的计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度的方法流程图;
图10是本发明提供的序列到序列模型结构示意图;
图11是本发明提供的构建负样本对数据集流程图;
图12是本发明提供的计算所述疑似负样本对集合中的各个疑似负样本对中两个疑似负样本的相似度流程图;
图13是本发明提供的各个模型的训练效果曲线图;
图14是本发明提供的各个模型的整体准确率效果示意图;
图15是本发明提供的各个模型在不同训练次数中得到的准确率表现示意图;
图16是本发明提供的自动问答系统的工作界面示意图;
图17是本发明提供的后台管理的实施效果示意图;
图18是本发明提供的针对输入所述自动问答系统的第一语句,输出语料库中各个语句与第一语句的相似度的分布结果示意图;
图19是本发明提供的语料库中与第一语句的相似度达到预设数值的相关语句输出结果示意图;
图20是本发明提供的一种人机交互装置框图;
图21是本发明提供的一种用于实现本发明实施例所提供的方法的设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了使本发明实施例公开的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明实施例进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本发明实施例,并不用于限定本发明实施例。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了对于本发明实施例中所述的技术方案进行清晰的阐述,本发明实施例首先对与其相关技术名词、技术背景和技术环境进行解释:
RNN网络:递归神经网络。
CNN网络:卷积神经网络。
Siamese网络:Siamese网络从数据中去学习一个相似性度量,用这个学习出来的度量去比较和匹配新的未知类别的样本。如图1所示,Siamese网络可以用来判断两个输入信号的相似性,输入的信号可以是数值特征、语音、文本、图像等。不同的输入信号经过上图中的神经网络Network_1,Network_2进行特征抽取和转换得到各自的语义向量,然后计算相互之间的距离度量,并通过定义损失函数做网络的训练学习。其中神经网络Network_1、Network_2的结构、距离的度量和目标函数的定义这3块都可以根据具体任务的不同而做相应的设计。在问题相似性匹配任务中,两个输入文本的长度和信息量差异不是很大,神经网络的Network_1、Network_2可以使用共享权重参数的同一个网络。
基于Siamese网络结构的文本相似性问题中,损失函数的设计思想是最小化相同类别之间的距离,最大化不同类别之间的距离。常见的损失函数一般有如下几种:(如下示例都是基于单个样本的损失函数,其中X1,X2代表Siamese网路的两个输出特征向量)
(i)对比损失函数的一般形式:Lw=(1-y)D-(X1,X2)+(y)D+(X1,X2)
其有两个设计原则,一是:当两个输入样本不相似(y=0)时,距离越大,损失越小,即关于距离的单调递减函数。二是:当两个输入样本相似(y=1)时,距离越大,损失越大,即关于距离的单调递增函数。其常见的损失函数公式有如下2种:
(1)基于欧式距离度量的相似度损失:Lw=(1-y)max(m arg in-d,0)2+d2,其中距离度量d=||X1-X2||2
(2)基于余弦距离的相似度损失]:
Figure BDA0002180653830000061
Figure BDA0002180653830000062
(ii)均方误差形式的损失函数,基于指数单调函数的曼哈顿距离度量:Lw=(y-exp(-||X1-X2||1))2
(iii)交叉熵形式的对数损失函数,基于参数内积层的距离度量:y′=sigmoid(WT||X1,X2,X1-X2,X1,X2||)
LW=-(1-y)log(1-y′)-ylog(y′)
本发明实施例提供一种人机交互方法。首先,本发明实施例公开了在一个可行的实施例中所述一种人机交互方法的实施环境。
参见图2,该实施环境包括:客户端01、服务器03。
客户端01可以包括:智能手机、平板电脑、笔记本电脑、数字助理、智能可穿戴设备、车载终端等类型的实体设备,也可以包括运行于实体设备中的软体,例如具有人机交互功能的应用程序等。所述客户端01可以基于浏览器/服务器模式(Browser/Server,B/S)或客户端/服务器模式(Client/Server,C/S)与所述服务器03通信连接。
所述客户端01可以向服务器03发送第一语句,所述第一语句可以为在人机自动问答场景中,期待服务器03给出答案的问题,也可以为在聊天场景中期待服务器03给出回复语句的聊天语句。所述服务器03可以在预设的语句库中查找与所述第一语句相似的目标语句,并将目标语句关联的回复语句传输至所述客户端01。
所述服务器03可以包括一个独立运行的服务器,或者分布式服务器,或者由多个服务器组成的服务器集群。
请参考图3,其示出了一种人机交互方法流程图,所述方法可以以图2所述的实施环境中的服务器为执行主体实施,所述方法可以包括:
S101.获取语料库,所述语料库中包括语句和所述语句对应的回复语句。
在人机自动问答场景中,所述语料库中的语句可以为各种各样的问题,所述回复语句即为问题对应的答案。比如,语句“为什么我的游戏被制裁了”,其对应的回复语句为“一般查询处罚记录的时候就会给出处罚原因哦”。
在聊天场景中,所述语料库中的语句可以为各种各样的对话语句,所述回复语句即为对所述对话语句的回复。比如,语句“我今天怎么这么美”,其对应的回复语句为“主人一直都美美的呀”。
S103.基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系。
有别于现有技术直接进行文本相似度的匹配,本发明实施例通过对用户输入的语句的语义向量与语料库中的语句的语义向量进行相似度匹配,得到与用户输入的语句最为接近的语料库中的语句。通过语义匹配代替单一维度的文本匹配,在提升匹配精度的基础上达到了提升匹配速度的目的。
所述语义提取模型通过对机器学习模型训练而得到,为了能够提升语义提取模型对语句多维度特征的提取能力,本发明实施例首先公开所述机器学习模型。
所述机器学习模型包括双向循环神经网络和卷积神经网络,所述双向循环网络包括多个特征提取层和第一全连接层,各个特征提取层均与所述第一全连接层连接;所述卷积神经网络包括多个具有不同卷积核的卷积层、最大池化层和第二全连接层,所述卷积层、最大池化层和第二全连接层依次连接,所述卷积层还与所述双向循环网络中的最接近第一全连接层的特征提取层连接;所述第一全连接层和所述第二全连接层均与第三全连接层连接。
所述双向循环神经网络可以提取出语句的浅层语义向量,所述浅层语义向量能够保留语句的时序特征信息;所述卷积神经网络可以提取所述语句的多个维度的特征,通过拼接所述多个维度的特征可以得到语句的高层语义向量,通过浅层语义向量和所述高层语义向量的拼接可以得到本发明实施例中所需的语义向量。
在一个具体的实施例中,所述双向循环神经网络包括N个特征提取层,所述N个特征提取层的输出经过第一全连接层后得到了浅层语义向量。其中,第N个特征提取层的输出按顺序被组成矩阵特征,再作为所述卷积神经网络中第一个卷积层的输入。
所述卷积神经网络中包括M个卷积层,每个卷积层包括Q个卷积单元,每个卷积单元具有不同宽度的卷积核,其中第i(1≤i<M-1)个卷积层的卷积单元与第i+1个卷积层的卷积单元对应连接。相应的,所述最大池化层包括Q个最大池化单元,其中第M个卷积层的各个卷积单元与所述最大池化层的最大池化单元对应连接。
所述矩阵特征作为第一个卷积层的Q个卷积单元的输入,经过M个卷积层的特征提取,使得由第M个卷积层的Q个卷积单元输出的结果中包含了不同宽度的特征。将所述第M个卷积层的Q个卷积单元输出的结果对应作为所述最大池化层中最大池化单元的输入,所述最大池化层中各个最大池化单元的输出经过第二全连接层后得到了高层语义向量。
本发明实施例中N、M、Q均为不小于2正整数。在一个可行的实施方式中,如图4所示,N、M可以取值为2,Q取值为5。
根据所述第一全连接层输出的浅层语义向量和所述第二全连接层输出的高层语义向量可以进一步得到语义向量拼接结果,所述语义向量拼接结果经过所述第三全连接层后得到了输入所述机器学习模型的语料所对应的语义向量。
进一步地,所述第一全连接层输出的浅层语义向量和所述第二全连接层输出的高层语义向量可以经过机器学习模型的其它相关功能层进行相关处理以得到语义向量拼接结果,本发明实施例中并不限定所述相关功能层的具体功能,比如,其可以是特征转换功能。
在一个优选的实施例中,所述第三全连接层以双正切函数作为激活函数,从而实现了语义空间的转换,使得输出的语义向量富含多尺度语义信息。
所述机器学习模型通过训练即可得到所述语义提取模型,具体的训练方法后续详述,在此不做赘述。
S105.获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量。
具体地,所述第一语句即为待回复的语句,其可以来自客户端用户的输入,可以为问题,也可以为普通的陈述语句。
为了提升语义提取准确率,在基于所述语义提取模型提取所述第一语句的第一语义向量之前,还可以包括对所述第一语句进行预处理的步骤,比如,可以清除不含中文的发言、去掉无用特殊符号、进行通配符替换等。
S107.根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求。
本发明实施例中通过两个语义向量的余弦相似度来度量两个语义向量的相似度。
在一个可行的实施例中,所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,如图5所示,包括:
S1071.根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度均大于预设阈值。
S1073.对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列。
S1075.将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
在一个优选的实施例中,还可以为所述语义库中每个语句及其对应的语义向量设置所述语义向量适配的相似度阈值,则所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,如图6所示,包括:
S1072.根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度大于所述目标语义向量适配的相似度阈值。
S1074.对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列。
S1076.将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
S109.在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。
为了得到精准的语义提取模型,本发明实施例在公开所述语义提取模型相关的机器学习模型的基础之上,公开了对所述机器学习模型的训练方法,如图7所示,所述方法包括:
S1.构建正样本对数据集,所述正样本对数据集中的每个正样本对都具有第一预设标签。
在机器学习模型训练过程中,训练样本的标签参与到训练之中,本发明实施例中正样本对数据集和负样本对数据集具有不同的标签,在一个可行的实施例中,正样本对数据集中的元素均具有取值为1的第一预设标签,负样本对数据集中的元素均具有取值为0的第二预设标签。
具体地,所述构建正样本对数据集,如图8所示,包括:
S11.收集第一语句集,对所述第一语句集进行无监督聚类以得到无监督聚类结果。
S13.根据所述无监督聚类结果在所述第一语句集中提取目标语句集。
具体地,所述目标语句集中的语句可以为在聚类结果的各个聚类中心预设邻域内的语句。
S15.根据所述无监督聚类结果构建目标语句集对应的连通图。
S17.根据连通图中的连通关系生成疑似正样本对集,所述疑似正样本对集中的每个疑似正样本对包括两个疑似正样本。
S19.计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度,将相似度大于第一预设阈值的疑似正样本对确定为正样本对以得到正样本对数据集。
在一个可行的实施例中,所述第一预设阈值可以取值为0.94-0.98之间。
具体地,本发明实施例还公开了计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度的方法,如图9所示,所述方法包括:
S191.训练第一文本生成模型,基于所述第一文本生成模型的编码器提取疑似正样本对中两个疑似正样本的语义编码向量。
具体地,所述第一文本生成模型可以为基于单层GRU的Seq2Seq(序列到序列)文本生成模型。GRU是长短期记忆网络(LSTM,Long Short-Term Memory)的一种效果很好的变体,它较LSTM网络的结构更加简单,而且效果也很好。Seq2Seq模型如图10所示,其又叫编码器-解码器模型,其可以将输入的语句编码为语义编码向量进行输出。
S193.计算所述两个疑似正样本的语义编码的余弦相似度。
S3.构建负样本对数据集,所述负样本对数据集中的每个负样本对都具有第二预设标签。
具体地,所述构建负样本对数据集,如图11所示,包括:
S31.收集第二语句集,对所述第二语句集进行无监督聚类以得到聚类结果,所述聚类结果中聚类中心的数量满足预设要求。
在一个可行的实施例中,可以对第二语句集进行N类的kmeasn无监督聚类,N可以取1000或其它数值。kmeasn无监督聚类即为k均值聚类算法(k-means clusteringalgorithm)是一种迭代求解的聚类分析算法,其步骤是随机选取K个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。
S33.根据所述聚类结果构建聚类样本集,所述聚类样本集中包括多个聚类样本子集,每个聚类样本子集对应一个聚类中心,所述聚类样本子集中的语句与其对应的聚类中心的距离小于预设阈值。
S35.将位于不同聚类样本子集中的语句进行两两组合以得到疑似负样本对集合。
S37.计算所述疑似负样本对集合中的各个疑似负样本对中两个疑似负样本的相似度,将所述相似度小于第二预设阈值的疑似负样本对确定为负样本对,构建负样本对数据集。
在一个可行的实施例中,所述第二预设阈值可以取值为0.05-0.2之间。
具体地,所述计算所述疑似负样本对集合中的各个疑似负样本对中两个疑似负样本的相似度,如图12所示,包括:
S371.训练词向量模型,基于所述词向量模型提取疑似负样本对中两个疑似负样本的词编码向量。
具体地,所述词向量模型可以基于Word2vec模型构建。Word2vec是为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。
S373.训练第二文本生成模型,以词编码向量为输入基于所述第二文本生成模型的编码器提取疑似负样本对中两个疑似负样本的语义编码向量。
所述第二文本生成模型也可以为基于单层GRU的Seq2Seq(序列到序列)文本生成模型。
S375.计算所述两个疑似负样本的语义编码的余弦相似度。
在一个优选的实施例中,可以通过实施下述收集方式中的一种或其组合得到正样本数据集或负样本数据集。
(1)对所述第一语句集进行无监督聚类以得到无监督聚类结果,根据所述无监督聚类结果抽取语句,添加至第二语句集。
(2)利用已有的人机交互系统收集语料,根据所述语料填充第一语句集和第二语句集。
(3)人工编写语句填充第一语句集和第二语句集。
(4)通过对比相似句子在分词后的差集中是否含有否定词以及一些关键词构建语料填充正样本数据集或负样本数据集。
(5)将本发明实施例公开的技术方案进行使用,将使用过程中出现误回复的语句添加至正样本数据集或负样本数据集。
(6)利用Doc2vec模型得到多个语句的向量表达结果,对所述向量表达结果进行相似性分析,并结合对各个语句的分词结果寻找更多可能相似的语句,从而填充正样本数据集。
Doc2Vec是一种非监督式算法,可以获得语句的向量表达结果。
(7)基于已有的中文预训练模型来提取各个语句的语句向量,进而语句向量评估各个语句的相似度,从而构建正样本对或负样本对,根据构建的结果填充正样本对数据或负样本对数据集。
S5.以结合负样例自定义间隔的余弦加权损失函数作为训练损失函数,以所述正样本对数据集和负样本对数据集作为训练集训练机器学习模型。
本发明实施例设计基于余弦相似度的加权损失函数,使得机器学习模型训练时,能够根据正负文本对的学习难易程度不同来自适应地变化损失函数值的权重,使得难学习的样本对损失函数值更大。通过引入自定义负例最大化间隔使得对于负样本对的损失函数值,要小于自定义的间隔,才会产生损失,其作用是把不相似的样本对的向量距离分得更开。
为了提升机器学习模型对于语句的语义的提取能力,提升其输出的语义向量应用于相似度计算过程的准确度,便于后续基于所述语义向量查找与所述语句最为接近的其它语句,本发明实施例对于所述机器学习模型的损失函数进行了设计,所述损失函数具体表达式为L=αργ cos0(1-y)(max(Ecos+m arg in,0))2+(1-α)ργ cos1(y)(1-Ecos)2,
其中加权余弦的权重:ρcos1=0.5-Ecos*0.5,ρcos0=1-ρcos1
Figure BDA0002180653830000141
其中V1,V2分别表示机器学习模型针对输入的正文本对或负文本对输出的两个语义向量,y为正文本对或负文本对的标签
其中,m arg in,γ,α都是超参数,其中m arg in用来调节负样本对相似度距离,可以取值为0.1,即只有当负样本的相似度距离Ecos小于0.1时,才会产生(Ecos+0.1)2的损失。α用于控制正负样本对的损失权重大小,主要是用于平衡正负样本对,可以取值0.3。γ用于对余弦权重做指数缩放,对正样本对,余弦距离得分越低的样本产生的损失越大,对负样本对,余弦距离得分越高的样本产生的损失越大。可以取值为2。其作用主要是结合余弦权重加大困难样本对的损失,使得机器学习模型更加偏向于学习困难样本对。
对于本发明实施例公开的机器学习模型及其训练方法,本发明实施例进一步给出其实施数据:
在实验环境中,采用的硬件平台是Core(TM)i7-8700CPU@3.6GHz的处理器,16G内存,256G固态硬盘,STRIX-GTX1080TI-11G显卡。采用的软件平台是基于window10的64位操作系统,python2.7,Tensorflow1.8。
对所述机器学习模型,其输入的语句最大长度设置为100。对于输入的语句,词嵌入层使用200维的预训练词向量,然后基于根据训练过程做微调。对于双向循环神经网络,使用基于200个长短期记忆网络(LSTM)单元的2层双向循环神经网络,每层的LSTM单元都是用0.8的随机失活(dropout)保留概率。然后再把不同层双向循环神经网络的最后输出状态做拼接。对于卷积神经网络,使用了宽度分别为1,2,3,4,5的五种不同的一维卷积核,每种卷积核分别通过2次的卷积操作,然后再做最大池化操作,分别把不同卷积操作的结果做拼接。对双向循环神经网络和卷积神经网络的输出向量分别经过基于400个神经元的不同全连接层和修正线性单元激活函数做特征转换和维度压缩,并经过随机失活操作,随机失活保留概率设置为0.8。最后,把得到的两个400维向量拼接在一起,经过基于400个神经元的不同全连接层和以双正切函数为激励函数做进一步特征转换,得到最终输出的400维语义向量。在做模型训练时,把正文本对或负文本对通过上述网络结构得到的两个语义向量,结合负样例自定义间隔的余弦加权损失训练所述机器学习模型。具体地可以使用随机梯度下降算法或者随机梯度下降算法的扩展算法(Adam算法)优化模型的各层参数,学习速率设置为0.0001。为了防止梯度爆炸,截断梯度的全局最大范数设置为10,同时训练模型的归一化大小设置为500。
基于本发明实施例提供的样本构造方法,本发明实施例最终构造的正负样本对数据集的样本量有130万左右,正负样本对的比例约为1:4,去重后总的语句文本有51万左右。
为了测试本发明实施例机器学习模型的效果,证明机器学习模型的优越性,本发明实施例对本发明实施例和现有技术中的其它机器学习模型的预测性能进行了对比,对比结果请参见表1。
表1机器学习模型预测结果
Figure BDA0002180653830000151
Figure BDA0002180653830000161
具体地,F1值可以根据公式
Figure BDA0002180653830000162
计算,其中,precision,recall为精确率和召回率。
表1参考是基于正负样本对数量比是65377:15163的测试集合得到的预测结果。显而易见,无论是相似样本对的分类效果,还是整体的分类效果,本发明实施例中的机器学习模型的效果都是最好的。其中精确率的提升最明显,比循环卷积神经网络高了1.5%左右,F1值提高约0.8%。
在训练过程中,对于正负样本对数量比是995693:237906的训练集合,各个模型的训练效果曲线图如图13所示,从中可以看到本发明实施例提出的损失函数值也是下降得最快的。各个模型的整体准确率如图14所示,从中可以看到本发明实施例提出的机器学习模型在整体准确率上是最好的。各个模型在不同训练次数中得到的准确率表现如图15所示。
基于本发明实施例训练出的机器学习模型得到的语义提取模型可以被广泛的应用于人机交互场景之中,比如聊天机器人或者自动问答系统。将所述语义提取模型应用于自动问答系统,如图16所示,其示出了自动问答系统的工作界面示意图。在自动问答系统中可以还可以对进行后台管理,所述后台管理的实施效果如图17所示。具体地,可以对语料库进行调整,从而对语料库中的语句及其对应的回复语句进行修改,相应的,语义库也可以进行适应性调整。进一步地,也可以结合在所述自动问答系统中的误答记录进行收集,并根据收集结果进一步优化机器学习模型以得到不断被完善的语义提取模型。
具体地,在所述自动问答系统运行过程中,如图18所示,还可以针对输入所述自动问答系统的第一语句,输出语料库中各个语句与第一语句的相似度的分布结果。进一步地,如图19所示,还可以定向输出语料库中与第一语句的相似度达到预设数值的相关语句。
在所述自动问答系统运营过程中,还可以设置过滤规则过滤到某些语句,避免这些语句的回复语句被输出。还可以为语料库中的每个语句单独配置其对应的过滤规则,从而使得问答系统能够具有更加灵活的表现。当所述自动问答系统运行之后,其可以基于运行结果不断产生新的文本对,并将所述文本对用于优化机器学习模型,从而以迭代形式提升语义提取模型的语义提取能力。
本发明实施例提供一种人机交互方法,可以快速和低成本地构建大量的正负文本对数据集作为机器学习模型的训练集,自定义负例最大化间隔的余弦加权损失函数和机器学习模型的结构,从而使得通过训练所述机器学习模型得到语义提取模型能够输出与余弦度量一致的语义向量。在人机交互过程中,只需要使用语义提取模型对语料库中所有语句生成语义向量,然后使用所述语义提取模型对用户新输入的第一语句提取第一语义向量,通过各个语义向量和第一语义向量的相似度比较即可查询出与所述第一语句相近的目标语句,进而基于目标语句进行人机交互,极大提升了交互准确度,提升了人机交互速度。
本发明实施例提供一种人机交互装置,如图20所示,所述装置包括:
语料库获取模块201,用于获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
语义库生成模块203,用于基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
第一语句获取模块205,用于获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
目标语句查询模块207,用于根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
回复模块209,用于在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。
具体地,本发明实施例所述一种人机交互装置与方法实施例均基于相同发明构思。详情请参见方法实施例,在此不再赘述。
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令。所述指令可以适于由处理器加载并执行本发明实施例所述的一种人机交互方法,所述方法至少包括下述步骤:
一种人机交互方法,所述方法包括:
获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句。
在一个优选的实施例中,所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,包括:
根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度均大于预设阈值;
对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列;
将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
在一个优选的实施例中,还包括为所述语义库中每个语句及其对应的语义向量设置所述语义向量适配的相似度阈值,则所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,包括:
根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度大于所述目标语义向量适配的相似度阈值;
对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列;
将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
在一个优选的实施例中,所述语义提取模型通过对机器学习模型训练而得到,所述机器学习模型包括:
双向循环神经网络和卷积神经网络,所述双向循环网络包括多个特征提取层和第一全连接层,各个特征提取层均与所述第一全连接层连接;所述卷积神经网络包括多个具有不同卷积核的卷积层、最大池化层和第二全连接层,所述卷积层、最大池化层和第二全连接层依次连接,所述卷积层还与所述双向循环网络中的最接近第一全连接层的特征提取层连接;所述第一全连接层和所述第二全连接层均与第三全连接层连接。
在一个优选的实施例中,所述双向循环神经网络包括N个特征提取层;
所述卷积神经网络中包括M个卷积层,每个卷积层包括Q个卷积单元,每个卷积单元具有不同宽度的卷积核,其中第i(1≤i<M-1)个卷积层的卷积单元与第i+1个卷积层的卷积单元对应连接;所述最大池化层包括Q个最大池化单元,其中第M个卷积层的各个卷积单元与所述最大池化层的最大池化单元对应连接。
一个优选的实施例中,还包括对所述机器学习模型进行训练,所述对所述机器学习模型进行训练,包括:
构建正样本对数据集,所述正样本对数据集中的每个正样本对都具有第一预设标签;
构建负样本对数据集,所述负样本对数据集中的每个负样本对都具有第二预设标签;
以结合负样例自定义间隔的余弦加权损失函数作为训练损失函数,以所述正样本对数据集和负样本对数据集作为训练集训练机器学习模型。
一个优选的实施例中,所述构建正样本对数据集,包括:
收集第一语句集,对所述第一语句集进行无监督聚类以得到无监督聚类结果;
根据所述无监督聚类结果在所述第一语句集中提取目标语句集;
根据所述无监督聚类结果构建目标语句集对应的连通图;
根据连通图中的连通关系生成疑似正样本对集,所述疑似正样本对集中的每个疑似正样本对包括两个疑似正样本;
计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度,将相似度大于第一预设阈值的疑似正样本对确定为正样本对以得到正样本对数据集。
一个优选的实施例中,所述构建负样本对数据集,包括:
收集第二语句集,对所述第二语句集进行无监督聚类以得到聚类结果,所述聚类结果中聚类中心的数量满足预设要求;
根据所述聚类结果构建聚类样本集,所述聚类样本集中包括多个聚类样本子集,每个聚类样本子集对应一个聚类中心,所述聚类样本子集中的语句与其对应的聚类中心的距离小于预设阈值;
将位于不同聚类样本子集中的语句进行两两组合以得到疑似负样本对集合;
计算所述疑似负样本对集合中的各个疑似负样本对中两个疑似负样本的相似度,将所述相似度小于第二预设阈值的疑似负样本对确定为负样本对,构建负样本对数据集。
进一步地,图21示出了一种用于实现本发明实施例所提供的方法的设备的硬件结构示意图,所述设备可以参与构成或包含本发明实施例所提供的装置或系统。如图21所示,设备10可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图21所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,设备10还可包括比图21中所示更多或者更少的组件,或者具有与图21所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到设备10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中所述的方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的一种人机交互方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至设备10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括设备10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(NetworkInterfaceController,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与设备10(或移动设备)的用户界面进行交互。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和服务器实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人机交互方法,其特征在于,所述方法包括:
获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句;
所述语义提取模型通过以正样本对数据集和负样本对数据集作为训练集训练机器学习模型而得到,所述正样本对数据集通过下述方法构建:
收集第一语句集,对所述第一语句集进行无监督聚类以得到无监督聚类结果;
根据所述无监督聚类结果在所述第一语句集中提取目标语句集;
根据所述无监督聚类结果构建目标语句集对应的连通图;
根据连通图中的连通关系生成疑似正样本对集,所述疑似正样本对集中的每个疑似正样本对包括两个疑似正样本;
计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度,将相似度大于第一预设阈值的疑似正样本对确定为正样本对以得到正样本对数据集。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,包括:
根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度均大于预设阈值;
对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列;
将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
3.根据权利要求1所述的方法,其特征在于,还包括为所述语义库中每个语句及其对应的语义向量设置所述语义向量适配的相似度阈值,则所述根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求,包括:
根据所述第一语义向量在所述语义库中查询目标语义向量集,所述目标语义向量集中的目标语义向量与所述第一语义向量的相似度大于所述目标语义向量适配的相似度阈值;
对所述目标语义向量集中的目标语义向量按照相似度降序排列,以得到目标语义向量序列;
将所述目标语义向量序列中第一个目标语义向量确定为第二语义向量,将所述语义库中所述第二语义向量对应的语句确定为目标语句。
4.根据权利要求1所述的方法,其特征在于,所述机器学习模型包括:
双向循环神经网络和卷积神经网络,所述双向循环网络包括多个特征提取层和第一全连接层,各个特征提取层均与所述第一全连接层连接;所述卷积神经网络包括多个具有不同卷积核的卷积层、最大池化层和第二全连接层,所述卷积层、最大池化层和第二全连接层依次连接,所述卷积层还与所述双向循环网络中的最接近第一全连接层的特征提取层连接;所述第一全连接层和所述第二全连接层均与第三全连接层连接。
5.根据权利要求4所述的方法,其特征在于:
所述双向循环神经网络包括N个特征提取层;
所述卷积神经网络中包括M个卷积层,每个卷积层包括Q个卷积单元,每个卷积单元具有不同宽度的卷积核,其中第i(1≤i<M-1)个卷积层的卷积单元与第i+1个卷积层的卷积单元对应连接;所述最大池化层包括Q个最大池化单元,其中第M个卷积层的各个卷积单元与所述最大池化层的最大池化单元对应连接。
6.根据权利要求4所述的方法,其特征在于,所述正样本对数据集中的每个正样本对都具有第一预设标签,所述方法包括:
构建负样本对数据集,所述负样本对数据集中的每个负样本对都具有第二预设标签;
以结合负样例自定义间隔的余弦加权损失函数作为训练损失函数,以所述正样本对数据集和负样本对数据集作为训练集训练机器学习模型。
7.根据权利要求6所述的方法,其特征在于,所述构建负样本对数据集,包括:
收集第二语句集,对所述第二语句集进行无监督聚类以得到聚类结果,所述聚类结果中聚类中心的数量满足预设要求;
根据所述聚类结果构建聚类样本集,所述聚类样本集中包括多个聚类样本子集,每个聚类样本子集对应一个聚类中心,所述聚类样本子集中的语句与其对应的聚类中心的距离小于预设阈值;
将位于不同聚类样本子集中的语句进行两两组合以得到疑似负样本对集合;
计算所述疑似负样本对集合中的各个疑似负样本对中两个疑似负样本的相似度,将所述相似度小于第二预设阈值的疑似负样本对确定为负样本对,构建负样本对数据集。
8.一种人机交互装置,其特征在于,所述装置包括:
语料库获取模块,用于获取语料库,所述语料库中包括语句和所述语句对应的回复语句;
语义库生成模块,用于基于语义提取模型为所述语料库中的每个语句提取语义向量,生成语义库,所述语义库记录有语句及其对应的语义向量的映射关系;
第一语句获取模块,用于获取第一语句,基于所述语义提取模型提取所述第一语句的第一语义向量;
目标语句查询模块,用于根据所述第一语义向量在所述语义库中查询目标语句,所述目标语句对应的第二语义向量与所述第一语义向量的相似度满足预设要求;
回复模块,用于在所述语料库中查询到所述目标语句对应的目标回复语句,输出所述目标回复语句;
所述语义提取模型通过以正样本对数据集和负样本对数据集作为训练集训练机器学习模型而得到,所述正样本对数据集通过下述方法构建:
收集第一语句集,对所述第一语句集进行无监督聚类以得到无监督聚类结果;
根据所述无监督聚类结果在所述第一语句集中提取目标语句集;
根据所述无监督聚类结果构建目标语句集对应的连通图;
根据连通图中的连通关系生成疑似正样本对集,所述疑似正样本对集中的每个疑似正样本对包括两个疑似正样本;
计算所述疑似正样本对集中的各个疑似正样本对中的两个疑似正样本的相似度,将相似度大于第一预设阈值的疑似正样本对确定为正样本对以得到正样本对数据集。
9.一种计算机存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如权利要求1-7任一项所述的一种人机交互方法。
10.一种人机交互设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现权利要求1至7中任意一项所述的一种人机交互方法。
CN201910794930.1A 2019-08-27 2019-08-27 一种人机交互方法、装置、设备及介质 Active CN110674292B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910794930.1A CN110674292B (zh) 2019-08-27 2019-08-27 一种人机交互方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910794930.1A CN110674292B (zh) 2019-08-27 2019-08-27 一种人机交互方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN110674292A CN110674292A (zh) 2020-01-10
CN110674292B true CN110674292B (zh) 2023-04-18

Family

ID=69075595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910794930.1A Active CN110674292B (zh) 2019-08-27 2019-08-27 一种人机交互方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN110674292B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368554B (zh) * 2020-03-13 2023-07-28 深圳追一科技有限公司 语句处理方法、装置、计算机设备和存储介质
CN111598004B (zh) * 2020-05-18 2023-12-08 江苏星闪世图科技(集团)有限公司 一种渐进增强自学习的无监督跨领域行人再识别方法
CN111651988B (zh) * 2020-06-03 2023-05-19 北京百度网讯科技有限公司 用于训练模型的方法、装置、设备以及存储介质
CN111859985B (zh) * 2020-07-23 2023-09-12 上海华期信息技术有限责任公司 Ai客服模型测试方法、装置、电子设备及存储介质
CN112052395B (zh) * 2020-09-16 2024-03-22 北京搜狗科技发展有限公司 一种数据处理方法及装置
CN112507082A (zh) * 2020-12-16 2021-03-16 作业帮教育科技(北京)有限公司 一种智能识别不当文本交互的方法、装置和电子设备
CN113806487B (zh) * 2021-09-23 2023-09-05 平安科技(深圳)有限公司 基于神经网络的语义搜索方法、装置、设备和存储介质
CN114357973B (zh) * 2021-12-10 2023-04-07 马上消费金融股份有限公司 意图识别方法、装置、电子设备及存储介质
CN114596839A (zh) * 2022-03-03 2022-06-07 网络通信与安全紫金山实验室 一种端到端语音识别方法、系统及存储介质
CN114676227B (zh) * 2022-04-06 2023-07-18 北京百度网讯科技有限公司 样本生成方法、模型的训练方法以及检索方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399163A (zh) * 2018-03-21 2018-08-14 北京理工大学 结合词聚合与词组合语义特征的文本相似性度量方法
CN108962384A (zh) * 2018-07-03 2018-12-07 科大讯飞股份有限公司 一种决策结果确定方法、装置、设备及可读存储介质
CN109740126A (zh) * 2019-01-04 2019-05-10 平安科技(深圳)有限公司 文本匹配方法、装置及存储介质、计算机设备
CN110083693A (zh) * 2019-04-28 2019-08-02 腾讯科技(深圳)有限公司 机器人对话回复方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446782A (zh) * 2016-08-29 2017-02-22 北京小米移动软件有限公司 图像识别方法及装置
CN106547871B (zh) * 2016-10-31 2020-04-07 北京百度网讯科技有限公司 基于神经网络的搜索结果的召回方法和装置
JP6798032B2 (ja) * 2016-12-29 2020-12-09 華為技術有限公司Huawei Technologies Co.,Ltd. 地面環境検出方法及び機器
CN109522913B (zh) * 2017-09-18 2022-07-19 同方威视技术股份有限公司 检查方法和检查设备以及计算机可读介质
CN109033200B (zh) * 2018-06-29 2021-03-02 北京百度网讯科技有限公司 事件抽取的方法、装置、设备及计算机可读介质
CN109034147B (zh) * 2018-09-11 2020-08-11 上海唯识律简信息科技有限公司 基于深度学习和自然语言的光学字符识别优化方法和系统
CN109918491B (zh) * 2019-03-12 2022-07-29 焦点科技股份有限公司 一种基于知识库自学习的智能客服问句匹配方法
CN109918671B (zh) * 2019-03-12 2022-12-20 西南交通大学 基于卷积循环神经网络的电子病历实体关系抽取方法
CN109977207A (zh) * 2019-03-21 2019-07-05 网易(杭州)网络有限公司 对话生成方法、对话生成装置、电子设备及存储介质
CN110163262A (zh) * 2019-04-26 2019-08-23 深圳市腾讯计算机系统有限公司 模型训练方法、业务处理方法、装置、终端及存储介质
CN110162706B (zh) * 2019-05-22 2021-10-26 南京邮电大学 一种基于交互数据聚类的个性化推荐方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399163A (zh) * 2018-03-21 2018-08-14 北京理工大学 结合词聚合与词组合语义特征的文本相似性度量方法
CN108962384A (zh) * 2018-07-03 2018-12-07 科大讯飞股份有限公司 一种决策结果确定方法、装置、设备及可读存储介质
CN109740126A (zh) * 2019-01-04 2019-05-10 平安科技(深圳)有限公司 文本匹配方法、装置及存储介质、计算机设备
CN110083693A (zh) * 2019-04-28 2019-08-02 腾讯科技(深圳)有限公司 机器人对话回复方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王振海等.面向知乎的个性化推荐模型研究.计算机应用与软件.2018,37-41. *

Also Published As

Publication number Publication date
CN110674292A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
CN110674292B (zh) 一种人机交互方法、装置、设备及介质
CN112632385B (zh) 课程推荐方法、装置、计算机设备及介质
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN110147551B (zh) 多类别实体识别模型训练、实体识别方法、服务器及终端
CN110188272B (zh) 一种基于用户背景的社区问答网站标签推荐方法
CN110598206A (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN111444344B (zh) 实体分类方法、装置、计算机设备和存储介质
CN111078847A (zh) 电力用户意图识别方法、装置、计算机设备和存储介质
CN112016313B (zh) 口语化要素识别方法及装置、警情分析系统
KR102265573B1 (ko) 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템
CN110427560A (zh) 一种应用于推荐系统的模型训练方法以及相关装置
CN111382573A (zh) 用于答案质量评估的方法、装置、设备和存储介质
CN112148831B (zh) 图文混合检索方法、装置、存储介质、计算机设备
CN111858898A (zh) 基于人工智能的文本处理方法、装置及电子设备
CN110717021A (zh) 人工智能面试中获取输入文本和相关装置
CN112579752A (zh) 实体关系的抽取方法及装置、存储介质、电子设备
CN112200296A (zh) 网络模型量化方法、装置、存储介质及电子设备
CN110852071A (zh) 知识点检测方法、装置、设备及可读存储介质
CN114416929A (zh) 实体召回模型的样本生成方法、装置、设备及存储介质
CN113297351A (zh) 文本数据标注方法及装置、电子设备及存储介质
CN117194772B (zh) 一种基于用户标签的内容推送方法及装置
CN113535960A (zh) 一种文本分类方法、装置和设备
CN116561314B (zh) 基于自适应阈值选择自注意力的文本分类方法
CN110929532B (zh) 数据处理方法、装置、设备及存储介质
CN113536784A (zh) 文本处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40020348

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant