CN112766319A - 对话意图识别模型训练方法、装置、计算机设备及介质 - Google Patents

对话意图识别模型训练方法、装置、计算机设备及介质 Download PDF

Info

Publication number
CN112766319A
CN112766319A CN202011637063.XA CN202011637063A CN112766319A CN 112766319 A CN112766319 A CN 112766319A CN 202011637063 A CN202011637063 A CN 202011637063A CN 112766319 A CN112766319 A CN 112766319A
Authority
CN
China
Prior art keywords
sample data
dialogue
dialog
preset
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011637063.XA
Other languages
English (en)
Other versions
CN112766319B (zh
Inventor
王健宗
宋青原
吴天博
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011637063.XA priority Critical patent/CN112766319B/zh
Priority to PCT/CN2021/083953 priority patent/WO2022141864A1/zh
Publication of CN112766319A publication Critical patent/CN112766319A/zh
Application granted granted Critical
Publication of CN112766319B publication Critical patent/CN112766319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及语义解析技术领域,揭露了一种对话意图识别模型训练方法、装置、设备及介质。该方法通过将第一对话样本数据输入至基于ES检索构建的检索模型中确定增强样本数据;将第一对话样本数据以及增强样本数据输入至初始意图识别模型中,对第一对话样本数据以及增强样本数据进行增强意图识别,得到第一样本分布以及第二样本分布;根据第一样本分布及第二样本分布确定分布损失值,并根据各分布损失值确定初始意图识别模型的总损失值;在总损失值未达到预设的收敛条件时,更新迭代初始意图识别模型的第一初始参数,直至总损失值达到预设的收敛条件时,将收敛之后的初始意图识别模型记录为对话意图识别模型。本发明提高了意图识别模型的识别准确率。

Description

对话意图识别模型训练方法、装置、计算机设备及介质
技术领域
本发明涉及语义解析技术领域,尤其涉及一种对话意图识别模型训练方法、装置、计算机设备及介质。
背景技术
随着科学技术的发展,自然语言处理技术领域也快速发展,例如自然语言处理技术领域可以应用于智能多轮对话系统、文本相似度判定系统等系统中。其中,智能多轮对话系统需要根据客户的对话内容识别其意图,该意图用于后续的流程控制以及对话生成,因此意图识别是智能多轮对话中的关键技术。
现有技术中,意图识别常常会采用意图识别模型进行意图提取,对于意图识别模型的训练需要采用带有标签的数据,而现有的带有标签的数据需要从历史对话信息中筛选得到后,通过人为标注的方法进行标签标注,但是,通过该方式得到的已标注标签的数据量往往不够充足,进而导致意图识别模型无法得到完整充分的训练,从而使得意图识别模型的准确率较低。
发明内容
本发明实施例提供一种对话意图识别模型训练方法、装置、计算机设备及介质,以解决由于已标注标签的数据量不充足,导致意图识别模型的准确率较低的问题。
一种对话意图识别模型训练方法,包括:
获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
一种对话意图识别模型训练装置,包括:
对话样本数据集获取模块,用于获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
增强样本数据确定模块,用于将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
增强意图识别模块,用于将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
总损失值确定模块,用于根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
第一参数更新模块,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述对话意图识别模型训练方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述对话意图识别模型训练方法。
上述对话意图识别模型训练方法、装置、计算机设备及介质,通过获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
本发明通过基于ES检索构建的检索模型确定与第一对话样本数据对应的增强样本数据,通过如此数据增强方式,提高了不具有对话意图标签的第一对话样本数据的利用率,同时,避免了现有技术中采用同义词替换、回译等数据增强方式带来的额外噪音,提高了模型训练的效率以及模型意图识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中对话意图识别模型训练方法的一应用环境示意图;
图2是本发明一实施例中对话意图识别模型训练方法的一流程图;
图3是本发明一实施例中对话意图识别模型训练方法中步骤S20的一流程图;
图4是本发明一实施例中对话意图识别模型训练方法中步骤S205的一流程图;
图5是本发明一实施例中对话意图识别模型训练方法的另一流程图;
图6是本发明一实施例中对话意图识别模型训练装置的一原理框图;
图7是本发明一实施例中对话意图识别模型训练装置的另一原理框图;
图8是本发明一实施例中对话意图识别模型训练装置中增强样本数据确定模块的一原理框图;
图9是本发明一实施例中对话意图识别模型训练装置中增强样本数据确定单元的一原理框图;
图10是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的对话意图识别模型训练方法,该对话意图识别模型训练方法可应用如图1所示的应用环境中。具体地,该对话意图识别模型训练方法应用在对话意图识别模型训练系统中,该对话意图识别模型训练系统包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于解决由于已标注标签的数据量不充足,导致意图识别模型的准确率较低的问题。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种对话意图识别模型训练方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
可以理解地,第一对话样本数据为不具有预先通过人工标注的对话意图标签的数据;一般地,在有监督学习中需要大量的人工标注数据进行模型训练学习,但是人工标注数据需求量很大,通过人工进行标注的方法浪费时间,且无法输出庞大的标注数据,因此本发明需要解决的其中一个问题就是缺乏有标注数据的情况下,如何对模型进行更加精确,快速的训练学习。进一步地,该第一对话样本数据可以根据不同场景进行选取,在本实施例中,第一对话样本数据可以为对智能多轮对话系统中的对话信息进行提取得到。
S20:将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
其中,基于ES(Elasticsearch,搜索服务器)检索构建的检索模型指的是该模型中采用的是ES检索工具构建,且用于检索与第一对话样本数据相似性高的句子,该ES检索工具携带一个ES库,该ES库中存储多个样本数据。可以理解地,由于具有对话意图标签的样本数据较少,为了提高模型的意图识别准确率以及泛化能力,本发明中提出采用基于ES检索构建的检索模型,确定与所述第一对话样本数据对应的增强样本数据集,进而从增强样本数据集中选取与第一对话样本数据对应的增强样本数据,以将第一对话样本数据与各增强样本数据输入至步骤S30中的初始意图识别模型中进行训练,解决具有对话意图标签的样本数据较少,导致模型训练准确率较低的问题。
在一实施例中,如图3所示,步骤S20中,包括:
S201:将所述第一对话样本数据输入至所述检索模型中,对所述第一对话样本数据进行向量编码处理,得到与所述第一对话样本数据对应的对话编码向量;
具体地,在获取预设对话样本数据集之后,将预设对话样本数据集中的第一对话样本数据输入至基于ES检索构建的检索模型中,通过基于ES检索构建的检索模型中的神经网络编码器对第一对话样本数据进行编码处理,得到与所述第一对话样本数据对应的对话编码向量。其中,该神经网络编码器可以为基于LSTM(Long Short-Term Memory,长短期记忆网络)或者BiLSTM(Bi-directional Long Short-Term Memory,双向长短期记忆网络)神经网络构建的神经网络编码器。
S202:自所述检索模型的检索数据库中获取所有检索对话向量,并确定所述对话编码向量与各所述检索对话向量之间的向量编辑距离;一个所述检索对话向量关联一个检索样本句子;
可以理解地,在检索模型的检索数据库中存储多个检索样本句子关联的检索对话向量,该检索数据库中的检索对话向量可以预先通过编码器(如基于LSTM或者BiLSTM神经网络构建的神经网络编码器)对检索样本句子进行向量编码得到,该检索样本句子也可以为对智能多轮对话系统中各个用户的对话信息进行爬取得到的。
进一步地,在将所述第一对话样本数据输入至所述检索模型中,对所述第一对话样本数据进行向量编码处理,得到与所述第一对话样本数据对应的对话编码向量之后,自所述检索模型的检索数据库中获取所有检索对话向量,并确定对话编码向量与各检索对话向量之间的向量编辑距离,该向量编辑距离表征将检索对话向量转换成对话编码向量最少编辑次数,也即向量编辑距离越小,表征对话编码向量与检索对话向量之间相似度越大。
S203:将各所述向量编辑距离与预设距离阈值进行比较,并将小于或等于预设距离阈值的向量编辑距离关联的检索句子,记录为待选取样本数据;
S204:根据所有所述待选取样本数据构建所述增强样本数据集。
其中,预设距离阈值可以根据具体应用场景进行选择,若场景下对意图识别要求较高,该预设距离阈值可以设置为0.05、0.1等。
具体地,在自所述检索模型的检索数据库中获取所有检索对话向量,并确定所述对话编码向量与各所述检索对话向量之间的向量编辑距离之后,将各向量编辑距离与预设距离阈值进行比较,将小于或等于预设距离阈值的向量编辑距离关联的检索句子,记录为待选取样本数据。
进一步地,步骤S204之后,还包括:
S025:获取预设扩充倍数值,自所述增强样本数据集中根据所述预设扩充倍数值选取预设数值的待选取样本数据,并将选取的所述待选取样本数据记录为所述增强样本数据。
示例性地,假设需要将第一对话样本数据扩充至十个第一对话样本数据,则该预设扩充倍数值为10倍,预设数值指的是为了达到预设扩充倍数值的要求,除原始第一对话样本数据之外还需要扩充的增强样本数据的数量,也即如上述距离,预设扩充倍数值为10倍时,增强样本数据的预设数值则为9个。
在一具体实施例中,如图4所示,步骤S205中,包括:
S2051:将所述待选取样本数据按照所述向量编辑距离从小到大的顺序插入待选取序列中;
具体地,在根据所有所述待选取样本数据构建所述增强样本数据集之后,将各待选取样本数据按照对应的向量编辑距离从小到大的顺序插入待选取序列中,可以理解地,在待选取序列中,排序第一位的为向量编辑距离最小的待选取样本数据,排序在最后一位的为向量编辑距离最大的待选区样本数据。
S2052:将所述预设扩充倍数值与1之间的差值记录为所述预设数值;
S2053:自所述待选取序列中选取序列在前的预设数值的待选取样本数据,并将选取的待选取样本数据记录为所述增强样本数据。
可以理解地,本实施例中,由于具有对话意图标签的第二对话数据过少,进而在通过采用不具有对话意图标签的第一对话数据进行训练时,需要对每一个第一对话数据进行数据增强,也即需要对每一个第一对话数据进行扩充,进而将一个第一对话数据看做一个待扩充对象,进而提高初始意图识别模型的泛化能力。示例性地,需要将该第一对话数据从1个数据扩充至10个数据,则该预设扩充倍数值即为10倍,进而除去第一对话数据本身,还应该扩充9个待选取样本数据,因此表征预设扩充倍数值与预设数值之间的差值即为1。
进一步地,在确定预设数值之后,自步骤S2051中得到的待选取序列中,选取序列在前的预设数值的待选取样本数据,并将选取的待选取样本数据记录为增强样本数据。可以理解地,在步骤S2051中指出通过向量编辑距离从小到大的顺序插入待选取序列中,因此序列在前的待选取样本数据对应的检索对话向量与对话编码向量之间的向量编辑距离较小,进而从序列最小的开始选取,选取预设数值的待选取样本数据作为增强样本数据。示例性地,假设第一对话样本数据为“我在忙呢,正在开车”,对应的增强样本数据可以为“我在开车晚点再聊”亦或者“我在开车不方便沟通”等。
S30:将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
可以理解地,增强意图识别指的是通过自然语言理解技术进行识别的方法,该自然语言理解技术为通过对输入的第一对话样本数据或者增强样本数据,进行词法分析、句法分析、语义分析从而提取出语义特征,最后根据提取的语义特征分析出与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布。
进一步地,在本实施例中,初始意图识别模型可以为各类文本分类模型,例如GMM(Gaussian Mixture Model,高斯混合)文本主题模型,进而在将第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中之后,对第一对话样本数据以及增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布。
S40:根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
具体地,在将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布之后,根据所述第一样本分布以及所述第二样本分布确定分布损失值。进一步地,与第一对话样本数据对应的增强样本数据的数量为至少一个,进而根据第一样本分布与各第二样本分布的分布损失值确定初始意图识别模型的总损失值。
进一步地,可以通过KL散度确定初始意图识别模型的总损失值:
Figure BDA0002876785970000111
其中,KL(p||q)为总损失值;p(xi)为与预设对话样本数据集中第x个第一对话样本数据对应的第i个增强样本数据的第二样本分布;q(x)为预设对话样本数据集中第x个第一对话样本数据对应的第一样本分布。
S50:在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
可以理解地,该收敛条件可以为总损失值小于设定阈值的条件,也即在总损失值小于设定阈值时,停止训练;收敛条件还可以为总损失值经过了10000次计算后值为很小且不会再下降的条件,也即总损失值经过10000次计算后值很小且不会下降时,停止训练,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
进一步地,根据所述第一对话样本数据对应的第一样本分布,以及与该第一对话样本数据对应的各增强样本数据的第二样本分布,确定所述初始意图识别模型的总损失值之后,在总损失值未达到预设的收敛条件时,根据该总损失值调整初始意图识别模型的第一初始参数,并将该第一对话样本数据以及对应的增强样本数据重新输入至调整第一初始参数后的初始意图识别模型中,以在该第一对话样本数据和增强样本数据对应的总损失值达到预设的收敛条件时,选取预设对话样本数据集中另一个第一对话样本数据,并执行上述步骤S10至S40,并得到与该第一对话样本数据对应的总损失值,并在该总损失值未达到预设的收敛条件时,根据该总损失值再次调整初始意图识别模型的第一初始参数,使得该第一对话样本数据对应的总损失值达到预设的收敛条件。
如此,在通过预设对话样本数据集中所有第一对话样本数据对初始意图识别模型进行训练之后,使得初始意图识别模型输出的结果可以不断向准确地结果靠拢,让识别准确率越来越高,直至所有第一对话样本数据对应的总损失值均达到预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
在本实施例中,通过基于ES检索构建的检索模型确定与第一对话样本数据对应的增强样本数据,通过如此数据增强方式,提高了不具有对话意图标签的第一对话样本数据的利用率,也解决了现有技术中由于已标注标签的数据量不充足,导致意图识别模型的准确率较低的问题。同时,避免了现有技术中采用同义词替换、回译等数据增强方式带来的额外噪音,提高了模型训练的效率以及模型意图识别的准确率。
在另一具体实施例中,为了保证上述实施例中的对话意图识别模型的私密以及安全性,可以将对话意图识别模型存储在区块链中。其中,区块链(Blockchain),是由区块(Block)形成的加密的、链式的交易的存储结构。
例如,每个区块的头部既可以包括区块中所有交易的哈希值,同时也包含前一个区块中所有交易的哈希值,从而基于哈希值实现区块中交易的防篡改和防伪造;新产生的交易被填充到区块并经过区块链网络中节点的共识后,会被追加到区块链的尾部从而形成链式的增长。
在一实施例中,所述对话样本数据集中还包含至少一个具有所述对话意图标签的第二对话样本数据;如图5所示,步骤S30之前,也即将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中之前,包括:
S60:将所述第二对话样本数据输入至包含第二初始参数的预设识别模型中,通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签;一个所述标注预测标签关联一个标签预测概率;
可以理解地,一个标注预测标签表征一个与第二对话样本数据对应的意图,也即针对于一个第二对话样本数据,在对第二对话样本数据进行意图识别时,可能会识别出与第二对话样本数据相关的至少一个意图,因此针对于识别出的每一个意图,对其打上相对应的标注预测标签。进一步地,针对于一个第二对话样本数据,虽然可以识别出至少一个意图,但是每一个意图识别出的概率是不同的,因此一个标注预测标签关联一个标签预测概率,也即第二对话样本属于标注预测标签的意图范围的概率为标签预测概率。
进一步地,第二对话样本数据具有的对话意图标签为通过预先对第二对话样本数据进行人工标注得到。
S70:根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值;
具体地,在将所述第二对话样本数据输入至包含第二初始参数的预设识别模型中,通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签之后,根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值。
在一实施例中,步骤S70中,包括:
根据各所述标注预测标签与所述对话意图标签,确定与各所述标注预测标签对应的标注预测结果;
可以理解地,在通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签之后,需要将各标注预测标签与对话意图标签进行比对,将与对话意图标签相符的标注预测标签确定为与对话意图标签类别相同的标签,与对话意图标签不相符的标注预测标签确定与对话意图标签类别不相同的标签,进而与对话意图标签类别相同的标签对应的标注预测结果为1;与对话意图标签类别不相同的标签的标注预测结果为0。
根据各所述标注预测结果以及与各所述标注预测结果对应的所述标签预测概率,通过交叉熵损失函数确定所述预设识别模型的预测损失值。
具体地,可以通过下述交叉熵损失函数确定预测损失值:
Figure BDA0002876785970000141
其中,L1指的是预测损失值;N指的是所有第二对话样本数据的数量;M为与第i个第二对话样本数据对应的标注预测标签的数量;yic为第i个第二对话样本数据的第c个标注预测标签对应的标注预测结果;pic为第i个第二对话样本数据的第c个标注预测标签对应的标签预测概率。
S80:在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为所述初始意图识别模型。
可以理解地,该收敛条件可以为预测损失值小于设定阈值的条件,也即在预测损失值小于设定阈值时,停止训练;收敛条件还可以为预测损失值经过了10000次计算后值为很小且不会再下降的条件,也即预测损失值经过10000次计算后值很小且不会下降时,停止训练,将收敛之后的所述预设识别模型记录为所述初始识别模型。
进一步地,根据根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值,确定所述预设识别模型的预测损失值之后,在预测损失值未达到预设的收敛条件时,根据该预测损失值调整预设识别模型的第二初始参数,并将该第二对话样本数据重新输入至调整第二初始参数后的预设识别模型中,以在该第二对话样本数据对应的预测损失值达到预设的收敛条件时,选取预设对话样本数据集中另一个第二对话样本数据,并执行上述步骤S60至S70,并得到与该第二对话样本数据对应的预测损失值,并在该预测损失值未达到预设的收敛条件时,根据该预测损失值再次调整预设识别模型的第二初始参数,使得该第二对话样本数据对应的预测损失值达到预设的收敛条件。
如此,在通过预设对话样本数据集中所有第二对话样本数据对预设识别模型进行训练之后,使得预设识别模型输出的结果可以不断向准确地结果靠拢,让识别准确率越来越高,直至所有第二对话样本数据对应的预测损失值均达到预设的收敛条件时,将收敛之后的所述预设识别模型记录为所述初始识别模型。
在本实施例中,仅需要通过少量的具有对话意图标签的第二对话样本数据训练得到初始识别模型,使得在通过具有对话意图标签的第二对话样本数据训练的基础上,再通过上述实施例中的不具有对话意图标签的第一对话样本数据以及对应的增强样本数据,对初始识别模型进行训练,极大的减少了人工标注的工作量。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种对话意图识别模型训练装置,该对话意图识别模型训练装置与上述实施例中对话意图识别模型训练方法一一对应。如图6所示,该对话意图识别模型训练装置包括对话样本数据集获取模块10、增强样本数据确定模块20、增强意图识别模块30、总损失值确定模块40和第一参数更新模块50。各功能模块详细说明如下:
对话样本数据集获取模块10,用于获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
增强样本数据确定模块20,用于将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
增强意图识别模块30,用于将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
总损失值确定模块40,用于根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
第一参数更新模块50,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
优选地,如图7所示,对话意图识别模型训练装置还包括:
标注意图识别模块60,用于将所述第二对话样本数据输入至包含第二初始参数的预设识别模型中,通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签;一个所述标注预测标签关联一个标签预测概率;
预测损失值确定模块70,用于根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值;
第二参数更新模块80,用于在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为所述初始意图识别模型。
优选地,预测损失值确定模块70包括:
标注预测结果确定单元,用于根据各所述标注预测标签与所述对话意图标签,确定与各所述标注预测标签对应的标注预测结果;
预测损失值确定单元,用于根据各所述标注预测结果以及与各所述标注预测结果对应的所述标签预测概率,通过交叉熵损失函数确定所述预设识别模型的预测损失值。
优选地,如图8所示,增强样本数据确定模块20包括:
向量编码处理单元201,用于将所述第一对话样本数据输入至所述检索模型中,对所述第一对话样本数据进行向量编码处理,得到与所述第一对话样本数据对应的对话编码向量;
向量编辑距离确定单元202,用于自所述检索模型的检索数据库中获取所有检索对话向量,并确定所述对话编码向量与各所述检索对话向量之间的向量编辑距离;一个所述检索对话向量关联一个检索样本句子;
边际距离比较单元203,用于将各所述向量编辑距离与预设距离阈值进行比较,并将小于或等于预设距离阈值的向量编辑距离关联的检索句子,记录为待选取样本数据;
增强样本数据集构建单元204,用于根据所有所述待选取样本数据构建所述增强样本数据集。
优选地,如图8所示,增强样本数据确定模块20还包括:
增强样本数据确定单元205,用于获取预设扩充倍数值,自所述增强样本数据集中根据所述预设扩充倍数值选取预设数值的待选取样本数据,并将选取的所述待选取样本数据记录为所述增强样本数据。
优选地,如图9所示,增强样本数据确定单元205包括:
数据序列插入子单元2051,用于将所述待选取样本数据按照所述向量编辑距离从小到大的顺序插入待选取序列中;
预设数值确定子单元2052,用于将所述预设扩充倍数值与1之间的差值记录为所述预设数值;
增强样本数据选取子单元2053,用于自所述待选取序列中选取序列在前的预设数值的待选取样本数据,并将选取的待选取样本数据记录为所述增强样本数据。
关于对话意图识别模型训练装置的具体限定可以参见上文中对于对话意图识别模型训练方法的限定,在此不再赘述。上述对话意图识别模型训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述实施例中对话意图识别模型训练方法。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种对话意图识别模型训练方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中对话意图识别模型训练方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中意图识别模型训练方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种对话意图识别模型训练方法,其特征在于,包括:
获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
2.如权利要求1所述的对话意图识别模型训练方法,其特征在于,所述对话样本数据集中还包含至少一个具有所述对话意图标签的第二对话样本数据;所述将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中之前,包括:
将所述第二对话样本数据输入至包含第二初始参数的预设识别模型中,通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签;一个所述标注预测标签关联一个标签预测概率;
根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值;
在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为所述初始意图识别模型。
3.如权利要求2所述的对话意图识别模型训练方法,其特征在于,所述根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值,包括:
根据各所述标注预测标签与所述对话意图标签,确定与各所述标注预测标签对应的标注预测结果;
根据各所述标注预测结果以及与各所述标注预测结果对应的所述标签预测概率,通过交叉熵损失函数确定所述预设识别模型的预测损失值。
4.如权利要求1所述的对话意图识别模型训练方法,其特征在于,将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据相似的增强样本数据集,包括:
将所述第一对话样本数据输入至所述检索模型中,对所述第一对话样本数据进行向量编码处理,得到与所述第一对话样本数据对应的对话编码向量;
自所述检索模型的检索数据库中获取所有检索对话向量,并确定所述对话编码向量与各所述检索对话向量之间的向量编辑距离;一个所述检索对话向量关联一个检索样本句子;
将各所述向量编辑距离与预设距离阈值进行比较,并将小于或等于预设距离阈值的向量编辑距离关联的检索句子,记录为待选取样本数据;
根据所有所述待选取样本数据构建所述增强样本数据集。
5.如权利要求4所述的对话意图识别模型训练方法,其特征在于,所述根据所有所述待选取样本数据构建所述增强样本数据集之后,还包括:
获取预设扩充倍数值,自所述增强样本数据集中根据所述预设扩充倍数值选取预设数值的待选取样本数据,并将选取的所述待选取样本数据记录为所述增强样本数据。
6.如权利要求5所述的对话意图识别模型训练方法,其特征在于,所述获取预设扩充倍数值,自所述增强样本数据集中根据所述预设扩充倍数值选取预设数值的待选取样本数据,并将选取的所述待选取样本数据记录为所述增强样本数据,包括:
将所述待选取样本数据按照所述向量编辑距离从小到大的顺序插入待选取序列中;
将所述预设扩充倍数值与1之间的差值记录为所述预设数值;
自所述待选取序列中选取序列在前的预设数值的待选取样本数据,并将选取的待选取样本数据记录为所述增强样本数据。
7.一种对话意图识别模型训练装置,其特征在于,包括:
对话样本数据集获取模块,用于获取预设对话样本数据集;所述对话样本数据集中包含至少一个不具有对话意图标签的第一对话样本数据;
增强样本数据确定模块,用于将所述第一对话样本数据输入至基于ES检索构建的检索模型中,确定与所述第一对话样本数据对应的增强样本数据集;所述增强样本数据集中包括至少一个增强样本数据;
增强意图识别模块,用于将所述第一对话样本数据以及所述增强样本数据输入至包含第一初始参数的初始意图识别模型中,对所述第一对话样本数据以及所述增强样本数据进行增强意图识别,得到与所述第一对话样本数据对应的第一样本分布,以及与所述增强样本数据对应的第二样本分布;
总损失值确定模块,用于根据所述第一样本分布以及所述第二样本分布确定分布损失值,并根据各所述分布损失值确定所述初始意图识别模型的总损失值;
第一参数更新模块,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述初始意图识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述初始意图识别模型记录为对话意图识别模型。
8.如权利要求7所述的对话意图识别模型训练装置,其特征在于,所述对话样本数据集中还包含至少一个具有所述对话意图标签的第二对话样本数据;所述对话意图识别模型训练装置还包括:
标注意图识别模块,用于将所述第二对话样本数据输入至包含第二初始参数的预设识别模型中,通过所述预设识别模型对所述第二对话样本数据进行标注意图识别,得到与所述第二对话样本数据对应的各标注预测标签;一个所述标注预测标签关联一个标签预测概率;
预测损失值确定模块,用于根据各所述标注预测标签、与各所述标注预测标签对应的标签预测概率以及所述对话意图标签,确定所述预设识别模型的预测损失值;
第二参数更新模块,用于在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为所述初始意图识别模型。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述对话意图识别模型训练方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述对话意图识别模型训练方法。
CN202011637063.XA 2020-12-31 2020-12-31 对话意图识别模型训练方法、装置、计算机设备及介质 Active CN112766319B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011637063.XA CN112766319B (zh) 2020-12-31 2020-12-31 对话意图识别模型训练方法、装置、计算机设备及介质
PCT/CN2021/083953 WO2022141864A1 (zh) 2020-12-31 2021-03-30 对话意图识别模型训练方法、装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011637063.XA CN112766319B (zh) 2020-12-31 2020-12-31 对话意图识别模型训练方法、装置、计算机设备及介质

Publications (2)

Publication Number Publication Date
CN112766319A true CN112766319A (zh) 2021-05-07
CN112766319B CN112766319B (zh) 2024-06-21

Family

ID=75698053

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011637063.XA Active CN112766319B (zh) 2020-12-31 2020-12-31 对话意图识别模型训练方法、装置、计算机设备及介质

Country Status (2)

Country Link
CN (1) CN112766319B (zh)
WO (1) WO2022141864A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256434A (zh) * 2021-06-08 2021-08-13 平安科技(深圳)有限公司 车险理赔行为识别方法、装置、设备及存储介质
CN113469237A (zh) * 2021-06-28 2021-10-01 平安科技(深圳)有限公司 用户意图识别方法、装置、电子设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115114407B (zh) * 2022-07-12 2024-04-19 平安科技(深圳)有限公司 意图识别方法、装置、计算机设备及存储介质
CN116776887B (zh) * 2023-08-18 2023-10-31 昆明理工大学 一种基于样本相似性计算的负采样远程监督实体识别方法
CN117523565B (zh) * 2023-11-13 2024-05-17 拓元(广州)智慧科技有限公司 尾部类样本标注方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111061847A (zh) * 2019-11-22 2020-04-24 中国南方电网有限责任公司 对话生成及语料扩充方法、装置、计算机设备和存储介质
CN111061850A (zh) * 2019-12-12 2020-04-24 中国科学院自动化研究所 基于信息增强的对话状态跟踪方法、系统、装置
CN111161740A (zh) * 2019-12-31 2020-05-15 中国建设银行股份有限公司 意图识别模型训练方法、意图识别方法以及相关装置
US20200312298A1 (en) * 2019-03-27 2020-10-01 Adobe Inc. Generating ground truth annotations corresponding to digital image editing dialogues for training state tracking models
CN111831826A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 跨领域的文本分类模型的训练方法、分类方法以及装置
CN112069302A (zh) * 2020-09-15 2020-12-11 腾讯科技(深圳)有限公司 会话意图识别模型的训练方法、会话意图识别方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2721190C1 (ru) * 2018-12-25 2020-05-18 Общество с ограниченной ответственностью "Аби Продакшн" Обучение нейронных сетей с использованием функций потерь, отражающих зависимости между соседними токенами
CN111198938B (zh) * 2019-12-26 2023-12-01 深圳市优必选科技股份有限公司 一种样本数据处理方法、样本数据处理装置及电子设备
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200312298A1 (en) * 2019-03-27 2020-10-01 Adobe Inc. Generating ground truth annotations corresponding to digital image editing dialogues for training state tracking models
CN111061847A (zh) * 2019-11-22 2020-04-24 中国南方电网有限责任公司 对话生成及语料扩充方法、装置、计算机设备和存储介质
CN111061850A (zh) * 2019-12-12 2020-04-24 中国科学院自动化研究所 基于信息增强的对话状态跟踪方法、系统、装置
CN111161740A (zh) * 2019-12-31 2020-05-15 中国建设银行股份有限公司 意图识别模型训练方法、意图识别方法以及相关装置
CN111831826A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 跨领域的文本分类模型的训练方法、分类方法以及装置
CN112069302A (zh) * 2020-09-15 2020-12-11 腾讯科技(深圳)有限公司 会话意图识别模型的训练方法、会话意图识别方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256434A (zh) * 2021-06-08 2021-08-13 平安科技(深圳)有限公司 车险理赔行为识别方法、装置、设备及存储介质
CN113469237A (zh) * 2021-06-28 2021-10-01 平安科技(深圳)有限公司 用户意图识别方法、装置、电子设备及存储介质
CN113469237B (zh) * 2021-06-28 2023-09-15 平安科技(深圳)有限公司 用户意图识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2022141864A1 (zh) 2022-07-07
CN112766319B (zh) 2024-06-21

Similar Documents

Publication Publication Date Title
CN110765265B (zh) 信息分类抽取方法、装置、计算机设备和存储介质
CN111160017B (zh) 关键词抽取方法、话术评分方法以及话术推荐方法
US10963637B2 (en) Keyword extraction method, computer equipment and storage medium
CN110765763B (zh) 语音识别文本的纠错方法、装置、计算机设备和存储介质
CN111581229B (zh) Sql语句的生成方法、装置、计算机设备及存储介质
CN112766319B (zh) 对话意图识别模型训练方法、装置、计算机设备及介质
WO2022142613A1 (zh) 训练语料扩充方法及装置、意图识别模型训练方法及装置
CN113157863B (zh) 问答数据处理方法、装置、计算机设备及存储介质
CN111666401B (zh) 基于图结构的公文推荐方法、装置、计算机设备及介质
CN112101041B (zh) 基于语义相似度的实体关系抽取方法、装置、设备及介质
CN111553164A (zh) 命名实体识别模型的训练方法、装置、计算机设备
CN111062215A (zh) 基于半监督学习训练的命名实体识别方法和装置
CN112380837B (zh) 基于翻译模型的相似句子匹配方法、装置、设备及介质
CN111444723A (zh) 信息抽取模型训练方法、装置、计算机设备和存储介质
CN111859916B (zh) 古诗关键词提取、诗句生成方法、装置、设备及介质
CN112699923A (zh) 文档分类预测方法、装置、计算机设备及存储介质
CN112733539A (zh) 面试实体识别模型训练、面试信息实体提取方法及装置
CN112580346A (zh) 事件抽取方法、装置、计算机设备和存储介质
CN111400340B (zh) 一种自然语言处理方法、装置、计算机设备和存储介质
CN112580329B (zh) 文本噪声数据识别方法、装置、计算机设备和存储介质
CN112732884A (zh) 目标回答语句生成方法、装置、计算机设备和存储介质
CN111898339A (zh) 基于约束解码的古诗生成方法、装置、设备及介质
CN117093682A (zh) 意图识别方法、装置、计算机设备及存储介质
CN109344385B (zh) 自然语言处理方法、装置、计算机设备和存储介质
CN115860002A (zh) 一种基于事件抽取的作战任务生成方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40045443

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant