CN113420542B - 对话生成方法、装置、电子设备及存储介质 - Google Patents
对话生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113420542B CN113420542B CN202110698815.1A CN202110698815A CN113420542B CN 113420542 B CN113420542 B CN 113420542B CN 202110698815 A CN202110698815 A CN 202110698815A CN 113420542 B CN113420542 B CN 113420542B
- Authority
- CN
- China
- Prior art keywords
- training
- model
- reply
- content
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及语音语义技术,揭露一种对话生成方法,包括:将获取的原始对话划分为提问内容和回复内容;提取回复内容的关键词,根据关键词设置条件标签;利用提问内容以及回复内容构建训练数据,将条件标签向量化后对预构建的生成式预训练模型进行参数设置,并使用训练数据对生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较,得到训练完成的生成式预训练模型;接收用户的提问,利用训练完成的生成式预训练模型生成所述提问对应的回复。本发明还提出一种对话生成装置、设备及存储介质。本发明还涉及区块链技术,所述训练数据可存储于区块链节点中。本发明可以提高对话生成的准确性。
Description
技术领域
本发明涉及语音语义领域,尤其涉及一种对话生成方法、装置、电子设备及计算机可读存储介质。
背景技术
基于生成式语言模型的对话生成技术可以根据历史对话获取用户的潜在意图并生成相应回复,根据此对话生成技术构建的任务导向型对话系统能够分析对话内容完成具体的任务,例如根据和用户的对话为用户寻找需求的商品,为用户预定酒店等。
但现有的生成式语言模型由于对话生成技术的规则设定过于复杂,需要大量的人力成本,并且无法穷举用户的所有需求,并且由于对话生成技术的规则在提高生成式语言模型的泛用性的同时无法保证回复明确性的问题,容易产生较为无关紧要的,不明确的回复。
发明内容
本发明提供一种对话生成方法、装置、电子设备及计算机可读存储介质,其主要目的在于精准性的实现对话生成。
为实现上述目的,本发明提供的一种对话生成方法,包括:
获取原始对话数据,并将所述原始对话划分为提问内容和回复内容;
提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签;
利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签;
利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较;
根据比较结果判断所述训练结果是否满足预设的条件;
当所述训练结果不满足预设的条件时,返回利用所述条件向量标签对预构建的生成式预训练模型进行参数设置的步骤;
当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型;
接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
可选地,所述利用所述提问内容以及所述回复内容构建训练数据,包括:
设置所述提问内容的提问标识符;
设置所述回复内容的回复标识符;
利用所述提问标识符、所述提问内容、所述回复标识符、及所述回复内容构建所述训练数据。
可选地,所述将所述条件标签向量化,得到条件向量标签,包括:
利用预设的嵌入网络将所述条件标签映射为条件向量;
利用预设的全连接网络将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
可选的,所述利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,包括:
构建包含归一化算法的生成式预训练模型;
根据所述条件向量标签对所述归一化算法进行参数更新。
可选地,所述根据比较结果判断所述训练结果是否满足预设的条件,包括:
判断所述训练结果和所述训练数据的相似度是否满足预设相似度阈值;
当所述训练结果和所述训练数据的相似度满足所述相似度阈值时,判断所述训练结果满足预设的条件;
当所述训练结果和所述训练数据的相似度不满足所述相似度阈值时,判断所述训练结果不满足预设的条件。
可选地,所述提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签,包括:
利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词;
将所述回复内容的关键词记作所述回复内容的条件标签。
可选地,所述利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词之前还包括:
接收训练完成的语言处理模型,修改所述语言处理模型的输出层,得到初始关键词提取模型;
接收训练文本集,对所述训练文本集执行分句操作,得到训练语段集;
接收用户在所述训练语段集中添加的关键词标签集;
利用所述训练短语集及所述关键词标签集,训练所述初始关键词提取模型,得到训练完成的关键词提取模型。
为了解决上述问题,本发明还提供一种对话生成装置,所述装置包括:
对话获取模块,用于获取原始对话数据,并将所述原始对话划分为提问内容和回复内容;
标签向量化模块,用于提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签,利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签;
训练结果生成模块,用于利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并利用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较;
模型获取模块,用于根据比较结果判断所述训练结果是否满足预设的条件,当所述训练结果不满足预设的条件时,对所述生成式预训练模型进行循环迭代,当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型;
回复对话生成模块,用于接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的对话生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如上所述的对话生成方法。
本发明实施例中,将获取的原始对话划分为提问内容和回复内容,并提取回复内容的关键词,再根据关键词设置条件标签,利用提问内容以及回复内容构建训练数据,将条件标签向量化后对预构建的生成式预训练模型进行参数设置,并将训练数据输入生成式预训练模型中,将回复内容作为监督信号对模型训练过程进行监督,可以提高生成式预训练模型的准确性。因此,本发明实施例利用采用上述方法训练完成的生成式预训练模型生成提问对应的回复,能够提高对话生成的准确性。
附图说明
图1为本发明一实施例提供的一种对话生成方法的流程示意图;
图2为本发明一实施例提供的对话生成装置的模块示意图;
图3为本发明一实施例提供的实现对话生成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种对话生成方法。所述对话生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述对话生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的一种对话生成方法的流程示意图。在本实施例中,所述对话生成方法包括:
S1、获取原始对话数据,并将所述原始对话划分为提问内容和回复内容。
本发明实施例中,所述原始对话数据可以是用户输入的对话数据,也可以是通过计算机中进行模拟生成的。所述原始对话数据包括提问内容和回复内容。
例如,所述原始对话数据为“帮我订一间附近的五星酒店房间,请问订哪天的房间呢”,则提问内容为“帮我订一间附近的五星酒店房间”,回复内容为“请问订哪天的房间呢”。
S2、提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签。
本发明实施例中,可利用人工标注员从回复内容中提取出关键字,进而得到条件标签,或利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词。
进一步地,所述利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词之前,本发明实施例还可以包括:
接收训练完成的语言处理模型,修改所述语言处理模型的输出层,得到初始关键词提取模型;
接收训练文本集,对所述训练文本集执行分句操作,得到训练语段集;
接收用户在所述训练语段集中添加的关键词标签集;
利用所述训练语段集及所述关键词标签集,训练所述初始关键词提取模型,得到训练完成的关键词提取模型。
本发明实施例中,所述语言处理模型可以是transformer模型。所述transformer模型是一种开源的自然语言处理模型,在训练完成的transformer模型的基础上,将transformer模型的输出层,调整为提取transformer模型中输入层接收的每段语段的关键字,从而得到所述初始关键字提取模型。
本发明实施例中,所述训练文本集是利用爬虫等手段,预先从网络中爬取已公开的数据并人工清理得到文本数据,可实现对所述初始关键字提取模型的训练功能。由于从网络中爬取得到训练文本集,文本字数存在明显差距,特别地,当文本字数过少的训练文本,不利于所述初始关键字提取模型执行特征提取,从而影响所述初始关键字提取模型的训练过程,或文本字数过多的训练文本,可能会造成所述初始关键字提取模型训练过拟合的现象等,因此本发明实施例可以在分句操作后,将不满足字数要求的语句剔除,得到所述训练语段集。
本发明实施例中,所述字数要求在4-100字之间。
本发明实施例接收用户在所述训练语段集中添加的关键词标签。其中,所述关键词标签是一种对训练语段的总结,如训练语段A为:“帮我订一间附近的五星酒店房间,请问订哪天的房间呢”,对应的关键词标签为:日期不明,即表示训练语段A的两句训练语段,无法得到明确的行为倾向,故关键词标签为:日期不明。
本发明实施例中,利用所述训练语段集及所述关键词标签集,训练所述初始关键字提取模型,与当前已公开的训练所述transformer模型的训练方法相同,当得到训练后的关键字提取模型后,将回复内容输入至所述关键字提取模型中,得到所述回复内容的关键字。
S3、利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签。
本发明实施例中,所述利用所述提问内容以及所述回复内容构建训练数据包括:
设置所述提问内容的提问标识符;
设置所述回复内容的回复标识符;
利用所述提问标识符、所述提问内容、所述回复标识符、及所述回复内容构建所述训练数据。
其中,所述提问标识符可以是,例如:<S>,所述回复标志符可以是,例如:<SEP>,因此,得到所述训练数据为:<S>提问内容<SEP>回复内容。本发明其中一个实施例中,所述训练数据可以是“<S>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”。
详细地,所述将所述条件标签向量化,得到条件向量标签包括:
利用预设的嵌入网络将所述条件标签映射为条件向量;
利用预设的全连接网络将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
具体的,所述嵌入网络(embedding)为是一种向量降维训练网络,可以将高维数据映射为低维数据来解决输入数据维度较高的问题,本发明实施例中将所述条件标签映射为条件向量,进一步地,所述全连接网络用于将向量维度进行降维或升维的网络。本发明实施例中,将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
所述生成式预训练模型中包含gamma和beta参数,所述gamma和beta参数维度在实验中是1024维,因此,本发明实施例中,将所述条件向量通过所述全连接层映射得到的1024维向量,得到所述条件向量标签。
S4、利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较。
本发明实施例中,所述训练结果由将所述训练数据输入所述生成式预训练模型中得到的对话数据构成,例如训练数据为“<s>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”,则训练结果可以为“<s>帮我订一间附近的五星酒店房间<SEP>请问订何时的房间呢”。
详细地,所述利用所述条件向量标签对预构建的生成式预训练模型进行参数设置包括:
构建包含归一化算法的生成式预训练模型;
根据所述条件向量标签对所述归一化算法进行参数更新。
本发明实施例中,将所述条件向量标签输入所述生成式预训练模型的归一化算法中,根据所述归一化算法的等式关系更新所述归一化算法中的gamma和beta参数,获取更新后的gamma和beta参数,并通过所述更新后的gamma和beta参数得到更新后归一化算法和更新后的生成式预训练模型。
本方案中,利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,可以结合所述回复内容对所述生成式预训练模型进行参数调整,提升所述生成式预训练模型生成对话的准确性。
本发明实施例中,所述生成式预训练模型为OpenAI提出的采用半监督的方法处理对话理解的任务,是一种采用非监督的预训练和监督方式进行微调的语言处理模型。
S5、根据比较结果判断所述训练结果是否满足预设的条件。
详细地,所述根据比较结果判断所述训练结果是否满足预设的条件,包括:
判断所述训练结果和所述训练数据的相似度是否满足预设相似度阈值;
当所述训练结果和所述训练数据的相似度满足所述相似度阈值时,判断所述训练结果满足预设的条件;
当所述训练结果和所述训练数据的相似度不满足所述相似度阈值时,判断所述训练结果不满足预设的条件。
本发明实施例中,所述预设的条件即为所述训练结果和所述训练数据满足预设相似度阈值,通过所述相似度阈值可以筛选训练结果,进而筛选得到该训练结果的生成式预训练模型,避免生成式预训练模型用于对话生成时生成的回复内容不够准确。进一步地,所述预设相似度阈值可以为80%。
本实施例中,通过获取所述训练结果和所述训练数据中的对话数据,将所述对话数据进行文本向量化,得到向量化文本数据,并利用预设向量相似度计算函数计算所述向量化文本数据之间的相似度。其中,所述向量化文本数据之间的相似度即所述训练结果和所述训练数据的相似度。其中,所述预设向量相似度计算函数可以为余弦相似度计算函数、欧式距离计算函数等。
例如,本发明实施例中,若所述训练数据为“<s>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”,在得到所述训练结果的过程中存在的中间数据为“帮我订一间附近的五星酒店房间<SEP>请问订”时,将以“<SEP>请问订哪天的房间呢”中“哪”为监督信号,从所述可能的字符中挑选出合适的字符得到下一中间数据,例如“帮我订一间附近的五星酒店房间<SEP>请问订何”,并将下一中间数据输入所述训练生成式语言模型中,直至最终的中间数据达到预设长度,或者遇到终止符“</s>”时,将所述最终的中间数据作为所述训练结果,进一步地,当所述训练结果可以为“<s>帮我订一间附近的五星酒店房间<SEP>请问订何时的房间呢”时,计算所述训练结果和所述训练数据的相似度,将得到相似度满足预设相似度阈值的训练结果的训练生成式语言模型作为训练完成模型并输出。
本发明实施例中,利用所述监督信号可以对所述中间数据进行监督,避免模型生成无意义的结果,其中,所述监督信号为在所述训练数据中的随所述中间数据改变的字符。
当所述训练结果不满足预设的条件时,返回上述的S4。
本方案中,所述生成式预训练模型在利用所述所述训练数据进行训练得到所述训练结果的过程中,所述生成式预训练模型中的内置参数将不断更新,直至得到训练完成的生成式预训练模型。
S6、将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型。
当所述训练结果满足预设的条件时,执行S6、将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型。
本发明实施例中,所述预设的条件不随模型的训练进行改变,当所述预设的条件一经设置,将不进行改变。
S7、接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
本发明实施例中,在所述生成式预训练模型训练完成后,将可以根据用户的提问内容生成对应的回复,且可以在所述用户的提问并未在作为训练数据进行训练的情况下,得到对应的回复。
进一步地,在所述生成式预训练模型训练完成,得到所述训练完成的生成式预训练模型后,将对话“帮我订一间附件的五星酒店房间”输入所述训练完成的生成式预训练模型,将得到对话“请问订哪天的房间呢”或者“请问订何时的房间呢”等结果。
本发明实施例中,将获取的原始对话划分为提问内容和回复内容,并提取回复内容的关键词,再根据关键词设置条件标签,利用提问内容以及回复内容构建训练数据,将条件标签向量化后对预构建的生成式预训练模型进行参数设置,并将训练数据输入生成式预训练模型中,将回复内容作为监督信号对模型训练过程进行监督,可以提高生成式预训练模型的准确性。因此,本发明实施例利用采用上述方法训练完成的生成式预训练模型生成提问对应的回复,能够提高对话生成的准确性。
如图2所示,是本发明对话生成装置的模块示意图。
本发明所述对话生成装置100可以安装于电子设备中。根据实现的功能,所述对话生成装置可以包括对话获取模块101、标签向量化模块102、训练结果生成模块103、模型获取模块104和回复对话生成模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述对话获取模块101,用于获取原始对话数据,并将所述原始对话划分为提问内容和回复内容。
本发明实施例中,所述原始对话数据可以是用户输入的对话数据,也可以是通过计算机中进行模拟生成的。所述原始对话数据包括提问内容和回复内容。
例如,所述原始对话数据为“帮我订一间附近的五星酒店房间,请问订哪天的房间呢”,则提问内容为“帮我订一间附近的五星酒店房间”,回复内容为“请问订哪天的房间呢”。
所述标签向量化模块102,用于提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签,利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签。
本发明实施例中,可利用人工标注员从回复内容中提取出关键字,进而得到条件标签,或利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词。
进一步地,所述利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词之前,本发明实施例还可以包括:
接收训练完成的语言处理模型,修改所述语言处理模型的输出层,得到初始关键词提取模型;
接收训练文本集,对所述训练文本集执行分句操作,得到训练语段集;
接收用户在所述训练语段集中添加的关键词标签集;
利用所述训练语段集及所述关键词标签集,训练所述初始关键词提取模型,得到训练完成的关键词提取模型。
本发明实施例中,所述语言处理模型可以是transformer模型。所述transformer模型是一种开源的自然语言处理模型,在训练完成的transformer模型的基础上,将transformer模型的输出层,调整为提取transformer模型中输入层接收的每段语段的关键字,从而得到所述初始关键字提取模型。
本发明实施例中,所述训练文本集是利用爬虫等手段,预先从网络中爬取已公开的数据并人工清理得到文本数据,可实现对所述初始关键字提取模型的训练功能。由于从网络中爬取得到训练文本集,文本字数存在明显差距,特别地,当文本字数过少的训练文本,不利于所述初始关键字提取模型执行特征提取,从而影响所述初始关键字提取模型的训练过程,或文本字数过多的训练文本,可能会造成所述初始关键字提取模型训练过拟合的现象等,因此本发明实施例可以在分句操作后,将不满足字数要求的语句剔除,得到所述训练语段集。
本发明实施例中,所述字数要求在4-100字之间。
本发明实施例接收用户在所述训练语段集中添加的关键词标签。其中,所述关键词标签是一种对训练语段的总结,如训练语段A为:“帮我订一间附近的五星酒店房间,请问订哪天的房间呢”,对应的关键词标签为:日期不明,即表示训练语段A的两句训练语段,无法得到明确的行为倾向,故关键词标签为:日期不明。
本发明实施例中,利用所述训练语段集及所述关键词标签集,训练所述初始关键字提取模型,与当前已公开的训练所述transformer模型的训练方法相同,当得到训练后的关键字提取模型后,将回复内容输入至所述关键字提取模型中,得到所述回复内容的关键字。
本发明实施例中,所述利用所述提问内容以及所述回复内容构建训练数据包括:
设置所述提问内容的提问标识符;
设置所述回复内容的回复标识符;
利用所述提问标识符、所述提问内容、所述回复标识符、及所述回复内容构建所述训练数据。
其中,所述提问标识符可以是,例如:<S>,所述回复标志符可以是,例如:<SEP>,因此,得到所述训练数据为:<S>提问内容<SEP>回复内容。本发明其中一个实施例中,所述训练数据可以是“<S>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”。
详细地,所述将所述条件标签向量化,得到条件向量标签包括:
利用预设的嵌入网络将所述条件标签映射为条件向量;
利用预设的全连接网络将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
具体的,所述嵌入网络(embedding)为是一种向量降维训练网络,可以将高维数据映射为低维数据来解决输入数据维度较高的问题,本发明实施例中将所述条件标签映射为条件向量,进一步地,所述全连接网络用于将向量维度进行降维或升维的网络。本发明实施例中,将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
所述生成式预训练模型中包含gamma和beta参数,所述gamma和beta参数维度在实验中是1024维,因此,本发明实施例中,将所述条件向量通过所述全连接层映射得到的1024维向量,得到所述条件向量标签。
所述训练结果生成模块103,用于利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较。
本发明实施例中,所述训练结果由将所述训练数据输入所述生成式预训练模型中得到的对话数据构成,例如训练数据为“<s>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”,则训练结果可以为“<s>帮我订一间附近的五星酒店房间<SEP>请问订何时的房间呢”。
详细地,所述利用所述条件向量标签对预构建的生成式预训练模型进行参数设置包括:
构建包含归一化算法的生成式预训练模型;
根据所述条件向量标签对所述归一化算法进行参数更新。
本发明实施例中,将所述条件向量标签输入所述生成式预训练模型的归一化算法中,根据所述归一化算法的等式关系更新所述归一化算法中的gamma和beta参数,获取更新后的gamma和beta参数,并通过所述更新后的gamma和beta参数得到更新后归一化算法和更新后的生成式预训练模型。
本方案中,利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,可以结合所述回复内容对所述生成式预训练模型进行参数调整,提升所述生成式预训练模型生成对话的准确性。
本发明实施例中,所述生成式预训练模型为OpenAI提出的采用半监督的方法处理对话理解的任务,是一种采用非监督的预训练和监督方式进行微调的语言处理模型。
所述模型获取模块104,用于根据比较结果判断所述训练结果是否满足预设的条件,当所述训练结果不满足预设的条件时,对所述生成式预训练模型进行循环迭代,当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型。
详细地,所述根据比较结果判断所述训练结果是否满足预设的条件,包括:
判断所述训练结果和所述训练数据的相似度是否满足预设相似度阈值;
当所述训练结果和所述训练数据的相似度满足所述相似度阈值时,判断所述训练结果满足预设的条件;
当所述训练结果和所述训练数据的相似度不满足所述相似度阈值时,判断所述训练结果不满足预设的条件。
本发明实施例中,所述预设的条件即为所述训练结果和所述训练数据满足预设相似度阈值,通过所述相似度阈值可以筛选训练结果,进而筛选得到该训练结果的生成式预训练模型,避免生成式预训练模型用于对话生成时生成的回复内容不够准确。进一步地,所述预设相似度阈值可以为80%。
本实施例中,通过获取所述训练结果和所述训练数据中的对话数据,将所述对话数据进行文本向量化,得到向量化文本数据,并利用预设向量相似度计算函数计算所述向量化文本数据之间的相似度。其中,所述向量化文本数据之间的相似度即所述训练结果和所述训练数据的相似度。其中,所述预设向量相似度计算函数可以为余弦相似度计算函数、欧式距离计算函数等。
例如,本发明实施例中,若所述训练数据为“<s>帮我订一间附近的五星酒店房间<SEP>请问订哪天的房间呢”,在得到所述训练结果的过程中存在的中间数据为“帮我订一间附近的五星酒店房间<SEP>请问订”时,将以“<SEP>请问订哪天的房间呢”中“哪”为监督信号,从所述可能的字符中挑选出合适的字符得到下一中间数据,例如“帮我订一间附近的五星酒店房间<SEP>请问订何”,并将下一中间数据输入所述训练生成式语言模型中,直至最终的中间数据达到预设长度,或者遇到终止符“</s>”时,将所述最终的中间数据作为所述训练结果,进一步地,当所述训练结果可以为“<s>帮我订一间附近的五星酒店房间<SEP>请问订何时的房间呢”时,计算所述训练结果和所述训练数据的相似度,将得到相似度满足预设相似度阈值的训练结果的训练生成式语言模型作为训练完成模型并输出。
本发明实施例中,利用所述监督信号可以对所述中间数据进行监督,避免模型生成无意义的结果,其中,所述监督信号为在所述训练数据中的随所述中间数据改变的字符。
当所述训练结果不满足预设的条件时,返回上述的训练结果生成模块。
本方案中,所述生成式预训练模型在利用所述所述训练数据进行训练得到所述训练结果的过程中,所述生成式预训练模型中的内置参数将不断更新,直至得到训练完成的生成式预训练模型。
当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型。
本发明实施例中,所述预设的条件不随模型的训练进行改变,当所述预设的条件一经设置,将不进行改变。
所述回复对话生成模块105,用于接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
本发明实施例中,在所述生成式预训练模型训练完成后,将可以根据用户的提问内容生成对应的回复,且可以在所述用户的提问并未在作为训练数据进行训练的情况下,得到对应的回复。
进一步地,在所述生成式预训练模型训练完成,得到所述训练完成的生成式预训练模型后,将对话“帮我订一间附件的五星酒店房间”输入所述训练完成的生成式预训练模型,将得到对话“请问订哪天的房间呢”或者“请问订何时的房间呢”等结果。
本发明实施例中,将获取的原始对话划分为提问内容和回复内容,并提取回复内容的关键词,再根据关键词设置条件标签,利用提问内容以及回复内容构建训练数据,将条件标签向量化后对预构建的生成式预训练模型进行参数设置,并将训练数据输入生成式预训练模型中,将回复内容作为监督信号对模型训练过程进行监督,可以提高生成式预训练模型的准确性。因此,本发明实施例利用采用上述方法训练完成的生成式预训练模型生成提问对应的回复,能够提高对话生成的准确性。
如图3所示,是本发明实现对话生成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、总线12及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如对话生成程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如对话生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行对话生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线12可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的对话生成程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取原始对话数据,并将所述原始对话划分为提问内容和回复内容;
提取所述回复内容的关键词,并根据所述关键词设置所述回复内容的条件标签;
利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签;
利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较;
根据比较结果判断所述训练结果是否满足预设的条件;
将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型;
接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
本发明实施例中,将获取的原始对话划分为提问内容和回复内容,并提取回复内容的关键词,再根据关键词设置条件标签,利用提问内容以及回复内容构建训练数据,将条件标签向量化后对预构建的生成式预训练模型进行参数设置,并将训练数据输入生成式预训练模型中,将回复内容作为监督信号对模型训练过程进行监督,可以提高生成式预训练模型的准确性。因此,本发明实施例利用采用上述方法训练完成的生成式预训练模型生成提问对应的回复,能够提高对话生成的准确性。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种对话生成方法,其特征在于,所述方法包括:
获取原始对话数据,并将所述原始对话划分为提问内容和回复内容;
利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词,将所述回复内容的关键词记作所述回复内容的条件标签;
利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签;
利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较;
根据比较结果判断所述训练结果是否满足预设的条件;
当所述训练结果不满足预设的条件时,返回利用所述条件向量标签对预构建的生成式预训练模型进行参数设置的步骤;
当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型;
接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
2.如权利要求1所述的对话生成方法,其特征在于,所述利用所述提问内容以及所述回复内容构建训练数据,包括:
设置所述提问内容的提问标识符;
设置所述回复内容的回复标识符;
利用所述提问标识符、所述提问内容、所述回复标识符、及所述回复内容构建所述训练数据。
3.如权利要求1所述的对话生成方法,其特征在于,所述将所述条件标签向量化,得到条件向量标签,包括:
利用预设的嵌入网络将所述条件标签映射为条件向量;
利用预设的全连接网络将所述条件向量映射为与所述生成式语言模型相同的向量维度,得到所述条件向量标签。
4.如权利要求1所述的对话生成方法,其特征在于,所述利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,包括:
构建包含归一化算法的生成式预训练模型;
根据所述条件向量标签对所述归一化算法进行参数更新。
5.如权利要求1所述的对话生成方法,其特征在于,所述根据比较结果判断所述训练结果是否满足预设的条件,包括:
判断所述训练结果和所述训练数据的相似度是否满足预设相似度阈值;
当所述训练结果和所述训练数据的相似度满足所述相似度阈值时,判断所述训练结果满足预设的条件;
当所述训练结果和所述训练数据的相似度不满足所述相似度阈值时,判断所述训练结果不满足预设的条件。
6.如权利要求1所述的对话生成方法,其特征在于,所述利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词之前,所述方法还包括:
接收训练完成的语言处理模型,修改所述语言处理模型的输出层,得到初始关键词提取模型;
接收训练文本集,对所述训练文本集执行分句操作,得到训练语段集;
接收用户在所述训练语段集中添加的关键词标签集;
利用所述训练语段集及所述关键词标签集,训练所述初始关键词提取模型,得到训练完成的关键词提取模型。
7.一种对话生成装置,其特征在于,所述装置包括:
对话获取模块,用于获取原始对话数据,并将所述原始对话划分为提问内容和回复内容;
标签向量化模块,用于利用预构建的关键词提取模型,对所述回复内容执行关键词提取,得到所述回复内容的关键词,将所述回复内容的关键词记作所述回复内容的条件标签,利用所述提问内容以及所述回复内容构建训练数据,并将所述条件标签向量化,得到条件向量标签;
训练结果生成模块,用于利用所述条件向量标签对预构建的生成式预训练模型进行参数设置,并使用所述训练数据对所述生成式预训练模型进行模型训练,将利用所述训练数据中回复内容作为监督信号生成的训练结果与所述训练数据相比较;
模型获取模块,用于根据比较结果判断所述训练结果是否满足预设的条件,当所述训练结果不满足预设的条件时,对所述生成式预训练模型进行循环迭代,当所述训练结果满足预设的条件时,将得到所述训练结果的生成式预训练模型作为训练完成的生成式预训练模型;
回复对话生成模块,用于接收用户的提问,利用所述训练完成的生成式预训练模型生成所述提问对应的回复。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一项所述的对话生成方法。
9.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的对话生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110698815.1A CN113420542B (zh) | 2021-06-23 | 2021-06-23 | 对话生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110698815.1A CN113420542B (zh) | 2021-06-23 | 2021-06-23 | 对话生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420542A CN113420542A (zh) | 2021-09-21 |
CN113420542B true CN113420542B (zh) | 2023-04-18 |
Family
ID=77716346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110698815.1A Active CN113420542B (zh) | 2021-06-23 | 2021-06-23 | 对话生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420542B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114610855B (zh) * | 2022-03-15 | 2024-06-18 | 平安科技(深圳)有限公司 | 对话回复生成方法、装置、电子设备及存储介质 |
CN115859964B (zh) * | 2022-11-24 | 2023-04-28 | 安徽冠成教育科技有限公司 | 基于教育云平台的教育资源共享方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102469040A (zh) * | 2010-11-15 | 2012-05-23 | 许穗生 | 一种基于即时通信系统的问答系统 |
CN108804654A (zh) * | 2018-06-07 | 2018-11-13 | 重庆邮电大学 | 一种基于智能问答的虚拟学习环境构建方法 |
WO2019153522A1 (zh) * | 2018-02-09 | 2019-08-15 | 卫盈联信息技术(深圳)有限公司 | 智能交互方法、电子装置及存储介质 |
CN110188331A (zh) * | 2019-06-03 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 模型训练方法、对话系统评价方法、装置、设备及存储介质 |
CN110287297A (zh) * | 2019-05-22 | 2019-09-27 | 深圳壹账通智能科技有限公司 | 对话答复方法、装置、计算机设备及计算机可读存储介质 |
CN112131368A (zh) * | 2020-09-27 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN112580343A (zh) * | 2020-11-03 | 2021-03-30 | 北京字节跳动网络技术有限公司 | 模型生成方法、问答质量判断方法、装置、设备及介质 |
CN112860858A (zh) * | 2019-11-26 | 2021-05-28 | 北京京东尚科信息技术有限公司 | 一种回答问题的方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11676588B2 (en) * | 2017-12-26 | 2023-06-13 | Rakuten Group, Inc. | Dialogue control system, dialogue control method, and program |
CN112395398A (zh) * | 2019-08-16 | 2021-02-23 | 阿里巴巴集团控股有限公司 | 问答处理方法、装置、设备 |
US11651250B2 (en) * | 2019-11-20 | 2023-05-16 | International Business Machines Corporation | Automatically generated conversation output |
CN111143535B (zh) * | 2019-12-27 | 2021-08-10 | 北京百度网讯科技有限公司 | 用于生成对话模型的方法和装置 |
CN112069300A (zh) * | 2020-09-04 | 2020-12-11 | 中国平安人寿保险股份有限公司 | 任务型对话的语义识别方法、装置、电子设备及存储介质 |
-
2021
- 2021-06-23 CN CN202110698815.1A patent/CN113420542B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102469040A (zh) * | 2010-11-15 | 2012-05-23 | 许穗生 | 一种基于即时通信系统的问答系统 |
WO2019153522A1 (zh) * | 2018-02-09 | 2019-08-15 | 卫盈联信息技术(深圳)有限公司 | 智能交互方法、电子装置及存储介质 |
CN108804654A (zh) * | 2018-06-07 | 2018-11-13 | 重庆邮电大学 | 一种基于智能问答的虚拟学习环境构建方法 |
CN110287297A (zh) * | 2019-05-22 | 2019-09-27 | 深圳壹账通智能科技有限公司 | 对话答复方法、装置、计算机设备及计算机可读存储介质 |
CN110188331A (zh) * | 2019-06-03 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 模型训练方法、对话系统评价方法、装置、设备及存储介质 |
CN112860858A (zh) * | 2019-11-26 | 2021-05-28 | 北京京东尚科信息技术有限公司 | 一种回答问题的方法及装置 |
CN112131368A (zh) * | 2020-09-27 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN112580343A (zh) * | 2020-11-03 | 2021-03-30 | 北京字节跳动网络技术有限公司 | 模型生成方法、问答质量判断方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113420542A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112541338A (zh) | 相似文本匹配方法、装置、电子设备及计算机存储介质 | |
CN113420542B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN113704429A (zh) | 基于半监督学习的意图识别方法、装置、设备及介质 | |
CN110110213B (zh) | 挖掘用户职业的方法、装置、计算机可读存储介质和终端设备 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN115002200A (zh) | 基于用户画像的消息推送方法、装置、设备及存储介质 | |
CN116257610B (zh) | 基于行业知识图谱的智能问答方法、装置、设备及介质 | |
CN113706322A (zh) | 基于数据分析的服务分发方法、装置、设备及存储介质 | |
CN112559687A (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN112667775A (zh) | 基于关键词提示的检索方法、装置、电子设备及存储介质 | |
CN113887941A (zh) | 业务流程生成方法、装置、电子设备及介质 | |
CN114840684A (zh) | 基于医疗实体的图谱构建方法、装置、设备及存储介质 | |
CN114416939A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113869456A (zh) | 采样监测方法、装置、电子设备及存储介质 | |
CN113360654A (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112507728A (zh) | 智能对话方法、装置、电子设备及存储介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN116340516A (zh) | 实体关系的聚类提取方法、装置、设备及存储介质 | |
CN115146064A (zh) | 意图识别模型优化方法、装置、设备及存储介质 | |
CN114595321A (zh) | 问题标注方法、装置、电子设备及存储介质 | |
CN114780688A (zh) | 基于规则匹配的文本质检方法、装置、设备及存储介质 | |
CN114610854A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN114186028A (zh) | 咨诉工单处理方法、装置、设备及存储介质 | |
CN113935328A (zh) | 文本摘要生成方法、装置、电子设备及存储介质 | |
CN113723114A (zh) | 基于多意图识别的语义分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |