CN113468313A - 一种生成式模型训练方法、信息交互方法及其装置 - Google Patents
一种生成式模型训练方法、信息交互方法及其装置 Download PDFInfo
- Publication number
- CN113468313A CN113468313A CN202110827011.7A CN202110827011A CN113468313A CN 113468313 A CN113468313 A CN 113468313A CN 202110827011 A CN202110827011 A CN 202110827011A CN 113468313 A CN113468313 A CN 113468313A
- Authority
- CN
- China
- Prior art keywords
- question
- text
- answer
- training
- generative model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000003993 interaction Effects 0.000 title claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 34
- 238000007781 pre-processing Methods 0.000 claims abstract description 28
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 238000012795 verification Methods 0.000 claims abstract description 18
- 238000003860 storage Methods 0.000 claims description 13
- 238000004140 cleaning Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 10
- 238000011161 development Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种生成式模型训练方法、信息交互方法及其装置,该模型训练方法包括:获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;对多个问答配对文本进行预处理;将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;将训练后的初始生成式模型确定为生成式模型,并进行存储。通过上述信息交互方法,能够根据用户的咨询直接给出相应的回答,无需制定该如何回答的业务流程,大大节约了开发成本。
Description
技术领域
本申请涉及计算机信息处理领域,具体而言,涉及一种生成式模型训练方法、信息交互方法及其装置。
背景技术
人工智能作为一项前瞻性的技术,为各行各业赋能,帮助各行各业进入工业大生产时代。其中,保险智能机器人是最早实现商业化使用的聊天机器人之一。但是大多数现有智能客服机器人技术,除了依赖于人工智能模型之外,还需要制定复杂繁琐的业务流程进行辅助,如判断用户咨询中是否含有手机号,如果含有智能机器人该如何作答等等,且这种基于流程的方式对用户意图的判断有限,严重影响了智能客服应答的精准度。此外要成功的搭建一个保险业务聊天机器人,是需要有大量的保险业务场景下的聊天对话数据提供给模型。但是在很多情况下,获取该业务场景的大量数据是不容易的,比如在新的项目启动阶段,还没有在该业务场景下的聊天数据,或者现有的数据对于搭建一个聊天机器人任务来说还远远不够,这将对搭建智能客服项目的顺利开展,和项目进展效率产生严重的影响。
发明内容
本申请实施例的目的在于提供一种生成式模型训练方法、信息交互方法机器装置,将客户咨询输入到训练生成式模型获取相应的回答,省去了传统人为制定回答话术的业务流程,大大简化了智能客服业务流程的操作。
为了实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提出一种生成式模型的训练方法,该训练方法包括:
获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;
对多个问答配对文本进行预处理;
将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;
将训练后的初始生成式模型确定为生成式模型,并进行存储。
可选地,对多个问答配对文本进行预处理的步骤包括以下至少一项:
对多个问答配对文本进行噪音清洗;
基于每个问答配对文本的文本长度,对多个问答配对文本进行数据过滤。
可选地,对多个问答配对文本进行噪音清洗的步骤包括以下至少一项:
将每个问答配对文本中的空格、无意义字符删除;
检测每个问答配对文本中的实体词的语义,检测实体词所在语句的语义,如果实体词的语义与实体词所在语句的语义不一致,删除实体词所对应的问答配对文本,其中,实体词所在语句为问答配对文本中的提问问题或者应答信息。
可选地,基于每个问答配对文本的文本长度,对多个问答配对文本进行数据过滤的步骤包括:
分别确定每个问答配对文本中的提问问题和应答信息的文本长度;
将所确定的各提问问题和应答信息的文本长度分别与文本长度阈值进行比较;
提取文本长度大于文本长度阈值的提问问题和/或应答信息;
将所提取的提问问题和/或应答信息所在的问答配对文本删除。
第二方面,本申请实施例还提出一种信息交互方法,该信息交互方法包括:
获取问题文本,在问题文本中包含提问问题;
对问题文本进行预处理;
将预处理后的问题文本输入生成式模型,获得与问题文本对应的应答信息,其中,生成式模型为通过上述生成式模型的训练方法训练得到的;
显示应答信息。
可选地,对问题文本进行预处理的步骤包括以下至少一项:
对问题文本进行噪音清洗;
基于问题文本的文本长度,对问题文本进行数据过滤。
第三方面,本申请实施例还提出一种生成式模型的训练装置,该训练装置包括:
训练装置包括:
第一获取模块,用于获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;
第一预处理模块,用于对多个问答配对文本数据进行预处理;
训练模块,用于将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;
保存模块,用于将训练后的初始生成式模型确定为生成式模型,并进行存储。
第四方面,本申请实施例还提出一种信息交互装置,信息交互装置包括:
第二获取模块,用于获取问题文本,在问题文本中包含提问问题;
第二预处理模块,用于对问题文本数据进行预处理;
生成模块,用于将预处理后的问题文本输入生成式模型,获得与问题文本对应的应答信息,其中,生成式模型为通过上述生成式模型的训练方法训练得到的。
显示模块,用于显示应答信息。
第五方面,本申请实施例还提出一种电子设备,包括:处理器、存储介质和总线,存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行机器可读指令,以执行上述生成式模型的训练方法或者信息交互方法的步骤。
第六方面,本申请实施例还提出一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行如上述生成式模型的训练方法或者信息交互方法的步骤。
本申请公开了一种生成式模型训练方法、信息交互方法及其装置,该模型训练方法包括:获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;对多个问答配对文本进行预处理;将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;将训练后的初始生成式模型确定为生成式模型,并进行存储。通过上述信息交互方法,通过上述信息交互方法,能够根据用户的咨询直接给出相应的回答,无需制定该如何回答的业务流程,大大节约了开发成本,本方法对没有训练数据或者训练数据较少的智能客服新业务方向的启动提供了有力的支持。
本申请的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种生成式模型训练方法的流程示意图一。
图2示出了本申请实施例所提供的一种信息交互方法的流程示意图一。
图3示出了本申请实施例所提供的一种生成式模型训练装置的结构示意图一。
图4示出了本申请实施例所提供的一种信息交互装置的结构示意图一。
图5示出了本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本公开的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了缩短新业务的开发周期、减少开发成本,本申请提出一种生成式模型训练方法,参见图1,图1示出了本申请实施例所提供的一种生成式模型训练方法的流程示意图一,具体的,该训练方法包括:
S110、获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本。
这里,历史交互记录为数据库中存储的不同业务场景下的历史聊天对话数据,在一具体实施例中,从数据库中获取不同业务场景下的智能客服机器人与用户的历史聊天对话数据,并使用python等脚本语言将获取到的历史聊天对话数据整理成用户的咨询与客服机器人的答句一一对应的配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息。
S120、对多个问答配对文本进行预处理。
这里,对多个问答配对文本进行预处理的步骤包括以下至少一项:
对多个问答配对文本进行噪音清洗;
基于每个问答配对文本的文本长度,对多个问答配对文本进行数据过滤。
对多个问答配对文本进行噪音清洗的步骤包括以下至少一项:
将每个问答配对文本中的空格、无意义字符删除;
检测每个问答配对文本中的实体词的语义,检测实体词所在语句的语义,如果实体词的语义与实体词所在语句的语义不一致,删除实体词所对应的问答配对文本,其中,实体词所在语句为问答配对文本中的提问问题或者应答信息。
在一具体实施例中,获取到的历史聊天对话数据中,有较多的噪音,比如无意义的特殊字符,空格,乱码的字符,需要检测语句中这些无意义的特殊字符,空格,乱码的字符并进行删除。
基于每个问答配对文本的文本长度,对多个问答配对文本进行数据过滤的步骤包括:
分别确定每个问答配对文本中的提问问题和应答信息的文本长度;
将所确定的各提问问题和应答信息的文本长度分别与文本长度阈值进行比较;
提取文本长度大于文本长度阈值的提问问题和/或应答信息;
将所提取的提问问题和/或应答信息所在的问答配对文本删除。
本申请实施例中,存在历史聊天对话数据中的对话文本长度过长的情况,这样需要通过设置阈值,将对话文本长度超过阈值的历史聊天对话数据过滤掉。
S130、将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型。
示例性的,生成式模型是序列到序列模型架构,例如seq2seq,seq2seq withattention,transformer等模型,这一步骤包括了对生成式模型训练数据的准备,在一具体实施例中,将预处理后的历史交互数据以0.7:0.2:0.1的比例分成训练集、验证集和测试集;具体的,将训练集输入到生成式模型进行模型的训练,训练的过程中使用验证集验证生成式模型的训练效果,训练完毕后,使用测试集输入生成式模型以验证生成式模型的最终效果。
S140、将训练后的初始生成式模型确定为生成式模型,并进行存储。
在该步骤中,这里,将训练好的生成式模型保存到数据库中,用于后续的生成式模型的调用。
在开发一项新业务对话场景时,在没有大量新业务对话场景的聊天对话数据时,通过从数据库中获取不同历史业务场景下的多轮历史聊天对话数据,利用该多轮历史聊天对话数据训练生成式模型,最后通过训练完成的生成式模型,直接运用到新业务对话场景。
例如,具体的,在保险行业中,开发一项新的寿险业务时,可以利用企业历史对话数据库中关于其它险种的多轮对话数据整理成用户的咨询与客服机器人的答句一一对应的配对文本,然后进行进一步处理,运用进一步处理的问答数据对生成式模型进行训练,最后获得关于新的寿险业务的生成式模型。
请参阅图2,图2示出了本申请实施例所提供的一种信息交互方法的流程示意图一,具体的,该智能信息交互方法包括:
S210、获取问题文本。
在本申请一实施例中问题文本中包含提问问题,该提问问题可以为新业务方向上的相关问题,例如,该问题可以是关于寿险的咨询问题。
S220、对问题文本进行预处理。
具体的,对问题文本进行预处理的步骤包括以下至少一项:
对问题文本进行噪音清洗;
基于问题文本的文本长度,对问题文本进行数据过滤。
该步骤与上述步骤S210相同,在此不作赘述。
S230、将预处理后的问题文本输入生成式模型,获得与问题文本对应的应答信息。
这里,生成式模型为通过上述生成式模型的训练方法训练得到的,该步骤将预处理好的问题文本即客户的输入文本输入到已经训练好的生成式模型,具体的,智能客服机器人针对用户的输入文本给出其相对应的应答信息,利用训练好的生成式模型直接生成新业务方向上的应答信息,通过新业务方向上问答信息的不断积累,利用新业务方向上问答信息对生成式模型进行微调,使生成式模型输出的应答信息更加准确。
例如,将寿险的咨询问题输入到运用产险对话数据训练完成的生成式模型中,智能客服机器人调用该生成式模型,生成式模型针对用户的输入文本给出与寿险咨询问题相对应的应答信息。
S240、显示应答信息。
将步骤S230中获取的与问题文本对应的应答信息显示到客户端。
请参阅图3,图3示出了本申请实施例所提供的一种生成式模型训练装置的结构示意图一,具体的,该训练装置包括:第一获取模块310、第一预处理模块320、训练模块330、保存模块340。
第一获取模块310,用于获取在不同业务场景下终端设备与用户的历史交互记录,从历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息。
第一预处理模块320,用于对多个问答配对文本数据进行预处理。
训练模块330,用于将预处理后的多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;
保存模块340,用于将训练后的初始生成式模型确定为生成式模型,并进行存储。
参见图4,图4示出了本申请实施例所提供的一种智能信息交互装置的结构示意图一,具体的,该智能信息交互装置包括:第二获取模块410、第二预处理模块420、生成模块430、显示模块440。
第二获取模块410,用于获取问题文本,在问题文本中包含提问问题;
第二预处理模块420,用于对问题文本数据进行预处理;
生成模块430,用于将预处理后的问题文本输入生成式模型,获得与问题文本对应的应答信息,其中,生成式模型为通过上述生成式模型的训练方法训练得到的。
显示模块440,用于显示应答信息。
参见图5,图5示出了本申请实施例所提供的一种电子设备的结构示意图,如图5中所示,所述电子设备500包括处理器510、存储器520和总线530。
所述存储器520存储有所述处理器510可执行的机器可读指令,当电子设备500运行时,所述处理器510与所述存储器520之间通过总线530通信,所述机器可读指令被所述处理器510执行时,可以执行如上述图1所示方法实施例中的方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时可以执行如上述图1所示方法实施例中的方法或者图1所示方法实施例中的方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排它性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
最后应说明的是:以上实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种生成式模型的训练方法,其特征在于,所述训练方法包括:
获取在不同业务场景下终端设备与用户的历史交互记录,从所述历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;
对所述多个问答配对文本进行预处理;
将预处理后的所述多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;
将训练后的初始生成式模型确定为生成式模型,并进行存储。
2.根据权利要求1所述的训练方法,其特征在于,对所述多个问答配对文本进行预处理的步骤包括以下至少一项:
对所述多个问答配对文本进行噪音清洗;
基于每个问答配对文本的文本长度,对所述多个问答配对文本进行数据过滤。
3.根据权利要求2所述的训练方法,其特征在于,对所述多个问答配对文本进行噪音清洗的步骤包括以下至少一项:
将每个问答配对文本中的空格、无意义字符删除;
检测每个问答配对文本中的实体词的语义,检测实体词所在语句的语义,如果实体词的语义与实体词所在语句的语义不一致,删除实体词所对应的问答配对文本,其中,实体词所在语句为问答配对文本中的提问问题或者应答信息。
4.根据权利要求2所述的训练方法,其特征在于,基于每个问答配对文本的文本长度,对所述多个问答配对文本进行数据过滤的步骤包括:
分别确定每个问答配对文本中的提问问题和应答信息的文本长度;
将所确定的各提问问题和应答信息的文本长度分别与文本长度阈值进行比较;
提取文本长度大于文本长度阈值的提问问题和/或应答信息;
将所提取的提问问题和/或应答信息所在的问答配对文本删除。
5.一种信息交互方法,其特征在于,应用于终端设备,所述信息交互方法包括:
获取问题文本,在所述问题文本中包含提问问题;
对所述问题文本进行预处理;
将预处理后的所述问题文本输入生成式模型,获得与所述问题文本对应的应答信息,其中,所述生成式模型为通过如权利要求1-4中任一项所述的生成式模型的训练方法训练得到的;
显示所述应答信息。
6.根据权利要求5所述的信息交互方法,其特征在于,对所述问题文本进行预处理的步骤包括以下至少一项:
对所述问题文本进行噪音清洗;
基于所述问题文本的文本长度,对所述问题文本进行数据过滤。
7.一种生成式模型的训练装置,其特征在于,所述训练装置包括:
第一获取模块,用于获取在不同业务场景下终端设备与用户的历史交互记录,从所述历史交互记录中提取多个问答配对文本,每个问答配对文本包括提问问题以及与提问问题对应的应答信息;
第一预处理模块,用于对所述多个问答配对文本数据进行预处理;
训练模块,将预处理后的所述多个问答配对文本划分为训练集、验证集和测试集,使用训练集、验证集和测试集训练初始生成式模型;
保存模块,用于将训练后的初始生成式模型确定为生成式模型,并进行存储。
8.一种信息交互装置,其特征在于,所述信息交互装置包括:
第二获取模块,用于获取问题文本,在所述问题文本中包含提问问题;
第二预处理模块,用于对所述问题文本数据进行预处理;
生成模块,用于将预处理后的所述问题文本输入生成式模型,获得与所述问题文本对应的应答信息,其中,所述生成式模型为通过如权利要求1-4中任一项所述的生成式模型的训练方法训练得到的;
显示模块,用于显示所述应答信息。
9.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1至4中任一项所述的生成式模型的训练方法或者如权利要求5至6中任一项所述的信息交互方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至4中任一项所述的生成式模型的训练方法或者如权利要求5至6中任一项所述的信息交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110827011.7A CN113468313A (zh) | 2021-07-21 | 2021-07-21 | 一种生成式模型训练方法、信息交互方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110827011.7A CN113468313A (zh) | 2021-07-21 | 2021-07-21 | 一种生成式模型训练方法、信息交互方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113468313A true CN113468313A (zh) | 2021-10-01 |
Family
ID=77881625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110827011.7A Pending CN113468313A (zh) | 2021-07-21 | 2021-07-21 | 一种生成式模型训练方法、信息交互方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113468313A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111737426A (zh) * | 2020-05-09 | 2020-10-02 | 中国科学院深圳先进技术研究院 | 问答模型的训练方法、计算机设备以及可读存储介质 |
CN111966812A (zh) * | 2020-10-20 | 2020-11-20 | 中国人民解放军国防科技大学 | 一种基于动态词向量的自动问答方法和存储介质 |
CN112035325A (zh) * | 2020-09-01 | 2020-12-04 | 中国银行股份有限公司 | 文本机器人自动监控方法及装置 |
US20210150385A1 (en) * | 2019-11-20 | 2021-05-20 | International Business Machines Corporation | Automatically generated conversation output |
-
2021
- 2021-07-21 CN CN202110827011.7A patent/CN113468313A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150385A1 (en) * | 2019-11-20 | 2021-05-20 | International Business Machines Corporation | Automatically generated conversation output |
CN111737426A (zh) * | 2020-05-09 | 2020-10-02 | 中国科学院深圳先进技术研究院 | 问答模型的训练方法、计算机设备以及可读存储介质 |
CN112035325A (zh) * | 2020-09-01 | 2020-12-04 | 中国银行股份有限公司 | 文本机器人自动监控方法及装置 |
CN111966812A (zh) * | 2020-10-20 | 2020-11-20 | 中国人民解放军国防科技大学 | 一种基于动态词向量的自动问答方法和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522556B (zh) | 一种意图识别方法及装置 | |
CN110659318B (zh) | 基于大数据的策略推送方法、系统及计算机设备 | |
CN111260102A (zh) | 一种用户满意度预测方法、装置、电子设备及存储介质 | |
CN111178940B (zh) | 一种自动生成销售话术图谱的方法和系统 | |
CN113377936A (zh) | 智能问答方法、装置及设备 | |
CN111221949A (zh) | 基于强化学习的智能回访方法、装置、设备及存储介质 | |
CN113297365B (zh) | 一种用户意向判定方法、装置、设备及存储介质 | |
CA3147634A1 (en) | Method and apparatus for analyzing sales conversation based on voice recognition | |
CN111858854A (zh) | 一种基于历史对话信息的问答匹配方法及相关装置 | |
CN112434501A (zh) | 工单智能生成的方法、装置、电子设备及介质 | |
CN110765776A (zh) | 回访标注样本数据的生成方法及装置 | |
CN111444718A (zh) | 一种保险产品需求文档处理方法、装置及电子设备 | |
CN111488501A (zh) | 一种基于云平台的电商统计系统 | |
CN109408175B (zh) | 通用高性能深度学习计算引擎中的实时交互方法及系统 | |
CN114974253A (zh) | 一种基于人物画像的自然语言解释方法、装置及存储介质 | |
CN111309882B (zh) | 用于实现智能客服问答的方法和装置 | |
CN111414732A (zh) | 文本风格转换方法、装置、电子设备及存储介质 | |
CN113449095A (zh) | 一种面试数据分析方法和装置 | |
CN109388695B (zh) | 用户意图识别方法、设备及计算机可读存储介质 | |
CN113468313A (zh) | 一种生成式模型训练方法、信息交互方法及其装置 | |
CN112328812B (zh) | 基于自调参数的领域知识抽取方法与系统、电子设备 | |
CN114610863A (zh) | 对话文本的推送方法及装置、存储介质、终端 | |
CN111881266B (zh) | 一种应答方法及装置 | |
CN112257719A (zh) | 一种文字识别方法、系统及存储介质 | |
CN113468306A (zh) | 语音对话方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |