CN115952274B - 基于深度学习模型的数据生成方法、训练方法和装置 - Google Patents
基于深度学习模型的数据生成方法、训练方法和装置 Download PDFInfo
- Publication number
- CN115952274B CN115952274B CN202310246603.9A CN202310246603A CN115952274B CN 115952274 B CN115952274 B CN 115952274B CN 202310246603 A CN202310246603 A CN 202310246603A CN 115952274 B CN115952274 B CN 115952274B
- Authority
- CN
- China
- Prior art keywords
- sample
- data
- input
- deep learning
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 314
- 238000000034 method Methods 0.000 title claims abstract description 121
- 238000012549 training Methods 0.000 title claims abstract description 78
- 230000004044 response Effects 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims description 131
- 230000006870 function Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 15
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- SPBWHPXCWJLQRU-FITJORAGSA-N 4-amino-8-[(2r,3r,4s,5r)-3,4-dihydroxy-5-(hydroxymethyl)oxolan-2-yl]-5-oxopyrido[2,3-d]pyrimidine-6-carboxamide Chemical compound C12=NC=NC(N)=C2C(=O)C(C(=O)N)=CN1[C@@H]1O[C@H](CO)[C@@H](O)[C@H]1O SPBWHPXCWJLQRU-FITJORAGSA-N 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 102100021677 Baculoviral IAP repeat-containing protein 2 Human genes 0.000 description 4
- 101000896157 Homo sapiens Baculoviral IAP repeat-containing protein 2 Proteins 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000006993 memory improvement Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000020637 scallop Nutrition 0.000 description 3
- 102100021662 Baculoviral IAP repeat-containing protein 3 Human genes 0.000 description 2
- 101000896224 Homo sapiens Baculoviral IAP repeat-containing protein 3 Proteins 0.000 description 2
- 241000237503 Pectinidae Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 241000237509 Patinopecten sp. Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 235000019219 chocolate Nutrition 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 235000015170 shellfish Nutrition 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种基于深度学习模型的数据生成方法、训练方法和装置,涉及人工智能技术领域,尤其涉及自然语言处理和深度学习等技术领域,能够用于提升深度学习模型基于用户输入数据生成的回复数据的质量。数据生成方法包括:基于用户输入数据确定深度学习模型的初始输入;获取模型的第一输出,响应于模型确定基于初始输入生成回复需要调用区别于模型的第一功能组件,第一输出包括用于调用第一功能组件的第一令符和基于初始输入确定的、能够由第一功能组件识别的第一中间问询;获取由第一功能组件基于第一中间问询确定的第一中间结果;基于初始输入和第一中间结果确定用于模型的第二输入;获取模型的第二输出以用于生成针对初始输入的回复。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理和深度学习等技术领域,具体涉及一种基于深度学习模型的数据生成方法、深度学习模型的训练方法、基于深度学习模型的数据生成装置、深度学习模型的训练装置、电子设备和计算机可读存储介质。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括自然语言处理技术、计算机视觉技术、语音识别技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种基于深度学习模型的数据生成方法、深度学习模型的训练方法、基于深度学习模型的数据生成装置、深度学习模型的训练装置、电子设备和计算机可读存储介质。
根据本公开的一方面,提供了一种基于深度学习模型的数据生成方法。深度学习模型能够基于用户的输入数据生成回复数据。数据生成方法包括:基于来自用户的输入数据,确定用于深度学习模型的初始输入;获取深度学习模型的第一输出,其中,响应于深度学习模型确定基于初始输入生成回复需要调用区别于深度学习模型的第一功能组件,第一输出包括用于调用第一功能组件的第一令符以及基于初始输入确定的、能够由第一功能组件识别的第一中间问询;获取由第一功能组件基于第一中间问询确定的第一中间结果;至少基于初始输入和第一中间结果,确定用于深度学习模型的第二输入;以及获取深度学习模型的第二输出,以用于生成针对初始输入的回复。
根据本公开的另一方面,提供了一种深度学习模型的训练方法。深度学习模型用于基于用户的输入数据生成回复数据。训练方法包括:获取第一样本数据,第一样本数据包括第一样本初始输入以及第一样本输出,其中,第一样本初始输入包括调用区别于深度学习模型的第一预设功能组件的意图表示,并且其中,第一样本输出包括用于调用第一预设功能组件的第一令符以及能够由第一预设功能组件识别的第一样本中间输入;获取第二样本数据,第二样本数据包括第二样本初始输入以及第二样本输出,其中,第二样本初始输入不包括调用区别于深度学习模型的任一预设功能组件的意图表示,并且其中,第二样本输出不包括用于调用任一预设功能组件的相应令符;利用深度学习模型对第一样本初始输入进行处理,以获得第一预测输出;基于第一样本输出和第一预测输出的比较,调整深度学习模型的参数;利用深度学习模型对第二样本初始输入进行处理,以获得第二预测输出;以及基于第二样本输出和第二预测输出的比较,调整深度学习模型的参数。
根据本公开的另一方面,提供了一种基于深度学习模型的数据生成装置。深度学习模型能够基于用户的输入数据生成回复数据。数据生成装置包括:第一确定单元,被配置为基于来自用户的输入数据,确定用于深度学习模型的初始输入;第一获取单元,被配置为获取深度学习模型的第一输出,其中,响应于深度学习模型确定基于初始输入生成回复需要调用区别于深度学习模型的第一功能组件,第一输出包括用于调用第一功能组件的第一令符以及基于初始输入确定的、能够由第一功能组件识别的第一中间问询;第二获取单元,被配置为获取由第一功能组件基于第一中间问询确定的第一中间结果;第二确定单元,被配置为至少基于初始输入和第一中间结果,确定用于深度学习模型的第二输入;以及第三获取单元,被配置为获取深度学习模型的第二输出,以用于生成针对初始输入的回复。
根据本公开的另一方面,提供了一种深度学习模型的训练装置。深度学习模型用于基于用户的输入数据生成回复数据。训练装置包括:第四获取单元,被配置为获取第一样本数据,第一样本数据包括第一样本初始输入以及第一样本输出,其中,第一样本初始输入包括调用区别于深度学习模型的第一预设功能组件的意图表示,并且其中,第一样本输出包括用于调用第一预设功能组件的第一令符以及能够由第一预设功能组件识别的第一样本中间输入;第五获取单元,被配置为获取第二样本数据,第二样本数据包括第二样本初始输入以及第二样本输出,其中,第二样本初始输入不包括调用区别于深度学习模型的任一预设功能组件的意图表示,并且其中,第二样本输出不包括用于调用任一预设功能组件的相应令符;第一处理单元,被配置为利用深度学习模型对第一样本初始输入进行处理,以获得第一预测输出;第一调参单元,被配置为基于第一样本输出和第一预测输出的比较,调整深度学习模型的参数;第二处理单元,被配置为利用深度学习模型对第二样本初始输入进行处理,以获得第二预测输出;以及第二调参单元,被配置为基于第二样本输出和第二预测输出的比较,调整深度学习模型的参数。
根据本公开的一个或多个实施例,本公开利用深度学习模型对是否需要调用区别于深度学习模型的第一功能组件进行决策,并在确定需要调用第一功能组件时利用深度学习模型生成能够由该第一功能组件识别的第一中间问询,进而利用第一中间问询调用第一功能组件以得到第一中间结果,最终利用深度学习模型基于第一中间结果生成针对用户的初始输入的结果。
通过上述方式,对自身已经能够执行理解和生成等任务的深度学习模型,进一步实现了能力增强,从而提升了最终生成的回复的质量。此外,通过利用深度学习模型直接生成能够由外部功能组件识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的初始输入中的潜在意图,从而使得模型能够输出满足用户需求的回复。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1示出了根据本公开的实施例的可以在其中实施本文描述的各种方法的示例性系统的示意图;
图2示出了根据本公开的实施例的数据生成方法的流程图;
图3示出了根据本公开的实施例的在外部记忆库中查询记忆的示意图;
图4示出了根据本公开的实施例的在外部记忆库中新增记忆和删除记忆的示意图;
图5示出了可以实现根据本公开的实施例的确定用于深度学习模型的初始输入的流程图;
图6示出了根据本公开的实施例的记忆能力增强的示意图;
图7示出了根据本公开的实施例的深度学习模型基于初始输入生成回复的示意图;
图8示出了根据本公开的实施例的知识增强的示意图;
图9示出了根据本公开的实施例的能力扩展的示意图;
图10示出了可以实现根据本公开的实施例的生成针对初始输入的回复的流程图;
图11示出了根据本公开的实施例的多种能力进行增强的示意图;
图12示出了根据本公开的实施例的多种能力进行增强的示意图;
图13示出了可以实现根据本公开的实施例的确定用于深度学习模型的初始输入的流程图;
图14示出了可以实现根据本公开的实施例的答案聚合展现的示意图;
图15示出了可以实现根据本公开的实施例的答案结构化展现的示意图;
图16示出了可以实现根据本公开的实施例的交互式展现的示意图;
图17示出了根据本公开的实施例的深度学习模型的训练方法的流程图;
图18示出了根据本公开的实施例的知识融合技术的示意图;
图19示出了根据本公开的实施例的深度学习模型的训练方法的流程图;
图20示出了根据本公开的实施例的对多个样本搜索结果进行排序操作的流程图;
图21示出了根据本公开的实施例的深度学习模型的训练方法的流程图;
图22示出了根据本公开的实施例的数据生成装置的结构框图;
图23示出了根据本公开的实施例的深度学习模型的训练装置的结构框图;以及
图24示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个要素与另一要素区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
相关技术中,智能系统能够基于用户的输入数据生成相应的回复内容。但是,目前的智能系统对用户的输入数据的处理能力较弱,所生成的回复内容质量欠佳。
为解决上述问题,本公开利用深度学习模型对是否需要调用区别于深度学习模型的第一功能组件进行决策,并在确定需要调用第一功能组件时利用深度学习模型生成能够由该第一功能组件识别的第一中间问询,进而利用第一中间问询调用第一功能组件以得到第一中间结果,最终利用深度学习模型基于第一中间结果生成针对用户的初始输入的结果。
通过上述方式,对自身已经能够执行理解和生成等任务的深度学习模型,进一步实现了能力增强,从而提升了最终生成的回复的质量。此外,通过利用深度学习模型直接生成能够由外部功能组件识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的初始输入中的潜在意图,从而使得模型能够输出满足用户需求的回复。
下面将结合附图详细描述本公开的实施例。
图1示出了根据本公开的实施例可以将本文描述的各种方法和装置在其中实施的示例性系统100的示意图。参考图1,该系统100包括一个或多个客户端设备101、102、103、104、105和106、服务器120以及将一个或多个客户端设备耦接到服务器120的一个或多个通信网络110。客户端设备101、102、103、104、105和106可以被配置为执行一个或多个应用程序。
在本公开的实施例中,服务器120可以运行使得能够执行本公开的数据生成方法或深度学习模型的训练方法的一个或多个服务或软件应用。在一个示例性实施例中,服务器上可以部署用于支持智能系统的深度学习模型。
在某些实施例中,服务器120还可以提供其他服务或软件应用,这些服务或软件应用可以包括非虚拟环境和虚拟环境。在某些实施例中,这些服务可以作为基于web的服务或云服务提供,例如在软件即服务(SaaS)模型下提供给客户端设备101、102、103、104、105和/或106的用户。
在图1所示的配置中,服务器120可以包括实现由服务器120执行的功能的一个或多个组件。这些组件可以包括可由一个或多个处理器执行的软件组件、硬件组件或其组合。操作客户端设备101、102、103、104、105和/或106的用户可以依次利用一个或多个客户端应用程序来与服务器120进行交互以利用这些组件提供的服务。应当理解,各种不同的系统配置是可能的,其可以与系统100不同。因此,图1是用于实施本文所描述的各种方法的系统的一个示例,并且不旨在进行限制。
用户可以使用客户端设备101、102、103、104、105和/或106来向智能系统输入。客户端设备可以提供使客户端设备的用户能够与客户端设备进行交互的接口。客户端设备还可以经由该接口向用户输出信息,例如,可以向用户输出智能系统针对用户输入所生成的回复。尽管图1仅描绘了六种客户端设备,但是本领域技术人员将能够理解,本公开可以支持任何数量的客户端设备。
客户端设备101、102、103、104、105和/或106可以包括各种类型的计算机设备,例如便携式手持设备、通用计算机(诸如个人计算机和膝上型计算机)、工作站计算机、可穿戴设备、智能屏设备、自助服务终端设备、服务机器人、游戏系统、瘦客户端、各种消息收发设备、传感器或其他感测设备等。这些计算机设备可以运行各种类型和版本的软件应用程序和操作系统,例如MICROSOFT Windows、APPLE iOS、类UNIX操作系统、Linux或类Linux操作系统(例如GOOGLE Chrome OS);或包括各种移动操作系统,例如MICROSOFT WindowsMobile OS、iOS、Windows Phone、Android。便携式手持设备可以包括蜂窝电话、智能电话、平板电脑、个人数字助理(PDA)等。可穿戴设备可以包括头戴式显示器(诸如智能眼镜)和其他设备。游戏系统可以包括各种手持式游戏设备、支持互联网的游戏设备等。客户端设备能够执行各种不同的应用程序,例如各种与Internet相关的应用程序、通信应用程序(例如电子邮件应用程序)、短消息服务(SMS)应用程序,并且可以使用各种通信协议。
网络110可以是本领域技术人员熟知的任何类型的网络,其可以使用多种可用协议中的任何一种(包括但不限于TCP/IP、SNA、IPX等)来支持数据通信。仅作为示例,一个或多个网络110可以是局域网(LAN)、基于以太网的网络、令牌环、广域网(WAN)、因特网、虚拟网络、虚拟专用网络(VPN)、内部网、外部网、区块链网络、公共交换电话网(PSTN)、红外网络、无线网络(例如蓝牙、WIFI)和/或这些和/或其他网络的任意组合。
服务器120可以包括一个或多个通用计算机、专用服务器计算机(例如PC(个人计算机)服务器、UNIX服务器、中端服务器)、刀片式服务器、大型计算机、服务器群集或任何其他适当的布置和/或组合。服务器120可以包括运行虚拟操作系统的一个或多个虚拟机,或者涉及虚拟化的其他计算架构(例如可以被虚拟化以维护服务器的虚拟存储设备的逻辑存储设备的一个或多个灵活池)。在各种实施例中,服务器120可以运行提供下文所描述的功能的一个或多个服务或软件应用。
服务器120中的计算单元可以运行包括上述任何操作系统以及任何商业上可用的服务器操作系统的一个或多个操作系统。服务器120还可以运行各种附加服务器应用程序和/或中间层应用程序中的任何一个,包括HTTP服务器、FTP服务器、CGI服务器、JAVA服务器、数据库服务器等。
在一些实施方式中,服务器120可以包括一个或多个应用程序,以分析和合并从客户端设备101、102、103、104、105和/或106的用户接收的数据馈送和/或事件更新。服务器120还可以包括一个或多个应用程序,以经由客户端设备101、102、103、104、105和/或106的一个或多个显示设备来显示数据馈送和/或实时事件。
在一些实施方式中,服务器120可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器120也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。云服务器是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS,Virtual Private Server)服务中存在的管理难度大、业务扩展性弱的缺陷。
系统100还可以包括一个或多个数据库130。在某些实施例中,这些数据库可以用于存储数据和其他信息。例如,数据库130中的一个或多个可用于存储诸如音频文件和视频文件的信息。数据库130可以驻留在各种位置。例如,由服务器120使用的数据库可以在服务器120本地,或者可以远离服务器120且可以经由基于网络或专用的连接与服务器120通信。数据库130可以是不同的类型。在某些实施例中,由服务器120使用的数据库例如可以是关系数据库。这些数据库中的一个或多个可以响应于命令而存储、更新和检索到数据库以及来自数据库的数据。
在某些实施例中,数据库130中的一个或多个还可以由应用程序使用来存储应用程序数据。由应用程序使用的数据库可以是不同类型的数据库,例如键值存储库,对象存储库或由文件系统支持的常规存储库。
图1的系统100可以以各种方式配置和操作,以使得能够应用根据本公开所描述的各种方法和装置。
根据本公开的一个方面,提供了一种基于深度学习模型的数据生成方法。深度学习模型能够基于用户的输入数据生成回复数据。如图2所示,数据生成方法包括:步骤S201、基于来自用户的输入数据,确定用于深度学习模型的初始输入;步骤S202、获取深度学习模型的第一输出,其中,响应于深度学习模型确定基于初始输入生成回复需要调用区别于深度学习模型的第一功能组件,第一输出包括用于调用第一功能组件的第一令符以及基于初始输入确定的、能够由第一功能组件识别的第一中间问询;步骤S203、获取由第一功能组件基于第一中间问询确定的第一中间结果;步骤S204、至少基于初始输入和第一中间结果,确定用于深度学习模型的第二输入;以及步骤S205、获取深度学习模型的第二输出,以用于生成针对初始输入的回复。
由此,通过上述方式,对自身已经能够执行理解和生成等任务的深度学习模型,进一步实现了能力增强,从而提升了最终生成的回复的质量。此外,通过利用深度学习模型直接生成能够由外部功能组件识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的初始输入中的潜在意图,从而使得模型能够输出满足用户需求的回复。
在本公开中,深度学习模型也被称为理解生成统一交互大模型(简称理解生成大模型或统一大模型)。理解生成大模型具有端到端的特性,能够在不借助理解生成大模型之外的功能组件或其他输入的情况下,基于用户的输入数据直接生成回复数据。换句话说,理解生成大模型本身具有生成功能。此外,部署理解生成大模型的系统可以被称为智能系统。智能系统中还可以包括交互模块,用于接收来自用户的输入数据并将最终生成的回复提供给用户。在用户与智能系统之间的一次会话中,智能系统能够利用其上部署的理解生成大模型与用户进行多轮对话。
理解生成大模型例如可以采用具有编码器(Encoder)和解码器(Decoder)的N层Transformer网络结构,或者是统一预训练语言模型(Unified pre-trained LanguageModel,UniLM)网络结构。可以理解的是,理解生成大模型还可以是其他的基于Transformer网络结构的神经网络模型,在此不作限定。理解生成大模型的输入和输出均是由令符(token)构成的。每一个令符可以对应一个单字、字符、词、特殊符号,或与某个外部的功能组件对应,如下文将要描述的。
可以理解的是,本公开描述的数据生成方法中所使用的深度学习模型可以是通过本公开下文将要描述的深度学习模型的训练方法进行训练而得到的。
在步骤S201之前,可以先获取用户的输入数据。用户的输入数据例如可以是用户对智能系统的输入,例如可以包括文本输入、语音输入、图像输入等。可以理解的是,用户的输入数据还可以具有其他的数据形式,在此不作限定。用户的输入数据可以是事实类问题,也可以是执行特定任务的指示,还可以是闲聊内容。针对不同类别的用户输入,智能系统均能生成合适的回复。
根据一些实施例,第一功能组件可以是外部记忆库,外部记忆库中可以存储有与用户相关的第一数据组集。第一数据组集中的每一个数据组至少可以包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。可以理解的是,历史输入数据项和对应的历史回复项例如可以包括用户与智能系统的历史会话中所产生的对话,也可以包括用户与智能系统在当前会话中所产生的对话。由此,通过设置外部记忆库对用户和智能系统在长期中的历史对话进行存储,提升了智能系统的记忆能力,而通过获取与用户输入相关的历史对话,使得深度学习模型能够参考历史对话以生成用户针对性更强、内容更丰富更具体的回复,从而提高了回复质量,提升了对话的智能性,增强了用户体验。
根据一些实施例,第一数据组集中的每一个数据组还可以包括与该组中的历史输入数据项和历史回复项相对应的录入时间项(或时间戳)。由此,通过设置录入时间项,使得在对外部记忆库中的历史对话进行查找和删除时,能够根据历史对话的录入时间实现更丰富的操作,提升了记忆的时效性。
在一些实施例中,第一数据组集中的每一个数据组还可以包括与该组中的历史输入数据项和历史回复项相对应的主题项。在一个示例性实施例中,在获取记忆时,可以直接获取到与当前对话具有相同主题的历史对话,或者可以将主题项作为相似度计算的依据之一,从而更高效地获取到更有效的历史对话。由此,通过设置主题项,能够将具体的记忆转换为抽象的记忆,使得在对外部记忆库中的历史对话进行查找和删除时,能够根据历史对话的主题实现更丰富的操作。
在一个示例性实施例中,外部记忆库中的数据组可以如下表1所示。
表1
根据一些实施例,第一中间问询可以基于输入数据。第一中间问询可以与用户的输入数据一致,也可以包括用户的输入数据和上下文信息,还可以是由深度学习模型对基于输入数据而确定的初始输入进行改写而得到的。上下文信息可以包括在所获取的用户的输入数据之前,用户和智能系统已发生的多轮对话。
根据一些实施例,第一中间结果可以是第一数据组集中与输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项。由此,通过从外部记忆库中获取与当前的用户输入相关的历史回复项以得到第一中间结果,使得深度学习模型能够参考用户与智能系统的历史对话进行针对用户的当前轮输入的回复生成,从而提升智能系统最终输出的回复的质量。
在一些实施例中,第一中间结果还可以包括与输入数据的相似度高于第一阈值的历史输入数据项本身。
在一些实施例中,可以通过计算稠密向量相似度的方式得到与用户的输入数据相关的历史对话信息。稠密向量相似度可以表示为:其中/>分别表示用户的输入数据q、上下文信息c、外部记忆库中的历史输入数据项m q 和历史回复项m r 的稠密向量,可以通过经训练的嵌入模型得到。cont表示两部分内容的组合,可以采用拼接、求和、利用神经网络(例如,多层感知机)进行处理等方式实现;sim表示相似度函数。
可以理解的是,上述相似度的计算过程可以通过神经网络的方式实现。可以计算用户的输入数据(或用户的输入数据与上下文信息两者,或基于用户的输入数据得到的第一中间问询)与外部记忆库中的每一个历史输入数据项(或历史输入数据项与对应的历史回复项两者)的相似度,并可以将满足相似度s大于预设的第一阈值δ的一个或多个数据组中的历史回复项(以及可选的,历史输入数据项)返回给理解生成大模型。在一些实施例中,也可以通过例如Top K等其他方式以基于相似度确定需要返回的历史回复项,在此不作限定。
在一些实施例中,外部记忆库可以是与理解生成大模型联合优化而得到的,如下文将要描述的。
根据一些实施例,第一中间问询可以基于输入数据,第一中间结果可以是第一数据组集中与输入数据的相似度高于第一阈值且时间戳最新的历史输入数据项所对应的历史回复项。由此,通过在得到与输入数据相关的多个历史回复项时返回时间戳最新的历史回复项,使得深度学习模型基于最新的相关记忆生成回复,充分利用了记忆的时效性。
在一些实施例中,也可以将第一数据组集中与输入数据的相似度高于第一阈值且时间戳最新的历史输入数据项本身返回给深度学习模型。
在一些实施例中,如图3所示,用户和智能系统310在历史中发生过两次关于带宠物贝贝出门玩的对话。智能系统310例如可以是上文所描述的、部署有理解生成大模型并且能够与用户进行对话交互的系统。在当前对话中,智能系统310获取到用户输入“最近想带着贝贝去跟它上次认识的朋友们玩玩”,并基于该用户输入在外部记忆库320中进行记忆获取,从而查询到时间戳为20XX0812的历史输入数据项“我最近想带贝贝去宠物乐园,有推荐的地方吗?”和对应的历史回复项“可以去XX乐园走走,有很多宠物游乐设施”,以及时间戳为20XX0817的历史输入数据项“明天想和贝贝一起去郊外,呼吸一下新鲜空气”和对应的历史回复项“YY公园是不错的选择呢”。进而,可以将时间戳最新的历史对话返回给深度学习模型,深度学习模型基于该历史对话生成回复“是要去YY公园吗,那里可以认识很多朋友”。可以理解的是,智能系统也可以将获取到的这两条历史对话均提供给模型,以用于模型生成回复。
通过上述实施例,可以看出通过使用外部记忆库,能够记录用户与智能系统在先前的会话中(例如,一周前、一个月前或更早)产生的历史对话,提升了智能系统的记忆能力,并且能够在针对用户的当前输入进行回复生成时使用相关的历史对话作为参考,以生成用户针对性更强、内容更丰富更具体的回复,从而提高了回复质量,提升了对话的智能性,增强了用户体验。
上述实施例描述了外部记忆库的查询操作,下面将对外部记忆库中数据组的新增和删除等操作进行说明。图4示出了根据示例性实施例的在外部记忆库420中新增数据组和删除数据组等操作的示意图。智能系统410例如可以是上文所描述的、部署有理解生成大模型并且能够与用户进行对话交互的系统。需要注意的是,外部记忆库的查询操作是在利用深度学习模型生成针对用户的输入数据的回复数据的过程中进行的,而新增和删除等操作是在深度学习模型生成回复数据之后进行的。
根据一些实施例,数据生成方法还可以包括:响应于确定基于输入数据和回复的第一数据组与第一数据组集中的任一数据组之间的相似度低于第二阈值,将第一数据组录入第一数据组集中。
在一些实施例中,对于第t – 1轮的用户的输入数据u t– 1和深度学习模型的回复数据r t– 1,如果第一数据组m t– 1= (u t– 1,r t– 1)与外部记忆库M中的任一数据组的相似度均低于预设的第二阈值,新增m t– 1= (u t– 1,r t– 1)进入外部记忆库M。
根据一些实施例,数据生成方法还可以包括:响应于确定基于输入数据和回复的第一数据组与第一数据组集中的第二数据组之间的相似度高于第三阈值并且确定第一数据组和第二数据组相互冲突,将第一数据组录入第一数据组集中,并且从第一数据组集中删除第二数据组。
在一些实施例中,对于第t – 1轮的用户的输入数据u t– 1和深度学习模型的回复数据r t– 1,如果第一数据组m t– 1= (u t– 1,r t– 1)与外部记忆库M中的第二数据组m i ∈M相似度高于阈值,并且m t– 1和m i 一致性判断为冲突,则删除m i 并补充m t– 1进入M。在一个示例性实施例中,m t– 1和m i 的一致性判断(例如,冲突检测)可以是利用神经网络基于两者的语义向量而进行的,也可以是通过其他方式实现的,在此不作限定。
由此,通过上述方式,实现了在外部记忆库中新增和删除数据组,提升了对外部记忆库中的数据组操作的灵活性,提升了外部记忆库中的数据组的时效性和内容准确性。
在一些实施例中,如图4所示,在深度学习模型针对用户输入生成了回复后,可以将当前对话(包括用户输入和模型生成的回复)新增到外部记忆库中;在当前对话内容与外部记忆库中的历史对话冲突时,可以将外部记忆库中的历史对话删除。
根据一些实施例,数据生成方法还可以包括:基于录入时间项,从外部记忆库中删除时效性过时的数据组。在一些示例性实施例中,可以设置对数据组的保留时长,并将超过该时长的数据组进行删除;也可以定期或不定期根据数据组的内容进行时效性检验,并将未通过检验的数据组进行删除;还可以通过其他方式实现从外部记忆库中删除时效性过时的数据组。由此,通过上述方式,确保了外部记忆库中的数据组均未过时,提升了记忆的时效性。
在一些实施例中,智能系统可以在构造深度学习模型的初始输入的阶段(也即,利用深度学习模型对初始输入进行处理之前)直接从外部记忆库中获取与用户的当前轮的输入数据对应的历史对话信息,并基于历史对话信息确定深度学习模型的初始输入。
根据一些实施例,如图5所示,步骤S201、确定用于深度学习模型的初始输入可以包括:步骤S501、基于输入数据,从外部记忆库中获取与输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项;以及步骤S502、基于输入数据和历史回复项,确定初始输入。可以理解的是,步骤S501的操作可以参照上文中对获取第一中间结果的描述,在此不作赘述。由此,可以确保在深度学习模型在每次生成回复时均能够参考从外部记忆库中获取的历史对话信息。
在一些实施例中,可以直接将用户的输入数据和历史回复项进行拼接,以得到深度学习模型的初始输入;也可以采用其他方式对用户的输入数据和历史回复项进行处理,以得到深度学习模型的初始输入,在此不作限定。
以下将结合一些示例性实施例来进一步说明对深度学习模型和智能系统的记忆能力增强的效果。在一个示例性实施例中,如图6所示,不具备外部记忆库的对话系统610无法形成长期记忆,因此在用户询问关于历史对话中的内容时,该系统仅能机械地进行回复。本公开描述的具备外部记忆库的智能系统620针对用户输入,能够从外部记忆库630获取到相应的历史对话,从而生成满足用户需求的回复,体现了对深度学习模型和智能系统的记忆能力的增强。
在一些实施例中,第一功能组件还可以是其他的功能组件,例如外部搜索引擎、检索模型、应用程序接口等等。这些不同的功能组件各自具有对应的令符(token)。在步骤S202,深度学习模型对是否调用外部的功能组件(和/或调用哪一个功能组件)进行决策,而决策结果即体现在深度学习模型输出的结果中是否包括与调用外部的功能组件对应的令符(和/或结果中具体包括与哪一个功能组件对应的令符)。需要注意的是,如外部搜索引擎、检索模型、应用程序接口这些外部的功能组件不需要以上下文信息和/或外部记忆库为前提,换句话说,这些外部的功能组件都可以被深度学习模型单独调用使用。
在一些实施例中,基于Transformer网络结构的深度学习模型在进行预测时,模型首先接收初始输入以生成第一个输出令符token_1。进而模型接收token_1,以生成第二个输出令符token_2。重复对深度学习模型的循环调用,直至模型输出的token_n指示模型输出完毕。模型输出的每一个令符可以与特定的外部功能组件对应,以体现对是否调用外部功能组件的决策结果;也可以是特定的标签(markup)形式,以生成能够由特定的外部功能组件进行识别的中间问询;还可以是具体的单字、字符或词,以生成针对用户输入的回复;另外可以是特殊符号,以指示当前内容已生成完毕。由此,实现了利用模型自动进行决策,以确定接下来需要执行的任务(例如,调用外部功能组件或生成回复)。
图7示出了根据示例性实施例的深度学习模型基于初始输入生成回复的示意图。理解生成大模型710(即,深度学习模型)的结构可以为UniLM。首先将基于用户的输入数据(以及可选的,上下文信息)的模型的初始输入输入深度学习模型,以得到模型输出的第一个令符,对应的内容为<api1>。该令符体现了模型对需要调用功能组件API 1的决策。模型可以继续进行输出,以生成能够由API 1识别的第一中间问询input_1。该过程也可以理解为对用户的输入数据进行改写,以得到能够由API 1识别并且能够从API 1获取到期望的结果的调用信息。在输出完input_1后,模型可以输出与标签</api1>对应的令符,表示对API1的第一中间问询已经生成完毕。第一输出可以包括完整的<api1>input_1</api1>。
在一些实施例中,与API 1对应的第一中间问询input_1可以是通过循环调用深度学习模型而逐字生成的,也即,每次将用户的输入数据、以及input_1中已生成的部分输入模型中,以获取input_1中的下一个单字、字符或标签(markup)。input_1也可以是通过对深度学习模型输出的单个令符进行解码而得到的。input_1还可以是通过其他方式根据模型输出的令符得到的,在此不作限定。
在得到第一中间问询input_1后,可以利用input_1调用API 1,以获取第一中间结果<api1-r>result_1</api1-r>。进而,可以将用户的输入数据和第一中间结果进行组合得到用于深度学习模型的第二输入,用以获取模型输出的下一个令符。在一些实施例中,在确定第二输入时,也可以将第一中间问询(或完整的第一输出)并入,如图7中从第一输出<api1>input_1</api1>向下的虚线剪头和第一中间结果<api1-r>result_1</api1-r>左侧的虚线方框所示。该虚线方框可以为第一中间问询input_1,也可以为完整的第一输出<api1>input_1</api1>。在一个示例性实施例中,第二输入为模型的初始输入、第一输出和第一中间结果的拼接。
根据一些实施例,步骤S204、至少基于初始输入和第一中间结果,确定用于深度学习模型的第二输入可以包括:基于初始输入、第一中间结果和第一中间问询,确定用于深度学习模型的第二输入。由此,通过将第一中间问询作为深度学习模型生成第二输出的参考因素,能够进一步提升模型决策的准确性,并能够提升最终生成的回复的质量。
深度学习模型基于第二输入而生成的第二令符对应的内容为<api2>,该令符体现了模型对需要调用功能组件API 2的决策。模型可以继续输出第二中间问询input_2和与标签</api2>对应的令符。进而,可以利用input_2调用API 2以获取第二中间结果<api2-r>result_2</api2-r>,并将用户的输入数据、第二中间结果(以及可选地,第二中间问询)进行组合得到用于深度学习模型的第三输入。在一个示例性实施例中,第三输入为模型的初始输入、第一输出、第一中间结果、第二输出和第二中间结果的拼接。
深度学习模型基于第三输入而生成的第三令符可以不与任一外部功能组件对应,因此该第三令符能够指示模型开始生成针对模型的初始输入(也可以理解为针对用户的输入数据)的回复。在一些实施例中,第三令符可以是回复中的第一个单字、字符或词,也可以是不具备语义信息的、用于指示模型将要从下一个令符开始生成回复的特殊符号。而后,模型将逐字生成回复,并最终生成指示回复已生成完毕的特殊符号。
需要注意的是,不同外部功能组件的调用是互相独立的,没有预设的先后顺序关系,而是由模型输出的令符来决策需要调用哪个外部功能组件。因此,在一些示例性实施例中,模型可能会决策多次调用同一个功能组件,或者根据对用户输入的理解,按照特定的逻辑顺序调用多个功能组件以执行特定任务。
由此,通过使理解生成大模型输出具有不同含义的令符,使得模型能够基于对用户输入(以及可选的,上下文信息)的理解自动确定需要执行的任务(例如,调用特定的外部功能组件或直接生成回复)和执行的顺序,实现了利用单一的深度学习模型进行自动化理解、推理、决策、生成,提升了系统的智能性。
在一些实施例中,UniLM模型仅有一个输入。因此,在步骤S204,可以通过拼接等手段将初始输入和第一中间结果进行组合,以得到用户深度学习模型的第二输入。
在一些实施例中,针对采用具有编码器和解码器的N层Transformer网络结构,编码器的输入可以为模型的初始输入,编码器的输出可以为对初始输入的编码结果;解码器的两个输入分别为编码器所输出的对初始输入的编码结果和模型已经生成的所有令符,解码器的输出为预测的下一个令符。因此,在步骤S204,可以将第一中间结果和对初始输入的编码结果分别作为解码器的两个输入。
根据一些实施例,第一功能组件可以是外部搜索引擎。外部搜索引擎可以是通用的搜索引擎,也可以是领域定制的知识引擎或专业知识库,还可以是私有化的数据库,从而对不同类型的知识进行获取以及实时的知识更新。
深度学习模型生成的第一中间问询例如可以是搜索式,从而可以利用外部搜索引擎基于该搜索式进行搜索,以得到一个或多个搜索结果。在一些实施例中,可以将搜索引擎返回的一个或多个搜索结果直接作为第一中间结果,也可以对这些搜索结果进行处理,以得到第一中间结果。而后,可以基于深度学习模型的初始输入(例如,用户的输入数据,以及可选地,上下文信息)和第一中间结果(例如,一个或多个搜索结果)确定用于由深度学习模型处理的第二输入。针对第二输入,深度学习模型可能确定需要进一步调用第二功能组件,也可能确定不再需要调用其他功能组件而直接生成针对初始输入的回复,如下文将要描述的。
在一些实施例中,可以通过拼接等方式将初始输入和第一中间结果进行组合,以得到第二输入;也可以先通过内容提取、改写、计算语义向量或其他方式对每一个搜索结果进行处理,再通过拼接等方式将初始输入和处理后的搜索结果进行组合,以得到第二输入,在此不作限定。
在一些实施例中,可以通过训练,将数据以参数化的方式完全内化到模型中,并利用这样的模型直接生成针对用户输入的回复。在这种机制下,对于相对冷门的事实类信息,由于在训练数据中的出现频次少,模型的学习不够扎实,可能会存在“遗忘”或者“记忆错乱”的情况。
由此,通过从外部搜索引擎获取搜索结果,使得能够将各类精准的知识、信息和时效性数据准确、及时的传递给上层理解生成大模型,让理解生成大模型结合搜索到的显式信息和模型中内化的知识一起完成对用户的需求的满足和回复。此外,理解生成模型根据第二输入中所包括的一个或多个搜索结果生成最后的回复,实现了对搜索到的信息进行整合加工,从而能够输出更贴合用户意图的回复,提升了回复数据的质量。
根据一些实施例,第一功能组件是经过与深度学习模型联合训练而得到的检索模型。检索模型可以是端到端的基于Transformer结构的大模型,其中可以进一步包括召回模型和排序模型。检索模型也可以是由单个神经网络模型(例如,端到端的基于Transformer结构的大模型)实现的。深度学习模型和检索模型的联合训练将在下文进行说明。
深度学习模型生成的第一中间问询例如可以是检索查询(query),从而可以利用经过与深度学习模型联合训练而得到的检索模型进行检索,以得到一个或多个检索结果。可以理解的是,对检索结果的处理可以参考上文对搜索引擎返回的搜索结果的处理,在此不作赘述。
由此,通过使用外部检索模型,一方面能够实现使用外部搜索引擎的上述优势,另一方面由于外部检索模型和理解生成大模型是联合优化的,两者能够协同配合,外部检索模型能够将更准确、更适用于回复生成的内容提供给理解生成大模型,而理解生成大模型能够更好地对检索结果进行整合加工,从而生成更贴合用户意图且质量更高的回复。因此,通过使用外部搜索引擎或外部检索模型,能够实现对深度学习模型和智能系统的知识增强。
以下将结合一些示例性实施例来进一步说明对深度学习模型和智能系统的知识增强的效果。在一个示例性实施例中,如图8所示,不具备知识增强的对话系统810中内化的知识有限,在遇到知识性较强的问题时无法做出准确的回答。此外,对话系统810无法实时对知识进行更新,因而其输出的结果可能是过时的或是错误的。本公开描述的具有知识增强的智能系统820针对用户输入,能够在外部的搜索引擎/检索系统830中进行检索,从而获取到准确的知识内容,提升了知识的准确率。针对用户提出的“三国时期魏国主公的儿子写了一首著名的诗是什么?”这一问题,搜索引擎/检索模型830返回两个相关结果,其中一篇说明了三国时期魏国的主公为曹操,其有儿子曹丕和曹植,另一篇说明了曹操的儿子曹植的诗作《七步诗》很出名。深度学习模型结合自身内化的知识,将从外部获取到的这两个搜索结果融合后,给出了准确的回复。
此外,由于外部的搜索引擎和检索系统背后的数据库、知识库、资源库是实时更新的,因此通过搜索或检索得到的知识具有更强的时效性。由此,体现了对深度学习模型和智能系统的知识增强。
根据一些实施例,第一功能组件是能够由深度学习模型调用的至少一个应用程序接口(Application Programming Interface,API)。不同的API各自具有对应的标签(markup)形式,即与用于调用该API的令符。在深度学习模型预测时,当模型输出与特定的API对应的令符/标签时,智能系统便知道需要触发该API。而后,模型将继续输出能够由该API识别的中间问询(即,用于该API的输入,也可以称为改写后的查询query)。进而,可以基于利用中间问询调用该API而获取到的中间结果确定用于再次输入到深度学习模型中的第二输入,使模型继续进行预测。针对第二输入,深度学习模型的决策可能为需要进一步调用第二功能组件(搜索引擎、检索模型、或其他API),也可能为不再需要调用其他功能组件而直接生成针对初始输入的回复。
如上文所描述的,在模型针对单轮的回复生成过程中,可以调用全部的API(或全部的外部功能模块),也可以仅调用部分API,并且这些API的调用顺序和调用次数也均由模型进行决策。
在一些实施例中,智能系统中所使用的API可以包括科学计算器、表格处理工具、智能家居控制等。由此,通过调用能够执行各类任务API,实现了对智能系统的能力扩展。通过使用科学计算器等外部功能组件,解决了深度学习模型逻辑计算能力较弱的问题,提升了智能系统整体的逻辑推理能力。相比于利用关键词与API调用指令的映射表对API进行调用的方式,利用深度学习模型直接生成能够由该API识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的初始输入中的潜在意图,提升了最终生成的回复的质量,增强了系统的智能性。此外,通过将理解生成大模型与API结合,能够使智能系统具备自动化工作执行能力,实现了对深度学习模型和智能系统的能力扩展。
以下将结合一些示例性实施例来进一步说明对深度学习模型和智能系统的能力扩展的效果。在一个示例性实施例中,如图9所示,不具备能力扩展(例如,外部API的调用能力)的对话系统910能够完成的任务有限,无法处理例如天气查询、数学计算等需要调用外部功能组件才能完成的任务。本公开描述的具有能力扩展的智能系统920针对用户输入,能够确定所需要调用的API 930,进而通过调用该API 930并对返回的结果进行处理以生成满足用户需求的回复,体现了对深度学习模型和智能系统的能力扩展。
根据一些实施例,第二输出可以包括用于调用第二功能组件的第二令符以及基于第二输入得到的、能够由第二功能组件识别的第二中间问询。可以理解的是,第二功能组件可以与第一功能组件相同(即,多次调用同一功能组件),也可以与第一功能组件不同,在此不作限定。
根据一些实施例,如图10所示,步骤S205、获取深度学习模型的第二输出,以用于生成针对初始输入的回复可以包括:步骤S1001、针对第二输出执行相应的功能调用操作,包括:获取由第二功能组件基于第二中间问询确定的第二中间结果;至少基于第二输入和第二中间结果,确定用于深度学习模型的第三输入;以及获取深度学习模型的第三输出;以及步骤S1002、响应于深度学习模型的第N输出中包含用于调用第N功能组件的第N令符以及基于第N输入得到的、能够由第N功能组件识别的第N中间问询,执行与第N输出相应的功能调用操作,直至确定第N+1输出中不包括用于调用区别于深度学习模型的任一功能组件的相应令符,将第N+1输出作为针对初始输入的回复,其中,N为大于2的整数。
由此,通过上述方式,深度学习模型能够进行多次外部功能组件的调用,直至模型确定不再需要对外部功能组件进行调用。
根据一些实施例,第二功能组件和第N功能组件分别可以是包括下列各项的功能组件组中的一者:外部搜索引擎;经过与深度学习模型联合训练而得到的检索模型;能够由深度学习模型调用的至少一个应用程序接口;和外部记忆库,外部记忆库中存储有与用户相关的第一数据组集,并且其中,第一数据组集中的每一个数据组至少包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。
根据一些实施例,第二输出可以不包括用于调用区别于深度学习模型的任一功能组件的相应令符。步骤S205、获取深度学习模型的第二输出,以用于生成针对初始输入的回复可以包括:将第二输出作为针对初始输入的回复。由此,在模型生成的第二输出不包括与任一功能组件对应的令符时,可以获取模型输出的针对初始输入的最终回复。
以下将结合一些示例性实施例来进一步说明对深度学习模型和智能系统的多种能力进行增强的效果。在一个示例性实施例中,如图11所示,不具备能力增强的对话系统1110基于模型中内化的知识生成的回复内容简单,并且无法完成用户输入中所描述的任务,故无法满足用户需求。本公开描述的具备能力增强的智能系统1120能够准确理解用户输入所体现的意图,进而利用外部记忆库1130、搜索引擎/检索模型1140、API 1150等外部组件准确完成历史记忆查询、文章生成、调用API发送邮件等多项任务,并且能够以正确的逻辑执行上述任务。
此外,在生成文章时,模型能够利用外部的搜索引擎/检索模型获取到显式信息作为文章素材,并且能够利用内化的知识对获取到的这些素材进行选取、整合、润色,并生成开篇、结尾和过渡段落将其组合成一篇完整的文章。如图11中所示,智能系统1120所生成的文章中,“X市是一座风景优美的城市”和“如果有机会去X市旅游,一定会喜欢上这座城市”两段可以是根据模型内化的知识生成的内容,而中间关于旅游季节、美食和前往方式的三段内容则分别来源于三篇检索结果,并且是在检索结果的基础上进行润色修改而生成的。由此,通过上述方式,能够生成高质量的回复内容。
在一个示例性实施例中,如图12所示,不具备能力增强的对话系统1210无法获取到与用户的历史对话,因此无法完成用户输入中所描述的任务,故无法满足用户需求。相比较之下,本公开描述的具备能力增强的智能系统1220能够准确理解用户输入所体现的意图,进而利用外部记忆库1230、API 1240、搜索引擎/检索模型1250等外部组件准确完成历史记忆查询、调用API进行音乐播放、查歌词等多项任务,并且能够以正确的逻辑执行上述任务。由此,体现了对深度学习模型和智能系统的多种能力的增强。
回到步骤S201。根据一些实施例,初始输入可以包括输入数据的上下文信息。上下文信息可以包括在所获取的用户的输入数据之前,用户和智能系统已发生的多轮对话。
在一些实施例中,上下文信息包括用户在与智能系统的当前会话中,用户与智能系统所发生的多轮对话,但不包括用户与智能系统的历史会话中所发送的对话。换句话说,当用户关闭智能系统的应用或服务后,上下文信息会相应清除;而当用户再次开启智能系统的应用或服务后,上下文信息会重新开始记录。
此外,受限于深度学习模型的输入长度上限,上下文信息通常具有预设的最大可编码长度,记忆能力有限。因此,在用户与智能系统进行了多轮或内容较长的对话后,上下文信息中的一部分内容可能会被放弃。
根据一些实施例,在从外部记忆库中获取历史对话信息时,在用户的输入数据的基础上,还可以使用上下文信息作为参考。此外,除了获取历史回复项外,还可以获取相应的历史输入数据项。如图13所示,步骤S201、确定用于深度学习模型的初始输入可以包括:步骤S1301、从外部记忆库中获取与输入数据和上下文信息的相似度符合第四阈值的至少一对历史输入数据项和历史回复项;以及步骤S1302、基于输入数据、上下文信息以及至少一对历史输入数据项和历史回复项,确定用于深度学习模型的初始输入。由此,通过使用用户的输入数据和上下文信息两者进行相似度计算,使得能够从外部记忆库中获取到更有效的历史对话信息;而通过利用输入数据、上下文信息、以及对应的至少一对历史输入数据项和历史回复项,能够进一步提升深度学习模型生成的回复的质量。
在一些实施例中,针对其他的外部功能组件,在生成相应的第一中间问询时,也可以使用用户的输入数据和上下文信息两者作为参考。
可以理解的是,在实施本公开的方法时,可以根据需求设置第一阈值、第二阈值、第三阈值和第四阈值的取值。这些预设的阈值的取值可以相同,也可以不同,在此不作限定。
智能系统和其上部署的理解生成大模型能够以丰富的形式将生成的回复进行呈现,并能够与用户进行交互以提升用户体验。
在一些实施例中,对话系统根据单个搜索结果生成最终的回复,可能会出现答案不全或者答案错误的情况。如图14所示,本公开的智能系统过搜索或检索后进行在线计算能够实现答案聚合展现的方法(单答案聚合和多答案聚合均可实现)。
在一些实施例中,如图15所示,除了将检索的内容聚合展示,智能系统还能自己生成答案,比如写诗歌、小说、邮件、总结报告、作文、营销文案等,除此以外,还可以做学科相关的数学推理和常识推理。针对这些结果,智能系统能够进行结构化的展现。
在一些实施例中,智能系统可以和用户进行多轮的澄清、主动引导、深入话题问答以及某个命令的执行,从而实现交互式展现。在一些示例性实施例中,如图16中的A部分所示,智能系统能够主动向用户澄清对话的主题与内容,以生成更符合用户期望的内容;如图16中的B部分所示,智能系统能够对用户进行主动引导,从而挖掘出用户的具体需求。
根据本公开的另一方面,提供了一种深度学习模型的训练方法。深度学习模型用于基于用户的输入数据生成回复数据。如图17所示,训练方法包括:步骤S1701、获取第一样本数据,第一样本数据包括第一样本初始输入以及第一样本输出,其中,第一样本初始输入包括调用区别于深度学习模型的第一预设功能组件的意图表示,并且其中,第一样本输出包括用于调用第一预设功能组件的第一令符以及能够由第一预设功能组件识别的第一样本中间输入;步骤S1702、获取第二样本数据,第二样本数据包括第二样本初始输入以及第二样本输出,其中,第二样本初始输入不包括调用区别于深度学习模型的任一预设功能组件的意图表示,并且其中,第二样本输出不包括用于调用任一预设功能组件的相应令符;步骤S1703、利用深度学习模型对第一样本初始输入进行处理,以获得第一预测输出;步骤S1704、基于第一样本输出和第一预测输出的比较,调整深度学习模型的参数;步骤S1705、利用深度学习模型对第二样本初始输入进行处理,以获得第二预测输出;以及步骤S1706、基于第二样本输出和第二预测输出的比较,调整深度学习模型的参数。
由此,通过上述方式对深度学习模型进行训练,使得训练后的深度学习模型能够在需要调用特定的预设功能组件时输出与该预设功能组件对应的令符以及能够由该预设功能组件识别的中间输入,并且使得能够在不需要调用任一功能组件时生成不包含与任一预设功能组件对应的令符和中间输入的输出内容,从而使模型具备了执行理解、决策和生成等任务的能力,并且使得能够利用外部的功能组件对深度学习模型进行能力增强,提升了生成的回复数据的质量。
在一些实施例中,在步骤S1701之前,可以先对理解生成大模型进行语言文本和先验知识的混合训练。
理解生成大模型可以在大量文本数据(例如,互联网数据)、知识图谱、弱监督数据上进行训练。除此以外,将人工总结的知识加入到模型中,也尤为重要。人工总结的先验知识能够帮助模型更好的理解语言,生成语言,并做出决策,使得模型能和人类高效、流畅的交互。具体步骤包含:
1)收集互联网上的文本数据,对其进行去低质、去噪处理,去除大数据中的无效、冗余信息;
2)先验知识融合,主要包含三类知识:
A、 海量的基于互联网构建的知识图谱:包含<实体-属性-属性值>或<实体-关系-实体2>;如<明星A-身高-172>,<明星A-夫妻-明星B>;
B、 高质量人工先验标注数据:通过人工对各类任务进行标注,比如分类标注数据,“XX当选新一届男篮主席”,标注为,<“XX当选新一届男篮主席”-“体育”>;或问答类数据:<“长期吃巧克力会得糖尿病吗”-“不会”>;
C、 行业知识:如医疗、安全、交通、金融、能源行业的词典,行业结构化知识;
3)如图18所示,在知识融合技术上,将以上三类结构化知识1810通过语言化模板1820转化为自然语言描述的形式(即,自然语言形式的数据1830),然后与互联网文本数据混合学习。在一个示例性实施例中,结构化知识<明星A-夫妻-明星B>可以通过语言化模板转换为“明星A的老婆是明星B”这样的自然语言形式的数据。通过混合学习的方式,能够使得模型更好地理解自然语言,从而具有基础的对话、交互能力。
在一些实施例中,针对在步骤S1701获取的第一样本数据和在步骤S1702获取的第二样本数据,第一样本初始输入和第二样本初始输入可以是真实的用户数据或构造的数据,可以包括输入数据(以及可选的,上下文信息)。第一样本初始输入包括调用区别于深度学习模型的第一预设功能组件的意图表示,也就是说,第一样本初始输入所描述的内容需要或期望模型调用第一预设功能组件。第二样本初始输入不包括调用区别于深度学习模型的任一预设功能组件的意图表示,也就是说,第二样本初始输入所描述的内容不需要或不期望模型调用任一预设功能组件。第一样本输出和第二样本输出可以是期望深度学习模型能够输出的结果,即真值(ground truth)。
在一些实施例中,第一样本输出中所包括的第一令符与对应的第一预设功能组件对应,从而使得训练后的深度学习模型能够通过该令符以指示需要调用第一预设功能组件。在一些实施例中,模型输出的第一令符可以被编码为与该第一预设功能组件对应的标签(markup)形式,并将API调用结果转换为字符串,使得训练后的模型能够以文本处理的方式进行决策、调用信息生成以及调用结果理解。
在一些实施例中,第一样本输出中所包括的第一样本中间输入可以由外部的第一预设功能组件进行处理,以获取该第一预设功能组件返回的结果。在第一预设功能组件为外部记忆库时,第一样本中间输入可以为能够由外部记忆库进行相似度计算的用户的输入数据(以及可选的,上下文信息)。在第一预设功能组件为搜索引擎时,第一样本中间输入可以为能够由搜索引擎识别的搜索式。在第一预设功能组件为检索系统时,第一样本中间输入可以为能够由检索系统处理的检索查询。在第一预设功能组件为特定的API时,第一样本中间输入可以为被编码为具有与该API对应的标签(markup)形式。通过上述方式,能够使得训练后的模型具备输出能够由这些预设功能组件识别的中间输入的能力。
在一些实施例中,在步骤S1703获得的深度学习模型输出的第一预测输出可能与第一样本输出相近,也可能完全不同,但对深度学习模型训练的目标即为使得训练后的模型生成的第一预测输出包括用于调用第一预设功能组件的令符以及能够由第一预设功能组件识别的、与第一样本中间输入的功能或含义一致的预测中间输入。
在一些实施例中,第二样本输出不包括用于调用任一预设功能组件的相应令符,因此第二样本输出应为深度学习模型针对第二样本初始输入的回复。在步骤S1705获得的深度学习模型输出的第二预测输出可能与第二样本输出相近,也可能完全不同,但对深度学习模型训练的目标即为使得训练后的模型生成的第二预测输出不包括用于调用任一预设功能组件的令符,并且包括针对第二样本初始输入的高质量回复数据。
在一些实施例中,在步骤S1704和步骤S1706,可以根据需求确定相应的损失函数,并计算描述样本输出和预测输出的差异的损失值,进而基于损失值调整深度学习模型的参数。
在一些实施例中,第一样本数据还可以包括第一样本目标输入和第一样本回复。第一样本目标输入包括第一样本初始输入和基于第一样本中间输入而从第一预设功能组件获取的第一样本中间结果。在一些实施例中,第一样本目标输入还可以包括第一样本中间输入。第一样本回复为利用第一样本中间结果构造的针对第一样本初始输入的真实(ground truth)回复。训练方法还可以包括:利用深度学习模型对第一样本目标输入进行处理,以获取第一预测回复;以及基于第一样本回复和第一预测回复的比较,调整深度学习模型的参数。
由此,通过上述方式,可以使得训练后的深度学习模型能够结合从外部功能组件获取到的结果和模型中内化的知识一起完成对用户的需求的满足和回复,最终得到高质量的回复内容。
根据一些实施例,如图19所示,训练方法还可以包括:步骤S1907、获取第三样本数据,第三样本数据包括第三样本初始输入、样本搜索问询、多个样本搜索结果、以及深度学习模型针对第三样本初始输入的第三样本回复,其中,样本搜索问询是深度学习模型基于第三样本初始输入生成的样本中间输入,样本中间输入能够由区别于深度学习模型的检索模型识别,并且其中,多个样本搜索结果是检索模型基于样本搜索问询而输出的结果;步骤S1908、基于多个样本搜索结果各自与第三样本回复之间的匹配度,对多个样本搜索结果进行排序操作;以及步骤S1909、基于经排序的多个样本搜索结果,训练检索模型。可以理解的是,图19中的步骤S1901-步骤S1906的操作分别与图17中的步骤S1701-步骤S1706的操作类似,在此不作赘述。
由此,通过确定第三样本数据中的多个样本搜索结果的排序结果,进而利用该排序结果作为监督对检索模型进行训练,实现了理解生成大模型和检索模型的联合优化,使得两者能够协同配合,外部检索模型能够将更准确、更适用于回复生成的内容提供给理解生成大模型,从而使理解生成大模型生成更贴合用户意图且质量更高的回复。
在一些实施例中,第三样本数据所包括的样本搜索问询例如可以是检索query,多个样本搜索结果例如可以是检索模型所使用的检索库中的、符合第三样本初始输入的需求的、并且用于整合生成针对第三样本初始输入的第三样本回复的多个内容,而第三样本回复可以是人工参照多个样本搜索结果进行选取、修改、润色等步骤后得到的内容。在一些实施例中,可以参照图17中的步骤S1701、步骤S1703-步骤S1704的方式以利用第三样本数据对深度学习模型进行训练,以使得深度学习模型具备自动进行上述选取、修改、润色等步骤的能力。
在一些实施例中,在步骤S1908,可以计算多个样本搜索结果和第三样本回复之间的内容匹配度,例如可以基于语义向量进行相似度计算。
根据一些实施例,如图20所示,步骤S1908、基于多个样本搜索结果各自与第三样本回复之间的匹配度,对多个样本搜索结果进行排序操作可以包括:步骤S2001、在多个样本搜索结果中筛选出当前匹配度最高的第一样本搜索结果;步骤S2002、删除第三样本回复和第一样本搜索结果之间的重合内容,以更新第三样本回复;以及步骤S2003、基于多个样本搜索结果的剩余部分各自与更新后的第三样本回复之间的匹配度,对剩余部分重复排序操作,直至完成对多个样本搜索结果中的所有样本搜索结果的排序。
由此,通过上述方式,实现了对用于生成第三样本回复的多个样本搜索结果进行排序,从而能够实现理解生成大模型和检索模型的联合优化。
根据一些实施例,检索模型可以包括排序子模型和召回子模型。步骤S1909、基于经排序的多个样本搜索结果,训练检索模型可以包括:基于经排序的多个样本搜索结果,训练检索模型的排序子模型;以及将经训练的排序子模型作为教师模型,训练召回子模型。由此,通过上述方式,实现了理解生成大模型、检索模型中的排序子模型和召回子模型三者间的联合优化。
在一些实施例中,排序子模型为端到端的搜索的精排模型(Cross-Encoder)。精排模型的输入包括查询(query,q)和文档(passage,p),输出为两者的相似度sim(q,p)。可以采用列表法损失(listwise loss)作为监督,使得精排模型输出的排序结果和为多个样本搜索结果生成的排序结果相近或一致。
在一些实施例中,召回子模型可以是双塔模型(Bi-Encoder)。其中,一个塔用于生成查询q的特征向量,另一个塔用于生成文档p的特征向量。根据这两个特征向量,可以计算两者间的相似度。在排序模型训练好之后,通过模型蒸馏的方式,以排序模型为教师模型对召回模型构建训练样本,让召回模型的优化目标与排序模型一致,进而实现了理解交互大模型和检索模型的联合优化。在一个示例性实施例中,可以使用KL-散度作为监督以利用作为教师模型的排序模型对召回模型进行训练。
在一些实施例中,在进行联合训练之前,可以单独对端到端的检索模型进行训练。在一个示例性实施例中,可以对召回子模型和排序子模型进行联合训练。
根据一些实施例,如图21所示,训练方法还可以包括:步骤S2107、获取第四样本数据,第四样本数据包括第四样本初始输入、能够由外部记忆库识别的第四样本中间输入、样本记忆结果以及第四样本回复,其中,第四样本中间输入是基于第四样本初始输入确定的;步骤S2108、获取由外部记忆库基于第四样本中间输入确定的预测记忆结果;步骤S2109、基于预测记忆结果和样本记忆结果的比较,调整外部记忆库的参数;步骤S2110、至少基于第四样本初始输入和样本记忆结果,确定用于深度学习模型的第四样本目标输入;步骤S2111、利用深度学习模型对第四样本目标输入进行处理,以获得第四预测回复;以及步骤S2112、基于第四样本回复和第四预测回复的比较,调整深度学习模型的参数。可以理解的是,图21中的步骤S2101-步骤S2106的操作分别与图17中的步骤S1701-步骤S1706的操作类似,在此不作赘述。由此,实现了外部记忆库和理解生成大模型的联合训练。
可以理解的是,通过上述方式得到的外部记忆库可以作为外部功能组件在上文描述的数据生成方法中使用,以进行外部记忆的获取。
其中,M为外部记忆库,c t 为与外部记忆库对应的样本中间输入,可以包括样本初始输入和上下文信息,m i 为查询到的历史对话(即,数据组),r为深度学习模型生成的回复。相应的,为记忆查询过程,/>为记忆增强的回复生成过程。通过基于该训练目标对外部记忆库和理解生成大模型进行联合优化,使得联合优化后的外部记忆库能够提供与用户输入的相关性更高、对生成回复更有帮助的历史对话,而联合优化后的理解生成大模型能够基于获取到的历史对话以针对用户输入生成质量更高的回复内容。
在一些实施例中,如上文所描述的,可以通过计算稠密向量相似度的方式从外部记忆库中获取与用户输入相关的历史对话信息,具体可以利用神经网络实现。在步骤S2109中,可以调整用于计算稠密向量相似度的神经网络的参数,以提升基于第四样本初始输入而确定的第四样本中间输入和样本记忆结果的相似度,使得优化后的神经网络(外部记忆库)能够针对第四样本中间输入返回样本记忆结果。可以理解的是,步骤S2112中对深度学习模型的参数调整可以参照图17中的步骤S1704或步骤S1706,在此不作赘述。
根据本公开的另一方面,提供了一种基于深度学习模型的数据生成装置。深度学习模型能够基于用户的输入数据生成回复数据。如图22所示,数据生成装置2200包括:第一确定单元2210,被配置为基于来自用户的输入数据,确定用于深度学习模型的初始输入;第一获取单元2220,被配置为获取深度学习模型的第一输出,其中,响应于深度学习模型确定基于初始输入生成回复需要调用区别于深度学习模型的第一功能组件,第一输出包括用于调用第一功能组件的第一令符以及基于初始输入确定的、能够由第一功能组件识别的第一中间问询;第二获取单元2230,被配置为获取由第一功能组件基于第一中间问询确定的第一中间结果;第二确定单元2240,被配置为至少基于初始输入和第一中间结果,确定用于深度学习模型的第二输入;以及第三获取单元2250,被配置为获取深度学习模型的第二输出,以用于生成针对初始输入的回复。可以理解的是,装置2200中的单元2210-单元2250的操作分别和图2中的步骤S201-步骤S205的操作类似,在此不作赘述。
根据一些实施例,第一功能组件可以是外部记忆库,外部记忆库中可以存储有与用户相关的第一数据组集。第一数据组集中的每一个数据组可以至少包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。
根据一些实施例,第一数据组集中的每一个数据组还可以包括与该组中的历史输入数据项和历史回复项相对应的录入时间项。
根据一些实施例,第一中间问询可以基于输入数据。第一中间结果可以是第一数据组集中与输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项。
根据一些实施例,第一中间问询可以基于输入数据。第一中间结果可以是第一数据组集中与输入数据的相似度高于第一阈值且时间戳最新的历史输入数据项所对应的历史回复项。
根据一些实施例,数据生成装置还可以包括:第一录入单元,被配置为响应于确定基于输入数据和回复的第一数据组与第一数据组集中的任一数据组之间的相似度低于第二阈值,将第一数据组录入第一数据组集中。
根据一些实施例,数据生成装置还可以包括:第二录入单元,被配置为响应于确定基于输入数据和回复的第一数据组与第一数据组集中的第二数据组之间的相似度高于第三阈值并且确定第一数据组和第二数据组相互冲突,将第一数据组录入第一数据组集中,并且从第一数据组集中删除第二数据组。
根据一些实施例,数据生成装置还可以包括:删除单元,被配置为基于录入时间项,从外部记忆库中删除时效性过时的数据组。
根据一些实施例,第一确定单元可以包括:第一获取子单元,被配置为基于输入数据,从外部记忆库中获取与输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项;以及第一确定子单元,被配置为基于输入数据和历史回复项,确定初始输入。外部记忆库中可以存储有与用户相关的第一数据组集。第一数据组集中的每一个数据组可以至少包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。
根据一些实施例,第二确定单元可以包括:第三确定子单元,被配置为基于初始输入、第一中间结果和第一中间问询,确定用于深度学习模型的第二输入。
根据一些实施例,第一功能组件可以是外部搜索引擎。
根据一些实施例,第一功能组件可以是经过与深度学习模型联合训练而得到的检索模型。
根据一些实施例,第一功能组件可以是能够由深度学习模型调用的至少一个应用程序接口。
根据一些实施例,第二输出可以包括用于调用第二功能组件的第二令符以及基于第二输入得到的、能够由第二功能组件识别的第二中间问询。第三获取单元可以包括:第三获取子单元,被配置为针对第二输出执行相应的功能调用操作,包括:获取由第二功能组件基于第二中间问询确定的第二中间结果;至少基于第二输入和第二中间结果,确定用于深度学习模型的第三输入;以及获取深度学习模型的第三输出;以及调用子单元,被配置为响应于深度学习模型的第N输出中包含用于调用第N功能组件的第N令符以及基于第N输入得到的、能够由第N功能组件识别的第N中间问询,执行与第N输出相应的功能调用操作,直至确定第N+1输出中不包括用于调用区别于深度学习模型的任一功能组件的相应令符,将第N+1输出作为针对初始输入的回复,其中,N为大于2的整数。
根据一些实施例,第二功能组件和第N功能组件可以分别是包括下列各项的功能组件组中的一者:外部搜索引擎;经过与深度学习模型联合训练而得到的检索模型;能够由深度学习模型调用的至少一个应用程序接口;和外部记忆库,外部记忆库中存储有与用户相关的第一数据组集,并且其中,第一数据组集中的每一个数据组至少包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。
根据一些实施例,第二输出可以不包括用于调用区别于深度学习模型的任一功能组件的相应令符。第三获取单元可以包括:回复子单元,被配置为将第二输出作为针对初始输入的回复。
根据一些实施例,初始输入可以包括输入数据的上下文信息。
根据一些实施例,第一确定单元可以包括:第二获取子单元,被配置为从外部记忆库中获取与输入数据和上下文信息的相似度符合第四阈值的至少一对历史输入数据项和历史回复项;以及第二确定子单元,被配置为基于输入数据、上下文信息以及至少一对历史输入数据项和历史回复项,确定用于深度学习模型的初始输入。外部记忆库中可以存储有与用户相关的第一数据组集。第一数据组集中的每一个数据组可以至少包括历史输入数据项以及由深度学习模型针对历史输入数据项生成的历史回复项。
根据本公开的另一方面,提供了一种深度学习模型的训练装置。深度学习模型用于基于用户的输入数据生成回复数据。如图23所示,训练装置2300包括:第四获取单元2310,被配置为获取第一样本数据,第一样本数据包括第一样本初始输入以及第一样本输出,其中,第一样本初始输入包括调用区别于深度学习模型的第一预设功能组件的意图表示,并且其中,第一样本输出包括用于调用第一预设功能组件的第一令符以及能够由第一预设功能组件识别的第一样本中间输入;第五获取单元2320,被配置为获取第二样本数据,第二样本数据包括第二样本初始输入以及第二样本输出,其中,第二样本初始输入不包括调用区别于深度学习模型的任一预设功能组件的意图表示,并且其中,第二样本输出不包括用于调用任一预设功能组件的相应令符;第一处理单元2330,被配置为利用深度学习模型对第一样本初始输入进行处理,以获得第一预测输出;第一调参单元2340,被配置为基于第一样本输出和第一预测输出的比较,调整深度学习模型的参数;第二处理单元2350,被配置为利用深度学习模型对第二样本初始输入进行处理,以获得第二预测输出;以及第二调参单元2360,被配置为基于第二样本输出和第二预测输出的比较,调整深度学习模型的参数。可以理解的是,装置2300中的单元2310-单元2360的操作分别和图17中的步骤S1701-步骤S1706的操作类似,在此不作赘述。
根据一些实施例,训练装置还可以包括:第六获取单元,被配置为获取第三样本数据,第三样本数据包括第三样本初始输入、样本搜索问询、多个样本搜索结果、以及深度学习模型针对第三样本初始输入的第三样本回复,其中,样本搜索问询是深度学习模型基于第三样本初始输入生成的样本中间输入,样本中间输入能够由区别于深度学习模型的检索模型识别,并且其中,多个样本搜索结果是检索模型基于样本搜索问询而输出的结果;排序单元,被配置为基于多个样本搜索结果各自与第三样本回复之间的匹配度,对多个样本搜索结果进行排序操作;以及训练单元,被配置为基于经排序的多个样本搜索结果,训练检索模型。
根据一些实施例,排序单元可以包括:筛选子单元,被配置为在多个样本搜索结果中筛选出当前匹配度最高的第一样本搜索结果;删除子单元,被配置为删除第三样本回复和第一样本搜索结果之间的重合内容,以更新第三样本回复;以及排序子单元,被配置为基于多个样本搜索结果的剩余部分各自与更新后的第三样本回复之间的匹配度,对剩余部分重复排序操作,直至完成对多个样本搜索结果中的所有样本搜索结果的排序。
根据一些实施例,检索模型可以包括排序子模型和召回子模型。训练单元可以包括:第一训练子单元,被配置为基于经排序的多个样本搜索结果,训练检索模型的排序子模型;以及第二训练子单元,被配置为将经训练的排序子模型作为教师模型,训练召回子模型。
根据一些实施例,训练装置还可以包括:第七获取单元,被配置为获取第四样本数据,第四样本数据包括第四样本初始输入、能够由外部记忆库识别的第四样本中间输入、样本记忆结果以及第四样本回复,其中,第四样本中间输入是基于第四样本初始输入确定的;第八获取单元,被配置为获取由外部记忆库基于第四样本中间输入确定的预测记忆结果;第三调参单元,被配置为基于预测记忆结果和样本记忆结果的比较,调整外部记忆库的参数;第三确定单元,被配置为至少基于第四样本初始输入和样本记忆结果,确定用于深度学习模型的第四样本目标输入;第三处理单元,被配置为利用深度学习模型对第四样本目标输入进行处理,以获得第四预测回复;以及第四调参单元,被配置为基于第四样本回复和第四预测回复的比较,调整深度学习模型的参数。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
参考图24,现将描述可以作为本公开的服务器或客户端的电子设备2400的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图24所示,电子设备2400包括计算单元2401,其可以根据存储在只读存储器(ROM)2402中的计算机程序或者从存储单元2408加载到随机访问存储器(RAM)2403中的计算机程序,来执行各种适当的动作和处理。在RAM 2403中,还可存储电子设备2400操作所需的各种程序和数据。计算单元2401、ROM 2402以及RAM 2403通过总线2404彼此相连。输入/输出(I/O)接口2405也连接至总线2404。
电子设备2400中的多个部件连接至I/O接口2405,包括:输入单元2406、输出单元2407、存储单元2408以及通信单元2409。输入单元2406可以是能向电子设备2400输入信息的任何类型的设备,输入单元2406可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元2407可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元2408可以包括但不限于磁盘、光盘。通信单元2409允许电子设备2400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙设备、802.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元2401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元2401的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元2401执行上文所描述的各个方法和处理,例如数据生成方法或深度学习模型的训练方法。例如,在一些实施例中,数据生成方法或深度学习模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元2408。在一些实施例中,计算机程序的部分或者全部可以经由ROM 2402和/或通信单元2409而被载入和/或安装到电子设备2400上。当计算机程序加载到RAM 2403并由计算单元2401执行时,可以执行上文描述的数据生成方法或深度学习模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元2401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据生成方法或深度学习模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
Claims (48)
1.一种基于深度学习模型的数据生成方法,其特征在于,所述深度学习模型能够基于用户的输入数据生成回复数据,所述数据生成方法包括:
基于来自用户的输入数据,确定用于所述深度学习模型的初始输入;
获取所述深度学习模型的第一输出,其中,响应于所述深度学习模型确定基于所述初始输入生成回复需要调用区别于所述深度学习模型的第一功能组件,所述第一输出包括用于调用所述第一功能组件的第一令符以及基于所述初始输入确定的、能够由所述第一功能组件识别的第一中间问询;
获取由所述第一功能组件基于所述第一中间问询确定的第一中间结果;
至少基于所述初始输入和所述第一中间结果,确定用于所述深度学习模型的第二输入;以及
获取所述深度学习模型的第二输出,以用于生成针对所述初始输入的所述回复,包括:
响应于所述第二输出包括用于调用第二功能组件的第二令符以及基于所述第二输入得到的、能够由所述第二功能组件识别的第二中间问询,针对所述第二输出执行相应的功能调用操作,包括:
获取由所述第二功能组件基于所述第二中间问询确定的第二中间结果;
至少基于所述第二输入和所述第二中间结果,确定用于所述深度学习模型的第三输入;
获取所述深度学习模型的第三输出;以及
响应于所述第三输出不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第三输出作为针对所述初始输入的所述回复。
2.如权利要求1所述的数据生成方法,其特征在于,所述第一功能组件是外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
3.如权利要求2所述的数据生成方法,其特征在于,所述第一中间问询基于所述输入数据,并且其中,所述第一中间结果是所述第一数据组集中与所述输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项。
4.如权利要求2所述的数据生成方法,其特征在于,所述方法还包括:
响应于确定基于所述输入数据和所述回复的第一数据组与所述第一数据组集中的任一数据组之间的相似度低于第二阈值,将所述第一数据组录入所述第一数据组集中。
5.如权利要求2所述的数据生成方法,其特征在于,所述方法还包括:
响应于确定基于所述输入数据和所述回复的第一数据组与所述第一数据组集中的第二数据组之间的相似度高于第三阈值并且确定所述第一数据组和所述第二数据组相互冲突,将所述第一数据组录入所述第一数据组集中,并且从所述第一数据组集中删除所述第二数据组。
6.如权利要求2所述的数据生成方法,其特征在于,所述第一数据组集中的每一个数据组还包括与该组中的历史输入数据项和历史回复项相对应的录入时间项。
7.如权利要求6所述的数据生成方法,其特征在于,所述第一中间问询基于所述输入数据,并且其中,所述第一中间结果是所述第一数据组集中与所述输入数据的相似度高于第一阈值且时间戳最新的历史输入数据项所对应的历史回复项。
8.如权利要求6所述的数据生成方法,其特征在于,所述方法还包括:
基于所述录入时间项,从所述外部记忆库中删除时效性过时的数据组。
9.如权利要求1所述的数据生成方法,其特征在于,所述确定用于所述深度学习模型的初始输入包括:
基于所述输入数据,从外部记忆库中获取与所述输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项;以及
基于所述输入数据和所述历史回复项,确定所述初始输入,其中,
所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
10.如权利要求1所述的数据生成方法,其特征在于,所述初始输入包括所述输入数据的上下文信息。
11.如权利要求10所述的数据生成方法,其特征在于,所述确定用于所述深度学习模型的初始输入包括:
从外部记忆库中获取与所述输入数据和所述上下文信息的相似度符合第四阈值的至少一对历史输入数据项和历史回复项;以及
基于所述输入数据、所述上下文信息以及所述至少一对历史输入数据项和历史回复项,确定用于所述深度学习模型的所述初始输入,其中,
所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
12.如权利要求9至11中任一项所述的数据生成方法,其特征在于,所述第一功能组件是外部搜索引擎。
13.如权利要求9至11中任一项所述的数据生成方法,其特征在于,所述第一功能组件是经过与所述深度学习模型联合训练而得到的检索模型。
14.如权利要求9至11中任一项所述的数据生成方法,其特征在于,所述第一功能组件是能够由所述深度学习模型调用的至少一个应用程序接口。
15.如权利要求1至11中任一项所述的数据生成方法,其特征在于,所述至少基于所述初始输入和所述第一中间结果,确定用于所述深度学习模型的第二输入包括:
基于所述初始输入、所述第一中间结果和所述第一中间问询,确定用于所述深度学习模型的第二输入。
16.如权利要求1至11中任一项所述的数据生成方法,其特征在于,所述获取所述深度学习模型的第二输出,以用于生成针对所述初始输入的所述回复还包括:
响应于所述第二输出不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第二输出作为针对所述初始输入的所述回复。
17.如权利要求1至11中任一项所述的数据生成方法,其特征在于,所述获取所述深度学习模型的第二输出,以用于生成针对所述初始输入的所述回复还包括:
响应于所述深度学习模型的第N输出中包含用于调用第N功能组件的第N令符以及基于所述第N输入得到的、能够由所述第N功能组件识别的第N中间问询,执行与所述第N输出相应的功能调用操作,直至确定第N+1输出中不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第N+1输出作为针对所述初始输入的所述回复,其中,N为大于2的整数。
18.如权利要求17所述的数据生成方法,其特征在于,所述第二功能组件和第N功能组件分别是包括下列各项的功能组件组中的一者:
外部搜索引擎;
经过与所述深度学习模型联合训练而得到的检索模型;
能够由所述深度学习模型调用的至少一个应用程序接口;和
外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
19.一种深度学习模型的训练方法,其特征在于,所述深度学习模型用于基于用户的输入数据生成回复数据,所述训练方法包括:
获取第一样本数据,所述第一样本数据包括第一样本初始输入以及第一样本输出,其中,所述第一样本初始输入包括调用区别于所述深度学习模型的第一预设功能组件的意图表示,并且其中,所述第一样本输出包括用于调用所述第一预设功能组件的第一令符以及能够由所述第一预设功能组件识别的第一样本中间输入;
获取第二样本数据,所述第二样本数据包括第二样本初始输入以及第二样本输出,其中,所述第二样本初始输入不包括调用区别于所述深度学习模型的任一预设功能组件的意图表示,并且其中,所述第二样本输出不包括用于调用任一预设功能组件的相应令符;
利用所述深度学习模型对所述第一样本初始输入进行处理,以获得第一预测输出;
基于所述第一样本输出和所述第一预测输出的比较,调整所述深度学习模型的参数;
利用所述深度学习模型对所述第二样本初始输入进行处理,以获得第二预测输出;以及
基于所述第二样本输出和所述第二预测输出的比较,调整所述深度学习模型的参数,以得到经训练的深度学习模型,
其中,所述经训练的深度学习模型用于利用权利要求1-18中任一项所述的方法生成回复。
20.如权利要求19所述的训练方法,其特征在于,所述训练方法还包括:
获取第三样本数据,所述第三样本数据包括第三样本初始输入、样本搜索问询、多个样本搜索结果、以及所述深度学习模型针对所述第三样本初始输入的第三样本回复,其中,所述样本搜索问询是所述深度学习模型基于所述第三样本初始输入生成的第三样本中间输入,所述第三样本中间输入能够由区别于所述深度学习模型的检索模型识别,并且其中,所述多个样本搜索结果是所述检索模型基于所述样本搜索问询而输出的结果;
基于所述多个样本搜索结果各自与所述第三样本回复之间的匹配度,对所述多个样本搜索结果进行排序操作;以及
基于经排序的所述多个样本搜索结果,训练所述检索模型。
21.如权利要求20所述的训练方法,其特征在于,所述基于所述多个样本搜索结果各自与所述第三样本回复之间的匹配度,对所述多个样本搜索结果进行排序操作包括:
在所述多个样本搜索结果中筛选出当前匹配度最高的第一样本搜索结果;
删除所述第三样本回复和所述第一样本搜索结果之间的重合内容,以更新所述第三样本回复;以及
基于所述多个样本搜索结果的剩余部分各自与所述更新后的第三样本回复之间的匹配度,对所述剩余部分重复所述排序操作,直至完成对所述多个样本搜索结果中的所有样本搜索结果的排序。
22.如权利要求20或21所述的训练方法,其特征在于,所述检索模型包括排序子模型和召回子模型,其中,所述基于经排序的所述多个样本搜索结果,训练所述检索模型包括:
基于经排序的所述多个样本搜索结果,训练所述检索模型的排序子模型;以及
将经训练的所述排序子模型作为教师模型,训练所述召回子模型。
23.如权利要求19至21中任一项所述的训练方法,其特征在于,所述方法还包括:
获取第四样本数据,所述第四样本数据包括第四样本初始输入、能够由外部记忆库识别的第四样本中间输入、样本记忆结果以及第四样本回复,其中,所述第四样本中间输入是基于所述第四样本初始输入确定的;
获取由外部记忆库基于所述第四样本中间输入确定的预测记忆结果;
基于所述预测记忆结果和所述样本记忆结果的比较,调整所述外部记忆库的参数;
至少基于所述第四样本初始输入和所述样本记忆结果,确定用于所述深度学习模型的第四样本目标输入;
利用所述深度学习模型对所述第四样本目标输入进行处理,以获得第四预测回复;以及
基于所述第四样本回复和所述第四预测回复的比较,调整所述深度学习模型的参数。
24.一种基于深度学习模型的数据生成装置,其特征在于,所述深度学习模型能够基于用户的输入数据生成回复数据,所述数据生成装置包括:
第一确定单元,被配置为基于来自用户的输入数据,确定用于所述深度学习模型的初始输入;
第一获取单元,被配置为获取所述深度学习模型的第一输出,其中,响应于所述深度学习模型确定基于所述初始输入生成回复需要调用区别于所述深度学习模型的第一功能组件,所述第一输出包括用于调用所述第一功能组件的第一令符以及基于所述初始输入确定的、能够由所述第一功能组件识别的第一中间问询;
第二获取单元,被配置为获取由所述第一功能组件基于所述第一中间问询确定的第一中间结果;
第二确定单元,被配置为至少基于所述初始输入和所述第一中间结果,确定用于所述深度学习模型的第二输入;以及
第三获取单元,被配置为获取所述深度学习模型的第二输出,以用于生成针对所述初始输入的所述回复,所述第三获取单元包括:
第三获取子单元,被配置为响应于所述第二输出包括用于调用第二功能组件的第二令符以及基于所述第二输入得到的、能够由所述第二功能组件识别的第二中间问询,针对所述第二输出执行相应的功能调用操作,包括:
获取由所述第二功能组件基于所述第二中间问询确定的第二中间结果;
至少基于所述第二输入和所述第二中间结果,确定用于所述深度学习模型的第三输入;
获取所述深度学习模型的第三输出;以及
响应于所述第三输出不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第三输出作为针对所述初始输入的所述回复。
25.如权利要求24所述的数据生成装置,其特征在于,所述第一功能组件是外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
26.如权利要求25所述的数据生成装置,其特征在于,所述第一中间问询基于所述输入数据,并且其中,所述第一中间结果是所述第一数据组集中与所述输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项。
27.如权利要求25所述的数据生成装置,其特征在于,所述装置还包括:
第一录入单元,被配置为响应于确定基于所述输入数据和所述回复的第一数据组与所述第一数据组集中的任一数据组之间的相似度低于第二阈值,将所述第一数据组录入所述第一数据组集中。
28.如权利要求25所述的数据生成装置,其特征在于,所述装置还包括:
第二录入单元,被配置为响应于确定基于所述输入数据和所述回复的第一数据组与所述第一数据组集中的第二数据组之间的相似度高于第三阈值并且确定所述第一数据组和所述第二数据组相互冲突,将所述第一数据组录入所述第一数据组集中,并且从所述第一数据组集中删除所述第二数据组。
29.如权利要求25所述的数据生成装置,其特征在于,所述第一数据组集中的每一个数据组还包括与该组中的历史输入数据项和历史回复项相对应的录入时间项。
30.如权利要求29所述的数据生成装置,其特征在于,所述第一中间问询基于所述输入数据,并且其中,所述第一中间结果是所述第一数据组集中与所述输入数据的相似度高于第一阈值且时间戳最新的历史输入数据项所对应的历史回复项。
31.如权利要求29所述的数据生成装置,其特征在于,所述装置还包括:
删除单元,被配置为基于所述录入时间项,从所述外部记忆库中删除时效性过时的数据组。
32.如权利要求24所述的数据生成装置,其特征在于,所述第一确定单元包括:
第一获取子单元,被配置为基于所述输入数据,从外部记忆库中获取与所述输入数据的相似度高于第一阈值的历史输入数据项所对应的历史回复项;以及
第一确定子单元,被配置为基于所述输入数据和所述历史回复项,确定所述初始输入,其中,
所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
33.如权利要求24所述的数据生成装置,其特征在于,所述初始输入包括所述输入数据的上下文信息。
34.如权利要求33所述的数据生成装置,其特征在于,所述第一确定单元包括:
第二获取子单元,被配置为从外部记忆库中获取与所述输入数据和所述上下文信息的相似度符合第四阈值的至少一对历史输入数据项和历史回复项;以及
第二确定子单元,被配置为基于所述输入数据、所述上下文信息以及所述至少一对历史输入数据项和历史回复项,确定用于所述深度学习模型的所述初始输入,其中,
所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
35.如权利要求32至34中任一项所述的数据生成装置,其特征在于,所述第一功能组件是外部搜索引擎。
36.如权利要求32至34中任一项所述的数据生成装置,其特征在于,所述第一功能组件是经过与所述深度学习模型联合训练而得到的检索模型。
37.如权利要求32至34中任一项所述的数据生成装置,其特征在于,所述第一功能组件是能够由所述深度学习模型调用的至少一个应用程序接口。
38.如权利要求24至34中任一项所述的数据生成装置,其特征在于,所述第二确定单元包括:
第三确定子单元,被配置为基于所述初始输入、所述第一中间结果和所述第一中间问询,确定用于所述深度学习模型的第二输入。
39.如权利要求24至34中任一项所述的数据生成装置,其特征在于,所述第三获取单元还包括:
回复子单元,被配置为所述第二输出不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第二输出作为针对所述初始输入的所述回复。
40.如权利要求24至34中任一项所述的数据生成装置,其特征在于,所述第三获取单元还包括:
调用子单元,被配置为响应于所述深度学习模型的第N输出中包含用于调用第N功能组件的第N令符以及基于所述第N输入得到的、能够由所述第N功能组件识别的第N中间问询,执行与所述第N输出相应的功能调用操作,直至确定第N+1输出中不包括用于调用区别于所述深度学习模型的任一功能组件的相应令符,将所述第N+1输出作为针对所述初始输入的所述回复,其中,N为大于2的整数。
41.如权利要求40所述的数据生成装置,其特征在于,所述第二功能组件和第N功能组件分别是包括下列各项的功能组件组中的一者:
外部搜索引擎;
经过与所述深度学习模型联合训练而得到的检索模型;
能够由所述深度学习模型调用的至少一个应用程序接口;和
外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习模型针对所述历史输入数据项生成的历史回复项。
42.一种深度学习模型的训练装置,其特征在于,所述深度学习模型用于基于用户的输入数据生成回复数据,所述训练装置包括:
第四获取单元,被配置为获取第一样本数据,所述第一样本数据包括第一样本初始输入以及第一样本输出,其中,所述第一样本初始输入包括调用区别于所述深度学习模型的第一预设功能组件的意图表示,并且其中,所述第一样本输出包括用于调用所述第一预设功能组件的第一令符以及能够由所述第一预设功能组件识别的第一样本中间输入;
第五获取单元,被配置为获取第二样本数据,所述第二样本数据包括第二样本初始输入以及第二样本输出,其中,所述第二样本初始输入不包括调用区别于所述深度学习模型的任一预设功能组件的意图表示,并且其中,所述第二样本输出不包括用于调用任一预设功能组件的相应令符;
第一处理单元,被配置为利用所述深度学习模型对所述第一样本初始输入进行处理,以获得第一预测输出;
第一调参单元,被配置为基于所述第一样本输出和所述第一预测输出的比较,调整所述深度学习模型的参数;
第二处理单元,被配置为利用所述深度学习模型对所述第二样本初始输入进行处理,以获得第二预测输出;以及
第二调参单元,被配置为基于所述第二样本输出和所述第二预测输出的比较,调整所述深度学习模型的参数,以得到经训练的深度学习模型,
其中,所述经训练的深度学习模型用于利用权利要求24-41中任一项所述的装置生成回复。
43.如权利要求42所述的训练装置,其特征在于,所述训练装置还包括:
第六获取单元,被配置为获取第三样本数据,所述第三样本数据包括第三样本初始输入、样本搜索问询、多个样本搜索结果、以及所述深度学习模型针对所述第三样本初始输入的第三样本回复,其中,所述样本搜索问询是所述深度学习模型基于所述第三样本初始输入生成的第三样本中间输入,所述第三样本中间输入能够由区别于所述深度学习模型的检索模型识别,并且其中,所述多个样本搜索结果是所述检索模型基于所述样本搜索问询而输出的结果;
排序单元,被配置为基于所述多个样本搜索结果各自与所述第三样本回复之间的匹配度,对所述多个样本搜索结果进行排序操作;以及
训练单元,被配置为基于经排序的所述多个样本搜索结果,训练所述检索模型。
44.如权利要求43所述的训练装置,其特征在于,所述排序单元包括:
筛选子单元,被配置为在所述多个样本搜索结果中筛选出当前匹配度最高的第一样本搜索结果;
删除子单元,被配置为删除所述第三样本回复和所述第一样本搜索结果之间的重合内容,以更新所述第三样本回复;以及
排序子单元,被配置为基于所述多个样本搜索结果的剩余部分各自与所述更新后的第三样本回复之间的匹配度,对所述剩余部分重复所述排序操作,直至完成对所述多个样本搜索结果中的所有样本搜索结果的排序。
45.如权利要求43或44所述的训练装置,其特征在于,所述检索模型包括排序子模型和召回子模型,其中,所述训练单元包括:
第一训练子单元,被配置为基于经排序的所述多个样本搜索结果,训练所述检索模型的排序子模型;以及
第二训练子单元,被配置为将经训练的所述排序子模型作为教师模型,训练所述召回子模型。
46.如权利要求42至44中任一项所述的训练装置,其特征在于,所述训练装置还包括:
第七获取单元,被配置为获取第四样本数据,所述第四样本数据包括第四样本初始输入、能够由外部记忆库识别的第四样本中间输入、样本记忆结果以及第四样本回复,其中,所述第四样本中间输入是基于所述第四样本初始输入确定的;
第八获取单元,被配置为获取由外部记忆库基于所述第四样本中间输入确定的预测记忆结果;
第三调参单元,被配置为基于所述预测记忆结果和所述样本记忆结果的比较,调整所述外部记忆库的参数;
第三确定单元,被配置为至少基于所述第四样本初始输入和所述样本记忆结果,确定用于所述深度学习模型的第四样本目标输入;
第三处理单元,被配置为利用所述深度学习模型对所述第四样本目标输入进行处理,以获得第四预测回复;以及
第四调参单元,被配置为基于所述第四样本回复和所述第四预测回复的比较,调整所述深度学习模型的参数。
47.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-23中任一项所述的方法。
48.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行根据权利要求1-23中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310246603.9A CN115952274B (zh) | 2023-03-10 | 2023-03-10 | 基于深度学习模型的数据生成方法、训练方法和装置 |
KR1020230130660A KR20230144505A (ko) | 2023-03-10 | 2023-09-27 | 딥러닝 모델 기반의 데이터 생성 방법, 트레이닝 방법 및 장치 |
US18/478,833 US20240028909A1 (en) | 2023-03-10 | 2023-09-29 | Deep learning model based data generation |
EP23200782.3A EP4350577A1 (en) | 2023-03-10 | 2023-09-29 | Data generation method based on deep learning model, and training method and apparatus |
JP2023170081A JP2023182707A (ja) | 2023-03-10 | 2023-09-29 | 深層学習モデルに基づくデータ生成方法、トレーニング方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310246603.9A CN115952274B (zh) | 2023-03-10 | 2023-03-10 | 基于深度学习模型的数据生成方法、训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115952274A CN115952274A (zh) | 2023-04-11 |
CN115952274B true CN115952274B (zh) | 2023-06-27 |
Family
ID=85903373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310246603.9A Active CN115952274B (zh) | 2023-03-10 | 2023-03-10 | 基于深度学习模型的数据生成方法、训练方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240028909A1 (zh) |
EP (1) | EP4350577A1 (zh) |
JP (1) | JP2023182707A (zh) |
KR (1) | KR20230144505A (zh) |
CN (1) | CN115952274B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116541536B (zh) * | 2023-05-30 | 2024-03-01 | 北京百度网讯科技有限公司 | 知识增强的内容生成系统、数据生成方法、设备和介质 |
CN116842156A (zh) * | 2023-06-30 | 2023-10-03 | 北京百度网讯科技有限公司 | 数据生成方法及装置、设备和介质 |
CN117874211A (zh) * | 2024-03-13 | 2024-04-12 | 蒲惠智造科技股份有限公司 | 基于saas软件的智能问答方法、系统、介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829038A (zh) * | 2018-12-11 | 2019-05-31 | 平安科技(深圳)有限公司 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
CN113553412A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 问答处理方法、装置、电子设备和存储介质 |
CN114416943A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 对话模型的训练方法、装置、电子设备及存储介质 |
CN114861889A (zh) * | 2022-07-04 | 2022-08-05 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、目标对象检测方法和装置 |
CN114880441A (zh) * | 2022-07-06 | 2022-08-09 | 北京百度网讯科技有限公司 | 视觉内容生成方法、装置、系统、设备和介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6218057B1 (ja) * | 2017-07-14 | 2017-10-25 | Jeインターナショナル株式会社 | 自動応答サーバー装置、端末装置、応答システム、応答方法、およびプログラム |
CN113177419B (zh) * | 2021-04-27 | 2024-04-30 | 北京小米移动软件有限公司 | 文本改写方法、装置、存储介质及电子设备 |
CN114840671A (zh) * | 2022-04-29 | 2022-08-02 | 北京百度网讯科技有限公司 | 对话生成方法、模型的训练方法、装置、设备及介质 |
CN114880449A (zh) * | 2022-05-17 | 2022-08-09 | 平安科技(深圳)有限公司 | 智能问答的答复生成方法、装置、电子设备及存储介质 |
CN115309877B (zh) * | 2022-08-03 | 2023-05-30 | 北京百度网讯科技有限公司 | 对话生成方法、对话模型训练方法及装置 |
CN115455161A (zh) * | 2022-09-02 | 2022-12-09 | 北京百度网讯科技有限公司 | 对话处理方法、装置、电子设备及存储介质 |
-
2023
- 2023-03-10 CN CN202310246603.9A patent/CN115952274B/zh active Active
- 2023-09-27 KR KR1020230130660A patent/KR20230144505A/ko unknown
- 2023-09-29 JP JP2023170081A patent/JP2023182707A/ja active Pending
- 2023-09-29 US US18/478,833 patent/US20240028909A1/en active Pending
- 2023-09-29 EP EP23200782.3A patent/EP4350577A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829038A (zh) * | 2018-12-11 | 2019-05-31 | 平安科技(深圳)有限公司 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
CN113553412A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 问答处理方法、装置、电子设备和存储介质 |
CN114416943A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 对话模型的训练方法、装置、电子设备及存储介质 |
CN114861889A (zh) * | 2022-07-04 | 2022-08-05 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、目标对象检测方法和装置 |
CN114880441A (zh) * | 2022-07-06 | 2022-08-09 | 北京百度网讯科技有限公司 | 视觉内容生成方法、装置、系统、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US20240028909A1 (en) | 2024-01-25 |
KR20230144505A (ko) | 2023-10-16 |
CN115952274A (zh) | 2023-04-11 |
JP2023182707A (ja) | 2023-12-26 |
EP4350577A1 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115952274B (zh) | 基于深度学习模型的数据生成方法、训练方法和装置 | |
US10540965B2 (en) | Semantic re-ranking of NLU results in conversational dialogue applications | |
EP3323124B1 (en) | Delayed binding in response selection during input understanding processing | |
US9269354B2 (en) | Semantic re-ranking of NLU results in conversational dialogue applications | |
US9171542B2 (en) | Anaphora resolution using linguisitic cues, dialogue context, and general knowledge | |
US10922360B2 (en) | Ancillary speech generation via query answering in knowledge graphs | |
US9361884B2 (en) | Communicating context across different components of multi-modal dialog applications | |
CN111737411A (zh) | 人机对话中的响应方法、对话系统及存储介质 | |
CN109145104B (zh) | 用于对话交互的方法和装置 | |
CN112579909A (zh) | 对象推荐方法及装置、计算机设备和介质 | |
JP7204801B2 (ja) | ニューラルネットワークに基づくマンマシンインタラクション方法、装置、及び媒体 | |
CN116501960B (zh) | 内容检索方法、装置、设备及介质 | |
CN116303962A (zh) | 对话生成方法、深度学习模型的训练方法、装置和设备 | |
CN116521841A (zh) | 用于生成回复信息的方法、装置、设备及介质 | |
CN116541536B (zh) | 知识增强的内容生成系统、数据生成方法、设备和介质 | |
CN114611532A (zh) | 语言模型训练方法及装置、目标翻译错误检测方法及装置 | |
CN114443989A (zh) | 排序方法、排序模型的训练方法、装置、电子设备及介质 | |
CN114547244A (zh) | 用于确定信息的方法和装置 | |
CN115879469B (zh) | 文本数据处理方法、模型训练方法、装置及介质 | |
CN115378890B (zh) | 信息输入方法、装置、存储介质及计算机设备 | |
CN114547270B (zh) | 文本处理方法、文本处理模型的训练方法、装置和设备 | |
CN115170887A (zh) | 目标检测模型训练方法、目标检测方法及其装置 | |
CN113722594A (zh) | 推荐模型的训练方法、推荐方法、装置、电子设备及介质 | |
CN116541537A (zh) | 一种基于知识图谱的企业贸易信息可视化展示方法 | |
CN115809364B (zh) | 对象推荐方法和模型训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |