CN116579339B - 任务执行方法和优化任务执行方法 - Google Patents
任务执行方法和优化任务执行方法 Download PDFInfo
- Publication number
- CN116579339B CN116579339B CN202310858943.7A CN202310858943A CN116579339B CN 116579339 B CN116579339 B CN 116579339B CN 202310858943 A CN202310858943 A CN 202310858943A CN 116579339 B CN116579339 B CN 116579339B
- Authority
- CN
- China
- Prior art keywords
- task
- target
- text
- description information
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 169
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000012545 processing Methods 0.000 claims abstract description 150
- 230000003993 interaction Effects 0.000 claims abstract description 133
- 230000002452 interceptive effect Effects 0.000 claims abstract description 87
- 238000013178 mathematical model Methods 0.000 claims description 205
- 238000001514 detection method Methods 0.000 claims description 73
- 238000012549 training Methods 0.000 claims description 63
- 230000014509 gene expression Effects 0.000 claims description 58
- 238000004458 analytical method Methods 0.000 claims description 52
- 238000013135 deep learning Methods 0.000 claims description 29
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 27
- 238000003860 storage Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- 239000000047 product Substances 0.000 description 52
- 230000008901 benefit Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 21
- 239000013589 supplement Substances 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000009877 rendering Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 238000011478 gradient descent method Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000000153 supplemental effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000000586 desensitisation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000005477 standard model Effects 0.000 description 2
- 238000012271 agricultural production Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本说明书实施例提供任务执行方法和优化任务执行方法,其中所述任务执行方法包括:接收前端输入的目标描述文本;利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本;向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;基于交互描述信息,生成目标任务;执行目标任务,得到任务执行结果。先利用文本处理网络进行规则检测,并在不符合的情况下,使用引导交互文本来有目的性地引导用户反馈完整描述信息,再基于完整的交互描述信息,生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,降低了复杂度,提升了效率和可解释性。
Description
技术领域
本说明书实施例涉及数据处理技术领域,特别涉及一种任务执行方法。
背景技术
随着计算机技术的发展,利用计算机的高算力,构建并执行任务,得到对应的任务执行结果,提升了任务的执行效率和准确度。例如,针对于优化问题,通过构建对应的优化任务,并执行该优化任务,得到对应的优化结果。
目前,任务的构建需要用户清楚理解分析任务的各任务元素(例如,任务目标、变量和变量关系等),并构建得到的任务。在用户掌握的相关领域的专业知识、分析能力和任务生成能力有限的情况下,不能有效地构建得到目标任务来执行,形成了较高地使用门槛和成本,具有较高的复杂度,任务执行效率不足。因此,亟需一种低成本、低复杂度和高效率的任务执行方法。
发明内容
有鉴于此,本说明书实施例提供了一种任务执行方法。本说明书一个或者多个实施例同时涉及另一种任务执行方法,一种优化任务执行方法,一种任务执行装置,另一种任务执行装置,一种优化任务执行装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
本说明书实施例提供了一种任务执行方法,包括:
接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息;
利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导补充文本,其中,文本处理网络为基于文本训练的深度学习网络;
向前端发送引导补充文本,并接收前端基于引导补充文本反馈的补充描述信息;
基于补充描述信息,生成目标任务;
执行目标任务,得到任务执行结果。
本说明书一个或多个实施例中,接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息;利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络;向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;基于交互描述信息,生成目标任务;执行目标任务,得到任务执行结果。利用文本处理网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成目标任务的交互描述信息,再基于完整有效的交互描述信息,直接生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,得到对应的任务执行结果,降低了任务执行的复杂度,提升了任务执行的效率,提升了任务执行的易用性和可解释性。
附图说明
图1是本说明书一个实施例提供的一种任务执行方法的流程图;
图2是本说明书一个实施例提供的另一种任务执行方法的流程图;
图3是本说明书一个实施例提供的一种优化任务执行方法的流程图;
图4是本说明书一个实施例提供的一种任务执行方法中目标任务的数学模型的处理流程示意图;
图5是本说明书一个实施例提供的一种任务执行方法中引导交互文本的前端示意图;
图6是本说明书一个实施例提供的一种任务执行方法中文本处理网络的训练流程示意图;
图7是本说明书一个实施例提供的一种应用于资源优化场景的任务执行方法的处理过程流程图;
图8是本说明书一个实施例提供的一种任务执行装置的结构示意图;
图9是本说明书一个实施例提供的另一种任务执行装置的结构示意图;
图10是本说明书一个实施例提供的一种优化任务执行装置的结构示意图;
图11是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
此外,需要说明的是,本说明书一个或多个实施例所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
本说明书一个或多个实施例中,大模型是指具有大规模模型参数的深度学习模型,通常包含上亿、上百亿、上千亿、上万亿甚至十万亿以上的模型参数。大模型又可以称为基石模型/基础模型(Foundation Model),通过大规模无标注的语料进行大模型的预训练,产出亿级以上参数的预训练模型,这种模型能适应广泛的下游任务,模型具有较好的泛化能力,例如大规模语言模型(Large Language Model, LLM)、多模态预训练模型(multi-modal pre-training model)等。大模型在实际应用时,仅需少量样本对预训练模型进行微调即可应用于不同的任务中,大模型可以广泛应用于自然语言处理(Natural LanguageProcessing,简称NLP)、计算机视觉等领域,具体可以应用于如视觉问答(Visual QuestionAnswering,简称VQA)、图像描述(Image Caption,简称IC)、图像生成等计算机视觉领域任务,以及基于文本的情感分类、文本摘要生成、机器翻译等自然语言处理领域任务,大模型主要的应用场景包括数字助理、智能机器人、搜索、在线教育、办公软件、电子商务、智能设计等。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
大语言模型(LLMs,Large Language Models):通常指参数在十亿级别及以上的、经过大量文本训练的神经网络模型。
优化问题(Optimization Problems):指在给定的约束条件下从所有可行解中找到优化解,使目标函数取得优化值的问题。
思维链信息(Chain of Thoughts):进行复杂推理时,给出推理步骤的自然语言描述,逐步推导出最终结果的方法。例如,题目:一家电子商品店出售两种产品:平板电视和笔记本电脑。平板电视每台价值 1000 ,收益 150 ;笔记本电脑每台价值 1200 ,收益 200 。该商店每月仅可以购买至多 100 台平板电视和 80 台笔记本电脑。此外,无论哪种电子商品,该商店每月仅能付出不超过 80000 的投入。请问商店应该销售多少平板电视和多少笔记本电脑才能获得最大收益?期望的回答:变量:平板电视销售数量,笔记本电脑销售数量。分别定义为:x,y。\n目标:maximize 150 * x + 200 * y。\n约束条件:(1000 - 150) * x+ (1200 - 200) * y<= 80000,x<= 100,y<= 80,x>= 0,y>= 0。一种思维链信息:变量:平板电视销售数量,笔记本电脑销售数量。分别定义为:x,y。目标是获得最大收益。平板电视每台收益 150 ,笔记本电脑每台收益 200 。因此目标是maximize 150 * x + 200 * y。该商店每月仅可以购买至多 100 台平板电视和 80 台笔记本电脑,因此约束是x<= 100,y<=80。该商店每月仅能付出不超过 80000 的投入。投入等于价值减去收益。平板电视每台价值 1000 ,收益 150 ;笔记本电脑每台价值 1200 ,收益 200 。因此平板电视每台投入是1000 - 150 = 850元,笔记本电脑每台投入是1200 - 200 = 1000元,因此约束是850 * x+ 1000 * y<= 80000。
求解器(Solver):指用来求解数学问题的独立程序或者代码库。建模语言(Modeling Language):一种描述模型设计、解决建模问题的代码语言。
量化(quantization):是一种将数学模型的模型参数由浮点数转换成整数存储,在计算时恢复成浮点数的方法,用于降低数学模型对算力成本的要求。
分层微调:通过对深度学习网络中固定层进行参数固定,调整其他层的参数的模型微调方法。
反馈强化训练(Reinforcement Learning from Human Feedback):是一种使用强化学习,利用反馈信号优化语言模型的方法。
对抗攻击(Adversarial Attack):又称为对抗训练,指构造对抗样本(Adversarial Example),使模型产生错误判断的方法。
优化潮流问题(Optimal Power Flow):在满足电网安全运行约束条件下,通过调控某些控制变量(例如,发电机组功率),使得电网某些指标(例如,运行成本)达到优化的数学优化问题。
语境学习(In-context Learning):大预言模型根据少量标注的示例样本,进行预测的方法。
目前,基于深度学习的文本处理网络通常经过大量多领域样本任务数据的预先训练,对各个领域的只是有一定的理解和泛化能力。随着文本处理网络的参数和训练规模的进一步增大,文本处理网络在任务生成和任务执行上展现出了一定的效果。然而,由于其在部分目标任务的对应领域垂直能力有限,需要用户在输入任务的描述文本基础上,手动输入示例提示文本,来对任务生成进行特定领域的提示。提升了对用户在专业知识方面的要求,同样具有较高的使用门槛和成本,具有较高的复杂度,任务执行效率不足。
在本说明书中,提供了一种任务执行方法,本说明书同时涉及另一种任务执行方法,一种优化任务执行方法,一种任务执行装置,另一种任务执行装置,一种优化任务执行装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了本说明书一个实施例提供的一种任务执行方法的流程图,包括如下具体步骤:
步骤102:接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息。
本说明书实施例应用于具有任务生成和任务执行的应用程序、网页或者小程序的客户端或者服务端,与客户端的前端之间建立有数据连接。该客户端或者服务端上部署有文本处理网络。前端为具有任务生成和任务执行的应用程序、网页或者小程序的客户端的用户交互前端,用户可以在前端上输入文本,实现与文本处理网络之间的交互,并接收反馈的文本进行渲染,展现给用户。
目标任务为目标问题的待执行任务,目标任务是通过至少一种任务元素定义得到的,通过特定的代码语言进行表征,包括但不限于:数学模型语言表征的数学模型,面向对象的编程语言表征的对象代码,面向过程编码语言表征的过程代码。例如,目标问题为资源优化问题,目标任务为资源优化问题的待执行代码,目标任务是通过任务目标、变量、变量关系和约束条件这四个任务元素定义得到的数学模型。目标任务可以进一步根据领域进行细化,例如,资源优化问题可以进一步细化为电力资源优化问题、矿产资源优化问题、生产资源优化问题、商品资源优化问题。
目标描述文本为对目标问题进行描述的自然语言文本,目标描述文本为关键描述信息的文本载体。例如,目标问题为资源优化问题,目标描述文本为“目前具有m份资源A……请问如何规划产品C和产品D的生产,以实现最大收益? ”。关键描述信息为目标描述文本中目标问题的信息描述文本,关键描述信息直接用于确定任务元素,来生成目标任务。例如,对于上述目标描述文本,其中,“m份资源A”……和“如何规划产品C和产品D的生产,以实现最大收益”为该优化问题的关键描述信息。
接收前端输入的目标描述文本,具体方式为:接收用户在前端输入并发送的目标描述文本。
示例性地,在某部署有文本处理网络的网页服务端上,接收用户在客户端前端输入并发送的优化任务的目标描述文本:“目前具有m份资源A,n份资源B,要求至少生产i份产品C和j份产品D。每份产品C需要m_c份资源A和n_c 份资源B,每份产品D需要m_d份资源A 和n_d份资源B。请问如何规划产品C和产品D的生产,以实现最大收益?”。
接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息。为后续进行规则检测并生成目标任务提供了文本数据。
步骤104:利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络。
文本处理网络为具有文本处理功能的深度神经网络,基于输入的描述文本,文本处理网络理解并执行文本处理任务,其中,文本处理网络按结构一般分为编码式,解码式和编码-解码式三种。其中,解码式文本处理网络广泛应用于生成式文本处理任务。当文本处理网络的参数规模达到一定大小时,认定为一种大语言模型网络。本说明书实施例中以大语言模型为例进行说明。文本处理网络是一种通过文本进行用户交互的深度学习网络,通过用户输入的文本进行对应的任务执行,得到任务的中间信息来反馈至用户进一步执行任务执行,或者得到的任务执行结果来反馈用户。目标任务对应的预设任务规则为目标任务对应的用于检测描述信息有效性和/或完整性的信息检测规则,具体是通过检查描述信息的有效性和/或完整性完成的,其中,有效性和完整性是针对于目标任务的生成可行性来衡量的。例如,检测关键描述信息中任务元素是否完整,检测关键描述信息中任务元素是否数位有效,检测关键描述信息中任务元素是否逻辑矛盾,检测关键描述信息是否存在语法错误(词法、句法错误),检测关键描述信息是否存在逻辑矛盾冲突,检测关键描述信息是否存在描述不清楚或者歧义。目标任务对应的预设任务规则是在文本处理网络的预先训练过程中学习到的,预设任务规则和目标任务是对应的,例如,目标任务为优化问题,预设任务规则可以为针对是否包含优化目标、变量、变量关系和约束条件这些任务元素的有效性和完整性,当关键描述信息中优化目标的不具有有效性的情况下,不符合预设任务规则,当关键描述信息中缺失约束条件的情况下,不符合预设任务规则。引导交互文本为用于引导用户反馈交互描述信息的自然语言文本,文本处理网络基于预设任务规则生成引导交互文本,引导交互文本对应于预设任务规则下关键描述信息的检测结果。根据关键描述信息的有效性和/或完整性对应生成,包括但不限于:引导补充文本和引导确定文本。例如,在预设任务规则下,检测得到目标描述文本中关键描述信息(“m份资源A”……“如何规划产品C和产品D的生产,以实现最大收益”)中缺少每份产品的收益这一任务元素,文本处理网络生成对应的引导补充文本:“请补充每份产品的收益。”。又例如,在预设任务规则下,检测得到目标描述文本中关键描述信息不缺少任务元素,文本处理网络生成对应的引导确定文本:“请问:您发送的目标描述文本中关键描述信息是否为:m份资源A……如何规划产品C和产品D的生产,以实现最大收益。如果是的话,描述信息完整且有效”。
可选地,在符合预设任务规则的情况下,基于关键描述信息,生成目标任务。
在符合的情况下,可以认为关键描述信息是完整且有效的,可以直接生成目标任务,也可以生成引导确定文本,接收到前端基于引导确定文本反馈的交互描述信息后再生成,在此不作限定。
基于预设任务规则生成引导补充文本,具体方式为:基于预设任务规则下关键描述信息的检测结果,生成对应的引导补充文本。
示例性地,将目标描述文本输入大语言模型网络,检测关键描述信息(“m份资源A”……“如何规划产品C和产品D的生产,以实现最大收益”)是否符合产品优化任务对应的预设任务规则,得到预设任务规则下关键描述信息的检测结果:缺少每份产品的收益这一任务元素,确定关键描述信息不符合预设任务规则,基于该检测结果(缺少每份产品的收益这一任务元素)生成引导补充文本:“请补充每份产品的收益。”。
利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导补充文本,其中,文本处理网络为基于文本训练的深度学习网络。针对性地检测了目标描述文本中关键描述信息是否符合目标任务的预设任务规则,保证了检测的准确度,并在不符合的情况下,生成有针对性地引导用户补充完整描述信息的引导补充文本,为后续有目的性地引导用户补充完整用于生成目标任务的补充描述信息奠定了文本数据基础,为后续有效完整地生成目标任务奠定了基础。
步骤106:向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息。
交互描述信息为用户基于引导交互文本对目标问题进行交互描述的信息描述文本,交互描述信息同样直接用于确定任务元素,来生成目标任务,在引导交互文本为引导补充文本的情况下,交互描述信息可以为前端基于引导补充文本反馈的针对目标问题的补充描述信息。一般地,相比于关键描述信息,补充描述信息具有更高的有效性和/或完整性。补充描述信息可以为对关键描述信息的补充,也可以为对关键描述信息的替换。例如,补充描述信息可以为“每份产品C的收益为P_c,每份产品D的收益为P_d”,也可以为“已补充,补充后的文本为:目前具有m份资源A……请问如何规划产品C和产品D的生产,以实现最大收益?”。在引导交互文本为引导确定文本的情况下,交互描述信息为前端基于引导确定文本反馈的针对引导确定文本的确定描述信息。例如,确定描述信息为“是的”。引导交互文本为引导确定文本的情况下,交互描述信息还可以为前端基于引导补充文本反馈的针对目标问题的补充描述信息。例如,补充描述信息为“不是,缺少每份产品的收益:每份产品C的收益为P_c,每份产品D的收益为P_d”。交互描述信息可以为通过交互描述文本的载体由前端发送的,也可以为直接由前端发送的。
向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息,具体方式为:向前端发送引导交互文本,前端对引导交互文本进行渲染,接收前端发送的用户基于渲染的引导交互文本输入的交互描述信息或者交互描述文本。
在接收到交互描述信息后,需要利用文本处理网络,检测交互描述信息,或者关键描述信息和交互描述信息是否符合目标任务对应的预设任务规则。需要说明的是,上述步骤104和步骤106可以迭代执行,在反馈的交互描述信息或者关键描述信息和交互描述信息仍不符合预设任务规则的情况下,基于预设任务规则生成引导交互文本,并向前端发送该引导交互文本,直至符合预设任务规则。通过该多轮交互,可以准确保证后续有效完整地生成目标任务。
示例性地,向客户端前端发送引导交互文本“请补充每份产品的收益。”,前端对该引导交互文本进行渲染,接收前端发送的用户基于渲染的引导交互文本,输入交互描述信息“每份产品C的收益为P_c,每份产品D的收益为P_d”。
向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息。对目标任务的描述信息进行了反馈,得到了有效完整的描述信息,为有效完整地生成目标任务奠定了基础。
步骤108:基于交互描述信息,生成目标任务。
目标任务为目标问题的待执行代码,可以有不同的代码格式,例如,目标问题为一种前端页面的美化问题,目标任务为HTML+CSS代码,又例如,目标问题为一种后端数据库的数据处理问题,目标任务为Python代码或者SQL代码,还例如,目标问题为一种应用后端开发问题,目标任务为Java代码,再例如,目标问题为一种优化问题,目标任务为AMPL代码。由于目标任务是基于描述信息生成的,描述信息为一种对于目标问题的信息描述文本,因而,目标任务具有可解释性,可以利用交互描述信息对目标任务进行注解。
基于交互描述信息,生成目标任务,具体方式为:基于交互描述信息中的任务元素,生成目标任务。在交互描述信息为对关键描述信息的交互的情况下,基于关键描述信息中的任务元素和交互描述信息中的任务元素,生成目标任务。在交互描述信息为对关键描述信息的情况下,直接基于交互描述信息中的任务元素,生成目标任务。其中,生成目标任务的方式,是通过预设的任务生成算法生成的,任务生成算法可以为预先建立的自然语言文本和代码之间的转换算法,例如,查询自然语言文本和代码之间的转换表,实现自然语言文本和代码之间的转换,又例如,利用预先训练的具有代码转换功能的深度学习网络,实现自然语言文本和代码之间的转换,还例如,利用逻辑树算法,实现自然语言文本和代码之间的转换,在此不作限定。
可选地,基于交互描述信息,生成目标任务,包括如下具体步骤:在交互描述信息为补充描述信息的情况下,基于关键描述信息和补充描述信息,生成目标任务;在交互描述信息为确定描述信息的情况下,基于关键描述信息,生成目标任务。
交互描述信息为补充描述信息,即说明了关键描述信息中存在任务元素的遗漏和无效,关键描述信息不具有完整性和有效性,在此情况下无法仅仅通过关键描述信息来完成目标任务的生成,需要结合补充描述信息来完成目标任务的生成。交互描述信息为确定描述信息不存在任务元素的遗漏,即说明了关键描述信息中不存在任务元素的遗漏和无效,在此情况下可以直接通过关键描述信息来完成目标任务的生成,确定描述信息作为一个确定关键描述信息具有完整性和有效性的反馈。
示例性地,补充描述信息为“每份产品C的收益为P_c,每份产品D的收益为P_d”。利用大语言模型网络,基于关键描述信息和补充描述信息中的任务元素,生成优化任务:“variable C>= i, variable D>= j, m_c * variable C + m_d *variable D<= m, n_c*variable C + n_d *variable D<= n,y = P_c * variable C + P_d * variable D,max(y)”。
示例性地,确定描述信息为“是的”。利用大语言模型网络,基于关键描述信息中的任务元素,生成优化任务:“variable C>= i, variable D>= j, m_c * variable C + m_d*variable D<= m, n_c *variable C + n_d *variable D<= n,y = P_c * variable C +P_d * variable D,max(y)”。
基于交互描述信息,生成目标任务。基于有效完整的交互描述信息,直接生成了有效完整的目标任务,降低了任务生成的门槛和成本,降低了任务执行的复杂度,提升了任务执行的易用性和可解释性。
步骤110:执行目标任务,得到任务执行结果。
任务执行结果为目标任务的代码执行结果,可以为多种模态,例如,目标问题为优化问题,执行优化任务,得到优化结果数值或者优化结果描述文本,还可以对优化结果进行图表化处理,得到优化结果图表。例如,目标问题为资源优化问题,任务执行结果为:产品C为12件,产品D为7件,还可以为对多种中间信息进行图表化处理,得到优化结果图表模态的任务执行结果。
执行目标任务,得到任务执行结果,具体方式为:调用执行器,执行目标任务,得到任务执行结果。其中,执行器为一种代码执行工具,包括但不限于:数学模型求解器、数据库管理工具、格式渲染工具、数据分析工具等。
可选地,在得到任务执行结果之后,还包括如下具体步骤:基于任务执行结果,生成并发送任务执行结果文本的结果文本至前端。
结果文本为包含任务执行结果的自然语言文本,结果文本为任务执行结果的文本载体,除了任务执行结果之外,结果文本还可以包含多种中间信息,中间信息为目标任务在生成和执行的过程中产生的信息。结果文本的生成可以利用预设的文本生成模板来生成,也可以利用预先训练的具有文本生成功能的深度学习网络来生成,在此不作限定。
示例性地,调用优化问题执行器,执行优化任务,得到任务执行结果:i=12 j=7。基于任务执行结果,利用大语言模型网络,生成包含任务执行结果的结果文本:“生产12份产品C,生产7份产品D,收益优化,收益为……”,将该结果文本发送至前端进行渲染。
本说明书实施例中,接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息;利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络;向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;基于交互描述信息,生成目标任务;执行目标任务,得到任务执行结果。利用文本处理网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成目标任务的交互描述信息,再基于完整有效的交互描述信息,直接生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,得到对应的任务执行结果,降低了任务执行的复杂度,提升了任务执行的效率,提升了任务执行的易用性和可解释性。
在本说明书一可选实施例中,步骤108包括如下具体步骤:提取交互描述信息中的任务元素;基于交互描述信息中的任务元素,生成目标任务的目标描述信息;利用文本处理网络,基于目标描述信息,生成目标任务的数学模型;相应地,步骤110包括如下具体步骤:运行目标任务的数学模型,得到任务执行结果。
本说明书实施例中,交互描述信息为关键描述信息的替换,为用于替换的补充描述信息。
目标任务为目标问题的待执行代码,代码需要通过变量、数据类型、函数(变量关系)和流程语句等元素定义,即通过至少一种任务元素定义得到。任务元素为任务的组成元素,包括但不限于:任务目标、任务对象、变量、变量关系(函数)、执行逻辑(流程控制)和约束条件。任务元素的有效性和完整性决定了目标任务的代码是否可以被有效完整执行。目标描述信息为直接用于生成目标任务的信息描述文本,目标描述信息为任务元素组合得到信息描述文本,在大语言模型中,目标描述信息可以为提示文本(Prompt)。例如,对于资源优化问题,交互描述信息包括任务目标、任务对象、变量、变量关系(函数)、执行逻辑(流程控制)和约束条件,其中,任务目标、变量、变量关系和约束条件的组合,构成目标描述信息。目标任务的数学模型为对目标问题的抽象模型代码,通过数学模型语言进行代码表征,例如,AMPL语言表征的数学模型。通过数学模型的执行器实现代码执行。
提取交互描述信息中的任务元素,可以为利用预先设置的任务元素提取算法提取得到,例如,正则表达式等字符串提取算法,也可以利用具有任务元素提取功能的深度学习网络提取得到。
基于交互描述信息中的任务元素,生成目标任务的目标描述信息,具体方式为:基于交互描述信息中的任务元素的组合,生成目标任务的目标描述信息。生成目标描述信息可以为利用预设的信息生成模板生成的,例如,利用提示文本生成模板来生成,也可以为利用具有信息生成功能的深度学习网络来生成。利用文本处理网络,基于目标描述信息,生成目标任务的数学模型,具体方式为:利用文本处理网络,对目标描述信息进行数学模型转换,生成目标任务的数学模型。数学模型转换具体是通过数学模型语言翻译(转录)实现的。运行目标任务的数学模型,得到任务执行结果,具体方式为:调用执行器,运行目标任务的数学模型,得到任务执行结果。针对于数学模型,执行器为数学模型求解器,也可以为数学模型建模工具,还可以为可视化分析工具,还可以为仿真工具,在此不做限定。
示例性地,将交互描述信息输入大语言模型网络,提取交互描述信息中的任务元素,基于任务元素的组合,生成优化任务的提示文本,对提示文本进行AMPL数学模型语言翻译,生成优化任务的数学模型:“variable C>= i, variable D>= j, m_c * variable C +m_d *variable D<= m, n_c *variable C + n_d *variable D<= n,y = P_c * variableC + P_d * variable D,max(y)”,调用求解器,运行优化任务的数学模型,得到任务执行结果:i=12 j=7。
本说明书实施例中,利用文本处理网络,对反馈的交互描述信息进行了任务元素层级的细化描述,得到目标任务的数学模型来运行,降低了数学模型生成的门槛和成本,保证了任务执行结果的准确度,同时,为生成模型提供了可解释性描述信息,进一步降低了任务执行的复杂度,进一步提升了任务执行的易用性和可解释性。
在本说明书一可选实施例中,在基于交互描述信息中的任务元素,生成目标任务的目标描述信息之前,还包括如下具体步骤:提取关键描述信息中的任务元素;相应地,基于交互描述信息中的任务元素,生成目标任务的目标描述信息,包括如下具体步骤:整合关键描述信息和交互描述信息中的任务元素,获得目标任务的目标任务元素;根据目标任务元素,生成目标任务的目标描述信息。
本说明书实施例中,交互描述信息为关键描述信息的补充,为用于补充的补充描述信息。目标任务元素为直接用于定义目标任务的任务元素,为目标任务的组成元素,包括但不限于:任务目标、任务对象、变量、变量关系(函数)、执行逻辑(流程控制)和约束条件。目标任务元素的有效性和完整性直接决定了目标任务的代码是否可以被有效完整执行。
提取关键描述信息中的任务元素,可以为利用预先设置的任务元素提取算法提取得到,例如,正则表达式等字符串提取算法,也可以利用具有任务元素提取功能的深度学习网络提取得到。
整合关键描述信息和交互描述信息中的任务元素,获得目标任务的目标任务元素,具体方式为:根据目标任务的预设任务规则,整合关键描述信息和交互描述信息中的任务元素,获得目标任务的目标任务元素。具体地,根据预设任务规则来整合任务元素,对冗余的任务元素进行筛选并确定两者的任务元素是否具有有效性和完整性,保证了任务元素的有效性和完整性。
根据目标任务元素,生成目标描述信息,具体方式为:根据整合得到的目标任务元素,生成目标任务的目标描述信息。生成目标描述信息可以为利用预设的信息生成模板生成的,例如,利用提示文本生成模板来生成,也可以为利用具有信息生成功能的深度学习网络来生成。
示例性地,将关键描述信息和交互描述信息输入大语言模型网络,提取两者的任务元素,根据优化任务的预设任务规则,整合关键描述信息和交互描述信息中的任务元素,获得目标任务元素的组合,根据目标任务元素的组合,生成优化任务的提示文本。
本说明书实施例中,对关键描述信息和交互描述信息进行了任务元素层级的细化描述,整合得到有效性和完整性的目标任务元素,保证了后续目标任务的代码可以被有效完整执行。
在本说明书一可选实施例中,利用文本处理网络,基于目标描述信息,生成目标任务的数学模型,包括如下具体步骤:利用文本处理网络,基于目标描述信息中的目标任务元素,生成目标任务的模型表达,并对模型表达进行数学模型转换,得到目标任务的数学模型。
模式表达为一种可以直接生成的目标问题的抽象表达,生成目标任务的数学模型优先通过模式表达进行转换。模型表达为目标问题的抽象表达,包括但不限于:数学表达式、逻辑树表达、流程表达、状态图表达和图表表达。例如,目标任务为优化问题,优化任务的模型表达为优化问题的数学表达式:y=x1 + 2x2 + 3x3;4x1 + 2x2 + 3x3<= 9;3x2 +2x3 + 4x4<= 14;5x3 + 3x4 + 2x4<= 19;min(y)。
基于目标描述信息中的目标任务元素,生成目标任务的模型表达,具体方式为:基于目标描述信息中的目标任务元素,进行抽象表达转换,得到目标任务的模型表达。例如,目标任务元素包括优化目标、变量、变量关系(函数)和约束条件,将优化目标设置为因变量y或者f(x),将变量设置为自变量x1、x2……,将变量关系设置为x1+2x2……,将约束条件设置为取值范围x1∈[0,10000],y∈[0,20000]……。对模型表达进行数学模型转换,得到目标任务的数学模型,具体方式为:对模型表达进行数学模型语言翻译,得到目标任务的数学模型。
示例性地,利用大语言模型网络,基于优化任务的提示文本中的目标任务元素,进行数学表达式转换,得到优化任务的数学表达式,对数学表达式进行AMPL数学模型语言翻译,生成优化任务的数学模型:“variable C>= i, variable D>= j, m_c * variable C +m_d *variable D<= m, n_c *variable C + n_d *variable D<= n,y = P_c * variableC + P_d * variable D,max(y)”。
利用文本处理网络,基于目标描述信息中的目标任务元素,生成目标任务的模型表达,并对模型表达进行数学模型转换,得到目标任务的数学模型。通过模型表达这一抽象表达,完成了直接的数学模型转换,提升了生成的目标任务的数学模型的准确度,并且提升了任务执行的可解释性。
在本说明书一可选实施例中,利用文本处理网络,基于目标描述信息,生成目标任务的数学模型,包括如下具体步骤:利用文本处理网络,基于目标描述信息中的目标任务元素,生成目标任务的思维链信息,并对思维链信息进行数学模型转换,得到目标任务的数学模型。
在目标问题的复杂度较高的情况下,无法直接转换得到目标任务的模式表达,可以通过思维链信息这一目标问题的细化步骤表达转换得到目标任务的数学模型。
思维链信息为用细化步骤对目标问题进行描述的信息描述文本,通过对目标问题的步骤进行细化,包括目标问题的多个子问题,例如,目标问题为电力资源预测问题,则目标问题包括目标时间段内电力负荷的预测子问题、目标时间段内供电功率的预测子问题、目标时间段内储能的预测子问题和电力传输损耗量的计算子问题等。思维链信息为一种细化步骤的问题推导表达。
基于目标描述信息中的目标任务元素,生成目标任务的思维链信息,具体方式为:基于目标描述信息中的目标任务元素,对目标任务进行拆分,得到多个目标子任务,基于多个目标子任务,生成目标任务的思维链信息。对思维链信息进行数学模型转换,得到目标任务的数学模型,具体方式为:对思维链信息进行数学模型语言翻译,得到目标任务的数学模型。
示例性地,利用大语言模型网络,基于目标描述信息中的目标任务元素,对优化任务进行拆分,得到多个优化子任务,基于多个优化子任务,生成优化任务的思维链信息,对数学表达式进行AMPL数学模型语言翻译,生成优化任务的数学模型:“variable C>= i,variable D>= j, m_c * variable C + m_d *variable D<= m, n_c *variable C + n_d*variable D<= n,y = P_c * variable C + P_d * variable D,max(y)”。
本说明书实施例中,通过思维链信息这一细化步骤表达,完成了间接的数学模型转换,提升了生成的目标任务的数学模型的准确度,并且提升了任务执行的易行性和可解释性。
在本说明书一可选实施例中,利用文本处理网络,基于目标描述信息,生成目标任务的数学模型,包括如下具体步骤:利用文本处理网络,基于目标描述信息,从预先建立的参考模型库中检索得到目标任务的参考模型,并基于目标描述信息中的目标任务元素,对参考模型进行调整,得到目标任务的数学模型。
在某些特定领域存在目标问题的标准模型,生成这一类目标问题的数学模型需要相关领域的专业知识,例如,针对于电力系统领域的优化潮流问题,如果要构建优化潮流问题的数学模型,需要掌握交流电和优化潮流的专业知识。若仅靠用户输入的描述信息,难以生成足够复杂、贴近生产实际的数学模型。因此,针对某些特定领域,如电力资源、供应链、项目管理、广告、人力资源、交通运输、农业生产、医疗保健、体育竞技和游戏竞技等,需要在标准模型的基础上结合用户输入的描述信息来进行数学模型生成。
参考模型为预先生成的目标问题的参考抽象模型代码,参考模型于目标问题有针对性,可以为相同或者相近问题的数学模型。参考模型库可以为存储有历史数学模型的数学模型数据库,也可以为开源的数学模型数据库,在此不作限定。
基于目标描述信息,从预先建立的参考模型库中检索得到目标任务的参考模型,具体方式为:基于目标描述信息的特征向量,从预先建立的参考模型库中检索得到目标任务的参考模型。参考数据库中的参考模型是按照对应的描述信息进行对应存储的,通过特征向量的相似度供检索。基于目标描述信息中的目标任务元素,对参考模型进行调整,得到目标任务的数学模型,具体方式为:基于目标描述信息中的目标任务元素,对参考模型的模型代码进行调整,得到目标任务的数学模型。例如,目标任务元素的变量包括:产品C为i,产品D为j,参考模型中模型代码为variable E>= i, variable F>= j,对其进行修改替换,得到variable C>= i, variable D>= j。
示例性地,利用大语言模型网络,基于目标描述信息的特征向量Feature,从预先建立的历史模型数据库中检索得到优化任务的参考模型:“variable E>= i, variable F>= j, m_c * variable E + m_d *variable F<= m, n_c *variable E + n_d *variableF<= n,target = P_e * variable E + P_f * variable F,max(target)”,并基于目标描述信息中的目标任务元素,对参考模型的模型变量名和变量值进行调整,得到优化任务的数学模型:“variable C>= i, variable D>= j, m_c * variable C + m_d *variable D<= m, n_c *variable C + n_d *variable D<= n,y = P_c * variable C + P_d *variable D,max(y)”。
本说明书实施例中,利用文本处理网络,检索得到了目标任务的参考模型,提升了数学模型的生成效率,降低了数学模型生成的门槛和成本,保证了任务执行结果的准确度,进一步降低了任务执行的复杂度,进一步提升了任务执行的易用性。
在本说明书一可选实施例中,在运行目标任务的数学模型,得到任务执行结果之前,还包括如下具体步骤:根据预设的模型检测规则,检测目标任务的数学模型是否可运行;在不可运行的情况下,调整目标描述信息和/或数学模型。
由于文本处理网络的性能限制,生成的数学模型的可运行性无法保证,需要在生成目标任务的数学模型后再对其进行可运行性进行检测。
模型检测规则为针对数学模型的可运行性的模型检测规则,具体是通过检测数学模型的代码语法和代码逻辑来实现的。可以通过调用代码检测工具来实现,也可以利用文本处理网络的语法检测规则单元和运行检测单元来实现,在此不做限定。
根据预设的模型检测规则,检测目标任务的数学模型是否可运行,具体方式为:根据预设的模型检测规则,检测目标任务的数学模型是否可运行,获得模型检测结果。在不可运行的情况下,调整目标描述信息和/或数学模型,具体方式为:在模型检测结果为不可运行的情况下,根据模型检测结果,调整目标描述信息和/或数学模型。需要说明的是,数学模型是通过模型表达转换得到的,根据模型检测结果,调整目标描述信息、模型表达和数学模型中至少一个。数学模型是通过思维链信息转换得到的,根据模型检测结果,调整目标描述信息、思维链信息和数学模型中至少一个。目标描述信息、模型表达、思维链信息和数学模型可以为人工调整,也可以为利用文本处理网络来调整,还可以为两者的结合,在此不做限定。人工调整为将模型检测结果发送至前端,接收前端反馈的调整后的目标描述信息、模型表达、思维链信息和数学模型中至少一个。网络调整为模型检测结果和目标描述信息、模型表达、思维链信息和数学模型中至少一个输入文本处理网络,对应调整。
可选地,在可运行的情况下,运行目标任务的数学模型,得到任务执行结果。
示例性地,根据预设的模型检测规则,检测优化任务的数学模型是否可运行,获得检测结果:不可运行,数学模型的变量名定义不符合语法,在检测结果为不可运行的情况下,根据检测结果(不可运行,数学模型的变量定义不符合语法),利用文本处理网络,调整数学模型的模型代码。
本说明书实施例中,检测了目标任务的数学模型的可运行性,降低了任务执行的复杂度,提升了任务执行的易用性。
在本说明书一可选实施例中,在步骤110之前,还包括如下具体步骤:生成目标任务的任务文本,并将任务文本发送至前端;相应地,步骤110包括如下具体步骤:响应于前端发送的任务执行指令,调用执行器,执行目标任务,得到任务执行结果,其中,任务执行指令为前端的用户基于任务文本确定执行目标任务的触发指令。
用户可能需要直接得到任务执行结果,也可能只需要得到目标任务,因而,在生成目标任务后,先反馈至用前端,在接收到前端的任务执行指令的情况下,再执行目标任务。
目标任务的任务文本为包含目标任务的任务生成信息文本,包括但不限于:目标描述信息、模型表达的生成信息(模型表达生成过程的中间信息)、模型表达、思维链信息的生成信息(思维链信息生成过程的中间信息)、思维链信息、参考模型的检索信息(参考模型检索过程的中间信息)、参考模型的调整信息(参考模型调整过程的中间信息)、参考模型、目标任务的数学模型的转换信息(数学模型转换过程的中间信息)、目标任务的数学模型。任务执行指令为前端的用户基于任务文本确定执行目标任务的触发指令。执行器为一种代码执行工具,包括但不限于:数学模型求解器、数据库管理工具、格式渲染工具、数据分析工具等。
示例性地,优化任务为优化任务的数学模型,根据优化任务的数学模型“variableC>= i, variable D>= j, m_c * variable C + m_d *variable D<= m, n_c *variableC + n_d *variable D<= n,y = P_c * variable C + P_d * variable D,max(y)”,生成优化任务的任务文本:“好的,以下是您输入的优化任务的目标描述文本,描述的是一个单一目标线性规划问题,可以用以下数学表达式说明:max(y),C>= i,D>= j ……,数学模型的AMPL代码具体如下:variable C>= i, variable D>= j, m_c * variable C + m_d *variable D<= m, n_c *variable C + n_d *variable D<= n,y = P_c * variable C +P_d * variable D,max(y)”,并将该任务文本发送至前端;响应于前端发送的任务执行指令,调用数学模型求解器,对该数学模型求解,得到任务执行结果:i=12 j=7,基于该任务执行结果,利用大语言模型网络,生成包含任务执行结果的结果文本,将该结果文本发送至前端进行渲染。
本说明书实施例中,在生成目标任务后,反馈至前端,在接收到前端发送的任务执行指令的情况下,响应调用执行器,执行目标任务,提升了任务场景在不同用户需求下的通用性。
在本说明书一可选实施例中,在步骤110之后,还包括如下具体步骤:将任务执行结果发送至前端;响应于前端发送的分析指令,获取目标任务的中间信息,其中,分析指令为前端的用户基于任务执行结果确定对目标任务进行分析的触发指令,中间信息包括目标任务在生成和执行的过程中产生的信息;对中间信息进行分析,生成目标任务的分析报告;将分析报告发送至前端。
虽然执行得到任务执行结果,但考虑到用户不一定对于任务执行结果感到满意,需要对任务生成和执行过程中的中间信息进行进一步的分析,得到分析报告,保证用户可以通过调整中间信息,得到满足用户需求的任务执行结果。
分析指令为前端的用户基于任务执行结果确定对目标任务进行分析的触发指令。目标任务的中间信息为从目标描述文本至目标任务执行得到任务执行过程中的信息,包括目标任务在生成和执行的过程中产生的信息。具体包括但不限于:目标描述文本、关键描述信息、引导补充文本、补充描述信息、任务元素、目标描述信息、目标任务元素、模型表达、思维链信息、参考模型、目标任务的数学模型、模型检测结果、模型调整记录。分析报告为对目标任务的生成和执行情况进行分析得到分析结果报告,包括:分析原因和分析建议,例如,分析得到目标任务生成过程中描述信息存在歧义,得到分析原因为描述信息存在歧义,分析建议为调整描述信息。分析报告可以通过多种模态进行展示,包括但不限于:文本、图像、视频、图表。下面以上述示例在图表模态下的分析报告为例,如表1所示:
表1
对中间信息进行分析,生成目标任务的分析报告,具体方式为:利用分析工具,对中间信息进行分析,得到分析原因和分析建议,基于分析原因和分析建议,生成目标任务的分析报告。其中,分析工具可以为调用的文本处理网络外的工具,也可以为文本处理网络自身的分析单元。
可选地,在将任务执行结果发送至前端之后,还包括如下具体步骤:接收用户调整后的目标描述文本、补充描述信息、模型表达、思维链信息、参考模型和目标任务的数学模型中至少一个,返回执行上述对应步骤104、步骤106或者步骤108。
需要说明的是,任务执行可以为多轮次,每轮次结束都生成分析报告并发送给前端,也可以是在达到预设轮次阈值的情况下,生成分析报告,在此不作限定。
示例性地,将任务执行结果i=12 j=7发送至前端,响应于前端发送的分析指令,获取优化任务的中间信息(目标描述文本、关键描述信息、引导补充文本、补充描述信息、任务元素、目标描述信息、目标任务元素、模型表达、优化任务的数学模型、模型检测结果和模型调整记录),利用大语言模型网络的分析单元,对中间信息进行分析,得到分析原因和分析建议:分析原因为描述信息存在歧义,分析建议为调整描述信息,基于分析原因和分析建议,生成优化任务的分析报告,将分析报告发送至前端,接收前端发送的调整后的优化任务的目标描述文本,其中,目标描述文本包括调整后的关键描述信息,返回执行步骤104,直至得到任务执行结果。
本说明书实施例中,进一步满足了用户具体的需求,进行了交互式的分析处理,得到对应的分析报告,提升了任务执行的通用性和扩展性,提升了用户体验,提升了后续任务执行的易行性。
在本说明书一种可选实施例中,文本处理网络包括检测单元和引导文本生成单元;相应地,在步骤104之前,还包括如下具体步骤:获取样本集,其中,样本集包括多个第一样本任务,第一样本任务包括样本描述信息,样本描述信息在不符合第一样本任务对应的预设任务规则的情况下携带有标签引导交互文本;样本集中提取目标第一样本任务,其中,目标第一样本任务为样本集中的任一第一样本任务;用检测单元,检测目标第一样本任务的样本描述信息是否符合目标第一样本任务对应的预设任务规则,得到目标第一样本任务的检测结果;在目标第一样本任务的检测结果为不符合的情况下,利用引导文本生成单元,基于目标第一样本任务的样本描述信息生成预测引导交互文本;基于检测结果、预测引导交互文本和标签引导交互文本,计算第一损失值;根据第一损失值,调整检测单元和引导文本生成单元的参数,并返回从样本集中提取目标第一样本任务的步骤,直至达到预设训练停止条件,获得训练完成的文本处理网络。
本说明书实施例中,文本处理网络是经过预先大规模样本的预训练得到的,在此是对其进行更适用于应用的微调(Finetune),文本处理网络的训练可以为利用特定领域中细化的样本任务来训练。
检测单元为文本处理网络中用于检测是否符合预设任务规则的功能单元。引导文本生成单元为文本处理网络中用于生成引导交互文本的功能单元。样本集为预先构建的用于文本处理网络训练的多个样本任务的集合,样本集包括多个样本任务。样本任务为样本问题的待执行任务,样本任务包括对应的样本描述信息,样本任务还可以包括样本模型表达、样本思维链信息、样本参考模型、样本数学模型,对应完成对文本处理网络的其他单元的训练。可以在样本任务上添加对应的提示文本进行有提示性的网络训练,提示文本与需要训练的网络单元相关,例如,在训练生成单元的阶段,添加模型生成的提示文本,又例如,在训练执行器的阶段,添加任务执行的提示文本。样本描述信息为对样本问题进行描述的自然语言文本,可以从样本数据库中获取得到,也可以利用文本处理网络生成得到,还可以人为构造得到。同理,样本模型表达携带有标签数学模型,样本思维链信息携带有标签数学模型,样本参考模型携带有标签数学模型,样本数学模型携带有标签任务执行结果。利用样本模型表达和标签数学模型,完成对生成单元的训练。利用样本思维链信息和标签数学模型,完成对生成单元的训练。利用样本参考模型和标签数学模型,完成对生成单元的训练。利用样本数学模型和标签任务执行结果,完成对执行器的训练。在样本描述信息不符合样本任务的预设任务规则的情况下的携带对应的标签引导交互文本,标签引导交互文本为用于引导用户反馈样本描述信息的自然语言文本,可以为从样本数据库中获取得到,也可以利用文本处理网络基于样本描述信息进行交互得到,还可以为任务构造得到的,标签引导交互文本为预先进行标签标注的,可以为人工标注,也可以为利用自动标注算法评测标注的,样本描述信息可以为有效且完整的描述信息,也可以为冗余样本描述信息或者确实样本描述信息,即一种对抗样本。同理,样本模型表达、样本思维链信息、样本参考模型、样本数学模型也都可以一种对抗样本。可选地,在该样本集基础上,构建其他样本,包括信息冗余和缺失的场景样本、优化方案和参数选择样本、优化方案代码错误信息和诊断结果样本。
需要说明的是,样本任务的样本描述信息经过预处理,包括但不限于:脱敏处理、筛选处理和样本增强处理,例如,生成样本描述信息的文本相似描述信息作为扩充的样本描述信息。需要说明的是,为了提升对文本处理网络的训练效果,可以通过提升样本集中样本任务数量,构建多种语言的样本任务,样本增强等方式实现。并且,可以在完成了拆解成多个阶段完成文本处理网络中各单元的训练后,再利用文本描述信息和标签任务执行结果完成统一训练。
在生成预测引导交互文本的过程中,可以采用语境学习的方式进行辅助预测,包括但不限于:根据样本任务,确定样本任务对应的提示文本,将提示文本和样本描述信息输入文本处理网络生成预测引导交互文本;检索得到样本任务的参考描述信息和/或参考引导交互文本,作为示例文本,将示例文本和样本描述信息输入文本处理网络生成预测引导交互文本。也可以为上述两种方式的结合,在此不作限定。
第一损失值为表征在检测结果下预测引导交互文本和标签引导交互文本之间文本损失的损失值,包括但不限于:余弦损失值、交叉熵损失值、向量距离损失值。
根据第一损失值,调整检测单元和引导文本生成单元的参数,具体方式为:根据第一损失值,利用梯度下降法,调整检测单元和引导文本生成单元的参数。其中,调整参数可以为分层微调,在文本处理网络的参数规模巨大的情况下,直接调整损失值对算力要求过高,可以通过固定检测单元和引导文本生成单元中部分特征处理层的参数来对其他特征处理层的参数进行调整。调整参数也可以通过引入科学系参数的方式来调整,例如,Adaptor、LoRA和P-tuning v2。调整参数还可以通过反馈强化学习的方式来调整。
通过构建高质量的样本集,提升了文本处理网络的训练效果。通过模型微调和语境学习,确保了文本处理网络满足了任务生成和任务执行功能的同时,更符合自然语言习惯和相关领域的任务规则。对于数据缺乏的领域,通过语境学习辅助文本处理网络进行预测,提升了训练效果。
示例性地,获取样本集,其中,样本集包括100个第一样本任务,第一样本任务包括样本描述信息,样本描述信息在不符合第一样本任务对应的预设任务规则的情况下携带有标签引导交互文本,从样本集中提取目标第一样本任务,利用文本处理网络的检测单元,检测目标第一样本任务的样本描述信息是否符合目标第一样本任务对应的预设任务规则,得到目标第一样本任务的检测结果,在目标第一样本任务的检测结果为不符合的情况下,利用引导文本生成单元,基于目标第一样本任务的样本描述信息,采用语境学习的方式,生成预测引导交互文本,基于检测结果、预测引导交互文本和标签引导交互文本,计算第一损失值,根据第一损失值,利用梯度下降法,分层调整检测单元和引导文本生成单元的参数,并返回从样本集中提取目标第一样本任务的步骤,直至达到预设训练停止条件,获得训练完成的文本处理网络。
本说明书实施例中,提升了训练得到的文本生成网络的描述信息检测能力和引导交互文本的生成能力,实现了后续更准确的描述信息检测和引导交互文本生成,生成更为准确的目标任务,提升了任务执行的准确度。
在本说明书一可选实施例中,样本集还包括多个第二样本任务,第二样本任务包括样本描述信息和标签数学模型;文本处理网络还包括生成单元;相应地,该方法还包括如下具体步骤:从样本集中提取目标第二样本任务,其中,目标第二样本任务为样本集中的任一第二样本任务;利用生成单元,基于目标第二样本任务的样本描述信息,生成目标第二样本任务的预测数学模型;基于目标第二样本任务的预测数学模型和标签数学模型,计算第二损失值;根据第二损失值,调整生成单元的参数,并返回从样本集中提取目标第二样本任务的步骤,直至达到预设训练停止条件,得到训练完成的文本处理网络。
基于深度学习的文本处理网络通常经过海量多领域数据预训练,对各个领域知识有一定的理解和泛化能力。近年来,随着网络参数和训练规模的进一步增大,已有文本处理网络在推理任务上展现了涌现现象。但目前大模型在应用上通常针对通用领域的问答和检索,在垂直领域(如科学计算)和规划任务上相对较弱,且会出现事实性错误。本说明书实施例中,文本处理网络是经过预先大规模样本的预训练得到的,在此是对其进行更适用于应用的微调(Finetune),文本处理网络的训练可以为利用特定领域中细化的样本任务来训练,在垂直领域有更强的针对性,避免事实性错误。
生成单元为文本处理网络中用于生成数学模型的功能单元。针对于数学模型的生成和执行,生成单元可以进一步分为模型表达生成单元和数学模型转换单元、思维链信息生成单元和数学模型转换单元,或者参考模型检索单元和参考模型调整单元。
需要说明的是,样本任务的样本描述信息经过预处理,包括但不限于:脱敏处理、筛选处理和样本增强处理,例如,生成样本描述信息的文本相似描述信息作为扩充的样本描述信息。需要说明的是,为了提升对文本处理网络的训练效果,可以通过提升样本集中样本任务数量,构建多种语言的样本任务,样本增强等方式实现。并且,可以在完成了拆解成多个阶段完成文本处理网络中各单元的训练后,再利用文本描述信息和标签任务执行结果完成统一训练。
需要说明的是,因此,除了在前述数据阶段严格把控数据质量,在文本处理网络微调阶段对齐文本处理网络与人类反馈外,本方案还将采用对抗攻击的方式,通过人工交互和相关算法构造提问,诱导文本处理网络产出有偏、不符合事实、不符合价值观要求的回答,并微调文本处理网络对此类恶意提问产生鲁棒性。
在生成预测数学模型的过程中,可以采用语境学习的方式进行辅助预测,包括但不限于:根据样本任务,确定样本任务对应的提示文本,将提示文本和样本描述信息输入文本处理网络生成预测数学模型;检索得到样本任务的参考描述信息和/或参考数学模型,作为示例文本,将示例文本和样本描述信息输入文本处理网络生成预测数学模型。也可以为上述两种方式的结合,在此不作限定。
第二损失值为表征预测数学模型和标签数学模型之间文本损失的损失值,包括但不限于:余弦损失值、交叉熵损失值、向量距离损失值。根据第二损失值,调整生成单元的参数,并返回从样本集中提取目标第二样本任务的步骤,直至达到预设训练停止条件,得到训练完成的文本处理网络,具体方式为:根据第二损失值,利用梯度下降法,调整生成单元的参数。其中,调整参数可以为分层微调,在文本处理网络的参数规模巨大的情况下,直接调整损失值对算力要求过高,可以通过固定生成单元中部分特征处理层的参数来对其他特征处理层的参数进行调整。调整参数也可以通过引入科学系参数的方式来调整,例如,Adaptor、LoRA和P-tuning v2。调整参数还可以通过反馈强化学习的方式来调整。
示例性地,从样本集中提取目标第二样本任务,利用生成单元,基于目标第二样本任务的样本描述信息,采用语境学习的方式,生成目标第二样本任务的预测数学模型,基于目标第二样本任务的预测数学模型和标签数学模型,计算第二损失值,根据第二损失值,利用梯度下降法,分层调整生成单元的参数,并返回从样本集中提取目标第二样本任务的步骤,直至达到预设训练停止条件,获得训练完成的文本处理网络。
本说明书实施例中,提升了文本处理网络的与样本任务的针对性,保证了后续生成数学模型的准确度,降低了利用数学模型任务执行的复杂度,提升了任务执行的易用性和可解释性。
参见图2,图2示出了本说明书一个实施例提供的另一种任务执行方法的流程图,包括如下具体步骤:
步骤202:接收前端输入的初始问题文本,其中,初始问题文本包括目标任务的关键描述信息;步骤204:利用大语言模型网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导答复文本,其中,大语言模型网络为基于文本训练的具有大规模模型参数的深度学习网络;步骤206:向前端发送引导答复文本,并接收前端基于引导答复文本反馈的目标问题文本,其中,目标问题文本包括目标任务的交互描述信息;步骤208:基于交互描述信息,生成目标任务;步骤210:执行目标任务,得到任务执行结果。
本说明书实施例应用于具有任务生成和任务执行的应用程序、网页或者小程序的客户端或者服务端,与客户端的前端之间建立有数据连接。该客户端或者服务端上部署有大语言模型网络。前端为具有任务生成和任务执行的应用程序、网页或者小程序的客户端的用户交互前端,用户可以在前端上输入初始问题文本,实现与大语言模型网络之间的交互,并接收反馈目标问题文本来执行任务,得到任务执行结果反馈给用户来进行渲染展示。
初始问题文本为对目标问题进行描述的自然语言文本,初始问题文本为关键描述信息的文本载体。引导答复文本为用于引导用户反馈目标问题文本的自然语言文本,大语言模型网络基于预设任务规则生成引导答复文本,引导答复文本对应于预设任务规则下关键描述信息的检测结果。根据关键描述信息的有效性和/或完整性对应生成,包括但不限于:引导补充文本和引导确定文本。目标问题文本为用户基于引导答复文本对目标问题进行答复的信息描述文本,目标问题文本包括目标任务的答复描述信息。交互描述信息同样直接用于确定任务元素,来生成目标任务,在引导答复文本为引导补充文本的情况下,交互描述信息可以为前端基于引导补充文本反馈的针对目标问题的补充描述信息。一般地,相比于关键描述信息,补充描述信息具有更高的有效性和/或完整性。补充描述信息可以为对关键描述信息的补充,也可以为对关键描述信息的替换。在引导答复文本为引导确定文本的情况下,交互描述信息为前端基于引导确定文本反馈的针对引导确定文本的确定描述信息。引导答复文本为引导确定文本的情况下,交互描述信息还可以为前端基于引导补充文本反馈的针对目标问题的补充描述信息。交互描述信息可以为通过交互描述文本的载体由前端发送的,也可以为直接由前端发送的。
本说明书实施例和图1实施例出于同一发明构思,步骤202至步骤210中未详细说明的具体方式参见步骤102至步骤110。
示例性地,在某部署有大语言模型网络的网页服务端上,接收用户在客户端前端输入并发送的优化任务的初始问题文本:“目前具有m份资源A,……以实现最大收益?”。将初始问题文本输入大语言模型网络,检测关键描述信息(“m份资源A”、……“如何规划产品C和产品D的生产,以实现最大收益”)是否符合产品优化任务对应的预设任务规则,得到预设任务规则下关键描述信息的检测结果:缺少每份产品的收益这一任务元素,确定关键描述信息不符合预设任务规则,基于该检测结果(缺少每份产品的收益这一任务元素)生成引导补充文本:“请补充每份产品的收益。”。向客户端前端发送引导交互文本“请补充每份产品的收益。”,前端对该引导交互文本进行渲染,接收前端发送的用户基于渲染的引导交互文本,输入目标问题文本“每份产品C的收益为P_c,每份产品D的收益为P_d”,其中,补充描述信息为“每份产品C的收益为P_c,每份产品D的收益为P_d”。利用大语言模型网络,基于关键描述信息和补充描述信息中的任务元素:(优化目标;变量;变量关系;约束条件),生成优化任务。调用优化问题求解器,执行优化任务,得到任务执行结果:i=12 j=7。基于任务执行结果,利用大语言模型网络,生成包含任务执行结果的结果文本:“生产12份产品C,生产7份产品D,收益优化,收益为……”,将该结果文本发送至前端进行渲染。
本说明书实施例中,利用大语言模型网络这一预先训练的可进行答复交互的大规模通用的深度学习网络,检测输入的关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成目标任务的目标问题文本,再基于完整有效的目标问题文本中的交互描述信息,通过问答的方式,直接生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,得到对应的任务执行结果,降低了任务执行的复杂度,提升了任务执行的效率,提升了任务执行的易用性和可解释性。
参见图3,图3示出了本说明书一个实施例提供的一种优化任务执行方法的流程图,包括如下具体步骤:
步骤302:接收前端输入的目标描述文本,其中,目标描述文本包括优化任务的关键描述信息;步骤304:利用文本处理网络,检测关键描述信息是否符合优化任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络;步骤306:向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;步骤308:基于交互描述信息,生成优化任务的数学模型;步骤310:执行优化任务的数学模型,得到优化结果。
本说明书实施例应用于具有优化任务生成和优化任务执行的应用程序、网页或者小程序的客户端或者服务端,与客户端的前端之间建立有数据连接。该客户端或者服务端上部署有文本处理网络。前端为具有优化任务生成和优化任务执行的应用程序、网页或者小程序的客户端的用户交互前端,用户可以在前端上输入文本,实现与文本处理网络之间的交互,并接收反馈的文本进行渲染,展现给用户。
优化任务为针对于优化问题的待执行任务,优化问题是在约束条件下达成优化目标的问题。优化问题在转换为优化任务的过程中,对应确定变量、变量关系、约束条件和优化目标等任务元素。优化问题是现代科学和工程的重要方法,广泛应用于研发设计、生产制造、经营管理、数字商务等不同领域。例如,在电力调度的工程领域,优化问题包括:优化潮流问题,对应确定优化潮流任务。优化任务对应的预设任务规则为优化任务对应的用于检测描述信息有效性和/或完整性的信息检测规则,具体是通过检查描述信息的有效性和/或完整性完成的,其中,有效性和完整性是针对于优化任务的生成可行性来衡量的。优化任务的数学模型为对优化问题的抽象模型代码,通过数学模型语言进行代码表征,例如,AMPL语言表征的优化问题的数学模型。通过数学模型的执行器实现代码执行。优化结果为优化任务的数学模型的代码执行结果,可以为多种模态,例如,执行优化任务的数学模型,得到优化结果数值或者优化结果描述文本,还可以对优化结果进行图表化处理,得到优化结果图表。
本说明书实施例和图1实施例出于同一发明构思,步骤302至步骤310的具体方式参见步骤102至步骤110。
本说明书实施例中,利用文本处理网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合优化任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成优化任务的交互描述信息,再基于完整有效的交互描述信息,直接生成优化任务的数学模型,降低了优化任务的数学模型生成的门槛和成本,最后执行生成的优化任务的数学模型,得到对应的优化结果,降低了优化任务执行的复杂度,提升了优化任务执行的效率,提升了优化任务执行的易用性和可解释性。
图4示出了本说明书一个实施例提供的一种任务执行方法中目标任务的数学模型的处理流程示意图,如图4所示:
任务执行包括:用户交互、建立数学模型、运行性检测和分析,以及求解和回复4个阶段。
在用户交互阶段,接收用户输入目标任务的关键描述信息,利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,在不符合的情况下,生成并发送引导交互文本跟用户,接收用户基于引导交互文本发送的交互描述信息,重复上述步骤,直至符合。在建立数学模型阶段,基于交互描述信息,生成目标任务的模型表达或者思维链信息,对目标任务的模型表达或者思维链信息进行数学模型转换,得到目标任务的数学模型。在运行性检测和分析阶段,检测目标任务的数学模型是否可运行,在不可运行的情况下,对中间信息进行分析,调整关键描述信息和交互描述信息,调整目标任务的模型表达或者思维链信息,或者调整目标任务的数学模型。在求解和回复阶段,在检测目标任务的数学模型可运行的情况下,调用求解器求解,得到任务执行结果,基于任务执行结果生成任务执行结果的结果文本,并回复任务执行结果的结果文本至用户。
图5示出了本说明书一个实施例提供的一种任务执行方法中引导补充文本的前端示意图,如图5所示:
用户输入目标任务的目标描述文本:“我有一间商店,想出售以下商品……”。文本处理网络对目标描述文本的关键描述信息进行目标任务的预设任务规则检测,生成并反馈引导补充文本1:“您的描述中缺少优化目标,请问您是要优化进货量么?”,用户基于引导补充文本1回复补充描述文本1:“是的”,文本处理网络生成并反馈引导补充文本2:“您的描述中缺少约束条件,请问您是要控制投入资源么?” ,用户基于引导补充文本2回复补充描述文本2:“是的,商品A进货……商品B进货……”,文本处理网络基于关键描述信息和补充描述文本中的补充描述信息,确定目标任务,生成目标任务的数学模型,并生成包含目标任务的数学模型的任务文本:“这是一个线性规划问题,可以建模求解……如果写成AMPL代码的话……”。后续用户可以进一步发送任务执行指令,来调用数学模型求解器,对该数学模型进行求解,得到任务执行结果。
图6示出了本说明书一个实施例提供的一种任务执行方法中文本处理网络的训练流程示意图,如图6所示:
对获取的样本数据进行预处理,进行样本数据构建,具体的:提取样本描述信息,并标注标签引导交互文本和标签数学模型,基于样本描述信息,构建对抗样本,得到不符合预设任务规则的冗余样本描述信息和缺失样本描述信息,得到不可运行的样本描述信息和标签数学模型,通过样本描述信息、标签引导交互文本和标签数学模型,构建得到样本模型表达、样本思维链信息、样本参考模型、样本数学模型、标签数学模型和标签任务执行结果。对构建得到的样本集,利用分层微调等监督训练方法、反馈增强训练和对抗训练来进行模型训练,完成和用户的交互。
下述结合附图7,以本说明书提供的任务执行方法在资源优化场景的应用为例,对所述任务执行方法进行进一步说明。其中,图7示出了本说明书一个实施例提供的一种应用于资源优化场景的任务执行方法的处理过程流程图,包括如下具体步骤:
步骤702:接收前端输入的目标描述文本,其中,目标描述文本包括资源优化任务的关键描述信息;步骤704:利用大语言模型网络的检测单元,检测关键描述信息是否符合资源优化任务对应的预设任务规则;步骤706:利用大语言模型网络的引导文本生成单元,在不符合的情况下,基于预设任务规则生成引导补充文本;步骤708:向前端发送引导补充文本,并接收前端基于引导补充文本反馈的补充描述信息;步骤710:利用大语言模型网络的模型表达生成单元,提取关键描述信息中的任务元素,提取补充描述信息中的任务元素,整合关键描述信息和补充描述信息中的任务元素,获得资源优化任务的目标任务元素,根据目标任务元素,生成资源优化任务的目标描述信息,基于目标描述信息中的目标任务元素,生成资源优化任务的模型表达;步骤712:利用大语言模型网络的数学模型生成单元,对模型表达进行数学模型转换,得到资源优化任务的数学模型;步骤714:利用大语言模型网络的运行性检测单元,根据预设的模型检测规则,检测资源优化任务的数学模型是否可运行;步骤716:在不可运行的情况下,利用大语言模型网络的调整单元,调整目标描述信息、模型表达和数学模型中至少一个;步骤718:生成包含资源优化任务的数学模型的任务文本,并将任务文本发送至前端;步骤720:响应于前端发送的任务执行指令,调用数学模型求解器,执行资源优化任务,得到资源优化结果;步骤722:将资源优化结果发送至前端;步骤724:响应于前端发送的分析指令,利用大语言模型网络的分析单元,获取资源优化任务的中间信息,对中间信息进行分析,生成资源优化任务的分析报告,将分析报告发送至前端。
本说明书实施例中,利用大语言模型网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合资源优化任务对应的预设任务规则,并在不符合的情况下,生成并发送引导补充文本来引导用户进行补充,有目的性地引导用户补充完整用于生成资源优化任务的补充描述信息,再基于完整有效的补充描述信息,直接生成资源优化任务,降低了任务生成的门槛和成本,最后执行生成的资源优化任务,得到对应的资源优化结果,降低了资源优化场景中优化任务执行的复杂度,提升了资源优化场景中优化任务执行的效率,提升了资源优化场景中优化任务执行的易用性和可解释性。
与上述方法实施例相对应,本说明书还提供了任务执行装置实施例,图8示出了本说明书一个实施例提供的一种任务执行装置的结构示意图。如图8所示,该装置包括:
第一接收模块802,被配置为接收前端输入的目标描述文本,其中,目标描述文本包括目标任务的关键描述信息;第一检测模块804,被配置为利用文本处理网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络;第一引导模块806,被配置为向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;第一生成模块808,被配置为基于交互描述信息,生成目标任务;第一执行模块810,被配置为执行目标任务,得到任务执行结果。
可选地,第一生成模块808被进一步配置为:提取交互描述信息中的任务元素;基于交互描述信息中的任务元素,生成目标任务的目标描述信息;利用文本处理网络,基于目标描述信息,生成目标任务的数学模型;相应地,第一执行模块810被进一步配置为:运行目标任务的数学模型,得到任务执行结果。
可选地,该装置还包括:提取模块,被配置为提取关键描述信息中的任务元素;相应地,第一生成模块808被进一步配置为:整合关键描述信息和交互描述信息中的任务元素,获得目标任务的目标任务元素;根据目标任务元素,生成目标任务的目标描述信息。
可选地,第一生成模块808被进一步配置为:利用文本处理网络,基于目标描述信息中的目标任务元素,生成目标任务的模型表达,并对模型表达进行数学模型转换,得到目标任务的数学模型。
可选地,第一生成模块808被进一步配置为:利用文本处理网络,基于目标描述信息中的目标任务元素,生成目标任务的思维链信息,并对思维链信息进行数学模型转换,得到目标任务的数学模型。
可选地,第一生成模块808被进一步配置为:利用文本处理网络,基于目标描述信息,从预先建立的参考模型库中检索得到目标任务的参考模型,并基于目标描述信息中的目标任务元素,对参考模型进行调整,得到目标任务的数学模型。
可选地,该装置还包括:调整模块,被配置为根据预设的模型检测规则,检测目标任务的数学模型是否可运行;在不可运行的情况下,调整目标描述信息和/或数学模型。
可选地,该装置还包括:任务文本生成模块,被配置为生成目标任务的任务文本,并将任务文本发送至前端;
相应地,第一执行模块810被进一步配置为:响应于前端发送的任务执行指令,调用执行器,执行目标任务,得到任务执行结果,其中,任务执行指令为前端的用户基于任务文本确定执行目标任务的触发指令。
可选地,该装置还包括:分析模块,被配置为将任务执行结果发送至前端;响应于前端发送的分析指令,获取目标任务的中间信息,其中,分析指令为前端的用户基于任务执行结果确定对目标任务进行分析的触发指令,中间信息包括目标任务在生成和执行的过程中产生的信息;对中间信息进行分析,生成目标任务的分析报告;将分析报告发送至前端。
可选地,文本处理网络包括检测单元和引导文本生成单元;
相应地,该装置还包括:第一训练模块,被配置为获取样本集,其中,样本集包括多个第一样本任务,第一样本任务包括样本描述信息,样本描述信息在不符合第一样本任务对应的预设任务规则的情况下携带有标签引导交互文本;从样本集中提取目标第一样本任务,其中,目标第一样本任务为样本集中的任一第一样本任务;利用检测单元,检测目标第一样本任务的样本描述信息是否符合目标第一样本任务对应的预设任务规则,得到目标第一样本任务的检测结果;在目标第一样本任务的检测结果为不符合的情况下,利用引导文本生成单元,基于目标第一样本任务的样本描述信息生成预测引导交互文本;基于检测结果、预测引导交互文本和标签引导交互文本,计算第一损失值;根据第一损失值,调整检测单元和引导文本生成单元的参数,并返回从样本集中提取目标第一样本任务的步骤,直至达到预设训练停止条件,获得训练完成的文本处理网络。
可选地,样本集还包括多个第二样本任务,第二样本任务包括样本描述信息和标签数学模型;文本处理网络还包括生成单元;相应地,该装置还包括:第二训练模块,被配置为从样本集中提取目标第二样本任务,其中,目标第二样本任务为样本集中的任一第二样本任务;利用生成单元,基于目标第二样本任务的样本描述信息,生成目标第二样本任务的预测数学模型;基于目标第二样本任务的预测数学模型和标签数学模型,计算第二损失值;根据第二损失值,调整生成单元的参数,并返回从样本集中提取目标第二样本任务的步骤,直至达到预设训练停止条件,得到训练完成的文本处理网络。
本说明书实施例中,利用文本处理网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成目标任务的交互描述信息,再基于完整有效的交互描述信息,直接生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,得到对应的任务执行结果,降低了任务执行的复杂度,提升了任务执行的效率,提升了任务执行的易用性和可解释性。
上述为本实施例的一种任务执行装置的示意性方案。需要说明的是,该任务执行装置的技术方案与上述的任务执行方法的技术方案属于同一构思,任务执行装置的技术方案未详细描述的细节内容,均可以参见上述任务执行方法的技术方案的描述。
与上述方法实施例相对应的,本说明书还提供了任务执行装置实施例,图9示出了本说明书一个实施例提供的另一种任务执行装置的结构示意图。如图9所示,该装置包括:
第二接收模块902,被配置为接收前端输入的初始问题文本,其中,初始问题文本包括目标任务的关键描述信息;第二检测模块904,被配置为利用大语言模型网络,检测关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导答复文本,其中,大语言模型网络为基于文本训练的具有大规模模型参数的深度学习网络;第二引导模块906,被配置为向前端发送引导答复文本,并接收前端基于引导答复文本反馈的目标问题文本,其中,目标问题文本包括目标任务的交互描述信息;第二生成模块908,被配置为基于交互描述信息,生成目标任务;第二执行模块910,被配置为执行目标任务,得到任务执行结果。
本说明书实施例中,利用大语言模型网络这一预先训练的可进行答复交互的大规模通用的深度学习网络,检测输入的关键描述信息是否符合目标任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成目标任务的目标问题文本,再基于完整有效的目标问题文本中的交互描述信息,通过问答的方式,直接生成目标任务,降低了任务生成的门槛和成本,最后执行生成的目标任务,得到对应的任务执行结果,降低了任务执行的复杂度,提升了任务执行的效率,提升了任务执行的易用性和可解释性。
与上述方法实施例相对应,本说明书还提供了优化任务执行装置实施例,图10示出了本说明书一个实施例提供的一种优化任务执行装置的结构示意图。如图10所示,该装置包括:
第三接收模块1002,被配置为接收前端输入的目标描述文本,其中,目标描述文本包括优化任务的关键描述信息;第三检测模块1004,被配置为利用文本处理网络,检测关键描述信息是否符合优化任务对应的预设任务规则,并在不符合的情况下,基于预设任务规则生成引导交互文本,其中,文本处理网络为基于文本训练的深度学习网络;第三引导模块1006,被配置为向前端发送引导交互文本,并接收前端基于引导交互文本反馈的交互描述信息;第三生成模块1008,被配置为基于交互描述信息,生成优化任务的数学模型;第三执行模块1010,被配置为执行优化任务的数学模型,得到优化结果。
本说明书实施例中,利用文本处理网络这一预先训练的深度学习网络,检测输入的关键描述信息是否符合优化任务对应的预设任务规则,并在不符合的情况下,生成并发送引导交互文本来引导用户进行交互,有目的性地引导用户反馈完整用于生成优化任务的交互描述信息,再基于完整有效的交互描述信息,直接生成优化任务的数学模型,降低了优化任务的数学模型生成的门槛和成本,最后执行生成的优化任务的数学模型,得到对应的优化结果,降低了优化任务执行的复杂度,提升了优化任务执行的效率,提升了优化任务执行的易用性和可解释性。
上述为本实施例的一种优化任务执行装置的示意性方案。需要说明的是,该优化任务执行装置的技术方案与上述的优化任务执行方法的技术方案属于同一构思,优化任务执行装置的技术方案未详细描述的细节内容,均可以参见上述优化任务执行方法的技术方案的描述。
图11示出了本说明书一个实施例提供的一种计算设备的结构框图。该计算设备1100的部件包括但不限于存储器1110和处理器1120。处理器1120与存储器1110通过总线1130相连接,数据库1150用于保存数据。
计算设备1100还包括接入设备1140,接入设备1140使得计算设备1100能够经由一个或多个网络1160通信。这些网络的示例包括公用交换电话网(PSTN,Public SwitchedTelephone Network)、局域网(LAN,Local Area Network)、广域网(WAN,Wide AreaNetwork)、个域网(PAN,Personal Area Network)或诸如因特网的通信网络的组合。接入设备1140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,networkinterface controller))中的一个或多个,诸如IEEE802.11无线局域网(WLAN,WirelessLocal Area Network)无线接口、全球微波互联接入(Wi-MAX,WorldwideInteroperability for Microwave Access)接口、以太网接口、通用串行总线(USB,Universal Serial Bus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,Near FieldCommunication)。
在本说明书的一个实施例中,计算设备1100的上述部件以及图11中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图11所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或个人计算机(PC,Personal Computer)的静止计算设备。计算设备1100还可以是移动式或静止式的服务器。
其中,处理器1120用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述任务执行方法或者优化任务执行方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的任务执行方法和优化任务执行方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述任务执行方法或者优化任务执行方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述任务执行方法或者优化任务执行方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的任务执行方法和优化任务执行方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述任务执行方法或者优化任务执行方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述任务执行方法或者优化任务执行方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的任务执行方法和优化任务执行方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述任务执行方法或者优化任务执行方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据专利实践的要求进行适当的增减,例如在某些地区,根据专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (14)
1.一种任务执行方法,包括:
接收前端输入的目标描述文本,其中,所述目标描述文本包括目标任务的关键描述信息;
利用文本处理网络,检测所述关键描述信息是否符合所述目标任务对应的预设任务规则,并在不符合的情况下,基于所述预设任务规则生成引导交互文本,其中,所述文本处理网络为基于文本训练的深度学习网络;
向所述前端发送所述引导交互文本,并接收所述前端基于所述引导交互文本反馈的交互描述信息;
基于所述交互描述信息,生成所述目标任务;
执行所述目标任务,得到任务执行结果。
2.根据权利要求1所述的方法,所述基于所述交互描述信息,生成所述目标任务,包括:
提取所述交互描述信息中的任务元素;
基于所述交互描述信息中的任务元素,生成所述目标任务的目标描述信息;
利用所述文本处理网络,基于所述目标描述信息,生成所述目标任务的数学模型;
所述执行所述目标任务,得到任务执行结果,包括:
运行所述目标任务的数学模型,得到任务执行结果。
3.根据权利要求2所述的方法,在所述基于所述交互描述信息中的任务元素,生成所述目标任务的目标描述信息之前,还包括:
提取所述关键描述信息中的任务元素;
所述基于所述交互描述信息中的任务元素,生成所述目标任务的目标描述信息,包括:
整合所述关键描述信息和所述交互描述信息中的任务元素,获得所述目标任务的目标任务元素;
根据所述目标任务元素,生成所述目标任务的目标描述信息。
4.根据权利要求2所述的方法,所述利用所述文本处理网络,基于所述目标描述信息,生成所述目标任务的数学模型,包括:
利用所述文本处理网络,基于所述目标描述信息中的目标任务元素,生成所述目标任务的模型表达,并对所述模型表达进行数学模型转换,得到所述目标任务的数学模型。
5.根据权利要求2所述的方法,所述利用所述文本处理网络,基于所述目标描述信息,生成所述目标任务的数学模型,包括:
利用所述文本处理网络,基于所述目标描述信息中的目标任务元素,生成所述目标任务的思维链信息,并对所述思维链信息进行数学模型转换,得到所述目标任务的数学模型。
6.根据权利要求2所述的方法,所述利用所述文本处理网络,基于所述目标描述信息,生成所述目标任务的数学模型,包括:
利用所述文本处理网络,基于所述目标描述信息,从预先建立的参考模型库中检索得到所述目标任务的参考模型,并基于所述目标描述信息中的目标任务元素,对所述参考模型进行调整,得到所述目标任务的数学模型。
7.根据权利要求2-6中任一项所述的方法,在所述运行所述目标任务的数学模型,得到任务执行结果之前,还包括:
根据预设的模型检测规则,检测所述目标任务的数学模型是否可运行;
在不可运行的情况下,调整所述目标描述信息和/或所述数学模型。
8.根据权利要求1所述的方法,在所述执行所述目标任务,得到任务执行结果之前,还包括:
生成所述目标任务的任务文本,并将所述任务文本发送至所述前端;
所述执行所述目标任务,得到任务执行结果,包括:
响应于所述前端发送的任务执行指令,调用执行器,执行所述目标任务,得到任务执行结果,其中,所述任务执行指令为所述前端的用户基于所述任务文本确定执行所述目标任务的触发指令。
9.根据权利要求1所述的方法,在所述执行所述目标任务,得到任务执行结果之后,还包括:
将所述任务执行结果发送至所述前端;
响应于所述前端发送的分析指令,获取所述目标任务的中间信息,其中,所述分析指令为所述前端的用户基于所述任务执行结果确定对所述目标任务进行分析的触发指令,所述中间信息包括所述目标任务在生成和执行的过程中产生的信息;
对所述中间信息进行分析,生成所述目标任务的分析报告;
将所述分析报告发送至所述前端。
10.根据权利要求1所述的方法,所述文本处理网络包括检测单元和引导文本生成单元;
在所述利用文本处理网络,检测所述关键描述信息是否符合所述目标任务对应的预设任务规则,并在不符合的情况下,基于所述预设任务规则生成引导交互文本之前,还包括:
获取样本集,其中,所述样本集包括多个第一样本任务,所述第一样本任务包括样本描述信息,所述样本描述信息在不符合所述第一样本任务对应的预设任务规则的情况下携带有标签引导交互文本;
从所述样本集中提取目标第一样本任务,其中,所述目标第一样本任务为所述样本集中的任一第一样本任务;
利用所述检测单元,检测所述目标第一样本任务的样本描述信息是否符合所述目标第一样本任务对应的预设任务规则,得到所述目标第一样本任务的检测结果;
在所述目标第一样本任务的检测结果为不符合的情况下,利用所述引导文本生成单元,基于所述目标第一样本任务的样本描述信息生成预测引导交互文本;
基于所述检测结果、所述预测引导交互文本和所述标签引导交互文本,计算第一损失值;
根据所述第一损失值,调整所述检测单元和所述引导文本生成单元的参数,并返回所述从所述样本集中提取目标第一样本任务的步骤,直至达到预设训练停止条件,获得训练完成的文本处理网络。
11.一种任务执行方法,包括:
接收前端输入的初始问题文本,其中,所述初始问题文本包括目标任务的关键描述信息;
利用大语言模型网络,检测所述关键描述信息是否符合所述目标任务对应的预设任务规则,并在不符合的情况下,基于所述预设任务规则生成引导答复文本,其中,所述大语言模型网络为基于文本训练的具有大规模模型参数的深度学习网络;
向所述前端发送所述引导答复文本,并接收所述前端基于所述引导答复文本反馈的目标问题文本,其中,所述目标问题文本包括所述目标任务的交互描述信息;
基于所述交互描述信息,生成所述目标任务;
执行所述目标任务,得到任务执行结果。
12.一种优化任务执行方法,包括:
接收前端输入的目标描述文本,其中,所述目标描述文本包括优化任务的关键描述信息;
利用文本处理网络,检测所述关键描述信息是否符合所述优化任务对应的预设任务规则,并在不符合的情况下,基于所述预设任务规则生成引导交互文本,其中,所述文本处理网络为基于文本训练的深度学习网络;
向所述前端发送所述引导交互文本,并接收所述前端基于所述引导交互文本反馈的交互描述信息;
基于所述交互描述信息,生成所述优化任务的数学模型;
执行所述优化任务的数学模型,得到优化结果。
13.一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至12任意一项所述方法的步骤。
14.一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至12任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310858943.7A CN116579339B (zh) | 2023-07-12 | 2023-07-12 | 任务执行方法和优化任务执行方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310858943.7A CN116579339B (zh) | 2023-07-12 | 2023-07-12 | 任务执行方法和优化任务执行方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116579339A CN116579339A (zh) | 2023-08-11 |
CN116579339B true CN116579339B (zh) | 2023-11-14 |
Family
ID=87543538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310858943.7A Active CN116579339B (zh) | 2023-07-12 | 2023-07-12 | 任务执行方法和优化任务执行方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116579339B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117194637B (zh) * | 2023-09-18 | 2024-04-30 | 深圳市大数据研究院 | 基于大语言模型的多层级可视化评估报告生成方法、装置 |
CN116975042A (zh) * | 2023-09-20 | 2023-10-31 | 北方健康医疗大数据科技有限公司 | 一种基于智能体的数据智能分析系统及方法 |
CN117057430B (zh) * | 2023-10-08 | 2024-01-09 | 清华大学 | 基于规则累积的模型推理方法、装置及电子设备 |
CN117648986B (zh) * | 2024-01-26 | 2024-05-14 | 浙江阿里巴巴机器人有限公司 | 任务处理和代码处理方法、计算设备、介质和程序产品 |
CN117709909B (zh) * | 2024-02-06 | 2024-04-09 | 绵阳师范学院 | 一种基于大语言模型的业务数据处理方法 |
CN118132708A (zh) * | 2024-03-11 | 2024-06-04 | 晞德求索(北京)科技有限公司 | 基于大语言模型的运筹优化方法、装置、介质及程序产品 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298032A (zh) * | 2019-05-29 | 2019-10-01 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 文本分类语料标注训练系统 |
CN112749560A (zh) * | 2019-10-30 | 2021-05-04 | 阿里巴巴集团控股有限公司 | 地址文本处理方法、装置、设备及计算机存储介质 |
CN113515942A (zh) * | 2020-12-24 | 2021-10-19 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机设备及存储介质 |
CN113535144A (zh) * | 2021-06-15 | 2021-10-22 | 北京彩彻区明科技有限公司 | 自然语言编程方法、装置、设备及存储介质 |
CN113590983A (zh) * | 2021-01-28 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 描述文本生成方法和装置、文本处理模型的训练方法 |
CN115934275A (zh) * | 2022-11-28 | 2023-04-07 | 阿里巴巴(中国)有限公司 | 任务处理方法及对话任务处理方法 |
CN116384405A (zh) * | 2023-02-10 | 2023-07-04 | 阿里巴巴(中国)有限公司 | 文本处理方法,文本分类方法及情感识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160162467A1 (en) * | 2014-12-09 | 2016-06-09 | Idibon, Inc. | Methods and systems for language-agnostic machine learning in natural language processing using feature extraction |
US20220129637A1 (en) * | 2020-10-23 | 2022-04-28 | International Business Machines Corporation | Computerized selection of semantic frame elements from textual task descriptions |
-
2023
- 2023-07-12 CN CN202310858943.7A patent/CN116579339B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298032A (zh) * | 2019-05-29 | 2019-10-01 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 文本分类语料标注训练系统 |
CN112749560A (zh) * | 2019-10-30 | 2021-05-04 | 阿里巴巴集团控股有限公司 | 地址文本处理方法、装置、设备及计算机存储介质 |
CN113515942A (zh) * | 2020-12-24 | 2021-10-19 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机设备及存储介质 |
CN113590983A (zh) * | 2021-01-28 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 描述文本生成方法和装置、文本处理模型的训练方法 |
CN113535144A (zh) * | 2021-06-15 | 2021-10-22 | 北京彩彻区明科技有限公司 | 自然语言编程方法、装置、设备及存储介质 |
CN115934275A (zh) * | 2022-11-28 | 2023-04-07 | 阿里巴巴(中国)有限公司 | 任务处理方法及对话任务处理方法 |
CN116384405A (zh) * | 2023-02-10 | 2023-07-04 | 阿里巴巴(中国)有限公司 | 文本处理方法,文本分类方法及情感识别方法 |
Non-Patent Citations (2)
Title |
---|
Alessandro Pellegrini ; .Autonomic State Management for Optimistic.《IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS》.2015,第1560-1569页. * |
基于神经网络的中文词法分析系统的研究与实现;徐伟;《中国优秀硕士学位论文全文数据库(信息科技辑)》;第I138-1918页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116579339A (zh) | 2023-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116579339B (zh) | 任务执行方法和优化任务执行方法 | |
CN112487182B (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN111859960B (zh) | 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质 | |
CN117521675A (zh) | 基于大语言模型的信息处理方法、装置、设备及存储介质 | |
CN109033068A (zh) | 基于注意力机制的用于阅读理解的方法、装置和电子设备 | |
CN113065358B (zh) | 面向银行咨询服务基于多粒度对齐的文本对语义匹配方法 | |
CN113268609A (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
CN111783993A (zh) | 智能标注方法、装置、智能平台及存储介质 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
Malode | Benchmarking public large language model | |
CN112100375A (zh) | 文本信息生成方法、装置、存储介质及设备 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN115310551A (zh) | 文本分析模型训练方法、装置、电子设备和存储介质 | |
CN116882450B (zh) | 问答模型的编辑方法、装置、电子设备和存储介质 | |
CN117033602A (zh) | 一种多模态的用户心智感知问答模型的构建方法 | |
CN116432019A (zh) | 一种数据处理方法及相关设备 | |
CN115994317A (zh) | 基于深度对比学习的不完备多视图多标签分类方法和系统 | |
CN113836866A (zh) | 文本编码方法、装置、计算机可读介质及电子设备 | |
CN117291185A (zh) | 任务处理方法、实体识别方法及任务处理的数据处理方法 | |
CN111597816A (zh) | 一种自注意力命名实体识别方法、装置、设备及存储介质 | |
CN117149996B (zh) | 面向人工智能应用的人机界面数字会话挖掘方法及ai系统 | |
Hafeth et al. | Semantic representations with attention networks for boosting image captioning | |
US11314534B2 (en) | System and method for interactively guiding users through a procedure | |
Zhang et al. | Business chatbots with deep learning technologies: State-of-the-art, taxonomies, and future research directions | |
CN116341564A (zh) | 基于语义理解的问题推理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |