CN117492736A - 一种基于大模型的低代码平台构建方法和系统 - Google Patents
一种基于大模型的低代码平台构建方法和系统 Download PDFInfo
- Publication number
- CN117492736A CN117492736A CN202311426641.9A CN202311426641A CN117492736A CN 117492736 A CN117492736 A CN 117492736A CN 202311426641 A CN202311426641 A CN 202311426641A CN 117492736 A CN117492736 A CN 117492736A
- Authority
- CN
- China
- Prior art keywords
- code platform
- language model
- module
- low
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims description 41
- 238000012549 training Methods 0.000 claims abstract description 60
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000012800 visualization Methods 0.000 claims description 10
- 230000010354 integration Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 29
- 238000011161 development Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 16
- 238000003058 natural language processing Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004801 process automation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/38—Creation or generation of source code for implementing user interfaces
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本发明提出了一种基于大模型的低代码平台构建方法和系统。所述基于大模型的低代码平台构建方法包括:利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;利用所述低代码平台的规范和标准构建低代码平台。所述系统包括与所述方法步骤对应的模块。
Description
技术领域
本发明提出了一种基于大模型的低代码平台构建方法和系统,属于低代码平台构建技术领域。
背景技术
普通的低代码平台通常提供了一种相对容易上手的方式,通过简单的图形用户界面(GUI)配置,用户可以构建应用程序,而不需要编写大量的代码。然而,这种方式在某些情况下可能存在一些限制,因为它往往不能完全理解用户的真实意图,特别是当用户需求非常复杂或不符合传统模式时。
通过引入预训练的语言模型,低代码平台能够更好地理解用户的需求和意图。这种模型具备自然语言处理的能力,能够解释用户提供的自然语言描述,理解用户的真实需求。随后,它可以自动生成代码,以实现用户的需求。然而,现有技术中的低代码平台构建存在构建难度大,构建效率低的问题。
发明内容
本发明提供了一种基于大模型的低代码平台构建方法和系统,用以解决现有技术中的低代码平台构建存在构建难度大,构建效率低的问题,所采取的技术方案:
一种基于大模型的低代码平台构建方法,所述基于大模型的低代码平台构建方法包括:
利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
利用所述低代码平台的规范和标准构建低代码平台。
进一步地,利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型,包括:
从数据库中提取样本数据,形成样本数据集;
从数据库中调取语言模型;
利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
进一步地,利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息,包括:
构建用户界面;其中,所述用户界面支持文本输入和语音输入;
调取所述预训练之后的语言模型;
利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
进一步地,利用所述低代码平台的规范和标准构建低代码平台,包括:
根据预定的低代码平台需求生成低代码平台的规范和标准;
利用所述低代码平台的规范和标准构建低代码平台;
将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
一种基于大模型的低代码平台构建系统,所述基于大模型的低代码平台构建系统包括:
语言模型预训练模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
结构化数据信息转化模块,用于利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
低代码平台构建模块,用于利用所述低代码平台的规范和标准构建低代码平台。
进一步地,所述语言模型预训练模块包括:
样本数据集形成模块,用于从数据库中提取样本数据,形成样本数据集;
语言模型调取模块,用于从数据库中调取语言模型;
语言模型训练执行模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
进一步地,所述结构化数据信息转化模块包括:
用户界面构建模块,用于构建用户界面;其中,所述用户界面支持文本输入和语音输入;
语言模型调取模块,用于调取所述预训练之后的语言模型;
自然语言理解模块生成模块,用于利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
进一步地,所述低代码平台构建模块,包括:
规范和标准生成模块,用于根据预定的低代码平台需求生成低代码平台的规范和标准;
低代码平台构建执行模块,用于利用所述低代码平台的规范和标准构建低代码平台;
自然语言理解模块部署模块,用于将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
可视化集成模块,用于调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
本发明有益效果:
本发明提出的一种基于大模型的低代码平台构建方法和系统与训练语言模型,对用户的常见需求、指令等进行学习,再对低代码平台进行一系列操作。实现让用户使用自然语言就能够生成低代码应用。基于大模型的低代码平台能够在用户理解、知识表达、代码生成、封装底层细节、可拓展性方面都更为优秀。能够极大程度上提升用户体验,降低开发难度,甚至实现零代码开发。
附图说明
图1为本发明所述方法的流程图;
图2为本发明所述系统的系统框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提出了一种基于大模型的低代码平台构建方法,如图1所示,所述基于大模型的低代码平台构建方法包括:
S1、利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
S2、利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
S3、利用所述低代码平台的规范和标准构建低代码平台。
上述技术方案的工作原理为:预训练大型语言模型(S1):首先,通过使用大量样本数据集对语言模型进行预训练,以获得预训练之后的语言模型。这个预训练的过程使语言模型能够理解并捕获广泛的自然语言语境和知识。
自然语言到结构化数据的转化(S2):用户提供自然语言输入,系统利用预训练的语言模型将用户的自然语言输入转化为机器可理解的结构化数据信息。这个过程可能涉及自然语言理解(NLU)技术,将用户的文本输入转化为可操作的指令或数据结构。
低代码平台构建(S3):基于预训练语言模型和用户提供的结构化数据,构建低代码平台。这个低代码平台可以提供一种可视化和简化的方式来创建应用程序,无需深入的编程知识。
上述技术方案的效果为:降低开发门槛:通过使用大型预训练语言模型,用户无需深入的编程知识,可以将自然语言转化为结构化数据和构建应用程序,从而降低了开发门槛。
提高开发效率:低代码平台的构建和使用可以提高应用程序开发的效率,减少开发时间,让开发人员专注于业务逻辑和功能的设计。
自然语言接口:用户可以使用自然语言与系统进行交互,使应用程序的开发变得更加直观和用户友好。
标准化和规范:低代码平台通常具有规范和标准,确保应用程序的质量和一致性。
支持多领域应用:由于语言模型的广泛预训练,这种方法可以用于多个领域的应用程序开发,包括自然语言处理、数据分析、业务流程自动化等。
自适应性:预训练的语言模型具有自适应能力,可以处理不同领域和行业的自然语言输入,因此适用性广泛。
本发明的一个实施例,利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型,包括:
S101、从数据库中提取样本数据,形成样本数据集;
S102、从数据库中调取语言模型;
S103、利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
上述技术方案的工作原理为:样本数据集的提取(S101):首先,从数据库或其他数据源中提取样本数据,这些数据可以包括文本文档、文章、对话、网页内容或其他形式的自然语言文本。这些数据将用于训练语言模型。
调取语言模型(S102):从适当的资源中调取语言模型。这可能是一个已存在的大型语言模型,如GPT(Generative Pre-trained Transformer)或BERT(BidirectionalEncoder Representations from Transformers)。
语言模型的预训练(S103):利用提取的样本数据集,对语言模型进行预训练。在预训练过程中,语言模型学习理解和预测自然语言的结构、语法、语义和上下文。这通常涉及通过大规模文本数据的自监督学习来微调语言模型,使其能够适应各种自然语言理解任务。
上述技术方案的效果为:提高语言理解能力:通过预训练,语言模型能够更好地理解自然语言,包括语法、语义和上下文,从而更好地处理用户提供的文本输入。
适应多领域应用:由于预训练是基于大规模文本数据进行的,语言模型具有广泛的语言和领域知识,可以应用于多种不同领域的自然语言处理任务。
减少标注数据需求:预训练允许语言模型在监督学习之前获得通用语言知识,从而减少了在特定任务上的监督标注数据的需求。
提高自然语言生成质量:预训练可以改善自然语言生成任务的质量,因为模型已经学会了合适的生成文本的方式。
缩短模型训练时间:预训练语言模型的使用可以减少在特定任务上的训练时间,因为模型已经具备了良好的初始化参数。
总之,这个技术方案的核心效果是增强了语言模型的语言理解和生成能力,使其更适用于各种自然语言处理任务。
本发明的一个实施例,利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息,包括:
S201、构建用户界面;其中,所述用户界面支持文本输入和语音输入;
S202、调取所述预训练之后的语言模型;
S203、利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
上述技术方案的工作原理为:构建用户界面(S201):首先,创建一个用户界面,该界面允许用户提供文本输入或语音输入。这个用户界面可能包括文本框、语音识别组件和其他用户输入元素。
调取预训练语言模型(S202):从第一部分中提前训练好的语言模型中获取预训练模型,这个模型已经具备对自然语言进行理解和处理的能力。
生成自然语言理解模块(S203):在此步骤中,使用预训练的语言模型构建一个自然语言理解(NLU)模块。这个模块的任务是将用户的自然语言输入转化为机器可理解的结构化数据信息。这通常包括命名实体识别、意图识别和文本分类等任务。NLU模块可以通过语言模型的fine-tuning来实现,使其适应特定领域或应用。
上述技术方案的效果为:提供多模态输入:用户界面支持文本和语音输入,使用户可以根据自己的喜好选择输入方式。
自然语言理解:通过使用预训练的语言模型生成NLU模块,系统可以理解用户的自然语言输入,识别用户的意图和提取相关信息。
机器可理解的数据:技术方案的关键效果是将自然语言转化为机器可理解的结构化数据,这可以用于后续的自动化处理和响应。
提高用户体验:用户可以以更自然的方式与系统交互,无需熟悉特定的命令或界面,从而提高了用户体验。
总之,这个技术方案的核心效果是构建了一个自然语言理解模块,使系统能够理解用户的自然语言输入,并将其转化为可操作的结构化数据。这有助于实现更智能的用户界面和自然的人机交互。
本发明的一个实施例,利用所述低代码平台的规范和标准构建低代码平台,包括:
S301、根据预定的低代码平台需求生成低代码平台的规范和标准;
S302、利用所述低代码平台的规范和标准构建低代码平台;
S303、将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
S304、调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
上述技术方案的工作原理为:生成低代码平台的规范和标准(S301):首先,根据预定的低代码平台需求,制定低代码平台的规范和标准。这些规范和标准可以包括平台的功能、数据结构、API接口、组件库、用户权限等。
构建低代码平台(S302):在这一步骤中,根据规范和标准,开始构建低代码平台。这可能涉及到前端和后端开发、数据库设计、API开发以及用户权限管理等。
部署自然语言理解模块(S303):将之前生成的自然语言理解模块部署至低代码平台。这个模块的任务是将用户的自然语言输入解释成机器可以理解的结构化数据,以便进行后续的应用开发和自动化任务。
可视化集成(S304):最后,使用可视化编排工具,将用户界面与低代码平台进行可视化集成。这使用户能够使用低代码平台来创建自定义组件和应用模板,以满足其特定需求。
上述技术方案的效果为:标准化平台:制定规范和标准有助于建立一个标准化的低代码平台,使开发过程更加有组织和高效。
自然语言理解:部署自然语言理解模块使平台能够理解用户的自然语言输入,从而更好地满足用户需求。
可视化编排:用户可以通过可视化编排工具与平台进行交互,创建自定义组件和应用模板,从而实现低代码开发。
降低技术门槛:低代码平台的建设使应用开发变得更加容易,降低了技术门槛,使更多人能够参与应用开发过程。
总之,这个技术方案的核心效果是建立一个低代码平台,通过自然语言理解和可视化编排工具,用户可以更容易地开发自定义应用和组件,从而加速应用开发过程,提高生产效率。这对于企业、开发者和普通用户来说都具有很大的潜在价值。
本发明实施例提出了一种基于大模型的低代码平台构建系统,如图2所示,所述基于大模型的低代码平台构建系统包括:
语言模型预训练模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
结构化数据信息转化模块,用于利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
低代码平台构建模块,用于利用所述低代码平台的规范和标准构建低代码平台。
上述技术方案的工作原理为:预训练大型语言模型:首先,通过使用大量样本数据集对语言模型进行预训练,以获得预训练之后的语言模型。这个预训练的过程使语言模型能够理解并捕获广泛的自然语言语境和知识。
自然语言到结构化数据的转化:用户提供自然语言输入,系统利用预训练的语言模型将用户的自然语言输入转化为机器可理解的结构化数据信息。这个过程可能涉及自然语言理解(NLU)技术,将用户的文本输入转化为可操作的指令或数据结构。
低代码平台构建:基于预训练语言模型和用户提供的结构化数据,构建低代码平台。这个低代码平台可以提供一种可视化和简化的方式来创建应用程序,无需深入的编程知识。
上述技术方案的效果为:降低开发门槛:通过使用大型预训练语言模型,用户无需深入的编程知识,可以将自然语言转化为结构化数据和构建应用程序,从而降低了开发门槛。
提高开发效率:低代码平台的构建和使用可以提高应用程序开发的效率,减少开发时间,让开发人员专注于业务逻辑和功能的设计。
自然语言接口:用户可以使用自然语言与系统进行交互,使应用程序的开发变得更加直观和用户友好。
标准化和规范:低代码平台通常具有规范和标准,确保应用程序的质量和一致性。
支持多领域应用:由于语言模型的广泛预训练,这种方法可以用于多个领域的应用程序开发,包括自然语言处理、数据分析、业务流程自动化等。
自适应性:预训练的语言模型具有自适应能力,可以处理不同领域和行业的自然语言输入,因此适用性广泛。
本发明的一个实施例,所述语言模型预训练模块包括:
样本数据集形成模块,用于从数据库中提取样本数据,形成样本数据集;
语言模型调取模块,用于从数据库中调取语言模型;
语言模型训练执行模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
上述技术方案的工作原理为:样本数据集的提取:首先,从数据库或其他数据源中提取样本数据,这些数据可以包括文本文档、文章、对话、网页内容或其他形式的自然语言文本。这些数据将用于训练语言模型。
调取语言模型:从适当的资源中调取语言模型。这可能是一个已存在的大型语言模型,如GPT(Generative Pre-trained Transformer)或BERT(Bidirectional EncoderRepresentations from Transformers)。
语言模型的预训练:利用提取的样本数据集,对语言模型进行预训练。在预训练过程中,语言模型学习理解和预测自然语言的结构、语法、语义和上下文。这通常涉及通过大规模文本数据的自监督学习来微调语言模型,使其能够适应各种自然语言理解任务。
上述技术方案的效果为:提高语言理解能力:通过预训练,语言模型能够更好地理解自然语言,包括语法、语义和上下文,从而更好地处理用户提供的文本输入。
适应多领域应用:由于预训练是基于大规模文本数据进行的,语言模型具有广泛的语言和领域知识,可以应用于多种不同领域的自然语言处理任务。
减少标注数据需求:预训练允许语言模型在监督学习之前获得通用语言知识,从而减少了在特定任务上的监督标注数据的需求。
提高自然语言生成质量:预训练可以改善自然语言生成任务的质量,因为模型已经学会了合适的生成文本的方式。
缩短模型训练时间:预训练语言模型的使用可以减少在特定任务上的训练时间,因为模型已经具备了良好的初始化参数。
总之,这个技术方案的核心效果是增强了语言模型的语言理解和生成能力,使其更适用于各种自然语言处理任务。
本发明的一个实施例,所述结构化数据信息转化模块包括:
用户界面构建模块,用于构建用户界面;其中,所述用户界面支持文本输入和语音输入;
语言模型调取模块,用于调取所述预训练之后的语言模型;
自然语言理解模块生成模块,用于利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
上述技术方案的工作原理为:构建用户界面:首先,创建一个用户界面,该界面允许用户提供文本输入或语音输入。这个用户界面可能包括文本框、语音识别组件和其他用户输入元素。
调取预训练语言模型:从第一部分中提前训练好的语言模型中获取预训练模型,这个模型已经具备对自然语言进行理解和处理的能力。
生成自然语言理解模块:在此步骤中,使用预训练的语言模型构建一个自然语言理解(NLU)模块。这个模块的任务是将用户的自然语言输入转化为机器可理解的结构化数据信息。这通常包括命名实体识别、意图识别和文本分类等任务。NLU模块可以通过语言模型的fine-tuning来实现,使其适应特定领域或应用。
上述技术方案的效果为:提供多模态输入:用户界面支持文本和语音输入,使用户可以根据自己的喜好选择输入方式。
自然语言理解:通过使用预训练的语言模型生成NLU模块,系统可以理解用户的自然语言输入,识别用户的意图和提取相关信息。
机器可理解的数据:技术方案的关键效果是将自然语言转化为机器可理解的结构化数据,这可以用于后续的自动化处理和响应。
提高用户体验:用户可以以更自然的方式与系统交互,无需熟悉特定的命令或界面,从而提高了用户体验。
总之,这个技术方案的核心效果是构建了一个自然语言理解模块,使系统能够理解用户的自然语言输入,并将其转化为可操作的结构化数据。这有助于实现更智能的用户界面和自然的人机交互。
本发明的一个实施例,所述低代码平台构建模块,包括:
规范和标准生成模块,用于根据预定的低代码平台需求生成低代码平台的规范和标准;
低代码平台构建执行模块,用于利用所述低代码平台的规范和标准构建低代码平台;
自然语言理解模块部署模块,用于将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
可视化集成模块,用于调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
上述技术方案的工作原理为:生成低代码平台的规范和标准:首先,根据预定的低代码平台需求,制定低代码平台的规范和标准。这些规范和标准可以包括平台的功能、数据结构、API接口、组件库、用户权限等。
构建低代码平台:在这一步骤中,根据规范和标准,开始构建低代码平台。这可能涉及到前端和后端开发、数据库设计、API开发以及用户权限管理等。
部署自然语言理解模块:将之前生成的自然语言理解模块部署至低代码平台。这个模块的任务是将用户的自然语言输入解释成机器可以理解的结构化数据,以便进行后续的应用开发和自动化任务。
可视化集成:最后,使用可视化编排工具,将用户界面与低代码平台进行可视化集成。这使用户能够使用低代码平台来创建自定义组件和应用模板,以满足其特定需求。
上述技术方案的效果为:标准化平台:制定规范和标准有助于建立一个标准化的低代码平台,使开发过程更加有组织和高效。
自然语言理解:部署自然语言理解模块使平台能够理解用户的自然语言输入,从而更好地满足用户需求。
可视化编排:用户可以通过可视化编排工具与平台进行交互,创建自定义组件和应用模板,从而实现低代码开发。
降低技术门槛:低代码平台的建设使应用开发变得更加容易,降低了技术门槛,使更多人能够参与应用开发过程。
总之,这个技术方案的核心效果是建立一个低代码平台,通过自然语言理解和可视化编排工具,用户可以更容易地开发自定义应用和组件,从而加速应用开发过程,提高生产效率。这对于企业、开发者和普通用户来说都具有很大的潜在价值。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种基于大模型的低代码平台构建方法,其特征在于,所述基于大模型的低代码平台构建方法包括:
利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
利用所述低代码平台的规范和标准构建低代码平台。
2.根据权利要求1所述基于大模型的低代码平台构建方法,其特征在于,利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型,包括:
从数据库中提取样本数据,形成样本数据集;
从数据库中调取语言模型;
利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
3.根据权利要求1所述基于大模型的低代码平台构建方法,其特征在于,利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息,包括:
构建用户界面;其中,所述用户界面支持文本输入和语音输入;
调取所述预训练之后的语言模型;
利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
4.根据权利要求1所述基于大模型的低代码平台构建方法,其特征在于,利用所述低代码平台的规范和标准构建低代码平台,包括:
根据预定的低代码平台需求生成低代码平台的规范和标准;
利用所述低代码平台的规范和标准构建低代码平台;
将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
5.一种基于大模型的低代码平台构建系统,其特征在于,所述基于大模型的低代码平台构建系统包括:
语言模型预训练模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型;
结构化数据信息转化模块,用于利用所述语言模型将用户输入的自然语言转化为机器可理解的结构化数据信息;
低代码平台构建模块,用于利用所述低代码平台的规范和标准构建低代码平台。
6.根据权利要求5所述基于大模型的低代码平台构建系统,其特征在于,所述语言模型预训练模块包括:
样本数据集形成模块,用于从数据库中提取样本数据,形成样本数据集;
语言模型调取模块,用于从数据库中调取语言模型;
语言模型训练执行模块,用于利用样本数据集对语言模型进行预训练,获得预训练之后的语言模型。
7.根据权利要求5所述基于大模型的低代码平台构建系统,其特征在于,所述结构化数据信息转化模块包括:
用户界面构建模块,用于构建用户界面;其中,所述用户界面支持文本输入和语音输入;
语言模型调取模块,用于调取所述预训练之后的语言模型;
自然语言理解模块生成模块,用于利用所述语言模型生成自然语言理解模块,其中,所述自然语言理解模块用于将用户输入的自然语言转化为机器可理解的结构化数据信息。
8.根据权利要求5所述基于大模型的低代码平台构建系统,其特征在于,所述低代码平台构建模块,包括:
规范和标准生成模块,用于根据预定的低代码平台需求生成低代码平台的规范和标准;
低代码平台构建执行模块,用于利用所述低代码平台的规范和标准构建低代码平台;
自然语言理解模块部署模块,用于将利用所述语言模型生成的自然语言理解模块部署至低代码平台;
可视化集成模块,用于调用可视化编排工具将用户界面与所述低代码平台进行可视化集成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311426641.9A CN117492736A (zh) | 2023-10-31 | 2023-10-31 | 一种基于大模型的低代码平台构建方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311426641.9A CN117492736A (zh) | 2023-10-31 | 2023-10-31 | 一种基于大模型的低代码平台构建方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117492736A true CN117492736A (zh) | 2024-02-02 |
Family
ID=89671813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311426641.9A Pending CN117492736A (zh) | 2023-10-31 | 2023-10-31 | 一种基于大模型的低代码平台构建方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117492736A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117891447A (zh) * | 2024-03-14 | 2024-04-16 | 蒲惠智造科技股份有限公司 | 一种企业管理软件开发方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115202640A (zh) * | 2022-07-26 | 2022-10-18 | 上海交通大学 | 基于自然语义理解的代码生成方法及系统 |
CN116931911A (zh) * | 2023-06-15 | 2023-10-24 | 明物数智科技研究院(南京)有限公司 | 一种基于aigc的智能低代码应用开发平台及开发方法 |
CN117215550A (zh) * | 2023-08-30 | 2023-12-12 | 慧之安信息技术股份有限公司 | 一种基于llm的低代码组件生成方法和系统 |
CN117215551A (zh) * | 2023-08-30 | 2023-12-12 | 慧之安信息技术股份有限公司 | 一种基于llm的低代码应用开发方法和系统 |
-
2023
- 2023-10-31 CN CN202311426641.9A patent/CN117492736A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115202640A (zh) * | 2022-07-26 | 2022-10-18 | 上海交通大学 | 基于自然语义理解的代码生成方法及系统 |
CN116931911A (zh) * | 2023-06-15 | 2023-10-24 | 明物数智科技研究院(南京)有限公司 | 一种基于aigc的智能低代码应用开发平台及开发方法 |
CN117215550A (zh) * | 2023-08-30 | 2023-12-12 | 慧之安信息技术股份有限公司 | 一种基于llm的低代码组件生成方法和系统 |
CN117215551A (zh) * | 2023-08-30 | 2023-12-12 | 慧之安信息技术股份有限公司 | 一种基于llm的低代码应用开发方法和系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117891447A (zh) * | 2024-03-14 | 2024-04-16 | 蒲惠智造科技股份有限公司 | 一种企业管理软件开发方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8418125B2 (en) | Incremental model refinement and transformation in generating commerce applications using a model driven architecture | |
CN104391673A (zh) | 语音交互方法和装置 | |
CN117492736A (zh) | 一种基于大模型的低代码平台构建方法和系统 | |
KR20210088461A (ko) | 네트워크를 훈련하는 방법, 장치, 기기, 저장매체 및 프로그램 | |
CN112199477B (zh) | 对话管理方案和对话管理语料的构建方法 | |
CN104412260B (zh) | 根据现有的单语言过程构造多语言过程 | |
CN112163420A (zh) | 一种基于nlp技术的rpa流程自动生成方法 | |
CN108595171A (zh) | 对象的模型生成方法、装置、设备及存储介质 | |
CN109119067A (zh) | 语音合成方法及装置 | |
CN101630253A (zh) | 基于面向对象Petri网的并发软件开发方法和系统 | |
CN111930912A (zh) | 对话管理方法及系统、设备和存储介质 | |
CN102789450A (zh) | 基于规则的可定义式语义解析系统及方法 | |
CN108153522B (zh) | 基于模型转换由midcore生成Spark和Hadoop程序代码的方法 | |
CN115392264A (zh) | 一种基于rasa的任务型智能多轮对话方法及相关设备 | |
CN103838711A (zh) | 基于规则的可定义式语义解析系统及方法 | |
CN116048610A (zh) | 一种流程驱动的对话系统实现方法及基于工作流引擎对话机器人 | |
CN100511141C (zh) | 基于仿生代理的多模交互界面描述方法 | |
Ouaddi et al. | Architecture, tools, and dsls for developing conversational agents: An overview | |
US8074200B2 (en) | Method and system for providing tooling instructions through parameterization as an aid for software application development | |
Clavier et al. | DocMining: A cooperative platform for heterogeneous document interpretation according to user-defined scenarios | |
Märtin et al. | Patterns and models for automated user interface construction–in search of the missing links | |
KR100725719B1 (ko) | 음성과 태스크 오브젝트 기반의 대화시스템 | |
Singh et al. | Operating System Command Execution Using Voice Command | |
Ellawela et al. | A Review about Voice and UI Design Driven Approaches to Identify UI Elements and Generate UI Designs | |
KR20060120004A (ko) | 대화 시스템을 위한 대화 제어 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |