CN118195032B - 一种具备主动学习能力的大模型自动进化系统及方法 - Google Patents
一种具备主动学习能力的大模型自动进化系统及方法 Download PDFInfo
- Publication number
- CN118195032B CN118195032B CN202410611940.8A CN202410611940A CN118195032B CN 118195032 B CN118195032 B CN 118195032B CN 202410611940 A CN202410611940 A CN 202410611940A CN 118195032 B CN118195032 B CN 118195032B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- evaluation
- optimization
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000011156 evaluation Methods 0.000 claims abstract description 125
- 238000005457 optimization Methods 0.000 claims abstract description 101
- 238000013439 planning Methods 0.000 claims abstract description 18
- 230000003993 interaction Effects 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 39
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 32
- 238000005516 engineering process Methods 0.000 claims description 19
- 238000003066 decision tree Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000013481 data capture Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000007405 data analysis Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000010200 validation analysis Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000003745 diagnosis Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 3
- 230000002068 genetic effect Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims description 2
- 230000002787 reinforcement Effects 0.000 claims description 2
- 238000007619 statistical method Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 101100455978 Arabidopsis thaliana MAM1 gene Proteins 0.000 claims 1
- 230000006978 adaptation Effects 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 239000003795 chemical substances by application Substances 0.000 description 22
- 230000007246 mechanism Effects 0.000 description 16
- 230000001965 increasing effect Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 8
- 241000220225 Malus Species 0.000 description 7
- 235000011430 Malus pumila Nutrition 0.000 description 7
- 235000015103 Malus silvestris Nutrition 0.000 description 7
- 238000002372 labelling Methods 0.000 description 6
- 235000013399 edible fruits Nutrition 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 244000141359 Malus pumila Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012631 diagnostic technique Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 238000010921 in-depth analysis Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本发明提出一种具备主动学习能力的大模型自动进化系统及方法,属于人工智能技术领域,包括:数据模块,用于收集用户的交互数据、外部公开数据;生成模块,根据提示工程,对收集的数据,生成QA的评估数据集;评估模块,利用QA的评估数据集,对大模型进行测试评估获得评估结论和数据集;指导模块,根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;计划模块,用于执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化,能够让大模型具备自主学习能力,使得大模型具备更加强大的泛化能力、场景适配能力,从而更好的满足用户的需求。
Description
技术领域
本发明属于人工智能领域,具体涉及一种具备主动学习能力的大模型自动进化系统及方法。
背景技术
现代人工智能系统,尽管在多个领域取得了显著进展,但仍存在重要的局限性。这些系统通常依赖于大规模的数据集进行训练,使得它们在应对新的数据类型和未知情境时效能受限。例如,一旦遇到与训练数据显著不同的新信息,现有AI模型往往难以有效适应,这导致了在实际应用中的局限性,特别是在需要快速响应新数据和环境变化的情况下。
另一方面,AI技术在实时数据处理和自我更新方面的挑战也日益凸显。随着信息量的急剧增加和数据类型的不断演化,传统的AI模型无法有效地吸收和整合新信息,尤其是在没有人工干预的情况下。这种缺乏自适应能力限制了AI技术在动态环境中的应用,如在线学习、实时决策制定等领域。
此外,现有AI系统在跨领域知识迁移方面也显示出了明显的不足。当AI系统面对新领域的知识或数据时,往往需要进行重新训练或显著的调整。这不仅增加了时间和资源的消耗,也限制了AI技术在快速变化的世界中的灵活性和适用性。因此,发展一种能够自我进化,跨领域有效学习和适应的AI系统,成为了该领域的重要需求和挑战。
在现代人工智能技术中,自主学习和自适应能力是关键的发展方向。目前的AI系统多依赖于大规模数据集的初始训练,而在训练完成后,这些系统在适应新的数据和情境方面显示出明显的局限性。特别是在处理实时数据流和持续变化的信息方面,现有AI系统往往需要额外的人工干预来维持其效能。此外,这些系统在跨领域知识迁移和理解新领域信息时也存在困难。因此,开发一种能够实时更新和自我进化的AI智能体,以适应快速变化的数据环境和不断涌现的新知识,成为了该领域的重要研究方向。
在现有的人工智能技术中,尤其是大型机器学习模型的应用领域,一个显著的挑战是如何使这些模型适应快速变化的数据环境和不断涌现的新知识。传统AI模型在完成初始训练后,其适应性和更新能力受到限制,导致在实际应用中效能和灵活性不足。
发明内容
为了达到上述目的,本申请采用的技术方案为:
针对现有技术下的问题,本发明提出了一个自我进化的AI智能体,旨在通过持续的自主学习和自适应机制,解决现有技术中的这些局限。
为了达到上述目的,本申请采用的技术方案为:
第一方面,本发明公开了一种具备主动学习能力的大模型自动进化系统,包括:
数据模块,用于收集用户的交互数据、外部公开数据;
生成模块,根据提示工程,对收集的数据,生成QA的评估数据;
评估模块,利用QA的评估数据,对大模型进行测试评估获得评估结论和数据集;
指导模块,根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;
计划模块,用于执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
进一步的,所述数据模块从多种异构数据源中自动获取信息,包括数据抓取和对数据的初步分析,以识别对学习和进化过程最有价值的信息;
数据抓取分为内部数据读取和外部数据读取,内部数据读取采用读取结构化数据库MySQL,外部数据读取是通过爬虫抓取公开的数据;
数据初步分析具体步骤包括,首先去除无效字符;然后对数据进行切分,获取切分后的数据;最后对切分的数据做数据信息提取,生成对应数据的关键信息。
进一步的,所述生成模块在利用提示工程生成QA的评估数据集的步骤包括:
基于模板的提示生成,预先设计一系列问题和答案的模板,将收集到的外部知识数据按照设定规则填充到模板的空白位置,生成初步的QA对;
利用知识图谱增强QA生成;
利用预训练的大语言模型对生成的初步QA对进行优化和增强;
迭代优化提示模板,通过不断迭代,逐步提高提示模板的效果,生成更高质量的QA对;
人工筛选和后处理,通过人工对生成的QA对进行筛选和后处理,后处理过程中,对部分QA对的表述进行了润色和修正,将所有QA对汇总,最终得到QA的评估数据集。
进一步的,所述评估模块利用QA的评估数据,对大模型进行测试评估获得评估结论和数据集的步骤包括:
数据准备,获取历史QA的评估数据集,记为历史数据;获取从环境中新获取的外部知识数据构成的QA的评估数据集,记为新数据;将新数据与历史数据进行合并,得到最新的用于评估的QA的评估数据集;
模型预测,使用智能体当前的模型M对QA的评估数据集进行预测,得到预测结果;
评估指标计算,将预测结果与QA的评估数据集的真实标签进行比较,计算各项评估指标,评估指标包括准确率、精确率、召回率和F1分数;
评估结果分析,对得到的各项指标进行分析,包括新数据上的指标表现,与历史数据上指标表现进行比较,判断模型在新数据上的泛化能力;模型M在各个类别或数据子集上的指标表现,识别模型M存在的偏差或薄弱点。
进一步的,所述指导模块通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向,过程包括调整模型结构、重新选择训练算法;在模型结构调整方面,大模型是基于Transformer架构实现的,指导模块建议增加或减少Transformer架构中的层数,或者改变激活函数的类型;在训练算法的选择上,指导模块使用Adam自适应学习率优化器,根据梯度的变化自动调整学习率。
第二方面,本发明公开了一种具备主动学习能力的大模型自动进化系统的工作方法,包括:
通过数据模块收集用户的交互数据、外部公开数据;
通过生成模块,根据提示工程,对收集的数据,生成QA的评估数据集;
通过评估模块,利用生成QA的评估数据集,对大模型进行测试评估生成评估结论和数据集;
通过指导模块根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;
通过计划模块执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
与现有技术相比,本发明的优点和积极效果在于:
1、本发明提出了一种具备主动学习能力的大模型自动进化系统及方法,能够针对外部的知识,实现近乎实时的更新,掌握最新的知识,缓解和新内容、新场景之间的差异性。同时,整个流程以自动化的方式执行,减少人工的介入,降低了更新的成本和代价。通过本发明,能够让大模型具备自主学习能力,使得大模型具备更加强大的泛化能力、场景适配能力,从而更好的满足用户的需求。
2、本发明的智能体结合了主动学习、自我评估、交叉指导和动态学习计划制定等先进机制。通过这些机制,它能够从多样化的数据源实时获取信息,自动生成QA的评估数据集,并根据这些数据集对自身的学习过程进行评估和调整。此外,它还利用人工标注和大模型协作来优化学习效果,从而实现跨领域的适应性和知识迁移。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的具备主动学习能力的大模型自动进化系统的结构示意图;
图2为本发明的具备主动学习能力的大模型自动进化系统的方法流程图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和实施例对本发明作进一步说明。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开说明书的具体实施例的限制。
实施例1,如图1-图2所示,本实施例提供了一种具备主动学习能力的大模型自动进化系统,主要包括数据模块、生成模块、评估模块、指导模块以及计划模块。
数据模块:通常包含数据仓库、数据预处理工具和数据标注工具等,数据模块用于整个系统的数据获取、存储、对比和处理,一方面根据系统的设定,实现对外部知识的抓取,包括API、爬虫、数据库、文档等;另一方面,实现对数据的高效利用,包括知识增量存储、噪声数据清洗、数据格式转换等。通过爬虫、接口、数据库等多种方式,实时或近实时的获取外界的知识,进行增量更新。
数据模块的工作原理:负责收集、清洗和准备训练模型所需的数据。这过程包括从外部来源获取数据、对数据进行格式化和归一化处理、以及使用人工或自动化方法进行数据标注。
作为一种实施方式,所述数据模块具体采用先进的数据采集技术,能够从多种异构数据源(如网络数据、图文信息、文档等)中自动获取信息。这一过程不仅包括传统数据抓取,还涉及对数据的初步分析,以识别对学习和进化过程最有价值的信息,数据抓取分为内部数据读取和外部数据读取,内部数据读取采用读取结构化数据库MySQL;外部数据读取是通过爬虫抓取公开的数据,例如百度百科、维基百科。数据初步分析:首先去除无效字符,包括标记、乱码、非Unicode编码内容等;然后对数据进行切分,以段落和句为粒度,获取切分后的数据;最后对切分的数据做数据信息提取,数据信息提取的技术方案包括NER实体识别、jieba关键词识别、基于LSTM的摘要生成技术,生成对应数据的关键信息,关键信息包括摘要、知识点,表示该段落或该句子描述的主要内容和提到的关键词。此外,AI智能体通过不断监测数据流的变化,能够主动识别新知识和新趋势,实现实时的学习和适应。
生成模块:包括模型架构(如神经网络)、初始化参数和模型训练算法等,生成模块是大模型评估数据生成模块,根据新增的外部知识,生成大模型可接受的评估数据格式,便于后续评估大模型对当前知识的掌握情况。通常可以借助GPT-4、提示工程等技术,实现QA的评估数据集的生成。
生成模块的工作原理:使用数据模块提供的数据来训练或微调模型。该过程包括选择合适的算法、定义损失函数和优化器,以及通过反向传播算法调整模型参数以最小化误差。
作为一种实施方式,生成模块在利用提示工程生成QA的评估数据集的过程中,本实施例主要采用了以下技术方案:
基于模板的提示生成。本实施例预先设计了一系列问题和答案的模板,如“问题一:X是什么?答案:X是A+B。”、“问题二:Y的定义是什么?答案:Y的定义是A-B。”等。然后,将收集到的外部知识数据按照设定规则填充到这些模板的空白位置,生成初步的QA对。
在上述模板中,"A"和"B"是需要根据外部知识数据动态填充的变量。填充时需要遵循一定的规则,作为一种实施方式,设定规则具体如下:1."A"变量的填充规则:从外部知识数据中提取实体及其定语、同位语等修饰性成分,作为"A"的填充内容。例如知识数据"红色的苹果是一种水果",则提取"红色的苹果"填充到"A"。2."B"变量的填充规则:从外部知识数据中提取实体的上位概念、属性、功能、组成部分等,作为"B"的填充内容。例如知识数据"苹果是一种水果",则提取"水果"填充到"B"。3.实体词X、Y的填充规则:一般选取知识数据中的核心名词实体作为问题模板中的X和Y。举例说明如下:外部知识数据:"红色的苹果是一种水果,苹果树开花后结出苹果。";问题:“苹果的定义是什么?”;答案:“苹果的定义是水果”。
利用知识图谱增强QA生成。构建了领域知识图谱,存储了实体、属性、关系等结构化知识。在生成QA对时,从知识图谱中提取与外部知识数据相关的实体及其属性,用于丰富问题和答案的背景信息,提高QA对的多样性和信息量。
结合大语言模型优化QA质量。利用预训练的大语言模型,如GPT-4,对生成的初步QA对进行优化和增强。具体而言,将初步QA对输入到GPT-4模型中,让其基于上下文信息,对问题和答案进行扩展、补充和改写,生成更加自然、连贯的QA对。
迭代优化提示模板。定期分析生成的QA对质量,识别出表现较差的提示模板,并对其进行迭代优化。优化方式包括调整模板的语言风格、增删模板中的关键词、修改模板的句式结构等。通过不断迭代,逐步提高了提示模板的效果,生成更高质量的QA对。
人工筛选和后处理。为了进一步确保QA对的质量,安排人工对生成的QA对进行筛选和后处理。筛选过程中,剔除了不相关、错误、冗余的QA对;后处理过程中,对部分QA对的表述进行了润色和修正,将所有QA对汇总,最终获得QA的评估数据集。
评估模块:包括评估标准(如准确率、召回率、F1分数等)和测试数据集等,评估模块一方面根据生成的评估数据,进行大模型能力的评估,判断哪些是大模型尚没有掌握的知识内容;另一方面,根据评估结果,将大模型未掌握的知识内容进行数据增强,包括大模型本身已有知识的导出和未掌握知识的数据处理,生成大模型的训练数据集和评估集。
评估模块的工作原理: 对生成模块生成的模型进行性能评估。这通常涉及将模型的输出与实际值进行比较,并使用各种指标来衡量模型的准确性、鲁棒性和泛化能力。
作为一种实施方式,评估模块的自我评估机制可以分为以下几个关键步骤:
步骤1:数据准备,获取历史QA的评估数据集和从环境中新获取的外部知识数据构成的QA的评估数据集。将从环境中新获取的外部知识数据构成的QA的评估数据集,记为,与智能体已学习过的历史QA的评估数据集进行合并,得到最新的用于评估的QA的评估数据集:
步骤2:模型预测。使用智能体当前的模型M对QA的评估数据集进行预测,得到预测结果,模型M的模型结构是Qwen1.5-72B,是一种阿里开源的模型Qwen系列的、1.5版本、72B参数规模的一个模型。
步骤3:评估指标计算。将预测结果与QA的评估数据集的真实标签进行比较,计算各项评估指标,如准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1分数等。以准确率为例,其计算公式为:
其中:代表中样本的数量;i代表中每个样本;代表数据集中样本i的标签;代表对数据集中样本i的预测标签。
步骤4:评估结果分析。对步骤3得到的各项指标进行分析,重点关注以下两方面:(1)新数据上的指标表现,与历史数据上的指标表现进行比较,判断模型在新数据上的泛化能力;(2)模型M在各个类别或数据子集上的指标表现,识别模型M存在的偏差或薄弱点。
作为一种实施方式,识别模型存在的偏差或薄弱点步骤包括:绘制模型M在不同类别/子集上的混淆矩阵(Confusion Matrix)。混淆矩阵直观地展示了模型M将某个类别错误预测为其他类别的情况。错误预测案例较多的类别,往往就是模型M的薄弱点。例如,在某个手写数字识别任务中,混淆矩阵显示数字"1"经常被错误预测为"7",但"7"却较少被预测为"1"。这表明模型M可能对数字"1"的特征学习不足,以致于容易与"7"混淆,模型M在这方面存在偏差。
步骤5:适应性调整。根据步骤4的分析结果,自适应地调整模型M对新知识的接受程度。具体调整方式使用如MAML(Model-Agnostic Meta-Learning)算法。假设模型参数为,学习率为,新数据上的损失函数为,则参数更新公式为;
这里的新参数即为调整后的模型参数,相比模型参数,在新数据上有更好的适应性。
步骤6:模型更新。将步骤5得到的新参数应用到模型M中,得到更新后的模型,用于后续的预测和学习任务。根据上述自我评估机制的步骤,形式化表示为:
其中:M表示智能体当前的模型;表示经过自我评估和适应性调整后得到的新模型;表示将更新后的参数应用到原模型M的操作,即步骤6中的模型更新过程;表示模型参数;表示学习率;表示在新数据上计算得到的损失函数,衡量了模型在新数据上的表现;表示损失函数对模型参数的梯度,指示了如何调整参数以减小新数据上的损失;表示根据梯度下降法更新模型参数,即步骤5中的适应性调整过程。
指导模块:包括反馈机制、调优策略和用户交互界面等,指导模块能够根据评估集和评估表现,生成优化计划,引导大模型进一步的优化方向,包括迭代轮次、训练方法、损失函数等。
指导模块的工作原理:根据评估模块的评估结果提供反馈,指导模型的进一步优化。这过程涉及调整模型结构、重新选择训练算法或更改模型的训练过程。
作为一种实施方式,指导模块是本发明中负责制定和执行优化计划的关键部分,它通过高度自动化的流程,确保大模型能够根据评估结果进行持续的自我提升。该模块首先接收来自评估模块的性能反馈,这些反馈包括但不限于准确率、召回率、F1分数等关键指标,这些指标反映了模型在特定任务上的表现。接着,指导模块利用先进的机器学习算法,如决策树,对这些评估结果进行深入分析,以识别模型在处理数据时的不足之处。决策树在这一过程中起到了关键作用,它通过树状结构来表示决策路径,从而帮助模块确定最佳的优化策略。
例如,在一次模型性能评估中,评估结果显示模型在二分类任务上的表现为:准确率78%,召回率65%,F1分数71%。根据这些结果,指导模块利用决策树算法进行分析。决策树首先判断准确率是否达到80%的阈值,如果没有达到,则进一步判断召回率是否低于70%。在这个例子中,准确率为78%,未达到80%的阈值;同时召回率为65%,低于70%的阈值。根据决策树的预设规则,此种情况通常表明模型存在欠拟合问题,即模型对训练数据的拟合能力不足。
除了欠拟合,决策树还可以帮助指导模块判断模型是否出现过拟合或不收敛等问题,过拟合判断:如果模型在训练集上的准确率高于95%,但在测试集上准确率却显著降低(如低于70%),这通常表明模型过度拟合了训练数据,泛化能力差。如果模型在训练过程中,训练集损失持续下降,但验证集损失却出现上升,即所谓的"反转"现象,也暗示模型可能过拟合了。不收敛判断:如果模型在多轮训练后,训练集和验证集的损失仍然很高(如高于预设阈值),且呈现波动状态,未见显著下降趋势,则表明模型可能不收敛。如果模型的梯度在训练中出现爆炸式增长或梯度消失,导致损失快速升高或训练过早终止,也提示模型不收敛。根据以上判断标准,决策树可进一步细化优化策略:对于欠拟合,可增加模型复杂度,如加深网络层数、增加特征工程等。对于过拟合,可采取正则化、数据增强、提前停止等措施。对于不收敛,可调整学习率、优化器,或对模型结构进行重新设计。
一旦确定了优化方向,指导模块通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向,这过程包括调整模型结构、重新选择训练算法或更改模型的训练过程。在模型结构调整方面,大模型是基于Transformer架构实现的,指导模块会建议增加或减少Transformer架构中的层数,或者改变激活函数的类型。Transformer作为当前深度学习中的一项核心技术,特别适用于处理序列数据,如文本或时间序列,其自注意力机制能够捕捉数据中的长距离依赖关系。在训练算法的选择上,指导模块会推荐使用如Adam这样的自适应学习率优化器,它能够根据梯度的变化自动调整学习率,从而加速模型的收敛过程。
作为一种实施方式,指导模块通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向的案例:开发一个基于Transformer的机器翻译模型,用于将英文翻译成中文,自动化和规则就是运行翻译模型的执行代码。经过初步训练和评估后,指导模块发现该模型存在欠拟合问题,在测试集上的BLEU得分偏低。
根据决策树的分析结果,指导模块自动生成以下优化计划:1.增加Transformer的编码器和解码器层数,从原来的6层增加到12层,以提高模型的表达能力。2.在Transformer的每一层中加入层归一化(Layer Normalization)操作,以稳定训练过程。3.在训练过程中,使用Adam优化器,初始学习率设为0.0001,并采用学习率预热(Learning Rate Warmup)策略,即在前4000个step内,学习率从0线性增加到0.0001,而后再采用逆平方根衰减。4.在数据预处理阶段,对训练数据进行更细粒度的分词(如采用BPE算法),以缓解未登录词问题。经过以上优化后,该翻译模型的BLEU得分从原来的25.8提升到38.5,效果显著。
确定优化方向和生成优化计划的具体实现涉及多个步骤,包括数据分析、模型选择、超参数调整等。以下是确定优化方向的详细实现方法:
步骤1.1,数据分析:利用统计方法分析评估结果,识别模型性能低下的特定任务或数据集。应用混淆矩阵、ROC曲线等工具来深入了解模型在不同类别上的表现。
步骤1.2,模型诊断:通过模型诊断技术(如混淆矩阵)来识别模型中的过拟合或欠拟合问题。使用正则化技术(如Dropout、L1/L2正则化)来减少过拟合风险。
步骤1.3,决策树分析:构建决策树模型,以评估结果作为输入,输出优化建议。决策树通过递归划分数据集,为不同的性能问题提供定制化的优化方向;具体案例见前文给出的指导模块通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向的案例。
生成优化计划的具体执行步骤:
步骤2.1,模型结构调整:根据优化方向,自动调整Transformer架构的层数、头数或激活函数。应用神经架构搜索(NAS)技术来寻找最优的网络结构。
具体给出了模型结构调整一种实施方式,开发一个基于Transformer的对话生成模型,用于构建聊天机器人。初步评估显示,该模型生成的回复还不够流畅自然。指导模块决定采用NAS技术来自动搜索最优的Transformer架构。具体实现步骤如下:1.定义搜索空间:指定Transformer架构的可调超参数及其取值范围,例如:编码器和解码器层数:从2到12之间的整数;注意力头数:从4到16之间的整数;前馈网络(FFN)隐藏层维度:从128到2048之间的整数;激活函数:ReLU、GELU、Swish等;
2.选择NAS算法:采用基于强化学习的ENAS(Efficient NAS)算法,该算法通过参数共享和策略梯度优化,能够高效地搜索大规模架构空间。
3.定义Reward函数:Reward函数用于评估每个候选架构的性能,需要平衡模型质量和计算效率。这里采用加权和的方式,将Perplexity和推理速度作为Reward的两个分量,并设置权重系数。
4.自动搜索和评估:ENAS算法在搜索空间中自动采样候选架构,并在验证集上评估其Reward。经过多轮迭代,算法将选出Reward最高的架构作为最优结构。
5.重新训练和微调:使用搜索出的最优架构,在完整的训练数据上重新训练Transformer模型,并进行必要的微调,以进一步提升性能。
经过NAS优化后,该对话模型的架构设置为:6层编码器和解码器、8个注意力头、FFN维度为1024、GELU激活函数。在人工评估中,优化后的模型生成的回复更加流畅自然,用户满意度显著提升。
步骤2.2,训练算法选择:根据任务特性和数据集特性,选择最适合的训练算法(如Adam、SGD)。实施学习率调度策略,如学习率衰减或周期性调整。
步骤2.3,损失函数定制:针对不平衡数据集,设计加权损失函数,如加权交叉熵损失。实验不同的损失函数,选择在验证集上表现最佳的损失函数。
步骤2.4,多目标优化:采用Pareto优化等多目标优化技术,同时考虑多个性能指标。使用遗传算法或其他启发式搜索方法来平衡不同指标的优化。
步骤2.5,用户交互:提供用户交互界面,允许研究人员或开发者根据经验提出优化建议。结合用户反馈调整自动化优化流程。
步骤2.6,计划执行:将优化计划传递给计划模块,调用计算资源执行优化。监控优化过程,确保计划按照既定目标执行。
通过上述步骤,指导模块能够自动化地确定优化方向并生成详细的优化计划。这个过程结合了数据分析、机器学习算法、深度学习技术和用户交互,确保大模型能够针对评估结果进行有效的自我提升。
在上面的例子中,针对欠拟合问题,决策树算法会自动匹配到一系列预设的优化策略,如增加模型容量(如增加Transformer的层数或隐藏层维度)、延长训练时间(如将训练epoch数从10增加到20)、引入更高级的特征提取方法(如使用预训练的词向量)等。指导模块综合考虑这些策略的效果、所需计算资源和训练时间等因素,最终给出如下具体的优化计划:将模型的Transformer层数从12增加到24,训练epoch数从10增加到15,同时使用预训练的词向量作为Embedding层的初始权重。该优化计划旨在通过增强模型容量和特征提取能力,同时适度延长训练时间,来提升模型性能,解决欠拟合问题。
此外,指导模块还会考虑损失函数的调整,以更好地捕捉数据中的模式和关系。例如,如果模型在处理不平衡数据集时表现不佳,指导模块会建议使用加权交叉熵损失函数,以给予少数类别更多的关注。在生成优化计划时,模块还会考虑到多目标优化的需求,同时考虑多个性能指标,以实现模型性能的全面优化。
为了提高优化过程的透明度和可解释性,指导模块还包括一个用户交互界面,该界面允许研究人员或开发者查看模型的性能曲线、热图等,并手动输入优化建议。界面的设计旨在提供直观的反馈,帮助用户理解模型的强项和弱点,并根据需要调整自动化规则。
最后,指导模块将优化计划传递给计划模块,后者负责调用计算资源执行优化。这个过程形成了一个闭环反馈系统,确保模型在每次迭代后都能得到改进,从而在不断变化的数据环境中保持最佳性能。通过这种自动化和智能化的优化流程,指导模块显著提高了大模型的适应性和学习效率,使其能够更好地满足用户的需求。
计划模块:包括项目管理工具、进度跟踪系统和资源分配机制等,计划模型能够根据指导模块的建议,执行大模型的具体优化计划,提升大模型的能力。
工作原理: 协调整个系统的运作,包括设置项目目标、分配任务和资源以及监控进度。确保系统各个模块的协同工作,以实现自动进化的目标。整体交互逻辑见图2。
本实施例旨在解决传统人工智能系统在实时数据处理和自适应更新方面的局限性。这个智能体结合了主动学习、自我评估、交叉指导和动态学习计划制定等先进机制。通过这些机制,它能够从多样化的数据源实时获取信息,自动生成QA的评估数据集,并根据这些数据集对自身的学习过程进行评估和调整。此外,它还利用人工标注和大模型协作来优化学习效果,从而实现跨领域的适应性和知识迁移。本实施例具有以下的创新点:
自动数据采集:能够从多种数据源(如网络、多媒体资料、文档)自动获取信息。
实时主动学习:通过不断监测数据流变化,实现对新知识和趋势的即时学习。
生成QA的评估数据集:利用评估模块处理收集的数据,为学习过程生成关键的评估数据,即QA的评估数据集。
自我评估机制:根据QA的评估数据集自我判断和调整对新知识的接受程度。
交叉指导学习:结合人工标注、模型协作和交叉验证等方法,提高学习效率。
动态学习计划制定:基于评估和学习数据自动规划未来学习策略。
跨领域适应性:能够处理和适应多个领域的数据和知识。
实施例2,本实施例提供了一种具备主动学习能力的大模型自动进化系统的工作方法,包括:
通过数据模块收集用户的交互数据、外部公开数据;
通过生成模块,根据提示工程,对收集的数据,生成QA的评估数据集;
通过评估模块,利用生成QA的评估数据集,对大模型进行测试评估生成评估结论和数据集;
通过指导模块根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;
通过计划模块执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
具体的,1.数据获取与主动学习机制,本发明的AI智能体采用先进的数据采集技术,能够从多种异构数据源(如网络数据、图文信息、文档等)中自动获取信息。这一过程不仅包括传统数据抓取,还涉及对数据的初步分析,以识别对学习和进化过程最有价值的信息,数据抓取分为内部数据读取和外部数据读取,内部数据读取采用读取结构化数据库MySQL;外部数据读取是通过爬虫抓取公开的数据,例如百度百科、维基百科。数据初步分析:首先去除无效字符,无效字符包括html标记、乱码、非Unicode编码内容等;然后对数据进行切分,以段落和句为粒度,获取切分后的数据;最后对切分的数据做数据信息提取,数据信息提取的技术方案包括NER实体识别、jieba关键词识别、基于LSTM的摘要生成技术,生成对应数据的关键信息,关键信息包括摘要、知识点,表示该段落或该句子描述的主要内容和提到的关键词。此外,AI智能体通过不断监测数据流的变化,能够主动识别新知识和新趋势,实现实时的学习和适应。
2.生成评估数据,收集到的数据经过智能体内部的生成模块处理,该生成模块负责分析和筛选数据,生成用于进一步学习的QA的评估数据集,QA的评估数据集包括对数据的有效性、相关性和可靠性的评估数据,这个过程包括对数据的有效性、相关性和可靠性的评估。生成模块的设计使得AI智能体能够从复杂的数据中提炼出关键信息,为自身的学习过程提供准确的指导。
3.自我评估与适应性调整,智能体内部设有评估模块,评估模块采用自我评估机制,该机制能够根据QA的评估数据集来判断和调整自身对新知识的接受程度。这一过程是自我进化的关键,因为它允许AI智能体识别并纠正其学习过程中的不足和偏差。此外,自我评估机制还为智能体提供了自我校准的能力,确保在不断变化的环境中保持其性能和准确性。
4.交叉指导与学习数据生成,为了进一步提升学习效率和数据质量,本发明的AI智能体采用了交叉指导机制。交叉指导机制包括人工标注、大模型协作和交叉验证等方法,以生成更高质量的学习数据。通过这种多元化的学习方法,智能体能够在不同模型和数据源之间进行知识迁移和优化,从而实现更全面和深入的学习。
5.动态学习计划制定,最后,基于评估结果和新生成的学习数据,智能体能够自动规划和优化其未来的学习计划。这个过程涉及到对学习目标、资源分配和时间规划的动态调整,使得AI智能体在未来的学习过程中更加高效和针对性。
为了便于理解实施例,下面给出一个实施例,以对话闲聊场景为例:
数据模块,不断的收集用户的交互数据、外部公开数据,并将其增量存储,转换为便于利用的格式。
生成模块,根据提示工程等技术,对收集的数据,生成QA的评估数据集。
评估模块利用生成的QA的评估数据集,对大模型进行测试评估,查看大模型的回答情况,同时根据大模型的响应结果,将大模型回答错误的知识进行增强,通过GPT-4等大模型进行改写,同时,利用历史数据集,将大模型的知识进行导出,以保证模型调整后已有的知识不丢失。
指导模块根据评估模块的评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向,这过程包括调整模型结构、重新选择训练算法或更改模型的训练过程。在模型结构调整方面,大模型是基于Transformer架构实现的,指导模块会建议增加或减少Transformer架构中的层数,或者改变激活函数的类型。
计划模块是执行指导模块的地方,能够根据生成的计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
本发明的自我进化AI智能体代表了AI技术的一个重大突破。通过其独特的主动学习机制、自我评估和动态学习计划制定功能,这个智能体不仅能够实时适应新数据和环境,还能跨领域迁移和吸收知识。这使得它在诸如实时数据分析、自动化决策支持、个性化学习和预测建模等领域具有巨大的应用潜力。此外,它的自适应能力和灵活性也为未来的AI研究和应用开辟了新的可能性。
通过上述五个模块的迭代,使得应用场景下的大模型能够自动的学习并掌握新增知识,提升大模型的场景适应能力。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其他领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (3)
1.一种具备主动学习能力的大模型自动进化系统,其特征在于,包括:
数据模块,用于收集用户的交互数据、外部公开数据;数据模块从多种异构数据源中获取信息,包括数据抓取和对数据的初步分析;数据抓取分为内部数据读取和外部数据读取,内部数据读取采用读取结构化数据库MySQL,外部数据读取是通过爬虫抓取公开的数据;数据初步分析具体步骤包括,首先去除无效字符;然后对数据进行切分,获取切分后的数据;最后对切分的数据做数据信息提取,生成对应数据的关键信息;多种异构数据源包括网络数据、图文信息和文档;关键信息包括摘要、知识点,表示段落或句子描述的主要内容和提到的关键词;
生成模块,根据提示工程,对收集的数据,生成QA的评估数据集;
评估模块,利用QA的评估数据集,对大模型进行测试评估获得评估结论和数据集,步骤包括:
步骤1,数据准备,获取历史QA的评估数据集和从环境中新获取的外部知识数据构成的QA的评估数据集;将从环境中新获取的外部知识数据构成的QA的评估数据集,记为,与智能体已学习过的历史QA的评估数据集进行合并,得到最新的用于评估的QA的评估数据集:
步骤2,模型预测,使用智能体当前的模型M对QA的评估数据集进行预测,得到预测结果;
步骤3,评估指标计算,将预测结果与QA的评估数据集的真实标签进行比较,计算各项评估指标,包括准确率、精确率、召回率、F1分数;
步骤4,评估结果分析,对步骤3得到的各项指标进行分析,关注以下两方面:(1)新数据上的指标表现,与历史数据上的指标表现进行比较,判断模型在新数据上的泛化能力;(2)模型M在各个类别或数据子集上的指标表现,识别模型M存在的偏差或薄弱点;识别模型存在的偏差或薄弱点步骤包括:绘制模型M在不同类别或子集上的混淆矩阵;混淆矩阵直观地展示了模型M将某个类别错误预测为其他类别的情况;
步骤5,适应性调整,根据步骤4的分析结果,自适应地调整模型M对新知识的接受程度,具体调整方式使用MAML算法;假设模型参数为,学习率为,新数据上的损失函数为,参数更新公式为;
这里的新参数即为调整后的模型参数,相比模型参数,在新数据上有更好的适应性;
步骤6,模型更新,将步骤5得到的新参数应用到模型M中,得到更新后的模型,用于后续的预测和学习任务,形式化表示为:
其中:M表示智能体当前的模型;表示经过自我评估和适应性调整后得到的新模型;表示将更新后的参数应用到原模型M的操作,即步骤6中的模型更新过程;表示模型参数;表示学习率;表示在新数据上计算得到的损失函数,衡量了模型在新数据上的表现;表示损失函数对模型参数的梯度,指示了如何调整参数以减小新数据上的损失;表示根据梯度下降法更新模型参数,即步骤5中的适应性调整过程;
指导模块,根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;
确定优化方向和生成优化计划的具体实现涉及多个步骤,以下是确定优化方向的详细实现方法:
步骤1.1,数据分析:利用统计方法分析评估结果,识别模型性能低下的特定任务或数据集;应用混淆矩阵、ROC曲线工具来深入了解模型在不同类别上的表现;
步骤1.2,模型诊断:通过模型诊断技术来识别模型中的过拟合或欠拟合问题;使用正则化技术来减少过拟合风险;
步骤1.3,决策树分析:构建决策树模型,以评估结果作为输入,输出优化建议;决策树通过递归划分数据集,为不同的性能问题提供定制化的优化方向;
利用决策树判断模型是否出现过拟合、不收敛和欠拟合;
生成优化计划的具体执行步骤:
步骤2.1,模型结构调整:根据优化方向,自动调整Transformer架构的层数、头数或激活函数;应用神经架构搜索技术来寻找最优的网络结构;指导模块决定采用NAS技术来自动搜索最优的Transformer架构;具体实现步骤如下:1.定义搜索空间:指定Transformer架构的可调超参数及其取值范围,编码器和解码器层数:从2到12之间的整数;注意力头数:从4到16之间的整数;前馈网络隐藏层维度:从128到2048之间的整数;激活函数:ReLU、GELU、Swish;2.选择NAS算法:采用基于强化学习的ENAS算法,该算法通过参数共享和策略梯度优化,能够高效地搜索大规模架构空间;3.定义Reward函数:Reward函数用于评估每个候选架构的性能,需要平衡模型质量和计算效率;采用加权和的方式,将Perplexity和推理速度作为Reward的两个分量,并设置权重系数;4.自动搜索和评估:ENAS算法在搜索空间中自动采样候选架构,并在验证集上评估其Reward;经过多轮迭代,算法将选出Reward最高的架构作为最优结构;5.重新训练和微调:使用搜索出的最优架构,在完整的训练数据上重新训练Transformer模型;
步骤2.2,训练算法选择:根据任务特性和数据集特性,选择最适合的训练算法;
步骤2.3,损失函数定制:针对不平衡数据集,设计加权损失函数,实验不同的损失函数,选择在验证集上表现最佳的损失函数;
步骤2.4,多目标优化:采用Pareto优化的多目标优化技术,同时考虑多个性能指标,使用遗传算法来平衡不同指标的优化;
步骤2.5,用户交互:提供用户交互界面,允许研究人员或开发者根据经验提出优化建议,结合用户反馈调整自动化优化流程;
步骤2.6,计划执行:将优化计划传递给计划模块;
计划模块,用于执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
2.根据权利要求1所述的一种具备主动学习能力的大模型自动进化系统,其特征在于,所述生成模块在利用提示工程生成QA的评估数据集的步骤包括:
基于模板的提示生成,预先设计一系列问题和答案的模板,将收集到的外部知识数据按照设定规则填充到模板的空白位置,生成初步的QA对;
利用知识图谱增强QA生成;
利用预训练的大语言模型对生成的初步QA对进行优化和增强;
迭代优化提示模板,通过不断迭代,逐步提高提示模板的效果,生成更高质量的QA对;
人工筛选和后处理,通过人工对生成的QA对进行筛选和后处理,后处理过程中,对部分QA对的表述进行了润色和修正,将所有QA对汇总,最终得到QA的评估数据集。
3.一种如权利要求1所述的具备主动学习能力的大模型自动进化系统的工作方法,其特征在于,包括:
通过数据模块收集用户的交互数据、外部公开数据;
通过生成模块提示工程,对收集的数据,生成QA的评估数据;
通过评估模块利用生产的QA数据,对大模型进行测试评估生成评估结论和数据集;
通过指导模块根据评估结论和生成的数据集,通过自动化和规则的方式,制定优化计划,生成大模型进一步优化的方向;
通过计划模块执行优化计划,能够根据生成的优化计划,调用相应的计算资源、数据资源,去实现大模型的迭代优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410611940.8A CN118195032B (zh) | 2024-05-17 | 2024-05-17 | 一种具备主动学习能力的大模型自动进化系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410611940.8A CN118195032B (zh) | 2024-05-17 | 2024-05-17 | 一种具备主动学习能力的大模型自动进化系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118195032A CN118195032A (zh) | 2024-06-14 |
CN118195032B true CN118195032B (zh) | 2024-08-30 |
Family
ID=91398751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410611940.8A Active CN118195032B (zh) | 2024-05-17 | 2024-05-17 | 一种具备主动学习能力的大模型自动进化系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118195032B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116702766A (zh) * | 2023-06-14 | 2023-09-05 | 山东浪潮科学研究院有限公司 | 一种基于大语言模型的领域知识库自动构建方法和装置 |
CN116932776A (zh) * | 2023-07-13 | 2023-10-24 | 山东浪潮科学研究院有限公司 | 一种基于知识图谱的大模型知识更新方法和装置 |
CN117852636A (zh) * | 2024-02-01 | 2024-04-09 | 未必然数据科技(北京)有限公司 | 一种基于大模型的设备运维知识更新方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12001931B2 (en) * | 2018-10-31 | 2024-06-04 | Allstate Insurance Company | Simultaneous hyper parameter and feature selection optimization using evolutionary boosting machines |
WO2022036616A1 (zh) * | 2020-08-20 | 2022-02-24 | 中山大学 | 一种基于低标注资源生成可推理问题的方法和装置 |
CN116932717A (zh) * | 2023-07-13 | 2023-10-24 | 山东浪潮科学研究院有限公司 | 基于大语言模型自评估和自反馈的知识库检索方法和装置 |
CN117933523A (zh) * | 2023-08-03 | 2024-04-26 | 中国人民解放军空军工程大学 | 一种基于优化随机森林的对地攻击无人机自主作战效能评估方法 |
CN117235524A (zh) * | 2023-09-20 | 2023-12-15 | 北京红山信息科技研究院有限公司 | 自动估值模型的学习训练平台 |
CN117669764A (zh) * | 2023-10-30 | 2024-03-08 | 华南理工大学 | 基于语言模型与主动学习的数据标注方法、介质及设备 |
CN117542471A (zh) * | 2023-11-16 | 2024-02-09 | 华东师范大学 | 一种基于迁移学习与专家反馈的照护问答模型训练方法 |
CN117649567B (zh) * | 2024-01-30 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 数据标注方法、装置、计算机设备和存储介质 |
-
2024
- 2024-05-17 CN CN202410611940.8A patent/CN118195032B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116702766A (zh) * | 2023-06-14 | 2023-09-05 | 山东浪潮科学研究院有限公司 | 一种基于大语言模型的领域知识库自动构建方法和装置 |
CN116932776A (zh) * | 2023-07-13 | 2023-10-24 | 山东浪潮科学研究院有限公司 | 一种基于知识图谱的大模型知识更新方法和装置 |
CN117852636A (zh) * | 2024-02-01 | 2024-04-09 | 未必然数据科技(北京)有限公司 | 一种基于大模型的设备运维知识更新方法 |
Also Published As
Publication number | Publication date |
---|---|
CN118195032A (zh) | 2024-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310438B (zh) | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 | |
CN112905795A (zh) | 文本意图分类的方法、装置和可读介质 | |
CN112000772A (zh) | 面向智能问答基于语义特征立方体的句子对语义匹配方法 | |
CN113138920B (zh) | 基于知识图谱与语义角色标注的软件缺陷报告分派方法及装置 | |
Wu et al. | Optimized deep learning framework for water distribution data-driven modeling | |
CN116719520B (zh) | 代码生成方法及装置 | |
CN117453915A (zh) | 一种基于可规划工作流的大语言模型的复杂任务处理方法 | |
US20190228297A1 (en) | Artificial Intelligence Modelling Engine | |
CN116738959B (zh) | 一种基于人工智能的简历改写方法及系统 | |
CN113591988B (zh) | 知识认知结构分析方法、系统、计算机设备、介质、终端 | |
CN111274438A (zh) | 一种语言描述引导的视频时序定位方法 | |
CN116861269A (zh) | 工程领域的多源异构数据融合及分析方法 | |
CN115238197A (zh) | 一种基于专家思维模型的领域业务辅助分析方法 | |
CN116882450A (zh) | 问答模型的编辑方法、装置、电子设备和存储介质 | |
US20240281446A1 (en) | Enhanced searching using fine-tuned machine learning models | |
CN118195032B (zh) | 一种具备主动学习能力的大模型自动进化系统及方法 | |
CN116795341A (zh) | 生成带有预测占位符的代码段的机器学习的模型来优化软件开发 | |
CN116450783A (zh) | 面向篇章级的事件抽取方法、系统、存储介质和电子设备 | |
Nagarajan et al. | Efficiency Improvisation of Large-Scale Knowledge Systems in Feature Determination using Proposed HVGAN Architecture | |
Anireh et al. | HTM-MAT: An online prediction software toolbox based on cortical machine learning algorithm | |
CN118276913B (zh) | 一种基于人工智能的代码补全方法 | |
US20240303499A1 (en) | Method for optimizing workflow-based neural network including attention layer | |
CN118210818B (zh) | Sql语句生成方法、装置、电子设备和存储介质 | |
CN118312167B (zh) | 基于低代码平台的套件机制实现方法及系统 | |
CN114048741B (zh) | 一种基于触发词注意力的关系抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |