CN116402166A - 一种预测模型的训练方法、装置、电子设备及存储介质 - Google Patents

一种预测模型的训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116402166A
CN116402166A CN202310678661.9A CN202310678661A CN116402166A CN 116402166 A CN116402166 A CN 116402166A CN 202310678661 A CN202310678661 A CN 202310678661A CN 116402166 A CN116402166 A CN 116402166A
Authority
CN
China
Prior art keywords
sample
predicted
training
service
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310678661.9A
Other languages
English (en)
Other versions
CN116402166B (zh
Inventor
郭树龙
谢栋杰
付永善
杨华
韩拓
栾成龙
张丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Jinneng Engineering Management Co ltd
Original Assignee
Tianjin Jinneng Engineering Management Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Jinneng Engineering Management Co ltd filed Critical Tianjin Jinneng Engineering Management Co ltd
Priority to CN202310678661.9A priority Critical patent/CN116402166B/zh
Publication of CN116402166A publication Critical patent/CN116402166A/zh
Application granted granted Critical
Publication of CN116402166B publication Critical patent/CN116402166B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种预测模型的训练方法、装置、电子设备及存储介质;该方法包括:在业务数据库中提取出业务样本作为当前业务样本;将当前业务样本及其对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型筛选出高价值样本;将高价值样本输入至大语言预测模型中,通过大语言预测模型输出高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取新的业务样本,并基于新的业务样本对通用预测模型进行训练。本申请实施例可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高。

Description

一种预测模型的训练方法、装置、电子设备及存储介质
技术领域
本申请实施例涉及人工智能技术领域,尤其涉及一种预测模型的训练方法、装置、电子设备及存储介质。
背景技术
招投标是一种由组织开展的一种择优成交的方式。当招标方进行招标时,需要收集来自各个企业的投标书,并根据每一个投标书的内容确定合作的企业,但是一些企业为了增加合作概率存在围标串标行为,从而谋取利益,扰乱市场秩序。目前,招标过程中大多采用人工的方式对招标数据进行围标串标的分析,一方面增加工作人员的工作量,另一方面影响了投标工作进度,并且对投标公司的选择上,主观性较高且准确性较低。
目前的围标串标算法可以解决上述人工成本高,主观性较高的问题,依据企业的基础信息进行字段值匹配,通过特定的重复规则定义最后的正负结果,但是上述方式只能在业务中进行浅层面的诊断,无法满足更多层级的需求。另外,在现有的辅助预测方法中,一些低级功能可以基于管理经验赋予每个物理信息一个或者若干个关联系数,从而通过预测模型对围标串标进行分析。但是在特定的业务场景下,能够用于机器学习的传统样本非常有限,这样可能无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。
发明内容
本申请提供一种预测模型的训练方法、装置、电子设备及存储介质,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高。
第一方面,本申请实施例提供了一种预测模型的训练方法,所述方法包括:
若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;
将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本;
将所述至少一个高价值样本输入至预先训练好的大语言预测模型中,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;
基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于所述至少一个新的业务样本对所述通用预测模型进行训练;重复执行上述操作,直到所述通用预测模型满足所述预先设定的收敛条件。
第二方面,本申请实施例还提供了一种预测模型的训练装置,所述装置包括:提取模块、筛选模块、关联模块和训练模块;其中,
所述提取模块,用于若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;
所述筛选模块,用于将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本;
所述关联模块,用于将所述至少一个高价值样本输入至预先训练好的大语言预测模型中,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;
所述训练模块,用于基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于所述至少一个新的业务样本对所述通用预测模型进行训练;重复执行上述操作,直到所述通用预测模型满足所述预先设定的收敛条件。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的预测模型的训练方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的预测模型的训练方法。
本申请实施例提出了一种预测模型的训练方法、装置、电子设备及存储介质,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法、装置、电子设备及存储介质,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
附图说明
图1为本申请实施例提供的预测模型的训练方法的第一流程示意图;
图2为本申请实施例提供的预测模型的训练方法的第二流程示意图;
图3为本申请实施例提供的预测模型的训练方法的第三流程示意图;
图4为本申请实施例提供的样本距离计算原理的示意图;
图5为本申请实施例提供的预测模型的训练方法的第四流程示意图;
图6为本申请实施例提供的预测模型的训练方法的第五流程示意图;
图7为本申请实施例提供的预测模型的训练方法的第六流程示意图;
图8为本申请实施例提供的预测模型的预测方法的第一流程示意图;
图9为本申请实施例提供的预测模型的预测方法的第二流程示意图;
图10为本申请实施例提供的预测模型的预测原理的示意图;
图11为本申请实施例提供的预测模型的训练装置的结构示意图;
图12为本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
实施例一
图1为本申请实施例提供的预测模型的训练方法的第一流程示意图,该方法可以由预测模型的训练装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,预测模型的训练方法可以包括以下步骤:
S101、若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。
在本步骤中,若通用预测模型不满足预先设定的收敛条件,则电子设备可以在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。通常情况下,电子设备每次在预先构建的业务数据库中可以提取多个业务样本作为当前业务样本。具体地,每一个业务样本至少可以包括:企业必要信息和企业描述信息;其中,企业必要信息和企业描述信息均为结构化文本。本申请实施例中的结构化文本是指用结构化信息格式表示的文本。例如,企业必要信息包括但不限于:企业名称、法人代表、统一信用代码;企业描述信息包括但不限于:企业所在地、注册资本、经营范围、经营资质、员工人数、联系方式。
S102、将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本。
在本步骤中,电子设备可以将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本。具体地,电子设备可以先通过通用预测模型在各个当前业务样本的结构化文本中提取出至少一个关键信息;然后根据该至少一个关键信息计算各个当前业务样本对应的权重值;再根据各个当前业务样本对应的权重值在该至少一个当前业务样本中筛选出至少一个高价值样本。进一步地,电子设备可以根据各个当前业务样本对应的权重值将全部的当前业务样本进行排序,根据排序结果在该至少一个当前业务样本中筛选出排名靠前的若干个当前业务样本作为高价值样本。
本申请实施例中的风险等级系数表示企业或者供应商存在风险的可能性;它的取值范围在-1到1之间;风险等级系数越高,表示企业或者供应商存在风险的可能性越大。本申请实施例中的训练权重系数表示业务样本对模型训练的影响程度;它的取值范围在0到1之间;训练权重系数越高,表示业务样本对模型训练的影响程度越大。
S103、将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值。
在本步骤中,电子设备可以将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值。具体地,电子设备可以通过大语言预测模型对各个高价值样本进行语义分析,并根据分析结果在各个高价值样本中提取出至少一个词根;然后在各个词根中提取出至少一个核心文本,并基于各个核心文本生成至少一个关联文本;其中,关联文本中包括核心文本或者核心文本的近似文本;再根据各个关联文本生成各个词根所关联的预测词语;其中,预测词语包括关联文本或者关联文本的近似文本。
S104、基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。
在本步骤中,电子设备可以基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。具体地,电子设备可以先根据各个预测词语对应的权重值对全部的预测词语进行排序,得到全部的预测词语的排序结果;然后根据全部的预测词语的排序结果在全部的预测词语中提取出至少一个目标预测词语;再根据各个目标预测词语在公开信息库中获取该至少一个新的业务样本。
图2为本申请实施例提供的预测模型的训练方法的第二流程示意图。如图2所示,先在预先构建的业务数据库中提取出业务样本;然后通过预处理模块对该业务样本进行预处理,得到业务样本的预处理结果;将业务样本的预处理结果以及业务样本的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型筛选出高价值样本;将高价值样本输入至大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取新的业务样本,并基于新的业务样本对通用预测模型进行训练。
本申请实施例提出的预测模型的训练方法,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图3为本申请实施例提供的预测模型的训练方法的第三流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图3所示,预测模型的训练方法可以包括以下步骤:
S301、将预先获取的N个业务样本划分为X个测试样本和Y个训练样本;其中,N为大于1的自然数;X和Y均为大于等于1的自然数。
在本步骤中,电子设备可以将预先获取的N个业务样本划分为X个测试样本和Y个训练样本;其中,N为大于1的自然数;X和Y均为大于等于1的自然数。具体地,电子设备可以将预先获取的N个业务样本划分为n组,将其中的1组业务样本作为测试样本;将其中的n-1组业务样本作为训练样本;其中,n为大于1的自然数。本申请实施例中的每一组业务样本中包括的业务样本的数量可以是相同的,也可以是不同的。
在本申请的具体实施例中,在将预先获取的N个业务样本划分为X个测试样本和Y个训练样本之前,电子设备还可以先将预先获取的P个业务样本划分为W个测试样本和T个验证样本;其中,P为大于1的自然数;W和T均为大于等于1的自然数;然后计算各个验证样本与各个测试样本之间的距离;再根据各个验证样本与各个测试样本之间的距离,在P个业务样本中提取出N个业务样本。
S302、计算各个训练样本与各个测试样本之间的距离。
在本步骤中,电子设备可以计算各个训练样本与各个测试样本之间的距离。具体地,电子设备可以先在各个训练样本中提取出第一训练文本特征、第二训练文本特征和第三训练文本特征;并在各个测试样本中提取出第一测试文本特征、第二测试文本特征和第三测试文本特征;然后将第一训练文本特征和第一测试文本特征进行差值平方计算,得到第一文本特征值,将第二训练文本特征和第二测试文本特征进行差值平方计算,得到第二文本特征值,将第三训练文本特征和第三测试文本特征进行差值平方计算,得到第三文本特征值;再将第一文本特征值、第二文本特征值和第三文本特征值进行求和开方计算,得到各个训练样本与各个测试样本之间的距离。
本申请实施例中的测试样本可以表示为X={X1,X2,X3};训练样本可以表示为Y={Y1,Y2,Y3};然后按照以下公式计算各个训练样本与各个测试样本之间的距离:
Figure SMS_1
;其中,D(X,Y)表示训练样本Y与测试样本X之间的距离;X1、X2和X3分别为第一测试文本特征、第二测试文本特征和第三测试文本特征;Y1、Y2和Y3分别为第一训练文本特征、第二训练文本特征和第三训练文本特征。
图4为本申请实施例提供的样本距离计算原理的示意图。如图4所示,黑色的正方形表示测试样本;黑色的圆形表示训练样本;由于测试样本由第一测试文本特征、第二测试文本特征和第三测试文本特征组成,因此可以将第一测试文本特征、第二测试文本特征和第三测试文本特征相加,得到该测试样本对应的特征值;根据该特征值可以表示出该测试样本所在的位置;同样地,由于训练样本由第一训练文本特征、第二训练文本特征和第三训练文本特征组成,因此可以将第一训练文本特征、第二训练文本特征和第三训练文本特征相加,得到该训练样本对应的特征值;根据该特征值可以表示出该训练样本所在的位置,从而可以计算各个训练样本与各个测试样本之间的距离。
S303、根据各个训练样本与各个测试样本之间的距离,在N个业务样本中提取出M个业务样本,并将M个业务样本存储至预先构建的业务数据库中。
在本步骤中,电子设备可以根据各个训练样本与各个测试样本之间的距离,在N个业务样本中提取出M个业务样本,并将M个业务样本存储至预先构建的业务数据库中。具体地,电子设备可以先在与各个测试样本的距离最小的K个训练样本中提取出一个训练样本作为当前训练样本,计算当前训练样本在各个类别中出现的概率;然后根据当前训练样本在各个类别中出现的概率确定当前训练样本所属的类别;重复执行上述操作,直到确定出与各个测试样本的距离最小的K个训练样本中的各个训练样本所属的类别;再根据与各个测试样本的距离最小的K个训练样本中的各个训练样本所属的类别,在与各个测试样本的距离最小的K个训练样本中提取出M个业务样本。
S304、若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。
S305、将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本。
S306、将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值。
S307、基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。
本申请实施例提出的预测模型的训练方法,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图5为本申请实施例提供的预测模型的训练方法的第四流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图5所示,预测模型的训练方法可以包括以下步骤:
S501、将预先获取的N个业务样本划分为X个测试样本和Y个训练样本;其中,N为大于1的自然数;X和Y均为大于等于1的自然数。
S502、计算各个训练样本与各个测试样本之间的距离。
S503、根据各个训练样本与各个测试样本之间的距离,将各个测试样本对应的全部的训练样本进行排序,得到各个测试样本对应的全部的训练样本的排序结果。
在本步骤中,电子设备可以根据各个训练样本与各个测试样本之间的距离,将各个测试样本对应的全部的训练样本进行排序,得到各个测试样本对应的全部的训练样本的排序结果。具体地,电子设备可以在全部的测试样本中提取出一个测试样本作为当前测试样本,然后计算各个训练样本与当前测试样本之间的距离,并将当前测试样本对应的全部的训练样本进行排序,得到当前测试样本对应的全部的训练样本的排序结果;重复执行上述操作,直到得到各个测试样本对应的全部的训练样本的排序结果。
S504、在各个测试样本对应的全部的训练样本的排序结果中选取出与各个测试样本的距离最小的K个训练样本;其中,K为大于等于1的自然数。
S505、在与各个测试样本的距离最小的K个训练样本中提取出M个业务样本,并将M个业务样本存储至预先构建的业务数据库中。
S506、若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。
S507、将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本。
S508、将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值。
S509、基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。
本申请实施例提出的预测模型的训练方法,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图6为本申请实施例提供的预测模型的训练方法的第五流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图6所示,预测模型的预测方法可以包括以下步骤:
S601、若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。
S602、将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在各个当前业务样本的结构化文本中提取出至少一个关键信息。
在本步骤中,电子设备可以将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在各个当前业务样本的结构化文本中提取出至少一个关键信息。例如,各个当前业务样本的结构化文本可以包括:企业必要信息和企业描述信息;例如,企业必要信息包括但不限于:企业名称、法人代表、统一信用代码;企业描述信息包括但不限于:企业所在地、注册资本、经营范围、经营资质、员工人数、联系方式。
S603、根据该至少一个关键信息计算各个当前业务样本对应的权重值。
在本步骤中,电子设备可以根据该至少一个关键信息计算各个当前业务样本对应的权重值。具体地,电子设备可以将该至少一个关键信息中的各个关键信息与预先构建的关键信息库中的各个信息进行匹配,根据匹配结果确定各个当前业务样本对应的权重值。
S604、根据各个当前业务样本对应的权重值在该至少一个当前业务样本中筛选出至少一个高价值样本。
S605、将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值。
S606、基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。
本申请实施例提出的预测模型的训练方法,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例五
图7为本申请实施例提供的预测模型的训练方法的第六流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图7所示,预测模型的预测方法可以包括以下步骤:
S701、若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本。
S702、将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过通用预测模型在至少一个当前业务样本中筛选出至少一个高价值样本。
S703、将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型对各个高价值样本进行语义分析,并根据分析结果在各个高价值样本中提取出至少一个词根。
在本步骤中,电子设备可以将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过大语言预测模型对各个高价值样本进行语义分析,并根据分析结果在各个高价值样本中提取出至少一个词根。具体地,通过大语言模型可以将各个高价值样本拆分为一个或者多个片段,然后在各个片段中提取出至少一个词根。
S704、在各个词根中提取出至少一个核心文本,并基于各个核心文本生成至少一个关联文本;其中,关联文本中包括核心文本或者核心文本的近似文本。
在本步骤中,电子设备可以在各个词根中提取出至少一个核心文本,并基于各个核心文本生成至少一个关联文本;其中,关联文本中包括核心文本或者核心文本的近似文本。具体地,电子设备可以先在全部的核心文本中提取出一个核心文本作为当前核心文本;然后根据当前核心文本所在的词根以及该词根的前序词根和后序词根,确定当前核心文本的语序关系;再根据当前核心文本的语序关系生成该至少一个关联文本;重复执行上述操作,直到根据各个核心文本的语序关系生成该至少一个关联文本。本申请实施例中的前序词根可以是当前核心文本所在的词根的前面的一个或者若干个词根;本申请实施例中的后序词根可以是当前核心文本所在的词根的后面的一个或者若干个词根。需要说明的是,当前核心文本所在的词根的前面的一个或者若干个词根可以是与当前核心文本所在的词根相邻的一个或者若干个词根,也可以是与当前核心文本所在的词根不相邻的一个或者若干个词根。同样地,当前核心文本所在的词根的后面的一个或者若干个词根可以是与当前核心文本所在的词根相邻的一个或者若干个词根,也可以是与当前核心文本所在的词根不相邻的一个或者若干个词根。另外,还需要说明的是,本申请实施例通过大语言预测模型对各个高价值样本进行语义分析,得到各个高价值样本的语义分析结果。该语义分析结果可以理解为是按照语义对各个高价值样本进行拆分,因此,各个高价值样本的拆分结果可以包括一个或者多个词根,也可以包括一个或者多个非词根,还可以同时包括一个或者多个词根以及一个或者多个非词根;并且词根和非词根的顺序也不是固定的,词根与非词根可以相邻,也可以不相邻。本申请实施例中的词根是指能够表示明确含义的词语,例如名词或者动词等;本申请实施例中的非词根是指不能够表示明确含义的词语,例如,副词或者介词等。本申请实施例中的词根或者非词根可以由一个字或者若干个字组成。假设,针对某一个高价值样本,其拆分结果为:词根1+非词根1+词根2+非词根2+词根3。本申请实施例可以根据词根1、词根2和词根3分别生成关联文本1、关联文本2和关联文本3;还可以根据词根1和词根2生成关联文本4;还可以根据词根1和词根3生成关联文本5;还可以根据词根2和词根3生成关联文本6;还可以根据词根1、词根2和词根3生成关联文本7。
S705、根据各个关联文本生成各个词根所关联的预测词语以及各个预测词语对应的权重值;其中,预测词语包括关联文本或者关联文本的近似文本。
S706、基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练;重复执行上述操作,直到通用预测模型满足预先设定的收敛条件。
在本步骤中,电子设备可以先根据各个预测词语对应的权重值对全部的预测词语进行排序,得到全部的预测词语的排序结果;然后根据全部的预测词语的排序结果在全部的预测词语中提取出至少一个目标预测词语;再根据各个目标预测词语在公开信息库中获取该至少一个新的业务样本。
本申请实施例提出的预测模型的训练方法,先在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;然后将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过该通用预测模型在该至少一个当前业务样本中筛选出至少一个高价值样本;接着将该至少一个高价值样本输入至预先训练好的大语言预测模型中,通过该大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;再基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于该至少一个新的业务样本对通用预测模型进行训练。也就是说,在本申请的技术方案中,可以通过大语言预测模型生成至少一个新的业务样本,从而可以基于新的业务样本对通用预测模型进行训练。进一步地,还可以通过通用预测模型在业务样本中筛选出高价值样本,从而可以保证新的业务样本的有效性和准确性。而在现有技术中,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,能够用于机器学习的传统样本非常有限,无法有效地针对预测模型进行训练,或者导致预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例六
图8为本申请实施例提供的预测模型的预测方法的第一流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图8所示,预测模型的预测方法可以包括以下步骤:
S801、将待预测的业务样本输入至预先训练好的通用预测模型中,通过通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果。
在本步骤中,电子设备可以将待预测的业务样本输入至预先训练好的通用预测模型中,通过通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果。具体地,电子设备在计算待预测的业务样本对应的标准预测结果时,可以先在待预测的业务样本中提取出第一待预测文本特征、第二待预测文本特征和第三待预测文本特征;然后将第一待预测文本特征、第二待预测文本特征和第三待预测文本特征求和,得到待预测的业务样本对应的原始预测值;再计算待预测的业务样本的最大预测值和最小预测值;最后根据待预测的业务样本对应的原始预测值以及最大预测值和最小预测值,计算待预测的业务样本对应的标准预测结果。此外,电子设备在计算待预测的业务样本对应的平均预测结果时,可以先在待预测的业务样本中提取出第一待预测文本特征、第二待预测文本特征和第三待预测文本特征;然后将第一待预测文本特征、第二待预测文本特征和第三待预测文本特征求和,得到待预测的业务样本对应的原始预测值;再计算待预测的业务样本的平均值和标准差;最后根据待预测的业务样本对应的原始预测值以及平均值和标准差计算待预测的业务样本对应的平均预测结果。
S802、根据待预测的业务样本对应的标准预测结果和平均预测结果,确定待预测的业务样本对应的最终预测结果。
在本步骤中,电子设备可以根据待预测的业务样本对应的标准预测结果和平均预测结果,确定待预测的业务样本对应的最终预测结果。具体地,电子设备可以将待预测的业务样本对应的标准预测结果和平均预测结果进行归一化计算,得到待预测的业务样本对应的最终预测结果;也可以将待预测的业务样本对应的标准预测结果和平均预测结果分别作为待预测的业务样本对应的最终预测结果。
本申请实施例提出的预测模型的预测方法,先将待预测的业务样本输入至预先训练好的通用预测模型中,通过该通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果;然后根据待预测的业务样本对应的标准预测结果和平均预测结果,确定待预测的业务样本对应的最终预测结果。也就是说,在本申请的技术方案中,可以通过通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果,这样可以保证待预测的业务样本对应的最终预测结果更加准确,预测精度更高。而在现有技术中,依据企业的基础信息进行字段值匹配,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例七
图9为本申请实施例提供的预测模型的预测方法的第二流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图9所示,预测模型的预测方法可以包括以下步骤:
S901、将待预测的业务样本输入至预先训练好的通用预测模型中,通过通用预测模型在待预测的业务样本中提取出第一待预测文本特征、第二待预测文本特征和第三待预测文本特征。
S902、将第一待预测文本特征、第二待预测文本特征和第三待预测文本特征求和,得到待预测的业务样本对应的原始预测值。
S903、计算待预测的业务样本的最大预测值和最小预测值。
S904、根据待预测的业务样本对应的原始预测值以及最大预测值和最小预测值,计算待预测的业务样本对应的标准预测结果。
在本步骤中,电子设备可以根据待预测的业务样本对应的原始预测值以及最大预测值和最小预测值,计算待预测的业务样本对应的标准预测结果。具体地,电子设备可以按照以下公式计算待预测的业务样本对应的标准预测结果:
Figure SMS_2
;其中,X为待预测的业务样本对应的原始预测值;/>
Figure SMS_3
为待预测的业务样本的最小预测值;/>
Figure SMS_4
为待预测的业务样本的最大预测值;/>
Figure SMS_5
为待预测的业务样本对应的标准预测结果。
S905、计算待预测的业务样本的平均值和标准差。
S906、根据待预测的业务样本对应的原始预测值以及平均值和标准差计算待预测的业务样本对应的平均预测结果。
在本步骤中,电子设备可以根据待预测的业务样本对应的原始预测值以及平均值和标准差计算待预测的业务样本对应的平均预测结果。具体地,电子设备可以按照以下公式计算待预测的业务样本对应的平均预测结果:
Figure SMS_6
;其中,X为待预测的业务样本对应的原始预测值;/>
Figure SMS_7
为待预测的业务样本的平均值;/>
Figure SMS_8
为待预测的业务样本的标准差;/>
Figure SMS_9
为待预测的业务样本对应的平均预测结果。
S907、根据待预测的业务样本对应的标准预测结果和平均预测结果,确定待预测的业务样本对应的最终预测结果。
图10为本申请实施例提供的预测模型的预测原理的示意图。如图10所示,本申请实施例可以通过大语言预测模型对各个高价值样本进行语义分析,根据分析结果在各个高价值样本中提取出至少一个词根;然后在各个词根中提取出至少一个核心文本,并基于各个核心文本生成至少一个关联文本;再根据各个关联文本生成各个词根所关联的预测词语。假设在词根中提取出的核心文本为“美”,那么基于“美”生成的预测文本可以包括:“美术”、“美的”、“美景”、“美观”、“美好”、“美工”、“美食”;将上述预测文本再输入至大语言预测模型中,通过大语言预测模型可以输出上述各个预测文本对应的权重值。例如,“美术”对应的权重值为0.7;“美的”对应的权重值为0.3;“美景”对应的权重值为0.8;“美观”对应的权重值为0.2;“美好”对应的权重值为0.1;“美工”对应的权重值为0.2;“美食”对应的权重值为0.4。
本申请实施例提出的预测模型的预测方法,先将待预测的业务样本输入至预先训练好的通用预测模型中,通过该通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果;然后根据待预测的业务样本对应的标准预测结果和平均预测结果,确定待预测的业务样本对应的最终预测结果。也就是说,在本申请的技术方案中,可以通过通用预测模型计算待预测的业务样本对应的标准预测结果和平均预测结果,这样可以保证待预测的业务样本对应的最终预测结果更加准确,预测精度更高。而在现有技术中,依据企业的基础信息进行字段值匹配,通过特定的重复规则定义最后的正负结果,在特定的业务场景下,预测模型的输出结果出现偏差,预测精度较低。因此,和现有技术相比,本申请实施例提出的预测模型的训练方法,可以有效地为传统的机器学习补充新的业务样本,从而可以使得预测模型的输出结果更加准确,预测精度更高;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例八
图11为本申请实施例提供的预测模型的训练装置的结构示意图。如图11所示,所述预测模型的训练装置包括:提取模块1101、筛选模块1102、关联模块1103和训练模块1104;其中,
所述提取模块1101,用于若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;
所述筛选模块1102,用于将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本;
所述关联模块1103,用于将所述至少一个高价值样本输入至预先训练好的大语言预测模型中,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;
所述训练模块1104,用于基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于所述至少一个新的业务样本对所述通用预测模型进行训练;重复执行上述操作,直到所述通用预测模型满足所述预先设定的收敛条件。
上述预测模型的训练装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的预测模型的训练方法。
实施例九
图12为本申请实施例提供的电子设备的结构示意图。图12示出了适于用来实现本申请实施方式的示例性电子设备的框图。图12显示的电子设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图12所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图12未显示,通常称为“硬盘驱动器”)。尽管图12中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块46的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块46包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块46通常执行本申请所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图12中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例所提供的预测模型的训练方法。
实施例十
本申请实施例提供了一种计算机存储介质。
本申请实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。

Claims (16)

1.一种预测模型的训练方法,其特征在于,所述方法包括:
若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;
将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本;
将所述至少一个高价值样本输入至预先训练好的大语言预测模型中,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;
基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于所述至少一个新的业务样本对所述通用预测模型进行训练;重复执行上述操作,直到所述通用预测模型满足所述预先设定的收敛条件。
2.根据权利要求1所述的方法,其特征在于,在将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中之前,所述方法还包括:
将预先获取的N个业务样本划分为X个测试样本和Y个训练样本;其中,N为大于1的自然数;X和Y均为大于等于1的自然数;
计算各个训练样本与各个测试样本之间的距离;
根据各个训练样本与各个测试样本之间的距离,在所述N个业务样本中提取出M个业务样本,并将所述M个业务样本存储至所述预先构建的业务数据库中。
3.根据权利要求2所述的方法,其特征在于,根据各个训练样本与各个测试样本之间的距离,在所述N个业务样本中提取出M个业务样本,包括:
根据各个训练样本与各个测试样本之间的距离,将各个测试样本对应的全部的训练样本进行排序,得到各个测试样本对应的全部的训练样本的排序结果;
在各个测试样本对应的全部的训练样本的排序结果中选取出与各个测试样本的距离最小的K个训练样本;其中,K为大于等于1的自然数;
在与各个测试样本的距离最小的K个训练样本中提取出M个业务样本。
4.根据权利要求3所述的方法,其特征在于,在与各个测试样本的距离最小的K个训练样本中提取出M个业务样本,包括:
在与各个测试样本的距离最小的K个训练样本中提取出一个训练样本作为当前训练样本,计算所述当前训练样本在各个类别中出现的概率;
根据所述当前训练样本在各个类别中出现的概率确定所述当前训练样本所属的类别;重复执行上述操作,直到确定出与各个测试样本的距离最小的K个训练样本中的各个训练样本所属的类别;
根据与各个测试样本的距离最小的K个训练样本中的各个训练样本所属的类别,在与各个测试样本的距离最小的K个训练样本中提取出M个业务样本。
5.根据权利要求2所述的方法,其特征在于,计算各个训练样本与各个测试样本之间的距离,包括:
在各个训练样本中提取出第一训练文本特征、第二训练文本特征和第三训练文本特征;
在各个测试样本中提取出第一测试文本特征、第二测试文本特征和第三测试文本特征;
将所述第一训练文本特征和所述第一测试文本特征进行差值平方计算,得到第一文本特征值,将第二训练文本特征和所述第二测试文本特征进行差值平方计算,得到第二文本特征值,将第三训练文本特征和所述第三测试文本特征进行差值平方计算,得到第三文本特征值;
将所述第一文本特征值、所述第二文本特征值和所述第三文本特征值进行求和开方计算,得到各个训练样本与各个测试样本之间的距离。
6.根据权利要求2所述的方法,其特征在于,在将预先获取的N个业务样本划分为X个测试样本和Y个训练样本之前,所述方法还包括:
将预先获取的P个业务样本划分为W个测试样本和T个验证样本;其中,P为大于1的自然数;W和T均为大于等于1的自然数;
计算各个验证样本与各个测试样本之间的距离;
根据各个验证样本与各个测试样本之间的距离,在所述P个业务样本中提取出所述N个业务样本。
7.根据权利要求1所述的方法,其特征在于,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本,包括:
通过所述通用预测模型在各个当前业务样本的结构化文本中提取出至少一个关键信息;
根据所述至少一个关键信息计算各个当前业务样本对应的权重值;
根据各个当前业务样本对应的权重值在所述至少一个当前业务样本中筛选出至少一个高价值样本。
8.根据权利要求1所述的方法,其特征在于,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语,包括:
通过所述大语言预测模型对各个高价值样本进行语义分析,并根据分析结果在各个高价值样本中提取出至少一个词根;
在各个词根中提取出至少一个核心文本,并基于各个核心文本生成至少一个关联文本;其中,所述关联文本中包括所述核心文本或者所述核心文本的近似文本;
根据各个关联文本生成各个词根所关联的预测词语;其中,所述预测词语包括所述关联文本或者所述关联文本的近似文本。
9.根据权利要求8所述的方法,其特征在于,基于各个核心文本生成至少一个关联文本,包括:
在全部的核心文本中提取出一个核心文本作为当前核心文本;
根据所述当前核心文本所在的词根以及该词根的前序词根和后序词根,确定所述当前核心文本的语序关系;
根据所述当前核心文本的语序关系生成所述至少一个关联文本;重复执行上述操作,直到根据各个核心文本的语序关系生成所述至少一个关联文本。
10.根据权利要求1所述的方法,其特征在于,基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,包括:
根据各个预测词语对应的权重值对全部的预测词语进行排序,得到全部的预测词语的排序结果;
根据全部的预测词语的排序结果在全部的预测词语中提取出至少一个目标预测词语;
根据各个目标预测词语在所述公开信息库中获取所述至少一个新的业务样本。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将待预测的业务样本输入至预先训练好的通用预测模型中,通过所述通用预测模型计算所述待预测的业务样本对应的标准预测结果和平均预测结果;
根据所述待预测的业务样本对应的标准预测结果和平均预测结果,确定所述待预测的业务样本对应的最终预测结果。
12.根据权利要求11所述的方法,其特征在于,计算所述待预测的业务样本对应的标准预测结果,包括:
在所述待预测的业务样本中提取出第一待预测文本特征、第二待预测文本特征和第三待预测文本特征;
将所述第一待预测文本特征、所述第二待预测文本特征和所述第三待预测文本特征求和,得到所述待预测的业务样本对应的原始预测值;
计算所述待预测的业务样本的最大预测值和最小预测值;
根据所述待预测的业务样本对应的原始预测值以及所述最大预测值和所述最小预测值,计算所述待预测的业务样本对应的标准预测结果。
13.根据权利要求11所述的方法,其特征在于,计算所述待预测的业务样本对应的平均预测结果,包括:
在所述待预测的业务样本中提取出第一待预测文本特征、第二待预测文本特征和第三待预测文本特征;
将所述第一待预测文本特征、所述第二待预测文本特征和所述第三待预测文本特征求和,得到所述待预测的业务样本对应的原始预测值;
计算所述待预测的业务样本的平均值和标准差;
根据所述待预测的业务样本对应的原始预测值以及所述平均值和所述标准差计算所述待预测的业务样本对应的平均预测结果。
14.一种预测模型的训练装置,其特征在于,所述装置包括:提取模块、筛选模块、关联模块和训练模块;其中,
所述提取模块,用于若通用预测模型不满足预先设定的收敛条件,则在预先构建的业务数据库中提取出至少一个业务样本作为当前业务样本;
所述筛选模块,用于将各个当前业务样本以及预先定义的各个当前业务样本对应的风险等级系数和训练权重系数输入至通用预测模型中,通过所述通用预测模型在所述至少一个当前业务样本中筛选出至少一个高价值样本;
所述关联模块,用于将所述至少一个高价值样本输入至预先训练好的大语言预测模型中,通过所述大语言预测模型输出各个高价值样本中的各个词根所关联的预测词语以及各个预测词语对应的权重值;
所述训练模块,用于基于各个词根所关联的预测词语以及各个预测词语对应的权重值,在公开信息库中获取至少一个新的业务样本,并基于所述至少一个新的业务样本对所述通用预测模型进行训练;重复执行上述操作,直到所述通用预测模型满足所述预先设定的收敛条件。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至13中任一项所述的预测模型的训练方法。
16.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至13中任一项所述的预测模型的训练方法。
CN202310678661.9A 2023-06-09 2023-06-09 一种预测模型的训练方法、装置、电子设备及存储介质 Active CN116402166B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310678661.9A CN116402166B (zh) 2023-06-09 2023-06-09 一种预测模型的训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310678661.9A CN116402166B (zh) 2023-06-09 2023-06-09 一种预测模型的训练方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116402166A true CN116402166A (zh) 2023-07-07
CN116402166B CN116402166B (zh) 2023-09-01

Family

ID=87020278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310678661.9A Active CN116402166B (zh) 2023-06-09 2023-06-09 一种预测模型的训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116402166B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116915459A (zh) * 2023-07-13 2023-10-20 上海戎磐网络科技有限公司 一种基于大语言模型的网络威胁分析方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050060643A1 (en) * 2003-08-25 2005-03-17 Miavia, Inc. Document similarity detection and classification system
US20180082197A1 (en) * 2016-09-22 2018-03-22 nference, inc. Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities
US20190019064A1 (en) * 2017-07-14 2019-01-17 Alibaba Group Holding Limited Sample Screening Method and Apparatus, and Service Object Data Searching Method and Apparatus
CN111429171A (zh) * 2020-03-04 2020-07-17 支付宝(杭州)信息技术有限公司 一种信息展示方法、服务器、装置及系统
CN112241452A (zh) * 2020-10-16 2021-01-19 百度(中国)有限公司 一种模型训练方法、装置、电子设备及存储介质
CN113392651A (zh) * 2020-11-09 2021-09-14 腾讯科技(深圳)有限公司 训练词权重模型及提取核心词的方法、装置、设备和介质
CN114091794A (zh) * 2020-07-30 2022-02-25 北京信聚知识产权有限公司 专利价值评估模型训练方法、评估方法、装置及其设备
CN114328841A (zh) * 2021-07-13 2022-04-12 北京金山数字娱乐科技有限公司 问答模型训练方法及装置、问答方法及装置
CN115600109A (zh) * 2022-10-26 2023-01-13 广州欢聚时代信息科技有限公司(Cn) 样本集优化方法及其装置、设备、介质、产品
US20230040095A1 (en) * 2021-10-28 2023-02-09 Beijing Baidu Netcom Science Technology Co., Ltd. Method for pre-training model, device, and storage medium

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050060643A1 (en) * 2003-08-25 2005-03-17 Miavia, Inc. Document similarity detection and classification system
US20180082197A1 (en) * 2016-09-22 2018-03-22 nference, inc. Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities
US20190019064A1 (en) * 2017-07-14 2019-01-17 Alibaba Group Holding Limited Sample Screening Method and Apparatus, and Service Object Data Searching Method and Apparatus
CN111429171A (zh) * 2020-03-04 2020-07-17 支付宝(杭州)信息技术有限公司 一种信息展示方法、服务器、装置及系统
CN114091794A (zh) * 2020-07-30 2022-02-25 北京信聚知识产权有限公司 专利价值评估模型训练方法、评估方法、装置及其设备
CN112241452A (zh) * 2020-10-16 2021-01-19 百度(中国)有限公司 一种模型训练方法、装置、电子设备及存储介质
CN113392651A (zh) * 2020-11-09 2021-09-14 腾讯科技(深圳)有限公司 训练词权重模型及提取核心词的方法、装置、设备和介质
CN114328841A (zh) * 2021-07-13 2022-04-12 北京金山数字娱乐科技有限公司 问答模型训练方法及装置、问答方法及装置
US20230040095A1 (en) * 2021-10-28 2023-02-09 Beijing Baidu Netcom Science Technology Co., Ltd. Method for pre-training model, device, and storage medium
CN115600109A (zh) * 2022-10-26 2023-01-13 广州欢聚时代信息科技有限公司(Cn) 样本集优化方法及其装置、设备、介质、产品

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116915459A (zh) * 2023-07-13 2023-10-20 上海戎磐网络科技有限公司 一种基于大语言模型的网络威胁分析方法
CN116915459B (zh) * 2023-07-13 2024-03-08 上海戎磐网络科技有限公司 一种基于大语言模型的网络威胁分析方法

Also Published As

Publication number Publication date
CN116402166B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
AU2018383346B2 (en) Domain-specific natural language understanding of customer intent in self-help
CN107644011B (zh) 用于细粒度医疗实体提取的系统和方法
CN111444340A (zh) 文本分类和推荐方法、装置、设备及存储介质
CN112015859A (zh) 文本的知识层次抽取方法及装置、计算机设备及可读介质
CN111797214A (zh) 基于faq数据库的问题筛选方法、装置、计算机设备及介质
US20200073996A1 (en) Methods and Systems for Domain-Specific Disambiguation of Acronyms or Homonyms
CN110929125B (zh) 搜索召回方法、装置、设备及其存储介质
CN111930792B (zh) 数据资源的标注方法、装置、存储介质及电子设备
CN110795568A (zh) 基于用户信息知识图谱的风险评估方法、装置和电子设备
WO2021218028A1 (zh) 基于人工智能的面试内容精炼方法、装置、设备及介质
CN108228567B (zh) 用于提取组织机构的简称的方法和装置
US10210251B2 (en) System and method for creating labels for clusters
CN116402166B (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN109034199B (zh) 数据处理方法及装置、存储介质和电子设备
JP2023517518A (ja) ヌル値又は同等の値を有するリレーショナル・テーブルのためのベクトル埋込モデル
CN117520503A (zh) 基于llm模型的金融客服对话生成方法、装置、设备及介质
CN113569018A (zh) 问答对挖掘方法及装置
CN112199958A (zh) 概念词序列生成方法、装置、计算机设备及存储介质
CN114842982B (zh) 一种面向医疗信息系统的知识表达方法、装置及系统
CN114707517A (zh) 一种基于开源数据事件抽取的目标跟踪方法
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质
Fu Natural Language Processing in Urban Planning: A Research Agenda
CN110457436B (zh) 信息标注方法、装置、计算机可读存储介质及电子设备
CN114118062A (zh) 客户特征提取方法、装置、电子设备及存储介质
CN110059180B (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant