CN115392405A - 模型训练方法、相关装置及存储介质 - Google Patents

模型训练方法、相关装置及存储介质 Download PDF

Info

Publication number
CN115392405A
CN115392405A CN202211326667.1A CN202211326667A CN115392405A CN 115392405 A CN115392405 A CN 115392405A CN 202211326667 A CN202211326667 A CN 202211326667A CN 115392405 A CN115392405 A CN 115392405A
Authority
CN
China
Prior art keywords
sample
training
target
prediction accuracy
sample set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211326667.1A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Real AI Technology Co Ltd
Original Assignee
Beijing Real AI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Real AI Technology Co Ltd filed Critical Beijing Real AI Technology Co Ltd
Priority to CN202211326667.1A priority Critical patent/CN115392405A/zh
Publication of CN115392405A publication Critical patent/CN115392405A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Computer Security & Cryptography (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及数据处理领域,提供一种模型训练方法、相关装置及存储介质。该方法包括:获取训练样本集和目标模型的候选参数;获取训练样本集中每个训练样本的第一预测准确度;从所述训练样本集中去除异常样本;获取目标样本集中每个样本群体的第二预测准确度;若所存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数。本申请在更新候选参数时,利用预设神经网络,能够基于目标模型的候选参数学习到如何为各个训练样本赋予权重,使得目标模型有效的消除对于不同群体的“歧视性”,故而赋予的权重更加合理,训练过程更加高效;而且可以去除异常样本,训练方向更合理。

Description

模型训练方法、相关装置及存储介质
技术领域
本申请实施例涉及数据处理领域,更具体地涉及模型训练方法、相关装置及存储介质。
背景技术
在机器学习领域中,我们通常希望,机器学习模型在面对不同用户群体和个体都更加公平。比如,当两个不同的群体除了“群体”本身以外不存在差别时,机器学习模型应该对他们输出相似的结果,否则,该机器学习模型就存在“群体”偏差。
目前,对于提高机器学习模型公平性的方法,主要利用一个线性模型来调整不同群体或个体的样本权重,从而调整他们在机器学习模型的学习过程中的重要性,以此来提升样本中容易被机器学习模型“歧视”的群体的重要性。然而,线性模型的表征能力较差,而且现有基于线性模型调整样本权重的方法,并未与机器学习模型结合,无法学习到机器学习模型的预测结果与不同样本之间的内在关联,因此在调整不同群体或个体的样本权重时效果较差,故而,机器学习模型最终的预测准确度也较低。另外,此种方法并未考虑到样本群体中的异常样本,当样本群体中存在异常样本时,盲目的调整不同群体的样本权重(比如提高异常样本的权重),会导致机器学习模型的准确度降低。
发明内容
本申请实施例提供一种模型训练方法、相关装置及存储介质,首先去除训练样本中的异常样本,然后基于去除异常样本后的各个训练样本的预测准确度,利用预设的神经网络模型为目标样本集中的各个训练样本赋予权重,而神经网络具有较高的表征能力,且赋予权重的过程中能够基于目标模型对于不同训练样本的不同预测准确度,学习到机器学习模型参数与不同训练样本之间的内在关联,因此,利用预设神经网络为目标样本集中各个训练样本赋予的权重更加高效合理,最终训练后的目标模型的准确度也较高。
第一方面,本申请实施例提供一种模型训练方法,包括:
获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征;
获取所述训练样本集中每个训练样本的第一预测准确度,其中,所述每个训练样本的第一预测准确度基于在所述候选参数下时的目标模型得到;
基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征;
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
第二方面,本申请实施例提供一种模型训练装置,包括:
输入输出模块,用于获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征;
处理模块,用于获取所述训练样本集中每个训练样本的第一预测准确度,其中,所述每个训练样本的第一预测准确度基于在所述候选参数下时的目标模型得到;
所述处理模块还用于,基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
所述处理模块还用于,获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征;以及
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,所述处理模块还用于基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
第三方面,本申请实施例提供一种处理设备,所述处理设备包括:
至少一个处理器、存储器和输入输出单元;
其中,所述存储器用于存储计算机程序,所述处理器用于调用所述存储器中存储的计算机程序来执行第一方面中所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其包括指令,当其在计算机上运行时,使得计算机执行第一方面中所述的方法。
相较于现有技术,本申请实施例的模型训练方法、相关装置及存储介质,基于目标模型的候选参数获取各个训练样本的第一预测准确度,基于各个训练样本的第一预测准确度,筛选去除异常样本得到目标样本集,然后基于目标样本集中各个训练样本的第一预测准确度,利用预设的神经网络模型为目标样本集中各个训练样本赋予权重。在此过程中,由于预设神经网络具有较强的表征能力,即可以学习到数据之间的非线性关系,而不仅仅是现有技术中的单一线性关系,所以其能够基于目标模型的候选参数学习到如何为各个训练样本赋予更加全面合理的权重,而不是基于单一的特征就确定各个样本的权重,从而可以使得目标模型更加有效的消除对第二预测准确度较低的样本群体的“歧视性”。因此,利用预设神经网络为目标样本集中各个训练样本赋予的权重更加高效合理,从而目标模型的训练过程更加高效,最终训练后的目标模型预测准确度较高;另外,在训练过程中首先去除了异常样本,避免基于异常样本盲目训练,训练方向更加合理。
附图说明
通过参考附图阅读本申请实施例的详细描述,本申请实施例的目的、特征和优点将变得易于理解。其中:
图1为本申请实施例提供的一种模型训练方法的使用场景图;
图2为本申请实施例提供的一种模型训练方法的步骤图;
图3为本申请实施例提供的一种模型训练方法的流程图;
图4为本申请实施例提供的一种模型训练方法中的孤立树的示意图;
图5为本申请实施例提供的一种模型训练方法中预设神经网络流程图;
图6为本申请实施例提供的一种模型训练装置的结构示意图;
图7为本申请实施例的一种处理设备的结构示意图;
图8为本申请实施例提供的一种终端设备相关的手机的部分结构示意图;
图9为本申请实施例提供的一种服务器的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
本申请实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象(例如第一预测准确度和第二预测准确度分别表示为不同的预测准确度,其他类似),而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请实施例中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个系统中,或一些特征可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请实施例中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请实施例方案的目的。
本申请实施例提出了一种模型训练方法、相关装置及存储介质,可应用于用户筛选系统,该用户筛选系统可包括模型训练装置,该模型训练装置内部署有目标模型。该模型训练装置至少用于获取训练样本集和目标模型的候选参数;基于所述训练样本集中每个训练样本在所述目标模型的候选参数下的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;获取所述目标样本集中每个样本群体的第二预测准确度;若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。模型训练装置可为基于所述训练样本集中每个训练样本的第一预测准确度去除异常样本、获取所述目标样本集中每个样本群体的第二预测准确度,从所述训练样本集中去除异常样本,以及基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数的应用程序,或为安装了该应用程序的服务器。
本申请实施例提供的方案涉及人工智能(Artificial Intelligence, AI)、自然语言处理(Nature Language processing, NLP)、机器学习(Machine Learning, ML)等技术,具体通过如下实施例进行说明:
其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习(Deep Learning,DL)通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习等技术。
现有技术中,对于提高机器学习模型公平性的方法,主要利用一个线性模型来调整不同群体或个体的样本权重,从而调整他们在机器学习模型的学习过程中的重要性,以此来提升样本中容易被机器学习模型“歧视”的群体的重要性。然而,线性模型的表征能力较差,而且现有基于线性模型调整样本权重的方法,并未与机器学习模型结合,无法学习到机器学习模型的预测结果与不同样本之间的内在关联,因此在调整不同群体或个体的样本权重时效果较差,故而,机器学习模型最终的预测准确度也较低。另外,现有的方法并未考虑到训练样本中的异常样本,当训练样本中存在异常样本时,盲目的调整不同群体的样本权重(比如提高异常样本的权重),会导致机器学习模型的准确度降低。
与现有技术相比,本申请实施例中,可以在训练过程中,基于目标模型的候选参数获取各个训练样本的第一预测准确度,基于第一预测准确度,筛选去除异常样本得到目标样本集,然后基于目标样本集中各个训练样本的第一预测准确度,利用预设的神经网络模型为目标样本集中各个训练样本赋予权重,在此过程中,神经网络具有较高的表征能力,且在赋予权重的过程中,神经网络能够基于目标模型对目标样本集中不同训练样本的不同预测准确度,学习到机器学习模型参数与不同训练样本之间的内在关联,因此,利用预设神经网络为目标样本集中各个训练样本赋予的权重更加高效合理,最终训练后的目标模型预测准确度较高;另外,在训练过程中首先去除了异常样本,避免基于异常样本盲目训练,训练方向更加合理。
在一些实施方式中,如图1所示,本申请实施例提供的模型训练方法可基于图1所示的一种用户筛选系统实现。该用户筛选系统可以包括模型训练装置10和计算设备20。模型训练装置10和计算设备20都可以为服务器。模型训练装置10以及计算设备20可以通过有线或无线通信方式进行直接或间接地连接,计算设备20的数量可以有一个或多个。
计算设备20用于向模型训练装置10发送训练样本集,其中,训练样本集中包括多个训练样本,每个训练样本均包括样本特征和样本标签,每个训练样本对应一个用户。
模型训练装置10中可以部署目标模型,目标模型可以基于训练样本集中每个训练样本的样本标签和样本特征,得到所述训练样本集中每个训练样本的第一预测准确度;模型训练装置10可以基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集,并获取所述目标样本集中每个样本群体的第二预测准确度,若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新目标模型的所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。所述样本群体基于目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征。
需要说明的是,本申请实施例涉及的服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
本申请实施例涉及的终端设备,可以是指向用户提供语音和/或数据连通性的设备,具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备。例如移动电话(或称为“蜂窝”电话)和具有移动终端的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语音和/或数据。例如,个人通信业务(英文全称:Personal Communication Service,英文简称:PCS)电话、无绳电话、会话发起协议(SIP)话机、无线本地环路(Wireless Local Loop,英文简称:WLL)站、个人数字助理(英文全称:Personal Digital Assistant,英文简称:PDA)等设备。
下面,将结合若干实施例对本申请技术方案进行详细的介绍说明。
结合图2、图3来描述本申请实施例的模型训练方法,该方法可以应用于图1所示的用户筛选系统,由服务器执行,对目标模型的候选参数进行更新,得到最终的参数可以保证模型面对不同样本群体,均具有较为公平的预测结果。
如图2所示,该方法包括以下步骤:
步骤S100:获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征。
在本申请实施例中,目标模型为内部包括神经网络的机器学习模型,训练样本集是用来训练目标模型的数据集,其中包括多个训练样本,每个训练样本都具有样本特征和样本标签。比如,目标模型可以为金融借贷领域中的信用评价模型,此时的训练样本则可以为多个具有借贷记录的用户,每个用户的家庭地址、年龄、性别、职业、收入状况,构成了该用户的样本特征,每个用户还会附带一个样本标签,比如是否有过逾期、冻结等用来表示用户的信用状况的标签。信用评价模型经过多个训练样本训练后,可以基于用户的特征(家庭地址、年龄、性别、职业、收入状况),推测得到此用户贷款后出现逾期的概率,进而判断是否给该用户进行贷款。
本申请实施例可以适用于新用户筛选、老用户回流、信贷领域的拒客回捞等多种应用场景,训练样本集中的各个训练样本的样本特征和样本标签可以根据应用场景的不同进行调整。
举例来说,在新用户筛选场景下,新用户由于未使用过产品,那么普遍属于未获得资格的用户。样本特征和样本标签与具体的用户筛选场景相关,例如在游戏软件内测新用户筛选场景下,样本特征可以是用户的兴趣特征,所述兴趣特征可以基于用户的游戏喜好信息和游戏行为信息确定。样本标签可以为该用户是否获得游戏的内测资格。可以理解的是,所述新用户筛选还可以是其他产品或服务的新用户筛选,例如软件新用户,信贷新用户,旅游新用户或餐饮新用户等。
在老用户回流场景中,面对的用户可以是曾经活跃过而现在不在活跃的用户。
例如在商场老用户回流场景下,为了提高商场的流量,可以对不再活跃的老用户进行推广营销,吸引当前不再活跃的老用户重新成为活跃的消费者。然而推广营销是需要成本的,如果对所有不再活跃的老用户都进行推广营销,则可能需要花费高昂的营销费用和资源。由此,可以从老用户中筛选一部分重新活跃概率较大的用户作为目标用户,进行营销推广。此时,样本训练集中每个训练样本的样本特征可以为用户的购物习惯、收入状况、家庭地址、年龄、性别等;样本标签可以为该用户是否有过回流记录。与所述新用户筛选场景相同,所述老用户回流也不仅仅限于商场老用户回流,还可以是其他产品或服务领域的老用户回流,本申请实施例对此不做限定。
在拒客回捞场景中,面对的用户可以为经历过初步筛选但未获得信贷资格的用户(即被风险控制策略评估后,应该拒绝的用户)。由于初步筛选的方式通常较为简单,可能会将合格的用户(例如预测的出现逾期事件的概率处于初步筛选的阈值边界的用户)排除在外。因此,可以对未获得信贷资格的用户再次进行更加精准的筛选,将未获得信贷资格的用户中可能符合信贷资格的用户再次筛选出来,提高用户的利用率。此时,样本标签可以为用户的职业、学历、家庭地址、收入状况等;样本标签可以为是否获得信贷资格。
另外,未获得信贷资格的用户中可能包含还款逾期风险较高的用户,例如黑名单用户或失信执行记录用户等,还款逾期风险较高的用户显然不具备成为优质用户的条件。因此,还可以从未获得信贷资格的用户中将还款逾期风险较高的用户剔除,从而得到还款逾期风险在可控范围内的用户。
另外,训练样本集可以是一些开源的数据集,也可以是采用人工收集方式获得的样本集,本申请实施例对此不作限制。
步骤S200:获取所述训练样本集中每个训练样本的第一预测准确度。
在本申请实施例中,在获得了训练样本集之后,可以将训练样本集中的每个训练样本的样本特征和样本标签输入至目标模型(如信用评价模型),虽然此时目标模型并未完成训练,但是目标模型可以在当前的模型参数下,对每个训练样本输出一个预测值,并基于各个训练样本的预测值和各个训练样本的标签获取预测准确度,即第一预测准确度。
在本申请实施例中,假设目标模型内部的主任务为:
Figure 290299DEST_PATH_IMAGE001
在本申请实施例中,可以利用交叉熵来计算目标模型主任务的损失,即面对每个训练样本时的第一预测准确度,计算公式如下:
Figure 705362DEST_PATH_IMAGE002
其中,x为样本特征,y为样本标签,g(x)为目标模型基于用户特征对该用户的标签做出的预测,即做出的信用评价结果。
步骤S300:基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集。
训练样本集中的每个训练样本均包括样本特征和样本标签,目标模型是通过多个训练样本的样本特征和样本标签,学习并建立特征与标签之间的映射关系,比如通过训练样本学习到,高收入群体与低逾期风险的映射,或者具有稳定工作群体与低逾期风险的映射。假设训练样本中某一个或几个训练样本的标签与实际情况不符,比如某一训练样本的样本特征表明此用户具有稳定工作、收入稳定且其真实的标签为信用良好,无逾期记录,但是样本标签记录时出错,将其标记为具有逾期记录,那么目标模型在学习构建映射时,目标模型则会错误的学习到稳定工作、收入稳定等特征与高逾期风险之间的映射,此种映射显然将会降低目标模型的预测准确度。因此,在获取训练样本集后,需要对训练样本集中的训练样本进行筛选异常样本,比如在一实施例中,可以对训练样本集中标签错误的异常样本进行筛选去除。
在本申请实施例中,可以通过如下步骤a~b进行筛选异常样本:
a:获取每个训练样本的第一预测准确度相对于所述候选参数的梯度。
在本申请实施例中,可以基于如下公式(3)计算每个训练样本的第一预测准确度相对于所述候选参数的梯度:
Figure 931944DEST_PATH_IMAGE003
其中,θ为目标模型的候选参数,loss为每个训练样本的第一预测准确度,d(x)为训练样本x的第一预测准确度相对于候选参数θ的梯度。
b:基于所述每个训练样本的梯度,从所述训练样本集中筛选并去除异常样本得到所述目标样本集,其中,所述异常样本的梯度分割为孤立点的路径深度最小。
对于异常样本而言,其在数据分布上往往与正常数据分布不同,因此,可以基于每个训练样本的第一预测准确度相对于候选参数的梯度的分布情况,筛选出异常样本。
比如,在本申请实施例中,可以基于步骤a中得到的每个训练样本的第一预测准确度相对于候选参数的梯度,将其输入至孤立森林模型,然后将各个梯度进行递归随机分割成多个数据集,直到所有的训练样本对应的梯度都是孤立的,在这种随机分割的策略下,异常样本对应的梯度的孤立点通常具有较短的路径,那么根据孤立点路径深度就能够筛选出异常样本。如图4所示,将每个训练样本的第一预测准确度相对于候选参数的梯度输入孤立森林模型后得到孤立树1和孤立树2,在孤立树1和孤立树2中的圆形样本均首先被孤立,即圆形样本的孤立路径在两个孤立树中的路径深度均最小,此时就可以认为圆形样本为异常样本。
在确定了训练样本集中的异常样本后,将其去除,剩余的训练样本即为目标样本集,基于目标样本集进行目标模型的训练,即更新目标模型的参数,保证训练方向准确无误。
另外,在本申请实施例中,当确定了异常样本后,可以直接将其从训练样本集中去除,随着训练轮次的进行,训练样本集中的异常样本会逐渐减少,直至没有异常样本,随着异常样本的去除,训练样本集中的训练样本的个数也会逐渐减少。
在其他实施例中,当确定了异常样本后,可以不直接将其从训练样本集中去除,而是在本轮次训练中将其权重赋予为0,即不参与目标模型参数更新的训练过程,而当本轮次候选参数更新完之后,再将其权重还原,继续进行下一轮次的异常样本筛选。此种方法,每次异常样本筛选时都是基于完整的训练样本集,对每一个训练样本重新判断是否异常。在直接去除异常样本的实施例中,如果某一轮次判断出错,误将正常样本当作异常样本,该正常样本将会直接去除,有可能导致目标样本集的样本数量越来越少,降低样本利用效率。而赋予本轮次训练0权重的方法,即便某一轮次出现误判,在下一轮次还会重新进行判断,容错率较高。
步骤S400:获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征。
发明人研究发现,对于目标学习模型,例如借贷模型,在训练过程中导致不公平的可以分为算法偏差和样本偏差。
算法偏差指的是,目标模型面对相同信用的两个用户(不考虑用户所在地域的差异,只考虑所有其他样本特征因素的时候判断信用相同),应该输出相同的评价结果,但是在训练过程中,往往会因为山区样本较少,或者偏远山区样本借贷人的薪水、职业等有一些趋势(比如薪水普遍低、职业普遍偏向体力劳动等),导致目标模型会容易学习到“地域”导致容易贷款逾期,但其实并不是地域、家庭地址导致,而是年龄、性别、职业、收入状况等等别的因素导致。此种统计相关被目标模型学习后表现出的是一种系统性的歧视,即目标模型学习到的统计特性无法保证一定是因果关系。
数据偏差,是由于采样不均匀会导致样本偏差,进而目标模型学习不公平。比如,训练数据分布和测试数据分布不一致(如训练数据大部分为城市居民用户,而测试数据中的山区用户与城市用户数量基本一致),那么目标模型则无法泛化到训练样本较少的地方。假设,山区用户的训练样本数据少,目标模型则会依据对城市借贷人的认知来考虑山区借贷人的逾期情况,而城市样本中的借贷人,借贷一般是为了买房或做生意,要求借贷人具有充足的还贷能力,如果目标模型依据对城市用户借贷的标准给山区用户进行借贷评价,那么大部分山区用户的还款能力则是不达标的,但这并不代表山区用户一定会倾向于逾期或者欠款。
本申请实施例旨在消除在对目标模型训练过程中的算法偏差和数据偏差。因此,在步骤S400中,可以基于目标样本集中各个训练样本的样本特征,将各个训练样本进行划分多个样本群体。比如,以家庭地址进行划分的样本群体,包括样本为山区的群体和样本为城市的群体;又比如以职业进行划分样本群体等等。基于每个样本特征进行划分样本群体后,位于同一样本群体内中的各个训练样本至少具有一个相同的样本特征。
在划分完样本群体之后,可以基于样本群体内每个训练样本的第一预测准确度,计算得到该样本群体的第二预测准确度。比如在一实施例中,可以获取同一样本群体中的各个训练样本的第一预测准确度,并将位于同一样本群体中的各个训练样本的第一预测准确度的平均值,作为所述样本群体的第二预测准确度。第二预测准确度代表了目标模型在面对该群体用户时进行预测的准确性。当某一样本群体的第二预测准确度普遍偏低时,目标模型对该样本群体就存在具有“歧视性”的评价标准,从而基于各个样本群体的第二预测准确度来对目标模型进行优化训练,那么无论是样本偏差还是算法偏差导致目标模型对某一群体的“歧视性”预测,则都可以避免。
步骤S500,若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
在本申请实施例中,可以通过设置预设值,在目标样本集中每个样本群体的第二预测准确度后与预设值对比,来判断此时的目标模型是否存在偏差。如果目标样本集中的每个样本群体的第二预测准确度均不小于预设值,则代表此时的目标模型无论面对什么样的样本群体均能够做到公平的评价。当某一个样本群体或者某几个样本群体的第二预测准确度小于预设值时,则代表此时的目标模型在面对该一个或者几个样本群体的用户时可能会有“歧视性”的预测,那么此时则需要更新目标模型的候选参数,以消除这种“歧视性”。
在本申请实施例中,可以通过如下步骤c~e,进行更新目标模型的候选参数:
c:获取所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度。
在本申请实施例中,目标样本集中各个训练样本的第一预测准确度相对于候选参数的梯度的计算方法,可以基于公式(3)计算得到。
d:基于所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度,及各个训练样本的样本标签和样本特征,通过所述预设神经网络,更新所述目标样本集中的每个训练样本的权重。
如图5所示,在本申请实施例中,预设神经网络用于为目标样本集中的每个训练样本进行赋予权重,从而使赋予权重后的各个训练样本在对目标模型进行训练时,起到不同的重要程度。比如对于目标样本集中第二预测准确度较低的样本群体,则需要提高其各个训练样本的权重,从而使得目标模型在训练时更加关注此样本群体中的各个训练样本,从而来消除目标模型对于该样本群体“歧视性”预测。
比如在本申请实施例中,预设神经网络可以为多层感知机(MLP,MultilayerPerceptron),赋予权重时,可以将将目标样本集中的各个训练样本的样本特征、样本标签,以及各个训练样本的第一预测准确度相对于候选参数的梯度,输入至预设神经网络,预设神经网络可以基于如下公式(4)为每个训练样本进行赋予权重,公式如下:
Figure 580094DEST_PATH_IMAGE004
如图5所示,其中左侧框图中Learner为目标模型,
Figure 386376DEST_PATH_IMAGE005
为目标模型的主任务,
Figure 764268DEST_PATH_IMAGE006
均为目标模型中的神经网络层,图5中仅仅示出了两个神经网络层,实际中神经网络层的层数由目标模型决定,softmax为目标模型的激活函数,
Figure 755227DEST_PATH_IMAGE007
指的是目标模型的输出,代表目标模型根据训练样本的特征x,对其标签y的做出的预测。右侧框图中Adversary为对抗模型,其中内部包括了预设神经网络
Figure 15307DEST_PATH_IMAGE008
Figure 500646DEST_PATH_IMAGE009
均为预设神经网络中的神经网络层,图中仅仅示出了两个神经网络层,但并不代表该预设的神经网络仅仅只有两层,sigmoid为权重赋予函数,取值范围0到1。λ是在
Figure 795361DEST_PATH_IMAGE010
的基础上进一步运算得到的权重值,i代表样本编号。
Figure 724265DEST_PATH_IMAGE011
为目标模型的模型参数,
Figure 206062DEST_PATH_IMAGE012
为对抗模型(预设神经网络)的模型参数,
Figure 822988DEST_PATH_IMAGE013
为损失函数,代表计算损失时同时考虑了目标模型的输出和对抗模型的输出。
继续参照图5,在训练时,将训练样本集输入目标模型,基于步骤S200和步骤S300的方法去除异常值样本,得到目标样本集,并计算得到每个目标样本集中每个训练样本的预测准确度相对于目标模型参数的梯度d(x),而后将训练样本的特征x和d(x)输入至对抗模型的预设神经网络中,得到
Figure 581997DEST_PATH_IMAGE008
,其中
Figure 55703DEST_PATH_IMAGE008
为预设神经网络根据训练样本的第一预测准确度关于目标模型参数的梯度得到的一个实数,预设神经网络在为每个训练样本赋予该实数的过程中,可以学习到机器学习模型参数与不同训练样本之间的内在关联,从而为不同的训练样本赋予不同的实数,然后再利用得到的实数,基于公式(4)就能够得到目标样本集中每个训练样本的权重。
在本申请实施例中,目标样本集中各个训练样本的权重不仅仅是基于样本标签和样本特征进行赋予的,而且还结合了每个训练样本第一预测准确度相对于目标模型候选参数的梯度,在将每个训练样本第一预测准确度相对于目标模型候选参数的梯度输出至预设神经网络时,预设神经网络具有较强的表征能力,能够基于目标模型的候选参数学习到如何为各个训练样本赋予权重,使得目标模型更加有效的消除对于第二预测准确度较低样本群体的“歧视性”。相较于现有技术中,利用线性模型仅仅基于样本特征和样本标签为样本赋予权重,本申请实施例利用预设神经网络,基于样本标签、样本特征,同时考虑目标模型参数赋予权重的方法,为各个训练样本赋予权重的过程更加合理,更容易去除目标模型对于不同样本群体的“歧视性”,使得目标模型训练更加高效。
e:基于更新权重后的目标样本集更新所述候选参数。
在本申请实施例中,可以通过如下步骤e1-e2,对候选参数进行更新。
e1:基于更新权重后的目标样本集中的每个训练样本的权重,对所述目标样本集中各个训练样本的第一预测准确度进行加权。
在本申请实施例中,可以基于上述公式(3)进行加权,得到如下公式(5):
Figure 415009DEST_PATH_IMAGE014
其中,
Figure 366785DEST_PATH_IMAGE015
为预设神经网络为训练样本x赋予的权重,其中在图5中将loss2表示为
Figure 573775DEST_PATH_IMAGE016
,是为了说明该损失的计算同时结合了目标模型参数和对抗模型的参数。
e2:基于所述目标样本集中加权后的各个训练样本的第一预测准确度,更新所述候选参数。
在本申请实施例中,基于利用上述公式(5)能够得到更新权重后的各个训练样本的第一预测准确度,此时可以对候选参数进行优化,优化方向可以向着使得loss2最小化的方向进行,即使得目标模型的准确度损失最小,从而使目标模型对各个训练样本的预测准确度最高。
本申请实施例中,还可以向着使得第二预测准确度最小的样本群体的第二预测准确度最高的方向进行,从而消除目标模型对于该样本群体的“歧视性”。
由此,已经对目标模型进行一轮参数更新,并得到新的候选参数,此时可以基于新的候选参数,重复进行步骤S200-S500,直至在某一轮更新后的候选参数下得到的目标样本集中的各个样本群体的第二预测准确度均不小于预设值,即此时目标模型在面对任何样本群体时,均能进行公平性的预测。
相较于现有技术,本申请实施例的模型训练方法,基于目标模型的候选参数获取各个训练样本的第一预测准确度,基于各个训练样本的第一预测准确度,筛选去除异常样本得到目标样本集,然后基于目标样本集中各个训练样本的第一预测准确度,利用预设的神经网络模型为目标样本集中各个训练样本赋予权重,在此过程中,预设神经网络具有较强的表征能力,能够基于目标模型的候选参数学习到如何为各个训练样本赋予权重,使得目标模型更加有效的消除对于第二预测准确度较低样本群体的“歧视性”,因此,利用预设神经网络为目标样本集中各个训练样本赋予的权重更加高效合理,从而目标模型的训练过程更加高效,最终训练后的目标模型预测准确度较高;另外,在训练过程中首先去除了异常样本,避免基于异常样本盲目训练,训练方向更加合理。
以上对本申请实施例中一种模型训练方法进行说明,以下对执行上述模型训练方法的模型训练装置(例如服务器)进行介绍。
参阅图6,如图6所示的一种模型训练装置60的结构示意图,其可应用于服务器中,用于基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;获取所述目标样本集中每个样本群体的第二预测准确度;若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。在本申请实施例中的模型训练装置60能够实现对应于上述图2、图3所对应的实施例中所执行的模型训练方法的步骤。模型训练装置60实现的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。所述模型训练装置60可包括输入输出模块610及处理模块620,所述输入输出模块610、所述处理模块620的功能实现可参考图2、图3所对应的实施例中所执行的操作,此处不作赘述。
在本申请实施例中,该模型训练装置60包括:
输入输出模块610,用于获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征;
处理模块620,用于获取所述训练样本集中每个训练样本的第一预测准确度,其中,所述每个训练样本的第一预测准确度基于在所述候选参数下时的目标模型得到;
所述处理模块620还用于,基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
所述处理模块620还用于,获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征;以及
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,所述处理模块还用于基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
在本申请实施例中,所述处理模块620还用于:将样本标签错误的异常样本从所述训练样本集中去除。
在本申请实施例中,所述处理模块620还用于:
获取每个训练样本的第一预测准确度相对于所述候选参数的梯度;
基于所述每个训练样本的梯度,从所述训练样本集中筛选并去除异常样本得到所述目标样本集,其中,所述异常样本的梯度分割为孤立点的路径深度最小。
在本申请实施例中,所述处理模块620用于:
获取同一样本群体中的各个训练样本的第一预测准确度,并将位于同一样本群体中的各个训练样本的第一预测准确度的平均值,作为所述样本群体的第二预测准确度。
在本申请实施例中,所述处理模块620用于:
获取所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度;
基于所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度,及各个训练样本的样本标签和样本特征,通过所述预设神经网络,更新所述目标样本集中的每个训练样本的权重;
基于更新权重后的目标样本集更新所述候选参数。
在本申请实施例中,所述处理模块620用于:
基于更新权重后的目标样本集中的每个训练样本的权重,对所述目标样本集中各个训练样本的第一预测准确度进行加权;
基于所述目标样本集中加权后的各个训练样本的第一预测准确度,更新所述候选参数。
在本申请实施例中,所述目标模型用于筛选用户,所述输入输出模块620被配置为:将各个训练样本的家庭地址、年龄、性别、职业、收入状况作为样本特征;
将各个训练样本的信用状况作为样本标签。
各个实施例的具体实现方法,参照模型训练方法的各个实施例,在此不一一赘述。
本申请实施例中的模型训练装置,基于目标模型的候选参数获取各个训练样本的第一预测准确度,基于各个训练样本的第一预测准确度,筛选去除异常样本得到目标样本集,然后基于目标样本集中各个训练样本的第一预测准确度,利用预设的神经网络模型为目标样本集中各个训练样本赋予权重。在此过程中,预设神经网络具有较强的表征能力,能够基于目标模型的候选参数学习到如何为各个训练样本赋予权重,使得目标模型更加有效的消除对于第二预测准确度较低样本群体的“歧视性”,因此,利用预设神经网络为目标样本集中各个训练样本赋予的权重更加高效合理,从而目标模型的训练过程更加高效,最终训练后的目标模型预测准确度较高;另外,在训练过程中首先去除了异常样本,避免基于异常样本盲目训练,训练方向更加合理。
在介绍了本申请实施例中的方法和装置之后,接下来对本申请实施例中的计算机可读存储介质进行说明,在本申请实施例中计算机可读存储介质为光盘,其上存储有计算机程序(即程序产品或指令),所述计算机程序在被计算机运行时,会实现上述方法实施例中所记载的各步骤,例如,获取训练样本集和目标模型的候选参数;获取所述训练样本集中每个训练样本的第一预测准确度;基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;获取所述目标样本集中每个样本群体的第二预测准确度;若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。各步骤的具体实现方式在此不再重复说明。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
上面从模块化功能实体的角度对本申请实施例中的模型训练装置进行了描述,下面从硬件处理的角度分别对本申请实施例中的执行模型训练方法的服务器、终端设备进行描述。
需要说明的是,在本申请模型训练装置实施例的图6所示的输入输出模块610对应的实体设备可以为输入/输出单元、收发器、射频电路、通信模块和输入/输出(I/O)接口等,处理模块620对应的实体设备可以为处理器。图6所示的模型训练装置可以具有如图7所示的结构,当图6所示的模型训练装置具有如图7所示的结构时,图7中的处理器和收发器能够实现前述对应该装置的装置实施例提供的处理模块620和输入输出模块610相同或相似的功能,图7中的存储器存储处理器执行上述模型训练方法时需要调用的计算机程序。
本申请实施例还提供了一种终端设备,如图8所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、销售终端设备(Point of Sales,POS)、车载电脑等任意终端设备,以终端设备为手机为例:
图8示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图8,手机包括:射频(Radio Frequency,RF)电路1010、存储器1020、输入单元1030、显示单元1040、传感器1050、音频电路1060、无线保真(wireless fidelity,WiFi)模块1070、处理器1080、以及电源1090等部件。本领域技术人员可以理解,图8中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图8对手机的各个构成部件进行具体的介绍:
RF电路1010可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1080处理;另外,将设计上行的数据发送给基站。通常,RF电路1010包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(LowNoiseAmplifier,LNA)、双工器等。此外,RF电路1010还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General PacketRadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1030可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1030可包括触控面板1031以及其他输入设备1032。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上或在触控面板1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1040可包括显示面板1041,可选的,可以采用液晶显示器(LiquidCrystalDisplay,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1041。进一步的,触控面板1031可覆盖显示面板1041,当触控面板1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041上提供相应的视觉输出。虽然在图8中,触控面板1031与显示面板1041是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1031与显示面板1041集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1041和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1060、扬声器1061,传声器1062可提供用户与手机之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一手机,或者将音频数据输出至存储器1020以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1070可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图8示出了WiFi模块1070,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1080是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1080可包括一个或多个处理单元;可选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
手机还包括给各个部件供电的电源1090(比如电池),可选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本申请实施例中,该手机所包括的处理器1080还具有控制执行以上由目标模型执行的获取训练样本集即候选参数的步骤流程。该手机所包括的处理器1080还具有控制执行以上由模型训练装置执行步骤流程:如:
基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
获取所述目标样本集中每个样本群体的第二预测准确度;
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
本申请实施例还提供了一种服务器,请参阅图9,图9是本申请实施例提供的一种服务器结构示意图,该服务器1100可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(英文全称:central processing units,英文简称:CPU)1122(例如,一个或一个以上处理器)和存储器1132,一个或一个以上存储应用程序1142或数据1144的存储介质1130(例如一个或一个以上海量存储设备)。其中,存储器1132和存储介质1130可以是短暂存储或持久存储。存储在存储介质1130的程序可以包括一个或一个以上模块(图9中未示出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1122可以设置为与存储介质1130通信,在服务器1100上执行存储介质1130中的一系列指令操作。
服务器1100还可以包括一个或一个以上电源1126,一个或一个以上有线或无线网络接口1150,一个或一个以上输入输出接口1158,和/或,一个或一个以上操作系统1141,例如Windows Server,Mac OS X,Unix, Linux,FreeBSD等等。
上述实施例中由服务器所执行的步骤可以基于该图9所示的服务器1100的结构。例如上述实施例中由图6所示的模型训练装置所执行的步骤可以基于该图9所示的服务器结构。例如,所述中央处理器1122通过调用存储器1132中的指令,执行以下操作:
通过输入输出接口1158获取训练样本集和目标模型的候选参数动、获取所述训练样本集中每个训练样本的第一预测准确度;
中央处理器1122基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
获取所述目标样本集中每个样本群体的第二预测准确度;
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
还可以通过输入输出接口1158将目标模型的参数输出,以便部署在其他应用设备或服务器中,供其他服务器基于所述目标模型进行用户筛选或者预测。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请实施例所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请实施例各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
以上对本申请实施例所提供的技术方案进行了详细介绍,本申请实施例中应用了具体个例对本申请实施例的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请实施例的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请实施例的限制。

Claims (10)

1.一种模型训练方法,包括:
获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征;
获取所述训练样本集中每个训练样本的第一预测准确度,其中,所述每个训练样本的第一预测准确度基于在所述候选参数下时的目标模型得到;
基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征;
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,则基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
2.如权利要求1所述的模型训练方法,所述异常样本为样本标签错误的样本。
3.如权利要求1或2所述的模型训练方法,所述基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集,包括:
获取每个训练样本的第一预测准确度相对于所述候选参数的梯度;
基于所述每个训练样本的梯度,从所述训练样本集中筛选并去除异常样本得到所述目标样本集,其中,所述异常样本的梯度分割为孤立点的路径深度最小。
4.如权利要求1或2所述的模型训练方法,所述获取所述目标样本集中每个样本群体的第二预测准确度,包括:
获取同一样本群体中的各个训练样本的第一预测准确度,并将位于同一样本群体中的各个训练样本的第一预测准确度的平均值,作为所述样本群体的第二预测准确度。
5.如权利要求1或2所述的模型训练方法,所述基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,包括:
获取所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度;
基于所述目标样本集中各个训练样本的第一预测准确度相对于所述候选参数的梯度,及各个训练样本的样本标签和样本特征,通过所述预设神经网络,更新所述目标样本集中的每个训练样本的权重;
基于更新权重后的目标样本集更新所述候选参数。
6.如权利要求5所述的模型训练方法,所述基于更新权重后的目标样本集更新所述候选参数,包括:
基于更新权重后的目标样本集中的每个训练样本的权重,对所述目标样本集中各个训练样本的第一预测准确度进行加权;
基于所述目标样本集中加权后的各个训练样本的第一预测准确度,更新所述候选参数。
7.如权利要求1所述的模型训练方法,所述目标模型用于筛选用户,所述样本特征包括以下的至少一项:家庭地址、年龄、性别、职业、收入状况;
所述样本标签为用于表示用户的信用状况。
8.一种模型训练装置,包括:
输入输出模块,用于获取训练样本集和目标模型的候选参数,所述候选参数基于历史候选参数更新得到,所述训练样本集包括多个训练样本,每个训练样本均包括样本标签和至少一个样本特征;
处理模块,用于获取所述训练样本集中每个训练样本的第一预测准确度,其中,所述每个训练样本的第一预测准确度基于在所述候选参数下时的目标模型得到;
所述处理模块还用于,基于所述训练样本集中每个训练样本的第一预测准确度,从所述训练样本集中去除异常样本,得到目标样本集;
所述处理模块还用于,获取所述目标样本集中每个样本群体的第二预测准确度,所述样本群体基于所述目标样本集中每个训练样本的样本特征划分得到,每个所述样本群体中的各个训练样本至少具有一个相同的样本特征;以及
若所述目标样本集中存在任一样本群体的第二预测准确度低于预设值,所述处理模块还用于基于预设神经网络、所述目标样本集中各个训练样本的第一预测准确度更新所述候选参数,直至基于更新后的候选参数得到的目标样本集中任一样本群体的第二预测准确度均不低于预设值,并将目标样本集中任一样本群体的第二预测准确度均不低于预设值时的候选参数作为所述目标模型的最终参数。
9.一种计算机可读存储介质,其包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-7中任一项所述的方法。
10.一种计算设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的方法。
CN202211326667.1A 2022-10-27 2022-10-27 模型训练方法、相关装置及存储介质 Pending CN115392405A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211326667.1A CN115392405A (zh) 2022-10-27 2022-10-27 模型训练方法、相关装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211326667.1A CN115392405A (zh) 2022-10-27 2022-10-27 模型训练方法、相关装置及存储介质

Publications (1)

Publication Number Publication Date
CN115392405A true CN115392405A (zh) 2022-11-25

Family

ID=84129144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211326667.1A Pending CN115392405A (zh) 2022-10-27 2022-10-27 模型训练方法、相关装置及存储介质

Country Status (1)

Country Link
CN (1) CN115392405A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117150244A (zh) * 2023-10-30 2023-12-01 山东凯莱电气设备有限公司 基于电参数分析的智能配电柜状态监测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117150244A (zh) * 2023-10-30 2023-12-01 山东凯莱电气设备有限公司 基于电参数分析的智能配电柜状态监测方法及系统
CN117150244B (zh) * 2023-10-30 2024-01-26 山东凯莱电气设备有限公司 基于电参数分析的智能配电柜状态监测方法及系统

Similar Documents

Publication Publication Date Title
CN108236785B (zh) 一种获取对象信息的方法及装置
WO2021120875A1 (zh) 搜索方法、装置、终端设备及存储介质
CN114297730A (zh) 对抗图像生成方法、装置及存储介质
CN115392405A (zh) 模型训练方法、相关装置及存储介质
CN116975295B (zh) 一种文本分类方法、装置及相关产品
CN112907255A (zh) 一种用户分析方法和相关装置
CN115081643B (zh) 对抗样本生成方法、相关装置及存储介质
CN114817742B (zh) 基于知识蒸馏的推荐模型配置方法、装置、设备、介质
CN113409096B (zh) 目标对象识别方法、装置、计算机设备及存储介质
CN116167867A (zh) 基于知识图谱的保险业务风险识别方法、装置及电子设备
CN115239941A (zh) 对抗图像生成方法、相关装置及存储介质
CN109993337A (zh) 一种金融产品实时管理方法、装置和服务器
CN115080840A (zh) 一种内容推送方法、装置及存储介质
CN113822435A (zh) 一种用户转化率的预测方法及相关设备
CN116187467A (zh) 训练样本获取方法、相关装置及存储介质
CN111951021B (zh) 一种可疑社团的发现方法和装置、存储介质及计算机设备
CN117115596B (zh) 对象动作分类模型的训练方法、装置、设备及介质
CN114743081B (zh) 模型训练方法、相关装置及存储介质
CN116450808B (zh) 一种数据的处理方法、装置以及存储介质
CN114943639B (zh) 图像获取方法、相关装置及存储介质
CN116596653A (zh) 一种信用风险识别方法、装置、设备及存储介质
CN114301864B (zh) 对象识别方法、装置、存储介质及服务器
CN116151862A (zh) 一种数据处理的方法、相关装置、设备和存储介质
CN115809905A (zh) 一种对象可信度评估方法、装置及相关产品
CN116712736A (zh) 一种用户推荐的方法以及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination