CN109255432B - 神经网络模型构建方法及装置、存储介质、电子设备 - Google Patents

神经网络模型构建方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN109255432B
CN109255432B CN201810962601.9A CN201810962601A CN109255432B CN 109255432 B CN109255432 B CN 109255432B CN 201810962601 A CN201810962601 A CN 201810962601A CN 109255432 B CN109255432 B CN 109255432B
Authority
CN
China
Prior art keywords
power exponent
data
neural network
network model
exponent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810962601.9A
Other languages
English (en)
Other versions
CN109255432A (zh
Inventor
余戈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN201810962601.9A priority Critical patent/CN109255432B/zh
Publication of CN109255432A publication Critical patent/CN109255432A/zh
Application granted granted Critical
Publication of CN109255432B publication Critical patent/CN109255432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开属于算法模型技术领域,涉及一种神经网络模型构建方法及装置、计算机可读存储介质、电子设备,该神经网络模型构建方法包括:获取一第一数据和一第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量;根据所述第一数据获取与所述第一数据距离最小的第一幂指数;根据所述第二数据获取与所述第二数据距离最小的第二幂指数,且所述第一幂指数和所述第二幂指数的底数相同;根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建一神经网络模型。该方法缩减了测试不同模型的时间,并提高了模型准确率。

Description

神经网络模型构建方法及装置、存储介质、电子设备
技术领域
本公开涉及算法模型技术领域,具体而言,涉及一种神经网络模型构建方法、神经网络模型构建装置、计算机可读存储介质以及电子设备。
背景技术
深度学习(Deep Learning,DL)是模拟人脑的思维方式和处理问题的方法。人脑的计算神经元数量是百亿量级,即使是一个“小型”的CNN所需要的计算也非常庞大,而且几乎所有的深度学习网络均运行在CPU(或CPU集群),或GPU(或GPU集群)硬件平台之上,所需要的硬件资源非常巨大,导致成本和功耗都非常大,运行速度缓慢,很多CNN在高性能的芯片或平台上运行时也只能达到几帧/每秒的速度,无法进行实时处理。
神经网络根据实际需要可以包含多层神经网络层,且每层包含多个神经元,各层中的多个神经元相互关联,通过对神经网络中的神经元个数和层数进行调节可以对神经网络模型进行优化,提高数据处理效率。但是目前构建稳定的神经网络的方法主要是对学习率等参数进行优化,该优化过程需要耗费建模人员较多的时间。
因此,需要提供一种新的神经网络模型构建方法及装置。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种神经网络模型构建方法、神经网络模型构建装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的由于预测结果不准确而导致的经济欺诈问题。
根据本公开的一个方面,提供一种神经网络模型构建方法,其特征在于,包括:
获取第一数据和第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量;
根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个量;
根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型。
在本公开的示例性实施例中,所述第一幂指数为Mi,其中M>0,i>0,且M、i均为整数;所述第二幂指数为Mj,其中0≤j<i,且j为整数。
在本公开的示例性实施例中,根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中隐含层的层数,包括:
当所述第一幂指数的指数为i,且所述第二幂指数的指数为j时,所述隐含层的层数为i-j-1层。
在本公开的示例性实施例中,根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中各隐含层中神经元个数,包括:
当所述第一幂指数的指数为i,且所述第二幂指数的指数为j时,各所述隐含层中神经元个数为Mn,其中j<n<i,且n为整数。
在本公开的示例性实施例中,各所述隐含层中神经元的个数沿着输入层到输出层的方向依次递减。
在本公开的示例性实施例中,所述构建方法还包括:
通过改变所述第一幂指数及所述第二幂指数的底数,调整所述输入层中神经元个数、所述输出层中神经元个数、所述隐含层的层数及各所述隐含层中神经元个数,以优化所述神经网络模型。
在本公开的示例性实施例中,所述第一幂指数、所述第二幂指数的所述底数为2或3。
根据本公开的一个方面,提供一种神经网络模型构建装置,其特征在于,包括:
第一获取模块,用于获取一第一数据和一第二数据,其中,所述第一数据为输入数据量,所述第二数据为输出数据量;
第二获取模块,用于根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
第三获取模块,用于根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
计算模块,用于根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;
构建模块,用于根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建一神经网络模型。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的神经网络模型构建方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的神经网络模型构建方法。
本公开中的神经网络模型构建方法,通过根据初始的输入数据量和输出数据量获取第一数据和第二数据;然后根据第一数据和第二数据分别获得与其距离最小的第一幂指数和第二幂指数,分别作为输入层和输出层中神经元个数,并且第一幂指数和第二幂指数的底数相同;再根据第一幂指数和第二幂指数计算隐含层的层数及各隐含层中神经元个数;最后通过第一幂指数、第二幂指数、隐含层层数及各隐含层中神经元个数构建神经网络模型。本公开一方面通过选择幂指数作为神经网络模型各层中神经元个数,并通过改变幂指数的底数以改变各层中神经元个数及隐含层的层数,能够大幅度缩减建模过程中测试不同模型架构的时间,另一方面相对其它种类的非深度学习模型能够提高模型的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出一种神经网络模型构建方法的流程图。
图2示意性示出一种神经网络模型构建方法的应用场景示例图。
图3示意性示出一种神经网络模型构建装置的方框图。
图4示意性示出一种用于实现上述神经网络模型构建方法的电子设备示例框图。
图5示意性示出一种用于实现上述神经网络模型构建方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在本领域的相关技术中,在构建神经网络模型时,通常将特征数据作为输入层中神经元个数,目标变量的维度作为输出层中神经元个数,然后通过调整模型参数及超参数优化模型直至模型收敛。但是在构建神经网络模型时,输入层和输出层之间还可能设置有隐含层,神经网络模型中包含的层数不同、每层包含的神经元个数不同都会对模型性能产生很大影响,而相关技术中并没有现成的设计方案用于指导模型层数及各层中神经元个数的设置。
鉴于相关技术中存在的问题,本示例实施方式中首先提供了一种神经网络模型构建方法,该用户数据真实性分析方法可以运行于服务器,也可以运行于服务器集群或云服务器等,当然,本领域技术人员也可以根据需求在其他平台运行本发明的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该神经网络模型构建方法可以包括以下步骤:
步骤S110.获取第一数据和第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量;
步骤S120.根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
步骤S130.根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
步骤S140.根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;
步骤S150.根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型。
上述神经网络模型构建方法中,通过选择与第一数据距离最小的第一幂指数,与第二数据距离最小的第二幂指数,并根据第一幂指数和第二幂指数计算隐含层层数及各隐含层中神经元个数,进而根据第一幂指数、第二幂指数、隐含层层数及各隐含层中神经元个数构建神经网络模型。一方面,可以大幅度缩减建模过程中测试不同模型架构的时间;另一方面,相对于其它种类的非深度学习模型能够显著提高模型的准确率。
下面,将结合图2对本示例实施方式中上述神经网络模型构建方法中的各步骤进行详细的解释以及说明。
在步骤S110中,获取第一数据和第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量。
在本示例性实施方式中,根据神经网络模型的应用环境,服务器201可以从终端设备202中获取多组用于训练神经网络模型的训练样本,每组训练样本包括输入数据和输出数据。多组训练样本中的输入数据构成输入层的数据,相应地,输入层中的数据量即为第一数据。同理,多组训练样本中的输出数据构成输出层的数据,相应地,输出层中的数据量即为第二数据。
以预测代理人的表现为例,输入数据可以是代理人的年龄、学历、工作经验、考勤记录等项中的一个或多个,输出数据可以是代理人的考核成绩或评定级别(如:优、良、差),并且每组输入数据对应一个输出数据。假设根据考勤记录预测每个代理人的表现,其中考勤记录的数据量为200个,对应的输出结果为优、良、差中的任意一个,那么第一数据为200,第二数据为1。
在步骤S120中,根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数。
在本示例实施方式中,可以根据第一数据获取与第一数据距离最小的第一幂指数。假设第一幂指数的底数为2,当第一数据为200时,则临近200的以2为底数的幂指数有27(128)和28(256),通过计算可知,28与200的距离最小,则可确定第一幂指数为28(256),即神经网络模型的输入层中神经元个数为256个。
在本示例实施方式中,若存在两个幂指数与第一数据的距离相同,则可以将两个幂指数均作为第一幂指数,并分别根据第一幂指数设定输入层中神经元的个数,然后检测神经网络模型的性能,通过比较对应不同第一幂指数的模型性能,以确定使模型性能最优的第一幂指数。
在步骤S130中,根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同。
在本示例实施方式中,可以根据第二数据获取与第二数据距离最小的第二幂指数。为了方便模型参数的设计,第一幂指数和第二幂指数的底数可以相同,例如与步骤S120中的第一幂指数的底数一样,均为2。当第二数据为1时,与其距离最小的以2为底数的幂指数为20(1),那么可以将20作为第二幂指数,即神经网络模型的输出层中神经元个数为1个。
在本示例实施方式中,若存在两个幂指数与第二数据的距离相同,则可以将两个幂指数均作为第二幂指数,并分别根据第二幂指数设定输出层中神经元的个数,然后检测神经网络模型的性能,通过比较对应不同第二幂指数的模型性能,以确定使模型性能最优的第二幂指数。
在步骤S140中,根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数。
在本示例实施方式中,可以设定第一幂指数为Mi,其中M>0,i>0,且M、i均为整数;同时设定第二幂指数为Mj,其中0≤j<i,且j为整数。根据第一幂指数和第二幂指数可以计算得到隐含层的层数,隐含层的层数为i-j-1,即为介于i和j之间的整数的个数。对于不同的隐含层,其中神经元个数也是不同的,各隐含层中神经元个数为Mn,其中n取所以介于i和j之间的整数,即j<n<i,且n为正整数。
以步骤S110-步骤S130中的示例为例,第一幂指数为28,第二幂指数为20,即i=8,j=0,则隐含层的层数为7层,各隐含层中神经元个数分别为27、26、25、24、23、22、21
在步骤S150中,根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型。
在本示例实施方式中,由于第一幂指数是根据输入的数据量获得的,第二幂指数是根据输出的数据量获得的,因此可以将第一幂指数作为输入层中神经元个数,将第二幂指数作为输出层中神经元个数。在确定神经网络模型的层数及各层中神经元个数后,可以构建一个神经网络模型。
进一步地,各隐含层中神经元个数沿着输入层到输出层的方向依次递减,即输入层、隐含层及输出层中神经元个数形成等比数列。
本公开在已知输入数据量和输出数据量的前提下,根据输入数据量和输出数据量可以获取与其距离最小的第一幂指数和第二幂指数,通过第一幂指数和第二幂指数计算隐含层的层数及各隐含层中神经元个数,最后根据第一幂指数、第二幂指数、隐含层层数及各隐含层中神经元个数可以构建一神经网络模型。本公开通过选择合适的幂指数可以减少模型的测试时间,并且所构建的神经网络模型相对于其它种类的非深度学习模型具有较高的准确率。
在本示例实施方式中,神经网络模型的层数及各层中神经元个数影响神经网络模型的性能,为了优化神经网络模型的性能,可以通过改变第一幂指数和第二幂指数的底数,以改变输入层和输出层中神经元个数,进一步的,当第一幂指数和第二幂指数发生变化时,隐含层的层数及各层中神经元个数也相应地会发生变化。例如,当选择底数为3,且第一数据为200、第二数据为2时,与第一数据临近的以3为底数的幂指数为35(243),与第二数据临近的以3为底数的幂指数为31(3),即输入层中神经元个数(第一幂指数)为243,输出层中神经元个数(第二幂指数)为3。相应地,位于输入层和输出层之间的隐含层的层数为3层,且沿着输入层至输出层的方向,各隐含层中神经元个数分别为81、27、9。通过改变幂指数的底数,进而改变神经网络模型的层数及各层中神经元个数,以对神经网络模型进行优化。
值得注意的是,本公开中幂指数的底数选取2或3仅是示例性说明,也可以选取其它整数值,本公开对此不做具体限定,但是为了防止模型过大导致的模型训练困难,一般不会选取较大的整数(例如大于5的整数)作为底数。
在本示例性实施方式中,在构建完成神经网络模型后,可以将获取的训练样本输入至神经网络模型以对模型进行训练,直至神经网络模型收敛,达到稳定状态。进一步地,可以在获取训练样本的同时获取多个检测样本,在获得训练后的神经网络模型后,可以将多个检测样本依次输入至神经网络模型以检测神经网络模型是否训练达到最优。若神经网络模型的性能已达到最优,则可以停止模型训练;若神经网络模型的性能未达到最优,则可以继续调整模型的层数及各层中神经元个数,以对模型进行训练,直至模型收敛。
在本示例实施方式中,获得训练完成的神经网络模型后,可以从待分析数据中抽取所需数量的待分析数据,并输入至神经网络模型的输入层,通过神经网络模型的计算,以从神经网络模型的输出层获得预测结果。举例而言,神经网络模型中输入层中神经元个数为27(128)个,输出层中神经元个数为2个,隐含层层数为5层,且各隐含层中神经元个数分别为26、25、24、23、22个,则服务器201可从代理人的考勤记录形成的待分析数据集中提取128个数据作为输入向量输入至输入层,通过神经网络模型的处理输出2个预测结果,供部门主管根据输出结果预测代理人的表现。
本公开还提供了一种神经网络模型构建装置。参考图3所示,该神经网络模型构建装置可以包括第一获取模块310、第二获取模块320、第三获取模块330、计算模块340以及构建模块350。其中:
第一获取模块310,用于获取第一数据和第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量;
第二获取模块320,用于根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
第三获取模块330,用于根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
计算模块340,用于根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;
构建模块350,用于根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型
上述神经网络模型构建装置中各模块的具体细节已经在对应的神经网络模型构建方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图4来描述根据本发明的这种实施方式的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的步骤S110:获取第一数据和第二数据,所述第一数据为输入层的数据量,所述第二数据为输出层的数据量;步骤S120:根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;步骤S130:根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;步骤S140:根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;步骤S150:根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (7)

1.一种神经网络模型构建方法,其特征在于,包括:
获取第一数据和第二数据,所述第一数据为输入数据量,所述第二数据为输出数据量;输入数据是代理人的年龄、学历、工作经验、考勤记录中的一个或多个,输出数据是代理人的考核成绩或评定级别;
根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;
根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型,以便利用所述神经网络模型预测代理人的考核成绩或评定级别;所述第一幂指数为Mi,其中M>0,i>0,且M、i均为整数;所述第二幂指数为Mj,其中0≤j<i,且j为整数;
其中,根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中隐含层的层数,包括:当所述第一幂指数的指数为i,且所述第二幂指数的指数为j时,所述隐含层的层数为i-j-1;
根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中各隐含层中神经元的数量,包括:所述隐含层中神经元的数量为Mn,其中j<n<i,且n为整数。
2.根据权利要求1所述的神经网络模型构建方法,其特征在于,所述隐含层中神经元的个数沿着输入层到输出层的方向依次递减。
3.根据权利要求1所述的神经网络模型构建方法,其特征在于,所述构建方法还包括:
通过改变所述第一幂指数及所述第二幂指数的底数,调整所述输入层中神经元个数、所述输出层中神经元个数、所述隐含层的层数及各所述隐含层中神经元个数,以优化所述神经网络模型。
4.根据权利要求1所述的神经网络模型构建方法,其特征在于,所述第一幂指数、所述第二幂指数的所述底数为2或3。
5.一种神经网络模型构建装置,其特征在于,包括:
第一获取模块,用于获取第一数据和第二数据,其中,所述第一数据为输入数据量,所述第二数据为输出数据量;输入数据是代理人的年龄、学历、工作经验、考勤记录中的一个或多个,输出数据是代理人的考核成绩或评定级别;
第二获取模块,用于根据所述第一数据获取与所述第一数据距离最小的第一幂指数,并将所述第一幂指数作为输入层的神经元个数;
第三获取模块,用于根据所述第二数据获取与所述第二数据距离最小的第二幂指数,并将所述第二幂指数作为输出层的神经元个数,且所述第一幂指数和所述第二幂指数的底数相同;
计算模块,用于根据所述第一幂指数和所述第二幂指数计算隐含层的层数及各隐含层中神经元个数;
构建模块,用于根据所述第一幂指数、所述第二幂指数、所述隐含层的层数及各所述隐含层中神经元个数构建神经网络模型,以便利用所述神经网络模型预测代理人的考核成绩或评定级别,所述第一幂指数为Mi,其中M>0,i>0,且M、i均为整数;所述第二幂指数为Mj,其中0≤j<i,且j为整数;
其中,根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中隐含层的层数,包括:当所述第一幂指数的指数为i,且所述第二幂指数的指数为j时,所述隐含层的层数为i-j-1;
根据所述第一幂指数和所述第二幂指数计算所述神经网络模型中各隐含层中神经元的数量,包括:所述隐含层中神经元的数量为Mn,其中j<n<i,且n为整数。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任一项所述的神经网络模型构建方法。
7. 一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-4任一项所述的神经网络模型构建方法。
CN201810962601.9A 2018-08-22 2018-08-22 神经网络模型构建方法及装置、存储介质、电子设备 Active CN109255432B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810962601.9A CN109255432B (zh) 2018-08-22 2018-08-22 神经网络模型构建方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810962601.9A CN109255432B (zh) 2018-08-22 2018-08-22 神经网络模型构建方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN109255432A CN109255432A (zh) 2019-01-22
CN109255432B true CN109255432B (zh) 2024-04-30

Family

ID=65049554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810962601.9A Active CN109255432B (zh) 2018-08-22 2018-08-22 神经网络模型构建方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN109255432B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751227A (zh) * 2013-12-31 2015-07-01 安徽科大讯飞信息科技股份有限公司 深度神经网络的构建方法及系统
CN105373830A (zh) * 2015-12-11 2016-03-02 中国科学院上海高等研究院 误差反向传播神经网络的预测方法、系统及服务器
CN108229654A (zh) * 2016-12-14 2018-06-29 上海寒武纪信息科技有限公司 神经网络卷积运算装置及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10373049B2 (en) * 2016-12-20 2019-08-06 Google Llc Generating an output for a neural network output layer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751227A (zh) * 2013-12-31 2015-07-01 安徽科大讯飞信息科技股份有限公司 深度神经网络的构建方法及系统
CN105373830A (zh) * 2015-12-11 2016-03-02 中国科学院上海高等研究院 误差反向传播神经网络的预测方法、系统及服务器
CN108229654A (zh) * 2016-12-14 2018-06-29 上海寒武纪信息科技有限公司 神经网络卷积运算装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种组合型的深度学习模型学习率策略;贺昱曜 等;《自动化学报》;20160630;第42卷(第06期);第953-958页 *

Also Published As

Publication number Publication date
CN109255432A (zh) 2019-01-22

Similar Documents

Publication Publication Date Title
JP7331975B2 (ja) クロスモーダル検索モデルのトレーニング方法、装置、機器、および記憶媒体
CN111860573A (zh) 模型训练方法、图像类别检测方法、装置和电子设备
CN111523640B (zh) 神经网络模型的训练方法和装置
CN111340221B (zh) 神经网络结构的采样方法和装置
CN113886181B (zh) 应用于AIOps故障预警的动态阈值预测方法、设备及介质
JP7414907B2 (ja) 事前訓練済みモデルの決定方法及びその決定装置、電子機器並びに記憶媒体
CN114721835A (zh) 边缘数据中心服务器能耗预测方法、系统、设备及介质
CN114449343A (zh) 一种视频处理方法、装置、设备及存储介质
CN113723618A (zh) 一种shap的优化方法、设备及介质
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
CN114972877A (zh) 一种图像分类模型训练方法、装置及电子设备
CN113191565B (zh) 安全性预测方法及装置、介质、设备
CN114418189A (zh) 水质等级预测方法、系统、终端设备及存储介质
CN114358257A (zh) 神经网络剪枝方法及装置、可读介质和电子设备
CN113869599A (zh) 鱼类疫病发展预测方法、系统、设备及介质
CN110704614B (zh) 对应用中的用户群类型进行预测的信息处理方法及装置
CN110348581B (zh) 用户特征群中用户特征寻优方法、装置、介质及电子设备
CN109255432B (zh) 神经网络模型构建方法及装置、存储介质、电子设备
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
KR20190109194A (ko) 불확정성을 모델링할 수 있는 뉴럴네트워크 학습 장치 및 방법
CN115662510A (zh) 因果参数的确定方法、装置、设备以及存储介质
CN114970357A (zh) 节能效果评价方法、系统、装置及存储介质
CN114860542A (zh) 趋势预测模型的优化方法、优化装置、电子设备和介质
CN113762061A (zh) 神经网络的量化感知训练方法、装置及电子设备
CN113516398A (zh) 基于分层抽样的风险设备识别方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant