CN109740759A - 学习模型优化与选择方法、电子装置及计算机设备 - Google Patents
学习模型优化与选择方法、电子装置及计算机设备 Download PDFInfo
- Publication number
- CN109740759A CN109740759A CN201811524499.0A CN201811524499A CN109740759A CN 109740759 A CN109740759 A CN 109740759A CN 201811524499 A CN201811524499 A CN 201811524499A CN 109740759 A CN109740759 A CN 109740759A
- Authority
- CN
- China
- Prior art keywords
- rate
- model
- threshold value
- learning
- accuracy rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 33
- 238000010187 selection method Methods 0.000 title claims abstract description 21
- 238000007689 inspection Methods 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000000586 desensitisation Methods 0.000 claims abstract description 19
- 238000012552 review Methods 0.000 claims abstract description 8
- 230000015654 memory Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013480 data collection Methods 0.000 claims description 6
- 241000208340 Araliaceae Species 0.000 claims description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 3
- 235000008434 ginseng Nutrition 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000004061 bleaching Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种学习模型优化与选择方法,包括:计算收集的脱敏数据以生成多个质检模型并进行预测而得到质检结果并进行复核;将复核后的质检结果作为验证集并加入训练以计算准确率与召回率;当准确率与召回率达到阈值时,保存多个质检模型并将学习率减去固定值,使多个质检模型在特定参数范围内调整;当准确率大于阈值时,或者当准确率不大于阈值且召回率大于阈值,将学习率减去固定值;及当准确率与召回率皆不大于阈值,将学习率调回初始值。本发明提供的学习模型优化与选择方法与电子装置使模型训练人员更加直观的了解模型可能的效果,而参数调优方法使得模型能够比较快速的得到较为准确、稳定的中间模型,从而使得项目能够快速投产。
Description
技术领域
本发明涉及大数据引擎之样本处理的技术领域,尤其涉及一种学习模型优化与选择方法、电子装置、计算机设备及存储介质。
背景技术
在文本质检系统中,在利用深度学习进行文本质检时,模型参数调优与模型选择方法非常重要。然而,传统的模型选择方法挑选出的模型无法保障准确率与召回率,而传统的参数调优方法主要是固定学习率或者使用学习率固定步数衰减,造成难以获得效果较好的质检模型。
发明内容
有鉴于此,本发明提出一种学习模型优化与选择方法,使模型训练人员更加直观的了解到了模型可能的效果,而配套的参数调优方法使得模型能够比较快速的得到较为准确、稳定的中间模型,从而使得项目能够快速投产。
为实现上述目的,本发明提出一种学习模型优化与选择方法,应用于电子装置中,该方法包括步骤:
在训练模型时,在生产数据中收集固定时间周期内的脱敏数据;
通过多个算法对所述脱敏数据进行计算以生成多个不同类型的质检模型;
利用所述多个质检模型进行预测,可得到所述多个质检模型的多个质检结果,并对所述多个质检结果复核;
将复核后的所述多个质检结果作为验证集,并将所述验证集加入训练中,每步完成后进行验证,以计算准确率与召回率;
设置所述准确率的阈值A与所述召回率的阈值B,並从学习率的初始值始训练;
当所述准确率达到所述阈值A与所述召回率达到所述阈值B时,则保存所述多个质检模型并将所述学习率减去固定值,使所述多个质检模型在特定参数范围内调整;
判断所述准确率是否小于所述阈值A和所述召回率是否小于所述阈值B;
当所述准确率大于所述阈值A时,或者当所述准确率不大于所述阈值且所述召回率大于所述阈值B,则将所述学习率减去所述固定值;及
当所述准确率不大于所述阈值A且所述召回率不大于所述阈值B,则将所述学习率调回所述初始值。
进一步地,所述多个算法至少包括BILSTM RNN+Attention、BiLSTM RNN、LSTM RNN与Text CNN,且所述多个质检模型至少包括BI-LSTM(双向长短时记忆)RNN(循环神经网络)模型与BI-LSTM Attention模型。
进一步地,所述多个质检模型在训练过程中保存多个模型文件,所述多个模型文件为所述质检模型之文件内部保存的多个参数。
进一步地,所述多个参数保存在一个后缀为(.pb)的文件中。
进一步地,所述准确率=正确预测违规的消息数/(所述正确预测违规的消息数+错误预测违规的消息数),及所述召回率=所述正确预测违规的消息数/所述验证集中实际违规的消息数。
为实现上述目的,本发明提出一种电子装置,包括数据收集模块、模型生成模块、预测模块、计算模块、设定模块与判断与调整模块。
所述数据收集模块在生产数据中收集固定时间周期内的脱敏数据。
所述模型生成模块通过多个算法对所述脱敏数据进行计算以生成多个不同类型的质检模型。
所述预测模块利用所述多个质检模型进行预测,可得到所述多个质检模型的多个质检结果,并对所述多个质检结果复核。
所述计算模块将复核后的所述多个质检结果作为验证集,并将所述验证集加入训练中,每步完成后进行验证,以计算准确率与召回率。
所述设定模块设置所述准确率的阈值A与所述召回率的阈值B,並从学习率的初始值始训练。
所述判断与调整模块于所述准确率达到所述阈值A与所述召回率达到所述阈值B时,保存所述多个质检模型并将所述学习率减去固定值,使所述多个质检模型在特定参数范围内调整,判断所述准确率是否小于所述阈值A和所述召回率是否小于所述阈值B,当所述准确率大于所述阈值A时,或者当所述准确率不大于所述阈值且所述召回率大于所述阈值B,则将所述学习率减去所述固定值,及当所述准确率不大于所述阈值A且所述召回率不大于所述阈值B,则将所述学习率调回所述初始值。
进一步地,所述多个算法至少包括BILSTM RNN+Attention、BiLSTM RNN、LSTM RNN与Text CNN,且所述多个质检模型至少包括BI-LSTM(双向长短时记忆)RNN(循环神经网络)模型与BI-LSTM Attention模型。
进一步地,所述准确率=正确预测违规的消息数/(所述正确预测违规的消息数+错误预测违规的消息数),及所述召回率=所述正确预测违规的消息数/所述验证集中实际违规的消息数。
为实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述学习模型优化与选择方法的步骤。
为实现上述目的,本发明还提供计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述学习模型优化与选择方法的步骤。
相较于现有技术,本发明之学习模型优化与选择方法,使模型训练人员更加直观的了解到了模型可能的效果,而配套的参数调优方法使得模型能够比较快速的得到较为准确、稳定的中间模型,从而使得项目能够快速投产。
附图说明
图1系显示本发明实施例之电子装置的硬件架构示意图;
图2系显示本发明实施例之学习模型优化与选择系统的功能方块图;及
图3系显示本发明实施例之学习模型优化与选择方法的步骤流程图。
附图标记:
电子装置 | 10 |
存储器 | 110 |
处理器 | 120 |
学习模型优化与选择系统 | 130 |
数据收集模块 | 210 |
模型生成模块 | 220 |
预测模块 | 230 |
计算模块 | 240 |
设定模块 | 250 |
判断与调整模块 | 260 |
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
图1系显示本发明实施例之电子装置的硬件架构示意图。电子装置10,但不仅限于,可通过系统总线相互通信连接存储器110、处理器120以及学习模型优化与选择系统130,图1仅示出了具有组件110-130的电子装置10,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
所述存储器110至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器110可以是所述电子装置10的内部存储单元,例如该电子装置10的硬盘或内存。在另一些实施例中,所述存储器也可以是所述电子装置10的外部存储设备,例如该电子装置10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器110还可以既包括所述电子装置100的内部存储单元也包括其外部存储设备。本实施例中,所述存储器110通常用于存储安装于所述电子装置10的操作系统和各类应用软件,例如学习模型优化与选择系统130的程序代码等。此外,所述存储器110还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器120在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器120通常用于控制所述电子装置10的总体操作。本实施例中,所述处理器120用于运行所述存储器110中存储的程序代码或者处理数据,例如,运行所述学习模型优化与选择系统130等。
图2系显示本发明实施例之学习模型优化与选择系统的功能方块图。本发明实施例之电子装置10包括数据收集模块210、模型生成模块220、预测模块230、计算模块240、设定模块250与判断与调整模块260。
在训练模型时,数据收集模块210在生产数据中收集一天的脱敏数据。
数据脱敏(Data Masking)又称数据漂白、数据去隐私化或数据变形,意指对某些敏感信息通过脱敏规则进行数据的变形,以实现敏感隐私数据的可靠保护。在涉及客户安全数据或者一些商业性敏感数据的情况下,在不违反系统规则条件下,对真实数据进行改造并提供测试使用,如身份证号、手机号、卡号、客户号等个人信息都需要进行数据脱敏。
模型生成模块220通过算法对所述脱敏数据进行计算以生成不同类型的质检模型。算法包括:BILSTM RNN+Attention、BiLSTM RNN、LSTM RNN、Text CNN等等。生成的质检模型中,有的质检模型准确率较高,但召回率比较低,有的质检模型准确率适中,召回率较高。所述质检模型至少包括BI-LSTM(双向长短时记忆)RNN(循环神经网络)模型与BI-LSTMAttention模型。
所述质检模型在训练过程中保存不同的模型文件。所述模型文件为所述质检模型之文件内部保存的一些参数,输入一条消息,经过判断后输出这条消息违反哪个质检点或者不违规。
比如,[你真是个傻子],在数据集中被标注为违反“侮辱客户”这个质检点;[我真是个傻子,如果记得带钥匙,就不至于一直在门外等着了],在数据集中会标注为“正常”;[我的联系方式是18911111111,请惠存],在数据集中被标注为“私留联系方式”;大量(如上百万条)的违规与合规数据组成训练集,通过算法训练生成模型,再次输入一些类似语义的消息[你是个傻子吧],模型将这条消息标记为违反“侮辱客户”这个质检点。
上述参数具体保存在一个后缀为(.pb)的文件中,这个文件中保存了模型的结构(就是BILSTM RNN等)和模型中不同神经网络节点的参数(参数具体的样子就是实数)。提供给业务一个标注系统,简单描述是分两列,第一列是消息(如:你就是个傻子),第二列是由业务人员填写是否违反质检点,违反哪种质检点。
预测模块230利用所述多个质检模型进行预测,可得到多个质检模型的质检结果,并对所述质检结果复核,例如,由业务人员复核,或者经由复核系统复核。具体来说就是加载上面说的pb文件,并调用tensorflow框架提供的接口,将消息传入接口后,消息数据与pb文件中保存的参数进行计算,得到预测结果(即质检结果)。若质检模型给出的违规结果不正确,则进行更正。
计算模块240将复核后的质检结果作为验证集,并将所述验证集加入训练中,每步完成后进行验证,以计算准确率与召回率。准确率=正确预测违规的消息数/(正确预测违规的消息数+错误预测违规的消息数)。召回率=正确预测违规的消息数/验证集中实际违规的消息数。
设定模块250设置准确率与召回率的阈值,例如A和B,从学习率的初始值(Z=default value)开始训练。观察训练过程中质检模型的准确率和召回率等指标的变化趋势设定阈值,比如准确率需要大于0.7,召回率需要大于0.4。
学习率调参是调参中非常重要的一个点,表示每次更新参数的幅度大小。如果学习率设置的太大,会导致待优化的参数在最小值附近波动,不收敛而使网络跳过最优值,如果设置的太小,会导致待优化的参数收敛缓慢而使学习率的收敛速度太慢。质检模型的阈值是经过很多次训练总结出来的,比如在一次训练中,迭代从1到100000,统计质检模型在此期间的准确率和召回率(每一次迭代都计算一次准确率和召回率),并选择准确率和召回率中的较高点(如,最大值*0.9)作为各自的阈值。
当准确率与召回率达到该阈值时(X=A and Y=B),判断与调整模块460保存质检模型并降低学习率,即将所述学习率减去固定值(Z–M,但Z–M>C(最低阈值,例如,0.00001)),使质检模型在此较优的(特定的)参数范围内小幅度调整。比如说,当准确率与召回率达到该阈值时,将学习率降低预设倍率,例如,10倍(Z/10)。
较优的参数范围说明如下。学习率是用来控制调节参数的程度的,比如说模型中的一个参数是w,它在模型训练的第t步(每一步调整一次w的取值)的值为w_t,经过梯度下降法(一种参数调优算法)参数计算得到在t+1步时,这个w应该增大,这时增加的数字需要与学习率相乘,用以控制这个参数不至于调节的太过了。
比如说,最佳的w取值是0.9,此时w_t是0.8,如果学习率是1那么0.8增大1变成1.8,就调整过头了,而且永远不会调整成0.9。但如果学习率是0.001,那么经过100步,是一定会调整成0.9。如果学习率是0.1,那么经过1步就可以调整到0.9。所以,大的学习率可以加速调优,能够迅速把参数调整到比较合理的区域,而要更加精确的找到最优参数,需要用较小的学习率进行细粒度的调整。
此处的较优的参数范围是指:由于准确率或召回率达到了设定的阈值,那么就可以认为此时模型内部的参数在合理的范围内,是符合要求的,而这时要找到最优参数的话,需要降低学习率进行细粒度的调整。
判断与调整模块460判断准确率是否小于阈值A和召回率是否小于阈值B。当准确率大于阈值A时(X>A),或者当准确率不大于阈值A(X≤A)且召回率大于阈值B(X≤A&Y>B),则判断与调整模块460降低学习率,即将所述学习率减去固定值(Z–M,但Z–M>C(最低阈值,例如,0.00001))。当准确率不大于阈值A(X≤A)且召回率不大于阈值B(Y≤B),则判断与调整模块460将学习率调回初始值(Z=default value)。
以下以一个具体场景说明本发明方法的实际操作流程。
每天都会生成近百万的数据,首先通过多个模型进行筛选,筛选出一些最有可能违规的消息,和多个模型都认为不违规的消息,违规数据交给业务人员复核。复核时间是一天,则第二天将业务人员返回的人工质检消息与不违规的数据整合作为训练集进行训练。在训练过程中,初始学习率比较大(0.001),这就意味着:在一次训练迭代中,为了缩短预测值与真实值之间的差距,而进行参数调整的幅度为该参数调整方向(正或者负)0.001个单位(1个单位就是1),这使得模型能快速调整到适当的范围(预测值与真实值距离小,同时也意味着模型的准确率和召回率达到了我们的阈值),此时缩小学习率(变为原来的0.1倍),以更小的学习率进行参数调整。若下次模型依然符合要求,则再次缩小(0.1倍),此后一直保持(0.00001),直到模型不符合要求后,学习率再次调整为0.001。
图3系显示本发明实施例之学习模型优化与选择方法的步骤流程图。
步骤301,在训练模型时,在生产数据中收集一天的脱敏数据。
数据脱敏(Data Masking)又称数据漂白、数据去隐私化或数据变形,意指对某些敏感信息通过脱敏规则进行数据的变形,以实现敏感隐私数据的可靠保护。在涉及客户安全数据或者一些商业性敏感数据的情况下,在不违反系统规则条件下,对真实数据进行改造并提供测试使用,如身份证号、手机号、卡号、客户号等个人信息都需要进行数据脱敏。
步骤302,通过算法对所述脱敏数据进行计算以生成不同类型的质检模型。算法包括:BILSTM RNN+Attention、BiLSTM RNN、LSTM RNN、Text CNN等等。生成的质检模型中,有的质检模型准确率较高,但召回率比较低,有的质检模型准确率适中,召回率较高。所述质检模型至少包括BI-LSTM(双向长短时记忆)RNN(循环神经网络)模型与BI-LSTM Attention模型。
所述质检模型在训练过程中保存不同的模型文件。所述模型文件为所述质检模型之文件内部保存的一些参数,输入一条消息,经过判断后输出这条消息违反哪个质检点或者不违规。
比如,[你真是个傻子],在数据集中被标注为违反“侮辱客户”这个质检点;[我真是个傻子,如果记得带钥匙,就不至于一直在门外等着了],在数据集中会标注为“正常”;[我的联系方式是18911111111,请惠存],在数据集中被标注为“私留联系方式”;大量(如上百万条)的违规与合规数据组成训练集,通过算法训练生成模型,再次输入一些类似语义的消息[你是个傻子吧],模型将这条消息标记为违反“侮辱客户”这个质检点。
上述参数具体保存在一个后缀为(.pb)的文件中,这个文件中保存了模型的结构(就是BILSTM RNN等)和模型中不同神经网络节点的参数(参数具体的样子就是实数)。提供给业务一个标注系统,简单描述是分两列,第一列是消息(如:你就是个傻子),第二列是由业务人员填写是否违反质检点,违反哪种质检点。
步骤303,利用所述多个质检模型进行预测,可得到多个质检模型的质检结果,并对所述质检结果复核,例如,由业务人员复核,或者经由复核系统复核。具体来说就是加载上面说的pb文件,并调用tensorflow框架提供的接口,将消息传入接口后,消息数据与pb文件中保存的参数进行计算,得到预测结果(即质检结果)。若质检模型给出的违规结果不正确,则进行更正。
步骤304,将复核后的质检结果作为验证集,并加入训练中,每步完成后进行验证,以计算准确率与召回率。准确率=正确预测违规的消息数/(正确预测违规的消息数+错误预测违规的消息数)。召回率=正确预测违规的消息数/验证集中实际违规的消息数。
步骤305,设置准确率与召回率的阈值,例如A和B,从学习率的初始值(Z=defaultvalue)开始训练。观察训练过程中质检模型的准确率和召回率等指标的变化趋势设定阈值,比如准确率需要大于0.7,召回率需要大于0.4。
质检模型的阈值是经过很多次训练总结出来的,比如在一次训练中,迭代从1到100000,统计质检模型在此期间的准确率和召回率(每一次迭代都计算一次准确率和召回率),并选择准确率和召回率中的较高点(如,最大值*0.9)作为各自的阈值。
步骤306,当准确率与召回率达到该阈值时(X=A and Y=B),则保存质检模型并降低学习率(Z–M,但Z–M>C(最低阈值,例如,0.00001)),使质检模型在此较优的(特定的)参数范围内小幅度调整。比如说,当准确率与召回率达到该阈值时,将学习率降低预设倍率,例如,10倍(Z/10)。
较优的参数范围说明如下。学习率是用来控制调节参数的程度的,比如说模型中的一个参数是w,它在模型训练的第t步(每一步调整一次w的取值)的值为w_t,经过梯度下降法(一种参数调优算法)参数计算得到在t+1步时,这个w应该增大,这时增加的数字需要与学习率相乘,用以控制这个参数不至于调节的太过了。
比如说,最佳的w取值是0.9,此时w_t是0.8,如果学习率是1那么0.8增大1变成1.8,就调整过头了,而且永远不会调整成0.9。但如果学习率是0.001,那么经过100步,是一定会调整成0.9。如果学习率是0.1,那么经过1步就可以调整到0.9。所以,大的学习率可以加速调优,能够迅速把参数调整到比较合理的区域,而要更加精确的找到最优参数,需要用较小的学习率进行细粒度的调整。
此处的较优的参数范围是指:由于准确率或召回率达到了设定的阈值,那么就可以认为此时模型内部的参数在合理的范围内,是符合要求的,而这时要找到最优参数的话,需要降低学习率进行细粒度的调整。
步骤307,判断准确率是否小于阈值A和召回率是否小于阈值B。
步骤308,当准确率大于阈值A时(X>A),或者当准确率不大于阈值(X≤A)且召回率大于阈值(X≤A&Y>B),则降低学习率(Z–M,但Z–M>C(最低阈值,例如,0.00001))。
步骤309,当准确率不大于阈值(X≤A)且召回率不大于阈值(Y≤B),则学习率调回初始值(Z=default value)。
本发明方法经由设置准确率与召回率以不断的训练与测试质检模型,使模型训练人员更加直观的了解到了模型可能的效果,而配套的参数调优方法使得模型能够比较快速的得到较为准确、稳定的中间模型,从而使得项目能够快速投产。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种学习模型优化与选择方法,应用于电子装置中,其特征在于,所述方法包括步骤:
在训练模型时,在生产数据中收集固定时间周期内的脱敏数据;
通过多个算法对所述脱敏数据进行计算以生成多个不同类型的质检模型;
利用所述多个质检模型进行预测,可得到所述多个质检模型的多个质检结果,并对所述多个质检结果复核;
将复核后的所述多个质检结果作为验证集,并将所述验证集加入训练中,每步完成后进行验证,以计算准确率与召回率;
设置所述准确率的阈值A与所述召回率的阈值B,并从学习率的初始值始训练;
当所述准确率达到所述阈值A与所述召回率达到所述阈值B时,则保存所述多个质检模型并将所述学习率减去固定值,使所述多个质检模型在特定参数范围内调整;
判断所述准确率是否小于所述阈值A和所述召回率是否小于所述阈值B;
当所述准确率大于所述阈值A时,或者当所述准确率不大于所述阈值A且所述召回率大于所述阈值B,则将所述学习率减去所述固定值;及
当所述准确率不大于所述阈值A且所述召回率不大于所述阈值B,则将所述学习率调回所述初始值。
2.如权利要求1所述之学习模型优化与选择方法,其特征在于,所述多个算法至少包括BILSTM RNN+Attention、BiLSTM RNN、LSTM RNN与Text CNN,且所述多个质检模型至少包括BI-LSTM、RNN模型与BI-LSTM Attention模型中的一种或几种。
3.如权利要求2所述之学习模型优化与选择方法,其特征在于,所述多个质检模型在训练过程中保存多个模型文件,所述多个模型文件为所述质检模型之文件内部保存的多个参数。
4.如权利要求1所述之学习模型优化与选择方法,其特征在于,所述多个参数保存在一个后缀为‘.pb’的文件中。
5.如权利要求1所述之学习模型优化与选择方法,其特征在于,所述准确率=正确预测违规的消息数/(所述正确预测违规的消息数+错误预测违规的消息数),及所述召回率=所述正确预测违规的消息数/所述验证集中实际违规的消息数。
6.一种电子装置,其特征在于,包括:
数据收集模块,用于在训练模型时,在生产数据中收集固定时间周期内的脱敏数据;
模型生成模块,用于通过多个算法对所述脱敏数据进行计算以生成多个不同类型的质检模型;
预测模块,用于利用所述多个质检模型进行预测,可得到所述多个质检模型的多个质检结果,并对所述多个质检结果复核;
计算模块,用于将复核后的所述多个质检结果作为验证集,并将所述验证集加入训练中,每步完成后进行验证,以计算准确率与召回率;
设定模块,用于设置所述准确率的阈值A与所述召回率的阈值B,並从学习率的初始值始训练;及
判断与调整模块,用于当所述准确率达到所述阈值A与所述召回率达到所述阈值B时,则保存所述多个质检模型并将所述学习率减去固定值,使所述多个质检模型在特定参数范围内调整,判断所述准确率是否小于所述阈值A和所述召回率是否小于所述阈值B,当所述准确率大于所述阈值A时,或者当所述准确率不大于所述阈值且所述召回率大于所述阈值B,则将所述学习率减去所述固定值,及当所述准确率不大于所述阈值A且所述召回率不大于所述阈值B,则将所述学习率调回所述初始值。
7.如权利要求6所述之电子装置,其特征在于,所述多个算法至少包括BILSTM RNN+Attention算法、BiLSTM RNN算法、LSTM RNN算法及Text CNN算法中的一种或多种,且所述多个质检模型至少包括BI-LSTM、RNN模型与BI-LSTM Attention模型中的一种或多种。
8.如权利要求6所述之学习模型优化与选择方法,其特征在于,所述准确率=正确预测违规的消息数/(所述正确预测违规的消息数+错误预测违规的消息数),及所述召回率=所述正确预测违规的消息数/所述验证集中实际违规的消息数。
9.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5任一项学习模型优化与选择方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至5任一项学习模型优化与选择方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811524499.0A CN109740759B (zh) | 2018-12-13 | 2018-12-13 | 学习模型优化与选择方法、电子装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811524499.0A CN109740759B (zh) | 2018-12-13 | 2018-12-13 | 学习模型优化与选择方法、电子装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109740759A true CN109740759A (zh) | 2019-05-10 |
CN109740759B CN109740759B (zh) | 2024-05-03 |
Family
ID=66358934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811524499.0A Active CN109740759B (zh) | 2018-12-13 | 2018-12-13 | 学习模型优化与选择方法、电子装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740759B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288192A (zh) * | 2019-05-23 | 2019-09-27 | 平安科技(深圳)有限公司 | 基于多个质检模型的质检方法、装置、设备及存储介质 |
CN110399262A (zh) * | 2019-06-17 | 2019-11-01 | 平安科技(深圳)有限公司 | 运维监测告警收敛方法、装置、计算机设备及存储介质 |
CN110866437A (zh) * | 2019-09-23 | 2020-03-06 | 平安科技(深圳)有限公司 | 颜值判定模型优化方法、装置、电子设备及存储介质 |
CN111708810A (zh) * | 2020-06-17 | 2020-09-25 | 北京世纪好未来教育科技有限公司 | 模型优化推荐方法、装置和计算机存储介质 |
CN111862041A (zh) * | 2020-07-21 | 2020-10-30 | 华夏天信(北京)智能低碳技术研究院有限公司 | 一种基于模板匹配的井底井筒尾绳断裂检测方法 |
CN112437135A (zh) * | 2020-11-11 | 2021-03-02 | 聊城大学 | 一种英语教学系统及其使用方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446388A (zh) * | 2018-03-22 | 2018-08-24 | 平安科技(深圳)有限公司 | 文本数据质检方法、装置、设备及计算机可读存储介质 |
WO2018153806A1 (en) * | 2017-02-24 | 2018-08-30 | Deepmind Technologies Limited | Training machine learning models |
CN108537289A (zh) * | 2018-04-24 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 数据识别模型的训练方法、装置及存储介质 |
CN108846835A (zh) * | 2018-05-31 | 2018-11-20 | 西安电子科技大学 | 基于深度可分离卷积网络的图像变化检测方法 |
-
2018
- 2018-12-13 CN CN201811524499.0A patent/CN109740759B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018153806A1 (en) * | 2017-02-24 | 2018-08-30 | Deepmind Technologies Limited | Training machine learning models |
CN108446388A (zh) * | 2018-03-22 | 2018-08-24 | 平安科技(深圳)有限公司 | 文本数据质检方法、装置、设备及计算机可读存储介质 |
CN108537289A (zh) * | 2018-04-24 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 数据识别模型的训练方法、装置及存储介质 |
CN108846835A (zh) * | 2018-05-31 | 2018-11-20 | 西安电子科技大学 | 基于深度可分离卷积网络的图像变化检测方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288192A (zh) * | 2019-05-23 | 2019-09-27 | 平安科技(深圳)有限公司 | 基于多个质检模型的质检方法、装置、设备及存储介质 |
CN110399262A (zh) * | 2019-06-17 | 2019-11-01 | 平安科技(深圳)有限公司 | 运维监测告警收敛方法、装置、计算机设备及存储介质 |
CN110866437A (zh) * | 2019-09-23 | 2020-03-06 | 平安科技(深圳)有限公司 | 颜值判定模型优化方法、装置、电子设备及存储介质 |
CN111708810A (zh) * | 2020-06-17 | 2020-09-25 | 北京世纪好未来教育科技有限公司 | 模型优化推荐方法、装置和计算机存储介质 |
CN111708810B (zh) * | 2020-06-17 | 2022-05-27 | 北京世纪好未来教育科技有限公司 | 模型优化推荐方法、装置和计算机存储介质 |
CN111862041A (zh) * | 2020-07-21 | 2020-10-30 | 华夏天信(北京)智能低碳技术研究院有限公司 | 一种基于模板匹配的井底井筒尾绳断裂检测方法 |
CN112437135A (zh) * | 2020-11-11 | 2021-03-02 | 聊城大学 | 一种英语教学系统及其使用方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109740759B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740759A (zh) | 学习模型优化与选择方法、电子装置及计算机设备 | |
CN109635110A (zh) | 数据处理方法、装置、设备以及计算机可读存储介质 | |
CN102077201A (zh) | 用于网页的动态及实时归类的系统及方法 | |
CN110263152A (zh) | 基于神经网络的文本分类方法、系统及计算机设备 | |
CN107798341A (zh) | 用户意图预测方法、电子设备及计算机可读存储介质 | |
CN110378386A (zh) | 基于有监督的无标记异常识别方法、装置及存储介质 | |
CN112633962A (zh) | 业务推荐方法、装置、计算机设备和存储介质 | |
CN107807967A (zh) | 实时推荐方法、电子设备及计算机可读存储介质 | |
CN107748898A (zh) | 文件分类方法、装置、计算设备及计算机存储介质 | |
CN114693192A (zh) | 风控决策方法、装置、计算机设备和存储介质 | |
CN112307464A (zh) | 诈骗识别方法、装置及电子设备 | |
CN106934383A (zh) | 文件中图片标注信息识别方法、装置及服务器 | |
CN114612011A (zh) | 一种风险防控决策方法及装置 | |
CN112835682B (zh) | 一种数据处理方法、装置、计算机设备和可读存储介质 | |
CN112187653B (zh) | 一种网络流量判定方法和系统 | |
CN112134898A (zh) | 一种网络流量判定方法和系统 | |
CN114298829A (zh) | 用于授信评估的数据处理方法和装置 | |
KR20210001287A (ko) | 사용자의 화장품 평가정보를 이용하여 성분지수를 산출하고, 이를 기반으로 화장품을 추천하는 방법 | |
CN114298823A (zh) | 用于模型构建的数据处理方法和装置 | |
CN111898626B (zh) | 模型确定方法、装置和电子设备 | |
CN111651652B (zh) | 基于人工智能的情感倾向识别方法、装置、设备及介质 | |
CN114020757A (zh) | 基于区块链的景区旅客不诚信名单更新方法和相关装置 | |
CN110322341B (zh) | 信用标签的确定方法和装置 | |
CN112187652A (zh) | 一种特征判定规则建立以及网络流量判定方法和系统 | |
CN111522747A (zh) | 一种应用程序的处理方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |