CN109740634A - 分类模型训练方法和终端设备 - Google Patents

分类模型训练方法和终端设备 Download PDF

Info

Publication number
CN109740634A
CN109740634A CN201811509567.6A CN201811509567A CN109740634A CN 109740634 A CN109740634 A CN 109740634A CN 201811509567 A CN201811509567 A CN 201811509567A CN 109740634 A CN109740634 A CN 109740634A
Authority
CN
China
Prior art keywords
training
model
test
data
test result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811509567.6A
Other languages
English (en)
Inventor
王威
赵正旭
吴又奎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Hengyun Co Ltd
Original Assignee
Zhongke Hengyun Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Hengyun Co Ltd filed Critical Zhongke Hengyun Co Ltd
Priority to CN201811509567.6A priority Critical patent/CN109740634A/zh
Publication of CN109740634A publication Critical patent/CN109740634A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明适用于机器学习技术领域,提供了一种分类模型训练方法和终端设备,其中,所述的分类模型训练方法包括:获取预设的预训练模型和数据集;将数据集划分为训练集和测试集;根据训练集训练预训练模型;根据测试集测试训练后的预训练模型,并获取测试结果;根据测试结果对训练后的预训练模型进行评估。本发明实施例提供的分类模型训练方法和终端设备,由于预训练模型是已应用于其他分类问题的模型,相较于新建模型,对其进行适应性训练和局部优化所需的时间和数据量必然大幅减小,从而解决了现有技术对机器分类模型进行训练时耗时较长和训练所需数据过多的问题。

Description

分类模型训练方法和终端设备
技术领域
本发明属于机器学习技术领域,尤其涉及一种分类模型训练方法和终端设备。
背景技术
在传统的机器学习的框架下,学习的任务就是在给定的训练数据的基础上,通过不断优化模型的参数而得到一个符合预期学习效果的分类模型,然后利用这个分类模型执行自动分类或判断的工作,例如,对文档进行分类。然而,机器学习在当前的研究中存在着两个关键的问题:
(1)耗时长。以深度学习为例,深度学习是一个大型的神经网络模型,层数比较多,训练需要耗费很长时间,且越复杂的神经网络模型所需要的训练数据越多,训练所需时间也就越多。
(2)消耗资源。仍以深度学习为例,大型神经网络模型的训练需要大量数据支撑,至少需要数千或数百万个标记样本。海量训练数据需要人工预先完成标注或分类,以保证训练的可靠性,消耗了大量的人力与物力。大量的训练数据、模型参数以及模型各层响应还会消耗大量内存。
发明内容
有鉴于此,本发明实施例提供了一种分类模型训练方法和终端设备,以解决现有技术对机器分类模型进行训练时耗时较长和训练所需数据过多的问题。
根据第一方面,本发明实施例提供了一种分类模型训练方法,包括:获取预设的预训练模型和数据集;将所述数据集划分为训练集和测试集;根据所述训练集训练所述预训练模型;根据所述测试集测试训练后的所述预训练模型,并获取测试结果;根据所述测试结果对训练后的所述预训练模型进行评估。
本发明实施例提供的分类模型训练方法,改变了普通机器学习直接对一个新建的分类模型进行训练的方式,通过有限的新数据对预训练模型进行训练,从而优化预训练模型中的部分参数,使其适应新的数据分类任务,从而达到快速完成分类模型训练的目的。由于预训练模型是已应用于其他分类问题的模型,相较于新建模型,对其进行适应性训练和局部优化所需的时间和数据量必然大幅减小,从而解决了现有技术对机器分类模型进行训练时耗时较长和训练所需数据过多的问题。
结合第一方面,在第一方面第一实施方式中,所述将所述数据集划分为训练集和测试集,包括:将所述数据集划分为两个互斥的集合;确定所述两个互斥的集合中的任意一个集合为所述训练集;确定所述两个互斥的集合中的另一个集合为所述测试集。
本发明实施例提供的分类模型训练方法,通过将数据量有限的数据集进行不同方式的划分,每次划分过程将数据集均划分为互斥的训练集和测试集,从而能够利用每次划分所得训练集对预训练模型进行训参数优化训练,并利用每次划分所得测试集对训练后的预训练模型进行测试,从而实现了有限数据为基础的模型优化训练。
结合第一方面第一实施方式,在第一方面第二实施方式中,所述训练集和所述测试集具有相同的数据分布特性。
本发明实施例提供的分类模型训练方法,为了避免每次划分数据集时引入额外的偏差而对最终的模型训练结果产生影响,在划分的时候尽可能保证数据分布的一致性。
结合第一方面,在第一方面第三实施方式中,所述将所述数据集划分为训练集和测试集,包括:将所述数据集划分为若干相同大小的子集;确定所述子集中的任意一个子集为所述训练集;将所述子集中的其他子集合并,并将合并后的所述子集中的其他子集作为测试集。
本发明实施例提供的分类模型训练方法,通过将数据量有限的数据集划分为多个子集,进而利用不同的子集构建训练集和对应的测试集;通过对子集的遍历能够推演出多组不同的训练集和对应的测试集,从而实现了有限数据为基础的模型优化训练。
结合第一方面,在第一方面第四实施方式中,所述将所述数据集划分为训练集和测试集,包括:对所述数据集进行若干次有放回抽样,并获取对应的抽样样本;将所述抽样样本合并,并确定合并后的所述抽样样本为所述训练集;确定所述数据集中不同于所述训练集的样本的集合为所述测试集。
本发明实施例提供的分类模型训练方法,通过抽样的方式将数据量有限的数据集划分为训练集和对应的测试集,由于每次抽样所获样本不同,使得通过抽样能够在数据量有限的数据集上获得多组不同的训练集和对应的测试集,从而实现了有限数据为基础的模型优化训练。
结合第一方面或第一方面第一至第四中的任一实施方式,在第一方面第五实施方式中,所述根据所述测试结果对训练后的所述预训练模型进行评估,包括:判断所述测试结果是否符合预设的应用需求;当所述测试结果符合预设的应用需求时,输出训练后的所述预训练模型。
本发明实施例提供的分类模型训练方法,在利用训练集对预训练模型进行局部优化训练,以及利用测试集对预训练模型进行测试之后,通过比较测试结果与预设的应用需求之间是否符合,判断是否结束对预训练模型的优化训练,能够在每次训练后及时检验训练效果,避免训练达标后仍进行训练而造成时间损耗。
结合第一方面第五实施方式,在第一方面第六实施方式中,所述根据所述测试结果对训练后的所述预训练模型进行评估,还包括:当所述测试结果不符合预设的应用需求时,重复执行所述将所述数据集划分为训练集和测试集;根据所述训练集训练所述预训练模型;根据所述测试集测试训练后的所述预训练模型,并获取测试结果;根据所述测试结果对训练后的所述预训练模型进行评估的步骤,直至所述测试结果符合预设的应用需求。
本发明实施例提供的分类模型训练方法,利用测试集对预训练模型进行测试之后,如果发现模型仍不满足预设的应用需求时,通过更新训练集能够反复对预训练模型进行优化训练,从而保证最终所得分类模型能够符合预设的应用需求,保证分类模型在今后实际应用中的安全性和可靠性。
根据第二方面,本发明实施例提供了一种分类模型训练装置,包括:输入单元,用于获取预设的预训练模型和数据集;数据划分单元,用于将所述数据集划分为训练集和测试集;训练单元,用于根据所述训练集训练所述预训练模型;测试单元,用于根据所述测试集测试训练后的所述预训练模型,并获取测试结果;评估单元,用于根据所述测试结果对训练后的所述预训练模型进行评估。
根据第三方面,本发明实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面或第一方面任一实施方式所述的分类模型训练方法的步骤。
根据第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面或第一方面任一实施方式所述的分类模型训练方法的步骤。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的分类模型训练方法的一个具体示例的流程图;
图2是本发明实施例提供的分类模型训练方法的另一个具体示例的流程图;
图3是本发明实施例提供的分类模型训练方法的第三个具体示例的流程图;
图4是本发明实施例提供的分类模型训练方法的第四个具体示例的流程图;
图5是本发明实施例提供的分类模型训练装置的一个具体示例的结构示意图;
图6是本发明实施例提供的终端设备的一个具体示例的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
本发明实施例提供了一种分类模型训练方法,如图1所示,该分类模型训练方法可以包括以下步骤:
步骤S101:获取预设的预训练模型和数据集。在一具体实施方式中,预训练模型可以是为了解决类似的分类或识别等问题所创造出来的模型。一个预训练模型可能对于应用中并不是100%的准确对口,但是它可以为模型训练节省大量时间。数据集可以是为了具体应用而采集并标记的数据,其数据量相对有限。由于预训练模型是已经经过其他的大量类似结构的数据训练过的模型,因此,对其进行适应性的局部参数优化时,并不像训练一个全新模型那样需要海量的训练数据。使用与具体应用相契合的有限数据,对预训练模型稍加调整,能够使模型应用于全新的领域并解决新的分类问题。
步骤S102:将数据集划分为训练集和测试集。在一具体实施方式中,如图2所示,可以通过以下几个子步骤实现步骤S102将数据集划分为训练集和测试集的过程:
步骤S1021:将数据集划分为两个互斥的集合。
步骤S1022:确定两个互斥的集合中的任意一个集合为训练集。
步骤S1023:确定两个互斥的集合中的另一个集合为测试集。在实际应用中,为了避免每次划分数据集时引入额外的偏差而对最终的模型训练结果产生影响,在划分的时候尽可能保证数据分布的一致性。通过将数据量有限的数据集进行不同方式的划分,每次划分过程将数据集均划分为互斥的训练集和测试集,从而能够利用每次划分所得训练集对预训练模型进行训参数优化训练,并利用每次划分所得测试集对训练后的预训练模型进行测试,从而实现了有限数据为基础的模型优化训练。
在另一具体实施方式中,如图3所示,可以通过以下几个子步骤实现步骤S102将数据集划分为训练集和测试集的过程:
步骤S1024:将数据集划分为若干相同大小的子集。
步骤S1025:确定子集中的任意一个子集为训练集。
步骤S1026:将子集中的其他子集合并,并将合并后的子集中的其他子集作为测试集。通过将数据量有限的数据集划分为多个子集,进而利用不同的子集构建训练集和对应的测试集。通过对子集的遍历能够推演出多组不同的训练集和对应的测试集,从而实现了有限数据为基础的模型优化训练。
此外,在实际应用中,如图4所示,还可以通过以下几个子步骤实现步骤S102将数据集划分为训练集和测试集的过程:
步骤S1027:对数据集进行若干次有放回抽样,并获取对应的抽样样本。
步骤S1028:将抽样样本合并,并确定合并后的抽样样本为训练集。
步骤S1029:确定数据集中不同于训练集的样本的集合为测试集。通过抽样的方式可以将数据量有限的数据集划分为训练集和对应的测试集。由于每次抽样所获样本不同,使得通过抽样能够在数据量有限的数据集上获得多组不同的训练集和对应的测试集,从而实现了有限数据为基础的模型优化训练。
步骤S103:根据训练集训练预训练模型。通过步骤S102后,数据集被划分为一组训练集和测试集。利用训练集的数据,能够对预训练模型进行局部优化训练,调整预训练模型中某些中间层的参数,使调整或改造后的预训练模型适用于构成数据集的数据类型,进而将调整或改造后的预训练模型应用于对应数据类型的分类或识别等任务中。
步骤S104:根据测试集测试训练后的预训练模型,并获取测试结果。利用测试集能够对训练后的预训练模型进行分类效果的测试,从而检验训练后的预训练模型是否能够应用于对应数据类型的分类或识别等任务中。
步骤S105:根据测试结果对训练后的预训练模型进行评估。如图2至图4所示,可以通过以下几个子步骤实现步骤S105根据测试结果对训练后的预训练模型进行评估:
步骤S1051:判断测试结果是否符合预设的应用需求。当测试结果符合预设的应用需求时,执行步骤S1052;当测试结果不符合预设的应用需求时,返回执行步骤S102。
步骤S1052:输出训练后的预训练模型。在一具体实施方式中,测试结果可以是经训练集训练后的预训练模型对测试集的分类正确率。当分类正确率等于或大于预设阈值,即测试结果符合预设的应用需求时,可以认为对预训练模型的局部优化已到达预期目的,该模型能够可靠应用于对应数据类型的分类或识别等任务中。
当分类正确率小于预设阈值,即测试结果不符合预设的应用需求时,说明预训练模型仍需继续进行优化训练。通过重复执行步骤S102至步骤S104,能够实现不同的训练集及其对应测试集对预训练模型的反复训练和测试,从而不断优化预训练模型的局部参数,最终使测试结果符合预设的应用需求,从而保证本发明实施例最终输出的预训练模型能够可靠应用于对应数据类型的分类或识别等任务中。
应理解,上述方法实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本发明实施例提供的分类模型训练方法,改变了普通机器学习直接对一个新建的分类模型进行训练的方式,通过有限的新数据对预训练模型进行训练,从而优化预训练模型中的部分参数,使其适应新的数据分类任务,从而达到快速完成分类模型训练的目的。由于预训练模型是已应用于其他分类问题的模型,相较于新建模型,对其进行适应性训练和局部优化所需的时间和数据量必然大幅减小,从而解决了现有技术对机器分类模型进行训练时耗时较长和训练所需数据过多的问题。
本发明实施例还提供了一种分类模型训练装置,如图5所示,该分类模型训练装置可以包括:输入单元501、数据划分单元502、训练单元503、测试单元504和评估单元505。
其中,输入单元501用于获取预设的预训练模型和数据集;其具体的工作过程可参见上述方法实施例中步骤S101所述。
数据划分单元502用于将数据集划分为训练集和测试集;其具体的工作过程可参见上述方法实施例中步骤S102所述。
训练单元503用于根据训练集训练预训练模型;其具体的工作过程可参见上述方法实施例中步骤S103所述。
测试单元504用于根据测试集测试训练后的预训练模型,并获取测试结果;其具体的工作过程可参见上述方法实施例中步骤S104所述。
评估单元505用于根据测试结果对训练后的预训练模型进行评估;其具体的工作过程可参见上述方法实施例中步骤S105所述。
本发明实施例还提供了一种终端设备,如图6所示,该终端设备可以包括处理器601和存储器602,其中处理器601和存储器602可以通过总线或者其他方式连接,图6中以通过总线连接为例。
处理器601可以为中央处理器(Central Processing Unit,CPU)。处理器601还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器602作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明实施例中的分类模型训练方法对应的程序指令/模块(例如,图5所示的输入单元501、数据划分单元502、训练单元503、测试单元504和评估单元505)。处理器601通过运行存储在存储器602中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施例中的分类模型训练方法或分类模型训练方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器601所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至处理器601。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器602中,当被所述处理器601执行时,执行如图1至图4所示实施例中的分类模型训练方法。
上述终端设备具体细节可以对应参阅图1至图4所示的实施例中对应的相关描述和效果进行理解,此处不再赘述。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random AccessMemory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固态硬盘(Solid-State Drive,SSD)等;所述存储介质还可以包括上述种类的存储器的组合。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种分类模型训练方法,其特征在于,包括:
获取预设的预训练模型和数据集;
将所述数据集划分为训练集和测试集;
根据所述训练集训练所述预训练模型;
根据所述测试集测试训练后的所述预训练模型,并获取测试结果;
根据所述测试结果对训练后的所述预训练模型进行评估。
2.如权利要求1所述的分类模型训练方法,其特征在于,所述将所述数据集划分为训练集和测试集,包括:
将所述数据集划分为两个互斥的集合;
确定所述两个互斥的集合中的任意一个集合为所述训练集;
确定所述两个互斥的集合中的另一个集合为所述测试集。
3.如权利要求2所述的分类模型训练方法,其特征在于,所述训练集和所述测试集具有相同的数据分布特性。
4.如权利要求1所述的分类模型训练方法,其特征在于,所述将所述数据集划分为训练集和测试集,包括:
将所述数据集划分为若干相同大小的子集;
确定所述子集中的任意一个子集为所述训练集;
将所述子集中的其他子集合并,并将合并后的所述子集中的其他子集作为测试集。
5.如权利要求1所述的分类模型训练方法,其特征在于,所述将所述数据集划分为训练集和测试集,包括:
对所述数据集进行若干次有放回抽样,并获取对应的抽样样本;
将所述抽样样本合并,并确定合并后的所述抽样样本为所述训练集;
确定所述数据集中不同于所述训练集的样本的集合为所述测试集。
6.如权利要求1至5中任一项所述的分类模型训练方法,其特征在于,所述根据所述测试结果对训练后的所述预训练模型进行评估,包括:
判断所述测试结果是否符合预设的应用需求;
当所述测试结果符合预设的应用需求时,输出训练后的所述预训练模型。
7.如权利要求6所述的分类模型训练方法,其特征在于,所述根据所述测试结果对训练后的所述预训练模型进行评估,还包括:
当所述测试结果不符合预设的应用需求时,重复执行所述将所述数据集划分为训练集和测试集;根据所述训练集训练所述预训练模型;根据所述测试集测试训练后的所述预训练模型,并获取测试结果;根据所述测试结果对训练后的所述预训练模型进行评估的步骤,直至所述测试结果符合预设的应用需求。
8.一种分类模型训练装置,其特征在于,包括:
输入单元,用于获取预设的预训练模型和数据集;
数据划分单元,用于将所述数据集划分为训练集和测试集;
训练单元,用于根据所述训练集训练所述预训练模型;
测试单元,用于根据所述测试集测试训练后的所述预训练模型,并获取测试结果;
评估单元,用于根据所述测试结果对训练后的所述预训练模型进行评估。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
CN201811509567.6A 2018-12-11 2018-12-11 分类模型训练方法和终端设备 Pending CN109740634A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811509567.6A CN109740634A (zh) 2018-12-11 2018-12-11 分类模型训练方法和终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811509567.6A CN109740634A (zh) 2018-12-11 2018-12-11 分类模型训练方法和终端设备

Publications (1)

Publication Number Publication Date
CN109740634A true CN109740634A (zh) 2019-05-10

Family

ID=66359032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811509567.6A Pending CN109740634A (zh) 2018-12-11 2018-12-11 分类模型训练方法和终端设备

Country Status (1)

Country Link
CN (1) CN109740634A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532314A (zh) * 2019-08-30 2019-12-03 国家电网有限公司 高压电器质量检测的方法及终端设备
CN110808968A (zh) * 2019-10-25 2020-02-18 新华三信息安全技术有限公司 网络攻击检测方法、装置、电子设备和可读存储介质
CN112001566A (zh) * 2020-09-11 2020-11-27 成都拟合未来科技有限公司 一种健身训练模型的优化方法、装置、设备和介质
CN114781278A (zh) * 2022-06-17 2022-07-22 天津理工大学 一种基于数据驱动的机电设备寿命预测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218405A (zh) * 2013-03-20 2013-07-24 西安电子科技大学 基于维数约简的集成迁移文本分类方法
CN104199857A (zh) * 2014-08-14 2014-12-10 西安交通大学 一种基于多标签分类的税务文档层次分类方法
CN104239374A (zh) * 2013-06-21 2014-12-24 伊姆西公司 用于文档推荐的方法和装置
CN107480194A (zh) * 2017-07-13 2017-12-15 中国科学院自动化研究所 多模态知识表示自动学习模型的构建方法及系统
CN108090520A (zh) * 2018-01-08 2018-05-29 北京中关村科金技术有限公司 意图识别模型的训练方法、系统、装置及可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218405A (zh) * 2013-03-20 2013-07-24 西安电子科技大学 基于维数约简的集成迁移文本分类方法
CN104239374A (zh) * 2013-06-21 2014-12-24 伊姆西公司 用于文档推荐的方法和装置
CN104199857A (zh) * 2014-08-14 2014-12-10 西安交通大学 一种基于多标签分类的税务文档层次分类方法
CN107480194A (zh) * 2017-07-13 2017-12-15 中国科学院自动化研究所 多模态知识表示自动学习模型的构建方法及系统
CN108090520A (zh) * 2018-01-08 2018-05-29 北京中关村科金技术有限公司 意图识别模型的训练方法、系统、装置及可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘军: "基于scikit-learn的机器学习 算法与实践", 31 December 2017, 东南大学出版社, pages: 202 *
王桥、厉青、高健: "PM2.5卫星遥感技术及其应用", 30 September 2018, 上海:上海交通大学出版社, pages: 228 - 197 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532314A (zh) * 2019-08-30 2019-12-03 国家电网有限公司 高压电器质量检测的方法及终端设备
CN110808968A (zh) * 2019-10-25 2020-02-18 新华三信息安全技术有限公司 网络攻击检测方法、装置、电子设备和可读存储介质
CN112001566A (zh) * 2020-09-11 2020-11-27 成都拟合未来科技有限公司 一种健身训练模型的优化方法、装置、设备和介质
CN112001566B (zh) * 2020-09-11 2024-04-30 成都拟合未来科技有限公司 一种健身训练模型的优化方法、装置、设备和介质
CN114781278A (zh) * 2022-06-17 2022-07-22 天津理工大学 一种基于数据驱动的机电设备寿命预测方法及系统

Similar Documents

Publication Publication Date Title
CN109740634A (zh) 分类模型训练方法和终端设备
CN109697461A (zh) 基于有限数据的分类模型训练方法和终端设备
US10613145B2 (en) Configuration and testing method and system for FPGA chip using bumping process
CN105471659B (zh) 一种故障根因分析方法和分析设备
US9495492B1 (en) Implementing synchronous triggers for waveform capture in an FPGA prototyping system
US9426284B2 (en) Methods, systems, and computer readable media for call flow analysis using comparison level indicators
US20090106717A1 (en) Multithreaded static timing analysis
CN105117345A (zh) 一种应用程序的接口测试方法及装置
CN105468797A (zh) 一种信息处理方法及装置
CN117880116A (zh) 用于生成网络模拟场景的技术
CN102291274B (zh) 一种实现网络测试仪表自动适配的系统及方法
CN110362469A (zh) 基于模块化测试用例控制方法、装置、终端与存储介质
DE102013114512A1 (de) Globales Einfangschema mit niedriger Leistung für Kerne
CN109685120A (zh) 分类模型在有限数据下的快速训练方法和终端设备
CN109669363A (zh) 一种基于状态行为树的自动化仿真测试优化方法
Tahoori et al. Fault grading FPGA interconnect test configurations
Shi et al. Deepgate2: Functionality-aware circuit representation learning
CN109726742A (zh) 分类模型快速训练方法和终端设备
US10073938B2 (en) Integrated circuit design verification
CN115297048B (zh) 一种基于光纤网络的路由路径生成方法及装置
CN109658054A (zh) 一种特种设备检验移动app系统及应用方法
CN109145338B (zh) 一种修复电压降的方法及装置
Agrawal et al. Test-delivery optimization in manycore SOCs
CN112783775B (zh) 特殊字符输入测试方法及装置
CN102436525B (zh) 一种集成电路设计过程中多节点并行自动修复保持时间违例的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination