CN110147878B - 数据处理方法、装置及设备 - Google Patents

数据处理方法、装置及设备 Download PDF

Info

Publication number
CN110147878B
CN110147878B CN201811434318.5A CN201811434318A CN110147878B CN 110147878 B CN110147878 B CN 110147878B CN 201811434318 A CN201811434318 A CN 201811434318A CN 110147878 B CN110147878 B CN 110147878B
Authority
CN
China
Prior art keywords
optimized
target
data
network model
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811434318.5A
Other languages
English (en)
Other versions
CN110147878A (zh
Inventor
徐挺洋
魏颖
郑胤
黄俊洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201811434318.5A priority Critical patent/CN110147878B/zh
Publication of CN110147878A publication Critical patent/CN110147878A/zh
Application granted granted Critical
Publication of CN110147878B publication Critical patent/CN110147878B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明实施例公开了一种数据处理的方法、装置、设备及存储介质,包括:获取待处理的目标数据;调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息;可提高优化的第二学习模型的预测精度,并提高关系解释信息的置信度。

Description

数据处理方法、装置及设备
技术领域
本发明涉及计算机技术领域,具体涉及神经网络技术领域,尤其涉及一种数据处理方法、一种数据处理装置及一种电子设备。
背景技术
深度学习网络模型具有大规模的并行处理、分布式的信息存储、良好的自适应性、自组织性、很强的学习能力以及容错能力的特征,因此被广泛应用于图像识别、智能机器人控制、语言翻译以及医疗诊断等领域,给人们的生活或工作带来许多便利。但是,深度学习网络模型就像一个黑箱子,导致人们无法获知深度学习网络模型的输入与输出之间的关系,进而,导致深度网络模型的预测结果难以让人置信。因此,如何解释深度学习网络模型的输入与输出之间的关系是当前的研究热点,现有技术中,通常以一个传统的机器学习网络模型作为深度学习网络模型的解释网络模型,通过深度学习网络模型将待处理的数据输入到传统的机器学习网络模型中进行预测处理,以得到用于解释深度学习网络模型的输入与输出之间的关系解释信息;但是,深度学习网络模型本身的复杂度并不是一个传统机器学习模型可以简单逼近的,所以传统机器学习模型的预测精度远远低于深度学习网络模型的预测精度,导致该方法生成的关系解释信息难以让人置信。
发明内容
本发明实施例所要解决的技术问题在于,提供一种数据处理方法、装置、设备及存储介质,可提高优化的第二学习模型的预测精度,并提高关系解释信息的置信度。
一方面,本发明实施例提供一种数据处理方法,该方法包括:
获取待处理的目标数据;
调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
一方面,本发明实施例提供一种数据处理装置,该装置包括:
获取单元,用于获取待处理的目标数据;
预测单元,用于调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
选择单元,用于从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
所述预测单元,还用于将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
一方面,本发明实施例提供一种电子设备,包括:处理器和存储装置;
处理器,适于实现一条或一条以上指令;以及,计算机存储介质,所述计算机存储介质存储有一条或一条以上指令,所述一条或一条以上指令适于由处理器加载并执行如下步骤:
获取待处理的目标数据;
调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
一方面,本发明实施例提供一种计算机存储介质,所述计算机存储介质存储有计算机程序指令,该计算机程序指令被执行时,实现所述的数据处理方法,该方法包括:
获取待处理的目标数据;
调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
本发明实施例中提供了多个优化的第二学习模型,通过根据目标数据的分簇信息选择优化的目标第二学习模型,目标数据的分簇信息用于指示该目标数据的内容特征,优化的目标第二学习模型为擅长预测和解释目标数据的内容特征对应的数据的网络模型;也就是说,通过按照优化的第二学习模型的解释能力及预测能力,将解释优化的第一网络模型的输入与输出之间的关系的解释任务,分配给相应的优化的第二学习模型,以通过多个优化的第二学习模型来逼近优化的第一网络模型,以便优化的第二学习模型的预测精度能够达到(或逼近)优化的第一网络模型的预测精度,此处逼近可以是指通过多个优化的第二学习模型来模拟优化的第一网络模型的预测能力。另外,以待处理的目标数据作为优化的第二学习模型的输入,以优化的第一网络模型输出的预测标签为优化的第二学习模型的预测目标,以便在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,由优化的第二学习模型输出用于解释优化的第一网络模型的输入与输出之间的关系解释信息;在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,表明优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,因此,这时得到关系解释信息具有较高的置信度,通过这些关系解释信息有助于更好地理解优化的第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。另外,本方案的实现过程不需要人工参与,可自动地生成关系解释信息,节省人力,提高生成关系解释信息的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种数据处理方案的架构示意图;
图2是本发明实施例提供的一种数据处理方法的流程示意图;
图3是本发明实施例提供的另一种数据处理方法的流程示意图;
图4是本发明实施例提供的一种第一网络模型的结构示意图;
图5是本发明实施例提供的一种第二学习模型的结构示意图;
图6是本发明实施例提供的一种数据处理装置的结构示意图;
图7是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种多网络模型的架构,参见图1,该架构包括第一网络模型及多个第二学习模型。此处的多个是指一个以上,图1以三个为例,分别标识为第二学习模型A、第二学习模型B及第二学习模型C。请参见图1:
第一网络模型包括非解释性网络模型和分簇器,该非解释性网络模型与分簇器可相互连接。非解释性网络模型可以是深度神经网络模型、卷积神经网络模型及递归神经网络模型等等中的任一种。所谓非解释性网络模型是指输出中不包含关系解释信息的网络模型;此处的关系解释信息是指用于解释输入与输出之间的关系的信息;例一:将某图像数据输入至非解释性网络模型进行预测处理后输出预测标签,该预测标签的内容是“概率为0.9的狗”;此输出表明该图像数据所表示的对象有90%的概率为狗,但从此输出中并不能知晓该输入的图像数据为何会得到这样的预测结果,即并不能知晓输入与输出之间的关系。非解释网络模型可以用于对待处理的目标数据进行预测处理,得到目标数据的预测标签;该目标数据的预测标签可用于表示目标数据被预测的分类及预测概率;此处的分类可指目标数据中所表示的对象所属的类型,此类型可以包括但不限于动物、植物或事物等,如上述例一中:非解释性网络模型对该图像数据进行预测处理后输出内容为“概率为0.9的狗”的预测标签,表明该图像数据被预测的分类即指该图像数据所示的对象的类型为狗这种动物,预测概率为90%。例二:设目标数据为病理数据,该病理数据包括血压、血糖浓度、温度、心电信号及脑电信号中的至少一种;采用非解释性网络模型对该病理数据(包括血糖浓度数据)进行预测并输出预测标签,该预测标签的内容为“概率为0.8的糖尿病”,表明该病理数据被预测的分类即指该病理数据所属的病症的类型为糖尿病,预测概率为0.8。预测标签可以包括软标签或硬标签,软标签是指概率属于(0,1)范围内的标签,例如概率为0.9的狗,概率为0.1的猫。硬标签是指概率为1或0的标签,如标签为1的狗,标签为0的猫。分簇器可以为非监督学习的变分自编码器、基于深度神经网络的非监督分簇器、半监督学习类的分簇器等等中的任一种。分簇器可以用于实现数据的分簇,即可获得目标数据的分簇信息。其中,目标数据的分簇信息用于指示目标数据属于哪个分簇类别,第一个分簇类别可简称为第一簇,第二个分簇类别可简称为第二簇,第三个分簇类别可简称为第三簇,以此类推。实际应用中,可按照需求预先设定k(k为正整数)个分簇类别,分簇类别是根据分簇信息确定的,例如:目标数据的分簇信息为1,则表示目标数据属于第一簇;或者,目标数据的分簇信息为2,则表示目标数据属于第二簇。属于同一个分簇类别的多个数据之间具备相近似的内容特征,该内容特征可以指知识或元素,例如:数据一与数据二同属于第一簇,表明数据一与数据二包含相近似的知识(如二者均包含血压相关的知识内容),或者表明数据一与数据二包含相近似的元素(如二者均包含血压数值这一元素)。
第二学习模型与第一网络模型相连接;具体地,第二学习模型可以是解释性学习模型,该解释性学习模型包括梯度提升回归树模型、弹性网回归模型及基于贝叶斯估计法的模型中的任一种。所谓解释性学习模型是指输出包含关系解释信息的学习模型;按照上述例二中,如果将病理数据(包括血糖浓度数据)以及内容为“概率为0.8的糖尿病”的预测标签输入至解释性学习模型中进行处理则可输出关系解释信息,设该关系解释信息的内容为“血糖浓度对糖尿病的影响因子为0.8”;由此关系解释信息可知晓由于血糖浓度数据对糖尿病症的影响较大,而病理数据中包含较高的血糖浓度数据,因此可解释为何该病理数据会被预测得到内容为“概率为0.8的糖尿病”的预测标签。由此可见,第二学习模型可以被用来对第一网络模型的输入与输出之间的关系进行解释。不同的第二学习模型的预测及解释能力不同,例如:某个第二学习模型擅长对医疗领域的知识数据进行预测及解释,而另一第二学习模型擅长对图像领域的知识数据进行预测及解释;而由于第一网络模型所使用的数据可按照知识或元素被划分为多个分簇类别,因此,可以在分簇类别与第二学习模型之间建立对应关系,具体可参见下述表一:
表一:对应关系
第二学习模型的标识 分簇类别
A 第一簇
B 第二簇
C 第三簇
上表中,第二学习模型A与第一簇对应,表明第二学习模型A擅长对属于第一簇的数据进行预测并得到较好的预测结果;第二学习模型B与第二簇对应,表明第二学习模型B擅长对属于第二簇的数据进行预测并得到较好的预测结果;以此类推。实际应用中,在有解释任务时,如需要对第一网络模型的多个输入数据及输出的预测标签进行解释时,首先获得输入数据的分簇信息,再按照上述表一所示的对应关系,将包含该输入数据及相应预测标签的解释任务分配给对应的第二学习模型进行预测处理,即可得到该输入数据及相应预测标签之间的较为可信的关系解释信息。
为了提高多网络模型的架构的可靠性和稳定性,可以对第一网络模型和第二学习模型进行优化。其中,采用样本数据集对第一网络模型进行优化训练,在第一网络模型的预测精度达到稳定状态,或者第一网络模型的预测精度大于预设精度阈值时,得到优化的第一网络模型。此处,第一网络模型的预测精度达到稳定状态是指第一网络模型的预测精度处于一个相对稳定的精度范围内,再继续对第一网络模型进行优化训练时,第一网络模型的预测精度始终处于该精度范围内。对每个第二学习模型进行有针对性的优化训练,例如,针对第二学习模型A,以样本数据集中分簇类别属于第一簇的样本数据为输入,以分簇类别属于第一簇的样本数据的预测标签为训练目标,对第二学习模型A进行迭代训练;在第二学习模型A的预测结果的预测标签与训练目标之间的差值小于预设阈值时,表明第二学习模型A的预测精度达到了优化的第一网络模型的预测精度,这时可以结束迭代训练,得到优化的第二学习模型A。
基于图1所示的多网络模型的架构,优化的第一网络模型及多个第二学习模型可交互来执行数据处理过程,该数据处理过程的大致流程如下:①获取待处理的目标数据,目标数据可以是指需要进行预测处理的数据,该目标数据可以是指图像数据或文本数据等等。②调用优化的第一网络模型对目标数据进行预测处理得到第一预测结果,第一预测结果包括目标数据的预测标签及分簇信息。③从多个优化的第二学习模型中选择与目标数据的分簇信息相对应的优化的目标第二学习模型。通过目标数据的分簇信息可以确定目标数据的分簇类别,根据分簇类别按照上述表一可以选择对应的优化的目标第二学习模型,优化的目标第二学习模型擅长预测和解释该目标数据;由优化的目标第二学习模型对目标数据进行预测处理,可使得优化的目标第二学习模型的预测精度能够达到优化的第一网络模型的预测精度,进而,输出较高置信度的关系解释信息。④将目标数据及目标数据的预测标签输入至优化的目标第二学习模型进行预测处理得到第二预测结果。以目标数据为优化的目标第二学习模型的输入,以预测标签为优化的目标第二学习模型的预测目标,可得到目标数据及该目标数据的预测标签之间的关系解释信息。可见,本方案可以通过使优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,来提高优化的第二学习模型输出的关系解释信息的置信度,通过这些关系解释信息有助于更好地理解第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。另外,本方案的实现过程不需要人工参与,可自动地生成关系解释信息,节省人力,提高生成关系解释信息的效率。
基于上述描述,本发明实施例提供一种数据处理方法,该处理方法可以由电子设备来执行,电子设备可以是指智能手机、服务器、电脑、医疗设备或车载终端等等,该电子设备包括图1所示的网络架构,即电子设备包含优化的第一网络模型及多个优化的第二学习模型;请参见图2,该数据处理方法包括以下步骤S101-S104:
S101、获取待处理的目标数据。
目标数据可以是指需要预测处理的数据,电子设备可以从本地数据库中或从网站上获取目标数据,该目标数据可以是指图像数据和/或文本数据;如图2所示,该目标数据为文本数据,该目标数据具体可为病理数据,该病理数据可以是用户在电子设备的用户界面上录入的,或者该病理数据可以是指电子设备对患者的医学影像进行解析获取到的;该病理数据包括血压、血糖浓度、温度、心电信号及脑电信号中的至少一种。
S102、调用优化的第一网络模型对目标数据进行预测处理得到第一预测结果,第一预测结果包括目标数据的预测标签及分簇信息。
电子设备可以调用优化的第一网络模型对目标数据进行预测处理得到第一预测结果,第一预测结果包括目标数据的预测标签及分簇信息。如图2所示,该病理数据的预测标签为0.8的糖尿病,分簇信息为1,即病理数据属于第一簇。
S103、从多个优化的第二学习模型中选择与目标数据的分簇信息相对应的优化的目标第二学习模型。
为了提高预测精度,电子设备可以根据目标数据的分簇信息确定目标数据的分簇类别,并通过查看优化的第二学习模型与分簇类别之间的对应关系,获取该目标数据的分簇类别对应的优化的目标第二学习模型。例如,通过上述表一确定属于第一簇的病理数据与优化的第二学习模型A相对应,将优化的第二学习模型A作为优化的目标第二学习模型。
S104、将目标数据及目标数据的预测标签输入至优化的目标第二学习模型进行预测处理得到第二预测结果,第二预测结果包括目标数据与目标数据的预测标签之间的关系解释信息。
该优化的目标第二学习模型是与目标数据的分簇类别相对应的,即优化的目标第二学习模型更擅长预测和解释目标数据,因此,为了提高预测精度,使生成的关系解释信息更具有信服度,可以选择优化的目标第二学习模型对目标数据进行处理。具体的,可以将目标数据的预测标签输入至优化的目标第二学习模型中进行预测处理得到第二预测结果,以便在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,由优化的第二学习模型输出用于解释优化的第一网络模型的输入与输出之间的关系解释信息。在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,表明优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,因此,这时得到关系解释信息具有较高的置信度。在一个实施例中,关系解释信息可以包括影响因子,该影响因子用于量化第一网络模型的输入对输出的影响;具体的,该影响因子的大小可以用于解释目标数据(即第一网络模型的输入)对目标数据(即第一网络模型的输出)的预测标签的影响大小;该影响因子为正数表明目标数据与目标数据的预测标签是正相关,目标数据对目标数据的预测标签起到正向积极的作用;该影响因子为负数表明目标数据与目标数据的预测标签负相关,目标数据与目标数据的预测标签不相关或相关性较小,即目标数据对目标数据的预测标签的影响较小或目标数据不影响目标数据的预测标签。例如,如图2所示,病理数据的预测标签为0.8的糖尿病;关系解释信息包括用于解释该病理数据(即目标数据)对所属病症类别(即糖尿病)的影响因子;即血压对糖尿病的影响因子为0.14,血糖浓度对糖尿病的影响因子为0.8,温度对糖尿病的影响因子为0.05,心电信号对糖尿病的影响因子为0.001及脑电信号对糖尿病的影响因子为0.009等,表明病理数据中各个数据对预测标签是正相关,且血糖浓度对预测标签的影响最大,心电信号对预测标签的影响最小。通过该解释信息有助于患者或医生了糖尿病的成因或影响等等,如,根据该解释信息可确定糖尿病主要是由于血糖浓度过高造成的,进一步,通过解释信息有助于医生快速地对患者进行治疗。
在一个实施例中,获取到关系解释信息后,可以根据关系解释信息确定影响预测标签(即预测结果)的关键数据,同时确定哪些数据对预测标签只有较小的影响或没有影响;以便在后续的预测过程中,可以对待预测处理的数据进行过滤,即保留对预测标签影响较大的数据,过滤掉对预测标签只有较小的影响或没有影响的数据,提高预测的准确度及预测效率。
本发明实施例中提供了多个优化的第二学习模型,通过根据目标数据的分簇信息选择优化的目标第二学习模型,目标数据的分簇信息用于指示该目标数据的内容特征,优化的目标第二学习模型为擅长预测和解释目标数据的内容特征对应的数据的网络模型;也就是说,通过按照优化的第二学习模型的解释能力及预测能力,将解释优化的第一网络模型的输入与输出之间的关系的解释任务,分配给相应的优化的第二学习模型,以通过多个优化的第二学习模型来逼近优化的第一网络模型,以便优化的第二学习模型的预测精度能够达到(或逼近)优化的第一网络模型的预测精度。另外,以待处理的目标数据作为优化的第二学习模型的输入,以优化的第一网络模型输出的预测标签为优化的第二学习模型的预测目标,以便在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,由优化的第二学习模型输出用于解释优化的第一网络模型的输入与输出之间的关系解释信息;在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,表明优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,因此,这时得到关系解释信息具有较高的置信度,通过这些关系解释信息有助于更好地理解第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。另外,本方案的实现过程不需要人工参与,可自动地生成关系解释信息,节省人力,提高生成关系解释信息的效率。
本发明实施例提供另一种数据处理方法,请参见图3,该处理方法可以由电子设备来执行,该电子设备包括优化的第一网络模型及多个优化的第二学习模型,优化的第一网络包括非解释性网络模型及分簇器,该数据处理方法包括:
S201、获取优化的第一网络模型及多个优化的第二学习模型,优化的第一网络模型与多个优化的第二学习模型相连接。
在一个实施例中,步骤S201包括如下步骤s10和s11。
s10、获取待优化的第一网络模型及用于优化训练的样本数据集,样本数据集包括多个样本数据及每个样本数据的标注标签。
s11、以样本数据集中的每个样本数据为输入,并且以样本数据集中的每个样本数据的标注标签为训练目标对第一网络模型进行迭代训练,得到优化的第一网络模型。
步骤s10和s11中,通过对第一网络模型进行优化训练,以提高第一网络模型的预测精度,具体的,可以获取待优化的第一网络模型及用于优化训练的样本数据集,该样本数据集可以是从电子设备的本地存储器中获取的,或者该样本数据集是从网站上下载的;样本数据的标注标签可以是指人工对样本数据进行标注得到的。进一步,以样本数据集中的每个样本数据为输入,并且以样本数据集中的每个样本数据的标注标签为训练目标对第一网络模型进行迭代训练,当第一网络模型的输出处于稳定状态,或者第一网络模型输出样本数据的预测标签与样本数据的标注标签相同或相近时,表明第一网络模型的预测精度较高,可以结束迭代,得到优化的第一网络模型。
其中,如图4所示,该第一网络模型的非解释性网络模型包括深度学习层、关联层及逻辑层,深度学习层是指用于学习目标数据的特征信息的层,深度学习层包括全连接层、批量标准化层、激活层和丢弃层等,全连接层是指每一个结点都与上一层的所有结点相连的层,用来把其他层提取到的特征进行综合;批量标准化层用于批量地对数据进行归一化处理;激活层用于对输入数据进行激活操作;丢弃层,用于将随机选择一部分该层的输出作为丢弃元素,以解决过拟合问题,过拟合是指为了得到一致假设而使假设变得过度严格;关联层,用于将非解释网络模型与分簇器进行关联的层;逻辑层,用于将获取的数据输入到分簇器。分簇器与逻辑层相连接,深度学习层的输出为关联层的输入,关联层的输出为逻辑层的输入,其中,在第一网络模型的迭代训练过程中,关联层与分簇器联合训练且逻辑层与分簇器联合训练;同时,可以先优化训练深度学习层与关联层,然后,优化训练分簇器和关联层。
在一个实施例中,第一网络模型的分簇器可以为变分自编码器组成的分类器,若采用半监督学习方法对变分自编码器进行优化训练,容易使优化得到的变分自编码器将具有同一类标注的目标数据分到同一个簇内,导致每种分簇类别对应的第二学习模型只能学习到单一的信息。此处半监督学习方法是指采用大量的未标记的样本数据,以及大量被标记的样本数据,来多网络模型进行训练。而采用非监督学习方法对变分自编码器进行优化训练,使优化得到的变分自编码器更倾向于将隐层空间内具有相同或相似内容特征的目标数据归类到一起,使每种分簇类别对应的第二学习模型能够学习到更加丰富的信息。此处的隐层空间是指在变分自编码器中除输入层与输出层以外的层;非监督学习方法指采用大量的未标记的样本数据来多网络模型进行训练。因此,可以根据需求选择半监督方法或非监督学习方法对变分自编码器进行优化训练,其中,采用非监督学习方法对变分自编码器的优化训练过程包括:将第一网络模型的逻辑层的输出数据作为输入数据对变分自编码器进行迭代训练;具体的,首先将输入数据映射到一个变分自编码器中的满足高斯混合分布的隐层空间内,在隐层空间内对输入数据进行重采样和解码,当解码后的数据与输入数据相同或相似时,表明该变分自编码器已经被优化,可以结束对变分自编码器迭代训练,得到优化的变分自编码器。其中,变分自编码器的优化公式可以由式(1)中的证据下限(Evidence Lower Bound,ELBO)来限定:
ELBO=Eq(z,k/x)[logp(x/z)]-DKL(q(z,k/x)||p(z,k))(1)
其中,x表示变分自编码器的输入数据,k表示分簇类别的数量,z表示解码后得到的数据,q(z,k/x)是变分后验概率,p(x/z)及p(z,k)表示条件概率,DKL(q||p)表示高斯混合分布的先验与变分后验之间的Kullback-Leibler分歧值。
在得到优化的变分自编码器后,可以通过输入数据的分簇概率获取输入数据的分簇信息,例如,输入数据为第一簇的分簇概率大于其他分簇类别的分簇概率,则输入数据的分簇信息为1;输入数据的分簇概率可以用式(2)表示:
Figure BDA0001883393190000121
其中,c表示簇,L表示第一网络模型的逻辑层,μk=ENμ(L),μk表示逻辑层输出数据的均值,EN(·)表示第一网络模型的非解释性网络模型,k'表示分簇类别。
其中,优化的第一网络模型的输出包括样本数据集中的每个样本数据的预测标签及分簇信息,样本数据的分簇信息用于表示样本数据所属的分簇类别,如图5所示,一种分簇类别对应一个第二学习模型,其中,分簇类别是对样本数据集中的每个样本数据的分簇信息进行归类统计得到的。
在一个实施例中,在对第一网络模型进行优化训练的过程中,可以根据每种分簇类别中的样本数据的内容特征对该分簇类别相对应的第二学习模型进行标注,该标注助于快速地将解释任务分配给对应的第二学习模型。
在一个实施例中,步骤S201包括如下步骤s20~s12。
s20、获取待优化的目标第二学习模型及与目标第二学习模型相对应的目标分簇类别,目标第二学习模型为待优化的多个第二学习模型中的任一网络模型。
s21、从样本数据集中筛选属于目标分簇类别的目标样本数据。
s22、以目标样本数据为输入,并且以目标样本数据的预测标签为训练目标对目标第二学习模型进行迭代训练,得到优化的目标第二学习模型。
步骤s20~s22中,在优化的第一网络模型的预测精度处于稳定状态时,可以对各个第二学习模型进行训练优化,以提高第二学习模型的预测精度。具体的,可以获取待优化的目标第二学习模型及与目标第二学习模型相对应的目标分簇类别;从样本数据集中筛选属于目标分簇类别的目标样本数据,以目标样本数据为输入,并且以目标样本数据的预测标签为训练目标对目标第二学习模型进行迭代训练,在目标第二学习模型的预测精度到达优化的第一网络模型的预测精度时,结束对目标第二学习模型的迭代训练,得到优化的目标第二学习模型。同时,重复执行上述步骤s20~s22以实现对所有的第二学习模型进行优化训练;通过这样有针对性对第二学习模型进行优化训练,使优化的第二学习模型具有擅长预测及解释一种分簇类别对应的目标数据,这样,优化的第二学习模型的预测精度能够逼近或达到优化的第一网络模型。在一个实施例中,为了提高训练的效率,电子设备可以以并行处理方式对各个第二学习模型进行优化训练。
其中,优化后的第一网络模型包括非解释性网络模型以及与非解释性网络模型相连接的分簇器;优化的第二学习模型包括解释性学习模型;非解释性网络模型包括以下任一种:深度神经网络模型、卷积神经网络模型及递归神经网络模型;可解释网络模型是指可输出用于解释网络模型的输入与输出之间的关系解释信息的模型,也可称此种网络模型具有解释功能。
S202、获取待处理的目标数据。
S203、调用优化后的第一网络模型的非解释性网络模型对目标数据进行预测处理,得到目标数据的预测标签。
调用优化后的第一网络模型的非解释性网络模型对目标数据特征提取等处理,目标数据的预测标签。
S204、调用分簇器对非解释性网络模型的逻辑层的输出数据进行处理,得到目标数据的分簇信息。
S205、从多个优化的第二学习模型中选择与目标数据的分簇信息相对应的优化的目标第二学习模型。
S206、将目标数据及目标数据的预测标签输入至优化的目标第二学习模型进行预测处理得到第二预测结果,第二预测结果包括目标数据与目标数据的预测标签之间的关系解释信息。
在步骤S202~S206中,为了解释优化的第一网络模型输出的预测标签与目标数据之间的关系,可以调用优化后的第一网络模型的非解释性网络模型对目标数据进行预测处理,得到目标数据的预测标签,调用分簇器对非解释性网络模型的逻辑层的输出数据进行处理,得到目标数据的分簇信息;并根据分簇信息选择优化的目标第二学习模型,将目标数据及目标数据的预测标签输入至优化的目标第二学习模型进行预测处理得到第二预测结果,以根据第二预测结果解释优化的第一网络模型输出的预测标签与目标数据之间的关系,有助于更好地理解第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。
本发明实施例中提供了多个优化的第二学习模型,通过根据目标数据的分簇信息选择优化的目标第二学习模型,目标数据的分簇信息用于指示该目标数据的内容特征,优化的目标第二学习模型为擅长预测和解释目标数据的内容特征对应的数据的网络模型;也就是说,通过按照优化的第二学习模型的解释能力及预测能力,将解释优化的第一网络模型的输入与输出之间的关系的解释任务,分配给相应的优化的第二学习模型,以通过多个优化的第二学习模型来逼近优化的第一网络模型,以便优化的第二学习模型的预测精度能够达到(或逼近)优化的第一网络模型的预测精度。另外,以待处理的目标数据作为优化的第二学习模型的输入,以优化的第一网络模型输出的预测标签为优化的第二学习模型的预测目标,以便在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,由优化的第二学习模型输出用于解释优化的第一网络模型的输入与输出之间的关系解释信息;在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,表明优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,因此,这时得到关系解释信息具有较高的置信度,通过这些关系解释信息有助于更好地理解第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。另外,本方案的实现过程不需要人工参与,可自动地生成关系解释信息,节省人力,提高生成关系解释信息的效率。
基于上述描述,本发明实施例提供一种数据处理装置的结构示意图,该数据处理装置包括优化的第一网络模型及多个优化的第二学习模型,如图6所示,该装置包括获取单元601、预测单元602及选择单元603。
获取单元601,用于获取待处理的目标数据;
预测单元602,用于调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
选择单元603,用于从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
所述预测单元602,还用于将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
可选的,获取单元601,还用于获取所述优化的第一网络模型及所述多个优化的第二学习模型,所述优化的第一网络模型与所述多个优化的第二学习模型相连接。
可选的,获取单元601,具体用于获取待优化的第一网络模型及用于优化训练的样本数据集,所述样本数据集包括多个样本数据及每个样本数据的标注标签;以所述样本数据集中的每个样本数据为输入,并且以所述样本数据集中的每个样本数据的标注标签为训练目标对所述第一网络模型进行迭代训练,得到优化的第一网络模型。
可选的,所述优化的第一网络模型的输出包括所述样本数据集中的每个样本数据的预测标签及分簇信息;所述样本数据的分簇信息用于表示所述样本数据所属的分簇类别;一种分簇类别对应一个第二学习模型,其中,所述分簇类别是对所述样本数据集中的每个样本数据的分簇信息进行归类统计得到的。
可选的,获取单元601,具体用于获取待优化的目标第二学习模型及与所述目标第二学习模型相对应的目标分簇类别,所述目标第二学习模型为待优化的多个第二学习模型中的任一网络模型;从所述样本数据集中筛选属于所述目标分簇类别的目标样本数据;以所述目标样本数据为输入,并且以所述目标样本数据的预测标签为训练目标对所述目标第二学习模型进行迭代训练,得到优化的目标第二学习模型。
可选的,所述优化后的第一网络模型包括非解释性网络模型以及与所述非解释性网络模型相连接的分簇器;所述优化的第二学习模型包括解释性学习模型;所述非解释性网络模型包括以下任一种:深度神经网络模型、卷积神经网络模型及递归神经网络模型;所述解释性学习模型包括以下任一种:梯度提升回归树模型、弹性网回归模型以及基于贝叶斯估计法的模型。
可选的,所述第一网络模型中的非解释性网络模型包括深度学习层、关联层及逻辑层;所述分簇器与所述逻辑层相连接;所述深度学习层的输出为所述关联层的输入,所述关联层的输出为所述逻辑层的输入;其中,在所述第一网络模型的迭代训练过程中,所述关联层与所述分簇器联合训练且所述逻辑层与所述分簇器联合训练。
可选的,预测单元602,具体用于调用所述优化后的第一网络模型的非解释性网络模型对所述目标数据进行预测处理,得到所述目标数据的预测标签;调用所述分簇器对所述非解释性网络模型的逻辑层的输出数据进行处理,得到所述目标数据的分簇信息。
可选的,所述目标数据包括病理数据,所述病理数据包括血压、血糖浓度、温度、心电信号或脑电信号中的至少一种;所述目标数据的预测标签包括预测得到的所述病理数据所属病症的类别及概率;所述关系解释信息用于解释所述病理数据与所属病症之间的相关性。
本发明实施例中提供了多个优化的第二学习模型,通过根据目标数据的分簇信息选择优化的目标第二学习模型,目标数据的分簇信息用于指示该目标数据的知识(即特征),优化的目标第二学习模型为擅长预测和解释目标数据的内容特征对应的数据的网络模型;也就是说,通过按照优化的第二学习模型的解释能力及预测能力,将解释优化的第一网络模型的输入与输出之间的关系的解释任务,分配给相应的优化的第二学习模型,以通过多个优化的第二学习模型来逼近优化的第一网络模型,以便优化的第二学习模型的预测精度能够达到(或逼近)优化的第一网络模型的预测精度。另外,以待处理的目标数据作为优化的第二学习模型的输入,以优化的第一网络模型输出的预测标签为优化的第二学习模型的预测目标,以便在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,由优化的第二学习模型输出用于解释优化的第一网络模型的输入与输出之间的关系解释信息;在优化的第二学习模型预测得到的预测标签与优化的第一网络模型的预测标签相同或相似时,表明优化的第二学习模型的预测精度达到优化的第一网络模型的预测精度,因此,这时得到关系解释信息具有较高的置信度,通过这些关系解释信息有助于更好地理解第一网络模型的预测结果与目标数据之间的关系,从而找到影响预测结果的关键因素。另外,本方案的实现过程不需要人工参与,可自动地生成关系解释信息,节省人力,提高生成关系解释信息的效率。
请参见图7,是本发明实施例提供的一种电子设备的结构示意图,该电子设备1000包括:处理器1001、用户接口1003、网络接口1004以及存储装置1005,处理器1001、用户接口1003、网络接口1004以及存储装置1005之间通过总线1002连接。
用户接口1003,用于实现人机交互,用户接口可以包括显示屏或键盘等等。网络接口1004,用于与外部设备之间进行通信连接。存储装置1005与处理器1001耦合,用于存储各种软件程序和/或多组指令。具体实现中,存储装置1005可包括高速随机存取的存储器,并且也可包括非易失性存储器,例如一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储设备。存储装置1005可以存储操作系统(下述简称系统),例如ANDROID,IOS,WINDOWS,或者LINUX等嵌入式操作系统。存储装置1005还可以存储网络通信程序,该网络通信程序可用于与一个或多个附加设备,一个或多个终端设备,一个或多个网络设备进行通信。存储装置1005还可以存储用户接口程序,该用户接口程序可以通过图形化的操作界面将应用程序的内容形象逼真的显示出来,并通过菜单、对话框以及按键等输入控件接收用户对应用程序的控制操作。存储装置1005还可以存储一个或多个应用程序。
在一个实施例中,所述存储装置1005还可用于存储一条或一条以上的程序指令;所述处理器1001可以调用所述一条或一条以上的程序指令时能够执数据处理方法以实现输出关系解释信息,具体地,所述处理器1001调用程序指令,执行如下步骤:
获取待处理的目标数据;
调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;
从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;
将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
可选的,所述处理器1001可以调用所述程序指令,执行如下步骤:
获取所述优化的第一网络模型及所述多个优化的第二学习模型,所述优化的第一网络模型与所述多个优化的第二学习模型相连接。
可选的,所述处理器1001可以调用所述程序指令,执行如下步骤:
获取待优化的第一网络模型及用于优化训练的样本数据集,所述样本数据集包括多个样本数据及每个样本数据的标注标签;以所述样本数据集中的每个样本数据为输入,并且以所述样本数据集中的每个样本数据的标注标签为训练目标对所述第一网络模型进行迭代训练,得到优化的第一网络模型。
可选的,所述优化的第一网络模型的输出包括所述样本数据集中的每个样本数据的预测标签及分簇信息;所述样本数据的分簇信息用于表示所述样本数据所属的分簇类别;一种分簇类别对应一个第二学习模型,其中,所述分簇类别是对所述样本数据集中的每个样本数据的分簇信息进行归类统计得到的。
可选的,所述处理器1001可以调用所述程序指令,执行如下步骤:
获取待优化的目标第二学习模型及与所述目标第二学习模型相对应的目标分簇类别,所述目标第二学习模型为待优化的多个第二学习模型中的任一网络模型;从所述样本数据集中筛选属于所述目标分簇类别的目标样本数据;以所述目标样本数据为输入,并且以所述目标样本数据的预测标签为训练目标对所述目标第二学习模型进行迭代训练,得到优化的目标第二学习模型。
可选的,所述优化后的第一网络模型包括非解释性网络模型以及与所述非解释性网络模型相连接的分簇器;所述优化的第二学习模型包括解释性学习模型;所述非解释性网络模型包括以下任一种:深度神经网络模型、卷积神经网络模型及递归神经网络模型;所述解释性学习模型包括以下任一种:梯度提升回归树模型、弹性网回归模型以及基于贝叶斯估计法的模型。
可选的,所述第一网络模型中的非解释性网络模型包括深度学习层、关联层及逻辑层;所述分簇器与所述逻辑层相连接;所述深度学习层的输出为所述关联层的输入,所述关联层的输出为所述逻辑层的输入;其中,在所述第一网络模型的迭代训练过程中,所述关联层与所述分簇器联合训练且所述逻辑层与所述分簇器联合训练。
可选的,所述处理器1001可以调用所述程序指令,执行如下步骤:
调用所述优化后的第一网络模型的非解释性网络模型对所述目标数据进行预测处理,得到所述目标数据的预测标签;调用所述分簇器对所述非解释性网络模型的逻辑层的输出数据进行处理,得到所述目标数据的分簇信息。
可选的,所述目标数据包括病理数据,所述病理数据包括血压、血糖浓度、温度、心电信号或脑电信号中的至少一种;所述目标数据的预测标签包括预测得到的所述病理数据所属病症的类别及概率;所述关系解释信息用于解释所述病理数据与所属病症之间的相关性。
在一个实施例中,所述处理器1001可用于读取和执行计算机指令,实现如本申请图2、图3所述的一种数据处理方法。本发明实施例中提供的电子设备解决问题的原理与图2及图3所述的方法实施例相似,因此该电子设备的实施方式以及有益效果可以参见方法实施例的实施方式以及有益效果,重复之处不再赘述。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序解决问题的实施方式以及有益效果可以参见上述图2及图3所述的一种数据处理方法的实施方式以及有益效果,重复之处不再赘述。
以上所揭露的仅为本发明部分实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (12)

1.一种数据处理方法,其特征在于,包括:
获取待处理的目标数据;
调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;所述分簇信息用于反映所述目标数据所属的领域;所述优化的第一网络模型包括非解释性网络模型和分簇器,所述非解释性网络模型用于对所述目标数据进行预测处理,得到所述目标数据的预测标签,所述分簇器用于对所述非解释性网络模型的逻辑层的输出数据进行处理,得到所述目标数据的分簇信息;所述优化的第一网络模型用于对至少两个领域的数据进行预测处理;
从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;所述优化的第一网络模型是通过样本数据集训练得到的,所述目标第二学习模型是根据所述样本数据中的目标样本数据进行训练得到的;所述目标样本数据属于所述优化的目标第二学习模型对应的目标分簇类别;一个优化的第二学习模型与一种分簇类别相对应;
将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
2.如权利要求1所述的方法,其特征在于,还包括:
获取所述优化的第一网络模型及所述多个优化的第二学习模型,所述优化的第一网络模型与所述多个优化的第二学习模型相连接。
3.如权利要求2所述的方法,其特征在于,所述获取所述优化的第一网络模型,包括:
获取待优化的第一网络模型及用于优化训练的样本数据集,所述样本数据集包括多个样本数据及每个样本数据的标注标签;
以所述样本数据集中的每个样本数据为输入,并且以所述样本数据集中的每个样本数据的标注标签为训练目标对所述第一网络模型进行迭代训练,得到优化的第一网络模型。
4.如权利要求3所述的方法,其特征在于,所述优化的第一网络模型的输出包括所述样本数据集中的每个样本数据的预测标签及分簇信息;所述样本数据的分簇信息用于表示所述样本数据所属的分簇类别;
一种分簇类别对应一个第二学习模型,其中,所述分簇类别是对所述样本数据集中的每个样本数据的分簇信息进行归类统计得到的。
5.如权利要求4所述的方法,其特征在于,所述获取所述多个优化的第二学习模型,包括:
获取待优化的目标第二学习模型及与所述目标第二学习模型相对应的目标分簇类别,所述目标第二学习模型为待优化的多个第二学习模型中的任一网络模型;
从所述样本数据集中筛选属于所述目标分簇类别的目标样本数据;
以所述目标样本数据为输入,并且以所述目标样本数据的预测标签为训练目标对所述目标第二学习模型进行迭代训练,得到优化的目标第二学习模型。
6.如权利要求3-5任一项所述的方法,其特征在于,所述优化后的第一网络模型包括非解释性网络模型以及与所述非解释性网络模型相连接的分簇器;所述优化的第二学习模型包括解释性学习模型;
所述非解释性网络模型包括以下任一种:深度神经网络模型、卷积神经网络模型及递归神经网络模型;
所述解释性学习模型包括以下任一种:梯度提升回归树模型、弹性网回归模型以及基于贝叶斯估计法的模型。
7.如权利要求6所述的方法,其特征在于,所述第一网络模型中的非解释性网络模型包括深度学习层、关联层及逻辑层;所述分簇器与所述逻辑层相连接;
所述深度学习层的输出为所述关联层的输入,所述关联层的输出为所述逻辑层的输入;
其中,在所述第一网络模型的迭代训练过程中,所述关联层与所述分簇器联合训练且所述逻辑层与所述分簇器联合训练。
8.如权利要求7所述的方法,其特征在于,所述调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,包括:
调用所述优化后的第一网络模型的非解释性网络模型对所述目标数据进行预测处理,得到所述目标数据的预测标签;
调用所述分簇器对所述非解释性网络模型的逻辑层的输出数据进行处理,得到所述目标数据的分簇信息。
9.如权利要求1所述的方法,其特征在于,所述目标数据包括病理数据,所述病理数据包括血压、血糖浓度、温度、心电信号及脑电信号中的至少一种;所述目标数据的预测标签包括预测得到的所述病理数据所属病症的类别及概率;
所述关系解释信息用于解释所述病理数据与所属病症之间的相关性。
10.一种数据处理装置,其特征在于,包括:
获取单元,用于获取待处理的目标数据;
预测单元,用于调用优化的第一网络模型对所述目标数据进行预测处理得到第一预测结果,所述第一预测结果包括所述目标数据的预测标签及分簇信息;所述分簇信息用于反映所述目标数据所属的领域;所述优化的第一网络模型包括非解释性网络模型和分簇器,所述非解释性网络模型用于对所述目标数据进行预测处理,得到所述目标数据的预测标签,所述分簇器用于对所述非解释性网络模型的逻辑层的输出数据进行处理,得到所述目标数据的分簇信息;所述优化的第一网络模型用于对至少两个领域的数据进行预测处理;
选择单元,用于从多个优化的第二学习模型中选择与所述目标数据的分簇信息相对应的优化的目标第二学习模型;所述优化的第一网络模型是通过样本数据集训练得到的,所述目标第二学习模型是根据所述样本数据中的目标样本数据进行训练得到的;所述目标样本数据属于所述优化的目标第二学习模型对应的目标分簇类别;一个优化的第二学习模型与一种分簇类别相对应;
所述预测单元,还用于将所述目标数据及所述目标数据的预测标签输入至所述优化的目标第二学习模型进行预测处理得到第二预测结果,所述第二预测结果包括所述目标数据与所述目标数据的预测标签之间的关系解释信息。
11.一种电子设备,其特征在于,所述电子设备包括:
处理器,适于实现一条或一条以上指令;以及,
计算机存储介质,所述计算机存储介质存储有一条或一条以上指令,所述一条或一条以上指令适于由处理器加载并执行如权利要求1-9任一项所述的数据处理方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1至9中任一项所述方法的步骤。
CN201811434318.5A 2018-11-28 2018-11-28 数据处理方法、装置及设备 Active CN110147878B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811434318.5A CN110147878B (zh) 2018-11-28 2018-11-28 数据处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811434318.5A CN110147878B (zh) 2018-11-28 2018-11-28 数据处理方法、装置及设备

Publications (2)

Publication Number Publication Date
CN110147878A CN110147878A (zh) 2019-08-20
CN110147878B true CN110147878B (zh) 2023-01-31

Family

ID=67588432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811434318.5A Active CN110147878B (zh) 2018-11-28 2018-11-28 数据处理方法、装置及设备

Country Status (1)

Country Link
CN (1) CN110147878B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110531861B (zh) * 2019-09-06 2021-11-19 腾讯科技(深圳)有限公司 运动想象脑电信号的处理方法和装置及存储介质
CN110680341B (zh) * 2019-10-25 2021-05-18 北京理工大学 一种基于可见光图像的非侵入式血糖检测装置
CN111242182A (zh) * 2020-01-03 2020-06-05 联想(北京)有限公司 数据处理方法、装置及电子设备
CN111134662B (zh) * 2020-02-17 2021-04-16 武汉大学 一种基于迁移学习和置信度选择的心电异常信号识别方法及装置
CN112101481B (zh) * 2020-10-14 2024-03-19 平安科技(深圳)有限公司 目标物的影响因子筛选方法、装置、设备及存储介质
CN113537942A (zh) * 2021-07-28 2021-10-22 深圳供电局有限公司 一种提高样本标记数量的方法及系统
CN115953609B (zh) * 2022-08-08 2023-08-18 中国航空油料集团有限公司 一种数据集筛选方法与系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU727627B2 (en) * 1997-10-29 2000-12-14 Canon Kabushiki Kaisha Image Interpretation Method and Apparatus
CN101661559B (zh) * 2009-09-16 2013-03-06 中国科学院计算技术研究所 一种数字图像训练和检测方法
WO2016040725A1 (en) * 2014-09-11 2016-03-17 Berg Llc Bayesian causal relationship network models for healthcare diagnosis and treatment based on patient data
CN106792968B (zh) * 2016-12-23 2019-06-28 大连理工大学 基于双层模型体系的无线传感器网络的二次分簇算法
US10235622B2 (en) * 2017-01-24 2019-03-19 Sas Institute Inc. Pattern identifier system
CN108257670B (zh) * 2018-01-22 2021-06-22 北京颐圣智能科技有限公司 医学解释模型的建立方法和装置
CN108614885B (zh) * 2018-05-03 2019-04-30 杭州认识科技有限公司 基于医学信息的知识图谱分析方法及装置
CN108830100B (zh) * 2018-05-30 2021-11-30 山东大学 基于多任务学习的用户隐私泄漏检测方法、服务器及系统

Also Published As

Publication number Publication date
CN110147878A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
CN110147878B (zh) 数据处理方法、装置及设备
US20210390370A1 (en) Data processing method and apparatus, storage medium and electronic device
CN110827236B (zh) 基于神经网络的脑组织分层方法、装置、计算机设备
Jiang et al. Variational deep embedding: A generative approach to clustering
EP3620982B1 (en) Sample processing method and device
CN111783997B (zh) 一种数据处理方法、装置及设备
CN112149754B (zh) 一种信息的分类方法、装置、设备及存储介质
CN112182269B (zh) 图像分类模型的训练、图像分类方法、装置、设备及介质
KR102275658B1 (ko) 기계학습 모델을 이용한 자동 데이터 수집 및 학습 방법 및 그 시스템
CN114896067A (zh) 任务请求信息的自动生成方法、装置、计算机设备及介质
CN116227573B (zh) 分割模型训练方法、图像分割方法、装置及相关介质
CN113011531A (zh) 分类模型训练方法、装置、终端设备及存储介质
CN109657710B (zh) 数据筛选方法、装置、服务器及存储介质
CN112244863A (zh) 信号识别方法、信号识别装置、电子设备及可读存储介质
CN109033078B (zh) 语句类别识别方法及装置、存储介质、处理器
CN108364067B (zh) 基于数据分割的深度学习方法以及机器人系统
CN117523218A (zh) 标签生成、图像分类模型的训练、图像分类方法及装置
CN115346084A (zh) 样本处理方法、装置、电子设备、存储介质及程序产品
CN112580408B (zh) 深度学习模型训练方法、装置及电子设备
CN115240647A (zh) 声音事件检测方法、装置、电子设备及存储介质
CN111325225B (zh) 图像分类方法、电子装置和存储介质
CN113628077A (zh) 生成不重复考题的方法、终端及可读存储介质
CN113569081A (zh) 图像识别方法、装置、设备及存储介质
CN112560463A (zh) 文本多标注方法、装置、设备及存储介质
KR20210044924A (ko) 음성인식 기반 진료 지원 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant