CN108846444A - 面向多源数据挖掘的多阶段深度迁移学习方法 - Google Patents
面向多源数据挖掘的多阶段深度迁移学习方法 Download PDFInfo
- Publication number
- CN108846444A CN108846444A CN201810655461.0A CN201810655461A CN108846444A CN 108846444 A CN108846444 A CN 108846444A CN 201810655461 A CN201810655461 A CN 201810655461A CN 108846444 A CN108846444 A CN 108846444A
- Authority
- CN
- China
- Prior art keywords
- model
- source data
- target data
- data set
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向多源数据挖掘的多阶段深度迁移学习方法,包括以下步骤:S1:根据源数据集与目标数据集的相似性进行排序,与目标数据集相似性更大的排在后面,相似性较小的排在前面。S2:采用卷积神经网络作为预训练模型,并利用排在最前面的目标数据集中的训练样本进行训练,使其满足多分类要求;S3:依次从第一个源数据集进行迁移学习,利用前一个训练好的模型重构下一个源数据集的预训练模型,直到迁移到目标数据集;S4:通过迁移得到目标数据集的重构模型,使用目标数据集对重构模型进行训练,得到最终的分类模型。其效果是:经过多次迁移学习,充分利用多个源样本集,有效增加了模型的学习能力,提升了分类准确率和泛化能力。
Description
技术领域
本发明涉及人工智能技术,具体涉及到一种面向多源数据挖掘的多阶段深度迁移学习方法。
背景技术
深度学习是近十年来人工智能领域取得的重要突破。它在语音识别、自然语言处理、计算机视觉、图像与视频分析、多媒体等诸多领域的应用取得了巨大成功。现有的深度学习模型属于神经网络。神经网络的起源可追溯到20世纪40年代,曾经在八九十年代流行。神经网络试图通过模拟大脑认知的机理解决各种机器学习问题。2006年之后深度学习在诸多领域取得了巨大成功,受到广泛关注。
神经网络能够重新焕发青春的原因有几个方面:首先,大规模训练数据的出现在很大程度上缓解了训练过拟合的问题。例如,ImageNet训练集拥有上百万个有标注的图像。其次,计算机硬件的飞速发展为其提供了强大的计算能力,一个GPU芯片可以集成上千个核。这使得训练大规模神经网络成为可能。第三,神经网络的模型设计和训练方法都取得了长足的进步。例如,为了改进神经网络的训练,学者提出了非监督和逐层的预训练,使得在利用反向传播算法对网络进行全局优化之前,网络参数能达到一个好的起始点,从而在训练完成时能达到一个较好的局部极小点。但是对于卷积神经网络CNN应用来说,要得到一个完美的分类器,不仅要设计一个好的网络结构,还需要有足够的标签样本。但现实情况是标签样本的数量是有限的。在深度学习中通常采用迁移学习的方式来克服数据量不足的问题。它是指在其他大型图像数据集上预先训练好的深度学习模型的微调。但是目前采用的迁移为单步迁移,直接从源数据迁移到目标数据集。当源数据集与目标数据集之间的相似性太低,且存在多个源数据集时,通过单步迁移无法利用多个源数据集信息,且难以得到好的迁移效果。
发明内容
为了解决上述问题,本发明提供一种面向多源数据挖掘的多阶段深度迁移学习方法。与单迁移网络不同,多步迁移方法采用多个数据集进行多步迁移。该方法首先将不同的源数据集与目标数据集做相似性度量,通过提取数据集的特征向量来度量不同源数据集与目标数据集之间的相似性。然后按照相似性排序,将与目标数据集相似性更大的源数据集排在后面,与目标数据集相似性较小的排在前面,然后依次从第一个源数据集进行迁移学习,从而确保最大化的学习和利用样本数据中的特性,提升模式识别或分类的准确性。
为实现上述目的,本发明所采用的具体技术方案如下:
一种面向多源数据挖掘的多阶段深度迁移学习方法,其关键在于按照以下步骤进行:
S1:根据源数据集与目标数据集的相似性进行排序,与目标数据集相似性更大的排在后面,与目标数据集相似性较小的排在前面;
S2:采用卷积神经网络作为预训练模型,并利用排在最前面的目标数据集中的训练样本进行训练,使其满足多分类要求;
S3:依次从第一个源数据集进行迁移学习,利用前一个训练好的模型重构下一个源数据集的预训练模型,直到迁移到目标数据集;
S4:通过迁移得到目标数据集的重构模型,使用目标数据集对重构模型进行训练,得到最终的分类模型。
可选地,该方法还包括以下步骤:
S5:判断重构模型是否满足评价指标,如果满足,则保存重构模型并利用其对新的数据样本进行分类或判断;如果不满足,则进入S6;
S6:更换相似性度量的准则和计算方式,返回步骤S1使得所有源数据集重新排序,并利用重新排序的源数据集进行多阶段迁移学习。
可选地,步骤S1中的预训练模型采用VGG模型、GoogleNet模型或ResNet模型。
可选地,步骤S1中的预训练模型包括两层卷积层、两层池化层、两层全连接层、一层规范化层和一层舍弃层,通过将卷积层和池化层的网络结构和参数迁移到下一个数据集的训练模型来完成模型重构。
可选地,设每个数据集中有m个样本,每个样本有n个特征,则将每个特征的均值作为对应的特征值该数据集的相似度计算方式为:
其中:fij是第j个样本中的第i个特征,表示源数据集中第i个特征值,表示目标数据集中第i个特征值,si表示源数据集中第i个特征的标准差。当源数据集和目标数据集间的特征不相同时,可分别对其进行PCA处理,取前n个主成分,将每个主成分当做一个特征,重新按上面的相似度公式计算源数据集和目标数据集间的相似性。
可选地,源数据集选自ImageNet国际计算机视觉挑战赛中的图像数据和乳腺癌病理学数据库中的公共数据集。
本发明的显著效果是:
本方法所得的训练模型是经过多次迁移学习而来,有效增加了模型的学习能力,提升了分类准确率。
附图说明
图1为本发明的方法流程图;
图2为多阶段迁移结构
图3为本发明具体实施例所采用的深度迁移学习模型;
图4为本发明具体实施例中所用预训练模型的模型参数表。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1-图2所示,本发明提出的一种面向多源数据挖掘的多阶段深度迁移学习方法,这里采用了2个源数据集,1个目标数据集,实现2次(阶段)深度迁移学习。按照以下步骤进行:
S1:根据源数据集与目标数据集的相似性进行排序,与目标数据集相似性更大的排在后面,与目标数据集相似性较小的排在前面;
S2:采用卷积神经网络作为预训练模型,并利用排在最前面的目标数据集中的训练样本进行训练,使其满足多分类要求;
S3:依次从第一个源数据集进行迁移学习,利用前一个训练好的模型重构下一个源数据集的预训练模型,直到迁移到目标数据集;
S4:通过迁移得到目标数据集的重构模型,使用目标数据集对重构模型进行训练,得到最终的分类模型。
如图3所示,在本实施例中,以基于深度学习和2次迁移学习的病理学细胞图像分类问题进行研究,目标数据集来源于重庆市西南医院,其中,正常细胞图片:55张,初期细胞图片:54张,癌变细胞图片:17张,训练集和测试集的划分按表1所示;
表1:目标数据集中训练集和测试集的划分
类型 | 训练集 | 测试集 |
正常VS初期 | 72 | 37 |
正常VS初期+癌变 | 83 | 43 |
正常VS癌变 | 47 | 25 |
第一源数据集来源于ImageNet国际计算机视觉挑战赛(ILSVRC),其中,图片数量:1200万张,图片类别:1000类;训练集900万张;测试集300万张。
第二源数据集来源于乳腺癌病理学数据库(BreaKHis)的公共数据集。该数据集包含9109张来自82个病人的样本细胞图像,该数据集被分为两个部分,良性样本细胞图像(2480张),恶性样本细胞图像(5429张);良性样本和恶性样本有分别有不同的放大倍数的细胞图像(40倍、100倍、200倍、400倍)。由于我们目标数据集是400倍放大的细胞图片,所以,我们选用BreaKHis中的400倍放大的细胞图片。
正常细胞图片:588张
癌变细胞图片:1232张
由于正常细胞图片数量较少,导致正常细胞图片与癌变细胞图片的数量不均衡,通过图片增强的方式,增加正常细胞图片712张,增加后正常细胞图片共1300张。训练集和测试集的划分按表2所示。
表2:第二源数据集中训练集和测试集的划分
类型 | 训练集 | 测试集 |
正常VS癌变 | 2051 | 481 |
为了进行相似度排序,先从目标数据集、第一源数据集以及第二源数据集中选取相同数量的图片数,提取图片特征并且进行特征向量相似性度量。
目标数据集:训练83张图片,测试43张图片;
源1数据集:训练83张图片,测试43张图片;
源2数据集:训练83张图片,测试43张图片;
进行特征提取,得到三个特征向量F1,F2,F3.(F1:83*32,F2:83*32,F3:83*32,m=83样本数,n=32每一个样本提取的特征数)。
设每个数据集中有m个样本,每个样本有n个特征,则将每个特征的均值作为对应的特征值该数据集的相似度计算方式为:
其中:表示源数据集中第i个特征值,表示目标数据集中第i个特征值,si表示源数据集中第i个特征的标准差。
最终得到目标数据集与源1数据集相似度d1=0.08524,目标数据集与源2数据集相似度d2=0.3751。
因此,根据相似性排序得到本实施例的多阶段迁移顺序为第一源数据集→第二源数据集→目标数据集。
确定好迁移顺序后,接下来选定预训练模型,本例中预训练模型定义为CNN8,如图3所示,由两层卷积层、两层池化层和两层全连接层,一层规范化层,一层舍弃层组成,并利用当前数据库中的训练样本进行训练,使其满足多分类要求,这里的卷积层的每个输出特征图是由多个输入特征图和内核进行卷积;池化层是通过核函数对前一层的输出进行池化处理;全连接层是通过权重来连接所有神经元。
模型信息如图4所示,具体而言,在卷积层,先前的特征映射层和训练的内核被卷积,然后输出特征由激活函数形成。每个输出映射由多个输入映射和内核进行卷积。一般来说,它被描述为:
其中:Mj代表着对输入特征图进行选择,代表第l-1层的第i个特征图,对应为第l层中的第i个输入,代表着第l层输出的第j个特征图,代表着第l层中第i个输入对应第j个输出的核函数,代表第l层对应第j个输出的初始偏置;
在池化层中,用核函数对前一层的输出特征图进行池化,可以表示为:
pool是一个用来求领域平均值或最大值的函数,通过使用源数据集中大量样本来训练预训练模型,我们可以得到参数k和b。
然后将全连接层的结构替换为新的结构,只保留未完全连接的层和参数。为了加速收敛和减少过拟合,在预先训练的模型之后添加批量标准化层和舍弃层。最后,将重建的过渡模型应用于第一个数据集的训练和分类。
通过图3可以看出,实施例中采用的一次迁移模型是CNN8模型,CNN8模型首先是对ImageNet数据集(源1数据集)进行预训练,对1000类图片数据进行多分类。由于我们所使用的数据集是二分类问题,因此我们对CNN8在ImageNet数据集上训练好的模型进行保存和修改。
保存:在训练好的CNN8模型中,对训练好的卷积,池化层参数进行保存在一次迁移训练时不对这些参数进行修改。
修改:将训练好的CNN8模型的全连接层进行修改,使之适应二分类问题。
第一次迁移完成后,接下来进行第二次迁移,本例中二次迁移模型也是CNN8模型,CNN8模型已经对BreaKHis(源2数据集)进行了一次迁移,是对病理学图片的二分类问题。我们对一次迁移的模型进行保存和修改。
保存:在训练好的CNN8一次迁移模型中,对训练好的卷积,池化层参数进行保存在二次迁移训练时不对这些参数进行修改。
修改:将训练好的CNN8模型的全连接层进行重新训练,得到重构之后的模型。
下面通过以下两个实验对性能进行分析
实验1:一次迁移,ImageNet基于预训练模型进行预训练,目标数据集基于一次迁移模型,进行一次迁移。
实验2:二次迁移,ImageNet基于预训练模型进行预训练,BreaKHis数据集基于一次迁移模型进行一次迁移,目标数据集基于二次迁移模型进行二次迁移。
实验结果分析
正常VS初期 | 正常VS初期+癌症 | 正常VS癌症 | |
一次迁移结果 | 90.625% | 91.82% | 88% |
二次迁移结果 | 96.875% | 97.14% | 92% |
二次迁移带来的改进 | 6.25% | 5.32% | 4.0% |
通过上述实验表明,经过二次迁移后的模型,其识别率均能得到明显的提升。
最后需要说明的是,上述描述为本发明的优选实施例,本领域的普通技术人员在本发明的启示下,在不违背本发明宗旨及权利要求的前提下,可以做出多种类似的表示,这样的变换均落入本发明的保护范围之内。
Claims (6)
1.一种面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于按照以下步骤进行:
S1:根据源数据集与目标数据集的相似性进行排序,与目标数据集相似性更大的排在后面,与目标数据集相似性较小的排在前面;
S2:采用卷积神经网络作为预训练模型,并利用排在最前面的目标数据集中的训练样本进行训练,使其满足多分类要求;
S3:依次从第一个源数据集进行迁移学习,利用前一个训练好的模型重构下一个源数据集的预训练模型,直到迁移到目标数据集;
S4:通过迁移得到目标数据集的重构模型,使用目标数据集对重构模型进行训练,得到最终的分类模型。
2.根据权利要求1所述的面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于还包括以下步骤:
S5:判断重构模型是否满足评价指标,如果满足,则保存重构模型并利用其对新的数据样本进行分类或判断;如果不满足,则进入S6;
S6:更换相似性度量的准则和计算方式,返回步骤S1使得所有源数据集重新排序,并利用重新排序的源数据集进行多阶段迁移学习。
3.根据权利要求1或2所述的面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于:步骤S1中的预训练模型采用VGG模型、GoogleNet模型或ResNet模型。
4.根据权利要求1或2所述的面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于:步骤S1中的预训练模型包括两层卷积层、两层池化层、两层全连接层、一层规范化层和一层舍弃层,通过将卷积层和池化层的网络结构和参数迁移到下一个数据集的训练模型来完成模型重构。
5.根据权利要求1或2所述的面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于:设每个数据集中有m个样本,每个样本有n个特征,则将每个特征的均值作为对应的特征值该数据集的相似度计算方式为:
其中:表示源数据集中第i个特征值,表示目标数据集中第i个特征值,si表示源数据集中第i个特征的标准差。
6.根据权利要求1所述的面向多源数据挖掘的多阶段深度迁移学习方法,其特征在于:源数据集选自ImageNet国际计算机视觉挑战赛中的图像数据和乳腺癌病理学数据库中的公共数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810655461.0A CN108846444B (zh) | 2018-06-23 | 2018-06-23 | 面向多源数据挖掘的多阶段深度迁移学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810655461.0A CN108846444B (zh) | 2018-06-23 | 2018-06-23 | 面向多源数据挖掘的多阶段深度迁移学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108846444A true CN108846444A (zh) | 2018-11-20 |
CN108846444B CN108846444B (zh) | 2022-02-01 |
Family
ID=64203555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810655461.0A Active CN108846444B (zh) | 2018-06-23 | 2018-06-23 | 面向多源数据挖掘的多阶段深度迁移学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108846444B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934248A (zh) * | 2018-12-11 | 2019-06-25 | 广州中医药大学(广州中医药研究院) | 一种针对迁移学习的多模型随机生成与动态自适应组合方法 |
CN110414631A (zh) * | 2019-01-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN110619059A (zh) * | 2019-08-13 | 2019-12-27 | 浙江工业大学 | 一种基于迁移学习的建筑物标定方法 |
CN111261299A (zh) * | 2020-01-14 | 2020-06-09 | 之江实验室 | 基于多源迁移学习的多中心协同癌症预后预测系统 |
CN111915058A (zh) * | 2020-06-29 | 2020-11-10 | 河海大学 | 基于长短时记忆网络和迁移学习的洪水预测方法与装置 |
CN111915103A (zh) * | 2020-08-22 | 2020-11-10 | 武汉空心科技有限公司 | 基于深度学习的工作平台任务量预测方法及系统 |
CN112317957A (zh) * | 2020-10-09 | 2021-02-05 | 五邑大学 | 激光焊接方法、装置及其存储介质 |
CN112786141A (zh) * | 2021-01-21 | 2021-05-11 | 北京晶派科技有限公司 | 一种功能肽推荐方法、装置和计算设备 |
CN112884653A (zh) * | 2021-03-01 | 2021-06-01 | 西北大学 | 一种基于断裂面信息的兵马俑碎块拼接方法及系统 |
CN113076873A (zh) * | 2021-04-01 | 2021-07-06 | 重庆邮电大学 | 一种基于多阶段训练的农作物病害长尾图像识别方法 |
CN113537085A (zh) * | 2021-07-20 | 2021-10-22 | 南京工程学院 | 基于两次迁移学习和数据增广的船舶目标检测方法 |
CN114117944A (zh) * | 2022-01-26 | 2022-03-01 | 苏州浪潮智能科技有限公司 | 一种模型更新方法、装置、设备及可读存储介质 |
CN114144770A (zh) * | 2019-05-14 | 2022-03-04 | 纳斯达克公司 | 用于生成用于模型重新训练的数据集的系统和方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150127594A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Transfer learning for deep neural network based hotword detection |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN106991439A (zh) * | 2017-03-28 | 2017-07-28 | 南京天数信息科技有限公司 | 基于深度学习与迁移学习的图像识别方法 |
CN107273922A (zh) * | 2017-06-02 | 2017-10-20 | 云南大学 | 一种面向多源实例迁移学习的样本筛选和权重计算方法 |
CN107657602A (zh) * | 2017-08-09 | 2018-02-02 | 武汉科技大学 | 基于两次迁移卷积神经网络的乳腺结构紊乱识别方法 |
US20180060652A1 (en) * | 2016-08-31 | 2018-03-01 | Siemens Healthcare Gmbh | Unsupervised Deep Representation Learning for Fine-grained Body Part Recognition |
CN108009593A (zh) * | 2017-12-15 | 2018-05-08 | 清华大学 | 一种迁移学习最优算法选取方法及系统 |
-
2018
- 2018-06-23 CN CN201810655461.0A patent/CN108846444B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150127594A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Transfer learning for deep neural network based hotword detection |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
US20180060652A1 (en) * | 2016-08-31 | 2018-03-01 | Siemens Healthcare Gmbh | Unsupervised Deep Representation Learning for Fine-grained Body Part Recognition |
CN106991439A (zh) * | 2017-03-28 | 2017-07-28 | 南京天数信息科技有限公司 | 基于深度学习与迁移学习的图像识别方法 |
CN107273922A (zh) * | 2017-06-02 | 2017-10-20 | 云南大学 | 一种面向多源实例迁移学习的样本筛选和权重计算方法 |
CN107657602A (zh) * | 2017-08-09 | 2018-02-02 | 武汉科技大学 | 基于两次迁移卷积神经网络的乳腺结构紊乱识别方法 |
CN108009593A (zh) * | 2017-12-15 | 2018-05-08 | 清华大学 | 一种迁移学习最优算法选取方法及系统 |
Non-Patent Citations (3)
Title |
---|
QI DONG等: "Multi-task Curriculum Transfer Deep Learning of Clothing Attributes", 《2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION》 * |
卞则康等: "基于相似度学习的多源迁移算法", 《控制与决策》 * |
王艳等: "《工程数学》", 31 January 2016 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934248A (zh) * | 2018-12-11 | 2019-06-25 | 广州中医药大学(广州中医药研究院) | 一种针对迁移学习的多模型随机生成与动态自适应组合方法 |
CN109934248B (zh) * | 2018-12-11 | 2023-05-19 | 广州中医药大学(广州中医药研究院) | 一种针对迁移学习的多模型随机生成与动态自适应组合方法 |
CN110414631A (zh) * | 2019-01-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN110414631B (zh) * | 2019-01-29 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN114144770A (zh) * | 2019-05-14 | 2022-03-04 | 纳斯达克公司 | 用于生成用于模型重新训练的数据集的系统和方法 |
CN110619059B (zh) * | 2019-08-13 | 2021-07-27 | 浙江工业大学 | 一种基于迁移学习的建筑物标定方法 |
CN110619059A (zh) * | 2019-08-13 | 2019-12-27 | 浙江工业大学 | 一种基于迁移学习的建筑物标定方法 |
CN111261299A (zh) * | 2020-01-14 | 2020-06-09 | 之江实验室 | 基于多源迁移学习的多中心协同癌症预后预测系统 |
CN111915058A (zh) * | 2020-06-29 | 2020-11-10 | 河海大学 | 基于长短时记忆网络和迁移学习的洪水预测方法与装置 |
CN111915058B (zh) * | 2020-06-29 | 2022-08-26 | 河海大学 | 基于长短时记忆网络和迁移学习的洪水预测方法与装置 |
CN111915103A (zh) * | 2020-08-22 | 2020-11-10 | 武汉空心科技有限公司 | 基于深度学习的工作平台任务量预测方法及系统 |
CN112317957A (zh) * | 2020-10-09 | 2021-02-05 | 五邑大学 | 激光焊接方法、装置及其存储介质 |
CN112786141A (zh) * | 2021-01-21 | 2021-05-11 | 北京晶派科技有限公司 | 一种功能肽推荐方法、装置和计算设备 |
CN112786141B (zh) * | 2021-01-21 | 2023-07-14 | 北京晶泰科技有限公司 | 一种功能肽推荐方法、装置和计算设备 |
CN112884653A (zh) * | 2021-03-01 | 2021-06-01 | 西北大学 | 一种基于断裂面信息的兵马俑碎块拼接方法及系统 |
CN113076873A (zh) * | 2021-04-01 | 2021-07-06 | 重庆邮电大学 | 一种基于多阶段训练的农作物病害长尾图像识别方法 |
CN113076873B (zh) * | 2021-04-01 | 2022-02-22 | 重庆邮电大学 | 一种基于多阶段训练的农作物病害长尾图像识别方法 |
CN113537085A (zh) * | 2021-07-20 | 2021-10-22 | 南京工程学院 | 基于两次迁移学习和数据增广的船舶目标检测方法 |
CN114117944A (zh) * | 2022-01-26 | 2022-03-01 | 苏州浪潮智能科技有限公司 | 一种模型更新方法、装置、设备及可读存储介质 |
CN114117944B (zh) * | 2022-01-26 | 2022-04-22 | 苏州浪潮智能科技有限公司 | 一种模型更新方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108846444B (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108846444A (zh) | 面向多源数据挖掘的多阶段深度迁移学习方法 | |
CN110532900B (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
Cheng et al. | Facial expression recognition method based on improved VGG convolutional neural network | |
US20230368497A1 (en) | Image Recognition Method and System of Convolutional Neural Network Based on Global Detail Supplement | |
CN104866810B (zh) | 一种深度卷积神经网络的人脸识别方法 | |
CN106919951B (zh) | 一种基于点击与视觉融合的弱监督双线性深度学习方法 | |
CN110534132A (zh) | 一种基于谱图特征的并行卷积循环神经网络的语音情感识别方法 | |
Aung et al. | Face detection in real time live video using yolo algorithm based on Vgg16 convolutional neural network | |
CN109034210A (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN114038037B (zh) | 基于可分离残差注意力网络的表情标签修正和识别方法 | |
CN109977234A (zh) | 一种基于主题关键词过滤的知识图谱补全方法 | |
CN110363253A (zh) | 一种基于卷积神经网络的热轧带钢表面缺陷分类方法 | |
CN105205475A (zh) | 一种动态手势识别方法 | |
WO2021233041A1 (zh) | 数据标注方法和装置、精细粒度识别方法和装置 | |
CN114882340B (zh) | 基于边界框回归的弱监督目标检测方法 | |
CN115966010A (zh) | 一种基于注意力和多尺度特征融合的表情识别方法 | |
CN117195148A (zh) | 基于表情、脑电及语音多模态融合的矿工情绪识别方法 | |
CN114170659A (zh) | 一种基于注意力机制的面部情感识别方法 | |
Tan et al. | Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion | |
Liu et al. | Lightweight ViT model for micro-expression recognition enhanced by transfer learning | |
Gawade et al. | Early-stage apple leaf disease prediction using deep learning | |
Wei et al. | A survey of facial expression recognition based on deep learning | |
CN107622267A (zh) | 一种基于嵌入双边卷积激活的场景文字识别方法 | |
Ling et al. | A facial expression recognition system for smart learning based on YOLO and vision transformer | |
CN111737467A (zh) | 一种基于分段卷积神经网络的对象级情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |