CN111523680A - 一种基于Fredholm学习和对抗学习的域适应方法 - Google Patents
一种基于Fredholm学习和对抗学习的域适应方法 Download PDFInfo
- Publication number
- CN111523680A CN111523680A CN202010512323.4A CN202010512323A CN111523680A CN 111523680 A CN111523680 A CN 111523680A CN 202010512323 A CN202010512323 A CN 202010512323A CN 111523680 A CN111523680 A CN 111523680A
- Authority
- CN
- China
- Prior art keywords
- domain
- fredholm
- features
- learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000006978 adaptation Effects 0.000 title claims abstract description 32
- 230000003042 antagnostic effect Effects 0.000 title claims abstract description 12
- 239000004576 sand Substances 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 102100039939 Growth/differentiation factor 8 Human genes 0.000 description 1
- 108050006583 Growth/differentiation factor 8 Proteins 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明为一种基于Fredholm学习和对抗学习的域适应方法,所述方法包括:特征提取,对源域数据Xs和目标域数据Xt用同一个特征提取器提取特征;领域鉴别,在得到被提取特征后,要鉴别这些特征属于哪个域;其中,所述领域鉴别分为两个阶段:(1)Fredholm特征的获取;(2)域鉴别器进行鉴别;样本分类,使用两个分类器,分类模块接收特征提取器提取到的特征,输入到全连接层中计算,并经过softmax后分别从源域分类器Cs和目标域分类器Ct输出分类结果。本发明的有益效果在于,提出的基于Fredholm学习和对抗学习的域适应方法在图像分类上能够达到更好的分类效果。
Description
技术领域
本发明涉及计算机技术领域,尤指一种基于Fredholm学习和对抗学习的域适应方法。
背景技术
域适应是深度迁移学习中的一种方法。一般而言,深度学习方法的有效性依赖于大量的有标注的训练数据,然而想要为每一个任务域都收集足够多的训练数据是十分困难的,通过域适应,可以将在有充足训练数据的源域上训练的模型迁移到相关但是不相同的目标域上,解决目标域缺乏训练数据而难以使用其他深度方法的问题。
较早的域适应方法经常利用一些度量方法,例如最大平均差异(MMD)来度量源域和目标域之间的差异,然后通过最小化差异度量使模型能适应目标域。近些年来,受到生成对抗网络(GAN)的启发,对抗学习也被应用到了域适应领域中来。
基于对抗学习的域适应方法,能构建良好的特征提取器和领域鉴别器,特征提取器负责提取源域和目标域样本的特征,而领域鉴别器则鉴别这些特征来自哪个域,特征提取器希望提取出来的特征具备两个域的共性,使得领域鉴别器无法准确区分特征来源,而领域鉴别器则希望能够准确鉴别出特征的来源,通过这样的对抗博弈过程,从而达到使得特征提取器提取出域不变特征来混淆领域鉴别器的目的,减少域之间的差异,获得更好的效果。然而,这些方法都忽略了噪声因素在域适应中的影响,在实际应用中,被提取特征会包含样本中的噪声信息,这些错误的信息会误导模型的判断,降低模型的性能。
另一个相关技术是Fredholm学习,这个方法是基于Fredholm积分方程得到的一种核方法,常用于传统方法中,通过数学推导可以证明这个方法可以通过对输入数据进行映射并根据主成分的方差重新对各个成分进行赋权,从而降低方差小的成分(即噪声)的权重,抑制数据中的噪声信息,提高相关方法的性能。
发明内容
本发明提出一种基于Fredholm学习和对抗学习的域适应方法,与现有的基于对抗学习的域适应方法不同的是,该方法通过特征提取器提取到样本特征后,使用Fredholm学习方法对特征再次映射,从而抑制特征中的噪声信息,再将抑制了噪声信息的特征送到领域鉴别器中,利用对抗学习的思路,在对抗学习的过程中促使特征提取器提取出来的特征是噪声受到抑制的且域不变的,之后将特征提取器提取的特征送到相关的任务模块中,例如分类器,可以得到更好的效果。
为了实现上述目的,本发明采用如下技术方案:
一种基于Fredholm学习和对抗学习的域适应方法,所述方法包括:
S1特征提取,对源域数据Xs和目标域数据Xt用同一个特征提取器提取特征;
S2领域鉴别,在得到被提取特征后,要鉴别这些特征属于哪个域;其中,所述领域鉴别分为两个阶段:(1)Fredholm特征的获取;(2)域鉴别器进行鉴别;
S3样本分类,使用两个分类器,分类模块接收特征提取器提取到的特征,输入到全连接层中计算,并经过softmax后分别从源域分类器Cs和目标域分类器Ct输出分类结果。
需要说明的是,所述步骤S2中,还包括:
S2.1 Fredholm特征的获取:
可以将被提取特征fs和ft映射为Fredholm特征,从而抑制被提取特征的噪声信息。
Fredholm核函数的公式如下:
这个公式中l表示有类标数据的数量,u表示无类标数据的数量,核函数k(·,·)和kH(·,·)是不同的核函数,分别用外部核和内部核称呼,这些核函数的选择常常根据实际情况决定,常用的包括高斯核函数和线性核函数,kF(x,z)则是数据x关于z的Fredholm核;
设fi表示训练数据中第i个数据的特征,fj表示训练数据中第j个数据的特征,则第i个数据的Fredholm特征的第j个特征项的计算公式如下:
把所有特征项整合到一起,就得到了第i个数据的Fredholm特征gi,将所有Fredholm特征整理到一起并用g来表示;由于具有源域和目标域两个域的数据,为了区分,用gs表示这是源域数据的Fredholm特征,用gt来表示目标域的Fredholm特征,其中特征项
需要说明的是,所述步骤S2中,还包括:
S2.2域鉴别器进行鉴别
需要说明的是,所述步骤S2.2中,还包括:
鉴别器的目标函数如下:
需要说明的是,所述步骤S3包括:
还包括S3.1首先根据已标注的源域样本,在提取源域特征后,可以计算源域各个类的样本的特征中心其中O表示类别数量,之后提取目标域样本的特征,不同域但是同一类的样本的特征应尽可能靠近,故目标域特征与哪一个源域特征中心最靠近,就认为该目标域样本属于那一类,从而赋伪类标,并根据伪类标分配结果,计算出目标域特征中心获得初始的特征中心和目标域伪类标。
需要说明的是,还包括步骤S3.2:
在每次迭代训练时,源域根据提取的特征更新特征中心,目标域特征与之前得到的目标域特征中心进行比较,从而更新伪类标,进而更新目标域特征中心,同时,不同域而同一类的数据的特征中心应该要尽可能接近,下列公式度量特征中心的距离:
本发明的有益效果在于,提出的基于Fredholm学习和对抗学习的域适应方法在图像分类上能够达到更好的分类效果。
附图说明
图1为本发明的域适应方法的整体流程;
图2为没经过域适应的t-SNE特征可视化结果;
图3为域适应后的t-SNE特征可视化结果;
图4为本发明计算Fredholm特征的过程示意图。
具体实施方式
以下将结合附图对本发明作进一步的描述,需要说明的是,以下实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
本发明为一种基于Fredholm学习和对抗学习的域适应方法,所述方法包括:
S1特征提取,对源域数据Xs和目标域数据Xt用同一个特征提取器提取特征;
S2领域鉴别,在得到被提取特征后,要鉴别这些特征属于哪个域;其中,所述领域鉴别分为两个阶段:(1)Fredholm特征的获取;(2)域鉴别器进行鉴别;
S3样本分类,使用两个分类器,分类模块接收特征提取器提取到的特征,输入到全连接层中计算,并经过softmax后分别从源域分类器Cs和目标域分类器Ct输出分类结果。
需要说明的是,所述步骤S2中,还包括:
S2.1 Fredholm特征的获取:
可以将被提取特征fs和ft映射为Fredholm特征,从而抑制被提取特征的噪声信息。
Fredholm核函数的公式如下:
这个公式中l表示有类标数据的数量,u表示无类标数据的数量,核函数k(·,·)和kH(·,·)是不同的核函数,分别用外部核和内部核称呼,这些核函数的选择常常根据实际情况决定,常用的包括高斯核函数和线性核函数,kF(x,z)则是数据x关于z的Fredholm核;
设fi表示训练数据中第i个数据的特征,fj表示训练数据中第j个数据的特征,则第i个数据的Fredholm特征的第j个特征项的计算公式如下:
把所有特征项整合到一起,就得到了第i个数据的Fredholm特征gi,将所有Fredholm特征整理到一起并用g来表示;由于具有源域和目标域两个域的数据,为了区分,用gs表示这是源域数据的Fredholm特征,用gt来表示目标域的Fredholm特征,其中特征项
需要说明的是,所述步骤S2中,还包括:
S2.2域鉴别器进行鉴别
需要说明的是,所述步骤S2.2中,还包括:
鉴别器的目标函数如下:
需要说明的是,所述步骤S3包括:
还包括S3.1首先,根据已标注的源域样本,在提取源域特征后,可以计算源域各个类的样本的特征中心其中O表示类别数量,之后提取目标域样本的特征,不同域但是同一类的样本的特征应尽可能靠近,故目标域特征与哪一个源域特征中心最靠近,就认为该目标域样本属于那一类,从而赋伪类标,并根据伪类标分配结果,计算出目标域特征中心获得初始的特征中心和目标域伪类标。
需要说明的是,还包括步骤S3.2:
在每次迭代训练时,源域根据提取的特征更新特征中心,目标域特征与之前得到的目标域特征中心进行比较,从而更新伪类标,进而更新目标域特征中心,同时,不同域而同一类的数据的特征中心应该要尽可能接近,下列公式度量特征中心的距离:
实施例
1.特征提取
本发明提出的方法会对源域数据Xs和目标域数据Xt用同一个特征提取器提取特征,特征提取的目的是将数据转化为具有一定区分度的向量特征。特征提取器的网络结构常常根据实际需要提取特征的数据的情况而有所不同。对于一些比较简单的数据,比如手写数字集,选择结构简单的网络即可得到比较好的结果,比如LeNet;而对于复杂的数据,简单的网络难以满足实际需求,需要选用更加复杂的网络,比如VGG,GoogleNet等。使用fs和ft来表示特征提取器提取的特征,这些特征会被送到域鉴别模块进行鉴别,同时也会送到分类模块进行分类。
2.领域鉴别
在得到被提取特征后,要鉴别这些特征属于哪个域。在本部分中,领域鉴别分为两个阶段:(1)Fredholm特征的获取;(2)域鉴别器进行鉴别。
2.1 Fredholm特征的获取
在这一阶段,利用Fredholm核函数的计算公式,可以将被提取特征fs和ft映射为Fredholm特征从而抑制被提取特征的噪声信息。
Fredholm核函数的公式如下:
这个公式中l表示有类标数据的数量,u表示无类标数据的数量,核函数k(·,·)和kH(·,·)是不同的核函数,分别用外部核和内部核称呼,这些核函数的选择常常根据实际情况决定,常用的包括高斯核函数和线性核函数,kF(x,z)则是数据x关于z的Fredholm核。
本发明用fi表示训练数据中第i个数据的特征,fj表示训练数据中第j个数据的特征,则第i个数据的Fredholm特征的第j个特征项的计算公式如下:
把所有特征项整合到一起,就得到了第i个数据的Fredholm特征gi,将所有Fredholm特征整理到一起并用g来表示。在本发明的方法中,由于有源域和目标域两个域的数据,为了方便区分,我们使用上标来表示特征属于哪个域,用gs表示这是源域数据的Fredholm特征,用gt来表示目标域的Fredholm特征,其中特征项
2.2域鉴别器进行鉴别
在这一阶段,将获取的Fredholm特征输入到域鉴别器中,这里的鉴别器使用全连接层,分别对gs和gt进行线性组合,最终输出鉴别结果,并用和表示第i个源域样本和第i个目标域样本在域鉴别器的输出。这些输出表示的是输入的特征属于源域样本的概率,我们的目标是在经过对抗学习后,让域鉴别器处于一个理想的平衡状态,即对于一个训练好的域鉴别器,判断输入特征属于源域样本的概率和属于目标域样本的概率要一样,这就表示鉴别器被混淆了,说明提取到了域不变的特征,再结合之前的Fredholm学习方法,特征也应当具备噪声被抑制的特性。
鉴别器的目标函数如下:
通过t-SNE特征可视化方法将特征在训练前和训练后直观地展示出来,如图2、3,其中″X″表示源域的特征分布,表示目标域的特征分布,可以看出来,经过域适应后,两个域的特征分布变得接近,说明了方法的有效性。
3.样本分类
为了刻画复杂情况下两个域下特征的不同分布,本发明提出的方法使用了两个分类器,分类模块接收特征提取器提取到的特征,输入到全连接层中计算,并经过softmax后分别从源域分类器Cs和目标域分类器Ct输出分类结果,用和表示,分类器的损失函数使用交叉熵损失。
由于两个域的分类器不共享,需要对无标注的目标域样本赋伪类标,本方法采用中心对齐的方式来进行伪类标的分配与更新。
首先,根据已标注的源域样本,在提取源域特征后,可以计算源域各个类(假设有O个类)的样本的特征中心之后提取目标域样本的特征,我们期望属于不同域但是同一类的样本的特征能尽可能靠近,故目标域特征与哪一个源域特征中心最靠近,就认为该目标域样本属于那一类,从而赋伪类标,并根据伪类标分配结果,计算出目标域特征中心这便是初始的特征中心和目标域伪类标。
之后,在每次迭代训练时,源域根据提取的特征更新特征中心,目标域特征与之前得到的目标域特征中心进行比较,从而更新伪类标,进而更新目标域特征中心,同时,不同域而同一类的数据的特征中心应该要尽可能接近,故使用下列公式度量特征中心的距离。
根据上述三个部分进行对抗学习,在数字集MNIST-USPS-SVHN、域适应图像分类数据库ImageCLEF-DA和Office-31的分类结果如下:
表1:其他域适应方法和本发明在数字集上的实验结果比较
表2:其他域适应方法和本发明在ImageCLEF-DA上的实验结果比较
表3:其他域适应方法和本发明在Office-31上的实验结果比较
准确率(%) | A→W | W→A | D→W | W→D | A→D | D→A | 平均 |
AlexNet | 61.6±0.5 | 49.8±0.4 | 95.4±0.3 | 99.0±0.2 | 63.8±0.5 | 51.1±0.6 | 70.1 |
DDC | 61.8±0.4 | 52.2±0.4 | 95.0±0.5 | 98.5±0.4 | 64.4±0.3 | 52.1±0.6 | 70.6 |
DAN | 68.5±0.3 | 49.8±0.3 | 96.0±0.1 | 99.0±0.1 | 66.8±0.2 | 49.1±0.5 | 71.5 |
DRCN | 68.7±0.3 | 54.9±0.5 | 96.4±0.3 | 99.0±0.2 | 66.8±0.5 | 56.0±0.5 | 73.6 |
RTN | 73.3±0.3 | 51.0±0.1 | 96.8±0.2 | 99.6±0.1 | 71.0±0.2 | 50.5±0.3 | 73.7 |
RevGrad | 73.0±0.5 | 51.2±0.5 | 96.4±0.3 | 99.2±0.3 | 72.3±0.3 | 53.4±0.4 | 74.3 |
DAA(MMD) | 76.0±0.5 | 52.9±0.2 | 96.4±0.4 | 99.4±0.2 | 74.3±0.5 | 51.2±0.6 | 75 |
DAA(JMMD) | 74.3±0.3 | 53.2±0.1 | 97.1±0.2 | 99.6±0.2 | 72.5±0.2 | 52.5±0.3 | 74.8 |
JAN | 74.9±0.3 | 55.0±0.4 | 96.6±0.2 | 99.5±0.2 | 71.8±0.2 | 58.3±0.3 | 76.0 |
AutoDIAL | 75.5 | 59.4 | 96.6 | 99.5 | 73.6 | 58.1 | 77.1 |
MSTN | 80.5±0.4 | 60.0±0.6 | 96.9±0.1 | 99.9±0.1 | 74.5±0.4 | 62.5±0.4 | 79.1 |
ours | 81.1±0.3 | 61.2±0.3 | 97.4±0.2 | 99.9±0.1 | 75.1±0.2 | 63.5±0.4 | 79.7 |
这些表格中,箭头左边表示源域,箭头右边表示目标域,准确率指的是在源域上训练的模型使用各个域适应方法(每一个表格第一行数据都没有经过域适应,而是直接测试)适应目标域后在目标域上的分类准确率。
从以上结果可以看出,本发明提出的基于Fredholm学习和对抗学习的域适应方法在图像分类上能够达到更好的分类效果。
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变和变形,而所有的这些改变和变形,都应该包括在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于Fredholm学习和对抗学习的域适应方法,其特征在于,所述方法包括:
S1特征提取,对源域数据Xs和目标域数据Xt用同一个特征提取器提取特征;
S2领域鉴别,在得到被提取特征后,要鉴别这些特征属于哪个域;其中,所述领域鉴别分为两个阶段:(1)Fredholm特征的获取;(2)域鉴别器进行鉴别;
S3样本分类,使用两个分类器,分类模块接收特征提取器提取到的特征,输入到全连接层中计算,并经过softmax后分别从源域分类器Cs和目标域分类器Ct输出分类结果。
2.根据权利要求1所述的基于Fredholm学习和对抗学习的域适应方法,其特征在于,所述步骤S2中,还包括:
S2.1 Fredholm特征的获取:
可以将被提取特征fs和ft映射为Fredholm特征,从而抑制被提取特征的噪声信息。
关于数据x与z的Fredholm核函数公式如下:
这个公式中l表示有类标数据的数量,u表示无类标数据的数量,核函数k(·,·)和kH(·,·)是不同的核函数,分别用外部核和内部核称呼;
设fi表示训练数据中第i个数据的特征,fj表示训练数据中第j个数据的特征,则第i个数据的Fredholm特征的第j个特征项的计算公式如下:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019113397746 | 2019-12-23 | ||
CN201911339774 | 2019-12-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523680A true CN111523680A (zh) | 2020-08-11 |
CN111523680B CN111523680B (zh) | 2023-05-12 |
Family
ID=71911513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010512323.4A Active CN111523680B (zh) | 2019-12-23 | 2020-06-08 | 一种基于Fredholm学习和对抗学习的域适应方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523680B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113627443A (zh) * | 2021-10-11 | 2021-11-09 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062753A (zh) * | 2017-12-29 | 2018-05-22 | 重庆理工大学 | 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法 |
CN108256561A (zh) * | 2017-12-29 | 2018-07-06 | 中山大学 | 一种基于对抗学习的多源域适应迁移方法及系统 |
CN109190707A (zh) * | 2018-09-12 | 2019-01-11 | 深圳市唯特视科技有限公司 | 一种基于对抗学习的域自适应图像语义分割方法 |
CN110321926A (zh) * | 2019-05-24 | 2019-10-11 | 北京理工大学 | 一种基于深度残差修正网络的迁移方法及系统 |
-
2020
- 2020-06-08 CN CN202010512323.4A patent/CN111523680B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062753A (zh) * | 2017-12-29 | 2018-05-22 | 重庆理工大学 | 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法 |
CN108256561A (zh) * | 2017-12-29 | 2018-07-06 | 中山大学 | 一种基于对抗学习的多源域适应迁移方法及系统 |
CN109190707A (zh) * | 2018-09-12 | 2019-01-11 | 深圳市唯特视科技有限公司 | 一种基于对抗学习的域自适应图像语义分割方法 |
CN110321926A (zh) * | 2019-05-24 | 2019-10-11 | 北京理工大学 | 一种基于深度残差修正网络的迁移方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113627443A (zh) * | 2021-10-11 | 2021-11-09 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
CN113627443B (zh) * | 2021-10-11 | 2022-02-15 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111523680B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN110738247B (zh) | 一种基于选择性稀疏采样的细粒度图像分类方法 | |
Li et al. | Improving k nearest neighbor with exemplar generalization for imbalanced classification | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN108694346B (zh) | 一种基于两级cnn的船舶辐射噪声信号识别方法 | |
CN107908642B (zh) | 基于分布式平台的行业文本实体提取方法 | |
CN110019790B (zh) | 文本识别、文本监控、数据对象识别、数据处理方法 | |
WO2021164232A1 (zh) | 用户识别方法、装置、设备及存储介质 | |
CN111931859B (zh) | 一种多标签图像识别方法和装置 | |
CN108171119B (zh) | 基于残差网络的sar图像变化检测方法 | |
CN103310227A (zh) | 基于神经网络的自动窗宽窗位提取方法 | |
CN111429372A (zh) | 一种增强低对比度图像边缘检测效果的方法 | |
CN110348516B (zh) | 数据处理方法、装置、存储介质及电子设备 | |
CN110135428B (zh) | 图像分割处理方法和装置 | |
CN111523680A (zh) | 一种基于Fredholm学习和对抗学习的域适应方法 | |
Zhao et al. | Focal learning on stranger for imbalanced image segmentation | |
CN107729863B (zh) | 人体指静脉识别方法 | |
CN114037886A (zh) | 图像识别方法、装置、电子设备和可读存储介质 | |
CN106951924B (zh) | 基于AdaBoost算法的地震相干体图像断层自动识别方法及系统 | |
Jamil et al. | A rule-based segmentation method for fruit images under natural illumination | |
CN110647897A (zh) | 一种基于多部分注意力机制的零样本图像分类识别方法 | |
CN110751660B (zh) | 一种彩色图像分割方法 | |
CN111859898B (zh) | 一种基于隐藏关联网络的多领域文本隐式特征抽取方法及计算机存储介质 | |
CN115170838A (zh) | 一种数据筛选方法及装置 | |
CN114821184A (zh) | 一种基于均衡互补熵的长尾图像分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |