CN108549895A - 一种基于对抗网络的半监督语义分割方法 - Google Patents
一种基于对抗网络的半监督语义分割方法 Download PDFInfo
- Publication number
- CN108549895A CN108549895A CN201810344992.8A CN201810344992A CN108549895A CN 108549895 A CN108549895 A CN 108549895A CN 201810344992 A CN201810344992 A CN 201810344992A CN 108549895 A CN108549895 A CN 108549895A
- Authority
- CN
- China
- Prior art keywords
- network
- training
- segmentation
- image
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明中提出的一种基于对抗网络的半监督语义分割方法,其主要内容包括:网络架构、训练过程,其过程为,首先采用带有ResNet‑101模型、在ImageNet数据库预训练的DeepLab‑v2框架作为分割网络;然后移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;接着采用扩展的卷积网络以增大接收域,在最后一层之后使用空间金字塔池化;最后鉴别网络使用全卷积网络,采用上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。本发明基于对抗网络,提出了一种半监督语义分割方法,其中的全卷积鉴别器允许系统进行半监督学习,并能够提供附加的监督信号,从而提高了图像语义分割的性能。
Description
技术领域
本发明涉及语义分割领域,尤其是涉及了一种基于对抗网络的半监督语义分割方法。
背景技术
语义分割技术,简单来说就是给定一张图片,对图片中的每一个像素点进行分类。图像语义分割是人工智能领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。语义分割技术在实际应用中具有十分重要的作用。比如,在自动驾驶系统中,语义分割技术能够很好地对街景图像进行识别和理解,输出更加真实的场景图,并使得自动驾驶系统可以做出更加安全可靠的行驶操作;再比如,在无人机应用,语义分割技术有利于无人机更加精准地定位着落点的位置;在穿戴式设备应用中,语义分割技术能够提高穿戴设备识别周围物体的精确度,从而提高人们对穿戴设备的体验感受。
语义分割主要包括像素级别的阈值法、基于像素聚类的分割方法、基于图划分的分割方法以及基于深度学习的分割方法。前三种分割方法没有算法训练阶段,因此其计算复杂度不高,但是在较困难的分割任务上(如果不提供人为的辅助信息),其分割效果往往无法令人满意;而现有的大部分基于深度学习的半监督语义分割方法,其鉴别器是用于在图像层面区分输入图像是真实还是伪造图像,其缺点在于对图像语义分割的效果不够好。
本发明提出了一种基于对抗网络的半监督语义分割方法,首先采用带有ResNet-101模型、在ImageNet数据库预训练的DeepLab-v2框架作为分割网络;然后移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;接着采用扩展的卷积网络以增大接收域,在最后一层之后使用空间金字塔池化;最后鉴别网络使用全卷积网络,采用上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。本发明基于对抗网络,提出了一种半监督语义分割方法,其中的全卷积鉴别器允许系统进行半监督学习,并能够提供附加的监督信号,从而提高了图像语义分割的性能。
发明内容
针对现有方法存在图像语义分割效果不佳等问题,本发明的目的在于提供一种基于对抗网络的半监督语义分割方法,首先采用带有ResNet-101模型、在ImageNet数据库预训练的DeepLab-v2框架作为分割网络;然后移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;接着采用扩展的卷积网络以增大接收域,在最后一层之后使用空间金字塔池化;最后鉴别网络使用全卷积网络,采用上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。
为解决上述问题,本发明提供一种基于对抗网络的半监督语义分割方法,其主要内容包括:
(一)网络架构;
(二)训练过程。
其中,所述的网络架构,其主要包括:
(1)分割网络:采用带有ResNet-101模型、在ImageNet数据库预训练的DeepLab-v2框架作为分割网络,移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;这使得输出图像的分辨率变为输入图像大小的八分之一;
为了增大接收域,采用扩展的卷积网络;在最后一层之后,使用空间金字塔池化;最后,采用上采样网络层和Softmax函数,输出与输入图像大小相匹配的图像;
(2)鉴别网络:除了最后一个卷积层之外的其他所有卷积层都使用由0.2参数化的基于整流器模型的改进神经网络;为了把网络转换为全卷积网络,在最后的网络层增加了一个上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。
其中,所述的训练过程,主要包括分割网络训练和鉴别网络训练;
给定一张大小为H×W×3的输入图像Xn,用S(·)表示分割网络,用S(Xn)表示大小为H×W×C的预测概率图像;用D(·)表示全卷积鉴别器,其把大小为H×W×C的概率图像作为输入,并输出大小为H×W×1的置信图;
在提出的方法当中,存在鉴别网络的两个可能的输入:分割预测S(Xn)或者独热编码实况值Yn。
进一步地,所述的分割网络训练,在半监督设置下,同时使用标记的和未标记的图像;
当使用标记的图像时,分割网络同时受到关于实况标签图像的标准交叉熵损失函数和关于鉴别网络的对抗损失函数的监督;
当使用未标记的图像时,使用提出的半监督方法训练分割网络;在获得未标记图像的原始的分割预测值之后,把分割预测值输入鉴别网络以获取置信图;使用自我学习程序轮流把此置信图当作监督信号,训练带有标记的交叉熵损失函数的分割网络。
进一步地,所述的半监督设置,采用自我学习策略,利用带有未标记数据的训练获得鉴别器;其主要思想在于通过训练所获得的鉴别器可以产生一个置信图,即D(S(Xn))(h,w);置信图可以推断出预测结果与实况分布值足够接近的区域;
为了突出可靠的区域,将上述的置信图进行二值化处理;最后,利用二值化处理所得的置信图,定义自我学习实况值为被屏蔽的分割预测值
进一步地,所述的自我学习策略,通过最小化下面的多任务损失函数来训练分割网络:
其中,和分别表示空间多任务交叉熵损失函数、对抗损失函数和半监督损失函数,λadv和λsemi是用于平衡多任务训练过程的参数。
进一步地,所述多任务损失函数,分别考虑标记数据和未标记数据;对于标记数据,给定一张输入图像Xn、独热编码实况值Yn和预测结果S(Xn),可以构造交叉熵损失函数,即:
采用对抗学习方法,通过对抗损失函数给出一个全卷积鉴别网络D(·),即:
利用该对抗损失函数,尝试训练分割网络,通过最大化分割预测的概率以欺骗鉴别器,让鉴别器误将其当作实况分布值。
进一步地,所述的未标记数据,考虑在半监督设置下的对抗训练过程,对于未标记数据,由于不存在实况标签,因此无法利用而由于对抗损失函数仅仅需要鉴别网络,所以仍然可以使用
进一步地,所述的鉴别网络训练,最小化关于两个类别的交叉熵损失函数;鉴别网络把一个控制通路的概率图像作为其输入;为了把带有离散标签值的实况标签图像转换成为控制通路的概率图像,在实况标签图像上采用独热编码程序;当属于类别c时,取值为1;否则取值为0。
进一步地,所述的交叉熵损失函数,其形式上可以写成:
其中,如果样本来自分割网络,则yn=0;如果样本来自实况标签,则yn=1。
附图说明
图1是本发明一种基于对抗网络的半监督语义分割方法的系统概况图。
图2是本发明一种基于对抗网络的半监督语义分割方法的可视化置信图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于对抗网络的半监督语义分割方法的系统概况图。其主要内容包括网络架构以及训练过程。
其中,所述的网络架构,其主要包括:
(1)分割网络:采用带有ResNet-101模型、在ImageNet数据库预训练的DeepLab-v2框架作为分割网络,移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;这使得输出图像的分辨率变为输入图像大小的八分之一;
为了增大接收域,采用扩展的卷积网络;在最后一层之后,使用空间金字塔池化;最后,采用上采样网络层和Softmax函数,输出与输入图像大小相匹配的图像;
(2)鉴别网络:除了最后一个卷积层之外的其他所有卷积层都使用由0.2参数化的基于整流器模型的改进神经网络;为了把网络转换为全卷积网络,在最后的网络层增加了一个上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。
其中,所述的训练过程,主要包括分割网络训练和鉴别网络训练;
给定一张大小为H×W×3的输入图像Xn,用S(·)表示分割网络,用S(Xn)表示大小为H×W×C的预测概率图像;用D(·)表示全卷积鉴别器,其把大小为H×W×C的概率图像作为输入,并输出大小为H×W×1的置信图;
在提出的方法当中,存在鉴别网络的两个可能的输入:分割预测S(Xn)或者独热编码实况值Yn。
进一步地,所述的分割网络训练,在半监督设置下,同时使用标记的和未标记的图像;
当使用标记的图像时,分割网络同时受到关于实况标签图像的标准交叉熵损失函数和关于鉴别网络的对抗损失函数的监督;
当使用未标记的图像时,使用提出的半监督方法训练分割网络;在获得未标记图像的原始的分割预测值之后,把分割预测值输入鉴别网络以获取置信图;使用自我学习程序轮流把此置信图当作监督信号,训练带有标记的交叉熵损失函数的分割网络。
进一步地,所述的半监督设置,采用自我学习策略,利用带有未标记数据的训练获得鉴别器;其主要思想在于通过训练所获得的鉴别器可以产生一个置信图,即D(S(Xn))(h,w);置信图可以推断出预测结果与实况分布值足够接近的区域。
进一步地,所述的自我学习策略,通过最小化下面的多任务损失函数来训练分割网络:
其中,和分别表示空间多任务交叉熵损失函数、对抗损失函数和半监督损失函数,λadv和λsemi是用于平衡多任务训练过程的参数。
进一步地,所述多任务损失函数,分别考虑标记数据和未标记数据;对于标记数据,给定一张输入图像Xn、独热编码实况值Yn和预测结果S(Xn),可以构造交叉熵损失函数,即:
采用对抗学习方法,通过对抗损失函数给出一个全卷积鉴别网络D(·),即:
利用该对抗损失函数,尝试训练分割网络,通过最大化分割预测的概率以欺骗鉴别器,让鉴别器误将其当作实况分布值。
进一步地,所述的未标记数据,考虑在半监督设置下的对抗训练过程,对于未标记数据,由于不存在实况标签,因此无法利用而由于对抗损失函数仅仅需要鉴别网络,所以仍然可以使用
进一步地,所述的鉴别网络训练,最小化关于两个类别的交叉熵损失函数;鉴别网络把一个控制通路的概率图像作为其输入;为了把带有离散标签值的实况标签图像转换成为控制通路的概率图像,在实况标签图像上采用独热编码程序;当属于类别c时,取值为1;否则取值为0。
进一步地,所述的交叉熵损失函数,其形式上可以写成:
其中,如果样本来自分割网络,则yn=0;如果样本来自实况标签,则yn=1。
图2是本发明一种基于对抗网络的半监督语义分割方法的可视化置信图。为了突出可靠的区域,将上述的置信图进行二值化处理;最后,利用二值化处理所得的置信图,定义自我学习实况值为被屏蔽的分割预测值在置信图当中,越亮的区域表示这些区域越接近于实况分布值。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于对抗网络的半监督语义分割方法,其特征在于,主要包括网络架构(一);训练过程(二)。
2.基于权利要求书1所述的网络架构(一),其特征在于,其主要包括:
(1)分割网络:采用带有ResNet-101模型、在ImageNet数据库预训练的DeepLab-v2框架作为分割网络,移除最后一个分类网络层,并把最后两个卷积层的间距由2改为1;这使得输出图像的分辨率变为输入图像大小的八分之一;
为了增大接收域,采用扩展的卷积网络;在最后一层之后,使用空间金字塔池化;最后,采用上采样网络层和Softmax函数,输出与输入图像大小相匹配的图像;
(2)鉴别网络:除了最后一个卷积层之外的其他所有卷积层都使用由0.2参数化的基于整流器模型的改进神经网络;为了把网络转换为全卷积网络,在最后的网络层增加了一个上采样网络层,用于重新调整与输入图像大小相匹配的输出图像。
3.基于权利要求书1所述的训练过程(二),其特征在于,主要包括分割网络训练和鉴别网络训练;
给定一张大小为H×W×3的输入图像Xn,用S(·)表示分割网络,用S(Xn)表示大小为H×W×C的预测概率图像;用D(·)表示全卷积鉴别器,其把大小为H×W×C的概率图像作为输入,并输出大小为H×W×1的置信图;
在提出的方法当中,存在鉴别网络的两个可能的输入:分割预测S(Xn)或者独热编码实况值Yn。
4.基于权利要求书3所述的分割网络训练,其特征在于,在半监督设置下,同时使用标记的和未标记的图像;
当使用标记的图像时,分割网络同时受到关于实况标签图像的标准交叉熵损失函数和关于鉴别网络的对抗损失函数的监督;
当使用未标记的图像时,使用提出的半监督方法训练分割网络;在获得未标记图像的原始的分割预测值之后,把分割预测值输入鉴别网络以获取置信图;使用自我学习程序轮流把此置信图当作监督信号,训练带有标记的交叉熵损失函数的分割网络。
5.基于权利要求书4所述的半监督设置,其特征在于,采用自我学习策略,利用带有未标记数据的训练获得鉴别器;其主要思想在于通过训练所获得的鉴别器可以产生一个置信图,即D(S(Xn))(h,w);置信图可以推断出预测结果与实况分布值足够接近的区域;
为了突出可靠的区域,将上述的置信图进行二值化处理;最后,利用二值化处理所得的置信图,定义自我学习实况值为被屏蔽的分割预测值
6.基于权利要求书5所述的自我学习策略,其特征在于,通过最小化下面的多任务损失函数来训练分割网络:
其中,和分别表示空间多任务交叉熵损失函数、对抗损失函数和半监督损失函数,λadv和λsemi是用于平衡多任务训练过程的参数。
7.基于权利要求书6所述多任务损失函数,其特征在于,分别考虑标记数据和未标记数据;对于标记数据,给定一张输入图像Xn、独热编码实况值Yn和预测结果S(Xn),可以构造交叉熵损失函数,即:
采用对抗学习方法,通过对抗损失函数给出一个全卷积鉴别网络D(·),即:
利用该对抗损失函数,尝试训练分割网络,通过最大化分割预测的概率以欺骗鉴别器,让鉴别器误将其当作实况分布值。
8.基于权利要求书7所述的未标记数据,其特征在于,考虑在半监督设置下的对抗训练过程,对于未标记数据,由于不存在实况标签,因此无法利用而由于对抗损失函数仅仅需要鉴别网络,所以仍然可以使用
9.基于权利要求书3所述的鉴别网络训练,其特征在于,最小化关于两个类别的交叉熵损失函数;鉴别网络把一个控制通路的概率图像作为其输入;为了把带有离散标签值的实况标签图像转换成为控制通路的概率图像,在实况标签图像上采用独热编码程序;当属于类别c时,取值为1;否则取值为0。
10.基于权利要求书9所述的交叉熵损失函数,其特征在于,交叉熵损失函数形式上可以写成:
其中,如果样本来自分割网络,则yn=0;如果样本来自实况标签,则yn=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810344992.8A CN108549895A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗网络的半监督语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810344992.8A CN108549895A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗网络的半监督语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108549895A true CN108549895A (zh) | 2018-09-18 |
Family
ID=63515451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810344992.8A Withdrawn CN108549895A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗网络的半监督语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108549895A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584257A (zh) * | 2018-11-28 | 2019-04-05 | 中国科学院深圳先进技术研究院 | 一种图像处理方法及相关设备 |
CN109614921A (zh) * | 2018-12-07 | 2019-04-12 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109784380A (zh) * | 2018-12-27 | 2019-05-21 | 西安交通大学 | 一种基于生成对抗学习的多维度田间杂草识别方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN110097131A (zh) * | 2019-05-08 | 2019-08-06 | 南京大学 | 一种基于对抗协同训练的半监督医疗图像分割方法 |
CN110263865A (zh) * | 2019-06-24 | 2019-09-20 | 北方民族大学 | 一种半监督多模态多类别的图像翻译方法 |
CN110414526A (zh) * | 2019-07-31 | 2019-11-05 | 达闼科技(北京)有限公司 | 语义分割网络的训练方法、训练装置、服务器和存储介质 |
CN110490884A (zh) * | 2019-08-23 | 2019-11-22 | 北京工业大学 | 一种基于对抗的轻量级网络语义分割方法 |
CN110570433A (zh) * | 2019-08-30 | 2019-12-13 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110827258A (zh) * | 2019-10-31 | 2020-02-21 | 西安交通大学 | 一种基于半监督对抗学习的糖尿病视网膜疾病的筛查装置及方法 |
CN110826596A (zh) * | 2019-10-09 | 2020-02-21 | 天津大学 | 一种基于多尺度可变形卷积的语义分割方法 |
CN110837836A (zh) * | 2019-11-05 | 2020-02-25 | 中国科学技术大学 | 基于最大化置信度的半监督语义分割方法 |
CN110942805A (zh) * | 2019-12-11 | 2020-03-31 | 云南大学 | 一种基于半监督深度学习的绝缘子元件预测系统 |
CN111027575A (zh) * | 2019-12-13 | 2020-04-17 | 广西师范大学 | 一种自注意对抗学习的半监督语义分割方法 |
CN111507993A (zh) * | 2020-03-18 | 2020-08-07 | 南方电网科学研究院有限责任公司 | 一种基于生成对抗网络的图像分割方法、装置及存储介质 |
CN112329863A (zh) * | 2020-11-09 | 2021-02-05 | 西南交通大学 | 一种牵引变电所内隔离开关状态识别方法 |
CN112949646A (zh) * | 2021-02-26 | 2021-06-11 | 平安科技(深圳)有限公司 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
CN112950617A (zh) * | 2021-03-24 | 2021-06-11 | 上海海事大学 | 基于连续旋转图像增强和条件生成对抗网络的潮流机叶片附着物识别方法 |
CN113011427A (zh) * | 2021-03-17 | 2021-06-22 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN113177950A (zh) * | 2021-04-22 | 2021-07-27 | 燕山大学 | 基于半监督对抗学习的冠脉造影血管图像分割的方法 |
CN112950617B (zh) * | 2021-03-24 | 2024-05-10 | 上海海事大学 | 基于连续旋转图像增强和条件生成对抗网络的潮流机叶片附着物识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480726A (zh) * | 2017-08-25 | 2017-12-15 | 电子科技大学 | 一种基于全卷积和长短期记忆单元的场景语义分割方法 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
-
2018
- 2018-04-17 CN CN201810344992.8A patent/CN108549895A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480726A (zh) * | 2017-08-25 | 2017-12-15 | 电子科技大学 | 一种基于全卷积和长短期记忆单元的场景语义分割方法 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
Non-Patent Citations (1)
Title |
---|
WEI-CHIH HUNG ET.AL: ""ADVERSARIAL LEARNING FOR SEMI-SUPERVISED SEMANTIC SEGMENTATION"", 《ARXIV:1802.07934V1 [CS.CV]》 * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584257B (zh) * | 2018-11-28 | 2022-12-09 | 中国科学院深圳先进技术研究院 | 一种图像处理方法及相关设备 |
CN109584257A (zh) * | 2018-11-28 | 2019-04-05 | 中国科学院深圳先进技术研究院 | 一种图像处理方法及相关设备 |
CN109614921A (zh) * | 2018-12-07 | 2019-04-12 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109614921B (zh) * | 2018-12-07 | 2022-09-30 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109784380A (zh) * | 2018-12-27 | 2019-05-21 | 西安交通大学 | 一种基于生成对抗学习的多维度田间杂草识别方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN109949317B (zh) * | 2019-03-06 | 2020-12-11 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN110097131A (zh) * | 2019-05-08 | 2019-08-06 | 南京大学 | 一种基于对抗协同训练的半监督医疗图像分割方法 |
CN110263865A (zh) * | 2019-06-24 | 2019-09-20 | 北方民族大学 | 一种半监督多模态多类别的图像翻译方法 |
CN110414526A (zh) * | 2019-07-31 | 2019-11-05 | 达闼科技(北京)有限公司 | 语义分割网络的训练方法、训练装置、服务器和存储介质 |
CN110414526B (zh) * | 2019-07-31 | 2022-04-08 | 达闼科技(北京)有限公司 | 语义分割网络的训练方法、训练装置、服务器和存储介质 |
CN110490884A (zh) * | 2019-08-23 | 2019-11-22 | 北京工业大学 | 一种基于对抗的轻量级网络语义分割方法 |
CN110570433A (zh) * | 2019-08-30 | 2019-12-13 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110570433B (zh) * | 2019-08-30 | 2022-04-22 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110826596A (zh) * | 2019-10-09 | 2020-02-21 | 天津大学 | 一种基于多尺度可变形卷积的语义分割方法 |
CN110827258B (zh) * | 2019-10-31 | 2022-02-11 | 西安交通大学 | 一种基于对抗学习的糖尿病视网膜疾病的筛查装置及方法 |
CN110827258A (zh) * | 2019-10-31 | 2020-02-21 | 西安交通大学 | 一种基于半监督对抗学习的糖尿病视网膜疾病的筛查装置及方法 |
CN110837836A (zh) * | 2019-11-05 | 2020-02-25 | 中国科学技术大学 | 基于最大化置信度的半监督语义分割方法 |
CN110942805A (zh) * | 2019-12-11 | 2020-03-31 | 云南大学 | 一种基于半监督深度学习的绝缘子元件预测系统 |
CN111027575B (zh) * | 2019-12-13 | 2022-06-17 | 广西师范大学 | 一种自注意对抗学习的半监督语义分割方法 |
CN111027575A (zh) * | 2019-12-13 | 2020-04-17 | 广西师范大学 | 一种自注意对抗学习的半监督语义分割方法 |
CN111507993A (zh) * | 2020-03-18 | 2020-08-07 | 南方电网科学研究院有限责任公司 | 一种基于生成对抗网络的图像分割方法、装置及存储介质 |
CN112329863B (zh) * | 2020-11-09 | 2022-04-22 | 西南交通大学 | 一种牵引变电所内隔离开关状态识别方法 |
CN112329863A (zh) * | 2020-11-09 | 2021-02-05 | 西南交通大学 | 一种牵引变电所内隔离开关状态识别方法 |
CN112949646A (zh) * | 2021-02-26 | 2021-06-11 | 平安科技(深圳)有限公司 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
CN112949646B (zh) * | 2021-02-26 | 2023-12-19 | 平安科技(深圳)有限公司 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
CN113011427A (zh) * | 2021-03-17 | 2021-06-22 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN113011427B (zh) * | 2021-03-17 | 2022-06-21 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN112950617A (zh) * | 2021-03-24 | 2021-06-11 | 上海海事大学 | 基于连续旋转图像增强和条件生成对抗网络的潮流机叶片附着物识别方法 |
CN112950617B (zh) * | 2021-03-24 | 2024-05-10 | 上海海事大学 | 基于连续旋转图像增强和条件生成对抗网络的潮流机叶片附着物识别方法 |
CN113177950A (zh) * | 2021-04-22 | 2021-07-27 | 燕山大学 | 基于半监督对抗学习的冠脉造影血管图像分割的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549895A (zh) | 一种基于对抗网络的半监督语义分割方法 | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
Yang et al. | Towards real-time traffic sign detection and classification | |
CN110619369A (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
CN104361313B (zh) | 一种基于多核学习异构特征融合的手势识别方法 | |
CN106815604A (zh) | 基于多层信息融合的注视点检测方法 | |
CN110163236A (zh) | 模型的训练方法和装置、存储介质、电子装置 | |
CN109711448A (zh) | 基于判别关键域和深度学习的植物图像细粒度分类方法 | |
Basha et al. | An efficient face mask detector with pytorch and deep learning | |
CN109271991A (zh) | 一种基于深度学习的车牌检测方法 | |
CN110232316A (zh) | 一种基于改进的dsod模型的车辆检测与识别方法 | |
CN110929665B (zh) | 一种自然场景曲线文本检测方法 | |
CN111191608B (zh) | 基于YOLOv3改进的交通标志检测与识别方法 | |
CN110163286A (zh) | 一种基于混合池化的领域自适应图像分类方法 | |
CN110310241A (zh) | 一种融合深度区域分割的多大气光值交通图像去雾方法 | |
Hu et al. | AGNet: Attention-guided network for surgical tool presence detection | |
CN114022793A (zh) | 一种基于孪生网络的光学遥感图像变化检测方法 | |
CN105184299A (zh) | 基于局部约束线性编码的车身颜色识别方法 | |
CN114299286A (zh) | 一种异常天气下基于类别分组的道路场景语义分割方法 | |
CN115810157A (zh) | 一种基于轻量级特征融合的无人机目标检测方法 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN117011635A (zh) | 模型训练方法、图像数据处理方法、装置及计算机设备 | |
CN115860152A (zh) | 一种面向人物军事知识发现的跨模态联合学习方法 | |
CN110472655A (zh) | 一种用于跨境旅游的标志物机器学习识别系统及方法 | |
Panda et al. | Modified ResNet-152 Network With Hybrid Pyramidal Pooling for Local Change Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180918 |
|
WW01 | Invention patent application withdrawn after publication |