CN116958548A - 基于类别统计驱动的伪标签自蒸馏语义分割方法 - Google Patents
基于类别统计驱动的伪标签自蒸馏语义分割方法 Download PDFInfo
- Publication number
- CN116958548A CN116958548A CN202310902217.0A CN202310902217A CN116958548A CN 116958548 A CN116958548 A CN 116958548A CN 202310902217 A CN202310902217 A CN 202310902217A CN 116958548 A CN116958548 A CN 116958548A
- Authority
- CN
- China
- Prior art keywords
- training
- model
- probability distribution
- category
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000011218 segmentation Effects 0.000 title claims abstract description 29
- 238000004821 distillation Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 103
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims 1
- 241000364483 Lipeurus epsilon Species 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000009499 grossing Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于类别统计驱动的伪标签自蒸馏语义分割方法,属于计算机图像处理技术,在训练过程中对教师模型语义类别概率信息进行统计,并根据概率分布特性将类别标签进行平滑处理,将平滑标签与教师模型输出语义类别概率信息的加权均值作为学生模型的监督信息,有效地提升了类别统计驱动下的伪标签自蒸馏语义分割的效果。本发明公开的基于类别统计驱动的伪标签自蒸馏语义分割方法,将经过平滑处理的标签与教师模型输出语义类别概率信息加权均值作为学生模型的监督信息,改善了在训练过程中标签硬化难以拟合以及人为平滑操作引入标签噪声的问题,解决了蒸馏过程中因教师模型类别预测错误导致学生网络知识学习受到噪声标签影响的问题。
Description
技术领域
本发明属于计算机图像处理技术,尤其涉及一种基于类别统计驱动的伪标签自蒸馏语义分割方法。
背景技术
在基于有监督学习的语义分割任务中,通常会将每个训练样本的标签设置为一个One-hot编码,即正确标签设置为1,其他设置为0。虽然这种方式使得模型在训练过程中能够根据权重大小硬性的去评判正确的类别,但也可能会导致模型在训练的时候出现过拟合现象。而另外一些研究为解决以上问题,在One-hot编码的基础上采用标签平滑的方法构建了语义分割模型训练方法,即将正确答案的标签位置设置为一个比1略小的数,其他位置则平均分配较小的权重,这样可以降低模型对正确答案预测的盲目自信,从而减轻过拟合现象,但同时引入了过多的噪声污染现象。
目前,在深度学习中,随着网络层数深度与复杂度的增加,模型参数量增大的同时容易产生过拟合现象,尤其是当训练数据有限时。随着知识蒸馏方法的提出,可以通过在教师-学生模型之间传递知识以减少模型的复杂度,避免出现过拟合现象。在这个过程中,教师模型的输出被视为一组概率分布引导的软标签,而不是0和1的二元向量,学生模型学习的目标是减少教师模型输出的软标签与学生模型输出之间的距离。虽然学生模型可以学习到更加平滑的决策边界以避免过拟合,但经过预训练的教师网络难以获得平滑的决策边界,而自蒸馏训练方法可以有效地解决这个问题。自蒸馏具备蒸馏的效果,同时不需要较大的教师模型,但仍然存在教师模型输出错误,导致学生模型学习错误知识的问题。
发明内容
本发明的目的在于提供一种基于类别统计驱动的伪标签自蒸馏语义分割方法,能够有效提升模型训练后识别精度,改善模型泛化能力。
实现本发明目的的技术解决方案为:一种基于自蒸馏语义分割模型训练方法,包括以下步骤:
步骤1、选择Cityscapes数据集中的N幅图像,1000<N<10000,进行归一化处理,将图像尺寸统一为H×W×C,以此作为训练样本集DT,训练样本的类别数目为Nc,H表示图像高度,W表示图像宽度,C表示图像通道数,转入步骤2。
步骤2、采用有监督训练,以交叉熵为损失函数对图像语义分割模型进行训练,训练后的模型称之为教师模型,用教师模型对训练样本集DT进行预测,统计教师模型的预测结果得到所有类别的统计概率分布,转入步骤3。
步骤3、利用步骤2中得到的每个类别的概率分布对训练样本集DT中的原始标签进行软化,软化标签与对应的教师模型预测结果加权平均得到学生模型的训练标签,转入步骤4。
步骤4、利用步骤3中获取的学生模型的训练标签对学生模型进行监督训练,学生模型损失函数采用余弦相似度函数,转入步骤5。
步骤5、选择Cityscapes数据集中的其他M幅图像,100<M<1000,通过归一化处理,将图像分辨率统一为H×W×C,构成测试样本集DS,转入步骤6。
步骤6、将测试样本集DS中的图像输入学生模型,输出语义分割图。
本发明与现有技术相比,其显著优点在于:
(1)软化标签包含隐藏知识,相比于原始标签更有利于模型学习,提升模型预测精度。
(2)蒸馏过程中教师模型的预测结果与软化标签加权平均后保证每个像素标签的准确性,解决因教师模型预测结果错误导致学生模型学习错误知识的问题。
附图说明
图1为本发明所述的基于类别统计驱动的伪标签自蒸馏语义分割方法流程图。
图2为非蒸馏的常规训练方法、CIRKD方法以及本发明的方法实验对比结果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步的详细描述。
结合图1,一种基于类别统计驱动的伪标签自蒸馏语义分割方法,步骤如下:
步骤1、选择Cityscapes数据集中的N幅图像作为训练图像,1000<N<10000,通过归一化处理将训练图像尺寸统一为H×W×C,得到训练样本图像,并构建训练样本集DT,训练样本集DT中训练样本的类别数目为Nc,H表示训练样本图像高度,W表示训练样本图像宽度,C表示训练样本图像通道数,转入步骤2。
步骤2、采用有监督训练,以交叉熵为损失函数对图像语义分割模型进行训练,训练后得到教师模型,利用教师模型对训练样本集DT进行预测,统计教师模型的预测结果得到所有类别的统计概率分布,具体如下:
采用有监督训练,以交叉熵为损失函数对图像语义分割模型进行训练,训练后的模型称之为教师模型,用教师模型对训练样本集DT进行预测,教师模型的预测结果为训练样本集DT中的原始标签为L∈RH×W,根据原始标签确定教师模型预测正确的像素点,计算单一图像中同一类别的预测正确像素的概率分布均值/>i∈{1,2,3,…,Nc},计算方式如下:
式中,[]为艾佛森括号,满足括号内的条件则值为1,不满足条件则值为0。之后采用指数移动平均的方法计算出训练样本集中某一类别的概率分布教师模型预测一次,Pi更新一次,直至迭代完训练样本集中所有图像,迭代公式如下:
式中β为比例因子,设置为1-1/N,为上一次迭代的结果,初始值为第i类的独热码。创新性地采用统计方法获取教师模型对训练样本集DT中所有类别像素的统计概率分布转入步骤3。
步骤3、利用步骤2中得到的每个类别的概率分布对训练样本集DT中的原始标签分别进行软化,得到对应的软化标签,利用软化标签与对应的教师模型预测结果加权平均得到学生模型的训练标签,具体如下:
根据原始标签L可知,根据原始标签L得知每幅训练样本图像中第h行w列像素的类别Lh,w,Lh,w∈{1,2,3,…,Nc},h∈{1,2,3,…,H},w∈{1,2,3,…,W},软化标签Lsoft的第h行w列像素的概率分布将从对应类别概率分布获取,
式中,表示软化标签Lsoft的第h行w列像素的概率分布,/>表示统计概率分布P中类别Lh,w的概率分布。
学生模型的训练标签Ls由教师模型的预测结果Tpre和软化标签Lsoft加权平均获得,获得的学生模型的训练标签Ls中不仅保持了每个像素标签的独特性,而且具备与原始标签L的类别一致性,同时含有教师模型的隐藏知识,计算公式如下:
Ls=α*Lsoft+(1-α)*Tpre
式中,α为平衡因子,由于教师模型的预测结果存在预测错误的像素,为保证Ls与原始标签L的像素类别一致性,平衡因子α取值范围为0.5到1之间,转入步骤4。
步骤4、利用学生模型的训练标签对学生模型进行监督训练,学生模型损失函数采用余弦相似度函数,具体如下:
将训练样本集DT输入学生模型中,得到输出结果Spre,在学生模型预测结果Spre与学生模型的训练标签Ls之间构建损失函数,通过反向传播训练学生模型的网络参数,损失函数计算公式如下:
式中Cosine_Similarity(·,·)为余弦相似度函数,表示学生模型的训练标签Ls的第h行w列像素的标签,/>表示学生模型相应图像的第h行w列像素的输出结果,转入步骤5。
步骤5、选择Cityscapes数据集中的其他M幅图像作为测试图像,100<M<1000,通过归一化处理将测试样本图像分辨率统一为H×W×C,得到测试样本图像,并构建测试样本集DS,转入步骤6。
步骤6、将测试样本集DS中的图像输入学生模型,输出语义分割图。
实施例1
结合图1,本发明所述的基于类别统计驱动的伪标签自蒸馏语义分割方法,步骤如下:
步骤1、选择Cityscapes数据集中的N幅图像,N=2975,进行归一化处理,将图像尺寸统一为H×W×C,H=512,W=1024,C=3,以此作为训练样本集DT,训练样本的类别数目为Nc=19,转入步骤2。
步骤2、采用有监督训练,以交叉熵为损失函数对图像语义分割模型进行训练,训练后得到教师模型,利用教师模型对训练样本集DT进行预测,教师模型的预测结果为训练样本集的原始标签L∈RH×W,根据原始标签确定预测正确的像素点,计算单一图像中同一类别的预测正确像素的概率分布均值/>计算方式如下:
式中,[]为艾佛森括号,满足括号内的条件则值为1,不满足条件则值为0。之后采用指数移动平均的方法计算出训练样本集中某一类别的概率分布教师模型预测一次,Pi更新一次,直至迭代完训练样本集中所有图像,迭代公式如下:
式中β为比例因子,设置为1-1/N,最终训练样本集所有类别的统计概率分布转入步骤3。
步骤3、利用步骤2中得到的每个类别的概率分布对训练样本集DT中的原始标签分别进行软化,软化标签与教师模型预测结果加权平均得到最终的学生模型训练标签,具体如下:
根据原始标签L可知每幅训练样本图像中第h行w列像素的类别Lh,w,Lh,w∈{1,2,3,…,Nc},h∈{1,2,3,…,H},w∈{1,2,3,…,W},软化标签Lsoft的第h行w列像素的概率分布将从对应类别概率分布获取,归纳为如下公式:
学生网络的训练标签Ls由教师模型的预测结果Tpre和软化标签Lsoft加权平均获得,计算公式如下:
Ls=α*Lsoft+(1-α)*Tpre
式中,α为平衡因子,此处设置α为0.7,转入步骤4。
步骤4、学生模型预测结果Spre与训练标签Ls之间构建损失函数,通过反向传播训练学生网络参数,损失函数计算公式如下:
式中Cosine_Similarity(·,·)为余弦相似度函数,表示学生模型的训练标签Ls的第h行w列像素的标签,/>表示学生模型相应图像的第h行w列像素的输出结果,转入步骤5。
步骤5、选择Cityscapes数据集中的其他M幅图像,M=500,通过归一化处理,将图像分辨率统一为512×1024×3,构成测试样本集DS,转入步骤6。
步骤6、将测试样本集DS中的图像输入学生模型,输出语义分割图。
本发明在NVIDIA GEFORCE RTX 3090Ti GPU主机上采用python编程语言和Pytorch深度学习框架进行相关实验。在网络训练的过程中,输入图像的大小被归一化为512×1024,网络的学习率被设置为0.02,一批图像数目设置为12。选取ResNet18作为骨干网络,且加载在ImageNet数据集上训练好的权重。
为了更好地体现本发明提出的训练方法对于语义分割网络的分割效果,根据实施例1训练模型,并且可视化结果。选取非蒸馏的常规训练方法,CIRKD作为对比方法进行相关实验,在Cityscapes数据集上的实验结果如图2所示。从中可以看出,本发明有效地改善网络分割的性能,并且分割图像的局部细节较为突出。
Claims (4)
1.一种基于类别统计驱动的伪标签自蒸馏语义分割方法,其特征在于,包括以下步骤:
步骤1、选择Cityscapes数据集中的N幅图像作为训练图像,1000<N<10000,通过归一化处理将训练图像尺寸统一为H×W×C,得到训练样本图像,并构建训练样本集DT,训练样本集DT中训练样本的类别数目为Nc,H表示训练样本图像高度,W表示训练样本图像宽度,C表示训练样本图像通道数,转入步骤2;
步骤2、采用有监督训练,以交叉熵为损失函数对图像语义分割模型进行训练,训练后得到教师模型,利用教师模型对训练样本集DT进行预测,统计教师模型的预测结果得到所有类别的统计概率分布,转入步骤3;
步骤3、利用每个类别的概率分布对训练样本集DT中的原始标签分别进行软化,得到对应的软化标签,利用软化标签与对应的教师模型预测结果加权平均得到学生模型的训练标签,转入步骤4;
步骤4、利用学生模型的训练标签对学生模型进行监督训练,学生模型损失函数采用余弦相似度函数,转入步骤5;
步骤5、选择Cityscapes数据集中的其他M幅图像作为测试图像,100<M<1000,通过归一化处理将测试样本图像分辨率统一为H×W×C,得到测试样本图像,并构建测试样本集DS,转入步骤6;
步骤6、将测试样本集DS中的图像输入学生模型,输出语义分割图。
2.根据权利要求1所述的一种基于类别统计驱动的伪标签自蒸馏语义分割方法,其特征在于,步骤2中利用教师模型对训练样本集DT进行预测,统计教师模型的预测结果得到所有类别的统计概率分布,具体如下:
将训练样本集DT逐一输入教师模型,得到单幅图像的预测结果根据对应的原始标签确定预测正确的像素点,计算单一训练样本图像中同一类别的预测正确像素的概率分布均值/>类别i∈{1,2,3,…,Nc},采用指数移动平均的方法计算出训练样本集中某一类别的概率分布/>教师模型预测一次,Pi更新一次,直至迭代完训练样本集中所有的训练样本图像,迭代公式如下:
式中β为比例因子,设置为1-1/N,为上一次迭代的结果,初始值为第i类的独热码,最终训练样本集中所有类别的统计概率分布/>
3.根据权利要求1所述的一种基于类别统计驱动的伪标签自蒸馏语义分割方法,其特征在于,步骤3中,利用每个类别的概率分布对训练样本集DT中的原始标签分别进行软化,得到对应的软化标签,利用软化标签与对应的教师模型预测结果加权平均得到学生模型的训练标签,具体如下:
训练样本集DT中的原始标签L,L∈RH×W,根据原始标签L得知每幅训练样本图像中第h行w列像素的类别为Lh,w,Lh,w∈{1,2,3,…,Nc},h∈{1,2,3,…,H},w∈{1,2,3,…,W},软化标签Lsoft的第h行w列像素的概率分布将从对应类别的统计概率分布P中获取,
式中,表示软化标签Lsoft的第h行w列像素的概率分布,/>表示统计概率分布P中类别Lh,w的概率分布;
学生模型的训练标签Ls由教师模型的预测结果Tpre和软化标签Lsoft加权平均获得,计算公式如下:
Ls=α*Lsoft+(1-α)*Tpre
式中,α为平衡因子,取值范围为0.5到1之间。
4.根据权利要求1所述的一种基于类别统计驱动的伪标签自蒸馏语义分割方法,其特征在于,步骤4中,利用学生模型的训练标签对学生模型进行监督训练,具体如下:
将训练样本集DT输入学生模型中,得到输出结果Spre,在学生模型输出结果Spre与学生模型的训练标签Ls之间构建损失函数,通过反向传播训练学生模型的网络参数,损失函数loss计算公式如下:
式中Cosine_Similarity(·,·)为余弦相似度函数,表示学生模型的训练标签Ls的第h行w列像素的标签,/>表示学生模型相应图像的第h行w列像素的输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310902217.0A CN116958548B (zh) | 2023-07-21 | 2023-07-21 | 基于类别统计驱动的伪标签自蒸馏语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310902217.0A CN116958548B (zh) | 2023-07-21 | 2023-07-21 | 基于类别统计驱动的伪标签自蒸馏语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116958548A true CN116958548A (zh) | 2023-10-27 |
CN116958548B CN116958548B (zh) | 2024-08-27 |
Family
ID=88450664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310902217.0A Active CN116958548B (zh) | 2023-07-21 | 2023-07-21 | 基于类别统计驱动的伪标签自蒸馏语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116958548B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117576518A (zh) * | 2024-01-15 | 2024-02-20 | 第六镜科技(成都)有限公司 | 图像蒸馏方法、装置、电子设备和计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102225579B1 (ko) * | 2020-05-14 | 2021-03-10 | 아주대학교산학협력단 | 학습성능이 향상된 지식 증류법 기반 의미론적 영상 분할 방법 |
CN112613515A (zh) * | 2020-11-23 | 2021-04-06 | 上海眼控科技股份有限公司 | 语义分割方法、装置、计算机设备和存储介质 |
CN113610173A (zh) * | 2021-08-13 | 2021-11-05 | 天津大学 | 一种基于知识蒸馏的多跨域少样本分类方法 |
CN114611670A (zh) * | 2022-03-15 | 2022-06-10 | 重庆理工大学 | 一种基于师生协同的知识蒸馏方法 |
CN115511892A (zh) * | 2022-09-29 | 2022-12-23 | 上海高德威智能交通系统有限公司 | 一种语义分割模型的训练方法、语义分割方法及装置 |
CN116433902A (zh) * | 2023-03-28 | 2023-07-14 | 清华大学 | 域自适应语义分割方法、装置、电子设备和存储介质 |
-
2023
- 2023-07-21 CN CN202310902217.0A patent/CN116958548B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102225579B1 (ko) * | 2020-05-14 | 2021-03-10 | 아주대학교산학협력단 | 학습성능이 향상된 지식 증류법 기반 의미론적 영상 분할 방법 |
CN112613515A (zh) * | 2020-11-23 | 2021-04-06 | 上海眼控科技股份有限公司 | 语义分割方法、装置、计算机设备和存储介质 |
CN113610173A (zh) * | 2021-08-13 | 2021-11-05 | 天津大学 | 一种基于知识蒸馏的多跨域少样本分类方法 |
CN114611670A (zh) * | 2022-03-15 | 2022-06-10 | 重庆理工大学 | 一种基于师生协同的知识蒸馏方法 |
CN115511892A (zh) * | 2022-09-29 | 2022-12-23 | 上海高德威智能交通系统有限公司 | 一种语义分割模型的训练方法、语义分割方法及装置 |
CN116433902A (zh) * | 2023-03-28 | 2023-07-14 | 清华大学 | 域自适应语义分割方法、装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
RONGTAOXU: "Self Correspondence Distillation for End-to-End Weakly-Supervised Semantic Segmentation", ARXIV * |
孙若禹: "高层语义分析中的模型蒸馏方法综述", 中国图象图形学报, vol. 28, no. 4, pages 947 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117576518A (zh) * | 2024-01-15 | 2024-02-20 | 第六镜科技(成都)有限公司 | 图像蒸馏方法、装置、电子设备和计算机可读存储介质 |
CN117576518B (zh) * | 2024-01-15 | 2024-04-23 | 第六镜科技(成都)有限公司 | 图像蒸馏方法、装置、电子设备和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116958548B (zh) | 2024-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909673B (zh) | 一种基于自然语言描述的行人再识别方法 | |
Abdar et al. | A review of uncertainty quantification in deep learning: Techniques, applications and challenges | |
CN108985334B (zh) | 基于自监督过程改进主动学习的通用物体检测系统及方法 | |
CN112818159B (zh) | 一种基于生成对抗网络的图像描述文本生成方法 | |
CN111723674B (zh) | 基于马尔科夫链蒙特卡洛与变分推断的半贝叶斯深度学习的遥感图像场景分类方法 | |
CN113326731B (zh) | 一种基于动量网络指导的跨域行人重识别方法 | |
CN109086770B (zh) | 一种基于精准尺度预测的图像语义分割方法及模型 | |
CN111062277B (zh) | 基于单目视觉的手语-唇语转化方法 | |
CN107203600B (zh) | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 | |
CN115098620A (zh) | 一种注意力相似度迁移的跨模态哈希检索方法 | |
CN111325750A (zh) | 一种基于多尺度融合u型链神经网络的医学图像分割方法 | |
CN114139676A (zh) | 领域自适应神经网络的训练方法 | |
CN116958548B (zh) | 基于类别统计驱动的伪标签自蒸馏语义分割方法 | |
CN113469186A (zh) | 一种基于少量点标注的跨域迁移图像分割方法 | |
CN111460824A (zh) | 一种基于对抗迁移学习的无标注命名实体识别方法 | |
CN114692732A (zh) | 一种在线标签更新的方法、系统、装置及存储介质 | |
CN115270752A (zh) | 一种基于多层次对比学习的模板句评估方法 | |
CN115439685A (zh) | 一种小样本图像数据集划分方法及计算机可读存储介质 | |
CN111325177B (zh) | 基于权重自定义的目标检测分式识别方法 | |
CN116227578A (zh) | 一种无源域数据的无监督领域适应方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
Wang et al. | Recognizing handwritten mathematical expressions as LaTex sequences using a multiscale robust neural network | |
CN118135221A (zh) | 一种基于跨网络扰动机制的图像语义分割方法 | |
CN117689946B (zh) | 基于元增强对比学习的无源无监督域适应方法 | |
CN117237720B (zh) | 基于强化学习的标签噪声矫正图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |