CN113538233A - 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 - Google Patents
一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 Download PDFInfo
- Publication number
- CN113538233A CN113538233A CN202110709066.8A CN202110709066A CN113538233A CN 113538233 A CN113538233 A CN 113538233A CN 202110709066 A CN202110709066 A CN 202110709066A CN 113538233 A CN113538233 A CN 113538233A
- Authority
- CN
- China
- Prior art keywords
- resolution
- super
- model
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000006835 compression Effects 0.000 title claims abstract description 16
- 238000007906 compression Methods 0.000 title claims abstract description 16
- 238000004821 distillation Methods 0.000 title claims abstract description 14
- 230000001133 acceleration Effects 0.000 title claims abstract description 11
- 230000006870 function Effects 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000013434 data augmentation Methods 0.000 claims description 2
- 238000002360 preparation method Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特点是采用自蒸馏框架引入基于对比学习的损失函数,通过训练一个参数量较大的教师模型,从中选取每一层的前1/r的通道构成学生模型,其参数与教师模型共享,利用教师模型的预测输出、负样本和高分辨率图像计算重建损失和对比损失。本发明与现有技术相比具有即插即用性,在压缩和加速的同时仍能保证生成图像的真实性,大大减少了模型的参数量和计算量,可以对目前现有的所有超分辨率模型同时进行压缩和加速,通过使用对比损失,对解空间的上下界进行约束,在减少模型参数量的同时保证模型的性能,使复原得到的图片有更强的真实性。
Description
技术领域
本发明涉及数字图像的超分辨率技术领域,尤其是一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法。
背景技术
随着数字图像成像设备技术的进步,通过相机、平板、手机、监控等设备获取的图像的数量呈指数级增长。得益于深度学习的快速发展,人们利用这些图像进行图像分类、语义分割、行人重识别等任务,极大便利了人们的日常生活。这些计算机视觉系统的性能通常受所获取图像质量的影响,然而由于成像系统、大气环境和处理方法的不完善,数字图像在形成、传输、存储过程中会受到一定程度的丢失或损坏。因此,使用超分辨率技术恢复图像丢失的细节,提升后续任务的准确性具有重要的价值。
近年来随着深度学习的不断发展,基于深度学习的超分辨率算法取得了长足的进步,这些算法在客观评价指标和主观评价指标上都超过了基于先验的传统方法。有越来越多的学者开始研究构建更精巧的神经网络结构以更充分利用图像中的信息,这也导致基于深度学习的超分辨率算法所需的内存和计算量也显著增加。
现有技术存在着超分辨率模型参数量和计算量过大,对超分辨率模型的部署造成了一定的困难。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法,采用自蒸馏框架引入基于对比学习的损失函数的方法,通过训练一个参数量较大的教师模型,从中选取每一层的前1/r的通道构成学生模型,其参数与教师模型共享,并利用教师模型的预测输出、负样本和高分辨率图像计算,重建损失和对比损失。在实际部署中,可以在资源首先的设备上单独部署学生模型,或是在资源较为充裕的设备上部署教师模型,根据运行时资源配置实现动态调整。该方法保证了超分辨率算法的性能以及图片复原质量,同时又大大减少了模型的参数量和计算量可以对目前现有的所有超分辨率模型同时进行压缩和加速,具有即插即用性,在压缩和加速的同时仍能保证生成图像的真实性。
本发明的目的是这样实现的:一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特点是采用自蒸馏框架引入基于对比学习的损失函数,通过训练一个参数量较大的教师模型,从中选取每一层的前1/r的通道构成学生模型,其参数与教师模型共享,利用教师模型的预测输出、负样本和高分辨率图像计算重建损失和对比损失,其超分辨率模型的压缩和加速具体包括下述步骤:
步骤1:数据集准备与预处理
1-1:根据不同的放大倍数s,收集成对的低分辨率图像和高分辨率图像作为图像对,将其以8:2的比例划分为训练集和测试集,所述低分辨率图和高分辨率图的内容一致,其高分辨率图像的分辨率为低分辨率图像的s倍;所述图像对的文件格式为PNG。
1-2:将上述训练集图片进行数据增广,所述增广为随机翻转或随机裁剪方式。
步骤2:教师模型的构建及特征提取与复原
2-1:教师模型为浅层特征提取模块、深层特征提取模块、上采样模块和重建模块组成的超分辨率模型,所述上采样模块的输出大小为其输入大小的s倍,而其他模块的输出大小与输入大小不变。
2-2:将步骤1处理好的低分辨率图片作为超分辨率模型的输入,分别经过浅层特征提取模块、深层特征提取模块、上采样模块和重建模块,最后得到三通道的高分辨率输出结果,即预测复原图像(正样本),其大小为输入的s倍。
步骤3:学生超分模型的构建及特征提取与复原
3-1:学生超分模型结构与步骤2所述模型结构相同,区别在于其每一层所使用的通道数仅为步骤2模型的1/r,其中:r为预先设定的压缩比率。
3-2:将步骤1处理好的低分辨率图片作为输入,分别经过学生超分模型的浅层特征提取模块、深层特征提取模块、上采样模块和重建模块,最后得到三通道的高分辨率输出结果,其大小为输入的s倍。
步骤4:计算图片重建损失函数值
4-1:计算步骤2和步骤3获得的预测复原结果与高分辨率图像的重建损失函数值。
步骤5:计算对比损失函数值
5-1:将低分辨率图利用双三次插值的方法得到对应的上采样图像,作为负样本。
5-2:将步骤5-1得到的负样本与步骤2和步骤3得到的预测复原结果,分别输入到预训练的VGGNet19模型中,提取其第1层、第3层、第5层、第9层和第13层的高维特征。
5-3:计算对比损失函数值。
步骤6:训练模型
6-1:根据所述重建损失函数和训练参数在所述训练集上训练深度超分辨率的教师模型;其训练参数:学习速率为0.0001,批大小为16。
6-2:当教师模型迭代次数达到所设置的阈值时,停止训练。
6-3:通过预留的测试集对深度超分辨率模型进行测试,并根据测试结果确定测试精度,所述测试精度即指PSNR和SSIM两个指标。由于本发明可以应用于任何现有超分辨率模型,因此不对步骤2中超分辨率模型的具体结构做任何特殊要求。
所述步骤6中同时进行步骤3和步骤4,以加权求和的方式进行计算,其中重建损失的权重为1,对比损失的权重为200。
所述步骤5中的对比损失函数的计算方式具体包括:
A1:计算学生模型预测复原图与插值采样图第i层高维特征的L1距离函数作为距离;
A2:计算学生模型预测复原图与教师模型预测复原图第i层高维特征的L1距离函数作为距离;
A3:计算与的比值作为第i层的对比损失函数值;
A4:计算每层高维特征的对比损失函数值的加权和,其中,第1层、第3层、第5层、第9层和第13层的高维特征的权重分别为:1/32;1/16;1/8;1/4;1。
本发明与现有技术相比具有即插即用性,在压缩和加速的同时仍能保证生成图像的真实性,大大减少了模型的参数量和计算量,可以对目前所有超分辨率模型同时进行压缩和加速,通过使用对比损失,对解空间的上下界进行约束,在减少模型参数量的同时保证模型的性能,使复原得到的图片有更强的真实性。
附图说明
图1为超分辨率模型压缩流程图;
图2为算法模型框架图;
图3为复原效果比较图;
图4为不同损失函数复原效果比较图;
图5为压缩-性能比较图;
图6为加速-性能比较图。
具体实施方式
下面以放大倍数时s=4、压缩率r=4、主干网络结构为EDSR的实施例对本发明作进一步的详细说明。
实施例1
参阅附图1,本发明在训练阶段中,主要分为数据集预处理、教师网络(教师超分模型)预训练和学生网络(学生超分模型)训练三部分。
A1:使用的数据集为公开数据集DIV2K、Set5和Urban100.DIV2K包含1000张分辨率为2K的图片,从中选取800张作为训练集,剩余200张构成测试集,验证集由DIV2K、Set5、和Urban100构成。所有图片使用双三次插值的方式生成对应的低分辨率图片。
A2:在训练过程中,对所有训练集图片进行预处理以增加模型的泛化能力,主要包括随机裁剪大小为192的子图,水平垂直翻转等技术。
参阅附图2,学生网络和教师网络的训练及损失函数计算过程如下:
B1:使用教师网络对输入的低分辨率图像进行特征提取与复原。输出高分辨率复原预测图,与高分辨率图像计算重建损失。
B2:学生网络的网络结构同教师网络相同,不同处在于学生网络每一层所使用的通道数为教师网络通道数的1/r。选取教师网络每一层的前1/r的通道,使用这部分参数构成学生网络。
B3:使用学生网络对输入的低分辨率图像进行特征提取与复原,输出复原预测图,并与高分辨率图像计算重建损失。
C1:对教师网络和学生网络的预测结果均采用L1损失作为重建损失,且由下述1式计算:
L1(φ(I,w),J)=min|J-φ(I,w)|1 (1)
该公式定义了模型的重建损失函数,目的是衡量模型输出结果与原始标签值的误差。式中:φ(I,w)表示超分网络的输出;J表示与输入低分辨率图对应的高分辨率图。
C2:仅使用重建损失约束教师网络和学生网络,两个网络在训练中会出现困难,难以找到共同的优化方向并出现伪影和失真。针对这个问题,本发明引入了对比损失,显式迁移教师网络的知识到学生网络中,并为学生网络提供解空间下界的约束。对比学习是指给定一个样本(或称为锚点),使其靠近正样本,远离负样本。本实施例中以学生网络的复原结果为锚点,教师网络的复原结果为正样本,将输入的低分辨率图插值得到的结果作为负样本,构成三元组。使用一个预训练的特征提取器获得锚点、正样本和负样本的高维空间特征,在高维空间中计算损失函数。同时考虑到仅希望锚点向正样本靠近,而不希望正样本退化,向锚点靠近,因此不回传教师网络在对比损失中产生的梯度值。
所述对比损失函数由下述2式计算:
该公式定义了对比损失,目的是利用教师网络约束学生网络,将教师网络的知识显式地迁移到学生网络,同时提供解空间的下界。式中:Gi(·),bic(·),sg(·)分别表示预训练的特征提取器、双三次插值操作和停止计算梯度操作;φS(I,w),φT(I,w),bic(I)分别表示学生网络预测结果(锚点)、教师网络预测结果(正样本)和双三次插值图(负样本);ωi表示特征提取器选定层特征的权重。
所述超分辨率模型的结构可以采用任意现有超分辨率算法。训练期间,总体损失函数由下述3式计算:
Loss=L1(φS(I,w),J)+L1(φT(I,w),J)+αLcon(Gi(φS(I,w)),Gi(φT(I,w)),Gi(bic(I))) (3)
该公式定义了训练使用的总损失函数,式中:α为损失权重,在本实施例中设置为200;使用1张NVIDIA TITAN RTX GPU;使用Adam作为优化器(β1=0.9,β2=0.999),学习率初始化为0.0001。
参阅附图3,本发明可以较好复原图像的高频细节(如物体的边界),在视觉效果上具有优越性,在仅使用重建损失时,这些高频细节往往过于模糊。其中,3a为高分辨率图;3b为双三次插值上采样得到的图像;3c为仅使用重建损失的学生网络预测图;3d为仅使用重建损失与教师网络联合训练的学生网络预测图;3e为使用本发明方法训练的学生网络预测图;3f为教师网络预测图,其图像下方为对应的PSNR和SSIM值。通过采用本发明复原的图片与对应高分辨率图片的PSNR和SSIM来衡量本发明的性能。
参阅附图4,4a为高分辨率图;4b为仅使用重建损失的预测;4c为使用重建损失和感知损失的预测图;4d为本发明所使用的重建损失和对比损失的预测图。
本实施例在5个公开数据集上进行测试,分别为DIV2K、Set5、Urban100,同时对EDSR模型进行压缩,其测试结果见如下表1:
表1数据集上的性能提升对比
图像复原质量的评价指标通常使用峰值信噪比(PSNR)和结构相似度(SSIM)来衡量。数值越高,表示复原的图片越接近真实的图片,复原质量越好。采用本发明对EDSR模型进行压缩,模型参数量减小约16倍,且在DIV2K、Set5、Urban100上都取得了性能的提升。
参阅附图5和附图6,本发明还可以应用于其他超分辨率模型中,对应的压缩-性能比较图和加速-性能比较图。此外,采用本发明得到的模型,还可以用于动态装载场景中,用户可以在端侧设备中存储完整模型,在运行时根据当前分配资源情况选择实际转载的模型(学生超分模型或教师超分模型)。
本发明采用自蒸馏的框架,在实际应用中可以在一个模型中进行教师网络和学生网络的切换,而不需使用两个独立的网络以满足不同计算资源的需要。为了更好地将教师网络中的知识引入到学生网络中,引入了基于对比学习的对比损失,以对教师网络的知识进行显式的蒸馏,同时引入负样本为解空间提供下界。实验证明,本发明可以对现有的超分辨率算法进行有效压缩和加速,同时兼顾性能。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。
Claims (4)
1.一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特征在于采用自蒸馏的框架,引入基于对比学习的损失函数,对超分辨率算法进行有效压缩和加速,具体包括下述步骤:
步骤1:数据集准备与预处理
1-1:收集内容一致的低分辨率图和高分辨率图作为图像对,将其以8:2比例划分为训练集和测试集,所述低分辨率图的分辨率为高分辨率图的1/s;所述图像对的文件格式为PNG;
1-2:将上述训练集的图片采用随机翻转或随机裁剪进行数据增广;
步骤2:教师超分模型的构建及特征提取与复原
2-1:构建由浅层特征提取模块、深层特征提取模块、上采样模块和重建模块组成的教师超分辨率模型,所述上采样模块的输出大小为其输入大小的s倍,而其他模块的输出大小与输入大小一致;
2-2:将步骤1处理好的低分辨率图片输入教师超分辨率模型进行特征提取与复原,得到三通道的预测复原图像,其分辨率为输入图片分辨率的s倍;
步骤3:学生超分模型构建及特征提取与复原
3-1:构建由浅层特征提取模块、深层特征提取模块、上采样模块和重建模块组成的学生超分辨率模型,其每一层所使用的通道数为教师超分辨率模型的1/r,其中:r为预先设定的压缩比率;
3-2:将步骤1处理好的低分辨率图片输入学生超分辨率模型进行特征提取与复原,得到三通道预测复原图,即其分辨率为输入图片分辨率的s倍;
步骤4:计算图片重建损失函数值
将步骤2和步骤3获得的预测复原结果和高分辨率图以加权求和计算重建损失函数值,所述重建损失函数的权重为1;
步骤5:计算对比损失函数值
5-1:将低分辨率图利用双三次插值的方法得到对应的上采样图像,作为负样本;
5-2:将步骤5-1得到的负样本与步骤2和步骤3得到的预测复原结果分别输入到预训练的VGGNet19模型中,提取其第1层、第3层、第5层、第9层和第13层的高维特征;
5-3:对步骤5-2中提取的不同层高维特征以加权求和计算对比损失函数值,所述对比正则函数的权重为200;
步骤6:学生超分模型的训练
6-1:将重建损失函数值和对比损失函数值在训练集上对学生超分辨率模型进行压缩,其学习速率为0.0001;
6-2:当网络迭代次数达到设置的阈值时,停止训练;
6-3:使用测试集数据对压缩后得到的学生超分辨率模型进行测试,并根据测试结果确定测试精度,所述测试精度为PSNR和SSIM。
2.根据权利要求1所述基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特征在于所述学生超分辨率模型与教师超分辨率模型为共享参数的任意网络结构。
3.根据权利要求1所述基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特征在于所述步骤2的教师超分辨率模型使用预训练模型。
4.根据权利要求1所述基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特征在于所述步骤4的加权求和与步骤5的加权求和同时进行,其对比损失函数的计算过程具体包括:
A1:计算学生超分模型预测复原图与教师超分模型预测复原图第i层高维特征的L1距离函数值作为距离D1;
A2:计算学生超分模型预测复原图与上采样图第i层高维特征的L1距离函数值作为距离D2;
A3:计算D2与D1的比值作为第i层的对比损失函数值;
A4:求每层高维特征的对比损失函数值的加权求和,其中第1层、第3层、第5层、第9层和第13层的高维特征的权重分别为1/32、1/16、1/8、1/4和1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709066.8A CN113538233A (zh) | 2021-06-25 | 2021-06-25 | 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709066.8A CN113538233A (zh) | 2021-06-25 | 2021-06-25 | 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113538233A true CN113538233A (zh) | 2021-10-22 |
Family
ID=78096706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110709066.8A Pending CN113538233A (zh) | 2021-06-25 | 2021-06-25 | 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538233A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114186622A (zh) * | 2021-11-30 | 2022-03-15 | 北京达佳互联信息技术有限公司 | 图像特征提取模型训练方法、图像特征提取方法和装置 |
CN114881861A (zh) * | 2022-05-25 | 2022-08-09 | 厦门大学 | 基于双采样纹理感知蒸馏学习的不均衡图像超分方法 |
CN115019123A (zh) * | 2022-05-20 | 2022-09-06 | 中南大学 | 一种遥感图像场景分类的自蒸馏对比学习方法 |
CN115222600A (zh) * | 2022-07-29 | 2022-10-21 | 大连理工大学 | 对比学习的多光谱遥感图像超分辨重建方法 |
WO2023093838A1 (zh) * | 2021-11-25 | 2023-06-01 | 北京字跳网络技术有限公司 | 超分图像处理方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020017898A1 (en) * | 2018-07-19 | 2020-01-23 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
CN111028153A (zh) * | 2019-12-09 | 2020-04-17 | 南京理工大学 | 图像处理和神经网络训练方法、装置及计算机设备 |
CN111507378A (zh) * | 2020-03-24 | 2020-08-07 | 华为技术有限公司 | 训练图像处理模型的方法和装置 |
CN111583115A (zh) * | 2020-04-30 | 2020-08-25 | 西安交通大学 | 基于深度注意力网络的单幅图像超分辨率重建方法及系统 |
-
2021
- 2021-06-25 CN CN202110709066.8A patent/CN113538233A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020017898A1 (en) * | 2018-07-19 | 2020-01-23 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
CN112424799A (zh) * | 2018-07-19 | 2021-02-26 | 三星电子株式会社 | 电子装置及其控制方法 |
CN111028153A (zh) * | 2019-12-09 | 2020-04-17 | 南京理工大学 | 图像处理和神经网络训练方法、装置及计算机设备 |
CN111507378A (zh) * | 2020-03-24 | 2020-08-07 | 华为技术有限公司 | 训练图像处理模型的方法和装置 |
CN111583115A (zh) * | 2020-04-30 | 2020-08-25 | 西安交通大学 | 基于深度注意力网络的单幅图像超分辨率重建方法及系统 |
Non-Patent Citations (1)
Title |
---|
YANBOWANG,ET AL: "Towards Compact Single Image Super-Resolution via Contrastive Self-distillation", 《ARXIV: 2105.11683V1》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023093838A1 (zh) * | 2021-11-25 | 2023-06-01 | 北京字跳网络技术有限公司 | 超分图像处理方法、装置、设备及介质 |
CN114186622A (zh) * | 2021-11-30 | 2022-03-15 | 北京达佳互联信息技术有限公司 | 图像特征提取模型训练方法、图像特征提取方法和装置 |
CN115019123A (zh) * | 2022-05-20 | 2022-09-06 | 中南大学 | 一种遥感图像场景分类的自蒸馏对比学习方法 |
CN115019123B (zh) * | 2022-05-20 | 2023-04-18 | 中南大学 | 一种遥感图像场景分类的自蒸馏对比学习方法 |
CN114881861A (zh) * | 2022-05-25 | 2022-08-09 | 厦门大学 | 基于双采样纹理感知蒸馏学习的不均衡图像超分方法 |
CN114881861B (zh) * | 2022-05-25 | 2024-06-04 | 厦门大学 | 基于双采样纹理感知蒸馏学习的不均衡图像超分方法 |
CN115222600A (zh) * | 2022-07-29 | 2022-10-21 | 大连理工大学 | 对比学习的多光谱遥感图像超分辨重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113538233A (zh) | 一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法 | |
US20220230420A1 (en) | Artificial intelligence-based object detection method and apparatus, device, and storage medium | |
CN112001847A (zh) | 相对生成对抗超分辨率重建模型生成高质量图像的方法 | |
CN110866471A (zh) | 人脸图像质量评价方法及装置、计算机可读介质、通信终端 | |
CN110751649B (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN112927202A (zh) | 多时域多特征结合的Deepfake视频检测方法及系统 | |
CN110880172A (zh) | 基于循环卷积神经网络的视频人脸篡改检测方法及系统 | |
CN112528961B (zh) | 一种基于Jetson Nano的视频分析方法 | |
CN110738103A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
CN113269722A (zh) | 生成对抗网络的训练方法、及高分辨率图像重建方法 | |
CN115564993A (zh) | 一种基于多尺度特征融合和注意力机制的唇纹图像分类算法 | |
CN112949636A (zh) | 一种车牌超分辨率识别方法、系统及计算机可读介质 | |
CN111524060B (zh) | 一种实时人像背景虚化的系统、方法、存储介质和设备 | |
CN110163169A (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN114331913B (zh) | 基于残差注意力块的运动模糊图像复原方法 | |
CN113420179B (zh) | 基于时序高斯混合空洞卷积的语义重构视频描述方法 | |
CN114519844A (zh) | 一种基于视觉转化器的人群密度估计方法及系统 | |
CN112991177B (zh) | 一种基于对抗神经网络的红外图像超分辨率方法 | |
CN115147277A (zh) | 一种基于自蒸馏对比学习的超分辨率模型加速方法 | |
CN113570509A (zh) | 数据处理方法以及计算机设备 | |
CN117315752A (zh) | 人脸情绪识别网络模型的训练方法、装置、设备和介质 | |
CN115311525B (zh) | 深度伪造检测方法及对应装置 | |
Sharnish et al. | Image Denoising for an Efficient Fake Image Identification | |
CN117689669B (zh) | 基于结构自适应上下文敏感的视网膜血管分割方法 | |
CN118229674B (zh) | 视频质量评估方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211022 |