CN115496738A - 基于Transformer与SE的磁瓦缺陷检测方法 - Google Patents

基于Transformer与SE的磁瓦缺陷检测方法 Download PDF

Info

Publication number
CN115496738A
CN115496738A CN202211216497.1A CN202211216497A CN115496738A CN 115496738 A CN115496738 A CN 115496738A CN 202211216497 A CN202211216497 A CN 202211216497A CN 115496738 A CN115496738 A CN 115496738A
Authority
CN
China
Prior art keywords
conv
concat
magnetic shoe
defect detection
transformer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211216497.1A
Other languages
English (en)
Inventor
陈祖国
张胥卓
卢明
陈超洋
陈永伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Science and Technology
Original Assignee
Hunan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Science and Technology filed Critical Hunan University of Science and Technology
Priority to CN202211216497.1A priority Critical patent/CN115496738A/zh
Publication of CN115496738A publication Critical patent/CN115496738A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Investigating Or Analyzing Materials By The Use Of Magnetic Means (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)

Abstract

本发明公开了一种基于Transformer与SE的磁瓦缺陷检测方法,包括以下步骤:对磁瓦图像进行数据增强得到数据集,将数据集划分为训练集、测试集;构建磁瓦缺陷检测模型;进行磁瓦缺陷检测模型训练,得到训练好的磁瓦缺陷检测模型;采用测试集进行磁瓦缺陷检测,得到检测结果。本发明在主干网络中增加了Transformer模块与注意力机制SE,Transformer模块充分发掘了深度学习神经网络的特性,利用了自注意力机制实现了快速并行计算,减少了模型的训练时间并提高了磁瓦缺陷的检测精度,注意力机制SE解决了在卷积池化过程中feature map的不同通道所占的重要性不同带来的损失问题。

Description

基于Transformer与SE的磁瓦缺陷检测方法
技术领域
本发明涉及一种基于Transformer与SE的磁瓦缺陷检测方法。
背景技术
铁氧体磁瓦是以铁氧体为主要成分,经高温烧结而制成的永磁材料,是永磁电机产生磁场的关键部件。磁瓦在生产制造过程中,容易出现裂纹、欠磨、偏磨、起级和崩块等多种缺陷。磁瓦质量对永磁电机的性能有较大影响,必须剔除存在表面缺陷的磁瓦。磁瓦磨削加工后的光滑弧形表面和倒角面对光照方向敏感,容易使磁瓦成像背景不均匀;磁瓦色泽灰暗,导致缺陷与磁瓦本身的对比度低,细小缺陷也易受磨削纹理干扰;磁瓦规格和检测面多,形状差异大,检测节拍快,所以磁瓦表面缺陷检测难度很大,国内外对磁瓦表面缺陷检测的研究,距离工程实用化仍有较大差距。
一直以来,磁瓦表面缺陷检测都是以人工目视检测为主,其主要缺点是效率低,成本高,产品检测质量不稳定。目前的多数研究多为根据磁瓦的缺陷对磁瓦进行分类,没有对磁瓦的缺陷位置进行具体的定位。而一些主流的目标检测方法,如YOLOv5方法,没有充分利用图像各个通道的信息,对磁瓦缺陷的目标检测精度不高。
发明内容
为了解决上述技术问题,本发明提供一种算法简单、检测精度高的基于Transformer与SE的磁瓦缺陷检测方法。
本发明解决上述技术问题的技术方案是:一种基于Transformer与SE的磁瓦缺陷检测方法,包括以下步骤:
第一步:对磁瓦图像进行数据增强得到数据集,将数据集划分为训练集、测试集;
第二步:构建磁瓦缺陷检测模型;基于YOLOv5方法进行改进,在其主干网络中增加了Transformer模块与SE注意力机制,从而得到磁瓦缺陷检测模型;
第三步:采用训练集进行磁瓦缺陷检测模型训练,得到训练好的磁瓦缺陷检测模型;
第四步:基于训练好的磁瓦缺陷检测模型,采用测试集进行磁瓦缺陷检测,得到检测结果。
上述基于Transformer与SE的磁瓦缺陷检测方法,所述步骤一中,对图像进行Mosaic数据增强,从训练集中随机取出四张图片进行裁剪,再拼接到一张图上作为训练数据,这样丰富了图片的背景,并且四张图片拼接在一起提高了一次训练所选取的样本数batch size。
上述基于Transformer与SE的磁瓦缺陷检测方法,所述步骤二中,磁瓦缺陷检测模型包括三部分,分别为主干部分Backbone、中间部分Neck、输出部分Output;
Backbone中包含依次连接的第一个Conv、第二个Conv、第一个C3、第三个Conv、第二个C3、第四个Conv、第三个C3、第五个Conv、C3TR、SPPF和SE;Conv包括二维卷积Conv2d、批量标准化BatchNormalization和激活函数HardSwish;C3是带有3个Conv模块的残差结构;SPPF为SPP的快速实现版本;SPP为空间金字塔池化,将任意大小的特征图转换成固定大小的特征向量;C3TR为3个Transformer编码器的残差结构;SE为注意力机制;
Output包含一个深度为256的矩阵的卷积模块Conv256、一个深度为512的矩阵的卷积模块Conv512和一个深度为1024的矩阵的卷积模块Conv1024;
Neck中包含第六个Conv、第七个Conv、第八个Conv、第九个Conv、第四个C3、第五个C3、第六个C3、第七个C3、第一个Concat、第二个Concat、第三个Concat、第四个Concat、第一个UpSample、第二个UpSample,Backbone中SE与第六个Conv连接,第六个Conv与第一个UpSample连接,第一个UpSample分别连接第一个Concat、第二个Concat,第一个Concat经第四个C3后连接Output的Conv1024,Backbone的第三个C3连接第二个Concat,第二个Concat、第五个C3、第七个Conv、第二个UpSample、第三个Concat依次连接,第三个Concat分别连接第六个C3、Backbone的第二个C3,第六个C3与Output的Conv256连接,第六个C3、第八个Conv、第四个Concat、第七个C3、第九个Conv、第一个Concat依次连接,第二个UpSample与第四个Concat连接,第七个C3与Output的Conv512连接;Concat表示将网络进行连接;UpSample为上采样,目的将图片进行放大。
上述基于Transformer与SE的磁瓦缺陷检测方法,所述步骤二中,注意力机制SE的过程为:特征图输入后,通过基于特征图的宽度和高度进行全局平均池化Global Avg Pool的同时对空间特征降维;紧接着使用全连接层Fully Connected和非线性激活函数Non-linear建立通道间的连接;然后经过Sigmoid激活函数获得归一化权重,最后通过乘法逐通道加权到原始特征图的每一个通道上,完成通道注意力对原始特征的重新标定,经过全局平均池化获得全局的感受野,在第一次全连接时通过减少特征图的维度,减少了参数和计算量,之后经过非线性激活函数后再通过一个全连接恢复到原来的通道数,完成了通道间相关性的建立。
上述基于Transformer与SE的磁瓦缺陷检测方法,所述步骤二中,Transformer编码器的结构为:
Transformer分为两大部分,分别为编码器和解码器;编码器由自注意力机制、归一化操作、前向传播部分与残差连接组成;解码器由编码-解码注意力机制、归一化操作、前向传播部分与残差连接组成;输入先进行位置编码嵌入数据的位置信息,然后经过两次编码和两次解码,将得到的输出进行线性化处理再经过Softmax函数激活得到最终输出。
本发明的有益效果在于:本发明在现有的YOLOv5方法的基础上,在其主干网络中增加了Transformer模块与注意力机制SE,Transformer模块充分发掘了深度学习神经网络的特性,利用了自注意力机制实现了快速并行计算,减少了模型的训练时间并提高了磁瓦缺陷的检测精度,注意力机制SE解决了在卷积池化过程中feature map的不同通道所占的重要性不同带来的损失问题。
附图说明
图1为本发明的流程图。
图2为本发明磁瓦图片的Mosaic数据增强示例图。
图3为本发明磁瓦缺陷检测模型的结构图。
图4为Transformer编码器的结构图。
图5为Transformer编码器的原理图。
图6为注意力机制SE的原理图。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明。
如图1所示,一种基于Transformer与SE的磁瓦缺陷检测方法,包括以下步骤:
第一步:对磁瓦图像进行数据增强得到数据集,将数据集划分为训练集、测试集。
对图像进行Mosaic数据增强,从训练集中随机取出四张图片进行裁剪,再拼接到一张图上作为训练数据,这样丰富了图片的背景,并且四张图片拼接在一起变相提高了一次训练所选取的样本数batch size,在进行batch normalization的时候也会计算四张图片。磁瓦图片的Mosaic数据增强示例如图2所示。
第二步:构建磁瓦缺陷检测模型;基于YOLOv5方法进行改进,在其主干网络中增加了Transformer模块与注意力机制,从而得到磁瓦缺陷检测模型。
如图3所示,磁瓦缺陷检测模型包括三部分,分别为主干部分Backbone、中间部分Neck、输出部分Output;
Backbone中包含依次连接的第一个Conv、第二个Conv、第一个C3、第三个Conv、第二个C3、第四个Conv、第三个C3、第五个Conv、C3TR、SPPF和SE;Conv包括二维卷积Conv2d、批量标准化BatchNormalization和激活函数HardSwish;C3是带有3个Conv模块的残差结构;SPPF为SPP的快速实现版本;SPP为空间金字塔池化,将任意大小的特征图转换成固定大小的特征向量;C3TR为3个Transformer编码器的残差结构;SE为注意力机制;
Output包含一个深度为256的矩阵的卷积模块Conv256、一个深度为512的矩阵的卷积模块Conv512和一个深度为1024的矩阵的卷积模块Conv1024;
Neck中包含第六个Conv、第七个Conv、第八个Conv、第九个Conv、第四个C3、第五个C3、第六个C3、第七个C3、第一个Concat、第二个Concat、第三个Concat、第四个Concat、第一个UpSample、第二个UpSample,Backbone中SE与第六个Conv连接,第六个Conv与第一个UpSample连接,第一个UpSample分别连接第一个Concat、第二个Concat,第一个Concat经第四个C3后连接Output的Conv1024,Backbone的第三个C3连接第二个Concat,第二个Concat、第五个C3、第七个Conv、第二个UpSample、第三个Concat依次连接,第三个Concat分别连接第六个C3、Backbone的第二个C3,第六个C3与Output的Conv256连接,第六个C3、第八个Conv、第四个Concat、第七个C3、第九个Conv、第一个Concat依次连接,第二个UpSample与第四个Concat连接,第七个C3与Output的Conv512连接;Concat表示将网络进行连接;UpSample为上采样,目的将图片进行放大。
如图4、图5所示,Transformer编码器的结构为:
Transformer分为两大部分,分别为编码器和解码器;编码器由自注意力机制、归一化操作、前向传播部分与残差连接组成;解码器由编码-解码注意力机制、归一化操作、前向传播部分与残差连接组成;输入先进行位置编码嵌入数据的位置信息,然后经过两次编码和两次解码,将得到的输出进行线性化处理再经过Softmax函数激活得到最终输出。
x1,x2,x3,x4是一个输入序列,经过自注意力机制计算后得到y1,y2,y3,y4也是一个序列;w21,w22,w23,w24是要更新的权重。Add&Normalize表示将结果相加再对结果进行分布归一化,转换成均值为0方差为1的正态分布。Feed Forward为前向传播;Softmax为激活函数,其主要用于分类任务,往往放在最后一层,其会生成一个N维向量,数据集中的每一类对应一个向量(N一般为数据类中数据的类别数目),Linear为线性化。
如图6所示,SE表示注意力机制,其目的是获得在通道维度上的注意力,注意力机制SE的过程为:特征图输入后,通过基于特征图的宽度和高度进行全局平均池化GlobalAvg Pool的同时对空间特征降维;紧接着使用全连接层Fully Connected和非线性激活函数Non-linear建立通道间的连接;然后经过Sigmoid激活函数获得归一化权重,最后通过乘法逐通道加权到原始特征图的每一个通道上,完成通道注意力对原始特征的重新标定,经过全局平均池化获得全局的感受野,在第一次全连接时通过减少特征图的维度,减少了参数和计算量,之后经过非线性激活函数后再通过一个全连接恢复到原来的通道数,完成了通道间相关性的建立。
第三步:采用训练集进行磁瓦缺陷检测模型训练,得到训练好的磁瓦缺陷检测模型。
第四步:基于训练好的磁瓦缺陷检测模型,采用测试集进行磁瓦缺陷检测,得到检测结果。
本发明通过通过python语言编写,使用Pytorch框架。对磁瓦缺陷数据集进行测试。测试结果如下表所示:
表1实验对比
Figure BDA0003876436130000071
根据表1可知:使用Transformer模块对YOLOv5进行改进后,精确率相对于只使用YOLOv5方法提高了5.7%,mAP@0.5提高了2.4%,但是召回率有所下降。添加了SE注意力机制后,精确率进一步提升了0.8%,mAP@0.5进一步提升了2.5%,虽然召回率有所提升,还是低于原方法。mAP@0.5为衡量在目标检测的重要指标,综上所述,在提升了精确率和mAP@0.5的情况下,召回率的下降在可接收范围内。

Claims (5)

1.一种基于Transformer与SE的磁瓦缺陷检测方法,其特征在于,包括以下步骤:
第一步:对磁瓦图像进行数据增强得到数据集,将数据集划分为训练集、测试集;
第二步:构建磁瓦缺陷检测模型;基于YOLOv5方法进行改进,在其主干网络中增加了Transformer模块与注意力机制,从而得到磁瓦缺陷检测模型;
第三步:采用训练集进行磁瓦缺陷检测模型训练,得到训练好的磁瓦缺陷检测模型;
第四步:基于训练好的磁瓦缺陷检测模型,采用测试集进行磁瓦缺陷检测,得到检测结果。
2.根据权利要求1所述的基于Transformer与SE的磁瓦缺陷检测方法,其特征在于,所述步骤一中,对图像进行 Mosaic 数据增强,从训练集中随机取出四张图片进行裁剪,再拼接到一张图上作为训练数据,这样丰富了图片的背景,并且四张图片拼接在一起提高了一次训练所选取的样本数batch size。
3.根据权利要求2所述的基于Transformer与SE的磁瓦缺陷检测方法,其特征在于,所述步骤二中,磁瓦缺陷检测模型包括三部分,分别为主干部分Backbone、中间部分Neck、输出部分Output;
Backbone中包含依次连接的第一个Conv、第二个Conv、第一个C3、第三个Conv、第二个C3、第四个Conv、第三个C3、第五个Conv、C3TR、SPPF和SE;Conv包括二维卷积Conv2d、批量标准化BatchNormalization和激活函数HardSwish;C3是带有3个Conv模块的残差结构;SPPF为SPP的快速实现版本;SPP为空间金字塔池化,将任意大小的特征图转换成固定大小的特征向量;C3TR为3个Transformer编码器的残差结构;SE为注意力机制;
Output包含一个深度为256的矩阵的卷积模块Conv256、一个深度为512的矩阵的卷积模块Conv512和一个深度为1024的矩阵的卷积模块Conv1024;
Neck中包含第六个Conv、第七个Conv、第八个Conv、第九个Conv、第四个C3、第五个C3、第六个C3、第七个C3、第一个Concat、第二个Concat、第三个Concat、第四个Concat、第一个UpSample、第二个UpSample,Backbone中SE与第六个Conv连接,第六个Conv与第一个UpSample连接,第一个UpSample分别连接第一个Concat、第二个Concat,第一个Concat经第四个C3后连接Output的Conv1024,Backbone的第三个C3连接第二个Concat,第二个Concat、第五个C3、第七个Conv、第二个UpSample、第三个Concat依次连接,第三个Concat分别连接第六个C3、Backbone的第二个C3,第六个C3与Output的Conv256连接,第六个C3、第八个Conv、第四个Concat、第七个C3、第九个Conv、第一个Concat依次连接,第二个UpSample与第四个Concat连接,第七个C3与Output的Conv512连接;Concat表示将网络进行连接;UpSample为上采样,目的将图片进行放大。
4.根据权利要求3所述的基于Transformer与SE的磁瓦缺陷检测方法,其特征在于,所述步骤二中,注意力机制SE的过程为:特征图输入后,通过基于特征图的宽度和高度进行全局平均池化Global Avg Pool的同时对空间特征降维;紧接着使用全连接层FullyConnected和非线性激活函数Non-linear建立通道间的连接;然后经过 Sigmoid 激活函数获得归一化权重,最后通过乘法逐通道加权到原始特征图的每一个通道上,完成通道注意力对原始特征的重新标定,经过全局平均池化获得全局的感受野,在第一次全连接时通过减少特征图的维度,减少了参数和计算量,之后经过非线性激活函数后再通过一个全连接恢复到原来的通道数,完成了通道间相关性的建立。
5.根据权利要求4所述的基于Transformer与SE的磁瓦缺陷检测方法,其特征在于,所述步骤二中,Transformer的结构为:
Transformer分为两大部分,分别为编码器和解码器;编码器由自注意力机制、归一化操作、前向传播部分与残差连接组成;解码器由编码-解码注意力机制、归一化操作、前向传播部分与残差连接组成;输入先进行位置编码嵌入数据的位置信息,然后经过两次编码和两次解码,将得到的输出进行线性化处理再经过Softmax函数激活得到最终输出。
CN202211216497.1A 2022-09-30 2022-09-30 基于Transformer与SE的磁瓦缺陷检测方法 Pending CN115496738A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211216497.1A CN115496738A (zh) 2022-09-30 2022-09-30 基于Transformer与SE的磁瓦缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211216497.1A CN115496738A (zh) 2022-09-30 2022-09-30 基于Transformer与SE的磁瓦缺陷检测方法

Publications (1)

Publication Number Publication Date
CN115496738A true CN115496738A (zh) 2022-12-20

Family

ID=84471612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211216497.1A Pending CN115496738A (zh) 2022-09-30 2022-09-30 基于Transformer与SE的磁瓦缺陷检测方法

Country Status (1)

Country Link
CN (1) CN115496738A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911840A (zh) * 2024-03-20 2024-04-19 河南科技学院 一种用于滤网表面缺陷检测的深度学习方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911840A (zh) * 2024-03-20 2024-04-19 河南科技学院 一种用于滤网表面缺陷检测的深度学习方法

Similar Documents

Publication Publication Date Title
CN115601549B (zh) 基于可变形卷积和自注意力模型的河湖遥感图像分割方法
CN113191953B (zh) 一种基于Transformer的人脸图像超分辨的方法
CN113762358B (zh) 一种基于相对深度训练的半监督学习三维重建方法
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN110910390A (zh) 一种基于深度畸变卷积的全景三维彩色点云语义分割方法
CN110263813A (zh) 一种基于残差网络和深度信息融合的显著性检测方法
CN112837232A (zh) 一种水下图像增强及细节恢复的方法
CN115293995B (zh) 一种基于Transformer的点云逐点去噪方法
CN115131188A (zh) 一种基于生成对抗网络的鲁棒图像水印方法
CN110322403A (zh) 一种基于生成对抗网络的多监督图像超分辨重建方法
CN115496738A (zh) 基于Transformer与SE的磁瓦缺陷检测方法
CN113889234A (zh) 基于通道混合的编解码网络的医学图像分割方法
CN116704274A (zh) 基于空间相关性注意力的红外和可见光图像融合方法
CN112598604A (zh) 一种盲脸复原方法及系统
Jiang et al. Lightweight dual-stream residual network for single image super-resolution
CN117372777A (zh) 基于der增量学习的密集架通道异物检测方法
CN116228797B (zh) 基于注意力和U-Net的页岩扫描电镜图像分割方法
CN111524078A (zh) 一种基于稠密网络的显微镜图像去模糊方法
CN116844039A (zh) 一种联合多注意的跨尺度遥感图像耕地提取方法
CN111080533A (zh) 一种基于自监督残差感知网络的数码变焦方法
CN116452965A (zh) 一种基于声光融合的水下目标检测识别方法
CN113538484B (zh) 一种深度细化的多重信息嵌套边缘检测方法
CN111899161A (zh) 一种超分辨率重建方法
CN113298714B (zh) 一种基于深度学习的图像跨尺度超分辨率方法
CN114821192A (zh) 一种结合语义信息的遥感影像高程预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination