CN115019022B - 一种基于双深度融合网络的轮廓检测方法 - Google Patents
一种基于双深度融合网络的轮廓检测方法 Download PDFInfo
- Publication number
- CN115019022B CN115019022B CN202210599134.4A CN202210599134A CN115019022B CN 115019022 B CN115019022 B CN 115019022B CN 202210599134 A CN202210599134 A CN 202210599134A CN 115019022 B CN115019022 B CN 115019022B
- Authority
- CN
- China
- Prior art keywords
- feature
- network
- block
- module
- finer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 54
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000000034 method Methods 0.000 claims description 9
- 230000008707 rearrangement Effects 0.000 claims description 6
- 230000009977 dual effect Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 8
- 238000007499 fusion processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉领域,具体为一种基于双深度融合网络的轮廓检测方法。该方法通过类HED模块和类CEDN模块的设置,实现HED算法与CEDN算法的融合。在融合的过程中,通过类CEDN模块中的G‑Weights Block网络生成特征融合权重图,然后在Refine Block网络中将类HED和类CEDN模块提取的不同尺度特征图与特征融合权重图动态融合、并通过上采样得到还原至输入图片尺度后输出。由于特征融合权重图的加入提高不同层次特征图之间的关联性,使得轮廓检测具备更高的精度。
Description
技术领域
本发明涉及计算机视觉领域,具体为一种基于双深度融合网络的轮廓检测方法。
背景技术
在目标物体轮廓检测中,深度卷积神经网络通过对输入图像的全局和深度信息的利用,已经极大地提高了轮廓检测的精度。如:S.Xie等人提出的HED(S.Xie,Z.Tu.Holistically-nested edge detection[C].Proceedings of the IEEE internationalconference on computer vision,2015,1395-1403.),利用整体嵌套式的深度学习模型来提取更加抽象的图像信息,同时使用了浅层和深层的特征,并增加一个额外的融合层以获得统一的输出结果。又如: J.Yang等人提出的CEDN(J.Yang,B.Price,S.Cohen,etal.Object contour detection with a fully convolutional encoderdecoder network[C].Proceedings of the IEEE conference on computer vision and patternrecognition,2016,193-202.)利用浅层特征中的定位信息,深层特征中的轮廓信息,将VGG-16的五个模块构成编码器,经由编码器得到最深层的特征图,通过Unpoolin的方法结合浅层特征中的轮廓位置,一步一步上采样为原图尺度,最后通过sigmoid函数进行处理后输出。
上述两种算法在各自独立使用时,都能得到一个较为精确的检测结果。由于不同层次的特征图包含不同的轮廓信息,例如:浅层特征图往往包含更加精细的轮廓特征,但同时也包含了更多的无关边缘特征,深层特征图能够抑制掉大部分的无关边缘,但同时得到的轮廓较粗且模糊,通过上采样后得到的轮廓预测定位相较不准确。在实际应用中,单一算法所得到的轮廓检测其精度还存在极大的提升空间。因此,如何更好地实现深层和浅层特征图进行结合,以获得更高的检测精度及效率成为了当前轮廓检测方面一个极具挑战的课题。
发明内容
本发明的目的在于:提供一种基于双深度融合网络的轮廓检测方法,该方法通过在融合现有HED算法和CEDN算法的过程中,增加特征融合权重图,提高不同层次特征图之间的关联性,使得轮廓检测具备更高的精度。
为实现上述目的,本发明采用如下技术方案:
一种基于双深度融合网络的轮廓检测方法,包括以下步骤:
步骤1、建立基于轮廓检测的双深度融合网络结构
基于轮廓检测的双深度融合网络结构包括:类HED模块、类CEDN模块、RefineBlock 网络和sigmoid网络;
所述类HED模块采用不含全连接层的VGG-16网络,用于提取输入图片的n个不同尺度的特征图;
所述类CEDN模块由ResNet-50网络和G-Weights Block网络组成;G-WeightsBlock网络连接在ResNet-50网络之后;ResNet-50网络用于提取输入图片的n+1个尺度不同的特征图,其中前n个特征图的尺度与类HED模块提取出的特征图尺度一一对应,第n+1个特征图作为 G-Weights Block网络的输入;G-Weights Block网络用于将输入的特征图通过卷积和双线性上采样操作生成n个特征权重融合图输出;n个特征权重融合图的尺度与ResNet-50网络中前n 个特征图尺度一一对应;
所述Refine Block网络分别连接类HED模块、ResNet-50网络和G-Weights Block网络后再连接sigmoid网络;Refine Block网络由k个Refine Block层组成;其中RefineBlock1的输入为类HED模块和ResNet-50网络各提供的一个特征图、G-Weights Block网络提供的一个特征融合权重图;余下的Refine Block层中,每个Refine Block层的输入均为类HED模块和ResNet-50网络各提供的一个特征图、G-Weights Block网络提供的一个特征融合权重图以及 Refine Block k-1输出的特征图;需要说明的是:尺度特征图不能重复选用;在同一Refine Block层中,来自类HED模块、ResNet-50网络以及G-Weights Block网络的特征图尺度相同; Refine Block网络用于将G-Weights Block网络生成的特征融合权重图、类HED模块和 ResNet-50网络提取的特征图动态融合,并对融合后的特征图进行上采样还原至输入图片尺度后输出;
所述sigmoid网络用于将Refine Block最终输出的特征图像素值归一化到0-1范围内,从而得到最终的目标检测轮廓预测图;
步骤2、计算目标检测轮廓预测图的损失
将步骤1得到的目标检测轮廓预测图中每个像素与预设轮廓标签中的对应像素进行带权重的交叉熵损失计算,得到每个像素的损失,再对所有像素的损失求和得到损失总和,然后将损失总和计算梯度,反向传播更新目标检测网络的参数;
步骤3、重复步骤2,直到总的损失不再下降,目标检测网络收敛,完成目标检测网络的训练。
进一步的,所述n为4,4个特征图的尺度分别为输入图片的第n+1个特征图的尺度为输入图片/>所述k=2、3、4。
进一步的,所述Refine Block网络中各层Refine Block在对输入特征图进行融合的过程还还对特征矩阵进行了重排列,使不同特征图之间关联性和差异性得到更加充分的利用;重排列的步骤如下:
步骤1.1、先通过卷积将所有特征图的通道数统一降为Cd,再把所有特征图按通道分别拆分成Cd个特征矩阵;
步骤1.2、然后Refine Block1按照来自类HED模块的特征矩阵、来自ResNet-50网络的特征矩阵、特征融合权重图顺序依次排列,重复该操作直到所有特征矩阵排列完毕,然后按照重排结果拼接之后得到新的特征图;
Refine Block2、Refine Block3和Refine Block4按照来自类HED模块的特征矩阵、来自类ResNet-50网络的特征矩阵、与其自身相连的Refine Block输出特征矩阵、特征融合权重图顺序依次排列,重复该操作直到所有特征矩阵排列完毕,然后按照重排结果拼接之后得到新的特征图。
进一步的,所述Refine Block网络中各层Refine Block都设有子像素卷积模块,子像素卷积模块输入为Refine Block1或Refine Block k得到的新的特征图,输出为经过上采样的特征图;通过子像素卷积模块上对融合后的不同尺度特征图进行上采样,以减轻轮廓偏移。
本发明提供的一种基于双深度融合网络的轮廓检测方法,通过类HED模块和类CEDN 模块的设置,实现HED算法与CEDN算法的融合。在融合的过程中,通过类CEDN模块中的G-Weights Block网络生成特征融合权重图,然后在Refine Block网络中将类HED和类CEDN模块提取的不同尺度特征图与特征融合权重图动态融合、并通过上采样得到还原至输入图片尺度后输出。由于特征融合权重图的加入提高不同层次特征图之间的关联性,使得轮廓检测具备更高的精度。在此基础上,本发明还提供在Refine Block网络中对来自类HED模块和ResNet-50网络的尺度特征、来自G-Weights Block网络的特征融合权重图重排,实现了动态特征分配,更加充分的利用了不同特征图之间的关联性和差异性。此外,对于融合后存在的轮廓偏移问题,通过在Refine Block网络中增加的子像素卷积模块使其得到减轻。
附图说明
图1为实施例建立的基于轮廓检测的双深度融合网络结构示意图;
图2为实施例G-Weights Block的网络结构示意图;
图3为实施例Refine Block网络结构示意图;
图4为实施例子像素卷积模块的结构示意图;
图5为实施例子像素卷积模块的工作流程图。
具体实施方式
下面将结合实施例和附图,对本发明的技术方案作进一步地描述。
本实施例提供的一种基于双深度融合网络的轮廓检测方法,包括步骤有:
步骤1、建立基于轮廓检测的双深度融合网络结构;
步骤2、计算目标检测轮廓预测图的损失;
步骤3、重复步骤2,直到总的损失不再下降,目标检测网络收敛,完成目标检测网络的训练。
各步骤详细的实施过程如下:
步骤1、建立基于轮廓检测的双深度融合网络结构
如图1所示,基于轮廓检测的双深度融合网络结构包括:类HED模块、类CEDN模块、Refine Block网络和sigmoid网络;
所述类HED模块采用不含全连接层的VGG-16网络,负责提取输入图片的4个层次特征图,4个层次特征图的尺度分别为输入图片的
所述类CEDN模块由ResNet-50网络和G-Weights Block网络组成;G-WeightsBlock网络连接在ResNet-50网络之后。ResNet-50网络负责提取输入图片的5个层次特征图,5个层次特征图的尺度分别为输入图片的其中尺度为输入图片/>的特征图作为G-Weights Block网络的输入。如图2所示,G-Weights Block网络结构中设有与提取的尺寸特征图对应的卷积层,一个输入层和1个输出层;用于将输入的特征图通过卷积和双线性上采样操作生成尺度分别为输入图片的/>的4个特征融合权重图输出。
如图3所示,所述Refine Block网络分别连接类HED模块、ResNet-50网络和G-Weights Block网络后再连接sigmoid网络;Refine Block网络由依次连接的RefineBlock1、Refine Block2、Refine Block3和Refine Block4组成;用于将G-Weights Block网络生成特征融合权重图、类HED模块和ResNet-50网络提取特征图动态融合,并对融合后的特征图进行上采样得到还原至输入图片尺度输出。
所述Refine Block1的输入为来自类HED模块和ResNet-50网络的尺度为尺度为输入图片的特征图、G-Weights Block网络输出的尺度为/>的特征融合权重图。实施时,Refine Block1 先通过卷积将特征图的通道数统一降为Cd,再把这些特征图按照通道分别拆分成Cd个特征矩阵,按照:来自类HED模块的特征矩阵、来自类CEDN模块的特征矩阵、特征融合权重图顺序依次排列,重复该操作直到所有特征矩阵排列完毕,并按照排列结果拼接得到新的特征图。新的特征图尺寸为/>其中/>表示改特征图的长和宽为输入图片的
将Refine Block k-1的输出作为Refine Block i的输入,其中k=2、3、4。所述Refine Block i共有四个输入:来自类HED模块、类CEDN模块提取的尺度分别为输入图片的特征图、Refine Block i-1输出的特征图,来自G-Weights Block中尺度相同的特征融合权重图。实施时,Refine Block i先通过卷积将特征图的通道数统一降为Cd,再把Refine Block i接收到的所有特征图按照通道分别拆分成Cd个特征矩阵,按照:来自类HED模块的特征矩阵、来自类CEDN模块的特征矩阵、Refine Block i-1输出的特征矩阵、特征融合权重图顺序进行依次排列,重复该操作直到所有特征矩阵排列完毕,并按照排列结果拼接得到新的特征图。
本实施例为减弱轮廓偏移,在Refine Block1和Refine Block i中均增加有子像素卷积模块。如图4所示,子像素卷积模块输入为Refine Block1或Refine Block i得到的新的特征图输出为经过上采样的特征图。在Refine Block1中,最后得到的新的特征图通过卷积层将通道数降为 Cd,然后经过子像素卷积模块进行上采样得到尺寸为的特征图后,经过一层卷积层将通道数降为/>作为Refine Block1的输出。在Refine Block i中,最后得到的新的特征图通过卷积层将通道数降为Cd,然后经过子像素卷积模块进行上采样得到尺寸为/>的特征图后,最后经过一层卷积层将通道数降为2i-4×C作为RefineBlock i的输出。
图5为子像素卷积模块的工作流程图,如图5所示,所述sigmoid网络用于将RefineBlock4 输出的特征图像素值归一化到0-1范围内,从而得到最终的目标检测轮廓预测图。
步骤2、计算目标检测轮廓预测图的损失;
将轮廓预测图中每个像素与预设轮廓标签中的对应像素进行带权重的交叉熵损失计算,带权重的交叉熵损失函数为:
其中:
上式中Xi和yi分别表示轮廓预测图和轮廓标签在像素i处的输出概率和类别,δ是sigmoid 函数,W表示将在网络中学习的所有参数,Y+和Y-分别表示轮廓标签中轮廓像素集合与非轮廓像素集合,|Y+|和|Y-|分别表示集合元素的个数。
上述实施例仅为本发明的一部分实施例,而不是全部的实施例。基于所描述的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
Claims (4)
1.一种基于双深度融合网络的轮廓检测方法,其特征在于:包括以下步骤:
步骤1、建立基于轮廓检测的双深度融合网络结构
基于轮廓检测的双深度融合网络结构包括:类HED模块、类CEDN模块、Refine Block网络和sigmoid网络;
所述类HED模块采用不含全连接层的VGG-16网络,用于提取输入图片的n个不同尺度的特征图;
所述类CEDN模块由ResNet-50网络和G-Weights Block网络组成;G-Weights Block网络连接在ResNet-50网络之后;ResNet-50网络用于提取输入图片的n+1个尺度不同的特征图,其中前n个特征图的尺度与类HED模块提取出的特征图尺度一一对应,第n+1个特征图作为G-Weights Block网络的输入;G-Weights Block网络用于将输入的特征图通过卷积和双线性上采样操作生成n个特征权重融合图输出;n个特征权重融合图的尺度与ResNet-50网络中前n个特征图尺度一一对应;
所述Refine Block网络分别连接类HED模块、ResNet-50网络和G-Weights Block网络后再连接sigmoid网络;Refine Block网络由k个Refine Block层组成;其中Refine Block1的输入为类HED模块和ResNet-50网络各提供的一个特征图和G-Weights Block网络提供的一个特征融合权重图;余下的Refine Block层中,每个Refine Block层的输入均为类HED模块和ResNet-50网络各提供的一个特征图、G-Weights Block网络提供的一个特征融合权重图和Refine Blockk-1输出的特征图;尺度特征图不能重复选用;在同一Refine Block层中,来自类HED模块、ResNet-50网络以及G-Weights Block网络的特征图尺度相同;RefineBlock网络用于将G-Weights Block网络生成的特征融合权重图、类HED模块和ResNet-50网络提取的特征图动态融合,并对融合后的特征图进行上采样还原至输入图片尺度后输出;
所述sigmoid网络用于将Refine Block最终输出的特征图像素值归一化到0-1范围内,从而得到最终的目标检测轮廓预测图;
步骤2、计算目标检测轮廓预测图的损失
将步骤1得到的目标检测轮廓预测图中每个像素与预设轮廓标签中的对应像素进行带权重的交叉熵损失计算,得到每个像素的损失,再对所有像素的损失求和得到损失总和,然后将损失总和计算梯度,反向传播更新目标检测网络的参数;
步骤3、重复步骤2,直到总的损失不再下降,目标检测网络收敛,完成目标检测网络的训练。
2.根据权利要求1所述的一种基于双深度融合网络的轮廓检测方法,其特征在于:所述n为4,4个特征图的尺度分别为输入图片的第n+1个特征图的尺度为输入图片/>所述k=2、3、4。
3.根据权利要求1所述的一种基于双深度融合网络的轮廓检测方法,其特征在于:所述Refine Block网络中各层Refine Block在对输入特征图进行融合的过程还还对特征矩阵进行了重排列,使不同特征图之间关联性和差异性得到更加充分的利用;重排列的步骤如下:
步骤1.1、先通过卷积将所有特征图的通道数统一降为Cd,再把所有特征图按通道分别拆分成Cd个特征矩阵;
步骤1.2、然后Refine Block1按照来自类HED模块的特征矩阵、来自ResNet-50网络的特征矩阵和特征融合权重图顺序依次排列,重复该操作直到所有特征矩阵排列完毕,然后按照重排结果拼接之后得到新的特征图;
Refine Block2、Refine Block3和Refine Block4按照来自类HED模块的特征矩阵、来自类ResNet-50网络的特征矩阵、与其自身相连的Refine Block输出特征矩阵、特征融合权重图顺序依次排列,重复该操作直到所有特征矩阵排列完毕,然后按照重排结果拼接之后得到新的特征图。
4.根据权利要求1所述的一种基于双深度融合网络的轮廓检测方法,其特征在于:所述Refine Block网络中各层Refine Block都设有子像素卷积模块,子像素卷积模块输入为Refine Block1或Refine Block k得到的新的特征图,输出为经过上采样的特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210599134.4A CN115019022B (zh) | 2022-05-30 | 2022-05-30 | 一种基于双深度融合网络的轮廓检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210599134.4A CN115019022B (zh) | 2022-05-30 | 2022-05-30 | 一种基于双深度融合网络的轮廓检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019022A CN115019022A (zh) | 2022-09-06 |
CN115019022B true CN115019022B (zh) | 2024-04-30 |
Family
ID=83071708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210599134.4A Active CN115019022B (zh) | 2022-05-30 | 2022-05-30 | 一种基于双深度融合网络的轮廓检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019022B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299274A (zh) * | 2018-11-07 | 2019-02-01 | 南京大学 | 一种基于全卷积神经网络的自然场景文本检测方法 |
CN109598268A (zh) * | 2018-11-23 | 2019-04-09 | 安徽大学 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
CN109934835A (zh) * | 2019-01-25 | 2019-06-25 | 广西科技大学 | 基于深度强化网络邻接连接的轮廓检测方法 |
CN111325762A (zh) * | 2020-01-21 | 2020-06-23 | 广西科技大学 | 基于密集连接解码网络的轮廓检测方法 |
CN112365501A (zh) * | 2021-01-13 | 2021-02-12 | 南京理工大学 | 一种基于卷积神经网络的焊件轮廓检测算法 |
CN112580661A (zh) * | 2020-12-11 | 2021-03-30 | 江南大学 | 一种深度监督下的多尺度边缘检测方法 |
CN113450321A (zh) * | 2021-06-18 | 2021-09-28 | 电子科技大学 | 基于边缘检测的单阶段目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127670B2 (en) * | 2016-09-27 | 2018-11-13 | Xactware Solutions, Inc. | Computer vision systems and methods for detecting and modeling features of structures in images |
-
2022
- 2022-05-30 CN CN202210599134.4A patent/CN115019022B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299274A (zh) * | 2018-11-07 | 2019-02-01 | 南京大学 | 一种基于全卷积神经网络的自然场景文本检测方法 |
CN109598268A (zh) * | 2018-11-23 | 2019-04-09 | 安徽大学 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
CN109934835A (zh) * | 2019-01-25 | 2019-06-25 | 广西科技大学 | 基于深度强化网络邻接连接的轮廓检测方法 |
CN111325762A (zh) * | 2020-01-21 | 2020-06-23 | 广西科技大学 | 基于密集连接解码网络的轮廓检测方法 |
CN112580661A (zh) * | 2020-12-11 | 2021-03-30 | 江南大学 | 一种深度监督下的多尺度边缘检测方法 |
CN112365501A (zh) * | 2021-01-13 | 2021-02-12 | 南京理工大学 | 一种基于卷积神经网络的焊件轮廓检测算法 |
CN113450321A (zh) * | 2021-06-18 | 2021-09-28 | 电子科技大学 | 基于边缘检测的单阶段目标检测方法 |
Non-Patent Citations (3)
Title |
---|
Keqing Jian ; Shenglin Gui.Object and Contour Detection with an Architecture-Fusion Network.《2021 IEEE 33rd International Conference on Tools with Artificial Intelligence (ICTAI)》.2021,全文. * |
基于深度学习的轮廓检测算法:综述;林川;曹以隽;;广西科技大学学报;20190415(02);全文 * |
目标物体的轮廓识别关键技术研究;简柯青;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115019022A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191382B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN108376387B (zh) | 基于聚合膨胀卷积网络的图像去模糊方法 | |
EP3120322B1 (en) | Method for processing input low-resolution (lr) image to output high-resolution (hr) image | |
CN113409191B (zh) | 一种基于注意力反馈机制的轻量级图像超分方法及系统 | |
CN105844653B (zh) | 一种多层卷积神经网络优化系统及方法 | |
CN112070670B (zh) | 全局-局部分离注意力机制的人脸超分辨率方法及系统 | |
CN110322400B (zh) | 图像处理方法及装置、图像处理系统及其训练方法 | |
CN111260586A (zh) | 扭曲文档图像的矫正方法和装置 | |
US11216913B2 (en) | Convolutional neural network processor, image processing method and electronic device | |
CN109949221B (zh) | 一种图像处理方法及电子设备 | |
CN109389667B (zh) | 一种基于深度学习的高效全局光照明绘制方法 | |
CN113298716B (zh) | 基于卷积神经网络的图像超分辨率重建方法 | |
CN109447897B (zh) | 一种真实场景图像合成方法及系统 | |
CN113421187B (zh) | 一种超分辨率重建方法、系统、存储介质、设备 | |
CN111882053B (zh) | 一种基于拼接卷积的神经网络模型压缩方法 | |
CN115546505A (zh) | 一种基于深度学习的无监督单目图像深度估计方法 | |
CN114897711A (zh) | 一种视频中图像处理方法、装置、设备及存储介质 | |
CN114723044A (zh) | 用于存内计算芯片的误差补偿方法、装置、芯片、设备 | |
CN114332625A (zh) | 基于神经网络的遥感图像彩色化和超分辨率方法及系统 | |
CN107220934A (zh) | 图像重建方法及装置 | |
CN115019022B (zh) | 一种基于双深度融合网络的轮廓检测方法 | |
CN116797456A (zh) | 图像超分辨率重建方法、系统、设备和存储介质 | |
CN116486155A (zh) | 基于Transformer和级联特征的目标检测方法 | |
CN115294182A (zh) | 一种基于双交叉注意力机制的高精度立体匹配方法 | |
CN114187174A (zh) | 基于多尺度残差特征融合的图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |