CN108960261A - 一种基于注意力机制的显著物体检测方法 - Google Patents

一种基于注意力机制的显著物体检测方法 Download PDF

Info

Publication number
CN108960261A
CN108960261A CN201810828215.0A CN201810828215A CN108960261A CN 108960261 A CN108960261 A CN 108960261A CN 201810828215 A CN201810828215 A CN 201810828215A CN 108960261 A CN108960261 A CN 108960261A
Authority
CN
China
Prior art keywords
convolutional layer
feature
attention
output
side output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810828215.0A
Other languages
English (en)
Other versions
CN108960261B (zh
Inventor
周思远
周平
陈舒涵
钱甦阳
黄华杰
胡学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou Wanfang Technology Co.,Ltd.
Original Assignee
Yangzhou Wanfang Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou Wanfang Electronic Technology Co Ltd filed Critical Yangzhou Wanfang Electronic Technology Co Ltd
Priority to CN201810828215.0A priority Critical patent/CN108960261B/zh
Publication of CN108960261A publication Critical patent/CN108960261A/zh
Application granted granted Critical
Publication of CN108960261B publication Critical patent/CN108960261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

一种基于注意力机制的显著物体检测方法。涉及计算机视觉与数字图像处理领域,具体涉及一种基于注意力机制的显著物体检测方法。提供了一种基于注意力机制的显著物体检测方法,首先设计自顶向下的注意力网络用于提纯各层卷积特征,然后引入二阶项设计残差特征融合网络以更好地保留残差特征;实现以任意的静态彩色图像为输入,其输出是与输入图像大小一致的显著性图,显著性图中白色表示显著物体区域,黑色表示背景区域。本发明可以得到高分辨率的显著性图,同时能够较好地检测小显著物体。

Description

一种基于注意力机制的显著物体检测方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,具体涉及一种基于注意力机制的显著物体检测方法。
背景技术
显著物体检测是计算机视觉领域的一个热门研究课题,其目的是提取图像中吸引人注意的物体或区域,并为其赋予显著性值。作为一个预处理步骤,它可以应用于其他高层视觉任务,如弱监督语义分割、物体识别等。传统的显著物体检测方法都是基于人工设计的特征,如对比度、背景中心差异等,这些手工设计的低层视觉特征难以捕获语义信息,因而在复杂场景中效果不佳。近年来,得益于深度学习的飞速发展,显著物体检测的性能已经取得了大幅地提升。然而,现有的显著物体检测模型都是基于图像分类模型微调,由于两者任务的差异性,图像分类网络学习得到的特征无法精确定位物体边界,直接将其用于显著物体检测无法得到高分辨率的显著性图,特别是在物体边界处。另外,为了能够检测多尺度的显著物体,通常需要将不同尺度的卷积特征进行融合,然而现有的特征融合方法只是简单地相加或合并,容易弱化残差特征,从而影响小显著物体检测。
发明内容
为了克服以上弊端,本发明提供了一种基于注意力机制的显著物体检测方法,首先设计自顶向下的注意力网络用于提纯各层卷积特征,然后引入二阶项设计残差特征融合网络以更好地保留残差特征;
实现以任意的静态彩色图像为输入,其输出是与输入图像大小一致的显著性图,显著性图中白色表示显著物体区域,黑色表示背景区域。
本发明的技术方案为:包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征(conv3_3,conv4_3,con5_3,pool5),分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为F1~F4
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},每个卷积层后都附有一个非线性激活层,最后一个卷积层的参数为{1×1×1},得到侧输出4的显著性概率图S4
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,最后一个注意力模块提纯后的卷积特征分别记为A1~A3
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数计算各个显著性概率图和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体定义为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;
S7、模型检测:将待检测图像直接输入到训练后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性检测结果。
步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的特征权值图,记为W3~W1
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256}。
步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
本发明与现有技术相比,具有以下优点:
1)本发明设计了一种基于注意力机制的特征提纯网络,通过自顶向下特征加权可以有效滤除背景区域的干扰,从而提升显著物体检测的准确性;
2)本发明设计了一种残差特征融合网络,通过引入二阶项滤除两者的共同特征,引导网络更好地学习残差特征(物体细节部分),最终可以得到高分辨率的显著性图。
基于以上两个网络,本发明可以得到高分辨率的显著性图,同时能够较好地检测小显著物体。
附图说明
图1为本发明方法的总体流程图;
图2为本发明的注意力加权模块示意图(图1中的RAN);
图3为本发明的残差特征融合网络示意图(图1中的RRN);
图4为本发明的显著性检测结果示例,第一行为输入图像,第二行为显著性检测结果;
具体实施方式
下面结合附图对本发明的技术方案作进一步的详细说明:
本发明如图1-4所示,包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征(conv3_3,conv4_3,con5_3,pool5),分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为F1~F4;该卷积层将各个侧输出特征的通道数降为256,一是降低通道冗余,二是便于后续的特征相加;本发明中卷积层的参数为{k×k×c},k表示卷积核大小,c表示卷积通道数;
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},用于学习显著性语义特征,每个卷积层后都附有一个非线性激活层ReLU,用以去除小于零的特征响应值,最后一个卷积层的参数为{1×1×1},用于降低卷积通道数,得到侧输出4的显著性概率图S4
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,最后一个注意力模块提纯后的卷积特征分别记为A1~A3
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数(SigmoidCrossEntropyLoss,是caffe里定义的一个层,和前面的卷积层、ReLU层一样,具体就是通过下面的公式计算的,一般用于二值预测任务中,交叉熵描述了两个概率分布之间的距离,当交叉熵越小说明二者之间越接近,加上sigmoid使概率分布在[0,1]之间)计算各个显著性概率图和真实标注图(GroundTruth)之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体定义为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;Pr(G(z)=0|I(z))表示预测为非显著物体的概率;l表示损失函数;
公式中,对图像中的每一个像素位置分别计算G(z)log Pr(G(z)=1|I(z))和(1-G(z))log Pr(G(z)=0|I(z)),当模型预测非常准确时,显著性概率和非显著性概率均为1,则两个对数结果均为0,此时损失函数值为0。
步骤S6中,给定输入图像和标注图像,通过不断迭代更新网络权值使得损失函数值不断减小,直至收敛得到最终的网络模型。
S7、模型检测:将待检测图像直接输入到训练后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性检测结果。
步骤S7中,预测得到的显著性概率图中S1的分辨率最高,检测效果最好,通过sigmoid层还可以加大显著物体和背景的对比度,所以将其输出作为最终的检测结果。
步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的特征权值图,记为W3~W1
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层ReLU,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256},不同的卷积核大小用于捕获不同尺度的显著性特征。
步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
具体应用中:
一、基于注意力机制的特征提纯网络
(1)以VGG-16Net作为预训练模型,移除VGG-16中“pool5”后的网络层,然后选取“conv3_3”、“conv4_3”、“conv5_3”、“pool5”作为侧输出特征,分别记为侧输出1~4。为了保证各侧输出特征通道数一致,其后各增加一个1×1卷积核的卷积层(记为conv),将通道数(channel)降低为256。
(2)在“pool5”的1×1卷积后增加三个9×9卷积核的卷积层,通道数皆为256,用于特征学习,再通过一个1×1卷积核的卷积层得到通道数为1的侧输出4显著性概率图S4
(3)在“conv5_3”的1×1卷积后增加一个7×7卷积核的卷积层,通道数为256,用于特征学习,学习得到的特征记为F3,1
(4)采用反卷积层(记为deconv)将全局显著性概率图S4上采样两倍至“conv5_3”大小,作为侧输出3的特征权值图,记为W3
(5)定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
(6)在F3,1后增加一个注意力模块,以F3,1和W3为输入,得到提纯后的特征,紧接着再增加一个7×7卷积核的卷积层,通道数为256,用于特征学习,学习得到的特征记为F3,2,再以此为输入,经过一个注意力模块最后得到特征F3,3。最后通过一个1×1卷积核的卷积层得到通道数为1的侧输出3显著性概率图S3
(7)同理,与侧输出4相似,侧输出3的显著性图上采样用于侧输出2加权,再把侧输出2的显著性图上采样用于侧输出1加权。在侧输出1和2中也分别叠加三个注意力模块,最后得到显著性概率图S1和S2
二、残差特征融合网络
为了能够融合多尺度卷积特征,提升显著性图的分辨率,在各个侧输出最后的1×1卷积层前增加一个残差特征融合模块。该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引(取值1~2)。

Claims (3)

1.一种基于注意力机制的显著物体检测方法,其特征在于,包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为F1~F4
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},每个卷积层后都附有一个非线性激活层,最后一个卷积层的参数为{1×1×1},得到侧输出4的显著性概率图S4
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,最后一个注意力模块提纯后的卷积特征分别记为A1~A3
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数计算各个显著性概率图和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;Pr(G(z)=0|I(z))表示预测为非显著物体的概率;l表示损失函数;
S7、模型检测:将待检测图像直接输入到训练后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性检测结果。
2.根据权利要求1所述的一种基于注意力机制的显著物体检测方法,其特征在于,步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的特征权值图,记为W3~W1
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256}。
3.根据权利要求1所述的一种基于注意力机制的显著物体检测方法,其特征在于,步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
CN201810828215.0A 2018-07-25 2018-07-25 一种基于注意力机制的显著物体检测方法 Active CN108960261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810828215.0A CN108960261B (zh) 2018-07-25 2018-07-25 一种基于注意力机制的显著物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810828215.0A CN108960261B (zh) 2018-07-25 2018-07-25 一种基于注意力机制的显著物体检测方法

Publications (2)

Publication Number Publication Date
CN108960261A true CN108960261A (zh) 2018-12-07
CN108960261B CN108960261B (zh) 2021-09-24

Family

ID=64464924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810828215.0A Active CN108960261B (zh) 2018-07-25 2018-07-25 一种基于注意力机制的显著物体检测方法

Country Status (1)

Country Link
CN (1) CN108960261B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754404A (zh) * 2019-01-02 2019-05-14 清华大学深圳研究生院 一种基于多注意力机制的端到端的肿瘤分割方法
CN109815964A (zh) * 2019-01-31 2019-05-28 北京字节跳动网络技术有限公司 提取图像的特征图的方法和装置
CN109816037A (zh) * 2019-01-31 2019-05-28 北京字节跳动网络技术有限公司 提取图像的特征图的方法和装置
CN109829893A (zh) * 2019-01-03 2019-05-31 武汉精测电子集团股份有限公司 一种基于注意力机制的缺陷目标检测方法
CN110059718A (zh) * 2019-03-18 2019-07-26 国网浙江省电力有限公司信息通信分公司 基于多类多注意力机制的细粒度检测方法
CN110175953A (zh) * 2019-05-24 2019-08-27 鹏城实验室 一种图像超分辨方法和系统
CN110210608A (zh) * 2019-06-05 2019-09-06 国家广播电视总局广播电视科学研究院 基于注意力机制和多层次特征融合的低照度图像增强方法
CN110334718A (zh) * 2019-07-09 2019-10-15 方玉明 一种基于长短期记忆的二维视频显著性检测方法
CN112329511A (zh) * 2020-08-06 2021-02-05 扬州大学 基于残差特征金字塔的人像分割方法
CN112869704A (zh) * 2021-02-02 2021-06-01 苏州大学 一种基于循环自适应多目标加权网络的糖尿病视网膜病变区域自动分割方法
CN113487546A (zh) * 2021-06-25 2021-10-08 中南大学 一种特征-输出空间双对齐的变化检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157319A (zh) * 2016-07-28 2016-11-23 哈尔滨工业大学 基于卷积神经网络的区域和像素级融合的显著性检测方法
CN106778757A (zh) * 2016-12-12 2017-05-31 哈尔滨工业大学 基于文本显著性的场景文本检测方法
CN106815604A (zh) * 2017-01-16 2017-06-09 大连理工大学 基于多层信息融合的注视点检测方法
US20180165539A1 (en) * 2016-12-08 2018-06-14 Intel Corporation Visual-saliency driven scene description
WO2018128741A1 (en) * 2017-01-06 2018-07-12 Board Of Regents, The University Of Texas System Segmenting generic foreground objects in images and videos

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157319A (zh) * 2016-07-28 2016-11-23 哈尔滨工业大学 基于卷积神经网络的区域和像素级融合的显著性检测方法
US20180165539A1 (en) * 2016-12-08 2018-06-14 Intel Corporation Visual-saliency driven scene description
CN106778757A (zh) * 2016-12-12 2017-05-31 哈尔滨工业大学 基于文本显著性的场景文本检测方法
WO2018128741A1 (en) * 2017-01-06 2018-07-12 Board Of Regents, The University Of Texas System Segmenting generic foreground objects in images and videos
CN106815604A (zh) * 2017-01-16 2017-06-09 大连理工大学 基于多层信息融合的注视点检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
PINGPING ZHANG ET AL.: "Amulet: Aggregating Multi-level Convolutional Features for Salient Object Detection", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
SAINING XIE ET AL.: "Holistically-Nested Edge Detection", 《INT J COMPUT VIS》 *
SHUHAN CHEN ET AL.: "Saliency Detection for Improving Object Proposals", 《2016 IEEE》 *
李岳云等: "深度卷积神经网络的显著性检测", 《中国图像图形学报》 *
杨帆等: "基于多任务深度卷积神经网络的显著性对象检测算法", 《计算机应用》 *
梁晔等: "显著区域检测技术研究", 《计算机科学》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754404A (zh) * 2019-01-02 2019-05-14 清华大学深圳研究生院 一种基于多注意力机制的端到端的肿瘤分割方法
CN109829893A (zh) * 2019-01-03 2019-05-31 武汉精测电子集团股份有限公司 一种基于注意力机制的缺陷目标检测方法
CN109815964A (zh) * 2019-01-31 2019-05-28 北京字节跳动网络技术有限公司 提取图像的特征图的方法和装置
CN109816037A (zh) * 2019-01-31 2019-05-28 北京字节跳动网络技术有限公司 提取图像的特征图的方法和装置
CN110059718A (zh) * 2019-03-18 2019-07-26 国网浙江省电力有限公司信息通信分公司 基于多类多注意力机制的细粒度检测方法
CN110175953A (zh) * 2019-05-24 2019-08-27 鹏城实验室 一种图像超分辨方法和系统
CN110210608A (zh) * 2019-06-05 2019-09-06 国家广播电视总局广播电视科学研究院 基于注意力机制和多层次特征融合的低照度图像增强方法
CN110334718A (zh) * 2019-07-09 2019-10-15 方玉明 一种基于长短期记忆的二维视频显著性检测方法
CN112329511A (zh) * 2020-08-06 2021-02-05 扬州大学 基于残差特征金字塔的人像分割方法
CN112869704A (zh) * 2021-02-02 2021-06-01 苏州大学 一种基于循环自适应多目标加权网络的糖尿病视网膜病变区域自动分割方法
CN113487546A (zh) * 2021-06-25 2021-10-08 中南大学 一种特征-输出空间双对齐的变化检测方法
CN113487546B (zh) * 2021-06-25 2024-04-02 中南大学 一种特征-输出空间双对齐的变化检测方法

Also Published As

Publication number Publication date
CN108960261B (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN108960261A (zh) 一种基于注意力机制的显著物体检测方法
CN110084292B (zh) 基于DenseNet和多尺度特征融合的目标检测方法
Kaul et al. Focusnet: An attention-based fully convolutional network for medical image segmentation
Bayar et al. Design principles of convolutional neural networks for multimedia forensics
CN106778705B (zh) 一种行人个体分割方法及装置
CN107133943A (zh) 一种防震锤缺陷检测的视觉检测方法
CN107545263B (zh) 一种物体检测方法及装置
CN111257341B (zh) 基于多尺度特征与堆叠式全卷积网络的水下建筑物裂缝检测方法
CN107657249A (zh) 多尺度特征行人重识别的方法、装置、存储介质及处理器
CN110633610B (zh) 一种基于yolo的学员状态检测方法
CN111860398B (zh) 遥感图像目标检测方法、系统及终端设备
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN112288043B (zh) 窑炉表面缺陷检测方法、系统和介质
WO2018141429A1 (en) A method and apparatus for detecting objects of interest in images
CN113627228B (zh) 一种基于关键点回归与多尺度特征融合的车道线检测方法
CN104299006A (zh) 一种基于深度神经网络的车牌识别方法
CN110853074B (zh) 一种利用光流增强目标的视频目标检测网络系统
CN109948616A (zh) 图像检测方法、装置、电子设备及计算机可读存储介质
CN112949633B (zh) 一种基于改进YOLOv3的红外目标检测方法
CN115631344B (zh) 一种基于特征自适应聚合的目标检测方法
CN110751644A (zh) 道路表面裂纹检测方法
CN114612937A (zh) 基于单模态增强的红外与可见光融合行人检测方法
CN110648316A (zh) 一种基于深度学习的钢卷端面边缘检测算法
CN110781980A (zh) 目标检测模型的训练方法、目标检测方法及装置
CN111582074A (zh) 一种基于场景深度信息感知的监控视频树叶遮挡检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: No.96 Anlin Road, Yangzhou City, Jiangsu Province 225006

Patentee after: Yangzhou Wanfang Technology Co.,Ltd.

Address before: No.96 Anlin Road, Yangzhou City, Jiangsu Province 225006

Patentee before: YANGZHOU WANFANG ELECTRONIC TECHNOLOGY LLC

CP01 Change in the name or title of a patent holder