CN109165660B - 一种基于卷积神经网络的显著物体检测方法 - Google Patents

一种基于卷积神经网络的显著物体检测方法 Download PDF

Info

Publication number
CN109165660B
CN109165660B CN201810634717.XA CN201810634717A CN109165660B CN 109165660 B CN109165660 B CN 109165660B CN 201810634717 A CN201810634717 A CN 201810634717A CN 109165660 B CN109165660 B CN 109165660B
Authority
CN
China
Prior art keywords
map
significance
convolution
significance probability
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810634717.XA
Other languages
English (en)
Other versions
CN109165660A (zh
Inventor
陈舒涵
谭秀莉
王奔
胡学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou University
Original Assignee
Yangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou University filed Critical Yangzhou University
Priority to CN201810634717.XA priority Critical patent/CN109165660B/zh
Publication of CN109165660A publication Critical patent/CN109165660A/zh
Application granted granted Critical
Publication of CN109165660B publication Critical patent/CN109165660B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于卷积神经网络的显著物体检测方法,本发明以任意的静态图像为输入,输出该图像中显著的物体。本发明首先在卷积神经网络的最深层提取低分辨率的全局显著性图,然后设计了两个网络结构,一个是残差特征学习网络,用于提取多尺度的残差特征,在较少的模型参数下逐步提升全局显著性图的分辨率;另一个是反向注意力机制网络,通过反向权重图引导上述残差特征学习,进一步提升显著性图的分辨率。本发明检测精度高,网络模型小,适用于移动端等嵌入式设备。

Description

一种基于卷积神经网络的显著物体检测方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,具体涉及一种基于卷积神经网络的显著物体检测方法。
背景技术
显著物体检测是指提取图像中引人注目的物体或区域,作为图像预处理步骤,可以广泛地应用于后续的高层图像分析理解任务,如物体识别、语义分割、图像标注等。传统的检测方法大都基于手工设计的视觉特征,如对比度、背景中心差异等,这些特征难以捕获语义信息。随着深度学习的兴起,研究者们将其用于显著物体检测,和传统方法相比,性能得到了大幅地提高。而随着数据规模的爆炸式增长,这类方法还有着巨大的潜力可待挖掘。
目前,在基于深度学习的方法中,基于全卷积神经网络(FCN)的方法是主流,这主要归功于其端到端的处理方式。然而,这些基于FCN的方法仍然存在以下两个弊端:一是由于卷积和池化等操作,使得最后得到预测结果分辨率较低,造成物体边界模糊;二是现有的检测模型存在较大的冗余,模型大小都在100MB以上,从而限制了其在移动端等嵌入式设备中的应用。
发明内容
本发明提出了一种基于卷积神经网络的轻量级显著物体检测方法。
实现本发明的技术解决方案为:一种基于卷积神经网络的显著物体检测方法,具体步骤为:
步骤1、构建基于卷积神经网络的显著物体检测模型,具体为:在VGG-16的基础上,增加全局显著性估计模块以及残差特征学习模型,其中,所述全局显著性估计模块用于确定待检测图像的全局显著性概率图S6,且该全局显著性概率图的分辨率为输入图像的1/32;所述残差特征学习模型用于获取分辨率逐渐增加的显著性概率图;
步骤2、模型训练,将待检测图像输入至构建的网络模型,得到不同分辨率的显著性概率图S6-S1,将显著性概率图S6-S2上采样至原图像大小得到显著性概率图
Figure BDA0001701151410000011
使用交叉熵损失函数计算各个显著性概率图
Figure BDA0001701151410000012
和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数;
步骤3、模型检测,将待检测图像直接输入到更新后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图S1通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性图。
优选地,步骤1中增加全局显著性估计模块的具体方法为:
移除VGG-16网络最后的三个全连接层,在移除后的网络最后增加4个卷积层conv,卷积参数依次为:{256,1×1}、{256,5×5}、{256,5×5}、{1,1×1},其中{n,k×k}的n表示卷积通道数,k表示卷积核的大小,中间两个卷积层后都附有一个非线性激活层ReLU。
优选地,步骤1中全局显著性估计模块的工作过程具体为:采用显著物体检测或眼动点预测方法得到待检测图像的显著性图,然后将其缩小32倍得到待检测图像的全局显著性概率图。
优选地,步骤1中残差特征学习模型获取分辨率逐渐增加的全局显著性概率图的具体方法为:
11)采用反卷积层deconv将显著性概率图Si+1上采样两倍至VGG-16中第i个模块的卷积特征大小,得到显著性概率图
Figure BDA0001701151410000021
i为VGG-16的模块索引;
12)在VGG-16第i个模块的最后一个卷积层后依次增加反向注意力机制模块以及三个卷积层,所述三个卷积层卷积参数依次为:{64,3×3}、{64,3×3}、{1,3×3},且前两个卷积层后都附有一个非线性激活层ReLU,最后一个卷积层的输出记为残差特征图Ri
13)将上采样两倍得到的显著性概率图
Figure BDA0001701151410000022
与残差特征图Ri相加得到显著性概率图Si,具体计算公式为:
Figure BDA0001701151410000023
优选地,步骤12)中增加的反向注意力机制模块的具体工作过程为:
步骤12-1)将上采样两倍得到的显著性概率图
Figure BDA0001701151410000024
通过一个sigmoid层归一化到[0,1],然后与1相减得到反向权重图Wi
Figure BDA0001701151410000025
步骤12-2)将反向权重图Wi与VGG-16中第i个模块最后一个卷积层的每一通道分别相乘,得到加权后的特征,计算公式为:
Figure BDA0001701151410000031
其中,Fi
Figure BDA0001701151410000032
分别表示加权前后的特征,⊙表示矩阵点乘,j表示卷积特征的通道索引;
步骤12-3)加权之后再增加一个卷积层,卷积参数为:{64,1×1},该卷积层的输出即为反向注意力机制模块的输出。
本发明与现有技术相比,其显著优点为:(1)本发明设计了一种残差特征学习网络结构,以较少的模型参数获得高分辨率的显著性图,从而有效降低了模型冗余,使之适用于移动端等嵌入式设备;(2)本发明设计了一种反向注意力机制模型,通过反向权重图引导上述残差特征学习,在不增加模型参数下能够显著提升显著性图的分辨率;(3)本发明精度高,模型小(80MB),还可应用于其他像素级预测任务,如语义分割、阴影检测等。
下面结合附图对本发明做进一步详细的描述。
附图说明
图1为本发明基于卷积神经网络的轻量级显著物体检测方法的总体流程图。
图2为本发明反向注意力机制模块的示意图
图3为本发明中各个侧输出的显著性检测结果示例图,a-输入图像,b-真值标注,c-侧输出1的显著性图,d-侧输出2的显著图,e-侧输出3的显著性图,f-侧输出4的显著图,g-侧输出5的显著性图。
具体实施方式
一种基于卷积神经网络的显著物体检测方法,具体步骤为:
步骤1、构建基于卷积神经网络的显著物体检测模型,具体为:在VGG-16的基础上,增加全局显著性估计模块以及残差特征学习模型,其中,所述全局显著性估计模块用于确定待检测图像的全局显著性概率图S6,且该全局显著性概率图的分辨率为输入图像的1/32;所述残差特征学习模型用于获取分辨率逐渐增加的显著性概率图;
步骤2、模型训练,将待检测图像输入至构建的网络模型,得到不同分辨率的显著性概率图S6-S1,将显著性概率图S6-S2上采样至原图像大小得到显著性概率图
Figure BDA0001701151410000041
使用交叉熵损失函数计算各个显著性概率图
Figure BDA0001701151410000042
和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数;
步骤3、模型检测,将待检测图像直接输入到更新后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图S1通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性图。
进一步的实施例中,步骤1中增加全局显著性估计模块的具体方法为:
移除VGG-16网络最后的三个全连接层,在移除后的网络最后增加4个卷积层conv,卷积参数依次为:{256,1×1}、{256,5×5}、{256,5×5}、{1,1×1},其中{n,k×k}的n表示卷积通道数,k表示卷积核的大小,中间两个卷积层后都附有一个非线性激活层ReLU。
进一步的实施例中,步骤1中全局显著性估计模块的工作过程具体为:采用显著物体检测或眼动点预测方法得到待检测图像的显著性图,然后将其缩小32倍得到待检测图像的全局显著性概率图。
进一步的实施例中,步骤1中残差特征学习模型获取分辨率逐渐增加的显著性概率图的具体方法为:
11)采用反卷积层deconv将显著性概率图Si+1上采样两倍至VGG-16中第i个模块的卷积特征大小,得到显著性概率图
Figure BDA0001701151410000043
i为VGG-16的模块索引;
12)在VGG-16第i个模块的最后一个卷积层后依次增加反向注意力机制模块以及三个卷积层,所述三个卷积层卷积参数依次为:{64,3×3}、{64,3×3}、{1,3×3},且前两个卷积层后都附有一个非线性激活层ReLU,最后一个卷积层的输出记为残差特征图Ri
13)将上采样两倍得到的显著性概率图
Figure BDA0001701151410000044
与残差特征图Ri相加得到显著性概率图Si,具体计算公式为:
Figure BDA0001701151410000045
优选地,步骤12)中增加的反向注意力机制模块的具体工作过程为:
步骤12-1)将上采样两倍得到的显著性概率图
Figure BDA0001701151410000046
通过一个sigmoid层归一化到[0,1],然后与1相减得到反向权重图Wi
Figure BDA0001701151410000051
步骤12-2)将反向权重图Wi与VGG-16中第i个模块最后一个卷积层的每一通道分别相乘,得到加权后的特征,计算公式为:
Figure BDA0001701151410000052
其中,Fi
Figure BDA0001701151410000053
分别表示加权前后的特征,⊙表示矩阵点乘,j表示卷积特征的通道索引;
步骤12-3)加权之后再增加一个卷积层,卷积参数为:{64,1×1},该卷积层的输出即为反向注意力机制模块的输出。
实施例1
一种基于卷积神经网络的轻量级显著物体检测方法,具体步骤为:
如图1所示,首先选取VGG-16网络作为预训练模型,移除VGG-16中最后的三个全连接层,然后在移除后的网络最后增加4个卷积层,卷积层参数({n,k×k},n表示卷积通道数,k表示卷积核的大小)依次为:{256,1×1}、{256,5×5}、{256,5×5}、{1,1×1}。其中,每个5×5的卷积层后带有一个激活层,具体采用ReLU函数。最后的输出为初始全局显著性概率图S6。或者采用现有的显著物体检测或眼动点预测方法得到显著性图,然后将其缩小32倍作为初始全局显著性概率图S6
如图2所示,通过反卷积层将全局显著性图S6上采样两倍,然后通过一个sigmoid层将其归一化至[0,1],再与1相减得到反向权重图W5,具计算公式为:
Figure BDA0001701151410000054
将VGG-16中第五个模块的最后一个卷积层的每一个通道均与反向权重W5相乘得到加权后的卷积特征
Figure BDA0001701151410000055
计算公式为:
Figure BDA0001701151410000056
然后通过四个卷积层得到残差特征图R5,卷积参数依次为:{64,1×1},{64,3×3}、{64,3×3}、{1,3×3}。其中,中间两个卷积层后均带有一个ReLU激活层。
将S6上采样两倍后的结果与残差特征图W5相加得到显著性概率图S5,具体计算公式为:
Figure BDA0001701151410000061
通过反卷积层将全局显著性图S5上采样两倍,然后通过一个sigmoid层将其归一化至[0,1],再与1相减得到反向权重图W4
将VGG-16中第四个模块的最后一个卷积层的每一个通道均与反向权重W4相乘,计算得到加权后的卷积特征
Figure BDA0001701151410000062
然后通过四个卷积层得到残差特征图R4,卷积参数依次为:{64,1×1},{64,3×3}、{64,3×3}、{1,3×3}。其中,中间两个卷积层后均带有一个ReLU激活层。
将S5上采样两倍后的结果与残差特征图W4相加得到显著性概率图S4
依次对VGG-16中的特征前3个模块的最后一个卷积层重复上述过程,分别得到显著性概率图S3~S1
在模型训练阶段,首先采用反卷积层将各个显著性概率图S1~S6上采样至原图像大小,然后使用交叉熵损失函数计算各个显著性概率图和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数。
在模型测试阶段,将输入图像直接输入到模型中预测其对应的显著性概率图,并将预测的显著性概率图通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性图。

Claims (4)

1.一种基于卷积神经网络的显著物体检测方法,其特征在于,具体步骤为:
步骤1、构建基于卷积神经网络的显著物体检测模型,具体为:在VGG-16的基础上,增加全局显著性估计模块以及残差特征学习模型,其中,所述全局显著性估计模块用于确定待检测图像的全局显著性概率图S6,且该全局显著性概率图的分辨率为输入图像的1/32;所述残差特征学习模型用于获取分辨率逐渐增加的显著性概率图;
所述步骤1中残差特征学习模型获取分辨率逐渐增加的显著性概率图的具体方法为:
11)采用反卷积层deconv将显著性概率图Si+1上采样两倍至VGG-16中第i个模块的卷积特征大小,得到显著性概率图
Figure FDA0003169812070000011
i为VGG-16的模块索引;
12)在VGG-16第i个模块的最后一个卷积层后依次增加反向注意力机制模块以及三个卷积层,所述三个卷积层卷积参数依次为:{64,3×3}、{64,3×3}、{1,3×3},且前两个卷积层后都附有一个非线性激活层ReLU,最后一个卷积层的输出记为残差特征图Ri
13)将上采样两倍得到的显著性概率图
Figure FDA0003169812070000012
与残差特征图Ri相加得到显著性概率图Si,具体计算公式为:
Figure FDA0003169812070000013
步骤2、模型训练,将待检测图像输入至构建的网络模型,得到不同分辨率的显著性概率图S6-S1,将显著性概率图S6-S2上采样至原图像大小得到显著性概率图
Figure FDA0003169812070000014
使用交叉熵损失函数计算各个显著性概率图
Figure FDA0003169812070000015
和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数;
步骤3、模型检测,将待检测图像直接输入到更新后的网络模型中预测其对应的显著性概率图,并将预测的显著性概率图S1通过一个sigmoid层归一化到[0,1]后作为最终输出的显著性图。
2.根据权利要求1所述的基于卷积神经网络的显著物体检测方法,其特征在于,步骤1中增加全局显著性估计模块的具体方法为:
移除VGG-16网络最后的三个全连接层,在移除后的网络最后增加4个卷积层conv,卷积参数依次为:{256,1×1}、{256,5×5}、{256,5×5}、{1,1×1},其中{n,k×k}的n表示卷积通道数,k表示卷积核的大小,中间两个卷积层后都附有一个非线性激活层ReLU。
3.根据权利要求1所述的基于卷积神经网络的显著物体检测方法,其特征在于,步骤1中全局显著性估计模块的工作过程具体为:采用显著物体检测或眼动点预测方法得到待检测图像的显著性图,然后将其缩小32倍得到待检测图像的全局显著性概率图。
4.根据权利要求1所述的基于卷积神经网络的显著物体检测方法,其特征在于,步骤12)中增加的反向注意力机制模块的具体工作过程为:
步骤12-1)将上采样两倍得到的显著性概率图
Figure FDA0003169812070000021
通过一个sigmoid层归一化到[0,1],然后与1相减得到反向权重图Wi
Figure FDA0003169812070000022
步骤12-2)将反向权重图Wi与VGG-16中第i个模块最后一个卷积层的每一通道分别相乘,得到加权后的特征,计算公式为:
Figure FDA0003169812070000023
其中,Fi
Figure FDA0003169812070000024
分别表示加权前后的特征,⊙表示矩阵点乘,j表示卷积特征的通道索引;
步骤12-3)加权之后再增加一个卷积层,卷积参数为:{64,1×1},该卷积层的输出即为反向注意力机制模块的输出。
CN201810634717.XA 2018-06-20 2018-06-20 一种基于卷积神经网络的显著物体检测方法 Active CN109165660B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810634717.XA CN109165660B (zh) 2018-06-20 2018-06-20 一种基于卷积神经网络的显著物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810634717.XA CN109165660B (zh) 2018-06-20 2018-06-20 一种基于卷积神经网络的显著物体检测方法

Publications (2)

Publication Number Publication Date
CN109165660A CN109165660A (zh) 2019-01-08
CN109165660B true CN109165660B (zh) 2021-11-09

Family

ID=64897169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810634717.XA Active CN109165660B (zh) 2018-06-20 2018-06-20 一种基于卷积神经网络的显著物体检测方法

Country Status (1)

Country Link
CN (1) CN109165660B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829391B (zh) * 2019-01-10 2023-04-07 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN109902800B (zh) * 2019-01-22 2020-11-27 北京大学 基于拟反馈神经网络的多级骨干网络检测通用物体的方法
CN109635882B (zh) * 2019-01-23 2022-05-13 福州大学 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN109993726B (zh) * 2019-02-21 2021-02-19 上海联影智能医疗科技有限公司 医学图像的检测方法、装置、设备和存储介质
CN110020658B (zh) * 2019-03-28 2022-09-30 大连理工大学 一种基于多任务深度学习的显著目标检测方法
CN110084249A (zh) * 2019-04-24 2019-08-02 哈尔滨工业大学 基于金字塔特征注意的图像显著性检测方法
CN111860074B (zh) * 2019-04-30 2024-04-12 北京市商汤科技开发有限公司 目标对象检测方法及装置、驾驶控制方法及装置
CN110287969B (zh) * 2019-06-14 2022-09-16 大连理工大学 基于图残差注意力网络的摩尔文本图像二值化系统
CN110349082B (zh) * 2019-06-28 2023-08-29 腾讯科技(深圳)有限公司 图像区域的裁剪方法和装置、存储介质及电子装置
CN110378895A (zh) * 2019-07-25 2019-10-25 山东浪潮人工智能研究院有限公司 一种基于深度注意力学习的乳腺癌图像识别方法
CN111275076B (zh) * 2020-01-13 2022-10-21 南京理工大学 基于特征选择和特征融合的图像显著性检测方法
CN111325710A (zh) * 2020-01-13 2020-06-23 镇江优瞳智能科技有限公司 一种基于双边注意力机制的rgb-d显著性物体检测方法
CN112329511A (zh) * 2020-08-06 2021-02-05 扬州大学 基于残差特征金字塔的人像分割方法
CN112215241B (zh) * 2020-10-20 2022-04-01 西安交通大学 一种基于小样本学习的图像特征提取装置
CN112884730B (zh) * 2021-02-05 2022-06-07 南开大学 一种协同显著性物体检测方法及系统
CN112907530B (zh) * 2021-02-08 2022-05-17 南开大学 基于分组反向注意力的伪装物体检测方法及系统
CN113052860B (zh) * 2021-04-02 2022-07-19 首都师范大学 一种三维脑血管分割方法及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN107274401A (zh) * 2017-06-22 2017-10-20 中国人民解放军海军航空工程学院 一种基于视觉注意机制的高分辨率sar图像舰船检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9324161B2 (en) * 2013-03-13 2016-04-26 Disney Enterprises, Inc. Content-aware image compression method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN107274401A (zh) * 2017-06-22 2017-10-20 中国人民解放军海军航空工程学院 一种基于视觉注意机制的高分辨率sar图像舰船检测方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Attention-based temporal weighted convolutional neural network for action recognition;Jinliang Zang etc.;《arXiv》;20180319;全文 *
Learning RGB-D Salient Object Detection Using Background Enclosure,Depth Contrast,and Top-Down Features;Riku Shigematsu etc.;《IEEEXplore》;20180123;全文 *
一种基于残差网络的多任务模型;陈良甫等;《中国集成电路》;20170831(第219期);全文 *
似物性窗口融合方法比较研究;李金东等;《广西大学学报(自然科学版)》;20170430;第42卷(第2期);全文 *
基于谱残差显著区域检测的图像分辨率归一化方法;余瑞星等;《西北工业大学学报》;20141231;第32卷(第6期);全文 *
基于频谱残差视觉显著计算的高分辨SAR图像舰船检测算法;熊伟;《电光与控制》;20180430;第25卷(第4期);全文 *
显著性检测论文(一);一个小迷糊66;《https://blog.csdn.net/jianyuchen23/article/details/79100734》;20180120;全文 *

Also Published As

Publication number Publication date
CN109165660A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
CN109165660B (zh) 一种基于卷积神经网络的显著物体检测方法
CN110232394B (zh) 一种多尺度图像语义分割方法
CN110189334B (zh) 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
RU2691214C1 (ru) Распознавание текста с использованием искусственного интеллекта
JP6584477B2 (ja) スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法
CN108171701B (zh) 基于u网络和对抗学习的显著性检测方法
CN111428718B (zh) 一种基于图像增强的自然场景文本识别方法
CN110287969B (zh) 基于图残差注意力网络的摩尔文本图像二值化系统
CN110826596A (zh) 一种基于多尺度可变形卷积的语义分割方法
CN111340814A (zh) 一种基于多模态自适应卷积的rgb-d图像语义分割方法
CN112862774B (zh) 一种遥感影像建筑物精确分割方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN110599502A (zh) 一种基于深度学习的皮肤病变分割方法
CN113066089B (zh) 一种基于注意力引导机制的实时图像语义分割方法
CN112132834A (zh) 一种心室图像分割方法、系统、装置及存储介质
CN116612288B (zh) 一种多尺度轻量级实时语义分割方法、系统
JP2022185144A (ja) 対象検出方法、対象検出モデルのレーニング方法および装置
CN114581789A (zh) 一种高光谱图像分类方法及系统
CN114781499A (zh) 一种构建基于ViT模型的密集预测任务适配器的方法
CN113436198A (zh) 一种协同图像超分辨率重建的遥感图像语义分割方法
CN116580425A (zh) 一种基于交叉Transformer融合的多光谱行人检测方法
CN116229584A (zh) 一种人工智能领域的文本分割识别方法、系统、设备及介质
CN114913339A (zh) 特征图提取模型的训练方法和装置
CN114565625A (zh) 一种基于全局特征的矿物图像分割方法及装置
CN113205131A (zh) 图像数据的处理方法、装置、路侧设备和云控平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant