CN114821116A - 图像的显著性区域提取方法、装置、设备以及存储介质 - Google Patents
图像的显著性区域提取方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN114821116A CN114821116A CN202210460422.1A CN202210460422A CN114821116A CN 114821116 A CN114821116 A CN 114821116A CN 202210460422 A CN202210460422 A CN 202210460422A CN 114821116 A CN114821116 A CN 114821116A
- Authority
- CN
- China
- Prior art keywords
- feature map
- salient region
- boundary
- enhancement
- characteristic diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000010586 diagram Methods 0.000 claims abstract description 92
- 230000004927 fusion Effects 0.000 claims abstract description 60
- 238000000605 extraction Methods 0.000 claims abstract description 49
- 230000011218 segmentation Effects 0.000 claims description 29
- 230000002708 enhancing effect Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000005728 strengthening Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 208000035126 Facies Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种图像的显著性区域提取方法、装置、设备以及存储介质,包括:基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi;针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hj;基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果;基于特征图fN和显著性区域初始识别结果生成第一融合特征图;将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi合并成第二融合特征图;基于第二融合特征图提取目标显著性区域。上述方法可以更加准确地提取到目标显著性区域。
Description
技术领域
本公开涉及人工智能技术领域,具体涉及一种图像的显著性区域提取方法、装置、设备以及存储介质。
背景技术
人类能够在视觉场景中的重要区域快速分配注意力。理解和模拟这种惊人的能力,即视觉注意力或视觉显著性,是心理学、神经生物学、认知科学和计算机视觉中的一个基本研究问题。
当前已存在很多显著性目标检测算法,然而,现有的显著性目标检测算法使用的图像的信息不够充分和详细,这会导致其提取的显著性区域的结果不够准确;由于训练显著性目标检测模型使用的损失函数置信度较低,使得显著性目标检测模型输出的显著性区域的边界模糊,同样会导致其提取的显著性区域的结果不够准确,也无法保证显著区域的一致性。
发明内容
本公开提供了一种图像的显著性区域提取方法、装置、设备以及存储介质。
根据本公开的第一方面,提供了一种图像的显著性区域提取方法,包括:
基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi,其中,i为不大于N的正整数,特征图f1至特征图fN的层级依次升高;
在N个不同层级的特征图fi中确定出M个特征图fi,针对M个特征图 fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hj,其中,j为不大于M的正整数;
基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果;
基于特征图fN和显著性区域初始识别结果生成第一融合特征图;
将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图;
基于第二融合特征图生成目标图像的显著性区域目标识别结果,基于显著性区域目标识别结果提取目标显著性区域。
在本公开实施例中,针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hi,包括:
针对M个特征图fi中的每个特征图fi,获取特征图fi进行池化后的特征平均值;
计算特征图fi与特征平均值的差值,将差值作为特征图fi的高频信息;
计算特征图fi与高频信息的和值,将和值作为特征图fi对应的高频增强特征图hj。
在本公开实施例中,显著性区域提取模型包括(M-1)个边界增强单元kj,边界增强单元kj与高频增强特征图hj+1对应,用于加强高频增强特征图h1的边界信息;
基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果,包括:
当j=1时,将高频增强特征图h1和高频增强特征图h2输入到边界增强单元k1,基于边界增强单元k1输出第1次边界加强的高频增强特征图h1;
当1<j<M时,将高频增强特征图hj+1和第(j-1)次边界加强的高频增强特征图h1输入到边界增强单元kj,基于边界增强单元kj输出第j次边界加强的高频增强特征图h1输入次边界加强的高频增强特征图h1;
基于第(M-1)次边界加强的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
在本公开实施例中,基于特征图fN和显著性区域初始识别结果生成第一融合特征图,包括:
从特征图fN中提取出多尺度信息;
将显著性区域初始识别结果的尺寸和通道数,调整为与特征图fN的尺寸和通道数一致;
将多尺度信息和调整后的显著性区域初始识别结果进行拼接,得到第一融合特征图。
在本公开实施例中,将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图,包括:
将第一融合特征图的尺寸扩大一倍;
将显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的第一融合特征图的尺寸和通道数一致;
将尺寸扩大后的第一融合特征图和调整后的显著性区域初始识别结果进行融合,得到中间融合特征图;
将中间融合特征图和至少一个特征图fi进行合并,得到第二融合特征图。
在本公开实施例中,训练显著性区域提取模型的总损失包括分割损失和边界损失;分割损失用于表征显著性区域的像素点的分类结果的准确程度,边界损失用于表征显著区域的边界像素点的位置的准确程度。
在本公开实施例中,分割损失的计算公式为:
Lossseg=BCE+λ2CL,Lossseg为分割损失,Lossseg为分割损失,BCE 为交叉熵损失,CL为一致性增强损失函数,λ2为交叉熵损失和一致性增强损失函数的权衡参数。
在本公开实施例中,边界损失的计算公式为:
根据本公开的第二方面,提供了一种图像的显著性区域提取装置,包括:
特征提取模块,用于基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi,其中,i为不大于N的正整数,特征图f1至特征图fN的层级依次升高;
高频增强模块,用于在N个不同层级的特征图fi中确定出M个特征图fi,针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hj,其中,j为不大于 M的正整数;
边界加强模块,用于基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果;
第一融合特征生成模块,用于基于特征图fN和显著性区域初始识别结果生成第一融合特征图;
第二融合特征生成模块,用于将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图;
目标显著性区域提取模块,用于基于第二融合特征图生成目标图像的显著性区域目标识别结果,基于显著性区域目标识别结果提取目标显著性区域。
在本公开实施例中,高频增强模块在用于针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hi时,具体用于:
针对M个特征图fi中的每个特征图fi,获取特征图fi进行池化后的特征平均值;
计算特征图fi与特征平均值的差值,将差值作为特征图fi的高频信息;
计算特征图fi与高频信息的和值,将和值作为特征图fi对应的高频增强特征图hj。
在本公开实施例中,显著性区域提取模型包括(M-1)个边界增强单元 kj,边界增强单元kj与高频增强特征图hj+1对应,用于加强高频增强特征图 h1的边界信息;
边界加强模块在用于基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果时,具体用于:
当j=1时,将高频增强特征图h1和高频增强特征图h2输入到边界增强单元k1,基于边界增强单元k1输出第1次边界加强的高频增强特征图h1;
当1<j<M时,将高频增强特征图hj+1和第(j-1)次边界加强的高频增强特征图h1输入到边界增强单元kj,基于边界增强单元kj输出第j次边界加强的高频增强特征图h1输入次边界加强的高频增强特征图h1;
基于第(M-1)次边界加强的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
在本公开实施例中,第一融合特征生成模块在用于基于特征图fN和显著性区域初始识别结果生成第一融合特征图时,具体用于:
从特征图fN中提取出多尺度信息;
将显著性区域初始识别结果的尺寸和通道数,调整为与特征图fN的尺寸和通道数一致;
将多尺度信息和调整后的显著性区域初始识别结果进行拼接,得到第一融合特征图。
在本公开实施例中,第二融合特征生成模块在用于将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图时,具体用于:
将第一融合特征图的尺寸扩大一倍;
将显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的第一融合特征图的尺寸和通道数一致;
将尺寸扩大后的第一融合特征图和调整后的显著性区域初始识别结果进行融合,得到中间融合特征图;
将中间融合特征图和至少一个特征图fi进行合并,得到第二融合特征图。
在本公开实施例中,训练显著性区域提取模型的总损失包括分割损失和边界损失;分割损失用于表征显著性区域的像素点的分类结果的准确程度,边界损失用于表征显著区域的边界像素点的位置的准确程度。
在本公开实施例中,分割损失的计算公式为:
Lossseg=BCE+λ2CL,Lossseg为分割损失,Lossseg为分割损失,BCE为交叉熵损失,CL为一致性增强损失函数,λ2为交叉熵损失和一致性增强损失函数的权衡参数;
边界损失的计算公式为:
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及与至少一个处理器通信连接的存储器;
其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述第一方面提供的图像的显著性区域提取方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行上述第一方面提供的图像的显著性区域提取方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
本公开提供的技术方案带来的有益效果是:
本公开提供的图像的显著性区域提取方法,使用显著性区域提取模型提取了目标图像的多层次的深层特征,便于了解整个图像的整体意义和目标的详细结构,获取到目标图像的更加细节的信息,此外还建立通过增强高频特征进行显著性区域的边界检测的流程,方便在后续联合边界检测和显著性区域检测来更加准确地提取到目标显著性区域。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出了本公开实施例提供的一种图像的显著性区域提取方法的流程示意图;
图2示出了本公开实施例提供的一种图像的显著性区域提取方法的具体实例的流程示意图;
图3示出了本公开实施例提供的获取边界加强的高频增强特征图h1的流程示意图;
图4示出了本公开实施例提供的获取第一融合特征图的流程示意图;
图5示出了本公开实施例提供的一种图像的显著性区域提取装置的流程示意图;
图6示出了可以用来实施本公开实施例提供的图像的显著性区域提取方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人类能够在视觉场景中的重要区域快速分配注意力。理解和模拟这种惊人的能力,即视觉注意力或视觉显著性,是心理学、神经生物学、认知科学和计算机视觉中的一个基本研究问题。
人类能够在视觉场景中的重要区域快速分配注意力。理解和模拟这种惊人的能力,即视觉注意力或视觉显著性,是心理学、神经生物学、认知科学和计算机视觉中的一个基本研究问题。显著目标检测的兴起是由广泛的对象级计算机视觉应用推动的。大多数早期的非深度显著目标检测依赖于低级特征和某些启发式方法(例如,颜色对比,背景先验)。
近年来随着在数据驱动的深度学习技术的兴起,显著性目标检测在其帮助下迅速发展。自2015年首次推出以来,基于深度学习的显著性目标检测算法很快显示出优于传统解决方案的性能,并保持在各种排行榜的首位。
显著性目标检测成为了计算机视觉领域一个非常热门的研究方向,在多种领域中得到广泛的应用。在计算机视觉领域,如视觉跟踪、图像检索、非真实感渲染、4D显著性检测、无参考合成图像质量评估、语义分割等。机器人学中的示例性应用,如人机交互和对象发现,也受益于显著性目标检测,以更好地理解场景/对象。尽管与传统方法相比,深度学习方法目前已经取得了很大的进展,但如何得到更加精细的显著性预测以及如何提高预测的空间一致性仍是值得关注的问题。
当前已存在很多显著性目标检测算法,但很多效果并不理想,主要是由于以下两个方面:一方面,显著性主要是在整个图像的全局对比度上定义的,而不是局部或像素特征,为了获得准确的结果,显著性检测方法必须了解整个图像的整体意义和目标的详细结构,然而现有的显著性目标检测算法使用的图像的信息不够充分和详细。另一方面,大部分显著性目标检测方法都采用了交叉熵作为训练损失函数,但是交叉熵损失在判断边界像素时置信度较低,导致边界非常模糊,也无法保证显著区域的一致性。
综上来看,现有的显著性目标检测算法使用的图像的信息不够充分和详细,这会导致其提取的显著性区域的结果不够准确;由于训练显著性目标检测模型使用的损失函数置信度较低,导致显著性目标检测模型输出的显著性区域的边界模糊,同样会导致其提取的显著性区域的结果不够准确,也无法保证显著区域的一致性。
本公开实施例提供的图像的显著性区域提取方法、装置、设备以及存储介质,旨在解决现有技术的如上技术问题中的至少一个。
本公开提供的图像的显著性区域提取方法,使用显著性区域提取模型提取了目标图像的多层次的深层特征,便于了解整个图像的整体意义和目标的详细结构,获取到目标图像的更加细节的信息,此外还建立通过增强高频特征进行显著性区域的边界检测的流程,方便在后续联合边界检测和显著性区域检测来更加准确地提取到目标显著性区域。
本公开实施例提供了一种图像的显著性区域提取方法,该方法基于预先训练的显著性区域提取模型实现。显著性区域提取模型可以是使用若干公开的常用显著性图像数据集训练得到的,在模型训练过程中可以基于损失,使用反向传播来不断模型参数,直到损失收敛到较小的值,保存模型的参数,得到训练好的显著性区域提取模型。
图1示出了本公开实施例提供的一种图像的显著性区域提取方法的流程示意图,如图1示,该方法主要可以包括以下步骤:
S110:基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi。
目标图像可以是使用摄像头实时获取的图像,也可以是从预设的图像库或存储设备中获取的图像,也可以接收其他设备发送的图像,本公开实施例对目标图像的来源不做限制。
i为不大于N的正整数,特征图f1至特征图fN的层级依次升高。N的具体值可以根据实际的设计需要而定,例如,N可以为5,显著性区域提取模型可以采用在ImageNet上训练完成的ResNet-50,基于显著性区域提取模型对目标图像进行特征提取,将显著性区域提取模型最后一个block的空洞率设为2来扩展感受域。如图2所示,将原始的目标图像始输入图像通过5个卷积层Conv1-Conv5逐步获取了从低级到高级的不同尺度的特征信息,具体地,可以获得尺寸分别为原始的目标图像尺寸的1/2、1/4、1/8、1/16和1/16 这5个不同层级的特征图,这5个不同层级的特征图分别为特征图f1、特征图f2、特征图f3、特征图f4和特征图f5,这些不同尺度的特征图分别表征了由低级到高级的丰富特征信息。
S120:在N个不同层级的特征图fi中确定出M个特征图fi,针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hj。
可以理解,M不大于N,j为不大于M的正整数。例如,M设置为4,可以在上述5个不同层级的特征图fi中确定出特征图f1、特征图f2、特征图 f3和特征图f5这4个特征图,以特征图f1为例,可以将特征图f1与特征图f1的高频信息进行融合,生成特征图f1对应的高频增强特征图h1。
可选地,在步骤S120中,针对M个特征图fi中的每个特征图fi,获取特征图fi进行池化后的特征平均值,该特征平均值可以表示为AvgPool(fi)。在得到特征图fi进行池化后的特征平均值之后,计算特征图fi与特征平均值的差值,将差值作为特征图fi的高频信息,也就是说,高频信息可以表示为(fi-AvgPool(fi))。之后计算特征图fi与高频信息的和值,将和值作为特征图fi对应的高频增强特征图hj。可以理解,高频增强特征图hj。计算公式如下:
hi=2fi-AvgPool(fi)
fi是第i个特征图fi,AvgPool代表均值池化操作。通过上述方法可以分别获取特征图f1、特征图f2、特征图f3和特征图f5对应的高频增强特征图为h1、高频增强特征图h2、高频增强特征图h3和高频增强特征图 h4。
本公开实施例将特征图与其高频信息进行融合,实现了对特征图本身的高频信息的增强,得到高频增强特征图,基于高频增强特征图能够更加准确地检测显著性区域的边界。
S130:基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
在本公开实施例中,以高频增强特征图hj包括高频增强特征图为h1、高频增强特征图h2、高频增强特征图h3和高频增强特征图h4为例,可以使用高频增强特征图h2、高频增强特征图h3和高频增强特征图h4依次对高频增强特征图为h1的边界信息进行增强,基于包含了各高频增强特征图的信息的高频增强特征图为h1来识别目标图像的显著性区域,得到显著性区域初始识别结果。
可选地,显著性区域提取模型包括(M-1)个边界增强单元kj,边界增强单元kj与高频增强特征图hj+1对应,用于加强高频增强特征图h1的边界信息。例如,如图2所示,M可以设置为4,显著性区域提取模型包括对应于高频增强特征图h2的边界增强单元k1、对应于高频增强特征图 h3的边界增强单元k2、对应于高频增强特征图h4的边界增强单元k3。
可选地,在步骤S130可以包括以下步骤:
(a)当j=1时,将高频增强特征图h1和高频增强特征图h2输入到边界增强单元k1,基于边界增强单元k1输出第1次边界加强的高频增强特征图 h1。
具体地,如图3所示,将高频增强特征图h2经过1×1卷积来降低通道数,使高频增强特征图h2的通道数和高频增强特征图h1的通道数保持一致,然后对高频增强特征图h2进行上采样操作,保证高频增强特征图h2的尺寸和高频增强特征图h1的尺寸相同。之后将处理后的高频增强特征图h2和高频增强特征图h1的2进行元素相加,得到第1次边界加强的高频增强特征图h1。
(b)当1<j<M时,将高频增强特征图hj+1和第(j-1)次边界加强的高频增强特征图h1输入到边界增强单元kj,基于边界增强单元kj输出第j次边界加强的高频增强特征图h1输入次边界加强的高频增强特征图h1。
如图2所示,得到第1次边界加强的高频增强特征图h1之后,可以将高频增强特征图h3和第1次边界加强的高频增强特征图h1输入到边界增强单元 k2,基于边界增强单元k2输出第2次边界加强的高频增强特征图h1;之后将高频增强特征图h4和第2次边界加强的高频增强特征图h1输入到边界增强单元k3,基于边界增强单元k3输出第3次边界加强的高频增强特征图h1。
(c)基于第(M-1)次边界加强的高频增强特征图h1生成目标图像的显著性区域初始识别结果。显著性区域初始识别结果包括显著性区域的边界的相关信息。
可以理解,当M设置为4时,可以基于上述第3次边界加强的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
边界增强单元对特征图的处理过程可以用如下公式标识:
edgej+1=Up(Trans(hj+1))+Res(edgej)
其中,edgej+1是当前的第(j+1)边界增强单元的输出,hj是高频信息增强后的第j个高频增强特征图;edgej是第j个边界增强单元的输出;Trans是卷积、标准化、非线性变化操作的组合,Up是上采样操作, Res是残差结构的卷积。从低层到高层依次对特征层中的边界信息进行增强,过滤非边界信息,多次增强过滤后得到显著性区域的边界。
本公开实施例通过目标图像的多层次的深层特征对应的多个高频增强特征图进行叠加,可以显著地增强特征图的边界信息,确保可以获取到更加准确的包含显著性区域边界的显著性区域初始识别结果。
S140:基于特征图fN和显著性区域初始识别结果生成第一融合特征图。
在本公开实施例中,可以从特征图fN中提取出多尺度信息;同时,将显著性区域初始识别结果的尺寸和通道数,调整为与特征图fN的尺寸和通道数一致;将多尺度信息和调整后的显著性区域初始识别结果进行拼接,得到第一融合特征图。
可以理解,特征图fN中包含了目标图像的更加细节的信息,将特征图fN与显著性区域初始识别结果融合之后,可以进一步丰富特征图中的信息,有助于提高对显著性区域的检测准确性。
具体来说,特征图fN即为上述的最顶层的特征图f5,使用ASPP模块对特征图f5进行处理,提取其多尺度信息。例如,可以将特征图f5平行输出到五个模块中,第一个模块经过平均池化,经过1x1卷积通道变换后再上采样恢复分辨率,第二到第五个模块分别以1,6,12,18不同比率的空洞卷积并行采样,通过上述五个模块得到多尺度信息。之后可以对显著性区域初始识别结果进行一个resize处理,使显著性区域初始识别结果的尺寸与特征图f5的尺寸一致;对显著性区域初始识别结果经过1×1卷积来改变通道数,使显著性区域初始识别结果的通道数与特征图f5的通道数一致。将多尺度信息和调整后的显著性区域初始识别结果进行拼接,得到第一融合特征图。
S150:将第一融合特征图、显著性区域初始识别结果和至少一个特征图 fi进行合并,得到第二融合特征图。
可选地,在步骤S150中,可以将第一融合特征图的尺寸扩大一倍,之后将将显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的第一融合特征图的尺寸和通道数一致。将尺寸扩大后的第一融合特征图和调整后的显著性区域初始识别结果进行融合,得到中间融合特征图;将中间融合特征图和至少一个特征图fi进行合并,得到第二融合特征图。获取到目标图像的更加细节的信息,此外还建立通过增强高频特征进行显著性区域的边界检测的流程,方便在后续联合边界检测和显著性区域检测来更加准确地提取到目标显著性区域。包含较详细准确的边界信息的特征图和原始的特征图进行融合后用于显著性区域检测流程,在确保识别出目标显著性区域的边界具备较高的清晰度和准确性。
具体地,步骤S150是反向逐级特征融合的过程,如图2所示,可以将第一融合特征图定义为第一融合特征图f6,从第一融合特征图f6开始,先对第一融合特征图f6进行上采样使其尺寸扩大一倍,将显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的第一融合特征图f6的尺寸和通道数一致;将尺寸扩大后的第一融合特征图f6和调整后的显著性区域初始识别结果进行元素相加,得到中间融合特征图。这里,中间融合特征图的尺寸和特征图f3的尺寸一致,可以直接沿通道维度将中间融合特征图和特征图f3进行合并,在完成合并之后,还附加了1×1,3×3卷积降低通道维度和减少参数计算量;这样按此方式依次进行,最终不同尺度的第一融合特征图f6、特征图f3和特征图f2逐级融合完成。这里,对于每次融合后的特征图,对其添加了3×3,1×1的两个卷积操作来得到一个子输出结果,最后一个子输出结果当作最终的输出结果,最终的输出结果就是上述的第二融合特征图。
S160:基于第二融合特征图生成目标图像的显著性区域目标识别结果,基于显著性区域目标识别结果提取目标显著性区域。
在本公开实施例中,训练显著性区域提取模型的总损失包括分割损失和边界损失。分割损失用于表征显著性区域的像素点的分类结果的准确程度,边界损失用于表征显著区域的边界像素点的位置的准确程度。
训练显著性区域提取模型的总损失可以用如下公式表达:
Loss=Lossseg+λ1Lossedge
其中,Loss为训练显著性区域提取模型的总损失,Lossseg为分割损失,λ1Lossedge为边界损失,λ1为两个分割损失和边界损失的权衡参数,其值为可以根据实际需要而定,例如λ1可以取值为1。
本公开实施例联合了边界检测和显著性区域检测提取目标显著性区域,因此在模型训练过程中针对边界检测和显著性区域检测配置了边界损失和为分割损失,以及两种损失来调整模型参数,确保显著性区域提取模型具备较佳的边界检测能力和显著性区域检测能力,以便显著性区域提取模型能够更加准确地提取出目标显著性区域。
在本公开实施例中,分割损失的计算公式为:
Lossseg=BCE+λ2CL,Lossseg为分割损失,Lossseg为分割损失,BCE为交叉熵损失,CL为一致性增强损失函数,λ2为交叉熵损失和一致性增强损失函数的权衡参数。
进一步地,交叉熵损失为BCE的计算公式为:
pi和gi分别代表第i个像素点的预测值和真实值,K代表像素点数量。
进一步地,一致性增强损失CL的计算公式为:
在本公开实施例中,边界损失的计算公式为:
β为真值图中非边缘像素的百分比;pi和gi分别为第i个像素点的预测值和真实值,K为像素点数量。
另一方面,大部分显著性目标检测方法都采用了交叉熵作为训练损失函数,但是交叉熵损失在判断边界像素时置信度较低,导致边界非常模糊,也无法保证显著区域的一致性。
本公开实施例的分割损失包含了交叉熵损失和一致性增强损失这两部分损失,一致性增强损失是分别考虑前景显著性区域和背景区域,使得同一类的像素预测概率趋于一致,从而可以更加均匀高亮的突出显著性区域,进而能够确保识别出的显著性区域的边界更加清晰。
在此需要说明的是,针对需要检测其目标区域的图像,通常采用以下几种方式来检测图像中目标区域:
方式1:逐级提取出图像的多个不同层级的特征图,直接利用不同层级的特征图来识别图像中的目标区域。方式2:逐级提取出图像的多个不同层级的特征图,确定最顶层的特征图,基于最顶层的特征图来识别图像中的目标区域。方式3:逐级提取出图像的多个不同层级的特征图,将顶层特征与分别与低层特征做融合,基于每个融合后的特征图是独立识别图像中的目标区域。
本公开实施例针对目标图像的显著性区域的提取过程,旨在找寻目标图像中存在的最显著目标区域,也就是检测目标图像中的特异的目标对象。在本公开实施例所提取到的多个不同层级的特征图,用于表征图像的颜色特征、纹理特征、形状特征和空间关系特征中的至少一项。在通过卷积操作获取到多个不同层级的特征图之后,本公开实施例并未直接基于顶层特征来检测显著性区域,也没有直接对顶层特征和低层特征进行融合,而是继续基于池化操作提取出特征图的特征图的高频信息,并且,进一步将提取出的高频信息与其对应的特征图重新融合以得到高频增强特征图。这里需要说明的是,高频信息对应着图像变化剧烈的部分,也就是图像的边缘(轮廓)或者噪声以及细节部分。通常来说,相邻区域之间灰度相差很大,通常会有明显的差别,这部分的灰度变化很快,也即是变化频率高的部位,因此,图像边缘的灰度值变化快就对应着频率高,即高频显示图像边缘。由于高频增强特征图是原始的特征图进一步叠加自身的高频信息后得到的,因此高频增强特征图中具有更加丰富的高频信息,基于这些高频增强特征图所得到的显著性区域初始识别结果包含了更加准确的边界信息,便于识别出更加清晰的边界。之后,基于顶层信息和边界信息融合得到更上一层的第一融合特征图,第一融合特征图在反向与原始的低层特征图进行融合得到第二融合特征图,可以理解,第二融合特征图即包含了丰富的边界信息,同时又兼容和各层级的特征图中不同尺度的信息,基于第二融合特征来检测显著性区域,既能够较准确地检测出目标检测显著性区域,又能够确保目标检测显著性区域的边界具有较高的清晰度。
基于与上述的图像的显著性区域提取方法相同的原理,本公开实施例提供了一种图像的显著性区域提取装置,图5示出了本公开实施例提供的一种图像的显著性区域提取装置的示意图。如图5所示,图像的显著性区域提取装置包括特征提取模块、高频增强模块、边界加强模块、第一融合特征生成模块、第二融合特征生成模块和目标显著性区域提取模块。
特征提取模块用于基于预先训练的显著性区域提取模型提取目标图像的 N个不同层级的特征图fi,其中,i为不大于N的正整数,特征图f1至特征图fN的层级依次升高。
高频增强模块用于在N个不同层级的特征图fi中确定出M个特征图fi,针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hj,其中,j为不大于M的正整数。
边界加强模块用于基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
第一融合特征生成模块用于基于特征图fN和显著性区域初始识别结果生成第一融合特征图。
第二融合特征生成模块用于将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图。
目标显著性区域提取模块用于基于第二融合特征图生成目标图像的显著性区域目标识别结果,基于显著性区域目标识别结果提取目标显著性区域。
本公开提供的图像的显著性区域提取装置,使用显著性区域提取模型提取了目标图像的多层次的深层特征,便于了解整个图像的整体意义和目标的详细结构,获取到目标图像的更加细节的信息,此外还建立通过增强高频特征进行显著性区域的边界检测的流程,方便在后续联合边界检测和显著性区域检测来更加准确地提取到目标显著性区域。
在本公开实施例中,高频增强模块在用于针对M个特征图fi中的每个特征图fi,将特征图fi与其高频信息进行融合,生成特征图fi对应的高频增强特征图hi时,具体用于:
针对M个特征图fi中的每个特征图fi,获取特征图fi进行池化后的特征平均值;
计算特征图fi与特征平均值的差值,将差值作为特征图fi的高频信息;
计算特征图fi与高频信息的和值,将和值作为特征图fi对应的高频增强特征图hj。
在本公开实施例中,显著性区域提取模型包括(M-1)个边界增强单元 kj,边界增强单元kj与高频增强特征图hj+1对应,用于加强高频增强特征图 h1的边界信息;
边界加强模块在用于基于各高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的高频增强特征图h1生成目标图像的显著性区域初始识别结果时,具体用于:
当j=1时,将高频增强特征图h1和高频增强特征图h2输入到边界增强单元k1,基于边界增强单元k1输出第1次边界加强的高频增强特征图h1;
当1<j<M时,将高频增强特征图hj+1和第(j-1)次边界加强的高频增强特征图h1输入到边界增强单元kj,基于边界增强单元kj输出第j次边界加强的高频增强特征图h1输入次边界加强的高频增强特征图h1;
基于第(M-1)次边界加强的高频增强特征图h1生成目标图像的显著性区域初始识别结果。
在本公开实施例中,第一融合特征生成模块在用于基于特征图fN和显著性区域初始识别结果生成第一融合特征图时,具体用于:
从特征图fN中提取出多尺度信息;
将显著性区域初始识别结果的尺寸和通道数,调整为与特征图fN的尺寸和通道数一致;
将多尺度信息和调整后的显著性区域初始识别结果进行拼接,得到第一融合特征图。
在本公开实施例中,第二融合特征生成模块在用于将第一融合特征图、显著性区域初始识别结果和至少一个特征图fi进行合并,得到第二融合特征图时,具体用于:
将第一融合特征图的尺寸扩大一倍;
将显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的第一融合特征图的尺寸和通道数一致;
将尺寸扩大后的第一融合特征图和调整后的显著性区域初始识别结果进行融合,得到中间融合特征图;
将中间融合特征图和至少一个特征图fi进行合并,得到第二融合特征图。
在本公开实施例中,训练显著性区域提取模型的总损失包括分割损失和边界损失;分割损失用于表征显著性区域的像素点的分类结果的准确程度,边界损失用于表征显著区域的边界像素点的位置的准确程度。
在本公开实施例中,分割损失的计算公式为:
Lossseg=BCE+λ2CL,Lossseg为分割损失,Lossseg为分割损失,BCE 为交叉熵损失,CL为一致性增强损失函数,λ2为交叉熵损失和一致性增强损失函数的权衡参数;
边界损失的计算公式为:
可以理解的是,本公开实施例中的图像的显著性区域提取装置的上述各模块具有实现上述的图像的显著性区域提取方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述图像的显著性区域提取装置的各模块的功能描述具体可以参见上述的图像的显著性区域提取方法的对应描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器 (RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603 中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602 以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;
存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如图像的显著性区域提取方法。例如,在一些实施例中,图像的显著性区域提取方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元 601执行时,可以执行上文描述的图像的显著性区域提取方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像的显著性区域提取方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器 (CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管) 或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN) 和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (10)
1.一种图像的显著性区域提取方法,包括:
基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi,其中,i为不大于N的正整数,特征图f1至特征图fN的层级依次升高;
在所述N个不同层级的特征图fi中确定出M个特征图fi,针对所述M个特征图fi中的每个特征图fi,将所述特征图fi与其高频信息进行融合,生成所述特征图fi对应的高频增强特征图hj,其中,j为不大于M的正整数;
基于各所述所述高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的所述高频增强特征图h1生成所述目标图像的显著性区域初始识别结果;
基于所述特征图fN和所述显著性区域初始识别结果生成第一融合特征图;
将所述第一融合特征图、所述显著性区域初始识别结果和至少一个所述特征图fi进行合并,得到第二融合特征图;
基于所述第二融合特征图生成所述目标图像的显著性区域目标识别结果,基于所述显著性区域目标识别结果提取目标显著性区域。
2.根据权利要求1所述的方法,其中,所述针对所述M个特征图fi中的每个特征图fi,将所述特征图fi与其高频信息进行融合,生成所述特征图fi对应的高频增强特征图hi,包括:
针对所述M个特征图fi中的每个特征图fi,获取所述特征图fi进行池化后的特征平均值;
计算所述特征图fi与所述特征平均值的差值,将所述差值作为所述特征图fi的高频信息;
计算所述特征图fi与所述高频信息的和值,将所述和值作为所述特征图fi对应的高频增强特征图hj。
3.根据权利要求1所述的方法,其中,所述显著性区域提取模型包括(M-1)个边界增强单元kj,边界增强单元kj与高频增强特征图hj+1对应,用于加强高频增强特征图h1的边界信息;
所述基于各所述所述高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的所述高频增强特征图h1生成所述目标图像的显著性区域初始识别结果,包括:
当j=1时,将高频增强特征图h1和高频增强特征图h2输入到边界增强单元k1,基于边界增强单元k1输出第1次边界加强的高频增强特征图h1;
当1<j<M时,将高频增强特征图hj+1和第(j-1)次边界加强的高频增强特征图h1输入到边界增强单元kj,基于边界增强单元kj输出第j次边界加强的高频增强特征图h1;
基于第(M-1)次边界加强的高频增强特征图h1生成所述目标图像的显著性区域初始识别结果。
4.根据权利要求1所述的方法,其中,所述基于所述特征图fN和所述显著性区域初始识别结果生成第一融合特征图,包括:
从所述特征图fN中提取出多尺度信息;
将所述显著性区域初始识别结果的尺寸和通道数,调整为与所述特征图fN的尺寸和通道数一致;
将所述多尺度信息和调整后的所述显著性区域初始识别结果进行拼接,得到第一融合特征图。
5.根据权利要求1所述的方法,其特征在于,所述将所述第一融合特征图、所述显著性区域初始识别结果和至少一个所述特征图fi进行合并,得到第二融合特征图,包括:
将所述第一融合特征图的尺寸扩大一倍;
将所述显著性区域初始识别结果的尺寸和通道数,调整为与尺寸扩大后的所述第一融合特征图的尺寸和通道数一致;
将尺寸扩大后的所述第一融合特征图和调整后的所述显著性区域初始识别结果进行融合,得到中间融合特征图;
将所述中间融合特征图和至少一个所述特征图fi进行合并,得到第二融合特征图。
6.根据权利要求1所述的方法,其特征在于,训练所述显著性区域提取模型的总损失包括分割损失和边界损失;
所述分割损失用于表征显著性区域的像素点的分类结果的准确程度,所述边界损失用于表征显著区域的边界像素点的位置的准确程度。
8.一种图像的显著性区域提取装置,包括:
特征提取模块,用于基于预先训练的显著性区域提取模型提取目标图像的N个不同层级的特征图fi,其中,i为不大于N的正整数,特征图f1至特征图fN的层级依次升高;
高频增强模块,用于在所述N个不同层级的特征图fi中确定出M个特征图fi,针对所述M个特征图fi中的每个特征图fi,将所述特征图fi与其高频信息进行融合,生成所述特征图fi对应的高频增强特征图hj,其中,j为不大于M的正整数;
边界加强模块,用于基于各所述所述高频增强特征图hj对高频增强特征图h1的边界信息进行加强,基于边界信息加强后的所述高频增强特征图h1生成所述目标图像的显著性区域初始识别结果;
第一融合特征生成模块,用于基于所述特征图fN和所述显著性区域初始识别结果生成第一融合特征图;
第二融合特征生成模块,用于将所述第一融合特征图、所述显著性区域初始识别结果和至少一个所述特征图fi进行合并,得到第二融合特征图;
目标显著性区域提取模块,用于基于所述第二融合特征图生成所述目标图像的显著性区域目标识别结果,基于所述显著性区域目标识别结果提取目标显著性区域。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210460422.1A CN114821116A (zh) | 2022-04-24 | 2022-04-24 | 图像的显著性区域提取方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210460422.1A CN114821116A (zh) | 2022-04-24 | 2022-04-24 | 图像的显著性区域提取方法、装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821116A true CN114821116A (zh) | 2022-07-29 |
Family
ID=82509107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210460422.1A Pending CN114821116A (zh) | 2022-04-24 | 2022-04-24 | 图像的显著性区域提取方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821116A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953780A (zh) * | 2023-03-10 | 2023-04-11 | 清华大学 | 一种基于多视角信息融合的多维光场复杂场景图构建方法 |
-
2022
- 2022-04-24 CN CN202210460422.1A patent/CN114821116A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953780A (zh) * | 2023-03-10 | 2023-04-11 | 清华大学 | 一种基于多视角信息融合的多维光场复杂场景图构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657390B (zh) | 文本检测模型的训练方法和检测文本方法、装置和设备 | |
CN113139543B (zh) | 目标对象检测模型的训练方法、目标对象检测方法和设备 | |
CN113792526B (zh) | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 | |
CN112862006B (zh) | 图像深度信息获取模型的训练方法、装置及电子设备 | |
JP2023531350A (ja) | サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法 | |
CN113393371B (zh) | 一种图像处理方法、装置及电子设备 | |
CN112651451B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN112819007B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN115147680B (zh) | 目标检测模型的预训练方法、装置以及设备 | |
CN112561879A (zh) | 模糊度评价模型训练方法、图像模糊度评价方法及装置 | |
CN114781499B (zh) | 一种构建基于ViT模型的密集预测任务适配器的方法 | |
CN114187318B (zh) | 图像分割的方法、装置、电子设备以及存储介质 | |
CN113837965B (zh) | 图像清晰度识别方法、装置、电子设备及存储介质 | |
CN116721460A (zh) | 手势识别方法、装置、电子设备以及存储介质 | |
CN114821116A (zh) | 图像的显著性区域提取方法、装置、设备以及存储介质 | |
CN114037630A (zh) | 一种模型训练及图像去雾方法、装置、设备及存储介质 | |
CN117132850A (zh) | 模型预训练及训练方法、点云检测及分割方法和装置 | |
CN114973333B (zh) | 人物交互检测方法、装置、设备以及存储介质 | |
CN116363429A (zh) | 图像识别模型的训练方法、图像识别方法、装置及设备 | |
CN113344200B (zh) | 用于训练可分离卷积网络的方法、路侧设备及云控平台 | |
CN116310356A (zh) | 深度学习模型的训练方法、目标检测方法、装置及设备 | |
CN114511862B (zh) | 表格识别方法、装置及电子设备 | |
CN111753960B (zh) | 模型训练及图像处理方法、装置、电子设备、存储介质 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN113947146A (zh) | 样本数据生成方法、模型训练方法、图像检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |