CN113076902B - 一种多任务融合的人物细粒度分割系统和方法 - Google Patents
一种多任务融合的人物细粒度分割系统和方法 Download PDFInfo
- Publication number
- CN113076902B CN113076902B CN202110398552.2A CN202110398552A CN113076902B CN 113076902 B CN113076902 B CN 113076902B CN 202110398552 A CN202110398552 A CN 202110398552A CN 113076902 B CN113076902 B CN 113076902B
- Authority
- CN
- China
- Prior art keywords
- feature
- module
- edge
- foreground
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种多任务融合的人物细粒度分割系统和方法,该系统包括:主干网络、边缘检测模块、前景预测模块和细粒度分割模块;主干网络,用于提取输入图像的特征图,并降低特征图的尺寸;边缘检测模块,用于将特征图进行边缘特征提取,得到对应的边缘特征图;将所有边缘特征图连接并经边缘预测模块得到边缘预测结果;前景预测模块,用于从主干网络的特征图中提取到前景对应的信息,将前景对应的信息作背景内容过滤;细粒度分割模块输出输入图像的细粒度分割预测结果。本发明能够一次输出三种预测结果,分别属于低层次理解的边缘检测和前景预测,以及高层次的细粒度分割预测,使得在现实场景的理解中具有更大层次性。
Description
技术领域
本发明涉及图像处理与图像表征学习技术领域,具体涉及一种多任务融合的人物细粒度分割系统和方法。
背景技术
人物细粒度分割是从视频或图像中对包含人脸、头发、肢体、以及各种着装在内的细粒度分割,该任务目标是逐像素地识别人体肢体部位和人的衣着外表。
随着城镇化的发展,当前各主要城市及新兴城市人口逐渐增多,公共安全变的越来越重要,公共场所监控场景下的人物行为识别和特定人物检索有助与公安侦查和维护社会治安。目前的传统做法是人工监视或逐帧检索,这样无法实现实时的监控分析,并且在大批量监控数据下人工处理难度很大。如何智能化地提取视频或图像中的人物信息,进而为行为识别和行人检索提供可智能化理解的特征具有重要的现实意义。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种多任务融合的人物细粒度分割系统和方法。
本发明的目的通过以下的技术方案实现:
一种多任务融合的人物细粒度分割系统,包括:主干网络、边缘检测模块、前景预测模块和细粒度分割模块;主干网络,用于提取输入图像的特征图,并降低特征图的尺寸;边缘检测模块,用于将特征图进行边缘特征提取,得到对应的边缘特征图;将所有边缘特征图连接并经边缘预测模块得到边缘预测结果;前景预测模块,用于从主干网络的特征图中提取到前景对应的信息,将前景对应的信息作背景内容过滤;细粒度分割模块,用于将主干网络输出的特征图与前景预测模块的前景权重参数相乘,得到经过背景过滤的特征图,将该特征图与边缘特征图进行连接后输入细粒度分割模块,主干网络细粒度分割模块输出输入图像的细粒度分割预测结果。
其中,前景预测模块将前景的预测从分割任务中解耦出来。背景的结果预测由前景检测网络负责。由前景预测模块的特征图产生的前景注意力参数用来过滤主干特征图中的背景信息。边缘检测模块为细粒度分割任务提供细粒度分割的参考信息。在分割任务中边缘部分的分割预测置信度较低,边缘特征图重点关注这些区域。人物细粒度分割任务综合上述两个任务的注意力参数或特征图,预测出最总的细粒度分割结果。
边缘特征图提供给主干网络在进行细粒度分割决策时的一些参考信息,尤其在判定分割任务的置信度较低的边缘区域。使用参数共享的边缘检测模块使整体边缘特征图忽略类别间的尺寸差异,为了增强不同层的边缘特征图对尺寸的感知,让每一层边缘检测网略拥有自己独立的参数。除此之外,来自主干网络的高层特征也被用作边缘特征检测,这进一步增强边缘检测模块对整体上下文的学习。
优选地,主干网络包括五层依次连接的处理模块;
第一层为使用大尺寸卷积处理输入图像,产生尺寸为输入图像1/2的特征图,该特征图输入由3个卷积操作组成的特征提取模块产生尺寸为输入图像尺寸的1/4的特征图;
第二层为将第一层产生的特征图输入由3个残差网络组成的特征提取模块conv1,该模块里的残差网络包含的卷积操作都由变形卷积代替。特征提取模块conv1输出尺寸降为输入图像尺寸1/8的特征图;
第三层为将第二层输出的特征图输入由4个残差网络组成的特征提取模块conv2,该模块里的残差网络包含的卷积操作都由变形卷积代替。特征提取模块conv2输出尺寸降为输入图像尺寸1/16的特征图;
第四层为将第三层输出的特征图输入由23个残差网络组成的特征提取模块conv3,该模块里的残差网络包含的卷积操作都由变形卷积代替。特征提取模块conv3输出尺寸为输入图像尺寸1/16的特征图;
第五层为将第四层输出的特征图输入由3个残差网络组成的特征提取模块conv4,该模块里的残差网络包含的卷积操作都由变形卷积代替。特征提取模块conv4输出的特征图尺寸保持不变;
最后,使用多层金字塔池化操作对第五层输出的特征图进行不同尺度的池化操作,将不同的池化操作结果连接并经同一个卷积操作后产生主干网络的输出。
优选地,前景预测模块包括前景特征提取子模块和前景注意力子模块;前景特征提取子模块,用于将主干网络的第二层、第三层、第四层、第五层输出的特征图均经过卷积操作和双线性插值后得到尺寸相同的特征图;前景注意力子模块,用于将每层的特征图进行连接并输入前景注意力模块,前景注意力模块输出0-1之间的前景权重参数;前景注意力模块包括由卷积函数、ReLU激活函数和sigmoid函数,前景注意力模块的输出是0-1之间的前景权重参数。
前景注意力参数的形成使用了高维信息,使用sigmoid函数来避免过度抑制类别间差异的响应信息,前景预测任务得到的特征图会忽略类别间差异,为了让前景特征图保持一定原有类别差异,在前景分支中加入了高维特征,同时也让前景特征图受细粒度分割任务的监督。前景注意力参数由sigmoid函数生成,较好的平衡类别间差异与前景一致。本发明对应的网络只采用了常用的常规卷积操作,这使得网络的学习过程更加快速稳定,细粒度分割检测速度更快速可靠。
优选地,多任务融合的人物细粒度分割系统,还包括:多分割预测校正模块;多分割预测校正模块,用于将主干网络、边缘检测模块、前景预测模块输出的细粒度分割预测结果进行校正。从主干网络、边缘检测模块、前景预测模块得到三个细粒度分割预测结果。三种分割预测来自不同的任务分支,主干网络的分割预测主要来自主干网络的高层特征,因此主要关注高层语义信息。边缘检测模块的分割预测主要关注不同尺寸的不同分割类别间的差异,对类别内部的分割预测结果连续性关注较少。来自前景预测模块的细粒度分割预测主要关注类别内部的连续性,对类别间特别是边缘部分的关注较少。为了综合这三种预测结果并各取所长,本模块把这三个细粒度分割预测结果输入到预测校正模块。预测校正模块由两个卷积核较大的卷积操作组成。
本发明摈弃了传统的计算量较大的CRF等后处理方法,采用了将预测结果再校正的方法,即将多个细粒度分割的预测结果连接在一起用较大尺寸的卷积处理得到新的预测结果。新的细粒度分割预测结果使用交叉熵损失函数。如此能够让多任务产生的细粒度分割结果在结构上保持一致,同时在更高层的细粒度分割任务上让三个不同任务保持相互兼容。
一种多任务融合的人物细粒度分割方法,包括:
S1,主干网络提取输入图像的特征图,并降低特征图的尺寸;
S2,主干网络的特征图均经过边缘特征提取得到对应的边缘特征图;将所有边缘特征图进行连接并经缘预测模块得到边缘预测结果;
S3,将主干网络每层的特征图进行连接并输入前景注意力模块,前景注意力模块输出前景权重参数;
S4,将主干网络的第五层特征图与前景预测模块的前景权重参数相乘,得到经过背景过滤的特征图,将该特征图与边缘特征图进行连接后输入主干网络细粒度分割模块,主干网络细粒度分割模块输出输入图像的细粒度分割预测结果。
优选地,步骤S1包括:输入图像经卷积处理,生成尺寸为输入图像1/2的特征图,尺寸为输入图像1/2的特征图输入由三个卷积操作组成的特征提取模块,产生尺寸为输入图像尺寸的1/4的特征图;将特征图输入由3个残差网络组成的特征提取模块conv1,特征图尺寸降为输入图像尺寸的1/8;将特征图输入由4个残差网络组成的特征提取模块conv2,特征图尺寸降为输入图像尺寸的1/16;将特征图依次输入由23个残差网络组成的特征提取模块conv3、由3个残差网络组成的特征提取模块conv4,特征图尺寸依然为输入图像尺寸的1/16;使用多层金字塔池化操作对特征图进行不同尺度的池化操作,将不同的池化操作结果连接,并经同一个卷积操作后产生主干网络的输出。
优选地,步骤S2包括:将主干网络输出的特征图均经过边缘特征提取得到对应的边缘特征图;将主干网络的边缘特征图的尺寸经卷积操作和双线性插值统一上采样到与第二层特征图相同的尺寸;将所有边缘特征图进行连接并经缘预测模块得到边缘预测结果。
优选地,步骤S3包括:将主干网络的第二层、第三层、第四层、第五层输出的特征图均经过卷积操作和双线性插值后得到尺寸相同的特征图;将每层的特征图进行连接并输入前景注意力模块,前景注意力模块输出0-1之间的前景权重参数;前景注意力模块包括由卷积函数、ReLU激活函数和sigmoid函数,前景注意力模块的输出是0-1之间的前景权重参数。
本发明相对于现有技术具有如下优点:
1、本发明能够一次输出三种预测结果,分别属于低层次理解的边缘检测和前景预测,以及高层次的细粒度分割预测,使得在现实场景的理解中具有更大层次性。
2、本发明只使用了常规卷积操作和变形卷积操作,以及sigmoid作为了注意力激活函数,相对其他自注意力机制的模型计算量较小。测试时的预测时间效率也较高,比较接近现实的实用场景。
3、本发明提出的网络以较小的计算量和更高的测试速度超过或接近目前最好的预测精度,可以作为今后进一步深入研究的基础网络。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的多任务融合的人物细粒度分割系统的原理图。
图2为本发明的多任务融合的人物细粒度分割系统的结构图。
图3为本发明的边缘检测模块的结构图。
图4为本发明的前景预测模块和边缘检测模块的输入特征生成过程图。
图5为本发明在多人场景下的预测精度比较图。
图6为本发明在单人场景下的预测精度比较图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参见图1-6,所述主干网络,主干网络采用ResNet-101网络,网络由ImageNet预训练模型初始化,网络的输入图像需要首先进行归一化操作,归一化操作的参数为ImageNet数据集图像的均值和方差。
所述主干网络在第二层至第五层中的每一个残差模块里都使用了变形卷积以扩大感受卷积操作对应的响应区域。主干网络的第二层输出和多级池化层连接一融合更多底维数据。
所述主干网络最后一层的金字塔池化操作使用了空洞卷积进一步扩大对应卷积操作的响应区域,池化核的尺寸分别为2,8,16,对应的空洞卷积扩展率分别为2,4,12。
所述边缘检测模块的输入是来自主干网络的不同层、不同尺寸的特征。不同类别的物体往往对应不同的尺寸级别,例如在一张图里上衣往往比鞋子所占像素比例更大,在网络更高层的响应里上衣对应位置的响应也更大。为了能够动态适应不同层的不同类别的不同尺度边缘信息,在边缘检测模块设置5个边缘检测网络,每个边缘检测网络单独负责对应输入层的边缘预测。
所述边缘预测模块使用了尺寸为7×7的较大卷积核操作,边缘检测的常用卷积操作是1×1卷积核,但是这里需要预测的是不同类别之间的边缘,也即需要更大的感受野和更多的上下文信息。为此增大了边缘检测输出网络的卷子核大小。
所述边缘检测模块的特征矩阵需要和主干网络融合,为了减少计算开销,直接把边缘特征图和主干网络的特征图合并在一起作为主干网络的细粒度分割特征图。
所述前景预测模块产生的前景权重参数需要和主干网络特征图相乘以达到过滤背景的作用。由于前景预测模块受前景标注的监督,这导致前景特征往往倾向于忽略图像中不同类别间的差异,这样会减弱主干网络特征对不同类别间差异的响应。为了缓解这个问题,前景预测模块也引入了主干网络的高层特征,并且前景特征图也受细粒度分割标注的监督。
所述前景预测模块的前景特征图需要激活得到数值在0至1间的前景权重参数,常用的激活函数有softmax函数、sigmoid函数、ReLu函数等,softmax函数对应的输出结果和对应维度的所有位置上的取值相关,即对应维度上的所有输出值的和为1,这样的结果会导致响应值较小的区域得到更小的值。ReLu操作的结果超出了0至1的范围,不利于保持主干网络的细分割特征。综上所述,选择了sigmoid函数,它的输出值在0至1间且结果与周围位置取值无关。
所述细粒度分割预测与校正网络用两个卷积核为1×15和15×1的卷积操作组成,该网络得到的新的细粒度分割预测结果是对主干网络、边缘检测、前景预测模块在分割任务上的统一。
所述发明的输出阶段,由于网络融合了主干网络不同层的特征图,同时受到不同任务的监督,这使得在做测试时发现把不同尺度的预测结果再求平均的方法对细粒度分割的准确度的影响很小,单独的一个尺寸的输出结果已经达到很好的准确度。
所述三个任务的损失函数设置方面,因为三个任务都是像素级预测,单一像素的预测结果很取决与它的位置和上下文信息。常用损失函数有基于概率的交叉熵损失(crossentropy loss)和基于距离度量的回归损失(regression loss)。为了更好地理解上下文信息同时对个别预测置信度较小的区域进行重点关注,首先对细粒度分割、前景预测、边缘检测均使用了交叉熵损失(cross entropy loss),为了增强对网络不确定区域的关注,在边缘预测结果中低于平均预测值的像素位置进行L2 Loss。这样网络的预测结果同时兼顾了整体结构性和局部有效性。
三个任务对应的交叉熵损失函数为:
其中pc为预测值,yc为真是值,wc为该类别对应的权重。N为对应类别数,(对边缘检测和前景预测的输出只有两个类别,故N=2;对细粒度分割预测的输出来讲N的值依训练数据集的类别数而定。)
边缘区域对应的分割损失为:
其中Ω是边缘预测结果中低于平均预测值的边缘区域。
记Lps为细粒度分割任务对应的损失函数,Ledg为边缘检测对应的损失函数,Lm为前景检测对应的损失函数。本发明提出的网络对应的总损失函数为:
Ltotal=Lps+Ledg+Lm+Lpe
因为三个任务有共享高层特征,且损失函数均为交叉熵损失,对应的损失值(lossvalue)在数量级上是一致的,因此将三个任务的loss权重值均设置为1。
训练过程中对输入图像进行了数据增强。因为细粒度分割需要关注图像中人的左右、上下等结构信息,为了增强网络对这种结构信息的关注,对输入图像进行了随机水平翻转再和原图拼接的操作,这样在同一张图出现同一个人同一个部位在水平翻转后的图中处于不同的左右位置。以此启发网络去寻找更有利于识别结构信息的线索(比如脸的朝向,肢体的关节位置等)。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。
Claims (3)
1.一种多任务融合的人物细粒度分割系统,其特征在于,主干网络、边缘检测模块、前景预测模块和细粒度分割模块;
主干网络,用于提取输入图像的特征图,并降低特征图的尺寸;所述主干网络包括五层依次连接的处理模块;
第一层为使用大尺寸卷积处理输入图像,产生尺寸为输入图像1/2的特征图,该特征图输入由3个卷积操作组成的特征提取模块产生尺寸为输入图像尺寸的1/4的特征图;
第二层为将第一层产生的特征图输入由3个残差网络组成的特征提取模块conv1,特征提取模块conv1输出尺寸降为输入图像尺寸1/8的特征图;
第三层为将第二层输出的特征图输入由4个残差网络组成的特征提取模块conv2,特征提取模块conv2输出尺寸降为输入图像尺寸1/16的特征图;
第四层为将第三层输出的特征图输入由23个残差网络组成的特征提取模块conv3,特征提取模块conv3输出尺寸为输入图像尺寸1/16的特征图;
第五层为将第四层输出的特征图输入由3个残差网络组成的特征提取模块conv4,特征提取模块conv4输出的特征图尺寸保持不变;
最后,使用多层金字塔池化操作对第五层输出的特征图进行不同尺度的池化操作,将不同的池化操作结果连接并经同一个卷积操作后产生主干网络的输出;
边缘检测模块,用于将特征图进行边缘特征提取,得到对应的边缘特征图;将所有边缘特征图连接并经边缘预测模块得到边缘预测结果;
前景预测模块,用于从主干网络的特征图中提取到前景对应的信息,将前景对应的信息作背景内容过滤;所述前景预测模块包括前景特征提取子模块和前景注意力子模块;
前景特征提取子模块,用于将主干网络的第二层、第三层、第四层、第五层输出的特征图均经过卷积操作和双线性插值后得到尺寸相同的特征图;
前景注意力子模块,用于将每层的特征图进行连接并输入前景注意力模块,前景注意力模块输出0-1之间的前景权重参数;前景注意力模块包括由卷积函数、ReLU激活函数和sigmoid函数,前景注意力模块的输出是0-1之间的前景权重参数;
细粒度分割模块,用于将主干网络输出的特征图与前景预测模块的前景权重参数相乘,得到经过背景过滤的特征图,将该特征图与边缘特征图进行连接后输入细粒度分割模块,主干网络细粒度分割模块输出输入图像的细粒度分割预测结果。
2.根据权利要求1所述的多任务融合的人物细粒度分割系统,其特征在于,还包括:多分割预测校正模块;
多分割预测校正模块,用于将主干网络、边缘检测模块、前景预测模块输出的细粒度分割预测结果进行校正。
3.一种多任务融合的人物细粒度分割方法,其特征在于,包括:
S1,主干网络提取输入图像的特征图,并降低特征图的尺寸;具体包括以下步骤:
输入图像经卷积处理,生成尺寸为输入图像1/2的特征图,尺寸为输入图像1/2的特征图输入由三个卷积操作组成的特征提取模块,产生尺寸为输入图像尺寸的1/4的特征图;
将特征图输入由3个残差网络组成的特征提取模块conv1,特征图尺寸降为输入图像尺寸的1/8;
将特征图输入由4个残差网络组成的特征提取模块conv2,特征图尺寸降为输入图像尺寸的1/16;
将特征图依次输入由23个残差网络组成的特征提取模块conv3、由3个残差网络组成的特征提取模块conv4,特征图尺寸依然为输入图像尺寸的1/16;
使用多层金字塔池化操作对特征图进行不同尺度的池化操作,将不同的池化操作结果连接,并经同一个卷积操作后产生主干网络的输出;
S2,主干网络的特征图均经过边缘特征提取得到对应的边缘特征图;将所有边缘特征图进行连接并经缘预测模块得到边缘预测结果;具体如下,
将主干网络输出的特征图均经过边缘特征提取得到对应的边缘特征图;
将主干网络的边缘特征图的尺寸经卷积操作和双线性插值统一上采样到与第二层特征图相同的尺寸;
将所有边缘特征图进行连接并经缘预测模块得到边缘预测结果;
S3,将主干网络每层的特征图进行连接并输入前景注意力模块,前景注意力模块输出前景权重参数;具体为:
将主干网络输出的特征图均经过卷积操作和双线性插值后得到尺寸相同的特征图;
将所有的特征图进行连接并输入前景注意力模块,前景注意力模块输出0-1之间的前景权重参数;前景注意力模块包括由卷积函数、ReLU激活函数和sigmoid函数,前景注意力模块的输出是0-1之间的前景权重参数;
S4,将主干网络的第五层特征图与前景预测模块的前景权重参数相乘,得到经过背景过滤的特征图,将该特征图与边缘特征图进行连接后输入主干网络细粒度分割模块,主干网络细粒度分割模块输出输入图像的细粒度分割预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110398552.2A CN113076902B (zh) | 2021-04-12 | 2021-04-12 | 一种多任务融合的人物细粒度分割系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110398552.2A CN113076902B (zh) | 2021-04-12 | 2021-04-12 | 一种多任务融合的人物细粒度分割系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113076902A CN113076902A (zh) | 2021-07-06 |
CN113076902B true CN113076902B (zh) | 2023-07-18 |
Family
ID=76619008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110398552.2A Active CN113076902B (zh) | 2021-04-12 | 2021-04-12 | 一种多任务融合的人物细粒度分割系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113076902B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445426B (zh) * | 2022-01-28 | 2022-08-26 | 深圳大学 | 内窥镜图像中息肉区域的分割方法、装置及相关组件 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985250A (zh) * | 2018-07-27 | 2018-12-11 | 大连理工大学 | 一种基于多任务网络的交通场景解析方法 |
CN109741331A (zh) * | 2018-12-24 | 2019-05-10 | 北京航空航天大学 | 一种图像前景物体分割方法 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
CN110751195A (zh) * | 2019-10-12 | 2020-02-04 | 西南交通大学 | 一种基于改进YOLOv3的细粒度图像分类方法 |
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
-
2021
- 2021-04-12 CN CN202110398552.2A patent/CN113076902B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985250A (zh) * | 2018-07-27 | 2018-12-11 | 大连理工大学 | 一种基于多任务网络的交通场景解析方法 |
CN109741331A (zh) * | 2018-12-24 | 2019-05-10 | 北京航空航天大学 | 一种图像前景物体分割方法 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
CN110751195A (zh) * | 2019-10-12 | 2020-02-04 | 西南交通大学 | 一种基于改进YOLOv3的细粒度图像分类方法 |
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113076902A (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111210443B (zh) | 基于嵌入平衡的可变形卷积混合任务级联语义分割方法 | |
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN110110624B (zh) | 一种基于DenseNet网络与帧差法特征输入的人体行为识别方法 | |
CN112906718B (zh) | 一种基于卷积神经网络的多目标检测方法 | |
CN110909594A (zh) | 一种基于深度融合的视频显著性检测方法 | |
CN113762138B (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
CN111915530A (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN112434608B (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN112906706A (zh) | 一种改进的基于编解码器的图像语义分割方法 | |
CN111046821A (zh) | 一种视频行为识别方法、系统及电子设备 | |
CN112801027A (zh) | 基于事件相机的车辆目标检测方法 | |
CN114220126A (zh) | 一种目标检测系统及获取方法 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN117079163A (zh) | 一种基于改进yolox-s的航拍图像小目标检测方法 | |
CN110929099A (zh) | 一种基于多任务学习的短视频帧语义提取方法及系统 | |
CN116152226A (zh) | 基于可融合的特征金字塔的换向器内侧图像缺陷检测方法 | |
CN113076902B (zh) | 一种多任务融合的人物细粒度分割系统和方法 | |
CN116012395A (zh) | 一种基于深度可分离卷积的多尺度融合烟雾分割方法 | |
CN116681960A (zh) | 一种基于K8s的中尺度涡旋智能识别方法及系统 | |
CN117152443A (zh) | 一种基于语义前导指引的图像实例分割方法及系统 | |
CN114708173A (zh) | 图像融合方法、计算机程序产品、存储介质及电子设备 | |
CN111126155A (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN112926667B (zh) | 深度融合边缘与高层特征的显著性目标检测方法及装置 | |
CN113936299A (zh) | 建筑工地中危险区域检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |