CN111461129B - 一种基于上下文先验的场景分割方法和系统 - Google Patents
一种基于上下文先验的场景分割方法和系统 Download PDFInfo
- Publication number
- CN111461129B CN111461129B CN202010253715.3A CN202010253715A CN111461129B CN 111461129 B CN111461129 B CN 111461129B CN 202010253715 A CN202010253715 A CN 202010253715A CN 111461129 B CN111461129 B CN 111461129B
- Authority
- CN
- China
- Prior art keywords
- class
- prior
- feature
- module
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000002776 aggregation Effects 0.000 claims abstract description 22
- 238000004220 aggregation Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 238000010586 diagram Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 238000000926 separation method Methods 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 5
- 238000003709 image segmentation Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于上下文先验的场景分割方法及系统,属于模式识别领域。方法包括:构建场景分割网络;该网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;前两个模块依次对输入图像进行特征提取和特征聚合;上下文先验模块,对聚合得到的特征进行学习得到上下文先验图,上下文先验图学习得到类内先验和类间先验,将其与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;特征融合模块,将特征提取模块输出的特征图、类内特征和类间特征进行级联融合和上采样后输出;将待分割场景图像输入训练好的场景分割模型,得到分割结果。本发明能够清楚地捕获类内特征和类间特征,有效提高了场景分割的准确度。
Description
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种基于上下文先验的场景分割方法和系统。
背景技术
场景分割的目标是为每个像素分配一个类别标签,以提供全面的场景理解,在增强现实、自动驾驶、人机交互和视频监控等领域有着广泛的应用,是计算机视觉中一个长期存在且具有挑战性的问题。
受益于全卷积网络(FCN)的强大特征表示,许多方法都实现了不错的场景分割性能。但是,受卷积层结构的限制,FCN提供的上下文信息不足,导致对场景的理解不够全面,影响了识别结果的准确性。因此,出现了各种方法探索上下文信息以获得更准确的分割结果。目前,聚合上下文信息的途径主要有两种:1)基于金字塔的聚合方法;该类方法采用基于金字塔的模块或全局池化规律地聚合区域或全局上下文信息。但是,它们并不区分不同类别的上下文依赖关系,进而可能混入错误的上下文依赖关系。2)基于注意力的聚合方法;最近,几种基于注意力的方法学习通道注意力、空间注意力或逐像素注意力以选择性地聚合上下文信息。但是,由于缺乏显式的正则化,注意力机制对关系的描述并不清晰。因此,它可能会选择错误的上下文依赖关系,影响分割结果。
总体而言,上述两类方法都在没有区分类别的情况下整合了上下文信息,从而导致了不同上下文关系的混乱,造成场景分割结果准确度较低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于上下文先验的场景分割方法和系统,其目的在于解决现有场景分割方法存在上下文关系混乱,造成场景分割结果准确度低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于上下文先验的场景分割方法,包括:
S1.构建场景分割网络;场景分割网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;
特征提取模块,用于对输入图像进行特征提取;特征聚合模块,用于对提取到的图像特征进行聚合;
上下文先验模块,用于对聚合得到的特征进行学习,得到上下文先验图,所述上下文先验图根据理想上下文先验关系图学习得到类内先验和类间先验,所述类内先验和类间先验分别与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;
特征融合模块,用于将特征提取模块输出的特征图、上下文先验模块输出的类内特征和类间特征进行级联融合,并对融合后的特征图进行上采样,得到最终的场景分割结果;
S2.将复杂场景下的图像分割数据集作为训练集,对场景分割网络进行迭代训练,得到场景分割模型;
S3.将待分割场景图像输入至训练好的场景分割模型,得到待分割场景图像中每个像素所属的类别。
进一步地,特征提取模块采用ResNet作为主干网络。
进一步地,ResNet后两个阶段去掉下采样的同时使用空洞卷积使得经过后两个阶段的特征图尺寸保持不变。
进一步地,特征聚合模块包括依次连接的卷积层、批归一化层、非线性激活层、全分离卷积层、批归一化层和非线性激活层。
进一步地,全分离卷积层包含两个并列的空间分离卷积,每个空间分离卷积均使用通道分离卷积。
进一步地,理想上下文先验关系图表征图像上每个像素与其他像素是否属于同一类;由经过下采样和独热编码后的真值图进行矩阵乘法得到。
按照本发明的另一方面,提供了一种基于上下文先验的场景分割系统,该系统采用上述基于上下文先验的场景分割方法。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果。
(1)本发明提出的上下文先验模块可以学习到明确的类内先验和类间先验,进而可以清楚地捕获类内特征和类间特征,增强特征的表征能力,提高场景分割的准确度。
(2)本发明利用真值标签编码得到理想上下文先验关系图,明确约束特征间类内关系和类间关系,进而学习到明确的上下文先验,有利于场景分割中类别推理、提高了分割准确度。
(3)本发明提出的特征聚合模块利用全分离卷积层,高效地增大感受野、增强语义表征,进而聚合特征,有利于推理特征间的依赖关系,增强了场景分割的鲁棒性。
附图说明
图1为本发明实施例提供的场景分割方法流程图;
图2为本发明实施例提供的特征聚合模块结构示意图;
图3为本发明实施例提供的理想上下文先验关系图的构造示意图;
图4为本发明实施例提供的上下文关系示意图,其中图4(a)为缺乏监督的注意力图,图4(b)为本发明学到的上下文关系图,图4(c)为理想上下文关系图;
图5(a)-图8(d)为本发明实施例提供的待测图像分割效果图,其中,图5(a)-图8(a)为不同场景下的待测图像,依次为人与墙壁、床与柜子、道路场景、山川与湖泊,图5(b)-图8(b)为待测图像对应的Groundtruth,图5(c)-图8(c)为传统FCN输出的分割效果图,图5(d)-图8(d)为本发明的场景分割模型输出的分割效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明实施例提供了一种基于上下文先验的场景分割方法,包括:
S1.构建场景分割网络;
具体地,本发明中的场景是指2D相机所拍摄的场景,例如街道湖泊、山川、沙滩等自然场景以及街道、桥梁、公路等社会场景。上下文先验关系指场景中不同物体类别之间相互依赖的条件概率,例如电脑显示屏依赖于鼠标键盘更容易被识别为电脑显示屏而不是电视,人行道依赖于行人被识别为人行道而不是公路等。场景分割网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;特征提取模块,用于对输入图像进行特征提取;特征聚合模块,用于对提取到的图像特征进行聚合;上下文先验模块,用于对聚合得到的特征进行学习,得到上下文先验图,上下文先验图根据理想上下文先验关系图学习得到类内先验和类间先验,类内先验和类间先验分别与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;特征融合模块,用于将特征提取模块输出的特征图、上下文先验模块输出的类内特征和类间特征进行级联融合,并对融合后的特征图进行上采样,得到最终的场景分割结果;
本发明实施例中,特征提取模块采用ResNet作为主干网络,ResNet后两个阶段去掉下采样的同时使用空洞卷积使得经过后两个阶段的特征图尺寸保持不变。原始图像经过ResNet后得到的特征图尺寸为原始图像尺寸的1/8、通道数为2048。
本发明实施例中,特征聚合模块利用全分离卷积增大感受野、增强语义上下文来聚合特征,具体结构如图2所示,包括依次连接的卷积层、批归一化层、非线性激活层、全分离卷积层、批归一化层和非线性激活层;其中,全分离卷积层包含两个并列的空间分离卷积FsConv,每个空间分离卷积均使用通道分离卷积DWConv;特征提取模块输出的特征图经过特征聚合模块后得到通道数为256的特征图,特征图尺寸保持不变。
聚合后的特征图经过经过卷积层、批归一化层和非线性激活层得到通道数为输入特征图H*W的特征图,然后重塑为通道数为1,长宽分别为H*W的上下文先验图,上下文先验图根据理想上下文先验关系图学习得到类内先验和类间先验,将该上下文先验关系加权特征聚合模块的输出进而提取类内特征和类间特征。
图3为本发明实施例提供的理想上下文先验关系图的构造示意图,Groundtruth经过下采样后使用独热编码得到编码后的真值图,其大小为H*W*C,其中C为类别数。真值图中的每个向量都由一个高值(1)和其余低值(0)组成,然后编码后的真值图进行矩阵乘法得到理想上下文先验关系图。
Ground truth:在图像语义分割中,对图像上每个像素点标注上对应的类别,从而形成的具有语义类别标签的图像。Ground truth与原图尺寸上等大,Ground truth上的值由原图中所含类别值构成。
S2.将复杂场景下的图像分割数据集作为训练集,对场景分割网络进行迭代训练,得到场景分割模型;
具体地,本发明的实施例采用ADE20K,它是一个复杂场景下的图像分割数据集,包含2万张图像作为训练集、2千张图像用于验证集和3千张图像用于测试集。每个像素都标注好预先定义的类别,数据集具有150类预先定义的语义标签。将训练集随机分成大小相同的训练子集,本实施例中每个训练子集大小为16。对每个训练子集的数据进行数据扩增,以提高准确率,具体包括:计算训练集中图像每一通道的均值;训练子集中每张图像减去图像均值;随机水平翻转,并随机缩放,缩放系数为中{0.5,0.75,1.0,1.5,1.7}任一个。
在本实施例中,每次训练一个训练子集,所有的训练子集训练结束为一次迭代结束。重复上述操作直至迭代次数到达上限,得到最终的权值,实现深度卷积神经网络的训练。在本实施例中,迭代次数上限优选80000。
一次迭代中的训练过程如下:利用正向传播算法和后向传播算法训练上下文先验网络的网络参数,正向传播计算每个训练子集对应的损失函数,反向传播会得到这个训练子集相应的梯度。利用Softmax损失函数其中,N为标签总数,pi为第i个标签的概率,计算场景分割网络的总损失函数其中,为主损失函数,即网络输出的损失;为辅助损失函数,即主干网络Resnet第三阶段输出的损失;为上下文先验损失,即理想上下文先验关系图对上下文先验关系图监督所得损失;参数λs,λa,λp用以均衡主损失函数、辅助损失函数和上下文先验损失函数,本发明中λs,λp的值为1,λa的值为0.4。利用小批量随机梯度下降算法最小化损失函数,然后更新权值,更新之后的权值作为训练下一个训练子集的初始值。
S3.将待分割场景图像输入利用训练好的场景分割模型,得到待分割场景图像中每个像素所属的类别。
图4本发明实施例提供的上下文关系示意图,其中,图4(a)为缺乏监督的注意力图,图4(b)为本发明的场景分割模型学到的上下文关系图,图4(c)为理想上下文关系图。可以看出图4(b)与图4(c)非常接近,因此,利用本发明提出的场景分割模型对目标类内类间关系进行建模归类,能够清晰地提取出对应的类内特征和类间特征。
图5为本发明实施例提供的待测图分割效果图,其中,图5(a)-图8(a)为不同场景下的待测图像,图5(b)-图8(b)为待测图像对应的Groundtruth,图5(c)-图8(c)为传统FCN输出的分割效果图,图5(d)-图8(d)为本发明的场景分割模型输出的分割效果图。相比图5(c)-图8(c),显然图5(d)-图8(d)与待测图像对应的Groundtruth更为接近,因此,利用本发明提出的场景分割模型对目标进行分割归类,能够对场景中的人、墙壁、床、柜子、公交车、小车、山、湖等进行准确的定位与识别,提供更详细的场景理解。
本发明提出的场景分割方法可应用于自动驾驶、地理信息系统、视频监控、医疗影像分析以及机器人等领域。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于上下文先验的场景分割方法,其特征在于,包括:
S1.构建场景分割网络;所述场景分割网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;
所述特征提取模块,用于对输入图像进行特征提取;所述特征聚合模块,用于对提取到的图像特征进行聚合;所述特征聚合模块包括依次连接的卷积层、批归一化层、非线性激活层、全分离卷积层、批归一化层和非线性激活层;所述全分离卷积层包含两个并列的空间分离卷积,每个空间分离卷积均使用通道分离卷积;
所述上下文先验模块,用于对聚合得到的特征进行学习,得到上下文先验图,所述上下文先验图根据理想上下文先验关系图学习得到类内先验和类间先验,所述类内先验和类间先验分别与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;所述理想上下文先验关系图表征图像上每个像素与其他像素是否属于同一类;由经过下采样和独热编码后的真值图进行矩阵乘法得到;
所述特征融合模块,用于将特征提取模块输出的特征图、上下文先验模块输出的类内特征和类间特征进行级联融合,并对融合后的特征图进行上采样,得到最终的场景分割结果;
S2.将复杂场景下的图像分割数据集作为训练集,对所述场景分割网络进行迭代训练,得到场景分割模型;
S3.将待分割场景图像输入至训练好的场景分割模型,得到待分割场景图像中每个像素所属的类别。
2.根据权利要求1所述的一种基于上下文先验的场景分割方法,其特征在于,所述特征提取模块采用ResNet作为主干网络。
3.根据权利要求2所述的一种基于上下文先验的场景分割方法,其特征在于,所述ResNet后两个阶段去掉下采样的同时使用空洞卷积使得经过后两个阶段的特征图尺寸保持不变。
4.一种基于上下文先验的场景分割系统,其特征在于,该系统采用权利要求1-3任一项所述的一种基于上下文先验的场景分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010253715.3A CN111461129B (zh) | 2020-04-02 | 2020-04-02 | 一种基于上下文先验的场景分割方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010253715.3A CN111461129B (zh) | 2020-04-02 | 2020-04-02 | 一种基于上下文先验的场景分割方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111461129A CN111461129A (zh) | 2020-07-28 |
CN111461129B true CN111461129B (zh) | 2022-08-02 |
Family
ID=71681651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010253715.3A Active CN111461129B (zh) | 2020-04-02 | 2020-04-02 | 一种基于上下文先验的场景分割方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111461129B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112700352A (zh) * | 2020-12-31 | 2021-04-23 | 珠海市远利网讯科技发展有限公司 | 一种智慧餐厅的自助管理系统及方法 |
CN112507982B (zh) * | 2021-02-02 | 2021-05-07 | 成都东方天呈智能科技有限公司 | 一种人脸特征码的跨模型转换系统及方法 |
CN113191234A (zh) * | 2021-04-22 | 2021-07-30 | 武汉菲舍控制技术有限公司 | 一种基于机器视觉的带式输送机输送带防撕裂方法及装置 |
CN113538425B (zh) * | 2021-09-16 | 2021-12-24 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 可通行水域分割设备、图像分割模型训练和图像分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794483A (zh) * | 2015-03-24 | 2015-07-22 | 江南大学 | 基于类间极大化的pcm聚类技术的图像分割方法 |
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN109670506A (zh) * | 2018-11-05 | 2019-04-23 | 中国科学院计算技术研究所 | 基于克罗内克卷积的场景分割方法和系统 |
CN110147794A (zh) * | 2019-05-21 | 2019-08-20 | 东北大学 | 一种基于深度学习的无人车室外场景实时分割方法 |
CN110633640A (zh) * | 2019-08-13 | 2019-12-31 | 杭州电子科技大学 | 优化PointNet对于复杂场景的识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8565482B2 (en) * | 2011-02-28 | 2013-10-22 | Seiko Epson Corporation | Local difference pattern based local background modeling for object detection |
US9042648B2 (en) * | 2012-02-23 | 2015-05-26 | Microsoft Technology Licensing, Llc | Salient object segmentation |
-
2020
- 2020-04-02 CN CN202010253715.3A patent/CN111461129B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794483A (zh) * | 2015-03-24 | 2015-07-22 | 江南大学 | 基于类间极大化的pcm聚类技术的图像分割方法 |
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN109670506A (zh) * | 2018-11-05 | 2019-04-23 | 中国科学院计算技术研究所 | 基于克罗内克卷积的场景分割方法和系统 |
CN110147794A (zh) * | 2019-05-21 | 2019-08-20 | 东北大学 | 一种基于深度学习的无人车室外场景实时分割方法 |
CN110633640A (zh) * | 2019-08-13 | 2019-12-31 | 杭州电子科技大学 | 优化PointNet对于复杂场景的识别方法 |
Non-Patent Citations (3)
Title |
---|
"A Unified Point-Based Framework for 3D Segmentation";H. Chiang等;《2019 International Conference on 3D Vision (3DV)》;20191031;全文 * |
"Context Encoding for Semantic Segmentation";H. Zhang等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;全文 * |
"基于结构化预测的道路场景理解技术研究";肖良;《中国优秀博硕士学位论文全文数据库(博士)·工程科技Ⅱ辑》;20200215;第2020年卷(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111461129A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461129B (zh) | 一种基于上下文先验的场景分割方法和系统 | |
CN111259905B (zh) | 一种基于下采样的特征融合遥感图像语义分割方法 | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN110443818B (zh) | 一种基于涂鸦的弱监督语义分割方法与系统 | |
CN110110624B (zh) | 一种基于DenseNet网络与帧差法特征输入的人体行为识别方法 | |
CN107506740B (zh) | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 | |
Liu et al. | TSingNet: Scale-aware and context-rich feature learning for traffic sign detection and recognition in the wild | |
CN111506773B (zh) | 一种基于无监督深度孪生网络的视频去重方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN113221641A (zh) | 基于生成对抗网络和注意力机制的视频行人重识别方法 | |
CN111310766A (zh) | 基于编解码和二维注意力机制的车牌识别方法 | |
CN113988147B (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
CN116342894B (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN114255403A (zh) | 基于深度学习的光学遥感图像数据处理方法及系统 | |
CN113379771A (zh) | 带有边缘约束的层次化人体解析语义分割方法 | |
CN113850324A (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN114494699B (zh) | 基于语义传播与前背景感知的图像语义分割方法及系统 | |
CN110688966B (zh) | 语义指导的行人重识别方法 | |
CN115311508A (zh) | 一种基于深度u型网络的单帧图像红外弱小目标检测方法 | |
CN114743027A (zh) | 弱监督学习引导的协同显著性检测方法 | |
CN112132867B (zh) | 一种遥感影像变化检测方法及装置 | |
Zhang et al. | Small target detection based on squared cross entropy and dense feature pyramid networks | |
Zheng et al. | Transformer-based hierarchical dynamic decoders for salient object detection | |
CN112016434A (zh) | 一种基于注意力机制3d残差网络的镜头运动识别方法 | |
CN116740362A (zh) | 一种基于注意力的轻量化非对称场景语义分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |