CN113158901B - 一种域自适应行人重识别方法 - Google Patents
一种域自适应行人重识别方法 Download PDFInfo
- Publication number
- CN113158901B CN113158901B CN202110437973.1A CN202110437973A CN113158901B CN 113158901 B CN113158901 B CN 113158901B CN 202110437973 A CN202110437973 A CN 202110437973A CN 113158901 B CN113158901 B CN 113158901B
- Authority
- CN
- China
- Prior art keywords
- foreground
- background
- network
- feature
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 31
- 238000000926 separation method Methods 0.000 claims abstract description 21
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims abstract description 8
- 238000012544 monitoring process Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 17
- 238000012549 training Methods 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种域自适应行人重识别方法,所述方法包括:构建前景‑背景联合聚类网络,所述前景‑背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性;使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别,提高了识别的精度。
Description
技术领域
本发明涉及行人重识别、计算机视觉领域,尤其涉及一种域自适应行人重识别方法。
背景技术
作为计算机视觉领域的热点研究任务之一,行人重识别能够在海量监控数据中检索特定人员,目前已广泛应用于智能监控、智慧城市等领域。近年来,随着大量监控摄像头的部署,海量的无标记视频数据随之产生。然而,利用源域(数据集)有标记的行人数据集训练的模型,在应用到包含大量无标记样本的目标域(数据集)时,性能会因为域差异的存在而明显下降。为了解决这一问题,需要研究域自适应行人重识别方法,以有效将源域的预训练模型适配到目标域。
域自适应行人重识别方法可主要分为基于生成的方法,基于域对齐的方法和基于伪标签的方法等。作为当前性能更优的域自适应行人重识别方法,基于伪标签的方法通常在源域中使用有标记样本对网络进行预训练,然后在目标域利用聚类等方式生成的样本伪标签,进一步在目标域精炼预训练模型。在基于伪标签的方法中,Fu等人提出了一种自相似性分组方法,通过利用提取特征的潜在相似性来设计从全局到局部的多个聚类单元。Zhao等人提出了一种新的交互学习方法,通过两分支网络的交互学习来减少生成伪标签的噪声。尽管现有方法已经实现了较好的性能,但如何进一步降低域差异以获得更高的性能提升,仍然存在很多挑战。
此外,源域和目标域之间的背景通常存在较为明显的差异。尽管在源域预训练的模型能够从源域样本中提取具有区分性的前景特征,但将模型应用于目标域样本时,由于背景引发的域差异的存在,模型无法有效区分目标样本中的前景与背景区域。为进一步降低域差异,可以有效利用前景与背景区域之间的互斥性,在提取目标域样本的背景特征的同时,帮助模型获得具有更少背景扰动的前景特征,进而提升域自适应行人重识别的性能。
因此,以基于伪标签的域自适应行人重识别方法为依托,通过所设计的网络减轻背景对前景特征的影响,探索域自适应行人重识别方法具有重要的研究意义及研究价值。
发明内容
为了有效降低源域与目标域间的域差异,并充分挖掘目标域无标记样本中的潜在隐藏信息,本发明提出了一种域自适应行人重识别方法,利用双分支的网络分别提取目标域样本的前景信息及背景信息,在背景信息的引导下进一步优化样本的前景特征,从而实现准确的行人重识别,详见下文描述:
一种域自适应行人重识别方法,所述方法包括:
构建前景-背景联合聚类网络,所述前景-背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;
在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;
利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性,
使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别。
其中,所述前景背景特征提取模块包括:两分支的残差卷积神经网络,
前景特征提取网络利用残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同;
前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征及背景特征分别关注样本的不同特征区域。
进一步地,所述特征聚类模块包括:以前景-背景特征提取模块的两分支特征作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签及背景特征对应的l类背景伪标签。
其中,所述基于注意力的特征分离模块包括:前景通道注意力子模块和背景通道注意力子模块,
所述前景通道注意力子模块由池化层、全连接层及激活层组成:
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数。
进一步地,所述背景通道注意力子模块和前景通道注意力子模块保持互补关系。
在一种实现方式中,所述分离损失为:
其中,||·||2表示L2距离。
本发明提供的技术方案的有益效果是:
1、本发明设计了一种域自适应的行人重识别方法,该方法能够通过区分背景和前景来有效增强行人特征,并提升跨域行人重识别任务的性能;
2、本方法提出了一种前景背景联合聚类模块,两分支的网络结构通过聚类分别生成行人伪标签及背景伪标签,以提取目标域样本可区分的前景和背景特征;
3、为进一步分离前景和背景的特征,本方法设计了一个基于注意力的特征分离模块,以减少背景信息对前景行人特征的干扰;
4、本发明采用的分离损失函数能够有效约束网络提取得到的前景和背景特征,在提高样本特征可分度的同时,有利于行人重识别算法性能的提高。
附图说明
图1为一种域自适应行人重识别方法的流程图;
图2为一种域自适应行人重识别方法目标域训练网络结构图;
图3为不同方法在Market1501到DukeMTMC-ReID数据集的跨域任务上的可视化结果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种域自适应行人重识别方法,参见图1,该方法包括以下步骤:
一、构建前景-背景联合聚类网络
其中,前景-背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块。
(1)前景背景特征提取模块包括:两分支的残差卷积神经网络。前景特征提取网络利用总计50层的4个残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同,利用总计50层的4个残差块以提取样本的背景特征表示。前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征F+及背景特征F-分别关注样本的不同特征区域。
其中,残差卷积神经网络为本领域技术人员所公知,本发明实施例对此不做赘述。
(2)特征聚类模块以前景-背景特征提取模块的两分支特征F+及F-作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签Yk及背景特征对应的l类背景伪标签Zl。
(3)分类模块分别利用全连接层C+及C-将前景-背景特征提取模块输出的前景行人特征F+和背景特征F-表示分别映射为k维和l维向量,这两个向量的维度分别与聚类算法所生成行人伪标签类别数k和背景特征类别数l保持一致。
二、构建基于注意力的特征分离模块
基于注意力的特征分离模块包括:实例正则化层及通道注意力模块。该模块被设计于上述前景背景特征提取模块的各残差块后,共计4个。该模块旨在区分前景背景特征,以确保前背景联合聚类网络提取的伪标签分别能有效表征行人和背景类别。
其中,μ(·)及σ(·)分别表示均值和标准差的运算,γ及β为跟随网络更新的两个超参数。
此后,将实例正则化层处理后的特征分别经过不同的通道注意力模块,提取特征中更重要的关注区域。
其中,前景通道注意力子模块由池化层、全连接层及激活层组成:
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示两个不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数。
考虑到样本图像中前景和背景区域之间的互斥性,背景通道注意力子模块和前景通道注意力子模块保持互补关系:
其中,Sub(·)表示像素级的减法运算。此后,基于注意力的特征分离模块对于两分支的输出特征分别表示为:
三、设计基于损失函数的网络更新机制
(1)两分支网络分别进行参数更新
为了分别优化前景-背景特征提取模块得到的前景特征和背景特征,利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程。
其中,N为输入的样本数,Lce为交叉熵损失。
同时,将与输入样本相同伪标记的样本Fi,p视为正样本,而将具有不同伪标记的样本Fi,n视为负样本。为了进一步优化提取得到的特征,分别计算三元组损失,以最大化负样本与基准样本的距离,并最小化正样本与基准样本的距离。所设计的三元组损失为:
其中,||·||2表示L2距离,m为阈值,在本发明实施例中将m设置为0.5。
(2)两分支网络联合更新
为了有效地分离前景和背景特征以鼓励网络的两分支关注不重叠的区域,引入分离损失以最小化两分支所提取的特征间的相似性,以降低由于错误关注的背景区域对前景特征的干扰。分离损失可表示为:
其中,||·||2表示L2距离。
(3)设计参数更新选择策略。网络训练的每个迭代过程前均通过聚类模块进行一次聚类结果(即伪标签)的更新。在网络优化的过程中,聚类结果(伪标签)也会随之更新,进而可以提取到更准确的特征。
四、有监督的源域网络预训练
在源域预训练过程中,网络结构包括:前景背景联合聚类模块、特征聚类模块、分类模块及基于注意力的特征分离模块。
损失函数包括上述分类损失及三元组损失。在该训练阶段,网络输入为源域的有标记样本,并在损失函数的约束下进行有监督的训练。该阶段的总损失函数可以表示为:
五、无监督的目标域网络模型优化
在目标域优化过程中,网络结构包括:前景背景联合聚类模块、特征聚类模块、分类模块,以及基于注意力的特征分离模块。损失函数包括分类损失、三元组损失,以及特征分离损失。在该训练阶段,网络输入为目标域的无标记样本,使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别。该阶段的总损失函数可以表示为:
其中,λ为分离损失的权重系数。在本发明实施例中,λ设置为200。
本发明实施例提出的方法在公开数据集Market1501到公开数据集DukeMTMC-ReID的跨域任务中进行了实验。实验结果表明,所提出的方法优于先进的行人重识别方法LOMO和SPGAN。图3展示了本发明实施例提出的方法与LOMO和SPGAN在评价指标“首位命中率”和“平均精度均值”上的对比结果,两个评价指标的数值越小,代表方法性能越好。
其中,上述方法LOMO、SPGAN,Market1501、DukeMTMC-ReID数据集以及评价指标首位命中率、平均精度均值皆为本领域技术人员所公知,本发明实施例对此不做赘述。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种域自适应行人重识别方法,其特征在于,所述方法包括:
构建前景-背景联合聚类网络,所述网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;
在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;
利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性;
使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别;
其中,所述前景背景特征提取模块包括:两分支的残差卷积神经网络,
前景特征提取网络利用残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同;
前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征及背景特征分别关注样本的不同特征区域;
其中,所述特征聚类模块包括:以前景-背景特征提取模块的两分支特征作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签及背景特征对应的l类背景伪标签;
其中,所述基于注意力的特征分离模块包括:前景通道注意力子模块和背景通道注意力子模块,
所述前景通道注意力子模块由池化层、全连接层及激活层组成:
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数;fi +为第i个残差块所提取的前景特征;fi IN+为经实例正则化层得到的正则化后的特征;
所述背景通道注意力子模块和前景通道注意力子模块保持互补关系;所述分离损失为:
其中,||·||2表示L2距离,Fi +为输出的前景特征,Fi -为输出的背景特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110437973.1A CN113158901B (zh) | 2021-04-22 | 2021-04-22 | 一种域自适应行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110437973.1A CN113158901B (zh) | 2021-04-22 | 2021-04-22 | 一种域自适应行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113158901A CN113158901A (zh) | 2021-07-23 |
CN113158901B true CN113158901B (zh) | 2023-04-07 |
Family
ID=76869606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110437973.1A Active CN113158901B (zh) | 2021-04-22 | 2021-04-22 | 一种域自适应行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158901B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011440B (zh) * | 2021-03-19 | 2023-11-28 | 中联煤层气有限责任公司 | 一种煤层气井井场监控重识别技术 |
CN114220067B (zh) * | 2021-11-01 | 2024-08-27 | 广东技术师范大学 | 多尺度简洁注意力行人重识别方法、系统、装置及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814854A (zh) * | 2020-06-28 | 2020-10-23 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
CN111860678A (zh) * | 2020-07-29 | 2020-10-30 | 中国矿业大学 | 一种基于聚类的无监督跨域行人重识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321813B (zh) * | 2019-06-18 | 2023-06-20 | 南京信息工程大学 | 基于行人分割的跨域行人重识别方法 |
CN111008992B (zh) * | 2019-11-28 | 2024-04-05 | 驭势科技(浙江)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111179440B (zh) * | 2020-01-02 | 2023-04-14 | 哈尔滨工业大学 | 一种面向自然场景的三维物体模型检索方法 |
CN111489372B (zh) * | 2020-03-11 | 2022-10-18 | 天津大学 | 基于级联卷积神经网络的视频前背景分离方法 |
CN111666851B (zh) * | 2020-05-28 | 2022-02-15 | 大连理工大学 | 一种基于多粒度标签的交叉域自适应行人重识别方法 |
CN111783753B (zh) * | 2020-09-04 | 2020-12-15 | 中国科学院自动化研究所 | 基于语义一致水平条和前景修正的行人重识别方法 |
-
2021
- 2021-04-22 CN CN202110437973.1A patent/CN113158901B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814854A (zh) * | 2020-06-28 | 2020-10-23 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
CN111860678A (zh) * | 2020-07-29 | 2020-10-30 | 中国矿业大学 | 一种基于聚类的无监督跨域行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113158901A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956185B (zh) | 一种图像显著目标的检测方法 | |
Wang et al. | RSNet: The search for remote sensing deep neural networks in recognition tasks | |
Yuan et al. | Gated CNN: Integrating multi-scale feature layers for object detection | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN109934261B (zh) | 一种知识驱动参数传播模型及其少样本学习方法 | |
CN110796026A (zh) | 一种基于全局特征拼接的行人重识别方法 | |
CN113158901B (zh) | 一种域自适应行人重识别方法 | |
Zuo et al. | HF-FCN: Hierarchically fused fully convolutional network for robust building extraction | |
Chong et al. | Style transfer for unsupervised domain-adaptive person re-identification | |
CN111339849A (zh) | 一种融合行人属性的行人重识别的方法 | |
CN114692732B (zh) | 一种在线标签更新的方法、系统、装置及存储介质 | |
CN104700100A (zh) | 面向高空间分辨率遥感大数据的特征提取方法 | |
CN112861931B (zh) | 一种基于差异注意力神经网络的多级别变化检测方法、系统、介质及电子设备 | |
CN111695531B (zh) | 一种基于异构卷积网络的跨域行人再识别方法 | |
Dong et al. | Holistic and Deep Feature Pyramids for Saliency Detection. | |
CN112183464A (zh) | 基于深度神经网络和图卷积网络的视频行人识别方法 | |
Wen et al. | Semantic segmentation using a GAN and a weakly supervised method based on deep transfer learning | |
CN112465836B (zh) | 基于轮廓信息的热红外语义分割无监督领域自适应方法 | |
Zhao et al. | RFE-LinkNet: LinkNet with Receptive Field Enhancement for Road Extraction from High Spatial Resolution Imagery | |
CN118135209A (zh) | 一种基于形状块语义关联度的弱监督语义分割方法 | |
Li | A deep learning-based text detection and recognition approach for natural scenes | |
Zhao et al. | Overview of image segmentation and its application on free space detection | |
Hao et al. | Research on image semantic segmentation based on FCN-VGG and pyramid pooling module | |
Rao et al. | Roads detection of aerial image with FCN-CRF model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |