CN108647577B - 一种自适应难例挖掘的行人重识别方法与系统 - Google Patents
一种自适应难例挖掘的行人重识别方法与系统 Download PDFInfo
- Publication number
- CN108647577B CN108647577B CN201810323425.4A CN201810323425A CN108647577B CN 108647577 B CN108647577 B CN 108647577B CN 201810323425 A CN201810323425 A CN 201810323425A CN 108647577 B CN108647577 B CN 108647577B
- Authority
- CN
- China
- Prior art keywords
- sample
- sample pair
- training
- difficult
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自适应难例挖掘的行人重识别模型、方法与系统,其中,识别方法包括:将样本图片随机分成每次迭代使用的训练集合,将训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失;利用每个样本对的损失获取难例样本对;利用难例样本对训练卷积神经网络,直到当前迭代次数达到迭代次数上限,得到行人重识别模型。利用行人重识别模型提取待识别图片集的中每个图片的特征,进而得到待识别图片集中样本对的相似度排序。本发明不存在过拟合、欠拟合、且识别准确率高。
Description
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种自适应难例挖掘的行人重识别模型、方法与系统。
背景技术
行人的重识别算法是图像处理和模式识别研究的重要领域之一。所谓行人的重识别,是指将某个待定的被搜索的目标行人作为搜索的源,在其他的摄像头拍摄视频自动地找到同一目标的算法,其主要难点在于目标在不同场景下受光照、视角、遮挡等干扰因素的影响呈现出极大的类内差异。随着深度学习技术的发展,行人重识别算法的精度较之于手工特征和度量学习等传统方法有了长足的进步。但是,深度学习训练所需要的样本数量巨大,且对于行人重识别任务,容易分类的训练样本的数量往往远大于难以正确分类的训练样本(难例样本)的数量,现有技术没有充分考虑难例样本,而往往过多的简单样本对反而会导致深度卷积神经网络的过拟合现象发生,大多数算法在训练的每次迭代过程中选择一定量的难例样本用来更新网络。然而,在训练初始阶段,网络还未完全收敛,过度强调挖掘难例样会导致网络因为样本数量减少而产生欠拟合现象。
由此可见,现有技术存在过拟合、欠拟合、识别准确率低的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种自适应难例挖掘的行人重识别模型、方法与系统,由此解决现有技术存在过拟合、欠拟合、识别准确率低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种自适应难例挖掘的行人重识别模型的训练方法,包括:
(1)采集样本图片,将样本图片随机分成每次迭代使用的训练集合,将每个训练集合中的所有样本图像两两分组,得到多个样本对,若样本对中两张样本图像来自同一目标行人则该样本对的真实标签为正样本对,否则该样本对的真实标签为负样本对;
(2)将第一次迭代的训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失;
(3)对于每个训练集合中所有样本对的损失从大到小排列得到集合S,并计算每个训练集合的总损失L,利用每个训练集合的总损失L与一个自适应的难例阈值相乘得到每个训练集合的难例样本对的损失和的阈值β,当集合S中前m个样本对的损失和超过阈值β时,集合S中前m个样本对构成难例样本对集合H;
(4)利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数;
(5)将第A次迭代的训练集合输入卷积神经网络,A≥2,然后重复步骤(2)-(4),直到当前迭代次数达到迭代次数上限,卷积神经网络训练完成,得到行人重识别模型。
进一步地,步骤(2)中每个样本对的损失为:
进一步地,一个自适应的难例阈值为:
其中,α为一个自适应的难例阈值,Ic为当前的迭代次数,Im为总的迭代次数,γ为第一线性化参数,ε为第二线性化参数,所述γ和ε的取值随着迭代次数的增加而增加。
进一步地,γ的取值范围为0.7-0.9,所述ε的取值范围为0.1-0.3。
按照本发明的另一方面,提供了一种自适应难例挖掘的行人重识别模型,所述行人重识别模型由本发明的训练方法训练得到。
按照本发明的另一方面,提供了一种自适应难例挖掘的行人重识别方法,包括:
利用本发明的训练方法训练得到的行人重识别模型提取待识别图片集的中每个图片的特征,计算特征之间的欧氏距离得到待识别图片集中样本对的距离,利用待识别图片集中样本对的距离得到待识别图片集中样本对的相似度排序。
按照本发明的另一方面,提供了一种自适应难例挖掘的行人重识别系统,包括:
采集与标记模块,用于采集样本图片,将样本图片随机分成每次迭代使用的训练集合,将每个训练集合中的所有样本图像两两分组,得到多个样本对,若样本对中两张样本图像来自同一目标行人则该样本对的真实标签为正样本对,否则该样本对的真实标签为负样本对;
计算损失模块,用于将第一次迭代的训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失;
获取难例样本对模块,用于对于每个训练集合中所有样本对的损失从大到小排列得到集合S,并计算每个训练集合的总损失L,利用每个训练集合的总损失L与一个自适应的难例阈值相乘得到每个训练集合的难例样本对的损失和的阈值β,当集合S中前m个样本对的损失和超过阈值β时,集合S中前m个样本对构成难例样本对集合H;
训练模块,用于利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数;
目标模块,用于将第A次迭代的训练集合输入卷积神经网络,A≥2,然后重复执行计算损失模块、获取难例样本对模块和训练模块,直到当前迭代次数达到迭代次数上限,卷积神经网络训练完成,得到行人重识别模型;
识别模块,用于行人重识别模型提取待识别图片集的中每个图片的特征,计算特征之间的欧氏距离得到待识别图片集中样本对的距离,利用待识别图片集中样本对的距离得到待识别图片集中样本对的相似度排序。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明在训练模型时,具有难例挖掘算法的优点,能够使网络避免过拟合现象且具有更好判别性能,同时难例挖掘算法与训练过程紧密结合又使得难例样本的选取更加科学,避免了欠拟合现象发生。对于传统的难例挖掘只按一定比例选取损失大的一部分样本作为难例样本训练而不考虑训练过程中每个训练集合之间的差异和训练的不同阶段网络对样本数量需求的不同,得到的自适应难例挖掘的行人重识别模型更加的合理、高效。
(2)本发明利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数,既实现了难例挖掘的功能也减轻了计算的复杂度,提高了计算的效率;本发明能和大多数已有网络和各种损失计算方法紧密结合,且取得了良好的效果,具有优秀的泛化性能。使用本发明训练得到的模型提取得到的特征更准确有效,使得后续的识别结果:相似度排序更准确。
附图说明
图1是本发明实施例提供的行人重识别模型的训练方法的流程图;
图2(a)是本发明实施例提供的正样本对的难例样本示意图;
图2(b)是本发明实施例提供的负样本对的难例样本示意图;
图3是本发明实施例提供的卷积神经网络的结构图;
图4是本发明实施例提供的随着训练迭代的次数难例挖掘阈值的自适应变化过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,一种自适应难例挖掘的行人重识别模型的训练方法,包括:
(1)采集样本图片,将样本图片随机分成每次迭代使用的训练集合,将每个训练集合中的所有样本图像两两分组,得到多个样本对,若样本对中两张样本图像来自同一目标行人则该样本对的真实标签为正样本对,否则该样本对的真实标签为负样本对;
(2)将第一次迭代的训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失:
(3)对于每个训练集合中所有样本对的损失从大到小排列得到集合S,并计算每个训练集合的总损失L,利用每个训练集合的总损失L与一个自适应的难例阈值相乘得到每个训练集合的难例样本对的损失和的阈值β,当集合S中前m个样本对的损失和超过阈值β时,集合S中前m个样本对构成难例样本对集合H;一个自适应的难例阈值为:
其中,α为一个自适应的难例阈值,Ic为当前的迭代次数,Im为总的迭代次数,γ为第一线性化参数,ε为第二线性化参数。γ的取值范围为0.7-0.9,所述ε的取值范围为0.1-0.3,所述γ和ε的取值随着迭代次数的增加而增加。
(4)利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数;这样既保持了网络的难例挖掘功能,又不必使用所有的样本对来前向和反向传播,节约了计算的开销,提高了训练的效率。
(5)将第A次迭代的训练集合输入卷积神经网络,A≥2,然后重复步骤(2)-(4),直到当前迭代次数达到迭代次数上限,卷积神经网络训练完成,得到行人重识别模型。
在行人重识别的任务中,难以被正确分类的样本对叫做难例样本对,这些样本对在训练过程中的特点主要是和标签比较计算之后的损失较大。具体来讲,如图2所示,对于正样本对(图2(a))和负样本对(图2(b)),对于样本对的难易程度由易到难的顺序都是从里到外由难到易。同理,负样本对的难易程度刚好相反。简而言之,我们需要更多关注和挖掘的是那些难例样本。
一种自适应难例挖掘的行人重识别方法,包括:
利用本发明的训练方法训练得到的行人重识别模型提取待识别图片集的中每个图片的特征,计算特征之间的欧氏距离得到待识别图片集中样本对的距离,利用待识别图片集中样本对的距离得到待识别图片集中样本对的相似度排序。
如图3所示,是本发明实施例提供的卷积神经网络的结构图,训练集合batch中的图片是成对输入的,按标签分为正样本对和负样本对,提取特征子网络通常采用普遍使用的网络结构,我们的算法实现部分主要集中在难例挖掘子网络,包括计算样本对损失和用自适应的方法选取难例样本对的功能,如上所述,这一部分是只读功能,只用作前向计算和传播,而被选中的难例样本对将被输入到结构相似的另一子网络中,用于反向传播更新网络参数,这两个子网络全连接层是参数共享的。这样我们的网络因为只用少量的难例样本对来更新参数从而计算更加快捷高效。
如图4所示,这是随着训练迭代次数的增加,难例样本的选择阈值随之变化的过程。从图中可以看出,在训练初始阶段,为了使网络更快的拥有行人重识别的性能,我们降低难例样本的选择阈值,使得更多的样本对被用于训练,难例样本出现在内层的圆圈中,避免训练样本过少导致欠拟合现象发生;在训练的后期,我们提高难例样本的选择阈值,使得真正难例的样本被用作训练,难例样本只考虑出现在外层圆圈中的样本,提高网络的识别精度,又同时避免过多的简单样本导致的过拟合现象发生。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种自适应难例挖掘的行人重识别模型的训练方法,其特征在于,包括:
(1)采集样本图片,将样本图片随机分成每次迭代使用的训练集合,将每个训练集合中的所有样本图像两两分组,得到多个样本对,若样本对中两张样本图像来自同一目标行人则该样本对的真实标签为正样本对,否则该样本对的真实标签为负样本对;
(2)将第一次迭代的训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失;
(3)对于每个训练集合中所有样本对的损失从大到小排列得到集合S,并计算每个训练集合的总损失L,利用每个训练集合的总损失L与一个自适应的难例阈值相乘得到每个训练集合的难例样本对的损失和的阈值β,当集合S中前m个样本对的损失和超过阈值β时,集合S中前m个样本对构成难例样本对集合H;
(4)利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数;
(5)将第A次迭代的训练集合输入卷积神经网络,A≥2,然后重复步骤(2)-(4),直到当前迭代次数达到迭代次数上限,卷积神经网络训练完成,得到行人重识别模型。
4.如权利要求3所述的一种自适应难例挖掘的行人重识别模型的训练方法,其特征在于,所述γ的取值范围为0.7-0.9,所述ε的取值范围为0.1-0.3。
5.一种自适应难例挖掘的行人重识别方法,其特征在于,包括:
利用权利要求1-4任一所述的训练方法训练得到的行人重识别模型提取待识别图片集的中每个图片的特征,计算特征之间的欧氏距离得到待识别图片集中样本对的距离,利用待识别图片集中样本对的距离得到待识别图片集中样本对的相似度排序。
6.一种自适应难例挖掘的行人重识别系统,其特征在于,包括:
采集与标记模块,用于采集样本图片,将样本图片随机分成每次迭代使用的训练集合,将每个训练集合中的所有样本图像两两分组,得到多个样本对,若样本对中两张样本图像来自同一目标行人则该样本对的真实标签为正样本对,否则该样本对的真实标签为负样本对;
计算损失模块,用于将第一次迭代的训练集合输入卷积神经网络,利用softmax函数得到每个样本对属于正、负样本对的概率,进而利用多项逻辑斯蒂函数得到每个样本对的损失;
获取难例样本对模块,用于对于每个训练集合中所有样本对的损失从大到小排列得到集合S,并计算每个训练集合的总损失L,利用每个训练集合的总损失L与一个自适应的难例阈值相乘得到每个训练集合的难例样本对的损失和的阈值β,当集合S中前m个样本对的损失和超过阈值β时,集合S中前m个样本对构成难例样本对集合H;
训练模块,用于利用难例样本对集合H向前传播训练卷积神经网络,利用难例样本对集合H中难例样本对的损失在卷积神经网络中反向传播来更新卷积神经网络的参数;
目标模块,用于将第A次迭代的训练集合输入卷积神经网络,A≥2,然后重复执行计算损失模块、获取难例样本对模块和训练模块,直到当前迭代次数达到迭代次数上限,卷积神经网络训练完成,得到行人重识别模型;
识别模块,用于行人重识别模型提取待识别图片集的中每个图片的特征,计算特征之间的欧氏距离得到待识别图片集中样本对的距离,利用待识别图片集中样本对的距离得到待识别图片集中样本对的相似度排序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810323425.4A CN108647577B (zh) | 2018-04-10 | 2018-04-10 | 一种自适应难例挖掘的行人重识别方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810323425.4A CN108647577B (zh) | 2018-04-10 | 2018-04-10 | 一种自适应难例挖掘的行人重识别方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647577A CN108647577A (zh) | 2018-10-12 |
CN108647577B true CN108647577B (zh) | 2021-04-20 |
Family
ID=63746159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810323425.4A Expired - Fee Related CN108647577B (zh) | 2018-04-10 | 2018-04-10 | 一种自适应难例挖掘的行人重识别方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647577B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368989B (zh) * | 2018-12-25 | 2023-06-16 | 同方威视技术股份有限公司 | 神经网络模型的训练方法、装置、设备及可读存储介质 |
CN109872483B (zh) * | 2019-02-22 | 2020-09-29 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 一种入侵警戒光电监测系统及方法 |
CN110276741B (zh) * | 2019-03-08 | 2022-12-16 | 腾讯科技(深圳)有限公司 | 结节检测及其模型训练的方法和装置以及电子设备 |
CN110175615B (zh) * | 2019-04-28 | 2021-01-01 | 华中科技大学 | 模型训练方法、域自适应的视觉位置识别方法及装置 |
CN110533610A (zh) * | 2019-08-20 | 2019-12-03 | 东软医疗系统股份有限公司 | 图像增强模型的生成方法及装置、应用方法及装置 |
CN110457481A (zh) * | 2019-08-20 | 2019-11-15 | 腾讯科技(深圳)有限公司 | 一种分类模型训练的方法、装置、设备以及存储介质 |
CN112529026B (zh) * | 2019-09-17 | 2023-12-19 | 华为云计算技术有限公司 | 提供ai模型的方法、ai平台、计算设备及存储介质 |
CN111027707B (zh) * | 2019-11-22 | 2023-08-22 | 北京金山云网络技术有限公司 | 模型的优化方法、装置及电子设备 |
CN110956255B (zh) * | 2019-11-26 | 2023-04-07 | 中国医学科学院肿瘤医院 | 难样本挖掘方法、装置、电子设备及计算机可读存储介质 |
WO2021212482A1 (zh) * | 2020-04-24 | 2021-10-28 | 华为技术有限公司 | 一种目标检测中难例挖掘的方法及装置 |
CN111626335B (zh) * | 2020-04-29 | 2023-06-30 | 杭州火烧云科技有限公司 | 一种像素增强的神经网络的改进难例挖掘训练方法及系统 |
CN111598175B (zh) * | 2020-05-19 | 2022-09-02 | 南京甄视智能科技有限公司 | 一种基于在线难例挖掘方式的检测器训练优化方法 |
CN111666925B (zh) * | 2020-07-02 | 2023-10-17 | 北京爱笔科技有限公司 | 一种人脸识别模型的训练方法及装置 |
CN112149745B (zh) * | 2020-09-27 | 2022-10-21 | 上海高德威智能交通系统有限公司 | 确定难例样本的方法、装置、设备及存储介质 |
CN112541447B (zh) * | 2020-12-18 | 2024-06-14 | 深圳地平线机器人科技有限公司 | 机器模型的更新方法、装置、介质及设备 |
CN112733724B (zh) * | 2021-01-12 | 2022-07-26 | 清华大学 | 基于判别样本元挖掘器的亲属关系验证方法和装置 |
CN113569657A (zh) * | 2021-07-05 | 2021-10-29 | 浙江大华技术股份有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
CN115359308B (zh) * | 2022-04-06 | 2024-02-13 | 北京百度网讯科技有限公司 | 模型训练、难例识别方法、装置、设备、存储介质及程序 |
CN114764942B (zh) * | 2022-05-20 | 2022-12-09 | 清华大学深圳国际研究生院 | 一种难正负样本在线挖掘方法和人脸识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372658A (zh) * | 2016-08-30 | 2017-02-01 | 广东工业大学 | 车辆分类器的训练方法 |
CN106529424A (zh) * | 2016-10-20 | 2017-03-22 | 中山大学 | 一种基于选择性搜索算法的车标检测识别方法及系统 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8095774B1 (en) * | 2007-07-05 | 2012-01-10 | Silver Peak Systems, Inc. | Pre-fetching data into a memory |
-
2018
- 2018-04-10 CN CN201810323425.4A patent/CN108647577B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372658A (zh) * | 2016-08-30 | 2017-02-01 | 广东工业大学 | 车辆分类器的训练方法 |
CN106529424A (zh) * | 2016-10-20 | 2017-03-22 | 中山大学 | 一种基于选择性搜索算法的车标检测识别方法及系统 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108647577A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647577B (zh) | 一种自适应难例挖掘的行人重识别方法与系统 | |
CN110443818B (zh) | 一种基于涂鸦的弱监督语义分割方法与系统 | |
CN109741347B (zh) | 一种基于卷积神经网络的迭代学习的图像分割方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN109840471B (zh) | 一种基于改进Unet网络模型的可行道路分割方法 | |
CN108846358B (zh) | 一种基于孪生网络进行特征融合的目标跟踪方法 | |
CN108319972B (zh) | 一种针对图像语义分割的端到端差异网络学习方法 | |
Xu et al. | Mhp-vos: Multiple hypotheses propagation for video object segmentation | |
CN113326731B (zh) | 一种基于动量网络指导的跨域行人重识别方法 | |
US20220309772A1 (en) | Human activity recognition fusion method and system for ecological conservation redline | |
CN112132856B (zh) | 一种基于自适应模板更新的孪生网络跟踪方法 | |
CN111652892A (zh) | 一种基于深度学习的遥感影像建筑物矢量提取及优化方法 | |
CN110929848B (zh) | 基于多挑战感知学习模型的训练、跟踪方法 | |
WO2022160772A1 (zh) | 一种基于视角引导多重对抗注意力的行人重识别方法 | |
Pan et al. | A generic FCN-based approach for the road-network extraction from VHR remote sensing images–using openstreetmap as benchmarks | |
CN105931267B (zh) | 一种基于改进ViBe算法的运动物体检测跟踪方法 | |
CN108986101B (zh) | 基于循环“抠图-分割”优化的人体图像分割方法 | |
CN113744311A (zh) | 基于全连接注意力模块的孪生神经网络运动目标跟踪方法 | |
CN110533068B (zh) | 一种基于分类卷积神经网络的图像对象识别方法 | |
CN112906606A (zh) | 一种基于相互分歧学习的域自适应行人重识别方法 | |
CN113850281A (zh) | 一种基于meanshift优化的数据处理方法和装置 | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN104361135A (zh) | 一种图像检索方法 | |
CN116310128A (zh) | 基于实例分割与三维重建的动态环境单目多物体slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210420 |
|
CF01 | Termination of patent right due to non-payment of annual fee |