CN106056146B - 基于逻辑回归的视觉跟踪方法 - Google Patents

基于逻辑回归的视觉跟踪方法 Download PDF

Info

Publication number
CN106056146B
CN106056146B CN201610364295.XA CN201610364295A CN106056146B CN 106056146 B CN106056146 B CN 106056146B CN 201610364295 A CN201610364295 A CN 201610364295A CN 106056146 B CN106056146 B CN 106056146B
Authority
CN
China
Prior art keywords
haar
feature
weak classifier
sample
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610364295.XA
Other languages
English (en)
Other versions
CN106056146A (zh
Inventor
田小林
焦李成
赵素杰
张小华
王桂婷
朱虎明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610364295.XA priority Critical patent/CN106056146B/zh
Publication of CN106056146A publication Critical patent/CN106056146A/zh
Application granted granted Critical
Publication of CN106056146B publication Critical patent/CN106056146B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于逻辑回归的视觉跟踪方法,主要解决现有技术容易积累跟踪误差,遮挡条件下性能降低的问题。其实现方案是:1.通过对样本取Haar‑like特征构建一系列服从高斯分布的弱分类器;2.采用逻辑回归模型从一系列弱分类器中选出部分性能较好的弱分类器,并对弱分类器进行加权求和构建一个强分类器;3.通过强分类器预测目标位置;4.通过异常判断决定是否更新弱分类器高斯分布参数,从而适应跟踪过程中目标和场景的变化。本发明与现有Adaboost算法相比,能够快速准确地获取弱分类器的全局最优子集,从而正确更新分类器参数、避免跟踪偏移,提高了跟踪性能,可用于机器人导航、人机交互、虚拟现实。

Description

基于逻辑回归的视觉跟踪方法
技术领域
本发明属于视频处理技术领域,特别涉及一种视觉跟踪方法,可应用于机器人导航、人机交互、虚拟现实。
背景技术
视觉跟踪是计算机视觉研究领域中的关键问题,根据对外观模型的不同处理方法可分为生成模型和判别模型两大类。生成模型的跟踪方法通常是学习一个代表目标的模型,利用外观模型匹配寻找到相似度最高的候选目标为跟踪结果。判别模型跟踪算法将跟踪问题看成一个二分类问题,通过正负样本训练分类器,找到目标和背景的决策边界。
Grabner等人提出了一种用于目标跟踪的在线Boosting算法,该算法主要包括强分类器的生成和目标定位两个部分,其中用于分类的强分类器由多个特征选择器组成,然后在跟踪过程中利用被跟踪目标的位置获得训练需要的正负样本进行特征选择器的生成,每次生成中均挑选特征池里具有最小训练错误率的特征作为特征选择器。该方法能够很好地解决自适应目标及背景的变化问题,其缺陷是由于该方法是一种自学习的过程,将上一帧的跟踪窗口当作新的正样本,所以当目标发生遮挡时,被遮挡的正样本易导致特征池中的误差累积而产生“漂移”。Babenko等人引入多示例模型,对含有多个样本的正包和负包进行训练,在线选择最有判别性的特征集合,将目标和背景分离,使得该算法对跟踪误差具有一定的容错性。但其在获取正包时仍会受到无益或有害示例的干扰,不能很好地提取目标的鉴别性特征。
发明内容
本发明针对上述现有技术的不足,提出一种基于逻辑回归的视觉跟踪方法,以实现自适应目标和场景变化,提高复杂环境下的鲁棒性和准确性。
实现本发明目的的技术方案是:采用逻辑回归模型选取Haar-like特征弱分类器并构建出一个强分类器,引入异常判断决定是否更新分类器参数,具体实现步骤包括如下:
(1)在待测试视频的初始帧即第一帧中手工选择被跟踪目标,构造N个服从高斯分布的Haar-like特征弱分类器,随机初始化Haar-like特征弱分类器权重W,每个Haar-like特征弱分类器在目标框中随机生成2至6个大小不等的矩形及每个矩形所对应的权重值,作为Haar-like特征计算模板;
(2)在目标位置附近区域选取正样本,在远离目标位置的区域选取负样本,正负样本数量相等且与目标框大小相同;
(3)依据步骤(1)中得到的Haar-like特征计算模板得到每个正负样本的Haar-like特征向量X;
(4)更新Haar-like特征弱分类的器高斯分布参数μ+-+-,其中μ+为正样本Haar-like特征均值,μ-为负样本Haar-like特征均值,σ+为正样本Haar-like特征值标准差,σ-为负样本Haar-like特征值标准差;
(5)利用步骤(2)中选取的样本对更新后的Haar-like特征弱分类器进行测试,计算Haar-like特征弱分类器对正样本的分类准确率CCRP;
(6)根据正样本分类准确率CCRP进行异常判别:
如果正样本分类准确率CCRP小于异常判别阈值Θ,认为出现异常,则恢复上一帧的Haar-like特征弱分类器高斯分布参数μ+-+-,且保持原有权重W;
反之,认为无异常,则利用逻辑回归模型优化Haar-like特征弱分类器权重W;
(7)对Haar-like特征弱分类器依据权重降序排列,取前K个Haar-like特征弱分类器及其对应权重,线性组合为强分类器hstrong(Xs),其中Xs为前K个Haar-like特征弱分类器组成的向量;
(8)读取下一帧,以原目标位置及其8邻域作为测试窗口,从中获取Nc个候选样本,候选样本与目标框大小相同;
(9)依据步骤(1)中得到的Haar-like特征计算模板计算每个候选样本对应步骤(7)中K个Haar-like特征弱分类器的Haar-like特征,组成每个候选样本的Haar-like特征向量Xc
(10)以每个候选样本的Haar-like特征向量Xc作为强分类器hstrong(Xs)的输入,计算得到每一个候选样本能成为目标的概率p;
(11)选取概率p最大的候选样本作为目标;
(12)返回步骤(2)执行下一帧。
本发明与现有技术相比有以下优点:
第一,本发明采用了逻辑回归模型组织Haar-like特征弱分类器,选取部分Haar-like特征弱分类器并构建出一个强分类器,能够排除有害示例的干扰,提高了跟踪的准确性。
第二,本发明使用有限内存拟牛顿法优化弱分类器权重,增强了强分类器的鉴别性,提高了运算效率。
第三,本发明引入异常判断决定是否更新分类器参数,从而实现自适应目标和场景变化,增强了跟踪的鲁棒性。
附图说明
图1为本发明的实现流程图;
图2为对第一帧视频图像用人工标记出的待跟踪目标示意图;
图3为用本发明对图2标记的待跟踪目标进行跟踪的结果图。
具体实施措施
下面结合附图对发明的实施例和效果做进一步描述,以下实例用于说明本发明,但不限制本发明的范围。
参照图1,对本发明的实现步骤如下:
步骤1,初始化Haar-like特征弱分类器及其权重,获得Haar-like特征计算模板。
在待测试视频的初始帧即第一帧中手工绘制矩形框标记目标,构造N个服从高斯分布的Haar-like特征弱分类器,本实例中取N=250,随机初始化Haar-like特征弱分类器权重W,W={wi|wi∈(0,1),i=1,2,…,N},wi表示第i个Haar-like特征弱分类器权重;
每个Haar-like特征弱分类器在目标框中随机生成2至6个大小不等的矩形及每个矩形所对应的权重值,作为Haar-like特征计算模板。
步骤2,根据目标位置选取正负样本。
将目标框四边向外扩充3个像素作为正样本区域,从中抽取49个与目标框大小相同的正样本,同时在目标框的8邻域中均匀抽取相同数量负样本
步骤3,计算每个正负样本的Haar-like特征向量X。
依据步骤(1)中得到的Haar-like特征计算模板计算每个样本的Haar-like特征向量X=(x1,x2,…,xi,…,xN)T,其中每一维Haar-like特征xi是弱分类器hi在所选矩形区域Haar-like特征的加权和,i=1,2,…,N,N表示Haar-like特征弱分类器个数,本实例中取N=250,上标T表示取向量转置;
步骤4,更新Haar-like特征弱分类器高斯分布参数μ+-+-
所述Haar-like特征弱分类器的高斯分布参数为μ+-+-,其中μ+为正样本的Haar-like特征均值,σ+为正样本的Haar-like特征值标准差,μ-为负样本的Haar-like特征均值,σ-为负样本的Haar-like特征值标准差。
为适应跟踪过程中目标和场景的变化,需要对Haar-like特征弱分类器高斯分布参数μ+-+-进行更新,更新公式如下:
对于第t帧图像
其中,下标t和t-1代表两个相邻帧的图像,λ是一个自适应参数常数用来控制更新的速率,对于第一帧λ=1,在本实例中对于其他帧取λ=0.95;
为第t帧时正样本的Haar-like特征均值,为在第t帧图像中所提取正样本的Haar-like特征均值,为第t-1帧时正样本的Haar-like特征均值;
为第t帧时负样本的Haar-like特征均值,为在第t帧图像中所提取负样本的Haar-like特征均值,为第t-1帧时负样本的Haar-like特征均值;
为第t帧时正样本的Haar-like特征值标准差,为在第t帧图像中所提取正样本的特征值标准差,为第t-1帧时正样本的Haar-like特征值标准差;
为第t帧时负样本的Haar-like特征值标准差,为在第t帧图像中所提取负样本的Haar-like特征值标准差,为第t-1帧时负样本的Haar-like特征值标准差。
步骤5,计算Haar-like特征弱分类器对正样本的分类准确率CCRP。
利用步骤(2)中选取的样本对更新后的Haar-like特征弱分类器进行测试,计算Haar-like特征弱分类器对正样本的分类准确率CCRP:
其中,N为Haar-like特征弱分类器个数,本实例中取N=250,Pc为Haar-like特征弱分类器对正样本分类正确的个数,M+为正样本个数,本实例中取M+=49,hi(xij)为Haar-like特征弱分类器hi对第j个样本的第i维Haar-like特征的分类结果,xij为第j个样本的第i维Haar-like特征值,i=1,2,…,N,j=1,2,…,M+,Pr(xij|y=1)为第j个样本的第i维Haar-like特征属于正样本的概率,服从高斯分布N(μ++2);Pr(xij|y=0)为第j个样本的第i维Haar-like特征属于负样本的概率,服从高斯分布N(μ--2),μ+、μ-、σ+、σ-为Haar-like特征弱分类器高斯分布参数。
步骤6,根据正样本分类准确率CCRP进行Haar-like特征弱分类器分类异常判别:
如果正样本分类准确率CCRP小于异常判别阈值Θ,认为Haar-like特征弱分类器分类结果出现异常,则恢复上一帧的Haar-like特征弱分类器高斯分布参数μ+-+-,且保持原有权重W;
反之,认为Haar-like特征弱分类器分类结果无异常,则利用逻辑回归模型优化Haar-like特征弱分类器权重W,权重W使用有限内存拟牛顿法对下式进行求解得到:
其中,本实例中取Θ=0.35,H=(h1,h2,…,hn,…,hN)T,hn表示第n维特征所对应的Haar-like特征弱分类器,W=(w1,w2,…,wn,…,wN)T,wn为hn的权重值,n=1,2,…,N,N为Haar-like特征弱分类器个数,上标T表示取向量转置,C>0是折中系数,本实例中取C=3,yi∈{±1}是第i个样本的真实标签,M为正负样本总数。
步骤7,依据权重W选取Haar-like特征弱分类器整合为强分类器。
对Haar-like弱特征分类器依据权重降序排列,取前K个Haar-like特征弱分类器及其对应权重,线性组合为强分类器hstrong(Xs):
其中Xs=(x1,x2,…,xi,…,xK)T是权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征组成的特征向量,上标T表示取向量转置,K是组成强分类器hstrong(Xs)的Haar-like特征弱分类器个数,本实例中取K=100,xi是权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征,hi(xi)是权值最高的前K个Haar-like特征弱分类器,wi为hi(xi)对应的权重值,i=1,2,…,K。
步骤8,读取下一帧,获取候选样本。
读取下一帧,以原目标位置及其8邻域作为测试窗口,从中随机抽取Nc个候选样本,本实例中取Nc为目标框像素个数的30%;
步骤9,计算每一个候选样本的Haar-like特征向量Xc
依据步骤1中得到的Haar-like特征计算模板计算每个候选样本对应步骤(7)中K个Haar-like特征弱分类器的Haar-like特征,组成每个候选样本的Haar-like特征向量Xc
步骤10,计算每一个候选样本能成为目标的概率p。
以每个候选样本的Haar-like特征向量Xc作为强分类器hstrong(Xs)的输入,计算得到每一个候选样本能成为目标的概率p,计算公式如下:
p=hstrong(Xc)
其中Xc=(x1,x2,…,xi,…,xK)T是每个候选样本对应步骤(7)中权值最高的前K个Haar-like特征弱分类器的Haar-like特征组成的特征向量,上标T表示取向量转置,K是组成强分类器hstrong(Xs)的Haar-like特征弱分类器个数,xi是每个候选样本对应步骤(7)中权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征,i=1,2,…,K。
步骤11,选取概率p最大的候选样本作为目标。
步骤12:返回步骤2执行下一帧。
本发明能自适应目标和背景的变化,大幅提高了在自然场景下的目标跟踪效果和跟踪准确率。
以上描述仅是本发明的一个具体实例,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (7)

1.基于逻辑回归的视觉跟踪方法,包括:
(1)在待测试视频的初始帧即第一帧中手工选择被跟踪目标,构造N个服从高斯分布的Haar-like特征弱分类器,随机初始化Haar-like特征弱分类器权重W,每个Haar-like特征弱分类器在目标框中随机生成2至6个大小不等的矩形及每个矩形所对应的权重值,作为Haar-like特征计算模板;
(2)在目标位置附近区域选取正样本,在远离目标位置的区域选取负样本,正负样本数量相等且与目标框大小相同;
(3)依据步骤(1)中得到的Haar-like特征计算模板得到每个正负样本的Haar-like特征向量X;
(4)更新Haar-like特征弱分类器的高斯分布参数μ+-+-,其中μ+为正样本Haar-like特征均值,μ-为负样本Haar-like特征均值,σ+为正样本Haar-like特征值标准差,σ-为负样本Haar-like特征值标准差;
(5)利用步骤(2)中选取的样本对更新后的Haar-like特征弱分类器进行测试,计算Haar-like特征弱分类器对正样本的分类准确率CCRP;
(6)根据正样本分类准确率CCRP进行异常判别:
如果正样本分类准确率CCRP小于异常判别阈值Θ,认为出现异常,则恢复上一帧的Haar-like特征弱分类器高斯分布参数μ+-+-,且保持原有权重W;
反之,认为无异常,则利用逻辑回归模型优化Haar-like特征弱分类器权重W;
(7)对Haar-like特征弱分类器依据权重降序排列,取前K个Haar-like特征弱分类器及其对应权重,线性组合为强分类器hstrong(Xs),其中Xs为前K个Haar-like特征弱分类器组成的向量;
(8)读取下一帧,以原目标位置及其8邻域作为测试窗口,从中获取Nc个候选样本,候选样本与目标框大小相同;
(9)依据步骤(1)中得到的Haar-like特征计算模板计算每个候选样本对应步骤(7)中K个Haar-like特征弱分类器的Haar-like特征,组成每个候选样本的Haar-like特征向量Xc
(10)以每个候选样本的Haar-like特征向量Xc作为强分类器hstrong(Xs)的输入,计算得到每一个候选样本能成为目标的概率p;
(11)选取概率p最大的候选样本作为目标;
(12)返回步骤(2)执行下一帧。
2.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(1)中随机初始化Haar-like特征弱分类器权重W,表示为W={wi|wi∈(0,1),i=1,2,…,N},wi表示第i个Haar-like特征弱分类器权重,N表示Haar-like特征弱分类器个数。
3.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(4)中更新Haar-like特征弱分类器高斯分布参数μ+-+-,采用如下公式进行:
对于第t帧图像
其中,下标t和t-1代表两个相邻帧的图像,λ是一个自适应参数常数用来控制更新的速率,对于第一帧λ=1,为第t帧时正样本的Haar-like特征均值,为在第t帧图像中所提取正样本的Haar-like特征均值,为第t-1帧时正样本的Haar-like特征均值;为第t帧时负样本的Haar-like特征均值,为在第t帧图像中所提取负样本的Haar-like特征均值,为第t-1帧时负样本的Haar-like特征均值;为第t帧时正样本的Haar-like特征值标准差,为在第t帧图像中所提取正样本的特征值标准差,为第t-1帧时正样本的Haar-like特征值标准差;为第t帧时负样本的Haar-like特征值标准差,为在第t帧图像中所提取负样本的Haar-like特征值标准差,为第t-1帧时负样本的Haar-like特征值标准差。
4.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(5)中的Haar-like特征弱分类器对正样本分类准确率CCRP,采用如下公式计算:
其中,N为Haar-like特征弱分类器个数,M+为正样本个数,Pc为Haar-like特征弱分类器对正样本分类正确的个数,
hi(xij)为Haar-like特征弱分类器hi对第j个样本的第i维Haar-like特征的分类结果,xij为第j个样本的第i维Haar-like特征值,i=1,2,…,N,j=1,2,…,M+,Pr(xij|y=1)为第j个样本的第i维Haar-like特征属于正样本的概率,服从高斯分布N(μ++2);Pr(xij|y=0)为第j个样本的第i维Haar-like特征属于负样本的概率,服从高斯分布N(μ--2),μ+、μ-、σ+、σ-是Haar-like特征弱分类器高斯分布参数。
5.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(6)中利用逻辑回归模型优化弱分类器权重W,是利用有限内存拟牛顿法对下式进行求解得到:
其中,H=(h1,h2,…,hn,…,hN)T,hn表示第n维特征所对应的Haar-like特征弱分类器,W=(w1,w2,…,wn,…,wN)T,wn为hn的权重值,n=1,2,…,N,N为Haar-like特征弱分类器个数,上标T表示取向量转置,C>0是折中系数,yi∈{±1}是第i个样本的真实标签,M为正负样本总数。
6.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(7)中线性组合为强分类器hstrong(Xs),通过下式进行:
其中Xs=(x1,x2,…,xi,…,xK)T是权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征组成的特征向量,上标T表示取向量转置,K是组成强分类器hstrong(Xs)的Haar-like特征弱分类器个数,xi是权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征,hi(xi)是权值最高的前K个Haar-like特征弱分类器,wi为hi(xi)对应的权重值,i=1,2,…,K。
7.根据权利要求1所述的基于逻辑回归的视觉跟踪方法,其中步骤(10)中的每一个候选样本能成为目标的概率p,采用如下公式计算:
p=hstrong(Xc)
其中Xc=(x1,x2,…,xi,…,xK)T是每个候选样本对应步骤(7)中权值最高的前K个Haar-like特征弱分类器的Haar-like特征组成的特征向量,上标T表示取向量转置,K是组成强分类器hstrong(Xs)的Haar-like特征弱分类器个数,xi是每个候选样本对应步骤(7)中权值最高的前K个Haar-like特征弱分类器对应的Haar-like特征,i=1,2,…,K。
CN201610364295.XA 2016-05-27 2016-05-27 基于逻辑回归的视觉跟踪方法 Active CN106056146B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610364295.XA CN106056146B (zh) 2016-05-27 2016-05-27 基于逻辑回归的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610364295.XA CN106056146B (zh) 2016-05-27 2016-05-27 基于逻辑回归的视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN106056146A CN106056146A (zh) 2016-10-26
CN106056146B true CN106056146B (zh) 2019-03-26

Family

ID=57174966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610364295.XA Active CN106056146B (zh) 2016-05-27 2016-05-27 基于逻辑回归的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN106056146B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778831B (zh) * 2016-11-28 2020-04-24 国家计算机网络与信息安全管理中心 基于高斯混合模型的刚体目标在线特征分类与跟踪方法
CN108268869B (zh) * 2018-02-13 2021-11-16 北京旷视科技有限公司 目标检测方法、装置及系统
CN108921872B (zh) * 2018-05-15 2022-02-01 南京理工大学 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN112016400B (zh) * 2020-08-04 2021-06-29 香港理工大学深圳研究院 一种基于深度学习的单类目标检测方法、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799875B (zh) * 2010-02-10 2011-11-30 华中科技大学 一种目标检测方法
CN104036284A (zh) * 2014-05-12 2014-09-10 沈阳航空航天大学 基于Adaboost算法的多尺度行人检测方法
CN105389583A (zh) * 2014-09-05 2016-03-09 华为技术有限公司 图像分类器的生成方法、图像分类方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799875B (zh) * 2010-02-10 2011-11-30 华中科技大学 一种目标检测方法
CN104036284A (zh) * 2014-05-12 2014-09-10 沈阳航空航天大学 基于Adaboost算法的多尺度行人检测方法
CN105389583A (zh) * 2014-09-05 2016-03-09 华为技术有限公司 图像分类器的生成方法、图像分类方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Semi-supervised On-Line Boosting for Robust Tracking;Helmut Grabner,et al.;《European Conference on Computer Vision 2008》;20081018;第5302卷;Pages 234-246

Also Published As

Publication number Publication date
CN106056146A (zh) 2016-10-26

Similar Documents

Publication Publication Date Title
Ramakrishna et al. Pose machines: Articulated pose estimation via inference machines
CN113269073B (zh) 一种基于yolo v5算法的船舶多目标追踪方法
CN111259930A (zh) 自适应注意力指导机制的一般性目标检测方法
JP5957629B1 (ja) 診療計画を導くための画像の構造形状を自動的に表示する方法及び装置
US11334766B2 (en) Noise-resistant object detection with noisy annotations
CN106056146B (zh) 基于逻辑回归的视觉跟踪方法
CN109583379A (zh) 一种基于随机擦除行人对齐网络的行人重识别方法
CN104616319B (zh) 基于支持向量机的多特征选择目标跟踪方法
CN103793926B (zh) 基于样本重选择的目标跟踪方法
CN110610210B (zh) 一种多目标检测方法
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
CN105976397B (zh) 一种目标跟踪方法
CN112949408B (zh) 一种过鱼通道目标鱼类实时识别方法和系统
CN106296734B (zh) 基于极限学习机和boosting多核学习的目标跟踪方法
CN110334594A (zh) 一种基于批再规范化处理的yolo算法的目标检测方法
Wang et al. Visual object tracking with multi-scale superpixels and color-feature guided kernelized correlation filters
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
CN108877947A (zh) 基于迭代均值聚类的深度样本学习方法
CN108230313B (zh) 基于部件自适应选择与判别模型的sar图像目标检测方法
Wang et al. A novel sparse boosting method for crater detection in the high resolution planetary image
CN110458022A (zh) 一种基于域适应的可自主学习目标检测方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN108496185A (zh) 用于对象检测的系统和方法
Wang et al. Weakly-and semi-supervised fast region-based CNN for object detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant