CN105469431A - 基于稀疏子空间的追踪方法 - Google Patents
基于稀疏子空间的追踪方法 Download PDFInfo
- Publication number
- CN105469431A CN105469431A CN201510962960.0A CN201510962960A CN105469431A CN 105469431 A CN105469431 A CN 105469431A CN 201510962960 A CN201510962960 A CN 201510962960A CN 105469431 A CN105469431 A CN 105469431A
- Authority
- CN
- China
- Prior art keywords
- target
- sparse subspace
- formula
- sparse
- lambda
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开了一种基于稀疏子空间的追踪方法,首先利用随机投影矩阵以及RPCA的方法对初始的若干帧图像进行学习并得到图像的低秩矩阵,从中提取出被跟踪目标所在的稀疏子空间,利用此方法得到的稀疏子空间特征具有复杂度低,鲁棒性高的特点。本发明相比传统的基于目标颜色、目标纹理或者目标模板的粒子滤波方法,基于本文的目标特征的算法具有所需的粒子数较少,实时性高、稳定性强的特点。
Description
技术领域
本发明涉及模式识别技术领域,具体涉及一种基于稀疏子空间的追踪方法。
背景技术
目标跟踪主要解决移动信号,以及随时间变化的物体定位与背景估计等课题,其广泛应用于视频监控,人机交互等领域。尽管近年来较为成功的跟踪算法发展起来并得到广泛的应用,该领域还是存在诸多挑战性的问题有待解决,诸如:目标对光流变化的敏感性较弱;目标与背景在外观上较高的相似性对追踪效果的弱化;当目标发生形态改变时,以及当目标在遭遇严重遮挡的情形下,跟踪算法鲁棒性较低;只能适应较低程度的遮挡。因此,提取目标在运动过程中相对于以上各种变化的稳定特征对于目标的检测与跟踪具有至关重要的作用。比较常见的特征有目标区域内的像素强度、颜色、纹理等,虽然这些目标特征能在一定程度上作为重要的跟踪元素,但由于缺乏鲁棒性,基于这些特征的跟踪算法并不能适应目标在运动中遭遇的各种严重的变化。
近几年有相当一部分关于目标跟踪与检测方面研究是以SIFT特征作为主要的提取因素,但SIFT存在以下几方面的缺点:由于需要构建图像金字塔,计算量通常会比较大;SIFT特征本质上是一种局部性特征,当被跟踪目标遭遇严重遮挡时,程序会因为缺少鲁棒性的特征而跟丢目标;当目标外观发生变化时,原有的SIFT会出现丢失。
基于子空间学习思想基础上的目标跟踪方法在最近的几年里成为研究的热点,比较有代表性的算法是利用低维主成分构成的子空间表示目标,并根据目标的变化不断的学习与更新子空间。但是,该方法主要有两点不足:通过矩阵的奇异值分解求得主成分分析的方法运算量大;在有遮挡的情况下,该方法不能稳定的跟踪目标。
发明内容
本发明的目的就在于为了解决上述问题而提供一种基于稀疏子空间的追踪方法,在一定程度上解决了传统目标跟踪算法对于目标的非刚性变化,目标的遮挡以及目标的快速移动等具有挑战性的目标跟踪难题,并且通过改进目标子空间的提取方法,提高了跟踪速度,保证了实时性。
本发明通过以下技术方案来实现上述目的:
一种基于稀疏子空间的追踪方法,包括以下步骤:
A1:目标的稀疏子空间的提取,对图像序列中的目标Xk=[I1,I2,...Ik]压缩采样得到Xck=[Ic1,Ic2,...Ick],利用鲁棒主成分分析RPCA从Xck中得到低秩矩阵Bk,从Bk提取稀疏子空间:
Mp=span{φ1,φ2,...φp};
A2:在U0=Mp中初始化粒子,粒子数Np人工设定,每个粒子的权重为1/Np。
A3:根据动态模型对粒子进行采样,即以Ut-1为中心,以概率分布P(st|st-1)=N(st;st-1,Ψt-1),其中st=(xt,yt,θt,pt,αt),
A4:输入经过压缩采样的下一时刻的目标yt,通过外观模型 计算出经过步骤A2采样后的粒子权重 式中,U取值为Ut-1;
A5:在具有最大权重的粒子处生成跟踪窗,则得到t时刻目标所在具体位置;
A6:利用公式判断稀疏子空间Ut-1是否需要更新;
A7:重新初始化粒子,并回到步骤A2中进入下一帧目标的跟踪。
进一步地,从Bk提取稀疏子空间的算法包括以下步骤:
输入:Bk
输出:Bk的稀疏子空间U0=Mp
B1:求解最大主成分φ1:
初始化φ1 (0),使得
通过下式迭代求解出φ1 (1),φ1 (2),...直到收敛:
B2:随机选出Mp-1=span{φ1,φ2,...φp-1}
令Φp-1=(φ1,φ2...φp-1),则a在Mp-1的正交补空间下的投影为
B3:将a⊥代入公式(2),并结合公式(3)可求解出φp,其中(2)式为
φp=a⊥+t1φ1+t2φ2+...+tp-1φp-1,
(3)式为
(3)式中这里φp·φi表示φp与φi的内积;
B4:返回步骤B2并求出其它高阶主成分;
通过步骤B1至B4求得的Mp即为U0。
进一步地,Xk=[I1,I2,...Ik]表示从第1帧到第k帧跟踪窗所构成的图像序列,Xck=[Ic1,Ic2,...Ick]表示随机投影矩阵对Xk压缩处理后得到的图像序列。
进一步地,得到低秩矩阵Bk的具体公式为:
s.t.Xck=Bk+Ek
其中||Bk||*为核范数,即Bk奇异值的和。
进一步地,Mp=span{φ1,φ2,...φp}表示Bk中的前p个主成分φ1,φ2,...φp张成的稀疏子空间。
进一步地,N(st;st-1,Ψt-1)表示st服从均值为st-1,方差为Ψt-1的高斯分布。
进一步地,yt表示t时刻经过压缩后的跟踪窗。
本发明的有益效果在于:
本发明首先利用随机投影矩阵以及RPCA的方法对初始的若干帧图像进行学习并得到图像的低秩矩阵,从中提取出被跟踪目标所在的稀疏子空间,利用此方法得到的稀疏子空间特征具有复杂度低,鲁棒性高的特点,因此相比传统的基于目标颜色、目标纹理或者目标模板的粒子滤波方法,基于本文的目标特征的算法具有所需的粒子数较少,实时性高、稳定性强的特点。
附图说明
图1是本发明中实施例1的跟踪曲线效果图;
图2是本发明中实施例2的跟踪曲线效果图;
图3是本发明中实施例3的跟踪曲线效果图。
具体实施方式
下面结合附图对本发明作进一步说明:
本发明包括以下步骤:
A1:目标的稀疏子空间的提取,对图像序列中的目标Xk=[I1,I2,...Ik]压缩采样得到Xck=[Ic1,Ic2,...Ick],利用鲁棒主成分分析RPCA从Xck中得到低秩矩阵Bk,从Bk提取稀疏子空间:
Mp=span{φ1,φ2,...φp};
A2:在U0=Mp中初始化粒子,粒子数Np人工设定,每个粒子的权重为1/Np。
A3:根据动态模型对粒子进行采样,即以Ut-1为中心,以概率分布P(st|st-1)=N(st;st-1,Ψt-1),其中st=(xt,yt,θt,pt,αt),
A4:输入经过压缩采样的下一时刻的目标yt,通过外观模型计算出经过步骤A2采样后的粒子权重式中,U取值为Ut-1;
A5:在具有最大权重的粒子处生成跟踪窗,则得到t时刻目标所在具体位置;
A6:利用公式判断稀疏子空间Ut-1是否需要更新;
A7:重新初始化粒子,并回到步骤A2中进入下一帧目标的跟踪。
上述内容中从Bk提取稀疏子空间的算法包括以下步骤:
输入:Bk
输出:Bk的稀疏子空间U0=Mp
B1:求解最大主成分φ1:
初始化φ1 (0),使得
通过下式迭代求解出φ1 (1),φ1 (2),...直到收敛:
B2:随机选出Mp-1=span{φ1,φ2,...φp-1}
令Φp-1=(φ1,φ2...φp-1),则a在Mp-1的正交补空间下的投影为
B3:将a⊥代入公式(2),并结合公式(3)可求解出φp,其中(2)式为
φp=a⊥+t1φ1+t2φ2+...+tp-1φp-1,
(3)式为
(3)式中这里φp·φi表示φp与φi的内积;
B4:返回步骤B2并求出其它高阶主成分;
通过步骤B1至B4求得的Mp即为U0。
上述内容中,各个字符公式所代表的含义及部分字符的公式推敲过程如下:
Xk=[I1,I2,...Ik]表示从第1帧到第k帧跟踪窗所构成的图像序列;
Xck=[Ic1,Ic2,...Ick]表示随机投影矩阵对Xk压缩处理后得到的图像序列;
得到低秩矩阵Bk的具体公式为:
s.t.Xck=Bk+Ek
其中||Bk||*为核范数,即Bk奇异值的和;
Mp=span{φ1,φ2,...φp}表示Bk中的前p个主成分φ1,φ2,...φp张成的稀疏子空间;
N(st;st-1,Ψt-1)表示st服从均值为st-1,方差为Ψt-1的高斯分布。
yt表示t时刻经过压缩后的跟踪窗。
本发明首次提出利用压缩感知理论中的随机投影工具以及RPCA(鲁棒PCA)提取被跟踪目标所在的稀疏子空间,作为跟踪过程中的稳定特征。实验证明,本发明的特征提取算法具有较强的鲁棒性,同时保证了较高的实时性。
除了对被跟踪目标建立具有鲁棒性的表示模型,目标跟踪另外一个重要环节是如何对追踪过程建立合适的动态模型。本发明利用粒子滤波方法对跟踪过程进行建模,通过找出包含最大后验概率粒子的邻近图像块,得到下一时刻目标所在的位置。由于目标在移动的过程中其外观会发生改变,诸如遮挡、形变以及目标视角的变化等,因此对目标子空间的更新也是跟踪过程中的重要步骤。本专利利用前一时刻目标所在的子空间与当前时刻目标的距离范数度量二者之间的相似度,根据相似度对子空间进行更新。
本发明的实施例采用笔记本摄像头,运行系统为Matlab2013,Windows7,硬件配置为2.53GHz,视频图像为AVI格式,本文将其转变成像素大小为320×240的jpg格式文件。为了说明其优良性能,我们将本发明的跟踪效果与IVT算法、Frag-basedTracker算法以及L1T算法相比较。
实施例1:
第1组测试视频源自网上某网址中的GirlTracking,我们选取了#310、#352、#384、#472共4帧图像测试了本发明(第1排)、IVT算法(第2排)、L1T算法(第3排)这三种算法对于目标外观发生变化时的鲁棒性:在#310帧中目标开始发生变化,此时IVT算法的跟踪窗开始发生漂移,L1T算法的跟踪窗已完全脱离目标,而本发明的跟踪窗依然能牢牢的锁定目标。在之后的若干帧中,IVT与L1T的跟踪窗已在目标以外的区域随意漂移,不能重新捕捉到目标。
实施例2:
第2组测试视频源自某网址中的Singer1Tracking,主要是考察跟踪算法对于尺度变化以及光照变化的免疫程度,我们选取了#50、#117、#217、#314帧对比了本发明(第1排)、IVT算法(第2排)、Frag-basedTracker算法(第3排)。从图3看出,在#117帧中由于光流的变化,Frag-basedTracker跟踪窗出现了严重的漂移;在#217中光照恢复后,虽然跟踪窗有所回归,但由于尺度与外观的变化,跟踪效果已经很不理想。相比较而言,本发明与IVT算法对于光照以及尺度变化的敏感性则要低得多。
实施例3:
第3组测试视频源自某网址中的DeerTracking,该视频主要考察跟踪算法对于目标在快速移动的情形下的稳定性。我们选取了#6、#20、#31、#55帧对比了本发明(第1排)、IVT算法(第2排)、L1T算法(第3排)。明显可以看出:由于目标快速且大幅度的跳跃,在#6帧时L1T跟踪窗就已出现了较严重的漂移,并且未能成功的回归到目标。尽管在#24帧之前,IVT跟踪窗都能稳定的覆盖被跟踪目标,但是到了#26帧时,跟踪窗随着目标快速的运动开始脱离目标,到#46帧时偏移程度达到最大。从几个有代表性的图像帧可以看出,本发明的跟踪窗都能牢牢的锁定被跟踪目标,因此相比较而言,本发明对于快速移动的目标的鲁棒性强于IVT算法与L1T算法。
实验参数与结果分析
由于IVT算法、L1T算法以及本发明都是利用粒子滤波思想建立跟踪模型,为了能较公平地比较三种算法的性能,我们将初始状态的粒子数设为相同的值,同时为了保证实时性,对于运动以及变化较快的目标,粒子数初始值较为稀少。例如:对于第1组测试视频,我们将粒子数设定为Np=480左右;第2组测试视频中目标本身并没有发生太大的改变,因此将粒子数设为Np=400左右;而在第3组测试视频中,由于目标呈现出跳跃式的刚性变化,粒子退化的现象较为严重,因此我们将粒子数设为Np=440左右。此外,为了进一步提高跟踪的实时性,本算法将目标动态模型中的跟踪窗旋转角度设为θt=0;由于在第3组视频中,尺度变化不明显,因此我们将跟踪窗的尺度参数设为常数1。
利用Matlab2013中的坐标图绘制功能,图1、图2和图3分别展示了以上三组测试视频的跟踪效果图。其中,图1与图3的实线为本发明的跟踪窗中心与目标中心的误差曲线,点线为IVT算法的跟踪误差曲线,虚线为L1T算法的跟踪误差曲线;图2中的实线为本发明误差曲线,点线为IVT算法误差曲线,虚线为Frag-basedTracker算法误差曲线。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围内。
Claims (7)
1.一种基于稀疏子空间的追踪方法,其特征在于,包括以下步骤:
A1:目标的稀疏子空间的提取,对图像序列中的目标Xk=[I1,I2,...Ik]压缩采样得到Xck=[Ic1,Ic2,...Ick],利用鲁棒主成分分析RPCA从Xck中得到低秩矩阵Bk,从Bk提取稀疏子空间:
Mp=span{φ1,φ2,...φp};
A2:在U0=Mp中初始化粒子,粒子数Np人工设定,每个粒子的权重为1/Np。
A3:根据动态模型对粒子进行采样,即以Ut-1为中心,以概率分布P(st|st-1)=N(st;st-1,Ψt-1),其中st=(xt,yt,θt,pt,αt),
A4:输入经过压缩采样的下一时刻的目标yt,通过外观模型计算出经过步骤A2采样后的粒子权重式中,U取值为Ut-1;
A5:在具有最大权重的粒子处生成跟踪窗,则得到t时刻目标所在具体位置;
A6:利用公式判断稀疏子空间Ut-1是否需要更新;
A7:重新初始化粒子,并回到步骤A2中进入下一帧目标的跟踪。
2.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于,从Bk提取稀疏子空间的算法包括以下步骤:
输入:Bk
输出:Bk的稀疏子空间U0=Mp
B1:求解最大主成分φ1:
初始化φ1 (0),使得
通过下式迭代求解出φ1 (1),φ1 (2),...直到收敛:
B2:随机选出Mp-1=span{φ1,φ2,...φp-1}
令Φp-1=(φ1,φ2...φp-1),则a在Mp-1的正交补空间下的投影为
B3:将a⊥代入公式(2),并结合公式(3)可求解出φp,其中(2)式为
φp=a⊥+t1φ1+t2φ2+...+tp-1φp-1,
(3)式为
(3)式中这里φp·φi表示φp与φi的内积;
B4:返回步骤B2并求出其它高阶主成分;
通过步骤B1至B4求得的Mp即为U0。
3.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于:Xk=[I1,I2,...Ik]表示从第1帧到第k帧跟踪窗所构成的图像序列,Xck=[Ic1,Ic2,...Ick]表示随机投影矩阵对Xk压缩处理后得到的图像序列。
4.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于,得到低秩矩阵Bk的具体公式为:
s.t.Xck=Bk+Ek
其中||Bk||*为核范数,即Bk奇异值的和。
5.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于:Mp=span{φ1,φ2,...φp}表示Bk中的前p个主成分φ1,φ2,...φp张成的稀疏子空间。
6.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于:N(st;st-1,Ψt-1)表示st服从均值为st-1,方差为Ψt-1的高斯分布。
7.根据权利要求1所述的基于稀疏子空间的追踪方法,其特征在于:yt表示t时刻经过压缩后的跟踪窗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510962960.0A CN105469431A (zh) | 2015-12-21 | 2015-12-21 | 基于稀疏子空间的追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510962960.0A CN105469431A (zh) | 2015-12-21 | 2015-12-21 | 基于稀疏子空间的追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105469431A true CN105469431A (zh) | 2016-04-06 |
Family
ID=55607090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510962960.0A Pending CN105469431A (zh) | 2015-12-21 | 2015-12-21 | 基于稀疏子空间的追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469431A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296740A (zh) * | 2016-08-11 | 2017-01-04 | 电子科技大学 | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 |
CN106682582A (zh) * | 2016-11-30 | 2017-05-17 | 吴怀宇 | 一种基于压缩感知外观模型的人脸跟踪方法及系统 |
CN106709938A (zh) * | 2016-11-18 | 2017-05-24 | 电子科技大学 | 基于改进tld的多目标追踪方法 |
CN106845519A (zh) * | 2016-12-20 | 2017-06-13 | 南京信息工程大学 | 一种分布式实现的稀疏子空间聚类方法 |
CN107330912A (zh) * | 2017-05-10 | 2017-11-07 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN109946663A (zh) * | 2018-12-29 | 2019-06-28 | 北京邮电大学 | 一种线性复杂度的Massive MIMO目标空间方位估计方法和装置 |
CN112560738A (zh) * | 2020-12-22 | 2021-03-26 | 声耕智能科技(西安)研究院有限公司 | 一种基于随机投影技术的快速广义子空间追踪算法 |
CN113409804A (zh) * | 2020-12-22 | 2021-09-17 | 声耕智能科技(西安)研究院有限公司 | 一种基于变张成广义子空间的多通道频域语音增强算法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102005056A (zh) * | 2010-12-03 | 2011-04-06 | 上海交通大学 | 基于鲁棒pca子空间的目标跟踪方法 |
CN103310463A (zh) * | 2013-06-18 | 2013-09-18 | 西北工业大学 | 基于概率主成分分析和压缩感知的在线目标跟踪方法 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN103886625A (zh) * | 2014-01-09 | 2014-06-25 | 北京工业大学 | 一种基于压缩感知的点云数据稀疏表示方法 |
CN104361609A (zh) * | 2014-11-18 | 2015-02-18 | 电子科技大学 | 一种基于稀疏表示的目标跟踪方法 |
CN104376581A (zh) * | 2014-12-02 | 2015-02-25 | 北京航空航天大学 | 一种采用自适应重采样的高斯混合无迹粒子滤波算法 |
-
2015
- 2015-12-21 CN CN201510962960.0A patent/CN105469431A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102005056A (zh) * | 2010-12-03 | 2011-04-06 | 上海交通大学 | 基于鲁棒pca子空间的目标跟踪方法 |
CN103310463A (zh) * | 2013-06-18 | 2013-09-18 | 西北工业大学 | 基于概率主成分分析和压缩感知的在线目标跟踪方法 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN103886625A (zh) * | 2014-01-09 | 2014-06-25 | 北京工业大学 | 一种基于压缩感知的点云数据稀疏表示方法 |
CN104361609A (zh) * | 2014-11-18 | 2015-02-18 | 电子科技大学 | 一种基于稀疏表示的目标跟踪方法 |
CN104376581A (zh) * | 2014-12-02 | 2015-02-25 | 北京航空航天大学 | 一种采用自适应重采样的高斯混合无迹粒子滤波算法 |
Non-Patent Citations (3)
Title |
---|
FENG CHEN ET AL.: "Object tracking via appearance modeling and sparse representation", 《IMAGE AND VISION COMPUTING》 * |
XIN QI ET AL.: "Sparse principal component analysis by choice of norm", 《JOURNAL OF MULTIVARIATE ANALYSIS》 * |
王法胜 等: "粒子滤波算法", 《计算机学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296740A (zh) * | 2016-08-11 | 2017-01-04 | 电子科技大学 | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 |
CN106296740B (zh) * | 2016-08-11 | 2019-05-14 | 电子科技大学 | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 |
CN106709938A (zh) * | 2016-11-18 | 2017-05-24 | 电子科技大学 | 基于改进tld的多目标追踪方法 |
CN106709938B (zh) * | 2016-11-18 | 2019-10-18 | 电子科技大学 | 基于改进tld的多目标追踪方法 |
CN106682582A (zh) * | 2016-11-30 | 2017-05-17 | 吴怀宇 | 一种基于压缩感知外观模型的人脸跟踪方法及系统 |
CN106845519A (zh) * | 2016-12-20 | 2017-06-13 | 南京信息工程大学 | 一种分布式实现的稀疏子空间聚类方法 |
CN107330912A (zh) * | 2017-05-10 | 2017-11-07 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN107330912B (zh) * | 2017-05-10 | 2021-06-11 | 南京邮电大学 | 一种基于多特征融合的稀疏表示的目标追踪方法 |
CN109946663A (zh) * | 2018-12-29 | 2019-06-28 | 北京邮电大学 | 一种线性复杂度的Massive MIMO目标空间方位估计方法和装置 |
CN109946663B (zh) * | 2018-12-29 | 2021-10-15 | 北京邮电大学 | 一种线性复杂度的Massive MIMO目标空间方位估计方法和装置 |
CN112560738A (zh) * | 2020-12-22 | 2021-03-26 | 声耕智能科技(西安)研究院有限公司 | 一种基于随机投影技术的快速广义子空间追踪算法 |
CN113409804A (zh) * | 2020-12-22 | 2021-09-17 | 声耕智能科技(西安)研究院有限公司 | 一种基于变张成广义子空间的多通道频域语音增强算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105469431A (zh) | 基于稀疏子空间的追踪方法 | |
Cheng et al. | Improving the learning of multi-column convolutional neural network for crowd counting | |
WO2018107979A1 (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
Guo et al. | Multiview cauchy estimator feature embedding for depth and inertial sensor-based human action recognition | |
CN105701483B (zh) | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 | |
Ji et al. | Learning contrastive feature distribution model for interaction recognition | |
Tang et al. | Online human action recognition based on incremental learning of weighted covariance descriptors | |
CN104268520A (zh) | 一种基于深度运动轨迹的人体动作识别方法 | |
Tan et al. | A multiple object tracking algorithm based on YOLO detection | |
Murthy et al. | Real time pedestrian detection using robust enhanced YOLOv3+ | |
Huang et al. | Extracting refined low-rank features of robust PCA for human action recognition | |
Ding et al. | Machine learning model for feature recognition of sports competition based on improved TLD algorithm | |
Tang et al. | Using a selective ensemble support vector machine to fuse multimodal features for human action recognition | |
Qi et al. | Object tracking based on deep CNN feature and color feature | |
Min et al. | Inpainting of sparse occlusion in face recognition | |
Spruyt et al. | Real-time, long-term hand tracking with unsupervised initialization | |
Liu et al. | Human activities recognition based on skeleton information via sparse representation | |
CN103218611B (zh) | 基于分布式协同学习的人体运动跟踪方法 | |
Hu et al. | Anomaly detection in crowded scenes via sa-mhof and sparse combination | |
Tang et al. | A scale-adaptive particle filter tracking algorithm based on offline trained multi-domain deep network | |
Yu et al. | Research on video face detection based on AdaBoost algorithm training classifier | |
CN107358200A (zh) | 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法 | |
Mei et al. | Measuring crowd collectiveness via global motion correlation | |
He et al. | Latent variable pictorial structure for human pose estimation on depth images | |
Lin et al. | One-shot learning gesture recognition based on improved 3D SMoSIFT feature descriptor from RGB-D videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination |