CN107784664A - 一种基于k稀疏的快速鲁棒目标跟踪方法 - Google Patents

一种基于k稀疏的快速鲁棒目标跟踪方法 Download PDF

Info

Publication number
CN107784664A
CN107784664A CN201711267326.0A CN201711267326A CN107784664A CN 107784664 A CN107784664 A CN 107784664A CN 201711267326 A CN201711267326 A CN 201711267326A CN 107784664 A CN107784664 A CN 107784664A
Authority
CN
China
Prior art keywords
sparse
image
matrix
target
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711267326.0A
Other languages
English (en)
Other versions
CN107784664B (zh
Inventor
杨森泉
周永明
陈景华
陈锦儒
文昊翔
罗欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaoguan University
Original Assignee
Shaoguan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaoguan University filed Critical Shaoguan University
Priority to CN201711267326.0A priority Critical patent/CN107784664B/zh
Publication of CN107784664A publication Critical patent/CN107784664A/zh
Application granted granted Critical
Publication of CN107784664B publication Critical patent/CN107784664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于K稀疏的快速鲁棒目标跟踪方法,通过利用正负模板字典求得稀疏矩阵,并利用稀疏矩阵即K稀疏来求解正负模板字典l1最优化问题,实现在稀疏度比较小且信噪比相同的情况下,求解稀疏系数的速度为LASSO算法的十倍以上;并且,通过将当前帧图像分割成多个图像样本,并以正则化后的正模板矩阵和负模板矩阵为基础而计算重构误差,利用重构判别误差参数和通过比较直方图获得的样本而实现对当前帧图像中的目标跟踪,由此也提高了目标跟踪的准确率,能够得到更加精确的跟踪结果,并提高跟踪的实时性。

Description

一种基于K稀疏的快速鲁棒目标跟踪方法
技术领域
本发明属于视频图像处理技术领域,特别是涉及一种基于K稀疏的快速鲁棒目标跟踪方法。
背景技术
目标跟踪是对视频或图像序列中的目标状态进行估计的一种方法,在许多机器视觉的应用领域,比如运动分析、行为检测、视频监控、交通监控、医学图像处理等方面起着非常重要的作用。尽管近几十年来目标跟踪技术取得了很大的进展,但是对一些由于亮度变化、相机抖动、目标遮挡、目标形状位置变化等复杂动态场景下,如何提供一个鲁棒性强而且速度快的目标跟踪方法,仍然是计算机视觉领域面临的巨大挑战。
目前,对于目标视觉跟踪来说,主要有两种跟踪模型——形态模型和运动模型。其中,形态模型是用来表示目标对象,并预测和验证目标对象在每一帧的位置;而对于有效的形态模型,其使用颜色和纹理等特征实现目标位置的估计。而运动模型主要是用来预测目标对象可能的位置,其常用卡尔曼滤波器和粒子滤波器实现目标位置的估计。
目前,常见的目标跟踪方法主要有两大类:基于生成式的方法和基于分类式的方法。其中,基于生成式的方法主要是用来在领域中寻找与目标最相似的区域,这种方法对场景变化以及目标遮挡时十分有效。而基于分类式的方法主要是设计一个分类器,把目标区域和背景区域分成两类来实现目标跟踪。而现有文献《Robust object tracking viasparse collaborative model》IEEE,2012,公开了一种稀疏协作型鲁棒目标跟踪方法,很好地把基于生成式的方法和基于分类式的方法综合起来。但是,由于该稀疏协作型鲁棒目标跟踪方法在求稀疏系数时,用LASSO来求解l1优化问题,而LASSO求解过程中计算量大,满足不了目标跟踪的实时性要求。
发明内容
为解决上述现有技术的缺点和不足,本发明提供了一种基于K稀疏的快速鲁棒目标跟踪方法,利用正负模板字典求得稀疏矩阵,并利用稀疏矩阵即K稀疏来求解正负模板字典l1最优化问题,实现在稀疏度比较小且信噪比相同的情况下,求解稀疏系数的速度为LASSO算法的十倍以上;并且,通过将当前帧图像分割成多个图像样本,并以正则化后的正模板矩阵和负模板矩阵为基础而计算重构误差,利用重构判别误差参数和通过比较直方图获得的样本而实现对当前帧图像中的目标跟踪,由此也提高了目标跟踪的准确率,能够得到更加精确的跟踪结果,并提高跟踪的实时性。
一种基于K稀疏的快速鲁棒目标跟踪方法,包括以下步骤:
S1:获取首帧图像和当前帧图像,并获取首帧图像的首帧目标区域;
S2:根据首帧图像和首帧目标区域建立正负模板字典A,并根据所述首帧目标区域生成冗余字典D;其中,所述正负模板字典A由正模板矩阵A+和负模板矩阵A-组成;
S3:根据正负模板字典A计算得到稀疏矩阵S,并通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A';其中,正负模板字典A'由l1最优化后的正模板矩阵A'+和l1最优化后的负模板矩阵A'-组成;
S4:从当前帧图像中提取多个图像样本,得到候选图像样本序列X;并通过稀疏矩阵s对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X';
S5:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,得到正模板重构误差εf和负模板重构误差εb;并根据正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc
S6:对候选图像样本序列X'进行重叠滑动窗口采样,得到包含多个窗口候选图像,并分别将每一窗口候选图像归一化为相应的一候选图像向量yi;再通过冗余字典D对每一候选图像向量yi进行l1最优化处理,生成候选图像直方图
对所述首帧目标区域进行重叠滑动窗口采样,得到包含多个窗口目标图像,并分别将每一窗口目标图像归一化为相应的一目标图像向量zi;再通过冗余字典D对所述目标图像向量zi进行l1最优化处理,生成目标图像直方图ψ;
S7:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0,并根据所有候选图像向量的重构误差ε0生成候选图像直方图的候选图像稀疏直方图
根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0,并根据所有目标图像向量的重构误差ε'0生成候选图像直方图ψ的目标图像稀疏直方图ψ';
S8:根据所述候选图像稀疏直方图和目标图像稀疏直方图ψ',计算得到一候选图像稀疏直方图和目标图像稀疏直方图相差最小的样本Lc
S9:根据所有重构误差判别参数Hc和样本Lc获得当前帧图像的目标跟踪结果。
相对于现有技术,本发明通过利用正负模板字典求得稀疏矩阵,并利用稀疏矩阵即K稀疏来求解正负模板字典l1最优化问题,实现在稀疏度比较小且信噪比相同的情况下,求解稀疏系数的速度为LASSO算法的十倍以上;并且,通过将当前帧图像分割成多个图像样本,并以正则化后的正模板矩阵和负模板矩阵为基础而计算重构误差,利用重构判别误差参数和通过比较直方图获得的样本而实现对当前帧图像中的目标跟踪,由此也提高了目标跟踪的准确率,能够得到更加精确的跟踪结果,并提高跟踪的实时性。
进一步,所述步骤S2中,所述正负模板字典A的建立包括以下步骤:
S211:以首帧目标区域为中心随机抽取50个16×16像素的目标图像块,将各目标图像块转换成相应的目标区域向量,并将所有目标区域向量组合形成50×1024的正模板矩阵A+
S212:于首帧目标区域的周围随机抽取200个16×16像素的背景图像块,将各背景图像块转换成相应的背景区域向量,并将所有背景区域向量组合形成200×1024的负模板矩阵A-
S213:合并正模板矩阵A+和负模板矩阵A-,得到250×1024的正负模板字典A。
通过上述步骤S211~S213,为目标跟踪提供判别字典A,进一步降低目标跟踪处理的难度和算法的复杂度,能进一步提高目标跟踪结果的精确度和目标跟踪的实时性。
进一步,所述步骤S2中,通过对首帧目标区域进行K均值聚类,得到36×50的冗余字典D。
进一步,所述步骤S3中,通过K稀疏算法求解正负模板字典A的l1最优解,得到稀疏矩阵S,具体包括以下步骤:
S31:将求正负模板字典A的广义逆转化成求方阵的逆,即
S32:根据求得正负模板字典A的广义逆向量,从广义逆向量中获取K个绝对值最大的数值所在的列序号,并将K个列序号组成一非零稀疏系数位置集合I;
S33:根据非零稀疏系数位置集合I,及通过最小二乘法求得由K个非零值的系数稀疏组成的非零稀疏系数值集合s1,即其中,A为正负模板字典,p为模板系数且取值为+1或-1;当正负模板字典A的取值为正模板矩阵A+时,p的取值为+1;当正负模板字典A的取值为负模板矩阵A-时,p的取值为-1;
S34:根据非零稀疏系数位置集合I和非零稀疏系数值集合s1还原得到稀疏向量s;
S35:构建一个稀疏对角矩阵,并利用稀疏向量s生成稀疏矩阵S,其中,稀疏矩阵S中的Sii满足:
相对于现有技术利用LASSO算法对公式求解s1这一方式,本案通过上述步骤S31~S35,利用K稀疏来求解l1优化问题,巧妙地把求字典的广义逆转换成求方阵的逆,先计算字典与输入信号的内积,找出K个内积最大的值,再将这些值对应字典的列序号构成一个集合,以集合中K列字典作为基,用最小二乘法求解出稀疏系数;实现在稀疏度比较小且信噪比相同的情况下,求解稀疏系数的速度为LASSO算法的十倍以上。
进一步,所述步骤S3中,通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A',A'=S×A。此处有利于进一步简化了对正负模板字典A进行l1最优化处理的方法,有利于降低算法复杂度;并实现对正负模板字典进行特性选择,选择出特征性强的模板字典A',更加有利于后续的目标跟踪分析。
进一步,K的取值为8。通过限定K的值,有利于保证跟踪效果较好的同时降低算法冗余度。
进一步,所述步骤S4中,通过粒子滤波器从当前帧图像中提取得到多个图像样本,并将多个图像样本依序排列组成所述候选图像样本序列X;以及,稀疏矩阵S对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X',具体包括以下步骤:
步骤S41:通过稀疏矩阵S依次对候选图像样本序列X中的每一图像样本x进行正则化处理,得到正则化后的每一图像样本x';其中,正则化后的每一图像样本x'=S×x;
步骤S42:将正则化后的所有图像样本依序排列组成正则化后的候选图像样本序列X'。
通过步骤S41~S42,实现对候选图像样本序列X进行特性选择,选择出特征性强的候选图像样本序列X',更加有利于后续的目标跟踪分析。
进一步,所述步骤S5具体包括以下步骤:
S51:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,正模板重构误差负模板重构误差其中,A'+为l1最优化后的正模板矩阵,A'-为l1最优化后的负模板矩阵,α为稀疏矩阵,
S52:根据候选图像样本序列X'的正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc其中,σ=0.001,重构误差判别参数Hc中的c表示候选图像样本序列X'中的第c个图像样本,为候选图像样本序列X'中的第c个图像样本的负模板重构误差,为候选图像样本序列X'中的第c个图像样本的正模板重构误差;
且/或,所述步骤S6具体包括以下步骤:
S61:通过一个6×6单位的窗口对候选图像样本序列X'进行重叠滑动窗口采样,得到M个窗口候选图像;
S62:分别将每一窗口候选图像归一化为50×1的候选图像向量yi,候选图像向量yi的总数与窗口候选图像的总数相同,都为M;
S63:通过冗余字典D对每一候选图像向量yi进行l1最优化处理,得到每一候选图像向量yi的稀疏矩阵βi;得到的稀疏矩阵βi共有M个,每一稀疏矩阵βi为50×1的矩阵,
S64:将所有稀疏矩阵βi依序排列,生成候选图像直方图
S65:通过一个6×6单位的窗口对首帧目标区域进行重叠滑动窗口采样,得到M个窗口目标图像;
S66:分别将每一窗口目标图像归一化为50×1的目标图像向量zi,目标图像向量zi的总数与窗口目标图像的总数相同,都为M;
S67:通过冗余字典D对每一目标图像向量zi进行l1最优化处理,得到每一目标图像向量zi的稀疏矩阵γi;得到的稀疏矩阵γi共有M个,每一稀疏矩阵γi为50×1的矩阵,
S68:将所有稀疏矩阵γi依序排列,生成目标图像直方图ψ;以及,所述步骤S7具体包括以下步骤:
S71:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0
S72:根据步骤S71中计算得到的所有重构误差,选取出重构误差的值大于0.05的候选图像向量;
S73:将候选图像直方图中对应于由步骤S72中选取得到的候选图像向量的稀疏矩阵置零,生成候选图像稀疏直方图
S74:根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0
S75:根据步骤S74中计算得到的所有重构误差,选取出重构误差的值大于0.05的目标图像向量;
S76:将目标图像直方图ψ中对应于由步骤S75中选取得到的目标图像向量的稀疏矩阵置零,生成目标图像稀疏直方图ψ',ψ'=[γ12,…,γM];
且/或,所述步骤S8中,样本其中,为第c个候选图像块的候选图像稀疏直方图,1≤c≤50×M,ψ'为目标图像稀疏直方图,M为所述步骤S6中通过对候选图像样本序列X'进行重叠滑动窗口采样后得到窗口候选图像的总数;
且/或,所述步骤S9中,当前帧图像的目标跟踪结果的获得具体包括以下步骤:
S91:根据所有重构误差判别参数Hc和样本Lc,分别计算得到候选图像样本序列X'中每一图像样本的相似值=Hc×Lc
S92:根据由步骤S91求得的所有相似值获得候选图像样本序列X'中每一图像样本的最大后验概率,最大后验概率
S93:获取候选图像样本序列X'中最大后验概率的值最大的一图像样本,该图像样本即为所述目标跟踪结果。
通过所述步骤S7中生成的候选图像稀疏直方图和目标图像稀疏直方图,有效地消除了遮挡物对跟踪效果的影响,为后续目标跟踪处理提供更加准确的依据,进一步提高目标跟踪的准确性。
进一步,本发明基于K稀疏的快速鲁棒目标跟踪方法还包括以下步骤:
S10:判断当前帧图像的帧数是否为N的整数倍,是则执行步骤S11,否则执行步骤S12;
S11:通过步骤S2,根据当前帧图像和所述步骤S9中获得的目标跟踪结果建立新的正模板矩阵,并根据新的正模板矩阵更新正负模板字典;同时根据所述目标跟踪结果生成新的冗余字典,并对新的正负模板字典进行l1最优化处理,得到新的稀疏矩阵;然后执行步骤S12;
S12:获取下一帧图像,并返回步骤S4,根据所述步骤S4~S9获得所述下一帧图像的目标跟踪结果。
通过所述步骤S10~S12,在实现目标跟踪的过程中按照一定的规律去更新作为判别基础的正负模板字典和冗余字典,从而有利于保证判别基础的适用性和准确性,更利于对后续图像中的目标跟踪进行分析处理,能得到更加准确的跟踪结果。
进一步,N的取值为5。通过实验得到,以当前图像帧数是否为5的倍数为更新频率去更新正负模板字典和冗余字典是最优的选择,避免更新频率过高而造成需要处理的数据较多,也避免更新频率过低而导致跟踪结果准确度降低的现象发生。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明实施例1中基于K稀疏的快速鲁棒目标跟踪方法的方法流程图;
图2为本发明实施例2中基于K稀疏的快速鲁棒目标跟踪方法的方法流程图。
具体实施方式
实施例1
请参阅图1,本发明提供了一种基于K稀疏的快速鲁棒目标跟踪方法,包括以下步骤:
S1:获取首帧图像和当前帧图像,并获取首帧图像的首帧目标区域。
在所述步骤S1中,是通过外部摄像设备或存储设备将首帧图像和本帧图像输入到相关的处理设备中,实现处理设备能够获取连续的首帧图像和本帧图像;且,获取的首帧目标区域实质上是获取首帧图像中需要跟踪的目标在首帧图像中所占据的区域的位置参数,而该位置参数是通过对处理器输入而实现获取的。
S2:根据首帧图像和首帧目标区域建立正负模板字典A,并根据所述首帧目标区域生成冗余字典D;其中,所述正负模板字典A由正模板矩阵A+和负模板矩阵A-组成。
本实施例中,所述正负模板字典A的建立包括以下步骤:
S211:以首帧目标区域为中心随机抽取50个16×16像素的目标图像块,将各目标图像块转换成相应的目标区域向量,并将所有目标区域向量组合形成50×1024的正模板矩阵A+;其中,50×1024表示的是50行×1024列;
S212:于首帧目标区域的周围随机抽取200个16×16像素的背景图像块,将各背景图像块转换成相应的背景区域向量,并将所有背景区域向量组合形成200×1024的负模板矩阵A-;其中,200×1024表示的是200行×1024列;
S213:合并正模板矩阵A+和负模板矩阵A-,得到250×1024的正负模板字典A;其中,250×1024表示的是250行×1024列;
以及,所述步骤S2中,是通过对首帧目标区域进行K均值聚类,得到36×50的冗余字典D;其中,36×50表示的是36行×50列。
S3:根据正负模板字典A计算得到稀疏矩阵S,并通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A';其中,正负模板字典A'由l1最优化后的正模板矩阵A'+和l1最优化后的负模板矩阵A'-组成。
在该步骤S3中,是通过K稀疏算法求解正负模板字典A的l1最优解,得到稀疏矩阵S,具体包括以下步骤:
S31:将求正负模板字典A的广义逆转化成求方阵的逆,即
S32:根据求得正负模板字典A的广义逆向量,从广义逆向量中获取K个绝对值最大的数值所在的列序号,并将K个列序号组成一非零稀疏系数位置集合I;
S33:根据非零稀疏系数位置集合I,及通过最小二乘法求得由K个非零值的系数稀疏组成的非零稀疏系数值集合s1,即其中,A为正负模板字典,p为模板系数且取值为+1或-1;当正负模板字典A的取值为正模板矩阵A+时,p的取值为+1;当正负模板字典A的取值为负模板矩阵A-时,p的取值为-1;因此,可以理解为:p是由50个+1和250个-1组成的一个向量,分别对应着正模板矩阵A+和负模板矩阵A-
S34:根据非零稀疏系数位置集合I和非零稀疏系数值集合s1还原得到稀疏向量s;
S35:构建一个稀疏对角矩阵,并利用稀疏向量s生成稀疏矩阵S,其中,稀疏矩阵S中的Sii满足:其中,所述稀疏矩阵S为一个250×250的稀疏对角方阵,Sii为稀疏稀阵S第i行第i列上的数值;si为稀疏向量s的第i个系数;
以及,通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A',A'=S×A。
S4:从当前帧图像中提取多个图像样本,得到候选图像样本序列X;并通过稀疏矩阵s对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X'。
在该步骤S4中,通过粒子滤波器从当前帧图像中提取得到多个图像样本,并将多个图像样本依序排列组成所述候选图像样本序列X;以及,稀疏矩阵S对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X',具体包括以下步骤:
步骤S41:通过稀疏矩阵S依次对候选图像样本序列X中的每一图像样本x进行正则化处理,得到正则化后的每一图像样本x';其中,正则化后的每一图像样本x'=S×x;也即,如果稀疏矩阵S对应的稀疏向量s的第i个系数为零,则令每一图像样本x中的第i行的所有系数都置零;
步骤S42:将正则化后的所有图像样本依序排列组成正则化后的候选图像样本序列X'。。
S5:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,得到正模板重构误差εf和负模板重构误差εb;并根据正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc
在本实施例中,所述步骤S5具体包括以下步骤:
S51:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,正模板重构误差负模板重构误差其中,A'+为l1最优化后的正模板矩阵,A'-为l1最优化后的负模板矩阵,α为稀疏矩阵,其中,中的求解方法可以利用所述步骤S31~S35中的求解原理得到最终结果α;由此,相对于现有技术利用LASSO算法对公式求解α这一方式,稀疏度比较小且信噪比相同的情况下,本案通过步骤S31~S35中的原理求解稀疏矩阵的速度为LASSO算法的十倍以上;
S52:根据候选图像样本序列X'的正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc其中,σ=0.001,重构误差判别参数Hc中的c表示候选图像样本序列X'中的第c个图像样本,为候选图像样本序列X'中的第c个图像样本的负模板重构误差,为候选图像样本序列X'中的第c个图像样本的正模板重构误差。
S6:对候选图像样本序列X'进行重叠滑动窗口采样,得到包含多个窗口候选图像,并分别将每一窗口候选图像归一化为相应的一候选图像向量yi;再通过冗余字典D对每一候选图像向量yi进行l1最优化处理,生成候选图像直方图以及,对所述首帧目标区域进行重叠滑动窗口采样,得到包含多个窗口目标图像,并分别将每一窗口目标图像归一化为相应的一目标图像向量zi;再通过冗余字典D对所述目标图像向量zi进行l1最优化处理,生成目标图像直方图ψ。
本实施例中,所述步骤S6具体包括以下步骤:
S61:通过一个6×6单位的窗口对候选图像样本序列X'进行重叠滑动窗口采样,得到M个窗口候选图像;
S62:分别将每一窗口候选图像归一化为50×1的候选图像向量yi,候选图像向量yi的总数与窗口候选图像的总数相同,都为M;
S63:通过冗余字典D对每一候选图像向量yi进行l1最优化处理,得到每一候选图像向量yi的稀疏矩阵βi;得到的稀疏矩阵βi共有M个,每一稀疏矩阵βi为50×1的矩阵,
S64:将所有稀疏矩阵βi依序排列,生成候选图像直方图
S65:通过一个6×6单位的窗口对首帧目标区域进行重叠滑动窗口采样,得到M个窗口目标图像;
S66:分别将每一窗口目标图像归一化为50×1的目标图像向量zi,目标图像向量zi的总数与窗口目标图像的总数相同,都为M;
S67:通过冗余字典D对每一目标图像向量zi进行l1最优化处理,得到每一目标图像向量zi的稀疏矩阵γi;得到的稀疏矩阵γi共有M个,每一稀疏矩阵γi为50×1的矩阵,
S68:将所有稀疏矩阵γi依序排列,生成目标图像直方图ψ;
其中,所述步骤S61~S64和所述步骤S65~S68这两部分步骤不分先后顺序,可以是并行执行。
S7:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0,并根据所有候选图像向量的重构误差ε0生成候选图像直方图的候选图像稀疏直方图以及,根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0,并根据所有目标图像向量的重构误差ε'0生成候选图像直方图ψ的目标图像稀疏直方图ψ'。
在本实施例中,所述步骤S7具体包括以下步骤:
S71:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0
S72:根据步骤S71中计算得到的所有重构误差,选取出重构误差的值大于0.05的候选图像向量;
S73:将候选图像直方图中对应于由步骤S72中选取得到的候选图像向量的稀疏矩阵置零,生成候选图像稀疏直方图
S74:根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0
S75:根据步骤S74中计算得到的所有重构误差,选取出重构误差的值大于0.05的目标图像向量;
S76:将目标图像直方图ψ中对应于由步骤S75中选取得到的目标图像向量的稀疏矩阵置零,生成目标图像稀疏直方图ψ',ψ'=[γ12,…,γM];
其中,所述步骤S71~S73和所述步骤S74~S76这两部分步骤不分先后顺序,可以是并行执行。
S8:根据所述候选图像稀疏直方图和目标图像稀疏直方图ψ',计算得到一候选图像稀疏直方图和目标图像稀疏直方图相差最小的样本Lc
在该步骤S8中,样本其中,为第c个候选图像块的候选图像稀疏直方图,1≤c≤50×M,ψ'为目标图像稀疏直方图,M为所述步骤S6中通过对候选图像样本序列X'进行重叠滑动窗口采样后得到窗口候选图像的总数。
S9:根据所有重构误差判别参数Hc和样本Lc获得当前帧图像的目标跟踪结果。
所述步骤S9中,本帧图像的目标跟踪结果的获得具体包括以下步骤:
S91:根据所有重构误差判别参数Hc和样本Lc,分别计算得到候选图像样本序列X'中每一图像样本的相似值=Hc×Lc
S92:根据由步骤S91求得的所有相似值获得候选图像样本序列X'中每一图像样本的最大后验概率,最大后验概率
S93:获取候选图像样本序列X'中最大后验概率的值最大的一图像样本,该图像样本即为所述目标跟踪结果。
当需要获取下一帧图像的目标跟踪结果,通过输入下一帧图像,经过步骤S1~S9的处理即可得到相应的目标跟踪结果。
为保证跟踪效果较好的同时降低算法冗余度,优选地,本实施例中,K的取值为8。
为得到更精确的目标跟踪结果,本实施例中,优选地,所述步骤S7和S8中的M的取值为196。
另外,本发明还具有其它变形实施例,例如,通过另一种方法替代所述步骤S91~S93,为步骤S9提供另一种实现目标跟踪结果的获取的方法,也即,修改后的步骤S9中的本帧图像的目标跟踪结果的获得步骤为:
S91’:分别计算候选图像样本序列X”中每一图像样本的重构误差判别参数Hc和相应的样本Lc的商数;
S92’:从计算得到的所有商数中获取值最小的一个商数,并根据该最小值的商数得到相应的一图像样本,该图像样本即为所述目标跟踪结果。
实施例2
本实施例的基于K稀疏的快速鲁棒目标跟踪方法和实施例1中的基于K稀疏的快速鲁棒目标跟踪方法基本相同,其区别仅在于:本实施例在实施例1的基础上增加了步骤S10和S12,以实现目标跟踪的过程中按照一定的规律去更新作为判别基础的正负模板字典和冗余字典,从而保证判别基础的适用性和准确性,更利于对后续图像中的目标跟踪进行分析处理,能得到更加准确的跟踪结果。请参阅图2,本实施例2基于K稀疏的快速鲁棒目标跟踪方法相对于实施例1中的目标跟踪方法还包括以下步骤:
S10:判断当前帧图像的帧数是否为N的整数倍,是则执行步骤S11,否则执行步骤S12;
S11:通过步骤S2,根据当前帧图像和所述步骤S9中获得的目标跟踪结果建立新的正模板矩阵,并根据新的正模板矩阵更新正负模板字典;同时根据所述目标跟踪结果生成新的冗余字典,并对新的正负模板字典进行l1最优化处理,得到新的稀疏矩阵;然后执行步骤S12;
S12:获取下一帧图像,并返回步骤S4,根据所述步骤S4~S9获得所述下一帧图像的目标跟踪结果。
为避免更新频率过高而造成需要处理的数据较多,也避免更新频率过低而导致跟踪结果准确度降低的现象发生,本实施例中,优选地,所述步骤S10中的N的取值为5。
相对于现有技术,本发明基于K稀疏的快速鲁棒目标跟踪方法把基于生成式的方式和基于分类式的方法有效地综合起来,通过在此基础上利用正负模板字典求得稀疏矩阵,并利用稀疏矩阵即K稀疏来求解正负模板字典l1最优化问题,实现在稀疏度比较小且信噪比相同的情况下,求解稀疏系数的速度为LASSO算法的十倍以上——即利用首帧的目标区域构建字典,在求解稀疏系数时,利用K稀疏算法巧妙地将求字典二道广义逆转换成求方阵的逆,即:计算字典与输入信号的内积,找出K个内积最大值,将这K个最大的值对应字典的列序号构成一个集合,以集合中K列字典作为基,用最小二乘法解出稀疏系数。并且,本发明通过将当前帧图像分割成多个图像样本,并以正则化后的正模板矩阵和负模板矩阵为基础而计算重构误差,利用重构判别误差参数和通过比较直方图获得的样本而实现对当首帧图像中的目标跟踪,由此也提高了目标跟踪的准确率,能够得到更加精确的跟踪结果,并提高跟踪的实时性。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:包括以下步骤:
S1:获取首帧图像和当前帧图像,并获取首帧图像的首帧目标区域;
S2:根据首帧图像和首帧目标区域建立正负模板字典A,并根据所述首帧目标区域生成冗余字典D;其中,所述正负模板字典A由正模板矩阵A+和负模板矩阵A-组成;
S3:根据正负模板字典A计算得到稀疏矩阵S,并通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A';其中,正负模板字典A'由l1最优化后的正模板矩阵A'+和l1最优化后的负模板矩阵A'-组成;
S4:从当前帧图像中提取多个图像样本,得到候选图像样本序列X;并通过稀疏矩阵s对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X';
S5:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,得到正模板重构误差εf和负模板重构误差εb;并根据正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc
S6:对候选图像样本序列X'进行重叠滑动窗口采样,得到包含多个窗口候选图像,并分别将每一窗口候选图像归一化为相应的一候选图像向量yi;再通过冗余字典D对每一候选图像向量yi进行l1最优化处理,生成候选图像直方图
对所述首帧目标区域进行重叠滑动窗口采样,得到包含多个窗口目标图像,并分别将每一窗口目标图像归一化为相应的一目标图像向量zi;再通过冗余字典D对所述目标图像向量zi进行l1最优化处理,生成目标图像直方图ψ;
S7:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0,并根据所有候选图像向量的重构误差ε0生成候选图像直方图的候选图像稀疏直方图
根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0,并根据所有目标图像向量的重构误差ε'0生成候选图像直方图ψ的目标图像稀疏直方图ψ';
S8:根据所述候选图像稀疏直方图和目标图像稀疏直方图ψ',计算得到一候选图像稀疏直方图和目标图像稀疏直方图相差最小的样本Lc
S9:根据所有重构误差判别参数Hc和样本Lc获得当前帧图像的目标跟踪结果。
2.根据权利要求1所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S2中,所述正负模板字典A的建立包括以下步骤:
S211:以首帧目标区域为中心随机抽取50个16×16像素的目标图像块,将各目标图像块转换成相应的目标区域向量,并将所有目标区域向量组合形成50×1024的正模板矩阵A+
S212:于首帧目标区域的周围随机抽取200个16×16像素的背景图像块,将各背景图像块转换成相应的背景区域向量,并将所有背景区域向量组合形成200×1024的负模板矩阵A-
S213:合并正模板矩阵A+和负模板矩阵A-,得到250×1024的正负模板字典A。
3.根据权利要求1或2所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S2中,通过对首帧目标区域进行K均值聚类,得到36×50的冗余字典D。
4.根据权利要求3所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S3中,通过K稀疏算法求解正负模板字典A的l1最优解,得到稀疏矩阵S,具体包括以下步骤:
S31:将求正负模板字典A的广义逆转化成求方阵的逆,即
S32:根据求得正负模板字典A的广义逆向量,从广义逆向量中获取K个绝对值最大的数值所在的列序号,并将K个列序号组成一非零稀疏系数位置集合I;
S33:根据非零稀疏系数位置集合I,及通过最小二乘法求得由K个非零值的系数稀疏组成的非零稀疏系数值集合s1,即其中,A为正负模板字典,p为模板系数且取值为+1或-1;当正负模板字典A的取值为正模板矩阵A+时,p的取值为+1;当正负模板字典A的取值为负模板矩阵A-时,p的取值为-1;
S34:根据非零稀疏系数位置集合I和非零稀疏系数值集合s1还原得到稀疏向量s;
S35:构建一个稀疏对角矩阵,并利用稀疏向量s生成稀疏矩阵S,其中,稀疏矩阵S中的Sii满足:
5.根据权利要求4所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S3中,通过稀疏矩阵S对所述正负模板字典A进行l1最优化处理,得到l1最优化后的正负模板字典A',A'=S×A。
6.根据权利要求5所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:K的取值为8。
7.根据权利要求5或6所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S4中,通过粒子滤波器从当前帧图像中提取得到多个图像样本,并将多个图像样本依序排列组成所述候选图像样本序列X;以及,稀疏矩阵S对候选图像样本序列X进行正则化,得到正则化后的候选图像样本序列X',具体包括以下步骤:
步骤S41:通过稀疏矩阵S依次对候选图像样本序列X中的每一图像样本x进行正则化处理,得到正则化后的每一图像样本x';其中,正则化后的每一图像样本x'=S×x;
步骤S42:将正则化后的所有图像样本依序排列组成正则化后的候选图像样本序列X'。
8.根据权利要求7所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:所述步骤S5具体包括以下步骤:
S51:分别计算候选图像样本序列X'与l1最优化后的正模板矩阵A'+和负模板矩阵A'-的重构误差,正模板重构误差负模板重构误差其中,A'+为l1最优化后的正模板矩阵,A'-为l1最优化后的负模板矩阵,α为稀疏矩阵,
S52:根据候选图像样本序列X'的正模板重构误差εf和负模板重构误差εb计算得到候选图像样本序列X'中每一图像样本的重构误差判别参数Hc其中,σ=0.001,重构误差判别参数Hc中的c表示候选图像样本序列X'中的第c个图像样本,为候选图像样本序列X'中的第c个图像样本的负模板重构误差,为候选图像样本序列X'中的第c个图像样本的正模板重构误差;
且/或,所述步骤S6具体包括以下步骤:
S61:通过一个6×6单位的窗口对候选图像样本序列X'进行重叠滑动窗口采样,得到M个窗口候选图像;
S62:分别将每一窗口候选图像归一化为50×1的候选图像向量yi,候选图像向量yi的总数与窗口候选图像的总数相同,都为M;
S63:通过冗余字典D对每一候选图像向量yi进行l1最优化处理,得到每一候选图像向量yi的稀疏矩阵βi;得到的稀疏矩阵βi共有M个,每一稀疏矩阵βi为50×1的矩阵,
S64:将所有稀疏矩阵βi依序排列,生成候选图像直方图
S65:通过一个6×6单位的窗口对首帧目标区域进行重叠滑动窗口采样,得到M个窗口目标图像;
S66:分别将每一窗口目标图像归一化为50×1的目标图像向量zi,目标图像向量zi的总数与窗口目标图像的总数相同,都为M;
S67:通过冗余字典D对每一目标图像向量zi进行l1最优化处理,得到每一目标图像向量zi的稀疏矩阵γi;得到的稀疏矩阵γi共有M个,每一稀疏矩阵γi为50×1的矩阵,
S68:将所有稀疏矩阵γi依序排列,生成目标图像直方图ψ;以及,所述步骤S7具体包括以下步骤:
S71:根据冗余字典D分别计算得到每一候选图像向量yi的重构误差ε0
S72:根据步骤S71中计算得到的所有重构误差,选取出重构误差的值大于0.05的候选图像向量;
S73:将候选图像直方图中对应于由步骤S72中选取得到的候选图像向量的稀疏矩阵置零,生成候选图像稀疏直方图
S74:根据冗余字典D分别计算得到每一目标图像向量zi的重构误差ε'0
S75:根据步骤S74中计算得到的所有重构误差,选取出重构误差的值大于0.05的目标图像向量;
S76:将目标图像直方图ψ中对应于由步骤S75中选取得到的目标图像向量的稀疏矩阵置零,生成目标图像稀疏直方图ψ',ψ'=[γ12,…,γM];
且/或,所述步骤S8中,样本其中,为第c个候选图像块的候选图像稀疏直方图,1≤c≤50×M,ψ'为目标图像稀疏直方图,M为所述步骤S6中通过对候选图像样本序列X'进行重叠滑动窗口采样后得到窗口候选图像的总数;
且/或,所述步骤S9中,当前帧图像的目标跟踪结果的获得具体包括以下步骤:
S91:根据所有重构误差判别参数Hc和样本Lc,分别计算得到候选图像样本序列X'中每一图像样本的相似值=Hc×Lc
S92:根据由步骤S91求得的所有相似值获得候选图像样本序列X'中每一图像样本的最大后验概率,最大后验概率
S93:获取候选图像样本序列X'中最大后验概率的值最大的一图像样本,该图像样本即为所述目标跟踪结果。
9.根据权利要求1或8所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:还包括以下步骤:
S10:判断当前帧图像的帧数是否为N的整数倍,是则执行步骤S11,否则执行步骤S12;
S11:通过步骤S2,根据当前帧图像和所述步骤S9中获得的目标跟踪结果建立新的正模板矩阵,并根据新的正模板矩阵更新正负模板字典;同时根据所述目标跟踪结果生成新的冗余字典,并对新的正负模板字典进行l1最优化处理,得到新的稀疏矩阵;然后执行步骤S12;
S12:获取下一帧图像,并返回步骤S4,根据所述步骤S4~S9获得所述下一帧图像的目标跟踪结果。
10.根据权利要求9所述的基于K稀疏的快速鲁棒目标跟踪方法,其特征在于:N的取值为5。
CN201711267326.0A 2017-12-05 2017-12-05 一种基于k稀疏的快速鲁棒目标跟踪方法 Active CN107784664B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711267326.0A CN107784664B (zh) 2017-12-05 2017-12-05 一种基于k稀疏的快速鲁棒目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711267326.0A CN107784664B (zh) 2017-12-05 2017-12-05 一种基于k稀疏的快速鲁棒目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107784664A true CN107784664A (zh) 2018-03-09
CN107784664B CN107784664B (zh) 2021-07-27

Family

ID=61430098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711267326.0A Active CN107784664B (zh) 2017-12-05 2017-12-05 一种基于k稀疏的快速鲁棒目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107784664B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986045A (zh) * 2018-06-30 2018-12-11 长春理工大学 一种基于稀疏表示的误差校正跟踪方法
CN109711283A (zh) * 2018-12-10 2019-05-03 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别算法
CN111429481A (zh) * 2020-03-18 2020-07-17 重庆邮电大学 一种基于自适应表达的目标追踪方法、装置及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034250A (zh) * 2010-11-26 2011-04-27 西安电子科技大学 基于边缘结构信息的分块压缩感知重构方法
US20110147593A1 (en) * 2009-12-22 2011-06-23 Sony Corporation Passive radiometric imaging device and corresponding method
CN102891684A (zh) * 2012-10-10 2013-01-23 南京邮电大学 一种压缩感知含噪重构系统的构建方法
CN103064071A (zh) * 2012-10-25 2013-04-24 西安电子科技大学 基于稀疏分解的雷达目标属性散射中心特征提取方法
US20130177089A1 (en) * 2012-01-09 2013-07-11 King Fahd University Of Petroleum And Minerals Method of performing peak reduction and clipping mitigation
CN104200478A (zh) * 2014-09-12 2014-12-10 广东财经大学 一种基于稀疏表示的低分辨率触摸屏图像缺陷检测方法
US20160342837A1 (en) * 2015-05-19 2016-11-24 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and method for object tracking
CN106911443A (zh) * 2017-02-23 2017-06-30 北京交通大学 基于压缩感知的m2m通信系统中导频优化设计方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110147593A1 (en) * 2009-12-22 2011-06-23 Sony Corporation Passive radiometric imaging device and corresponding method
CN102034250A (zh) * 2010-11-26 2011-04-27 西安电子科技大学 基于边缘结构信息的分块压缩感知重构方法
US20130177089A1 (en) * 2012-01-09 2013-07-11 King Fahd University Of Petroleum And Minerals Method of performing peak reduction and clipping mitigation
CN102891684A (zh) * 2012-10-10 2013-01-23 南京邮电大学 一种压缩感知含噪重构系统的构建方法
CN103064071A (zh) * 2012-10-25 2013-04-24 西安电子科技大学 基于稀疏分解的雷达目标属性散射中心特征提取方法
CN104200478A (zh) * 2014-09-12 2014-12-10 广东财经大学 一种基于稀疏表示的低分辨率触摸屏图像缺陷检测方法
US20160342837A1 (en) * 2015-05-19 2016-11-24 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and method for object tracking
CN106911443A (zh) * 2017-02-23 2017-06-30 北京交通大学 基于压缩感知的m2m通信系统中导频优化设计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ALIREZA MAKHZANI等: ""k-Sparse Autoencoders"", 《ARXIV:1312.5663V2》 *
W. ZHONG等: ""Robust object tracking via sparsity-based collaborative model"", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
WEI ZHONG等: ""Robust Object Tracking via Sparse Collaborative Appearance Model"", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
匡金骏: ""基于稀疏表示的图像分类与目标跟踪研究"", 《中国博士学位论文全文数据库·信息科技辑》 *
苌江: ""基于非负加权稀疏协作模型的目标跟踪算法研究"", 《中国优秀硕士学位论文全文数据库·信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986045A (zh) * 2018-06-30 2018-12-11 长春理工大学 一种基于稀疏表示的误差校正跟踪方法
CN109711283A (zh) * 2018-12-10 2019-05-03 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别算法
CN109711283B (zh) * 2018-12-10 2022-11-15 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别方法
CN111429481A (zh) * 2020-03-18 2020-07-17 重庆邮电大学 一种基于自适应表达的目标追踪方法、装置及终端

Also Published As

Publication number Publication date
CN107784664B (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
US11908244B2 (en) Human posture detection utilizing posture reference maps
CN109949255B (zh) 图像重建方法及设备
CN106683048B (zh) 一种图像超分辨率方法及设备
CN105069746B (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
CN108711141B (zh) 利用改进的生成式对抗网络的运动模糊图像盲复原方法
CN110889343B (zh) 基于注意力型深度神经网络的人群密度估计方法及装置
CN104573731B (zh) 基于卷积神经网络的快速目标检测方法
CN111160269A (zh) 一种人脸关键点检测方法及装置
CN108288035A (zh) 基于深度学习的多通道图像特征融合的人体动作识别方法
CN107730451A (zh) 一种基于深度残差网络的压缩感知重建方法和系统
CN110490174A (zh) 基于特征融合的多尺度行人检测方法
CN107633522A (zh) 基于局部相似性活动轮廓模型的脑部图像分割方法和系统
CN109711401A (zh) 一种基于Faster Rcnn的自然场景图像中的文本检测方法
CN106778768A (zh) 基于多特征融合的图像场景分类方法
CN107784664A (zh) 一种基于k稀疏的快速鲁棒目标跟踪方法
CN108053420A (zh) 一种基于有限时空分辨率类无关属性动态场景的分割方法
Zheng et al. Interactive multi-scale feature representation enhancement for small object detection
CN112489088A (zh) 一种基于记忆单元的孪生网络视觉跟踪方法
Liu et al. Kiwifruit leaf disease identification using improved deep convolutional neural networks
Zhao et al. Mcanet: Hierarchical cross-fusion lightweight transformer based on multi-convhead attention for object detection
CN111401209B (zh) 一种基于深度学习的动作识别方法
CN116665300A (zh) 基于时空自适应特征融合图卷积网络的骨架动作识别方法
Zeng et al. A masked-face detection algorithm based on M-EIOU loss and improved ConvNeXt
Wang et al. An Improved YOLOv3 Object Detection Network for Mobile Augmented Reality
CN111767825B (zh) 一种人脸属性不变鲁棒性人脸识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant