CN109271883A - 一种融合学习机制的目标跟踪方法 - Google Patents

一种融合学习机制的目标跟踪方法 Download PDF

Info

Publication number
CN109271883A
CN109271883A CN201810986336.8A CN201810986336A CN109271883A CN 109271883 A CN109271883 A CN 109271883A CN 201810986336 A CN201810986336 A CN 201810986336A CN 109271883 A CN109271883 A CN 109271883A
Authority
CN
China
Prior art keywords
face
target
tracking
ihdr
kcf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810986336.8A
Other languages
English (en)
Inventor
吴怀宇
蔡丽仪
陈镜宇
陈洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Wuhan University of Science and Technology WHUST
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN201810986336.8A priority Critical patent/CN109271883A/zh
Publication of CN109271883A publication Critical patent/CN109271883A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合学习机制的目标跟踪方法,其特征在于结合在线学习与识别算法以及改进的KCF跟踪算法;通过提取稠密光照不变特征的方式提取人脸的IIF光照不变特征,使得人脸识别的结果不受光照变化的影响;同时利用改进的KCF跟踪算法,检测三个尺度大小不同的窗口对目标的响应,选取响应最强烈的尺度窗口作为下一时刻的跟踪窗口,实现尺度自适应的目标跟踪;当目标短暂离开摄像头视域范围时,重新识别目标人脸,重新初始化KCF跟踪器,实现对目标人脸的长期跟踪。

Description

一种融合学习机制的目标跟踪方法
技术领域
本发明涉及图像模式识别领域,涉及图像处理和机器视觉等技术,尤其涉及视频的人脸识别与跟踪处理方法。
技术背景
现在,人脸识别与跟踪在人工智能和机器视觉领域是一个热点问题,具有较高的研究价值,在智能监控、机器人、人机交互等方面有着广泛的应用。视频人脸跟踪的根本任务是在视频序列中检测并识别某个人脸,然后跟踪捕获该人脸的运动轨迹与大小变化。现有的视频人脸跟踪算法主要有CamShift、SURF以及Mean Shift等算法,这些算法虽然在特定环境下能对人脸进行准确地跟踪,但在光照变化强烈的环境下跟踪效果不理想。部分跟踪方法在跟踪前需要手动选取跟踪目标,不能达到自动跟踪目标的效果,并且在跟踪过程中会因为算法的运行速度太慢、视频帧率太低或者目标人脸姿态的改变而导致跟丢目标。
对于视觉跟踪,Joao F提出的KCF跟踪算法具有跟踪速度快、跟踪效果好的特点,但是KCF存在跟踪过程中跟踪框不能自适应尺度的问题,并且KCF只能实现短期跟踪,不能实现长期跟踪,长期跟踪是指当跟踪目标短暂离开摄像头视域范围后,仍能继续跟踪目标。
发明内容
本发明要解决的技术问题是:光照变化强烈的环境下对人脸的识别效果不好,影响在丢失目标后重新定位目标的正确率;对于跟踪目标的选取通常通过手动选取的方法或者人脸检测的方法,手动选取的方法不能达到自动跟踪目标人脸的效果,而当摄像头视域范围内包含多于1个人时,人脸检测的方法不能确定哪个是跟踪目标;在跟踪过程中跟踪框不能实现尺度自适应;当目标短暂离开摄像头视域范围后不能重新跟踪目标,即不能对目标进行长期的跟踪。
针对以上问题,本发明提出如下技术方案:
一种融合学习机制的目标跟踪方法,先识别视频数据流中的目标人脸,再对目标人脸进行跟踪,达到自动跟踪目标人脸的效果:其特征在于:结合在线人脸学习与识别算法以及改进的KCF跟踪算法对目标人脸进行跟踪;通过提取稠密光照不变特征的方式提取人脸的IIF光照不变特征,使得人脸识别的结果不受光照变化的影响;同时利用改进的KCF跟踪算法,检测三个尺度大小不同的窗口对目标的响应,选取响应最强烈的尺度窗口作为下一时刻的跟踪窗口,实现尺度自适应的目标跟踪;当目标短暂离开摄像头视域范围时,重新识别目标人脸,重新初始化KCF跟踪器,实现对目标人脸的长期跟踪。
进一步的,首先,进行人脸检测,确定目标人脸的位置并提取目标人脸光照不变特征特征;其次,使用IHDR算法增量式地学习由人脸特征向量与对应姓名标签之间的映射关系;然后,检索IHDR树,识别目标人脸,根据目标人脸位置生成一个比目标人脸大的子窗口;最后,用生成的子窗口初始化KCF跟踪器,实现对目标人脸的跟踪。
上述技术方案中,包括如下主要步骤:
步骤S1:打开摄像头,读入视频数据流,使用人脸检测算法检测并定位视频流中的人脸;在复杂背景中识别出人脸;
步骤S2:根据检测到的人脸位置生成一个比目标人脸大的矩形子窗口;
步骤S3:对子窗口中的人脸图片进行预处理,提取人脸特征;
步骤S4:启动IHDR增量学习算法学习人脸的特征向量与姓名标签之间的映射关系,构建IHDR树;
步骤S5:使用人脸检测算法定位并框选出人脸,对框选出的人脸进行预处理,检索IHDR树,识别目标人脸,并输出识别结果;
步骤S6:用识别目标人脸得到的子窗口初始化KCF跟踪器,训练KCF分类器,然后启动KCF跟踪器,对目标人脸进行跟踪。
步骤S7:当跟踪失败或目标人脸短暂离开摄像头时,返回步骤S5,重新识别人脸,当连续3帧识别出目标人脸,则信任识别结果,输出人脸对应的识别结果,执行剩下的步骤,实现对目标的长期跟踪。
指上述技术方案中,步骤S2中生成的子窗口长宽为实际人脸长宽的1.2~1.6倍。
上述技术方案中,步骤S3中预处理包括人脸摆正、椭圆掩膜修正和双边滤波。人脸摆正是指将因人体姿态变化而倾斜的人脸摆正,使左右眼在一个水平面上;椭圆掩膜修正是指将子窗口中除椭圆形人脸以外的区域屏蔽掉,使被屏蔽的部分不参与特征提取,提高算法运行速度与人脸识别率。
上述技术方案中,步骤S4中IHDR算法学习人脸特征的过程是IHDR树构建的过程,其中输入的人脸特征存储于IHDR树的X空间,对应的虚拟标签存储于IHDR树的Y空间,该虚拟标签指向特征对应的识别结果,其学习过程如下:输入待学习的人脸特征向量及姓名,判断是否学习过该姓名,若是,将人脸特征添加到该姓名所属虚拟标签所指向的x聚类子中;若否,判断是否学习过该人脸特征向量,若是,则学习失败,若否,则Y空间虚拟标签加1,X空间生成新的x聚类子,与虚拟标签相对应。
上述技术方案中,步骤S5中预处理与步骤S3中预处理相同,其人脸识别过程就是检索IHDR树的过程:判断是否学习过该人脸特征向量,若是,输出识别结果,若否,识别失败。
上述技术方案中,步骤S6中,在KCF的跟踪过程中设定三个尺度大小不同的窗口,分别计算三个窗口对目标的响应,响应最大的窗口置为下一时刻的跟踪窗口,如此实现尺度自适应跟踪。
上述技术方案中,上述一种融合学习机制的目标跟踪方法,基于Windows 7的32位操作系统下的Visual Studio 2013,以及版本为2.4.9的开源OpenCV库。
上述技术方案中,打开摄像头、视频流的读入、灰度化、双边滤波等都是基于OpenCV的库函数实现的。
相对于现有技术,针对提及的当前人脸跟踪方法存在的问题,本发明提出相应的解决方案。针对采用一种提取稠密光照不变特征的方法,该方法对于光照变化具有不变性,即,不同光照下的同一个目标对应IIF(Illumination Invariant Features)特征具有不变性,使用IIF特征能有效地降低光照变化的影响,解决跟踪过程中易受光照变化影响的问题;针对需要手动选取跟踪目标的问题,采用在线增量式学习方法对非特定目标人脸进行学习,能准确有效地检测出目标人脸,为有效地跟踪奠定基础;针对KCF存在尺度不能自适应且不能长期跟踪等缺陷,采用将检测和跟踪互补,使得跟踪过程能够实现尺度自适应的长期跟踪。该方法具有良好的跟踪效果,可广泛应用于智能监控、机器人、人机交互等方面。
附图说明
图1是本发明融合学习机制的目标跟踪方法流程图。
图2是IHDR树结构示意图;a为IHDR树的拓扑结构,b为带有节点展示的对应配图。
图3是构建IHDR树的流程图。
图4是检索IHDR树的流程图。
图5是KCF目标跟踪过程流程图。
具体实施方式
为了进一步说明本发明的技术方案,下面将结合附图1-5对本方案进行详细地说明。
如图1所示,根据本发明一种融合学习机制的目标跟踪方法,包括如下流程:
步骤S1:打开摄像头,读入视频数据流,使用人脸检测算法检测并定位视频流中的人脸。
人脸检测是指在复杂背景中识别出人脸。本发明使用的是开源的人脸检测库libfacedetection中的frontal_surveillance接口,运行速度为261.1FPS。
步骤S2:根据检测到的人脸位置生成一个比目标人脸大的矩形子窗口。生成的子窗口长宽为实际人脸长宽的1.2~1.6倍。
步骤S3:对子窗口中的人脸图片进行人脸摆正、椭圆掩膜修正以及双边滤波等预处理,对预处理后的图片提取IIF光照不变特征,具体实现方法如下所示:
步骤S31:人脸摆正:首先使用OpenCV自带的人眼检测算法进行人眼对齐,确定左右眼中心坐标;计算左右眼中心坐标连线的倾斜角度,作为人脸的倾斜角度;根据倾斜角度的大小与方向逆方向旋转人脸,将人脸摆正。
步骤S32:椭圆掩膜修正:首先,生成一张与人脸摆正后大小一致的空掩膜,将空掩膜像素置为0;在掩膜中根据人脸位置和大小拟合一个近似人脸的椭圆,将掩膜中椭圆内像素置为128;将生成的椭圆掩膜与摆正后的人脸图像作对应像素的与运算,剔除人脸图像中的背景图像,剩下椭圆人脸图像。
步骤S33:提取人脸图像的IIF光照不变特征。提取IIF特征有如下几个步骤:
步骤S331:将人脸图片灰度化,计算其LSH(Locality Sensitive Histograms)局部敏感直方图。LSH局部敏感直方图较传统直方图的特点是:传统直方图统计的是特定强度值出现频率的整数,而LSH局部敏感直方图引入一个权重参数α|p-q|,α∈(0,1)来表示像素点与目标中心像素点之间的距离关系,其中p为中心像素点,q为第q个像素点,因此当像素点越远离中心像素点时,加权越小,反之加权越大,故而LSH局部敏感直方图统计的是每个像素点加权后的浮点数。
步骤S332:根据公式(1)计算IIF光照不变特征:
其中,Lp是亮度值在区间[1,B]中的像素数;B是亮度值量化的区间b的总数;bp代表像素点p的亮度值Ip所对应的量化bin;k=0.1是一个经验常量;参数rp通常用来控制区间的长度,我们将rp设置为4;表示在像素点p计算得到的局部敏感直方图。
步骤S4:学习目标人脸特征。学习人脸特征的过程是构建IHDR树的过程,IHDR树的结构示意图如图2所示,其构建IHDR树的流程如图3所示,IHDR树的特征在于:IHDR树包括X空间和Y空间,X空间存储人脸特征向量,对于不同的人脸生成对应的x聚类子;Y空间存储虚拟标签,虚拟标签与x聚类子一一对应,每一个虚拟标签指向对应的姓名标签(识别结果的一种,也可以是其他ID信息)。其具体过程包括如下几个步骤:
步骤S41:输入待学习的人脸特征向量及姓名,判断是否学习过该姓名。
步骤S42:若是,将人脸特征差异添加到该姓名所属虚拟标签所指向的x聚类子中,更新IHDR树。
步骤S43:若否,判断是否学习过该人脸特征向量。给定距离阈值d,距离越小认为特征越相似,当距离小于阈值时,认为是相同的样本特征,。从IHDR树的第一层开始遍历x聚类子,计算待学习的人脸特征向量与x聚类子的欧氏距离D。
步骤S44:若D<d,则学习失败,表示曾经学习过该人脸,但与所输入的人脸姓名不同。
步骤S45:若D>d,遍历IHDR树的下一层x聚类子,重复步骤S43中计算欧氏距离的步骤,直至遍历到叶子节点(此节点下再无子节点),若叶子节点中D<d,则与步骤S44结果相同。
步骤S46:若叶子节点中D>d,则Y空间虚拟标签加1,X空间生成新的x聚类子,与此新的虚拟标签相对应,更新IHDR树。
步骤S5:识别目标人脸。人脸识别过程就是检索IHDR树的过程,其流程如图4所示,检索IHDR树包括以下几个步骤:
步骤S51:从IHDR树第一层开始遍历x聚类子,计算待识别的人脸向量与x聚类子的欧氏距离D。
步骤S52:若D<d,则检索停止,返回该聚类中心对应的Y空间的虚拟标签,输出虚拟标签对应的姓名标签。
步骤S53:若D>d,则继续向下遍历x聚类子,计算两者之间的欧氏距离D,直至叶子节点,若D<d,则与步骤S52一致;若在叶子节点中D>d,则代表IHDR树未曾学习过该人脸,检索失败,人脸识别不成功。
步骤S6:跟踪目标人脸。用识别目标人脸得到的子窗口初始化KCF跟踪器,然后启动KCF跟踪器,对目标人脸进行跟踪。其跟踪过程如流程图5所示,具体操作步骤如下:
步骤S61:用识别目标人脸得到的子窗口初始化KCF跟踪器,生成跟踪窗口(与识别窗口一致)。
步骤S62:训练KCF分类器。定义区域padding,padding以跟踪窗口为中心,大小为跟踪窗口长宽的2.5倍,对区域padding进行循环位移操作,采集正负样本,利用脊回归训练KCF分类器,这个分类器能计算一个小窗口采样的响应。
步骤S62:当第t帧读入时,在第t-1帧区域padding附近采样,用KCF分类器判断每个采样窗口的响应,将响应最强烈的窗口设为第t帧原始跟踪窗口,以原始跟踪窗口的中心为中心,设置两个尺度大于和小于原始跟踪窗口的窗口,计算三个窗口的响应,将响应最大的窗口置为第t时刻的跟踪窗口,如此实现自适应尺度跟踪。
步骤S63:对第t帧跟踪窗口的padding区域进行循环位移操作,采集正负样本,更新KCF分类器。
步骤S7:检测跟踪框边界,当跟踪框边界离开视频边界一定范围内时,修正跟踪框边界;当跟踪框边界离开视频边界超过一定范围时,停止跟踪,返回步骤S5,并顺序执行,重新初始化KCF跟踪器,启动KCF跟踪器,实现长期的目标跟踪。
上述技术方案中,上述一种融合学习机制的目标跟踪方法,基于Windows 732位操作系统下的Visual Studio 2013,以及版本为2.4.9的开源OpenCV库。
上述技术方案中,打开摄像头、视频流的读入、灰度化、双边滤波等都是基于OpenCV的库函数实现的。

Claims (10)

1.一种融合学习机制的目标跟踪方法,先识别视频数据流中的目标人脸,再对目标人脸进行跟踪,达到自动跟踪目标人脸的效果:其特征在于:结合在线人脸学习与识别算法以及改进的KCF跟踪算法对目标人脸进行跟踪;通过提取稠密光照不变特征的方式提取人脸的IIF光照不变特征,使得人脸识别的结果不受光照变化的影响;同时利用改进的KCF跟踪算法,检测三个尺度大小不同的窗口对目标的响应,选取响应最强烈的尺度窗口作为下一时刻的跟踪窗口,实现尺度自适应的目标跟踪;当目标短暂离开摄像头视域范围时,重新识别目标人脸,重新初始化KCF跟踪器,实现对目标人脸的长期跟踪。
2.根据权利要求1所述的的融合学习机制的目标跟踪方法,其特征在于:首先,进行人脸检测,确定目标人脸的位置并提取目标人脸光照不变特征特征;其次,使用IHDR算法增量式地学习由人脸特征向量与对应姓名标签之间的映射关系;然后,检索IHDR树,识别目标人脸,根据目标人脸位置生成一个比目标人脸大的子窗口;最后,用生成的子窗口初始化KCF跟踪器,实现对目标人脸的跟踪。
3.根据权利要求2所述的的融合学习机制的目标跟踪方法,其特征在于:包括如下主要步骤:
步骤S1:打开摄像头,读入视频数据流,使用人脸检测算法检测并定位视频流中的人脸;在复杂背景中识别出人脸;
步骤S2:根据检测到的人脸位置生成一个比目标人脸大的矩形子窗口;
步骤S3:对子窗口中的人脸图片进行预处理,提取人脸特征;
步骤S4:启动IHDR增量学习算法学习人脸的特征向量与姓名标签之间的映射关系,构建IHDR树;
步骤S5:使用人脸检测算法定位并框选出人脸,对框选出的人脸进行预处理,检索IHDR树,识别目标人脸,并输出识别结果;
步骤S6:用识别目标人脸得到的子窗口初始化KCF跟踪器,训练KCF分类器,然后启动KCF跟踪器,对目标人脸进行跟踪。
步骤S7:当跟踪失败或目标人脸短暂离开摄像头时,返回步骤S5,重新识别人脸,当连续3帧识别出目标人脸,则信任识别结果,输出人脸对应的识别结果,执行剩下的步骤,实现对目标的长期跟踪。
4.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:步骤S2中生成的子窗口长宽为实际人脸长宽的1.2~1.6倍。
5.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:步骤S3中预处理包括人脸摆正、椭圆掩膜修正和双边滤波。人脸摆正是指将因人体姿态变化而倾斜的人脸摆正,使左右眼在一个水平面上;椭圆掩膜修正是指将子窗口中除椭圆形人脸以外的区域屏蔽掉,使被屏蔽的部分不参与特征提取,提高算法运行速度与人脸识别率。
6.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:步骤S4中IHDR算法学习人脸特征的过程是IHDR树构建的过程,其中输入的人脸特征存储于IHDR树的X空间,对应的虚拟标签存储于IHDR树的Y空间,该虚拟标签指向特征对应的识别结果,其学习过程如下:输入待学习的人脸特征向量及姓名,判断是否学习过该姓名,若是,将人脸特征添加到该姓名所属虚拟标签所指向的x聚类子中;若否,判断是否学习过该人脸特征向量,若是,则学习失败,若否,则Y空间虚拟标签加1,X空间生成新的x聚类子,与虚拟标签相对应。
7.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:步骤S5中预处理与步骤S3中预处理相同,其人脸识别过程就是检索IHDR树的过程:判断是否学习过该人脸特征向量,若是,输出识别结果,若否,识别失败。
8.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:步骤S6中,在KCF的跟踪过程中设定三个尺度大小不同的窗口,分别计算三个窗口对目标的响应,响应最大的窗口置为下一时刻的跟踪窗口,如此实现尺度自适应跟踪。
9.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:上述一种融合学习机制的目标跟踪方法,基于Windows 7的32位操作系统下的Visual Studio 2013,以及版本为2.4.9的开源OpenCV库。
10.根据权利要求3所述的的融合学习机制的目标跟踪方法,其特征在于:打开摄像头、视频流的读入、灰度化、双边滤波等都是基于OpenCV的库函数实现的。
CN201810986336.8A 2018-08-28 2018-08-28 一种融合学习机制的目标跟踪方法 Pending CN109271883A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810986336.8A CN109271883A (zh) 2018-08-28 2018-08-28 一种融合学习机制的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810986336.8A CN109271883A (zh) 2018-08-28 2018-08-28 一种融合学习机制的目标跟踪方法

Publications (1)

Publication Number Publication Date
CN109271883A true CN109271883A (zh) 2019-01-25

Family

ID=65154678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810986336.8A Pending CN109271883A (zh) 2018-08-28 2018-08-28 一种融合学习机制的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109271883A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363792A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于光照不变性特征提取的遥感图像变化检测方法
CN111914600A (zh) * 2019-05-08 2020-11-10 四川大学 一种基于空间注意力模型的群组情绪识别方法
CN112419362A (zh) * 2019-08-21 2021-02-26 中国人民解放军火箭军工程大学 一种基于先验信息特征学习的运动目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103336971A (zh) * 2013-07-08 2013-10-02 浙江工商大学 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN106570471A (zh) * 2016-10-26 2017-04-19 武汉科技大学 基于压缩跟踪算法的尺度自适应多姿态人脸跟踪方法
CN106778501A (zh) * 2016-11-21 2017-05-31 武汉科技大学 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN107481264A (zh) * 2017-08-11 2017-12-15 江南大学 一种自适应尺度的视频目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103336971A (zh) * 2013-07-08 2013-10-02 浙江工商大学 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN106570471A (zh) * 2016-10-26 2017-04-19 武汉科技大学 基于压缩跟踪算法的尺度自适应多姿态人脸跟踪方法
CN106778501A (zh) * 2016-11-21 2017-05-31 武汉科技大学 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN107481264A (zh) * 2017-08-11 2017-12-15 江南大学 一种自适应尺度的视频目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHENGFENG HE ET AL: "Visual Tracking via Locality Sensitive Histograms", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
王艳川: "基于在线检测和尺度自适应的相关滤波跟踪", 《光学学报》 *
程勇: "人脸识别中光照不变量提取算法研究", 《中国博士学位论文全文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914600A (zh) * 2019-05-08 2020-11-10 四川大学 一种基于空间注意力模型的群组情绪识别方法
CN110363792A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于光照不变性特征提取的遥感图像变化检测方法
CN112419362A (zh) * 2019-08-21 2021-02-26 中国人民解放军火箭军工程大学 一种基于先验信息特征学习的运动目标跟踪方法
CN112419362B (zh) * 2019-08-21 2023-07-07 中国人民解放军火箭军工程大学 一种基于先验信息特征学习的运动目标跟踪方法

Similar Documents

Publication Publication Date Title
CN109360183B (zh) 一种基于卷积神经网络的人脸图像质量评估方法和系统
Maddalena et al. A self-organizing approach to background subtraction for visual surveillance applications
Reinders et al. Locating facial features in image sequences using neural networks
CN109101865A (zh) 一种基于深度学习的行人重识别方法
Fritsch et al. Improving adaptive skin color segmentation by incorporating results from face detection
WO2020125499A1 (zh) 一种操作提示方法及眼镜
CN109271883A (zh) 一种融合学习机制的目标跟踪方法
Kumar et al. Learning-based approach to real time tracking and analysis of faces
CN105787458A (zh) 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN108038452A (zh) 一种基于局部图像增强的家电手势快速检测识别方法
GB2565775A (en) A Method, an apparatus and a computer program product for object detection
CN113592911B (zh) 表观增强深度目标跟踪方法
CN109886356A (zh) 一种基于三分支神经网络的目标追踪方法
CN111797771A (zh) 一种基于迭代学习的弱监督视频行为检测方法及系统
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN113870304B (zh) 异常行为检测与跟踪方法、装置、可读存储介质及设备
KR20190059225A (ko) 점진적 딥러닝 학습을 이용한 적응적 영상 인식 기반 감성 추정 방법 및 장치
Marcos-Ramiro et al. Let your body speak: Communicative cue extraction on natural interaction using RGBD data
CN109784215A (zh) 一种基于改进的光流法的活体检测方法及系统
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN110046601B (zh) 针对十字路口场景的行人检测方法
Zhu et al. Confusion region mining for crowd counting
WO2023069085A1 (en) Systems and methods for hand image synthesis
Howell et al. RBF network methods for face detection and attentional frames
CN114529944A (zh) 一种结合人体关键点热图特征的人像景别识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190125

RJ01 Rejection of invention patent application after publication