CN109063593A - 一种人脸跟踪方法及装置 - Google Patents
一种人脸跟踪方法及装置 Download PDFInfo
- Publication number
- CN109063593A CN109063593A CN201810767364.0A CN201810767364A CN109063593A CN 109063593 A CN109063593 A CN 109063593A CN 201810767364 A CN201810767364 A CN 201810767364A CN 109063593 A CN109063593 A CN 109063593A
- Authority
- CN
- China
- Prior art keywords
- frame
- face frame
- coordinate
- face
- tracking box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种人脸跟踪方法,该方法包括:输入视频图像,采用基于卷积神经网络的人脸检测方法,获取图像中的检测人脸框的位置、宽度和高度;采用双向金字塔光流跟踪法,对图像中的人脸框进行跟踪,获取预测人脸框的位置、宽度和高度;对检测人脸框和预测人脸框进行人脸框匹配,获取跟踪框;采用基于卷积神经网络的跟踪框后处理网络,对跟踪框进行过滤和位置修正处理,输出跟踪框。与现有技术相比,本发明能实现复杂场景的人脸跟踪,并且能够解决光流跟踪方法中难以处理遮挡及漂移的问题。
Description
技术领域
本发明涉及图像处理、视频监控以及安防,特别涉及人脸跟踪方法及装置。
背景技术
人脸跟踪作为运动分析的关键技术之一,已受到国内外的科研机构和众多学 者的广泛关注。
经典的人脸跟踪方法主要包括:Mean shift、Kalman滤波及光流等方法。在 经典跟踪方法的基础上,研究者们也进行了相关的改进和结合,但当前的跟踪方 法中主要关注对跟踪效果上的提升,难以实现跟踪效果及效率的平衡。
金字塔光流跟踪方法作为多目标跟踪的经典方法之一,其跟踪效果较好且效 率较高,得到了广泛的应用。但金字塔光流跟踪方法不能很好的处理人脸遮挡的 问题,当人脸出现遮挡时,预测框会出现在遮挡物上造成误判及跟踪漂移的问题。
为了解决光流跟踪方法中难以处理遮挡及漂移的问题,需要提出一种结合双 向金字塔光流和卷积神经网络的人脸跟踪方法。
发明内容
有鉴于此,本发明的主要目的在于解决光流跟踪方法中难以处理遮挡及漂移 的问题,有效地提高人脸跟踪的准确性。
为达到上述目的,按照本发明的第一个方面,提供了一种人脸跟踪方法,该 方法包括:
第一步骤,输入视频图像,采用基于卷积神经网络的人脸检测方法,获取图 像中的检测人脸框的位置、宽度和高度;
第二步骤,采用双向金字塔光流跟踪法,对图像中的人脸框进行跟踪,获取 预测人脸框的位置、宽度和高度;
第三步骤,对检测人脸框和预测人脸框进行人脸框匹配,获取跟踪框;
第四步骤,采用基于卷积神经网络的跟踪框后处理网络,对跟踪框进行过滤 和位置修正处理,输出跟踪框。
进一步地,所述第二步骤包括:
金字塔图像获取步骤,设置金字塔的层数,获取对应金字塔层数的金字塔图 像,并获取金字塔图像中的人脸框;
光流点跟踪步骤,根据金字塔图像,从人脸框中选取T1个光流点,记为第一 点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正向跟踪, 得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进行金字塔 光流反向跟踪,得到跟踪的第三点集;
光流点过滤步骤,计算第一点集与第三点集对应点的欧氏距离和中值,计算 第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化中值,如 果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一点集、第 二点集和第三点集中的对应点;
人脸跟踪判断步骤:如果第二点集中点的个数大于T2,则转入人脸框位置预 测步骤,否则返回跟踪失败;
人脸框位置预测步骤,计算前一帧人脸框与当前帧人脸框的尺度变换系数, 根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位置、宽度 和高度。
进一步地,所述人脸框位置预测步骤包括:
尺度变换系数计算步骤,分别计算第一点集与第二点集对应点在x方向和y 方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算第二点集 中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对应的两点 在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第一点集之 间的尺度变换系数计算第一点集与第二点集对应的所有 两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的尺度变换 系数R;
尺度变换系数判断步骤,如果前一帧人脸框与当前帧人脸框的尺度变换系数 R∈[λ1,λ2],则转入尺度变换正常位置预测步骤,否则转入尺度变换过大位置预 测步骤;
尺度变换正常位置预测步骤,计算宽度上的尺度变换系数 RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算 预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计 算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、 HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测步骤,计算预测的当前帧人脸框的X坐标 Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧 人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;
预测人脸框输出步骤,将预测的当前帧人脸框作为当前帧的预测人脸框,输 出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC。
进一步地,所述第三步骤包括:
检测人脸框与预测人脸框匹配步骤,计算当前帧的所有预测人脸框和检测人 脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更新跟踪框, 否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对,转入跟踪框 更新步骤;
跟踪框更新步骤,针对匹配对的预测人脸框与检测人脸框,如果检测人脸框 的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人脸框的置 信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检测人脸框;
跟踪框删除步骤,如果连续T4帧的跟踪框处于图像边缘并且相邻的跟踪框交 并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框删除步骤包括:统计连续T4帧的跟踪框的边界,如果 跟踪框存在至少一个边界位于图像的边界上,则计算连续T4帧的每相邻两个跟踪 框的交并比值,如果交并比值大于T5,则删除跟踪框。
进一步地,所述交并比值为两个的交叠区域与两个框的合并区域的面积比 值。
进一步地,所述第四步骤包括:
交并比值计算步骤,选取标注的真实人脸框,计算真实人脸框与对应跟踪框 的交并比值;
网络训练步骤,将交并比值大于T6的跟踪框作为正样本,标记为分类标签1、 以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作为part样 本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值小于T8的 跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样本,对基 于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差值识别网 络模型;
网络模型识别步骤,对于连续T9帧未检测到人脸框,将未检测到的人脸框对 应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如果分类分 数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否则删除跟 踪框;
跟踪框输出步骤,输出所有的跟踪框。
进一步地,所述网络训练步骤中样本与真实人脸框的偏差值包括:左上角X 坐标偏差值(x1-nx1)/WHR、左上角Y坐标偏差值(y1-ny1)/WHR、右下角X坐 标偏差值(x2-nx2)/WHR、右下角Y坐标偏差值(y2-ny2)/WHR,其中 WHR=(WR+HR)/2,x1、y1、x2、y2分别为真实人脸框的左上角X坐标、左 上角Y坐标、右下角X坐标、右下角Y坐标,nx1、ny1、nx2、ny2分别为样本的左上角X坐标、左上角Y坐标、右下角X坐标、右下角Y坐标。
进一步地,所述基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积 层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、 第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上 一层的第一全连接层相连接。
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏 差值。
进一步地,所述网络模型识别步骤中偏差值为根据分类偏差值识别网络模型 输出的左上角X坐标偏差值、左上角Y坐标偏差值、右下角X坐标偏差值、右 下角Y坐标偏差值;
进一步地,所述网络模型识别步骤中根据偏差值修正跟踪框的位置为:分别 将跟踪框的左上角X坐标加上左上角X坐标偏差值、左上角Y坐标加上左上角 Y坐标偏差值、右下角X坐标加上右下角X坐标偏差值、右下角Y坐标加上右 下角Y坐标偏差值,作为修正后的跟踪框的左上角X坐标、左上角Y坐标、右 下角X坐标、右下角Y坐标。
按照本发明的另一个方面,提供了一种人脸跟踪装置,该装置包括:
人脸框检测模块,用于输入视频图像,采用基于卷积神经网络的人脸检测方 法,获取图像中的检测人脸框的位置、宽度和高度;
人脸框预测模块,用于采用双向金字塔光流跟踪法,对图像中的人脸框进行 跟踪,获取预测人脸框的位置、宽度和高度;
跟踪框获取模块,用于对检测人脸框和预测人脸框进行人脸框匹配,获取跟 踪框;
跟踪框后处理模块,用于采用基于卷积神经网络的跟踪框后处理网络,对跟 踪框进行过滤和位置修正处理,输出跟踪框。
进一步地,所述人脸框预测模块包括:
金字塔图像获取模块,用于设置金字塔的层数,获取对应金字塔层数的金字 塔图像,并获取金字塔图像中的人脸框;
光流点跟踪模块,用于根据金字塔图像,从人脸框中选取T1个光流点,记为 第一点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正向跟 踪,得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进行金 字塔光流反向跟踪,得到跟踪的第三点集;
光流点过滤模块,用于计算第一点集与第三点集对应点的欧氏距离和中值, 计算第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化中 值,如果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一点 集、第二点集和第三点集中的对应点;
人脸跟踪判断模块:用于如果第二点集中点的个数大于T2,则转入人脸框位 置预测模块,否则返回跟踪失败;
人脸框位置预测模块,用于计算前一帧人脸框与当前帧人脸框的尺度变换系 数,根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位置、 宽度和高度。
进一步地,所述人脸框位置预测模块包括:
尺度变换系数计算模块,用于分别计算第一点集与第二点集对应点在x方向 和y方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算第二 点集中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对应的 两点在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第一点 集之间的尺度变换系数计算第一点集与第二点集对应的 所有两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的尺度 变换系数R;
尺度变换系数判断模块,用于如果前一帧人脸框与当前帧人脸框的尺度变换 系数R∈[λ1,λ2],则转入尺度变换正常位置预测模块,否则转入尺度变换过大位 置预测模块;
尺度变换正常位置预测模块,用于计算宽度上的尺度变换系数 RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算 预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计 算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、 HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测模块,用于计算预测的当前帧人脸框的X坐标 Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧 人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;
预测人脸框输出模块,用于将预测的当前帧人脸框作为当前帧的预测人脸 框,输出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC。
进一步地,所述跟踪框获取模块包括:
检测人脸框与预测人脸框匹配模块,用于计算当前帧的所有预测人脸框和检 测人脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更新跟 踪框,否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对,转入 跟踪框更新模块;
跟踪框更新模块,用于针对匹配对的预测人脸框与检测人脸框,如果检测人 脸框的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人脸框 的置信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检测人 脸框;
跟踪框删除模块,用于如果连续T4帧的跟踪框处于图像边缘并且相邻的跟踪 框交并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框删除模块包括:用于统计连续T4帧的跟踪框的边界, 如果跟踪框存在至少一个边界位于图像的边界上,则计算连续T4帧的每相邻两个 跟踪框的交并比值,如果交并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框后处理模块包括:
交并比值计算模块,用于选取标注的真实人脸框,计算真实人脸框与对应跟 踪框的交并比值;
网络训练模块,用于将交并比值大于T6的跟踪框作为正样本,标记为分类标 签1、以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作为part 样本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值小于T8的跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样本,对 基于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差值识别 网络模型;
网络模型识别模块,用于对于连续T9帧未检测到人脸框,将未检测到的人脸 框对应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如果分 类分数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否则删 除跟踪框;
跟踪框输出模块,用于输出所有的跟踪框。
进一步地,所述基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积 层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、 第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上 一层的第一全连接层相连接。
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏 差值。
与现有的人脸跟踪技术相比,本发明的一种人脸跟踪方法及装置一方面采用 级联卷积神经网络进行人脸检测,有效地提高了人脸检测的准确率;另一方面采 用双向金字塔光流法进行人脸框跟踪,同时采用基于卷积神经网络的跟踪后处理 网络对跟踪框进行过滤和位置修正,解决了光流跟踪方法中难以处理遮挡及漂移 的问题,有效地提高了人脸跟踪的准确性。
附图说明
图1示出了按照本发明的一种人脸跟踪方法的流程图。
图2示出了按照本发明的一种人脸跟踪装置的框架图。
具体实施方式
为使本领域的技术人员能进一步了解本发明的结构、特征及其他目的,现结 合所附较佳实施例详细说明如下,所说明的较佳实施例仅用于说明本发明的技术 方案,并非限定本发明。
图1给出了按照本发明的一种人脸跟踪方法的流程图。如图1所示,按照本 发明的一种人脸跟踪方法包括:
第一步骤S1,输入视频图像,采用基于卷积神经网络的人脸检测方法,获 取图像中的检测人脸框的位置、宽度和高度;
第二步骤S2,采用双向金字塔光流跟踪法,对图像中的人脸框进行跟踪, 获取预测人脸框的位置、宽度和高度;
第三步骤S3,对检测人脸框和预测人脸框进行人脸框匹配,获取跟踪框;
第四步骤S4,采用基于卷积神经网络的跟踪框后处理网络,对跟踪框进行 过滤和位置修正处理,输出跟踪框。
进一步地,所述第一步骤S1可以替换为:输入视频图像,如果当前帧是奇 数帧,则采用基于卷积神经网络的人脸检测方法,获取视频图像中的人脸框,否 则转入第二步骤S2。
所述基于卷积神经网络的人脸检测方法可以采用现有的基于卷积神经网络 的人脸检测方法或者技术实现。示例性地,采用公开号为CN107633229A,专利 名称为“基于卷积神经网络的人脸检测方法及装置”中的方法,从图像中检测出 人脸框,获取检测人脸框的位置、宽度和高度。
进一步地,所述第二步骤S2包括:
金字塔图像获取步骤S21,设置金字塔的层数,获取对应金字塔层数的金字 塔图像,并获取金字塔图像中的人脸框;
光流点跟踪步骤S22,根据金字塔图像,从人脸框中选取T1个光流点,记为 第一点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正向跟 踪,得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进行金 字塔光流反向跟踪,得到跟踪的第三点集;
光流点过滤步骤S23,计算第一点集与第三点集对应点的欧氏距离和中值, 计算第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化中 值,如果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一点 集、第二点集和第三点集中的对应点;
人脸跟踪判断步骤S24:如果第二点集中点的个数大于T2,则转入人脸框位 置预测步骤S25,否则返回跟踪失败;
人脸框位置预测步骤S25,计算前一帧人脸框与当前帧人脸框的尺度变换系 数,根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位置、 宽度和高度。
所述光流点过滤步骤S23中N可以人工设置或者自适应获取。示例性地, 获取检测人脸框的宽度或者高度作为N。
进一步地,所述人脸框位置预测步骤S25包括:
尺度变换系数计算步骤S251,分别计算第一点集与第二点集对应点在x方 向和y方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算第 二点集中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对应 的两点在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第一 点集之间的尺度变换系数计算第一点集与第二点集对应 的所有两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的尺 度变换系数R;
尺度变换系数判断步骤S252,如果前一帧人脸框与当前帧人脸框的尺度变 换系数R∈[λ1,λ2],则转入尺度变换正常位置预测步骤S253,否则转入尺度变换 过大位置预测步骤S254;
尺度变换正常位置预测步骤S253,计算宽度上的尺度变换系数 RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算 预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计 算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、 HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测步骤S254,计算预测的当前帧人脸框的X坐标 Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧 人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;
预测人脸框输出步骤S255,将预测的当前帧人脸框作为当前帧的预测人脸 框,输出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC。
进一步地,所述金字塔的层数的取值范围为3~5,所述T1的取值范围为 36~100,所述T2的取值范围为3~6,所述λ1的取值范围为0.7~0.98,所述λ2的取 值范围为1.02~1.09。
所述金字塔光流正向跟踪和所述金字塔反向跟踪可以采用现有的金字塔跟 踪方法实现。示例性地,所述光流点跟踪步骤S22为:针对相邻的两帧人脸框, 从前一帧人脸框中均匀选取60个光流点,标记为第一点集P1;以第一点集P1为 特征点,采用“一种基于图像金字塔光流的特征跟踪方法.江志军,易华蓉.《武 汉大学学报:信息科学版》,2007,32(8):680-683”中的金字塔光流跟踪方法,得到 在当前帧人脸框中的特征点,标记为第二点集P2;以第二点集P2为特征点,采用 “一种基于图像金字塔光流的特征跟踪方法.江志军,易华蓉.《武汉大学学报: 信息科学版》,2007,32(8):680-683”中的金字塔光流跟踪方法,得到在前一帧人 脸框中的特征点,标记为第三点集P3。
示例性地,所述尺度变换系数判断步骤S252为:选取λ1为0.9,λ2为1.05, 如果前一帧人脸框与当前帧人脸框的尺度变换系数R∈[0.9,1.05],则转入尺度变 换正常位置预测步骤S253,否则转入尺度变换过大位置预测步骤S254。
进一步地,所述前一帧人脸框的X坐标Bx、Y坐标By可以选取前一帧人脸 框内任意点的X坐标和Y坐标,包括但不限于:前一帧人脸框的左上角点、左 下角点、右上角点、右下角点、中心点的X坐标和Y坐标。
示例性地,选取前一帧人脸框的中心点的X坐标和Y坐标或者左上角点的 X坐标和Y坐标作为前一帧人脸框的X坐标Bx、Y坐标By。
进一步地,所述第三步骤S3包括:
检测人脸框与预测人脸框匹配步骤S31,计算当前帧的所有预测人脸框和检 测人脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更新跟 踪框,否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对,转入 跟踪框更新步骤S32;
跟踪框更新步骤S32,针对匹配对的预测人脸框与检测人脸框,如果检测人 脸框的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人脸框 的置信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检测人 脸框;
跟踪框删除步骤S33,如果连续T4帧的跟踪框处于图像边缘并且相邻的跟踪 框交并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框删除步骤S33包括:统计连续T4帧的跟踪框的边界, 如果跟踪框存在至少一个边界位于图像的边界上,则计算连续T4帧的每相邻两个 跟踪框的交并比值,如果交并比值大于T5,则删除跟踪框。
进一步地,所述交并比值为两个框的交叠区域与两个框的合并区域的面积比 值。
进一步地,所述T3的取值范围为0.4~0.8,所述λ3的取值范围为0.7~0.8,所 述T4的取值范围为3~8,所述T5的取值范围为0.75~0.95。
所述检测人脸框的置信度和预测人脸框的置信度可以采用现有的基于分类 器或者神经网络的人脸检测方法实现。
示例性地,所述检测人脸框与预测人脸框匹配步骤S31为:对于当前帧的检 测人脸框,T3选为0.6,分别计算检测人脸框和所有预测人脸框的交叠区域的面 积SOR,计算检测人脸框和预测人脸框的合并区域的面积SCR,计算交并比值 SOR/SCR,如果SOR/SCR<0.6,返回跟踪失败,否则将合并比值最大对应的预测 人脸框和检测人脸框作为匹配对。
进一步地,所述第四步骤S4包括:
交并比值计算步骤S41,选取标注的真实人脸框,计算真实人脸框与对应跟 踪框的交并比值;
网络训练步骤S42,将交并比值大于T6的跟踪框作为正样本,标记为分类标 签1、以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作为part 样本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值小于T8的跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样本,对 基于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差值识别 网络模型;
网络模型识别步骤S43,对于连续T9帧未检测到人脸框,将未检测到的人脸 框对应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如果分 类分数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否则删 除跟踪框;
跟踪框输出步骤S44,输出所有的跟踪框。
进一步地,所述网络训练步骤S42中样本与真实人脸框的偏差值包括:左上 角X坐标偏差值(x1-nx1)/WHR、左上角Y坐标偏差值(y1-ny1)/WHR、右下角 X坐标偏差值(x2-nx2)/WHR、右下角Y坐标偏差值(y2-ny2)/WHR,其中 WHR=(WR+HR)/2,x1、y1、x2、y2分别为真实人脸框的左上角X坐标、左 上角Y坐标、右下角X坐标、右下角Y坐标,nx1、ny1、nx2、ny2分别为样本的左上角X坐标、左上角Y坐标、右下角X坐标、右下角Y坐标。
进一步地,所述基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积 层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、 第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上 一层的第一全连接层相连接。
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏 差值。
进一步地,所述网络模型识别步骤S43中偏差值为根据分类偏差值识别网络 模型输出的左上角X坐标偏差值、左上角Y坐标偏差值、右下角X坐标偏差值、 右下角Y坐标偏差值;
进一步地,所述网络模型识别步骤S43中根据偏差值修正跟踪框的位置为: 分别将跟踪框的左上角X坐标加上左上角X坐标偏差值、左上角Y坐标加上左 上角Y坐标偏差值、右下角X坐标加上右下角X坐标偏差值、右下角Y坐标加 上右下角Y坐标偏差值,作为修正后的跟踪框的左上角X坐标、左上角Y坐标、 右下角X坐标、右下角Y坐标。
进一步地,所述T6的取值范围为0.6~0.7,所述T7的取值范围为0.35~0.45, 所述T8的取值范围为0.25~0.35,所述T9的取值范围为2~5,所述T10的取值范围 为0.45~0.65。
示例性地,所述基于卷积神经网络的跟踪框后处理网络为包括:
第一层:第一卷积层、第一激活函数、第一池化层;
第二层:第二卷积层、第二激活函数、第二池化层;
第三层:第三卷积层、第三激活函数;
第四层:第一全连接层、第四激活函数;
第五层:第二全连接层、第三全连接层。
其中,第二全连接层输出分类分数,第三全连接层输出偏差值。
图2给出了按照本发明的一种人脸跟踪装置的框架图。如图2所示,按照本 发明的一种人脸跟踪装置包括:
人脸框检测模块1,用于输入视频图像,采用基于卷积神经网络的人脸检测 方法,获取图像中的检测人脸框的位置、宽度和高度;
人脸框预测模块2,用于采用双向金字塔光流跟踪法,对图像中的人脸框进 行跟踪,获取预测人脸框的位置、宽度和高度;
跟踪框获取模块3,用于对检测人脸框和预测人脸框进行人脸框匹配,获取 跟踪框;
跟踪框后处理模块4,用于采用基于卷积神经网络的跟踪框后处理网络,对 跟踪框进行过滤和位置修正处理,输出跟踪框。
进一步地,所述人脸框检测模块1可以替换为:用于输入视频图像,如果当 前帧是奇数帧,则采用基于卷积神经网络的人脸检测方法,获取视频图像中的人 脸框,否则转入人脸框预测模块2。
进一步地,所述人脸框预测模块2包括:
金字塔图像获取模块21,用于设置金字塔的层数,获取对应金字塔层数的 金字塔图像,并获取金字塔图像中的人脸框;
光流点跟踪模块22,用于根据金字塔图像,从人脸框中选取T1个光流点, 记为第一点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正 向跟踪,得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进 行金字塔光流反向跟踪,得到跟踪的第三点集;
光流点过滤模块23,用于计算第一点集与第三点集对应点的欧氏距离和中 值,计算第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化 中值,如果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一 点集、第二点集和第三点集中的对应点;
人脸跟踪判断模块24:用于如果第二点集中点的个数大于T2,则转入人脸 框位置预测模块25,否则返回跟踪失败;
人脸框位置预测模块25,用于计算前一帧人脸框与当前帧人脸框的尺度变 换系数,根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位 置、宽度和高度。
进一步地,所述人脸框位置预测模块25包括:
尺度变换系数计算模块251,用于分别计算第一点集与第二点集对应点在x 方向和y方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算 第二点集中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对 应的两点在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第 一点集之间的尺度变换系数计算第一点集与第二点集对 应的所有两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的 尺度变换系数R;
尺度变换系数判断模块252,用于如果前一帧人脸框与当前帧人脸框的尺度 变换系数R∈[λ1,λ2],则转入尺度变换正常位置预测模块253,否则转入尺度变 换过大位置预测模块254;
尺度变换正常位置预测模块253,用于计算宽度上的尺度变换系数 RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算 预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计 算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、 HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测模块254,用于计算预测的当前帧人脸框的X坐标 Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧 人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;
预测人脸框输出模块255,用于将预测的当前帧人脸框作为当前帧的预测人 脸框,输出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC。
进一步地,所述跟踪框获取模块3包括:
检测人脸框与预测人脸框匹配模块31,用于计算当前帧的所有预测人脸框 和检测人脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更 新跟踪框,否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对, 转入跟踪框更新模块32;
跟踪框更新模块32,用于针对匹配对的预测人脸框与检测人脸框,如果检 测人脸框的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人 脸框的置信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检 测人脸框;
跟踪框删除模块33,用于如果连续T4帧的跟踪框处于图像边缘并且相邻的 跟踪框交并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框删除模块33包括:用于统计连续T4帧的跟踪框的边 界,如果跟踪框存在至少一个边界位于图像的边界上,则计算连续T4帧的每相邻 两个跟踪框的交并比值,如果交并比值大于T5,则删除跟踪框。
进一步地,所述跟踪框后处理模块4包括:
交并比值计算模块41,用于选取标注的真实人脸框,计算真实人脸框与对 应跟踪框的交并比值;
网络训练模块42,用于将交并比值大于T6的跟踪框作为正样本,标记为分 类标签1、以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作 为part样本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值 小于T8的跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样 本,对基于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差 值识别网络模型;
网络模型识别模块43,用于对于连续T9帧未检测到人脸框,将未检测到的 人脸框对应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如 果分类分数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否 则删除跟踪框;
跟踪框输出模块44,用于输出所有的跟踪框。
进一步地,所述基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积 层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、 第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上 一层的第一全连接层相连接。
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏 差值。
与现有的人脸跟踪技术相比,本发明的一种人脸跟踪方法及装置一方面采用 级联卷积神经网络进行人脸检测,有效地提高了人脸检测的准确率;另一方面采 用双向金字塔光流法进行人脸框跟踪,同时采用基于卷积神经网络的跟踪后处理 网络对跟踪框进行过滤和位置修正,解决了光流跟踪方法中难以处理遮挡及漂移 的问题,有效地提高了人脸跟踪的准确性。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围, 应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在 于帮助本领域中的技术人员实践本发明。任何本领域中的技术人员很容易在不脱 离本发明精神和范围的情况下进行进一步的改进和完善,因此本发明只受到本发 明权利要求的内容和范围的限制,其意图涵盖所有包括在由所附权利要求所限定 的本发明精神和范围内的备选方案和等同方案。
Claims (16)
1.一种人脸跟踪方法,其特征在于,该方法包括:
第一步骤,输入视频图像,采用基于卷积神经网络的人脸检测方法,获取图像中的检测人脸框的位置、宽度和高度;
第二步骤,采用双向金字塔光流跟踪法,对图像中的人脸框进行跟踪,获取预测人脸框的位置、宽度和高度;
第三步骤,对检测人脸框和预测人脸框进行人脸框匹配,获取跟踪框;
第四步骤,采用基于卷积神经网络的跟踪框后处理网络,对跟踪框进行过滤和位置修正处理,输出跟踪框。
2.如权利要求1所述的方法,其特征在于,所述第二步骤包括:
金字塔图像获取步骤,设置金字塔的层数,获取对应金字塔层数的金字塔图像,并获取金字塔图像中的人脸框;
光流点跟踪步骤,根据金字塔图像,从人脸框中选取T1个光流点,记为第一点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正向跟踪,得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进行金字塔光流反向跟踪,得到跟踪的第三点集;
光流点过滤步骤,计算第一点集与第三点集对应点的欧氏距离和中值,计算第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化中值,如果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一点集、第二点集和第三点集中的对应点;
人脸跟踪判断步骤:如果第二点集中点的个数大于T2,则转入人脸框位置预测步骤,否则返回跟踪失败;
人脸框位置预测步骤,计算前一帧人脸框与当前帧人脸框的尺度变换系数,根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位置、宽度和高度。
3.如权利要求2所述的方法,其特征在于,所述人脸框位置预测步骤包括:
尺度变换系数计算步骤,分别计算第一点集与第二点集对应点在x方向和y方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算第二点集中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对应的两点在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第一点集之间的尺度变换系数计算第一点集与第二点集对应的所有两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的尺度变换系数R;
尺度变换系数判断步骤,如果前一帧人脸框与当前帧人脸框的尺度变换系数R∈[λ1,λ2],则转入尺度变换正常位置预测步骤,否则转入尺度变换过大位置预测步骤;
尺度变换正常位置预测步骤,计算宽度上的尺度变换系数RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测步骤,计算预测的当前帧人脸框的X坐标Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;
预测人脸框输出步骤,将预测的当前帧人脸框作为当前帧的预测人脸框,输出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC。
4.如权利要求3所述的方法,其特征在于,所述前一帧人脸框的X坐标Bx、Y坐标By包括以下一种点的坐标:前一帧人脸框的左上角点、左下角点、右上角点、右下角点、中心点的X坐标和Y坐标。
5.如权利要求1所述的方法,其特征在于,所述第三步骤包括:
检测人脸框与预测人脸框匹配步骤,计算当前帧的所有预测人脸框和检测人脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更新跟踪框,否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对,转入跟踪框更新步骤;
跟踪框更新步骤,针对匹配对的预测人脸框与检测人脸框,如果检测人脸框的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人脸框的置信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检测人脸框;
跟踪框删除步骤,如果连续T4帧的跟踪框处于图像边缘并且相邻的跟踪框交并比值大于T5,则删除跟踪框。
6.如权利要求5所述的方法,其特征在于,所述跟踪框删除步骤包括:统计连续T4帧的跟踪框的边界,如果跟踪框存在至少一个边界位于图像的边界上,则计算连续T4帧的每相邻两个跟踪框的交并比值,如果交并比值大于T5,则删除跟踪框;
所述交并比值为两个框的交叠区域与两个框的合并区域的面积比值。
7.如权利要求1所述的方法,其特征在于,所述第四步骤包括:
交并比值计算步骤,选取标注的真实人脸框,计算真实人脸框与对应跟踪框的交并比值;
网络训练步骤,将交并比值大于T6的跟踪框作为正样本,标记为分类标签1、以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作为part样本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值小于T8的跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样本,对基于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差值识别网络模型;
网络模型识别步骤,对于连续T9帧未检测到人脸框,将未检测到的人脸框对应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如果分类分数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否则删除跟踪框;跟踪框输出步骤,输出所有的跟踪框。
8.如权利要求7所述的方法,其特征在于,所述网络训练步骤中样本与真实人脸框的偏差值包括:左上角X坐标偏差值(x1-nx1)/WHR、左上角Y坐标偏差值(y1-ny1)/WHR、右下角X坐标偏差值(x2-nx2)/WHR、右下角Y坐标偏差值(y2-ny2)/WHR,其中WHR=(WR+HR)/2,x1、y1、x2、y2分别为真实人脸框的左上角X坐标、左上角Y坐标、右下角X坐标、右下角Y坐标,nx1、ny1、nx2、ny2分别为样本的左上角X坐标、左上角Y坐标、右下角X坐标、右下角Y坐标;
所述网络模型识别步骤中偏差值为根据分类偏差值识别网络模型输出的左上角X坐标偏差值、左上角Y坐标偏差值、右下角X坐标偏差值、右下角Y坐标偏差值;
所述网络模型识别步骤中根据偏差值修正跟踪框的位置为:分别将跟踪框的左上角X坐标加上左上角X坐标偏差值、左上角Y坐标加上左上角Y坐标偏差值、右下角X坐标加上右下角X坐标偏差值、右下角Y坐标加上右下角Y坐标偏差值,作为修正后的跟踪框的左上角X坐标、左上角Y坐标、右下角X坐标、右下角Y坐标。
9.如权利要求7所述的方法,其特征在于,基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上一层的第一全连接层相连接;
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏差值。
10.如权利要求1~7所述的方法,所述金字塔的层数的取值范围为3~5,所述T1的取值范围为36~100,所述T2的取值范围为3~6,所述λ1的取值范围为0.7~0.98,所述λ2的取值范围为1.02~1.09;所述T3的取值范围为0.4~0.8,所述λ3的取值范围为0.7~0.8,所述T4的取值范围为3~8,所述T5的取值范围为0.75~0.95;所述T6的取值范围为0.6~0.7,所述T7的取值范围为0.35~0.45,所述T8的取值范围为0.25~0.35,所述T9的取值范围为2~5,所述T10的取值范围为0.45~0.65。
11.一种人脸跟踪装置,其特征在于,该装置包括:
人脸框检测模块,用于输入视频图像,采用基于卷积神经网络的人脸检测方法,获取图像中的检测人脸框的位置、宽度和高度;
人脸框预测模块,用于采用双向金字塔光流跟踪法,对图像中的人脸框进行跟踪,获取预测人脸框的位置、宽度和高度;
跟踪框获取模块,用于对检测人脸框和预测人脸框进行人脸框匹配,获取跟踪框;
跟踪框后处理模块,用于采用基于卷积神经网络的跟踪框后处理网络,对跟踪框进行过滤和位置修正处理,输出跟踪框。
12.如权利要求11所述的装置,其特征在于,所述人脸框预测模块包括:
金字塔图像获取模块,用于设置金字塔的层数,获取对应金字塔层数的金字塔图像,并获取金字塔图像中的人脸框;
光流点跟踪模块,用于根据金字塔图像,从人脸框中选取T1个光流点,记为第一点集,从前一帧人脸框到当前帧人脸框,对第一点集进行金字塔光流正向跟踪,得到跟踪的第二点集;从当前帧人脸框到前一帧人脸框,对第二点集进行金字塔光流反向跟踪,得到跟踪的第三点集;
光流点过滤模块,用于计算第一点集与第三点集对应点的欧氏距离和中值,计算第一点集与第三点集对应点在N×N领域内的归一化相关系数和归一化中值,如果欧氏距离大于中值或者归一化相关系数小于归一化中值,则删除第一点集、第二点集和第三点集中的对应点;
人脸跟踪判断模块:用于如果第二点集中点的个数大于T2,则转入人脸框位置预测模块,否则返回跟踪失败;
人脸框位置预测模块,用于计算前一帧人脸框与当前帧人脸框的尺度变换系数,根据前一帧人脸框的位置和尺度变换系数,获取当前帧预测人脸框的位置、宽度和高度。
13.如权利要求11所述的装置,其特征在于,所述人脸框位置预测模块包括:尺度变换系数计算模块,用于分别计算第一点集与第二点集对应点在x方向和y方向的位移,计算所有点在x方向、y方向位移的平均值dx、dy;计算第二点集中任意两点在x方向和y方向上的间距Dx1和Dy1,计算第一点集中对应的两点在x方向和y方向上的间距Dx2和Dy2,计算对应两点在第二点集与第一点集之间的尺度变换系数计算第一点集与第二点集对应的所有两点的尺度变换系数的平均值,标记为前一帧人脸框与当前帧人脸框的尺度变换系数R;
尺度变换系数判断模块,用于如果前一帧人脸框与当前帧人脸框的尺度变换系数R∈[λ1,λ2],则转入尺度变换正常位置预测模块,否则转入尺度变换过大位置预测模块;
尺度变换正常位置预测模块,用于计算宽度上的尺度变换系数RW=0.5×(R-1)×WP,计算高度上的尺度变换系数RH=0.5×(R-1)×HP,计算预测的当前帧人脸框的X坐标Bx′=Bx+dx-RW、Y坐标By′=By+dy-RH,计算预测的当前帧人脸框的宽度WC=WP×R、高度HC=HP×R,其中Bx、By、WP、HP分别为前一帧人脸框的X坐标、Y坐标、宽度和高度;
尺度变换过大位置预测模块,用于计算预测的当前帧人脸框的X坐标Bx′=Bx+dx、Y坐标By′=By+dy,预测的当前帧人脸框的宽度和高度与前一帧人脸框的宽度和高度相同,其中Bx、By分别为前一帧人脸框的X坐标、Y坐标;预测人脸框输出模块,用于将预测的当前帧人脸框作为当前帧的预测人脸框,输出预测人脸框的X坐标Bx′、Y坐标By′、宽度WC和高度HC 。
14.如权利要求11所述的装置,其特征在于,所述跟踪框获取模块包括:
检测人脸框与预测人脸框匹配模块,用于计算当前帧的所有预测人脸框和检测人脸框的交并比值,如果交并比值小于T3,则认为未检测到人脸框,不更新跟踪框,否则选取交并比值最大对应的预测人脸框和检测人脸框作为匹配对,转入跟踪框更新模块;
跟踪框更新模块,用于针对匹配对的预测人脸框与检测人脸框,如果检测人脸框的面积小于预测人脸框面积×λ3,并且检测人脸框的置信度小于预测人脸框的置信度,则认为检测人脸框不完整,不更新跟踪框,否则跟踪框更新为检测人脸框;
跟踪框删除模块,用于如果连续T4帧的跟踪框处于图像边缘并且相邻的跟踪框交并比值大于T5,则删除跟踪框。
15.如权利要求11所述的装置,其特征在于,所述跟踪框后处理模块包括:
交并比值计算模块,用于选取标注的真实人脸框,计算真实人脸框与对应跟踪框的交并比值;
网络训练模块,用于将交并比值大于T6的跟踪框作为正样本,标记为分类标签1、以及样本与真实人脸框的偏差值;将交并比值位于[T7,T6]的跟踪框作为part样本,标记为分类标签-1、以及样本与真实人脸框的偏差值;将交并比值小于T8的跟踪框作为负样本,标记为分类标签0;根据正样本、part样本和负样本,对基于卷积神经网络的跟踪框后处理网络进行训练,获取训练好的分类偏差值识别网络模型;
网络模型识别模块,用于对于连续T9帧未检测到人脸框,将未检测到的人脸框对应的跟踪框输入分类偏差值识别网络模型,获取分类分数和偏差值,如果分类分数大于T10,则认为跟踪框有效,则根据偏差值修正跟踪框的位置,否则删除跟踪框;
跟踪框输出模块,用于输出所有的跟踪框。
16.如权利要求15所述的装置,其特征在于,所述基于卷积神经网络的跟踪框后处理网络包括:至少2个卷积层、至少2个池化层和至少3个全连接层;其中全连接层包括:第一全连接层、第二全连接层和第三全连接层,第二全连接层和第三全连接层属于同一层,与上一层的第一全连接层相连接;
进一步地,所述第二全连接层和所述第三全连接层,分别输出分类分数和偏差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810767364.0A CN109063593A (zh) | 2018-07-13 | 2018-07-13 | 一种人脸跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810767364.0A CN109063593A (zh) | 2018-07-13 | 2018-07-13 | 一种人脸跟踪方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109063593A true CN109063593A (zh) | 2018-12-21 |
Family
ID=64816356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810767364.0A Pending CN109063593A (zh) | 2018-07-13 | 2018-07-13 | 一种人脸跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109063593A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871760A (zh) * | 2019-01-15 | 2019-06-11 | 北京奇艺世纪科技有限公司 | 一种人脸定位方法、装置、终端设备及存储介质 |
CN110414447A (zh) * | 2019-07-31 | 2019-11-05 | 京东方科技集团股份有限公司 | 行人跟踪方法、装置及设备 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110569785A (zh) * | 2019-09-05 | 2019-12-13 | 杭州立宸科技有限公司 | 一种融合跟踪技术的人脸识别方法 |
CN110598635A (zh) * | 2019-09-12 | 2019-12-20 | 北京大学第一医院 | 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统 |
CN110647813A (zh) * | 2019-08-21 | 2020-01-03 | 成都携恩科技有限公司 | 一种基于无人机航拍的人脸实时检测识别方法 |
CN111160202A (zh) * | 2019-12-20 | 2020-05-15 | 万翼科技有限公司 | 基于ar设备的身份核验方法、装置、设备及存储介质 |
CN111209818A (zh) * | 2019-12-30 | 2020-05-29 | 新大陆数字技术股份有限公司 | 视频个体识别方法、系统、设备及可读存储介质 |
CN111523424A (zh) * | 2020-04-15 | 2020-08-11 | 上海摩象网络科技有限公司 | 人脸跟踪方法及人脸跟踪设备 |
WO2021057315A1 (zh) * | 2019-09-27 | 2021-04-01 | 深圳云天励飞技术股份有限公司 | 多目标跟踪方法及相关设备 |
CN113065457A (zh) * | 2021-03-30 | 2021-07-02 | 广州繁星互娱信息科技有限公司 | 人脸检测点处理方法、装置、计算机设备及存储介质 |
CN113792633A (zh) * | 2021-09-06 | 2021-12-14 | 北京工商大学 | 一种基于神经网络和光流法的人脸追踪系统和追踪方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750527A (zh) * | 2012-06-26 | 2012-10-24 | 浙江捷尚视觉科技有限公司 | 一种银行场景中长期稳定的人脸检测与跟踪方法及装置 |
CN103871079A (zh) * | 2014-03-18 | 2014-06-18 | 南京金智视讯技术有限公司 | 基于机器学习和光流的车辆跟踪方法 |
CN106250850A (zh) * | 2016-07-29 | 2016-12-21 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统 |
CN106599836A (zh) * | 2016-12-13 | 2017-04-26 | 北京智慧眼科技股份有限公司 | 多人脸跟踪方法及跟踪系统 |
CN106683091A (zh) * | 2017-01-06 | 2017-05-17 | 北京理工大学 | 一种基于深度卷积神经网络的目标分类及姿态检测方法 |
CN107480730A (zh) * | 2017-09-05 | 2017-12-15 | 广州供电局有限公司 | 电力设备识别模型构建方法和系统、电力设备的识别方法 |
CN107633529A (zh) * | 2017-09-11 | 2018-01-26 | 中国地质大学(武汉) | 一种深度卷积神经网单目标跟踪方法、设备及存储设备 |
CN107944369A (zh) * | 2017-11-17 | 2018-04-20 | 大连大学 | 一种基于级联区域生成网络和增强随机森林的行人检测方法 |
CN108171196A (zh) * | 2018-01-09 | 2018-06-15 | 北京智芯原动科技有限公司 | 一种人脸检测方法及装置 |
CN108256506A (zh) * | 2018-02-14 | 2018-07-06 | 北京市商汤科技开发有限公司 | 一种视频中物体检测方法及装置、计算机存储介质 |
-
2018
- 2018-07-13 CN CN201810767364.0A patent/CN109063593A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750527A (zh) * | 2012-06-26 | 2012-10-24 | 浙江捷尚视觉科技有限公司 | 一种银行场景中长期稳定的人脸检测与跟踪方法及装置 |
CN103871079A (zh) * | 2014-03-18 | 2014-06-18 | 南京金智视讯技术有限公司 | 基于机器学习和光流的车辆跟踪方法 |
CN106250850A (zh) * | 2016-07-29 | 2016-12-21 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统 |
CN106599836A (zh) * | 2016-12-13 | 2017-04-26 | 北京智慧眼科技股份有限公司 | 多人脸跟踪方法及跟踪系统 |
CN106683091A (zh) * | 2017-01-06 | 2017-05-17 | 北京理工大学 | 一种基于深度卷积神经网络的目标分类及姿态检测方法 |
CN107480730A (zh) * | 2017-09-05 | 2017-12-15 | 广州供电局有限公司 | 电力设备识别模型构建方法和系统、电力设备的识别方法 |
CN107633529A (zh) * | 2017-09-11 | 2018-01-26 | 中国地质大学(武汉) | 一种深度卷积神经网单目标跟踪方法、设备及存储设备 |
CN107944369A (zh) * | 2017-11-17 | 2018-04-20 | 大连大学 | 一种基于级联区域生成网络和增强随机森林的行人检测方法 |
CN108171196A (zh) * | 2018-01-09 | 2018-06-15 | 北京智芯原动科技有限公司 | 一种人脸检测方法及装置 |
CN108256506A (zh) * | 2018-02-14 | 2018-07-06 | 北京市商汤科技开发有限公司 | 一种视频中物体检测方法及装置、计算机存储介质 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871760A (zh) * | 2019-01-15 | 2019-06-11 | 北京奇艺世纪科技有限公司 | 一种人脸定位方法、装置、终端设备及存储介质 |
CN110414447A (zh) * | 2019-07-31 | 2019-11-05 | 京东方科技集团股份有限公司 | 行人跟踪方法、装置及设备 |
US11830273B2 (en) | 2019-07-31 | 2023-11-28 | Boe Technology Group Co., Ltd. | Multi-target pedestrian tracking method, multi-target pedestrian tracking apparatus and multi-target pedestrian tracking device |
CN110414447B (zh) * | 2019-07-31 | 2022-04-15 | 京东方科技集团股份有限公司 | 行人跟踪方法、装置及设备 |
CN110647813A (zh) * | 2019-08-21 | 2020-01-03 | 成都携恩科技有限公司 | 一种基于无人机航拍的人脸实时检测识别方法 |
CN110555867B (zh) * | 2019-09-05 | 2023-07-07 | 杭州智爱时刻科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110569785B (zh) * | 2019-09-05 | 2023-07-11 | 杭州智爱时刻科技有限公司 | 一种融合跟踪技术的人脸识别方法 |
CN110569785A (zh) * | 2019-09-05 | 2019-12-13 | 杭州立宸科技有限公司 | 一种融合跟踪技术的人脸识别方法 |
CN110598635A (zh) * | 2019-09-12 | 2019-12-20 | 北京大学第一医院 | 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统 |
CN110598635B (zh) * | 2019-09-12 | 2022-05-27 | 北京大学第一医院 | 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统 |
WO2021057315A1 (zh) * | 2019-09-27 | 2021-04-01 | 深圳云天励飞技术股份有限公司 | 多目标跟踪方法及相关设备 |
CN111160202A (zh) * | 2019-12-20 | 2020-05-15 | 万翼科技有限公司 | 基于ar设备的身份核验方法、装置、设备及存储介质 |
CN111160202B (zh) * | 2019-12-20 | 2023-09-05 | 万翼科技有限公司 | 基于ar设备的身份核验方法、装置、设备及存储介质 |
CN111209818A (zh) * | 2019-12-30 | 2020-05-29 | 新大陆数字技术股份有限公司 | 视频个体识别方法、系统、设备及可读存储介质 |
WO2021208251A1 (zh) * | 2020-04-15 | 2021-10-21 | 上海摩象网络科技有限公司 | 人脸跟踪方法及人脸跟踪设备 |
CN111523424A (zh) * | 2020-04-15 | 2020-08-11 | 上海摩象网络科技有限公司 | 人脸跟踪方法及人脸跟踪设备 |
CN113065457A (zh) * | 2021-03-30 | 2021-07-02 | 广州繁星互娱信息科技有限公司 | 人脸检测点处理方法、装置、计算机设备及存储介质 |
CN113065457B (zh) * | 2021-03-30 | 2024-05-17 | 广州繁星互娱信息科技有限公司 | 人脸检测点处理方法、装置、计算机设备及存储介质 |
CN113792633A (zh) * | 2021-09-06 | 2021-12-14 | 北京工商大学 | 一种基于神经网络和光流法的人脸追踪系统和追踪方法 |
CN113792633B (zh) * | 2021-09-06 | 2023-12-22 | 北京工商大学 | 一种基于神经网络和光流法的人脸追踪系统和追踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063593A (zh) | 一种人脸跟踪方法及装置 | |
CN107038448A (zh) | 目标检测模型构建方法 | |
CN109829893A (zh) | 一种基于注意力机制的缺陷目标检测方法 | |
CN108921875A (zh) | 一种基于航拍数据的实时车流检测与追踪方法 | |
CN107862705A (zh) | 一种基于运动特征和深度学习特征的无人机小目标检测方法 | |
CN106097391A (zh) | 一种基于深度神经网络的识别辅助的多目标跟踪方法 | |
CN106446930A (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN107369166A (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
CN106127815A (zh) | 一种融合卷积神经网络的跟踪方法及系统 | |
CN104732186B (zh) | 基于局部子空间稀疏表示的单样本人脸识别方法 | |
CN107844785A (zh) | 一种基于尺度估计的人脸检测方法 | |
CN108764066A (zh) | 一种基于深度学习的快件分拣操作规范检测方法 | |
CN108171196A (zh) | 一种人脸检测方法及装置 | |
CN104599286B (zh) | 一种基于光流的特征跟踪方法及装置 | |
CN107665498A (zh) | 基于典型示例挖掘的全卷积网络飞机检测方法 | |
CN107609464B (zh) | 一种实时人脸快速检测方法 | |
CN107330922A (zh) | 基于运动信息和区域特征的航拍视频运动目标检测方法 | |
CN103955950B (zh) | 一种利用关键点特征匹配的图像跟踪方法 | |
CN104850857B (zh) | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 | |
Liu et al. | Extended faster R-CNN for long distance human detection: Finding pedestrians in UAV images | |
CN110163157A (zh) | 一种利用新型损失函数进行多人姿态估计的方法 | |
CN108492282A (zh) | 基于线结构光与多任务级联卷积神经网络的三维涂胶检测 | |
CN107219850A (zh) | 一种基于机器视觉的机器人自动寻路系统 | |
Yan et al. | A combination of convolutional and graph neural networks for regularized road surface extraction | |
CN108171674A (zh) | 针对任意视角投影仪图像的视觉矫正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181221 |
|
RJ01 | Rejection of invention patent application after publication |