CN113255608B - 一种基于cnn分类的多摄像头人脸识别定位方法 - Google Patents
一种基于cnn分类的多摄像头人脸识别定位方法 Download PDFInfo
- Publication number
- CN113255608B CN113255608B CN202110740521.0A CN202110740521A CN113255608B CN 113255608 B CN113255608 B CN 113255608B CN 202110740521 A CN202110740521 A CN 202110740521A CN 113255608 B CN113255608 B CN 113255608B
- Authority
- CN
- China
- Prior art keywords
- face
- target
- tracking
- recognition
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于CNN分类的多摄像头人脸识别定位方法,包括如下步骤:步骤一、设计人脸水平多视角定位网络;步骤二、通过人脸识别和跟踪融合算法、人脸水平角度分类器、人脸准确度评估函数进行综合判断,从而确定当前帧在线人脸目标或者完成跟踪位置的更新;步骤三、对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位。本发明基于多任务的CNN模型实现人脸水平角度分类,提高了人脸可识别的范围,减少了同一个人不同头部姿态被识别成不同人的情况,使特定场景客流量统计更加准确;本发明结合人脸编码算法和人头定位跟踪方法辅助人脸识别,提高了识别的精准度,比普通的人像识别更具有说服力。
Description
技术领域
本发明涉及一种基于CNN分类的多摄像头人脸识别定位方法。
背景技术
现有的人脸识别定位技术中主要有采用单目摄像头定位方法和双摄像头定位方法,单目摄像头下人脸距离估算将存在误差,效果不及双摄像头的识别定位。已有的双目、多目摄像头定位算法中摄像头多处于固定状态,其产生的误差通常会影响人脸识别精度、人脸高度估算精确性、摄像头画面畸变程度等方面。
经典的人头检测技术主要基于人像占据背景50%以上的高密度人群场景,传统的基于人像识别和跟踪的算法框架难以奏效,而多数情况下人头遮挡较少、判别性特征丰富,但长期以来未出现性能较好的解决方案,而且依附于人群分析等。随着各类监控摄像头清晰度的提升和人脸识别技术的发展,人头检测算法精度有所提升。目前主流人头检测算法大部分基于卷积神经网络(CNN)实现,但由于测试集尺度不同、具体场景各异,各类算法的可比性较低;同时多数基于CNN人头检测算法泛化性能较低,在现实应用场景下较难适用。“Face Alignment At 3000fps via Local Binary Features”是极高效的人脸角度标定算法,该算法采用随机森林集成学习定位人脸特征点而能取得当时最先进的效果。随机森林等决策树相关模型是大量数据为基础的“记忆模型”,优势在于模型较易训练且运行速度极快。虽然通过集成学习和引入随机性可形成的近似非线形的分类边界,但就模型描述能力而言不如神经网络和支持向量机(SVM)。
MTCNN为2016年提出的多任务卷积神经网络算法,可同时完成人脸检测和关键点标定,效率与精度并存,常用于人脸数据集中“人脸对齐”操作。该算法目前广泛用于人脸识别领域数据集人脸标定,但是人脸关键点(五官)存在遮挡和模糊时识别效果较差。MTCNN算法对于较大图片上识别效果较低,出现误识别、目标未识别几率较大,将直接影响人脸匹配效果,虽然目前针对正脸、侧脸和半遮挡脸的识别、匹配效果较好,但整体运行速度较低。
发明内容
本发明的目的是克服现有技术中的不足,提供一种基于CNN分类的多摄像头人脸识别定位方法。
为了达到上述目的,本发明是通过以下技术方案实现的:
一种基于CNN分类的多摄像头人脸识别定位方法,包括如下步骤:
步骤一、设计人脸水平多视角定位网络。
步骤二、通过人脸识别和跟踪融合算法和人脸水平多视角定位网络来确定当前帧在线人脸目标并完成跟踪位置的更新;
步骤三、对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位。
作为优选,所述步骤一中,设计人脸水平多视角定位网络包括如下步骤:
步骤s1:训练人脸水平多视角定位网络:将人脸分为正脸、左右3/4侧脸、全侧脸、背面/非人脸4类。数据集采用VGGFace2(亦可采用其他能达到训练目的的相关人脸数据集),基于人脸编码算法——Insight Face中人脸编码结果生成带角度标签的数据集,训练分类器;
步骤s2:设计人脸准确度评估函数:根据数据集中人脸关键点、人脸角度标签、同类人脸框间重合程度、是否出视频帧边缘等信息给出多维置信分,用以判断该人脸框内人脸的清晰度,以便取舍跟踪和定位结果。
作为优选,步骤二中,人脸识别和跟踪融合算法具体是指同时使用人脸识别算法和跟踪算法进行目标捕获和跟踪,以提高目标跟踪或识别的精准性。每一帧都会用人脸识别算法对人脸进行捕获并编号,相同的人脸后续出现的编号是一致的。前一帧成功捕获的人脸位置将成为下一帧跟踪算法的初始值,跟踪结果体现在下一帧。每帧图像中都会比对当前捕获的人脸和跟踪的人脸的特征值,比对成功的捕获人脸结果将会更新当前的跟踪结果并且作为下一帧跟踪的初始值。若上一帧没有成功的捕获人脸,则使用人脸跟踪当前值作为下一帧跟踪的初始值。当目标被遮挡时,用当前帧跟踪的位置结果继续跟踪被遮挡的目标,等待下一次目标人脸重新出现并被捕获到再用捕获的位置初始化下一帧跟踪算法。
作为优选,步骤二中,当前帧设定为t帧,以Δt帧为周期,若t小于Δt时,则完成跟踪位置的更新,若t整除Δt时,则确定当前帧在线人脸目标包括如下步骤:
步骤a1:通过人脸跟踪算法得到具有连续标签的跟踪目标集,再将跟踪目标的人脸框和人脸识别算法所得推荐框一同作为人脸识别算法中细分类的输入,从而获得人脸识别算法细分类的结果集;
步骤a2:对跟踪目标集中的各跟踪目标和结果集中的各识别结果使用人脸编码器分别保存各自512维特征,再对各自编码调用人脸水平多视角定位网络获得该人脸框的角度标签,并分别调用人脸准确度评估函数获得该人脸框的多维置信分;
步骤a3:通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果,然后结合带角度标签的数据集进行匹配,并根据该人脸框的多维置信分判断人脸是否足够清晰,从而最终确定当前帧在线的人脸目标,包括遮挡或背面状态人脸目标,从而更新人脸数据库。
作为优选,步骤二中,若当前帧处于给定的Δt帧周期内,只需完成跟踪位置的更新。
作为优选,步骤a3中,通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果指的是使用人脸识别和跟踪融合算法通过欧式距离计算跟踪结果和识别结果的人脸位置偏移量。
作为优选,步骤三中,对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位,具体要确定目标的坐标后进行跟踪,确定坐标即定位过程包括以下步骤:
步骤t1:通过线性相机模型对当前帧在线人脸目标进行测距:单目摄像头下,根据已知人脸的真实高度H、测量可知的摄像头焦距f和图像中获取的像素高度h,可求解人脸到摄像头的距离D如公式1所示。
步骤t2:在双目摄像头情况下求解目标位置P(PXi,Pyi)的二维坐标,横坐标如公式2所示、纵坐标如公式3所示。
所述b0L为世界坐标系中对于左侧摄像头CL的原点截距,所述b0R为世界坐标系中对于右侧摄像头CR的原点截距,设定左侧摄像头相对于坐标横轴的偏航角为αc,设定右侧摄像头相对于坐标横轴的偏航角为αr,设定左摄像头相对于坐标横轴的目标距离为DL,设定右摄像头相对于坐标横轴的目标距离为DR,设定kR为目标在右侧摄像头中所在直线的斜率,设定kL为目标在左侧摄像头中所在直线的斜率,设定γ为对αc的转化,设定β为对αr的转化,
若αC∈[0,90°),则bOL=DLtan(αC),γ=αC;
若αc∈(-360°,-270°),则bOL=-DLtan(αc),γ=αc+360°;
若αr∈[0,90°)时,则bOR=-DRtan(αC),β=αr;
若αr∈(-360°,-270°)时,bOR=DRtan(αr),β=αr+360°;
bR=DR/cos(β),bL=DL/c0s(γ),kR=tan(β),kL=tan(γ),
步骤t3:修正多人人脸定位误差,对于不同摄像头下的人脸匹配可放宽邻域,各目标位置修正坐标表示为(Pxi±∈,Pyi±∈);
步骤t4:多目标匹配,求目标i的真实坐标pi。步骤如下:
步骤t41、存在多目标时,将世界坐标系的平面基于原点O划分步长为2m的网格。在各单目摄像头的图像内,可先根据各目标Pi中心按相对光轴Oc(图像中心)的像素距离和距离Di,估算目标在世界坐标系平面投影点Pi所落入(相对世界坐标系平面原点O)的网格Guv。
步骤t42、遍历各格点Guv,通过VIOU跟踪器(或其他有效算法)预测相关目标,再根据人脸编码相似度匹配目标点。对于匹配成功的目标i分别基于步骤t2求解真实坐标(PXi,Pyi)。
作为优选,步骤t1中已知人脸的真实高度H定义为目标人脸下颌至发际线(或帽子)的投影至世界坐标系平面的高度,根据多任务的人脸高度估计算法求解。人脸高度估计算法通过基于人脸(512位)编码的多任务学习神经网络模型,以人脸真实高度估计为主任务,以人脸标定的关键点、人脸仰角和偏转角(位姿)估计、人脸性别分类和年龄分类为辅助,训练的数据集使用Reddit-HWBMI,数据集包含982名受试者,其中男性600人,女性382人,以此进行多任务卷积神经网络(MTL-CNN)模型的训练,从而得到人脸高度估计算法。
本发明的有益效果如下:
本发明基于多任务的CNN模型实现人脸水平角度分类,提高了人脸可识别的范围,减少了同一个人不同头部姿态被识别成不同人的情况;
本发明通过多摄像头、多视角对密集人群进行识别和跟踪,使特定场景客流量统计更加准确;
本发明结合人脸编码算法和人头定位跟踪方法辅助人脸识别,提高了识别的精准度,比普通的人像识别更具有说服力。
附图说明
图1为本发明算法的基本框图;
图2为本发明单目摄像头下相机坐标系光轴测距说明图;
图3为本发明世界坐标系平面网格划分图。
具体实施方式
下面结合说明书附图对本发明的技术方案作进一步说明:
如图1所示为本发明算法的基本框图,涉及到跟踪识别融合算法和多摄像头联动人头定位算法。其中跟踪识别算法包括跟踪算法、识别算法和人脸编码算法,实现了人脸角度分类和人脸和跟踪的准确度评估函数的设计;多摄像头联动人头定位算法获取各摄像头内人脸目标框、目标标签和人脸角度类别可以实现多目标的人头定位,具体实施过程包括如下步骤:
步骤一、设计人脸水平多视角定位网络。
步骤二、通过人脸识别和跟踪融合算法和人脸水平多视角定位网络来确定当前帧在线人脸目标并完成跟踪位置的更新;
步骤三、对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位。
所述步骤一中,设计人脸水平多视角定位网络包括如下步骤:
步骤s1:训练人脸水平多视角定位网络:将人脸分为正脸、左右3/4侧脸、全侧脸、背面/非人脸4类。数据集采用VGGFace2(亦可采用其他能达到训练目的的相关人脸数据集),基于人脸编码算法——Insight Face中人脸编码结果生成带角度标签的数据集,训练分类器;
步骤s2:设计人脸准确度评估函数:根据数据集中人脸关键点、人脸角度标签、同类人脸框间重合程度、是否出视频帧边缘等信息给出多维置信分,用以判断该人脸框内人脸的清晰度,以便取舍跟踪和识别结果。
作为优选,步骤二中,人脸识别和跟踪融合算法具体是指同时使用人脸识别算法和跟踪算法进行目标捕获和跟踪,以提高目标跟踪或识别的精准性。每一帧都会用人脸识别算法对人脸进行捕获并编号,相同的人脸后续出现的编号是一致的。前一帧成功捕获的人脸位置将成为下一帧跟踪算法的初始值,跟踪结果体现在下一帧。每帧图像中都会比对当前捕获的人脸和跟踪的人脸的特征值,比对成功的捕获人脸结果将会更新当前的跟踪结果并且作为下一帧跟踪的初始值。若上一帧没有成功的捕获人脸,则使用人脸跟踪当前值作为下一帧跟踪的初始值。当目标被遮挡时,用当前帧跟踪的位置结果继续跟踪被遮挡的目标,等待下一次目标人脸重新出现并被捕获到再用捕获的位置初始化下一帧跟踪算法。
步骤二中,当前帧设定为t帧,以Δt帧为周期,若t小于Δt时,则完成跟踪位置的更新,若t整除Δt时,则确定当前帧在线人脸目标包括如下步骤:
步骤a1:通过人脸跟踪算法得到具有连续标签的跟踪目标集,再将跟踪目标的人脸框和人脸识别算法所得推荐框一同作为人脸识别算法中细分类的输入,从而获得人脸识别算法细分类的结果集;
步骤a2:对跟踪目标集中的各跟踪目标和结果集中的各识别结果使用人脸编码器分别保存各自512维特征,再对各自编码调用人脸水平多视角定位网络获得该人脸框的角度标签,并分别调用人脸准确度评估函数获得该人脸框的多维置信分;
步骤a3:通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果,然后结合带角度标签的数据集进行匹配,并根据该人脸框的多维置信分判断人脸是否足够清晰,从而最终确定当前帧在线的人脸目标,包括遮挡或背面状态人脸目标,从而更新人脸数据库。
作为优选,步骤二中,若当前帧处于给定的Δt帧周期内,只需完成跟踪位置的更新。
作为优选,步骤a3中,通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果指的是使用人脸识别和跟踪融合算法通过欧式距离计算跟踪结果和识别结果的人脸位置偏移量。
作为优选,步骤三中,对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位,具体要确定目标的坐标后进行跟踪,确定坐标即定位过程包括以下步骤:
步骤t1:通过线性相机模型对当前帧在线人脸目标进行测距:如图2所示为单目摄像头下测距说明图,根据已知人脸的真实高度H、测量可知的摄像头焦距f和图像中获取的像素高度h,可求解人脸到摄像头的距离D如公式1所示。
步骤t2:在双目摄像头情况下求解目标位置P(PXi,Pyi)的二维坐标,横坐标如公式2所示、纵坐标如公式3所示。
所述b0L为世界坐标系中对于左侧摄像头CL的原点截距,所述b0R为世界坐标系中对于右侧摄像头CR的原点截距,设定左侧摄像头相对于坐标横轴的偏航角为αc,设定右侧摄像头相对于坐标横轴的偏航角为αr,设定左摄像头相对于坐标横轴的目标距离为DL,设定右摄像头相对于坐标横轴的目标距离为DR,设定kR为目标在右侧摄像头中所在直线的斜率,设定kL为目标在左侧摄像头中所在直线的斜率,设定γ为对αC的转化,设定β为对αr的转化,
若αC∈[0,90°),则bOL=DLtan(αC),γ=αc;
若αc∈(-360°,-270°),则bOL=-DLtan(αc),γ=αC+360°;
若αr∈[0,90°)时,则bOR=-DRtan(αC),β=αr;
若αr∈(-360°,-270°)时,bOR=DRtan(αr),β=αr+360°;
bR=DR/cos(β),bL=DL/cos(γ),kR=tan(β),kL=tan(γ),
步骤t3:修正多人人脸定位误差,对于不同摄像头下的人脸匹配可放宽邻域,各目标位置修正坐标表示为(Pxi±∈,Pyi±∈);
步骤t4:多目标匹配,求目标i的真实坐标pi。步骤如下:
步骤t41、存在多目标时,将世界坐标系的平面基于原点O划分作如图3所示的网格。在各单目摄像头的图像内,可先根据各目标Pi中心按相对光轴Oc(图像中心)的像素距离和距离Di,估算目标在世界坐标系平面投影点Pi所落入(相对世界坐标系平面原点O)的网格Guv。
作为优选,步骤t1中已知人脸的真实高度H定义为目标人脸下颌至发际线(或帽子)的投影至世界坐标系平面的高度,根据多任务的人脸高度估计算法求解,人脸高度估计算法通过基于人脸(512位)编码的多任务学习神经网络模型,以人脸真实高度估计为主任务,以人脸标定的关键点、人脸仰角和偏转角(位姿)估计、人脸性别分类和年龄分类为辅助,训练的数据集使用Reddit-HWBMI,数据集包含982名受试者,其中男性600人,女性382人,以此进行多任务卷积神经网络(MTL-CNN)模型的训练,从而得到人脸高度估计算法。
需要注意的是,以上列举的仅是本发明的一种具体实施例。显然,本发明不限于以上实施例,还可以有许多变形,总之,本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (3)
1.一种基于CNN分类的多摄像头人脸识别定位方法,其特征在于,包括如下步骤:
步骤一、设计人脸水平多视角定位网络;
步骤二、通过人脸识别和跟踪融合算法、人脸水平多视角定位网络、人脸准确度评估函数进行综合判断,从而确定当前帧在线人脸目标或者完成跟踪位置的更新;
步骤三、对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位,所述步骤一中,设计人脸水平多视角定位网络包括如下步骤:
步骤s1:将人脸分为四类,所述四类为正脸、左右3/4侧脸、全侧脸、背面非人脸;步骤s2:将VGGFace2人脸识别数据集进行人脸编码算法,从而得到人脸编码结果,进而生成带角度标签的数据集,从而得到人脸水平多视角定位网络,所述人脸准确度评估函数为根据VGGFace2人脸识别数据集中人脸关键点、人脸角度标签、同类人脸框间重合程度、是否出视频帧边缘来得出多维置信分,所述多维置信分用于判断人脸框内人脸的清晰度,以便取舍跟踪和识别结果,所述步骤二中,当前帧设定为t帧,以Δt帧为周期,若t小于Δt时,则完成跟踪位置的更新,若t整除Δt时,则确定当前帧在线人脸目标包括如下步骤:
步骤a1:通过人脸跟踪算法得到具有连续标签的跟踪目标集,再将跟踪目标的人脸框和人脸识别算法所得推荐框一同作为人脸识别算法中细分类的输入,从而获得人脸识别算法细分类的结果集;
步骤a2:对跟踪目标集中的各跟踪目标和结果集中的各识别结果使用人脸编码器分别保存各自512维特征,再对各自编码调用人脸水平多视角定位网络获得该人脸框的角度标签,并分别调用人脸准确度评估函数获得该人脸框的多维置信分;
步骤a3:通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果,然后结合带角度标签的数据集进行匹配,并根据该人脸框的多维置信分判断人脸是否足够清晰,从而最终确定当前帧在线的人脸目标,包括遮挡或背面状态人脸目标,从而更新人脸数据库,所述步骤三中,根据多任务的人脸高度估计算法求解,通过基于人脸512位编码的多任务学习神经网络模型,以人脸真实高度估计为主任务,以人脸标定的关键点、人脸的仰角、人脸的偏转角、人脸性别分类和年龄分类为辅助,训练MTL-CNN模型,从而对在线人脸目标进行定位,所述步骤a3中,通过人脸框坐标相似度选定此时跟踪目标领域内的所有对应的识别结果指的是使用人脸识别和跟踪融合算法通过欧式距离计算跟踪结果和识别结果的人脸位置偏移量,所述步骤三中,对在线人脸目标进行定位包括单目摄像头人脸测距、双目摄像头目标定位、多摄像头多目标匹配真实目标。
2.根据权利要求1所述一种基于CNN分类的多摄像头人脸识别定位方法,其特征在于,所述人脸识别和跟踪融合算法用于进行目标捕获和跟踪,从而提高目标跟踪或识别的精准性。
3.根据权利要求1所述一种基于CNN分类的多摄像头人脸识别定位方法,其特征在于,所述对在线人脸目标进行人头定位,并进行多目标匹配,从而实现精确的定位,具体要确定目标的坐标后进行跟踪,确定坐标即定位过程包括以下步骤:
步骤t1:通过线性相机模型对当前帧在线人脸目标进行测距:单目摄像头下,根据已知人脸的真实高度H、测量可知的摄像头焦距f和图像中获取的像素高度h,可求解人脸到摄像头的距离D如公式1所示:
步骤t2:在双目摄像头情况下求解目标位置P(PXi,Pyi)的二维坐标,横坐标如公式2所示、纵坐标如公式3所示:
所述b0L为世界坐标系中对于左侧摄像头CL的原点截距,所述b0R为世界坐标系中对于右侧摄像头CR的原点截距,设定左侧摄像头相对于坐标横轴的偏航角为αC,设定右侧摄像头相对于坐标横轴的偏航角为αr,设定左摄像头相对于坐标横轴的目标距离为DL,设定右摄像头相对于坐标横轴的目标距离为DR,设定kR为目标在右侧摄像头中所在直线的斜率,设定kL为目标在左侧摄像头中所在直线的斜率,设定γ为对αC的转化,设定β为对αr的转化,
若αC∈[0,90°),则bOL=DLtan(αC),γ=αC;
若αC∈(-360°,-270°),则bOL=-DLtan(αC),γ=αC+360°;
若αr∈[0,90°)时,则bOR=-DRtan(αC),β=αr;
若αr∈(-360°,-270°)时,bOR=DRtan(αr),β=αr+360°;
bR=DR/cos(β),bL=DL/cos(γ),kR=tan(β),kL=tan(γ),
步骤t3:修正多人人脸定位误差,对于不同摄像头下的人脸匹配放宽邻域,各目标位置修正坐标表示为(Pxi±∈,Pyi±∈);
步骤t4:多目标匹配,求目标i的真实坐标pi,步骤如下:
步骤t41、存在多目标时,将世界坐标系的平面基于原点O划分步长为2m的网格,在各单目摄像头的图像内,先根据各目标Pi中心按相对光轴Oc图像中心的像素距离和距离Di,估算目标在世界坐标系平面投影点Pi所落入相对世界坐标系平面原点O的网格Guv,
步骤t42、遍历各格点Guv,通过VIOU跟踪器预测相关目标,再根据人脸编码相似度匹配目标点,对于匹配成功的目标i分别基于步骤t2求解真实坐标(PXi,Pyi)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110740521.0A CN113255608B (zh) | 2021-07-01 | 2021-07-01 | 一种基于cnn分类的多摄像头人脸识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110740521.0A CN113255608B (zh) | 2021-07-01 | 2021-07-01 | 一种基于cnn分类的多摄像头人脸识别定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255608A CN113255608A (zh) | 2021-08-13 |
CN113255608B true CN113255608B (zh) | 2021-11-19 |
Family
ID=77190341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110740521.0A Active CN113255608B (zh) | 2021-07-01 | 2021-07-01 | 一种基于cnn分类的多摄像头人脸识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255608B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705510A (zh) * | 2021-09-02 | 2021-11-26 | 广州市奥威亚电子科技有限公司 | 目标识别跟踪的方法、装置、设备及存储介质 |
CN114693912B (zh) * | 2022-03-10 | 2024-03-05 | 山东大学齐鲁医院 | 具有眼球追踪功能的内镜检查系统、存储介质及设备 |
CN117386655A (zh) * | 2023-11-29 | 2024-01-12 | 固强科技(深圳)有限公司 | 摇摆角度自适应的风扇控制方法、装置、存储介质及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489084A (zh) * | 2020-12-09 | 2021-03-12 | 重庆邮电大学 | 一种基于人脸识别的轨迹跟踪系统及方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100390811C (zh) * | 2005-11-03 | 2008-05-28 | 中国科学院自动化研究所 | 实时的从视频中跟踪多个人脸的方法 |
CN105787448A (zh) * | 2016-02-28 | 2016-07-20 | 南京信息工程大学 | 基于时空级联形状回归的人脸形状跟踪方法 |
CN108876758B (zh) * | 2017-08-15 | 2020-11-24 | 北京旷视科技有限公司 | 人脸识别方法、装置及系统 |
CN108256459B (zh) * | 2018-01-10 | 2021-08-24 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN110399844A (zh) * | 2019-07-29 | 2019-11-01 | 南京图玩智能科技有限公司 | 一种应用于跨平台的人脸关键点识别与追踪方法及系统 |
CN110569785B (zh) * | 2019-09-05 | 2023-07-11 | 杭州智爱时刻科技有限公司 | 一种融合跟踪技术的人脸识别方法 |
CN110852219B (zh) * | 2019-10-30 | 2022-07-08 | 广州海格星航信息科技有限公司 | 一种多行人跨摄像头在线跟踪系统 |
CN111860318A (zh) * | 2020-07-20 | 2020-10-30 | 杭州品茗安控信息技术股份有限公司 | 一种建筑工地行人徘徊检测方法、装置、设备及存储介质 |
-
2021
- 2021-07-01 CN CN202110740521.0A patent/CN113255608B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489084A (zh) * | 2020-12-09 | 2021-03-12 | 重庆邮电大学 | 一种基于人脸识别的轨迹跟踪系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113255608A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109657609B (zh) | 人脸识别方法及系统 | |
CN113255608B (zh) | 一种基于cnn分类的多摄像头人脸识别定位方法 | |
CN108549873B (zh) | 三维人脸识别方法和三维人脸识别系统 | |
Schwarz et al. | Driveahead-a large-scale driver head pose dataset | |
US10082868B2 (en) | Calculation method of line-of-sight direction based on analysis and match of iris contour in human eye image | |
US7848548B1 (en) | Method and system for robust demographic classification using pose independent model from sequence of face images | |
Papazov et al. | Real-time 3D head pose and facial landmark estimation from depth images using triangular surface patch features | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN108388885B (zh) | 面向大型直播场景的多人特写实时识别与自动截图方法 | |
CN109299643B (zh) | 一种基于大姿态对准的人脸识别方法及系统 | |
CN109871763A (zh) | 一种基于yolo的特定目标跟踪方法 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN111144207B (zh) | 一种基于多模态信息感知的人体检测和跟踪方法 | |
CN109191488B (zh) | 一种基于csk与tld融合算法的目标跟踪系统及方法 | |
CN110555867B (zh) | 一种融合物体捕获识别技术的多目标物体跟踪方法 | |
CN107862713B (zh) | 针对轮询会场的摄像机偏转实时检测预警方法及模块 | |
Huang et al. | Soft-margin mixture of regressions | |
CN114022560A (zh) | 标定方法及相关装置、设备 | |
CN117133032A (zh) | 人脸遮挡条件下基于rgb-d图像的人员识别与定位方法 | |
CN117994987A (zh) | 基于目标检测技术的交通参数提取方法及相关装置 | |
CN112801038B (zh) | 一种多视点的人脸活体检测方法及系统 | |
CN114743257A (zh) | 图像目标行为的检测识别方法 | |
CN108564043B (zh) | 一种基于时空分布图的人体行为识别方法 | |
CN113705393A (zh) | 一种基于3d人脸模型的俯角人脸识别方法及系统 | |
CN109064497B (zh) | 一种基于颜色聚类补充学习的视频跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |