CN104063689B - 一种基于双目立体视觉的人脸图像识别方法 - Google Patents
一种基于双目立体视觉的人脸图像识别方法 Download PDFInfo
- Publication number
- CN104063689B CN104063689B CN201410281328.5A CN201410281328A CN104063689B CN 104063689 B CN104063689 B CN 104063689B CN 201410281328 A CN201410281328 A CN 201410281328A CN 104063689 B CN104063689 B CN 104063689B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- theta
- point
- stereo vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种基于双目立体视觉的人脸图像识别方法,其主要包含双目立体视觉测距和双目视觉人脸识别两部分。双目立体视觉测距包括:图像信息的采集;确定人脸在图像中的像素位置;对图像中选取的参考点和摄像机的距离关系进行标定;对图像中的位置和现实中的距离进行立体匹配;数据的拟合计算,通过插值和拟合的数值计算方法求得结果。双目视觉人脸识别包含:对图像中人脸范围进行识别与标定,建立双目立体视觉人脸图像训练数据库,使用不同的人脸识别方法对人脸图像进行识别。本发明综合利用双目立体视觉原理和人脸识别技术,利用双目立体视觉原理确定被识别人物的位置,接下来利用双目视觉方法得到的不同角度的人脸图像进行人脸识别。
Description
技术领域:
本发明涉及一种基于双目立体视觉的人脸图像识别方法,其属于人脸识别方法领域。
背景技术:
人脸识别是生物识别领域的研究热点,在计算机、(应用)数学、电子、自动化、可视化、虚拟现实、图像处理与模式识别等学科都有较广泛的研究,同时也在航空航天、气象、刑事侦查、出入境关口管理、机场检查等领域有着重要的应用价值。
立体视觉技术现阶段的应用主要集中于机器人视觉、智能交通、精确跟踪、三维测量、多摄像机感知信息的融合、微操作系统的参数检测、医学成像以及军事运用的等领域,国外双目立体视觉技术已有一些成功应用。
机场是安全防范重点区域,备有大量的监控摄像头,这为实现双目立体视觉的实现提供了便利条件。现阶段双目立体视觉在机场航站楼中还没有应用,本发明对这一技术的应用进行初步探讨。采用多图像进行人脸或其他部位的识别,达到较高的识别率和较低的误差率,使得双目视觉人脸识别方法具有良好的应用前景。
传统的常见的数字视频监控系统使用的视频监控仅仅只能实现单摄像头的视频采集,不能获得立体的成像效果。这样不利于对被监控对象的直观跟踪,不能确定被跟踪对象的距离和位置,也不能为跟踪决策提供直接可用的参考依据,能够提供的数据量有限。应用双目立体视觉方法,可以获得被识别人的位置信息,同时也可以提高人脸识别的正确率,增加人脸识别的精度。
发明内容:
本发明提供一种基于双目立体视觉的人脸图像识别方法,其对现有人脸图像识别方法进行改进,实现双目视觉人脸识别和双目视觉距离判定,通过引入双目立体视觉方法,采用智能算法实现多角度人脸图像的识别和人所处位置的判定,最终实现多角度的人脸识别,提高在实际情况中采集的人脸图像的识别率。
本发明采用如下技术方案:一种基于双目立体视觉的人脸图像识别方法,其包括如下步骤:
(1).人脸图像的采集;
(2).对图像中人脸的位置进行读取和标定,读取人脸位置在图像中的坐标,确定被测者的头部在图像中的像素横坐标位置,在图像中选取4个参考点,分别读取这4个点在图像中的像素坐标;
(3).对选取的4个参考点和两个摄像机的距离关系进行标定;
(4).对图像中4个参考点对应的坐标位置和现实中两个拍摄点R1、R2到这4个参考点分别的距离进行立体匹配;
(5).利用Levenberg-Marquardt方法,求解出双目立体视觉方法的参数,它们包括:一组双目视觉摄像机的两台摄像机光轴交点O在图像上的位置的横坐标,它们被表示为uO1和uO2;因为一般情况下光心和各自云台的旋转中心不重合,所以假设初始位置左光心O1与拍摄点R1的水平间距为m1,前后间距为n1;右光心O2与拍摄点R2的水平间距为m2,前后间距为n2。这样一组参数被表示为(uO1,uO2,m1,m2,n1,n2);
(6).根据求解出的双目立体视觉方法的参数(uO1,uO2,m1,m2,n1,n2)得出被测者的头部相对拍摄点的距离和偏角;
(7).对图像中人脸范围进行识别与标定;
(8).建立双目立体视觉人脸图像训练数据库;
(9).使用不同的人脸判定方法对人脸图像进行判定,判定是否是待识别的人;
(10).得出最终的识别结果。
进一步地,步骤(1)中根据双目立体视觉原理,从两个角度采集人脸图像,记录下图像编号和相应的对应角度,所述图像编号为图像1和图像2。
进一步地,步骤(2)中包括如下步骤
2.1).确定被测量者的头部在图像1和图像2中分别的像素横坐标位置u1和u2;
2.2).在图像1和图像2中分别选取4个参考点,读取这些参考点在图像1和图像2中的像素横坐标,其中在图像1中参考点编号分别是D1(1)、D1(2)、D1(3)、D1(4),在图像2中参考点编号分别是D2(1)、D2(2)、D2(3)、D2(4),它们的像素横坐标分别是u1(1)、u1(2)、u1(3)、u1(4)和u2(1)、u2(2)、u2(3)、u2(4)。
进一步地,所述步骤(3)中包括如下步骤
3.1).分别测量每个参考点到两个摄像机所在的世界坐标系位置的距离;
3.2).记录相应的参考点编号与相应的位置关系的数据信息,它们分别是 和其中是参考点1和拍摄点R1的线段距离,是参考点2和拍摄点R1的线段距离,是参考点3和拍摄点R1的线段距离,是参考点4和拍摄点R1的线段距离;是参考点1和拍摄点R2的线段距离,是参考点2和拍摄点R2的线段距离,是参考点3和拍摄点R2的线段距离,是参考点4和拍摄点R2的线段距离。
进一步地,所述步骤(4)中将图像中的相应位置信息和实际测量中的距离信息一一对应起来。
进一步地,所述步骤(5)中包括如下步骤
5.1).依照上述实验中测量得到的数据,根据
计算出xr1(k)和zr1(k)的值;其中此处所述为一个坐标系,以R1为原点,为x轴正方向建立的直角坐标系,在该坐标系中,R1的坐标为(a1,c1),R2的坐标为(a2,c2);
5.2).将上述方法获得的所有参数代入如下方程:
r表示拍摄点R2相对于R1的在x轴方向上的位置差,t表示拍摄点R2相对于R1的在z轴方向上的位置差,结合对应的约束条件,利用Levenberg-Marquardt方法求解出(uO1,uO2,m1,m2,n1,n2);考虑到一般情况下光心和各自云台的旋转中心不重合,所以做出如下假设:假设初始位置左光心O1与旋转中心R1的水平间距为m1,前后间距为n1;右光心O2与旋转中心R2的水平间距为m2,前后间距为n2。
5.3).结合被测量者头部在图像1和图像2中的横坐标分别为u1,u2代入如下方程:
求得xr1和zr1的值。(xr1,zr1)即以R1为原点,为x轴的坐标系中待跟踪者的位置。
进一步地,所述步骤(6)中,将步骤(5)中的xr1和zr1转化为直线距离lr1和水平方向角α,这两个数值如下式计算得到:
从而得出被测者的头部相对拍摄点R1的距离和偏角。
进一步地,所述步骤(7)包括如下步骤:
7.1).收集大量的肤色样本,对这些肤色样本进行色彩空间转换,建立二维高斯模型,其中肤色二维高斯模型G=(m,C),其中m表示均值,C表示协方差矩阵,xi=(Cb,Cr)T为训练样本中肤色像素i的值;
7.2).用Adaboost人脸检测算法检测出部分人脸;然后,用肤色约束进行误检人脸区域排除,并用有效的人脸计算肤色模型的参数,建立肤色模型;最后,用肤色模型进行漏检人脸的补检;
7.3).用Adaboost人脸检测算法检测出K个人脸,但K个人脸中可能存在少数误检的人脸,需要用肤色约束加以排除,假设排除了W个误检的人脸,则将K-W个人脸的肤色范围共同求m值:
式中,S(Cb)k,S(Cr)k为第k个人脸由
得到的Cb,Cr的和,N为图像中总像素个数,K为已检测的人脸总数;
7.4).排除非人脸肤色区域的干扰,最终实现输出并标注人脸所在的区域。
本发明具有如下有益效果:本发明所采用的基于双目立体视觉的人脸图像识别方法,从多角度获得训练图像,而不是仅仅利用单一的人脸图像进行识别训练,多角度采集人脸图像增加了人脸图像的可识别性,在实际采集图像的过程中降低了对图像采集的要求,从另一方面提高了图像的识别率,从而实现了人脸识别正确率的提升,本发明能够利用较为全面的人脸特征信息,基于双目立体视觉原理采集人脸图像进行训练、人脸识别,同时得到了人的坐标位置信息,借助多核处理器进行并行数据处理,具备实际应用价值。
附图说明:
图1为本发明基于双目立体视觉的人脸图像识别的结构框架示意图。
图2为本发明拍摄点和待测人的位置关系。
图3为人脸检测算法流程图。
图4为识别率统计。
图5为综合算法流程。
具体实施方式:
下面将结合附图对本发明的技术方案进行完整描述。
请参照图1至图5所示,本发明基于双目立体视觉的人脸图像识别方法包括如下步骤:
(1).人脸图像的采集;
根据双目立体视觉原理,从两个角度采集人脸图像。记录下图像编号和相应的对应角度。其中图像编号为图像1和图像2。
(2).在步骤(1)的基础上,对图像中人脸的位置进行读取和标定;
2.1)读取人脸位置在图像中的坐标。确定被测量者的头部在图像1和图像2中分别的像素横坐标位置u1和u2。
2.2)在图像中选取4个参考点,分别读取这四个点在图像中的像素坐标。实验需要4个参考点的坐标,在两幅图像中分别标出它们的像素横坐标位置。在图像1中参考点编号分别是D1(1)、D1(2)、D1(3)、D1(4),在图像2中参考点编号分别是D2(1)、D2(2)、D2(3)、D2(4)。它们的横坐标分别是u1(1)、u1(2)、u1(3)、u1(4)和u2(1)、u2(2)、u2(3)、u2(4)。
(3).在步骤(2)的基础上,对选取的4个参考点和两个摄像机的距离关系进行标定;
3.1)分别测量每个参考点到两个摄像机所在的世界坐标系位置的距离。根据图2中所示的位置关系分别测量每一参考点和两个拍摄位置的相应的位置关系,其中a,b,c,d为四个测量的距离值;R1,R2为两个拍摄点的位置;R是一个虚拟的参考点位置,并无实际意义;P为待跟踪者的位置;O是两台摄像机光轴交点,u1和u2是待跟踪者P在图像上的位置的横坐标;uO1和uO2是两台摄像机光轴交点O在图像上的位置的横坐标。
3.2)记录相应的参考点编号与相应的位置关系的数据信息。它们分别是 和其中是参考点1和拍摄点R1的线段距离,是参考点2和拍摄点R1的线段距离,是参考点3和拍摄点R1的线段距离,是参考点4和拍摄点R1的线段距离;是参考点1和拍摄点R2的线段距离,是参考点2和拍摄点R2的线段距离,是参考点3和拍摄点R2的线段距离,是参考点4和拍摄点R2的线段距离。这些距离值都是通过直接测量得出的。
(4).在步骤(2)、(3)的基础上,对图像中的位置和现实中的距离进行立体匹配;方法是将图像中的相应位置信息和实际测量中的距离信息一一对应起来。
(5).在步骤(4)的基础上,利用Levenberg-Marquardt方法,求解出双目立体视觉方法的中间参数。
5.1)依照上述实验中测量得到的数据,根据
计算出xr1(k)和zr1(k)的值。此处所述为一个坐标系,如图2所示,以R1为原点,为x轴正方向建立的直角坐标系。在该坐标系中,R1的坐标为(a1,c1),R2的坐标为(a2,c2)。
5.2)将上述方法获得的所有参数代入如下方程:
式(2)中r表示拍摄点R2相对于R1的在图2中x轴方向上的位置差,t表示拍摄点R2相对于R1的在图2中z轴方向,即方向上的位置差。即r的数值大小也就是图2中(c+d)的数值大小,t的数值大小也就是图2中b的数值大小。结合对应的约束条件,利用Levenberg-Marquardt方法求解出(uO1,uO2,m1,m2,n1,n2);考虑到一般情况下光心和各自云台的旋转中心不重合,所以做出如下假设:假设初始位置左光心O1与旋转中心R1的水平间距为m1,前后间距为n1;右光心O2与旋转中心R2的水平间距为m2,前后间距为n2。
5.3)结合被测量者头部在图像1和图像2中的横坐标分别为u1,u2代入如下方程:
求得xr1和zr1的值,(xr1,zr1)即以R1为原点,为x轴的坐标系中待跟踪者的位置。
(6).在步骤(5)的基础上,得到最终的距离和角度结果。
考虑到在实际测距系统中,待测点到旋转中心的直线距离和方位角更加直观,因此将xr1和zr1转化为直线距离lr1和水平方向角α。这两个数值如下式计算得到:
这样也就得到了被测量者头部相对拍摄点R1的距离和偏角。
(7).对图像中人脸范围进行识别与标定;
高斯肤色模型的原理是:不同的肤色在YCbCr色彩空间中,在忽略亮度分量影响情况下,其色度分量Cb和Cr的分布趋于一致,近似的呈二维高斯分布。通过对彩色图像中的每一个像素点计算其相似度,可以得知该像素点属于肤色区域的可能性大小。
肤色二维高斯模型G=(m,C),其中m表示均值,C表示协方差矩阵,xi=(Cb,Cr)T为训练样本中肤色像素i的值。
用Adaboost算法检测出部分人脸;然后,用肤色约束进行误检人脸区域排除,并用有效的人脸计算肤色模型的参数,建立肤色模型;最后,用肤色模型进行漏检人脸的补检。
用Adaboost人脸检测算法检测出K个人脸,但K个人脸中可能存在少数误检的人脸,需要用肤色约束加以排除,假设排除了W个误检的人脸,则将K-W个人脸的肤色范围共同求m值:
式中,S(Cb)k,S(Cr)k为第k个人脸由
得到的Cb,Cr的和,N为图像中总像素个数,K为已检测的人脸总数。
由于部分背景干扰的存在以及裸露的四肢等肤色图像的存在,需要采取一定措施排除非人脸肤色区域的干扰。本文根据以下判断规则来排除非人脸区域:
如果像素个数小于8×8,则不认为是有效人脸;
如果像素点个数和外接矩形的面积的比值小于某一阈值,其中该阈值参照CAS-PEAL-R1人脸数据库中图像的像素尺寸,规定范围划定后的人脸区域的图像像素如果大于360×360像素,则满足人脸图像范围划定的要求,则排除该区域;
按照人脸比例关系判断:若连通域的高度h和宽度w不满足0.6w<h<2.3w,则排除该区域;
若候选人脸区域的上半部分没有灰度值较低的黑色连通域分布(眼睛和眼眉),则排除该区域。
其中人脸检测算法流程图如图3所示。
(8).建立双目立体视觉人脸图像训练数据库;
双目立体视觉要求多角度采集人脸图像,所以对应的人脸图像训练集就应该包括多角度采集的人脸图像。但对应的角度不能过于刁钻,这样就失去了该图像采集用来训练的意义。
建立相应的双目视觉人脸识别数据库进行人脸识别,对应的数据库为:数据库1(双目视觉人脸数据库)、数据库2(正向脸数据库)、数据库3(左侧脸数据库)、数据库4(右侧脸数据库)。
(9).使用不同的人脸识别方法对人脸图像进行识别;
在人脸识别的方法上,选用主成分分析的方法(PCA(principal componentanalysis,PCA))进行人脸识别,同时和传统识别方法的识别率进行比较。运用马尔科夫方法对传统识别方法的识别率进行数据分析,得到的结论是:运用PCA方法,以“数据库2”(正向脸数据库)为训练对象识别率是0.5556,以“数据库3”(左侧脸数据库)为训练对象识别率是0.5,以“数据库4”(右侧脸数据库)为训练对象识别率是0.5882。运用PCA方法,以“数据库1”(双目视觉数据库)为训练对象识别率是100%。
实验结果的识别率统计情况如图4所示。
1)现有的人脸识别方法有多种,他们都有各自的适用范围和相应的优缺点。在不同情况下选择不同的方法进行人脸识别,这样能够是各种方法发挥到最大效用。
2)相对应的方法都会产生相应的识别结果,通过适当的实验得到的识别结果,对相应的结果进行统计分析,选取一定的统计分布模型进行概率分析。
3)识别的时候不仅要进行正确性的识别,还要进行错误性的识别,通过识别正确和识别错误的综合分布情况确定希望得到的识别正确率。
4)划定适当的阈值,确定是否识别正确。
(10).得出最终的识别结果。
本发明的综合算法流程如图5所示。
本发明基于双目立体视觉的人脸图像识别方法,在现阶段公共安全领域严峻的安全形势下,在应用现有的视频监控设备同时进行双目视觉定位和人脸识别,并且相较于传统的人脸识别方法,可以提高识别率。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (8)
1.一种基于双目立体视觉的人脸图像识别方法,其特征在于:包括如下步骤:
(1).人脸图像的采集;
(2).对图像中人脸的位置进行读取和标定,读取人脸位置在图像中的坐标,确定被测者的头部在图像中的像素横坐标位置,在图像中选取4个参考点,分别读取这4个点在图像中的像素坐标;
(3).对选取的4个参考点和两个摄像机的距离关系进行标定;
(4).对图像中4个参考点对应的坐标位置和现实中两个拍摄点R1、R2到这4个参考点分别的距离进行立体匹配;
(5).利用Levenberg-Marquardt方法,求解出双目立体视觉方法的参数,它们包括:一组双目视觉摄像机的两台摄像机光轴交点O在图像上的位置的横坐标,它们被表示为uO1和uO2;假设初始位置左光心O1与拍摄点R1的水平间距为m1,前后间距为n1;右光心O2与拍摄点R2的水平间距为m2,前后间距为n,这样一组参数被表示为(uO1,uO2,m1,m2,n1,n2);
(6).根据求解出的双目立体视觉方法的参数(uO1,uO2,m1,m2,n1,n2)得出被测者的头部相对拍摄点的距离和偏角;
(7).对图像中人脸范围进行识别与标定;
(8).建立双目立体视觉人脸图像训练数据库;
(9).使用不同的人脸判定方法对人脸图像进行判定,判定是否是待识别的人;
(10).得出最终的识别结果。
2.如权利要求1所述的基于双目立体视觉的人脸图像识别方法,其特征在于:步骤(1)中根据双目立体视觉原理,从两个角度采集人脸图像,记录下图像编号和相应的对应角度,所述图像编号为图像1和图像2。
3.如权利要求2所述的基于双目立体视觉的人脸图像识别方法,其特征在于:步骤(2)中包括如下步骤
2.1).确定被测量者的头部在图像1和图像2中分别的像素横坐标位置u1和u2;
2.2).在图像1和图像2中分别选取4个参考点,读取这些参考点在图像1和图像2中的像素横坐标,其中在图像1中参考点编号分别是D1(1)、D1(2)、D1(3)、D1(4),在图像2中参考点编号分别是D2(1)、D2(2)、D2(3)、D2(4),它们的像素横坐标分别是u1(1)、u1(2)、u1(3)、u1(4)和u2(1)、u2(2)、u2(3)、u2(4)。
4.如权利要求3所述的基于双目立体视觉的人脸图像识别方法,其特征在于:所述步骤(3)中包括如下步骤
3.1).分别测量每个参考点到两个摄像机所在的世界坐标系位置的距离;
3.2).记录相应的参考点编号与相应的位置关系的数据信息,它们分别是 和其中是参考点1和拍摄点R1的线段距离,是参考点2和拍摄点R1的线段距离,是参考点3和拍摄点R1的线段距离,是参考点4和拍摄点R1的线段距离;是参考点1和拍摄点R2的线段距离,是参考点2和拍摄点R2的线段距离,是参考点3和拍摄点R2的线段距离,是参考点4和拍摄点R2的线段距离。
5.如权利要求4所述的基于双目立体视觉的人脸图像识别方法,其特征在于:所述步骤(4)中将图像中的相应位置信息和实际测量中的距离信息一一对应起来。
6.如权利要求5所述的基于双目立体视觉的人脸图像识别方法,其特征在于:所述步骤(5)中包括如下步骤
5.1).依照上述实验中测量得到的数据,根据
计算出xr1(k)和zr1(k)的值;其中此处所述为一个坐标系,以R1为原点,为x轴正方向建立的直角坐标系,在该坐标系中,R1的坐标为(a1,c1),R2的坐标为(a2,c2);
5.2).将上述方法获得的所有参数代入如下方程:
r表示拍摄点R2相对于R1的在x轴方向上的位置差,t表示拍摄点R2相对于R1的在z轴方向上的位置差,结合对应的约束条件,利用Levenberg-Marquardt方法求解出(uO1,uO2,m1,m2,n1,n2);
5.3).结合被测量者头部在图像1和图像2中的横坐标分别为u1,u2代入如下方程:
求得xr1和zr1的值,(xr1,zr1)即以R1为原点,为x轴的坐标系中待跟踪者的位置。
7.如权利要求6所述的基于双目立体视觉的人脸图像识别方法,其特征在于:所述步骤(6)中,将步骤(5)中的xr1和zr1转化为直线距离lr1和水平方向角α,这两个数值如下式计算得到:
从而得出被测者的头部相对拍摄点R1的距离和偏角。
8.如权利要求7所述的基于双目立体视觉的人脸图像识别方法,其特征在于:所述步骤(7)包括如下步骤
7.1).收集大量的肤色样本,对这些肤色样本进行色彩空间转换,建立二维高斯模型,其中肤色二维高斯模型G=(m,C),其中m表示均值,C表示协方差矩阵,xi=(Cb,Cr)T为训练样本中肤色像素i的值;
7.2).用Adaboost人脸检测算法检测出部分人脸;然后,用肤色约束进行误检人脸区域排除,并用有效的人脸计算肤色模型的参数,建立肤色模型;最后,用肤色模型进行漏检人脸的补检;
7.3).用Adaboost人脸检测算法检测出K个人脸,但K个人脸中可能存在少数误检的人脸,需要用肤色约束加以排除,假设排除了W个误检的人脸,则将K-W个人脸的肤色范围共同求m值:
式中,S(Cb)k,S(Cr)k为第k个人脸由
得到的Cb,Cr的和,N为图像中总像素个数,K为已检测的人脸总数;
7.4).排除非人脸肤色区域的干扰,最终实现输出并标注人脸所在的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410281328.5A CN104063689B (zh) | 2014-06-20 | 2014-06-20 | 一种基于双目立体视觉的人脸图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410281328.5A CN104063689B (zh) | 2014-06-20 | 2014-06-20 | 一种基于双目立体视觉的人脸图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104063689A CN104063689A (zh) | 2014-09-24 |
CN104063689B true CN104063689B (zh) | 2017-04-19 |
Family
ID=51551394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410281328.5A Active CN104063689B (zh) | 2014-06-20 | 2014-06-20 | 一种基于双目立体视觉的人脸图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104063689B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915656B (zh) * | 2015-06-12 | 2018-12-28 | 东北大学 | 一种基于双目视觉测量技术的快速人脸识别方法 |
CN106778452A (zh) * | 2015-11-24 | 2017-05-31 | 沈阳新松机器人自动化股份有限公司 | 服务机器人基于双目视觉的人体检测与跟踪方法 |
CN105741375B (zh) * | 2016-01-20 | 2018-09-18 | 华中师范大学 | 一种大视场双目视觉的红外图像考勤方法 |
CN105893965B (zh) * | 2016-03-31 | 2019-03-29 | 中国科学院自动化研究所 | 一种可用于非特定人的双目视觉图像合成装置与方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065289A (zh) * | 2013-01-22 | 2013-04-24 | 清华大学 | 基于双目立体视觉的四目摄像机正面人脸重建方法 |
CN103308000A (zh) * | 2013-06-19 | 2013-09-18 | 武汉理工大学 | 基于双目视觉的曲线物体测量方法 |
CN103760980A (zh) * | 2014-01-21 | 2014-04-30 | Tcl集团股份有限公司 | 根据双眼位置进行动态调整的显示方法、系统及显示设备 |
-
2014
- 2014-06-20 CN CN201410281328.5A patent/CN104063689B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065289A (zh) * | 2013-01-22 | 2013-04-24 | 清华大学 | 基于双目立体视觉的四目摄像机正面人脸重建方法 |
CN103308000A (zh) * | 2013-06-19 | 2013-09-18 | 武汉理工大学 | 基于双目视觉的曲线物体测量方法 |
CN103760980A (zh) * | 2014-01-21 | 2014-04-30 | Tcl集团股份有限公司 | 根据双眼位置进行动态调整的显示方法、系统及显示设备 |
Non-Patent Citations (2)
Title |
---|
双目视觉技术在目标测量中的应用;王荣本等;《公路交通科技》;20070205;第24卷(第2期);全文 * |
摄像机标定方法研究;张铖伟等;《计算机科学与发展》;20101130;第20卷(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN104063689A (zh) | 2014-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106250870B (zh) | 一种联合局部和全局相似性度量学习的行人再识别方法 | |
CN110837784B (zh) | 一种基于人体头部特征的考场偷窥作弊检测系统 | |
CN106845357B (zh) | 一种基于多通道网络的视频人脸检测和识别方法 | |
CN111563887B (zh) | 一种口腔图像的智能分析方法与装置 | |
Zhou et al. | LIDAR and vision-based real-time traffic sign detection and recognition algorithm for intelligent vehicle | |
CN106485735A (zh) | 基于立体视觉技术的人体目标识别与跟踪方法 | |
CN102622584B (zh) | 视频监控中蒙面人脸的检测方法 | |
CN111563452B (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN106886216A (zh) | 基于rgbd人脸检测的机器人自动跟踪方法和系统 | |
CN104063689B (zh) | 一种基于双目立体视觉的人脸图像识别方法 | |
CN110309701B (zh) | 一种基于跨视角同一区域的行人重识别方法 | |
CN106874884A (zh) | 基于部位分割的人体再识别方法 | |
CN109598242A (zh) | 一种新型的活体检测方法 | |
CN105844245A (zh) | 一种伪装人脸检测方法及系统 | |
CN112966571B (zh) | 一种基于机器视觉的立定跳远腾空高度量测方法 | |
CN104123549A (zh) | 一种用于疲劳驾驶实时监测的眼睛定位方法 | |
CN110378232A (zh) | 改进的ssd双网络的考场考生位置快速检测方法 | |
CN103150552B (zh) | 一种基于人头计数的驾驶培训管理方法 | |
CN111444837B (zh) | 在极端环境下提升人脸检测可用性的测温方法及测温系统 | |
CN114612823A (zh) | 一种面向实验室安全管理的人员行为监测方法 | |
CN109740654A (zh) | 一种基于深度学习的舌体自动检测方法 | |
CN104123569B (zh) | 一种基于有监督学习的视频人数信息统计方法 | |
CN114565976A (zh) | 一种训练智能测试方法以及装置 | |
CN111275754B (zh) | 一种基于深度学习的脸部痘印比例计算方法 | |
CN104715492B (zh) | 一种同时适应于静止相机和运动相机的前景目标提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |