CN104036488A - 一种基于双目视觉的人体姿态动作研究方法 - Google Patents

一种基于双目视觉的人体姿态动作研究方法 Download PDF

Info

Publication number
CN104036488A
CN104036488A CN201410184042.5A CN201410184042A CN104036488A CN 104036488 A CN104036488 A CN 104036488A CN 201410184042 A CN201410184042 A CN 201410184042A CN 104036488 A CN104036488 A CN 104036488A
Authority
CN
China
Prior art keywords
image
skin color
area
center
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410184042.5A
Other languages
English (en)
Other versions
CN104036488B (zh
Inventor
叶青
董俊峰
张永梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China University of Technology
Original Assignee
North China University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China University of Technology filed Critical North China University of Technology
Priority to CN201410184042.5A priority Critical patent/CN104036488B/zh
Publication of CN104036488A publication Critical patent/CN104036488A/zh
Application granted granted Critical
Publication of CN104036488B publication Critical patent/CN104036488B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于双目视觉的人体姿态动作研究方法,该方法首先通过双目标定获取相机的内外参数,接着从相机拍摄的图像中提取出各肤色区域的质心点的坐标,并对质心点进行匹配判断,然后以世界坐标系为基准求出匹配的质心点在世界坐标系中的坐标,最后根据质心点在世界坐标系中坐标判断人体的姿态及动作。本发明不需要拍摄大量图像,能够通过实时采集视频帧对人脸和双手等人体关键部位的质心点进行立体匹配,以获取人体关键部位之间的位置关系,运行成本较低。

Description

一种基于双目视觉的人体姿态动作研究方法
技术领域
本发明涉及一种人体姿态动作研究方法,具体而言,涉及一种基于双目视觉的人体姿态动作研究方法。
背景技术
随着计算机技术的发展,人们可以使用计算机完成很多高难度的工作。通过计算机对人体动作进行准确识别的技术可广泛应用于智能人机交互,虚拟现实,视频监控和数字娱乐领域,是目前计算机视觉与模式识别领域的研究热点。在某些虚拟现实的领域中,如数字娱乐,通常需要计算机一方面向人的感官传递刺激信号,另一方面也需要接收操作者的反应,如体态姿势的变动等,然后根据这些人体本身位置和状态的变换来调整刺激信号。因此,需要准确地的对人体动作或姿态进行识别。
目前一些利用动作进行识别控制的方法都是基于传统的图像识别方法,通过摄像头拍摄人体的行为姿态或动作,对拍摄的图像进行分析处理,提取图像的数据特征信息,利用相应的识别算法进行识别,判断出人体的行为姿态或动作。此种方法一方面需要相当大的存储空间以存放拍摄的图像,另一方面也需要非常优化的算法来精确识别人体姿态或动作,并且这些方法都是利用图像中的二维数据信息,不能精确确定人体关键部位之间的位置关系。
目前获取三维数据的方法主要可分为两类:主动测距和被动测距。主动测距技术主要包括结构光法和飞行时间法(TOF)。结构光法是一种既利用图像又利用可控制辐射源的测距方法,其基本思想是利用照明中的几何信息帮助提取景物中的几何信息。结构光法对设备和外界光线要求较高,造价昂贵。飞行时间法直接利用光和声波的传播特性,不需要进行灰度图像的获取与分析,因此距离的获取不受物体表面性质的影响,但是需要较复杂的光电设备,造价昂贵,且测量精度与设备的灵敏度有很大关系。被动测距技术主要包括双目或者多目视觉测距,它不需要人为设置辐射源,只利用场景在自然光照下的二维图像来重建景物的三维信息。立体视觉的研究工作从20世纪60年代中期开始的,当时,麻省理工学院的Robert完成了三维景物分析工作,把二维图像分析推广到了三维景物,这标志着立体视觉技术的诞生,并在随后的20年中迅速发展成为一门新兴学科。
立体视觉的基本原理是从两个试点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算图像像素间的位置偏差,即视差,来获取景物的三维信息,这一过程是与人类视觉的立体感知过程类似的。双目立体视觉对设备的要求不高,但需要在测量之前能够准确的标定,获取相机的内外参数,来重建三维信息。
发明内容
本发明提供了一种基于双目视觉的人体姿态动作研究方法,用以利用双目立体视觉原理研究人体的姿态动作。
为达到上述目的,本发明提供了一种基于双目视觉的人体姿态动作研究方法,包括以下步骤:
S1:将左相机和右相机分别置于与地面平行的同一水平线上,其中,两部相机为同一型号,两部相机之间的距离为设定值,且两部相机均能拍摄到完整的人体上半身;
S2:对左相机和右相机进行双目标定,首先准备一块带有多个圆形特征点的矩形标定板,其中,多个圆形特征点排列成多行和多列的阵列,位于同一行的圆形特征点的圆心在同一直线上,位于同一列的圆形特征点的圆心在同一直线上;
S3:将标定板置于相机拍摄区域内的至少5个不同方位,并分别使用左相机和右相机对标定板进行拍摄,得到多张对应左相机的左标定板图像和多张对应右相机的右标定板图像;
S4:计算左标定板图像中的多个圆形特征点在左图像坐标系中的坐标,以及右标定板图像中的多个圆形特征点在右图像坐标系中的坐标,其中,左图像坐标系的原点为左相机的成像面与其光轴的交点,右图像坐标系的原点为右相机的成像面与其光轴的交点;
S5:利用极线约束规则分别匹配同一方位下的左标定板图像和右标定板图像,得到每个方位下多个圆形特征点在左图像坐标系和右图像坐标系中的特征圆心;
S6:根据每个方位下多个圆形特征点在左图像坐标系和右图像坐标系中的特征圆心,利用Levenberg-Marquardt算法计算左相机的内参数,以及左相机和右相机组成的相机系统的外参数,其中,内参数至少包括左图像坐标系中u轴的有效焦距fx、v轴的有效焦距fy以及左图像坐标系的中心坐标(cx,cy),外参数至少包括旋转向量R和平移向量t;
S7:构建人体肤色模型,首先使用手工标注方法统计大量RGB格式人体图像中的肤色区域的RGB值,得到人体肤色在RGB空间的分布情况;
S8:将RGB空间转化到YCrCb空间,得到人体肤色在YCrCb空间的分布情况;
S9:根据人体肤色在YCrCb空间的分布情况构建人体肤色模型;
S10:被采集者站立在左相机和右相机的图像采集范围内,在t0时刻,使用左相机和右相机分别采集一帧左相机图像和一帧右相机图像;
S11:根据人体肤色模型,分别对左相机图像和右相机图像进行预处理滤波去噪及肤色检测,得到左相机图像中的多个连通的肤色区域和右相机图像中的多个连通的肤色区域;
S12:分别对左相机图像中的多个连通的肤色区域和右相机图像中的多个连通的肤色区域进行二值化处理及滤波,获取左相机图像中的多个肤色区域和右相机图像中的多个肤色区域,其中,多个肤色区域至少包括被采集者的脸部;
S13:分别计算左相机图像和右相机图像中的多个肤色区域的质心点的坐标,首先从左相机图像中的多个肤色区域和右相机图像中的多个肤色区域中取一个肤色区域;
S14:取该肤色区域的最小外接矩形,得到大小为m*n的子图像,其中m为最小外接矩形的宽度,n为最小外接矩形的长度;
S15:假设(i,j)为子图像中以对应的图像坐标系为基准的像素点的坐标,f(i,j)为子图像在该像素点的灰度值,则子图像的矩为:
M pq = Σ i = 1 n Σ j = 1 m i p j q f ( i , j ) ;
S16:分别计算子图像的0阶矩M00和1阶矩M10及M01
S17:设子图像的质心点的坐标为P(xc,yc),按照下式计算子图像的质心点的坐标:
x c = M 10 M 00 , y c = M 01 M 00 ;
S18:重复上述步骤S14~S17直至左相机图像中的多个肤色区域和右相机图像中的多个肤色区域全部计算完成;
S19:判断左相机图像中的多个肤色区域分别对应的质心点与右相机图像中的多个肤色区域分别对应的质心点之间的匹配关系,首先设定一灰度相关值阈值T;
S20:从右相机图像中的多个肤色区域中取一个肤色区域,并从左相机图像中取出与该右相机图像的肤色区域对应的肤色区域;
S21:以该右相机图像的肤色区域的质心点的坐标p1(x1,y1)为中心,选定一个大小为(2m′+1)*(2n′+1)的窗口,其中m′,n′为设定值的自然数;
S22:以左相机图像中对应肤色区域的质心点的坐标p2(x2,y2)为中心,也选定一个大小为(2m′+1)*(2n′+1)的窗口;
S23:假设I1(x1+i,y1+j)为右相机图像中该肤色区域的质心点周围的像素点的灰度值,为右相机图像中该肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,I2(x2+i,y2+j)为左相机图像中对应肤色区域的质心点周围的像素点的灰度值,为左相机图像中对应肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,σ(Ik)为标准差,通过以下两式计算该右相机图像的肤色区域与该左相机图像的肤色区域的灰度相关值R(p1,p2):
σ ( I k ) = Σ i = - n ′ n ′ Σ j = - m ′ m ′ I k 2 ( x k + i , y k + j ) ( 2 m ′ + 1 ) ( 2 n ′ + 1 ) - ( I k ( x k , y k ) ) ‾ 2 , k=1或2,
R ( p 1 , p 2 ) = Σ i = - n ′ n ′ Σ j = - m ′ m ′ [ I 1 ( x 1 + i , y 1 + j ) - I 1 ( x 1 , y 1 ) ‾ ] [ I 2 ( x 2 + i , y 2 + j ) - I 2 ( x 2 , y 2 ) ‾ ] ( 2 m ′ + 1 ) ( 2 n ′ + 1 ) σ 2 ( I 1 ) × σ 2 ( I 2 ) ;
S24:比较灰度相关值R(p1,p2)与灰度相关值阈值T的大小,当R(p1,p2)>T时,说明该左图像中肤色区域的质心点与该右图像中肤色区域的质心点不匹配,并舍弃该左图像中肤色区域的质心点和该右图像中肤色区域的质心点;
S25:重复上述步骤S20~S24直至对右相机图像中的多个肤色区域全部完成匹配关系判断;
S26:根据S6中得到的内参数和外参数,计算相匹配的质心点在世界坐标系中的坐标,首先,假设ul、ur分别为某对相匹配的质心点在左图像坐标系中的横坐标和在右图像坐标系中的横坐标,按下式计算左相机和右相机的视差D:
D=ul-ur
S27:假设左相机的焦距为fc,左相机的光心和右相机的光心之间的距离为b,以左相机的光心为原点建立世界坐标系,其中,该世界坐标系为左手坐标系,按下式计算左相机在世界坐标系中的坐标zc
z c = b f c d ;
S28:假设该对相匹配的质心点在左图像坐标系中的纵坐标为vl,该对相匹配的质心点在左图像坐标系中的坐标对应世界坐标系中坐标为(xw,yw,zw)的点,则按下式计算xw,yw,zw的值,其中s为倾斜因子:
z c u l v l 1 = f x s c x 0 0 f y c y 0 0 0 1 0 R t 0 T 0 x w y w z w 1 ;
S29:经过一设定时间间隔后,在t1时刻,重复上述步骤S10~S28;
S30:判断被采集者的脸部的质心点是否被舍弃,如果未被舍弃,则进行步骤S31;
S31:假设t0时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt0(x0,y0,z0),t1时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt1(x′,y′,z′),设定一左右平移阈值ε和一前后平移阈值δ,并进行以下判断:
①若y′-y0<0,则判定被采集者发生了下蹲的动作,
②若x′-x0<ε,则判定被采集者向左发生了平移,
③若x′-x0>ε,则判定被采集者向右发生了平移,
④若z′-z0<δ,则判定被采集者向前发生了平移,
⑤若z′-z0>δ,则判定被采集者向后发生了平移。
可选的,S12中的多个肤色区域还包括被采集者的左手和右手,当S30中未舍弃被采集者左手和右手的质心点时,相应的,上述基于双目视觉的人体姿态动作研究方法还包括一判断手臂姿势的步骤:
被采集者保持双臂伸直,使双臂在同一平面内且双臂所在平面与竖直面呈90度夹角,使用上述步骤S10~S28分别计算出被采集者的脸部、左手和右手的质心点在世界坐标系中的坐标,再分别计算左手与脸部之间的距离和右手与脸部之间的距离,并计算左手与脸部之间的距离和右手与脸部之间的距离的平均值S;
假设t1时刻采集到的图像计算出的左手质心点的坐标在世界坐标系中的坐标为L(xl,yl,zl),右手质心点的坐标在世界坐标系中的坐标为R(xr,yr,zr),
则左手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 L &RightArrow; | = ( x l - x &prime; ) 2 + ( y l - y &prime; ) 2 + ( z l - z &prime; ) 2 ,
右手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 R &RightArrow; | = ( x r - x &prime; ) 2 + ( y r - y &prime; ) 2 + ( z r - z &prime; ) 2 ,
计算之间的夹角θ即为被采集者的双臂张开的角度,
判断与S的关系:当时,左手臂发生弯曲,且越小,左手臂弯曲程度越大,
判断与S的关系:当时,右手臂发生弯曲,且越小,右手臂弯曲程度越大。
可选的,上述基于双目视觉的人体姿态动作研究方法还包括一判断被采集者是否发生快速移动的步骤:
设定一速度阈值VT,
计算脸部的质心点在t0~t1时间内的移动距离d:
d = | P t 0 P t 1 &RightArrow; | = ( x &prime; - x 0 ) 2 + ( y &prime; - y 0 ) 2 + ( z &prime; - z 0 ) 2 ,
计算脸部质心在t0~t1时间内的平均速度:
v=d/(t1-t0),
当v>VT时,判定被采集者发生了快速移动。
可选的,上述基于双目视觉的人体姿态动作研究方法中的S4包括以下步骤:
对标定板图像进行canny边缘检测和滤波去噪;
利用最小二乘法拟合标定板上最外层的圆形特征点;
根据上述两步骤的结果计算多个圆形特征点在对应的图像坐标系中的坐标。
本发明还提供了一种实施上述基于双目视觉的人体姿态动作研究方法的系统,该系统包括:双目标定模块,质心提取模块,质心匹配模块,三维坐标获取模块,姿态识别模块,其中,
双目标定模块用于对左相机和右相机进行双目标定;
质心提取模块用于提取左相机图像和右相机图像中的肤色区域的质心点的坐标;
质心匹配模块用于判断左相机图像中的肤色区域与对应的右相机图像中的肤色区域是否匹配;
三维坐标获取模块用于计算相匹配的肤色区域的质心点在世界坐标系中的坐标;
姿态识别模块用于识别被采集者的姿态。
本发明利用了双目立体视觉原理,通过获取左右相机的视频帧中相应人体部位的三维坐标点信息,能够较准确的判断人体上半身的姿态动作。本发明不需要拍摄大量图像,能够通过实时采集视频帧对人脸和双手等人体关键部位的质心点进行立体匹配,以获取人体关键部位之间的位置关系,运行成本较低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为双目视觉原理图;
图2为人体肤色在RGB空间的分布图;
图3为人体肤色在YCrCb空间的分布图;
图4为本发明一实施例的左相机图像和右相机图像;
图5为本发明一实施例的左相机图像与经过预处理滤波去噪、肤色检测、二值化处理及滤波后的左相机图像的对比图;
图6为质心点匹配示意图;
图7为本发明提供的用于实施基于双目视觉的人体姿态动作研究方法的系统的结构示意图。
附图标记说明:1-用于实施基于双目视觉的人体姿态动作研究方法的系统;10-双目标定模块;11-质心提取模块;12-质心匹配模块;13-三维坐标获取模块;14-姿态识别模块。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示为双目视觉原理图,如图所示,p(xc,yc,zc)为左相机和右相机采集区域内的一点,olulvl为左图像坐标系,orurvr为右图像坐标系,其中,左图像坐标系olulvl位于左相机的成像面内,其原点为左相机的成像面与其光轴的交点,右图像坐标系orurvr位于右相机的成像面内,其原点为右相机的成像面与其光轴的交点,olulvl和orurvr的u轴均为沿水平方向向右,v轴方向均为竖直向下。点p(xc,yc,zc)在左相机坐标系中的成像点为pl(ul,vl),在右相机坐标系中的成像点为pr(ur,vr),根据极线的定义:空间物点、空间物点在左相机中的成像点和空间物点在右相机中的成像点组成的平面分别与左相机的成像平面和右相机的成像平面相交的直线,由图1可知,左相机成像平面内的极线为pl,右相机成像平面内的极线为pr。图1中,olxlylzl为左相机坐标系,其原点为左相机的光心,orxryrzr为右相机坐标系,其原点为右相机的光心,olxlylzl和orxryrzr的x轴方向与图像坐标系中u轴的方向相同,y轴方向与图像坐标系中v轴的方向相同。图1中的连接左相机的光心和右相机的光心的线段为基线,基线的长度为b。
下面通过具体实施例说明本发明提供的基于双目视觉的人体姿态动作研究方法。
第一实施例:
本发明的第一实施例用于判断被采集者是否发生了下蹲及左右方向和前后方向的平移,通过以下步骤实现:
S1:将左相机和右相机分别置于与地面平行的同一水平线上,其中,两部相机为同一型号,两部相机之间的距离为设定值,且两部相机均能拍摄到完整的人体上半身,
其中,两部相机均为MV-VS078FC相机,两部相机分别通过三脚架固定于同一水平高度;
S2:对左相机和右相机进行双目标定,首先准备一块带有多个圆形特征点的矩形标定板,其中,多个圆形特征点排列成多行和多列的阵列,位于同一行的圆形特征点的圆心在同一直线上,位于同一列的圆形特征点的圆心在同一直线上,
其中,标定板为一平整的板面,背景为黑色,特征点为白色实心圆,特征点的个数为99个,也可按实际需求设定为其他个数,特征点的大小以人眼能辨识为准,不宜太小或太大;
S3:将标定板置于相机拍摄区域内的至少5个不同方位,并分别使用左相机和右相机对标定板进行拍摄,得到多张对应左相机的左标定板图像和多张对应右相机的右标定板图像;
S4:计算左标定板图像中的多个圆形特征点在左图像坐标系中的坐标,以及右标定板图像中的多个圆形特征点在右图像坐标系中的坐标,其中,左图像坐标系的原点为左相机的成像面与其光轴的交点,右图像坐标系的原点为右相机的成像面与其光轴的交点,其中,S4具体包括以下步骤:
对标定板图像进行canny边缘检测和滤波去噪,
利用最小二乘法拟合所述标定板上最外层的圆形特征点,
根据上述两步骤的结果计算多个所述圆形特征点在对应的图像坐标系中的坐标;
S5:利用极线约束规则分别匹配同一方位下的左标定板图像和右标定板图像,得到每个方位下多个圆形特征点在左图像坐标系和右图像坐标系中的特征圆心;
S6:根据每个方位下多个圆形特征点在左图像坐标系和右图像坐标系中的特征圆心,利用Levenberg-Marquardt算法(L-M优化算法)计算左相机的内参数,以及左相机和右相机组成的相机系统的外参数,其中,内参数至少包括左图像坐标系中u轴的有效焦距fx、v轴的有效焦距fy以及左图像坐标系的中心坐标(cx,cy),外参数至少包括旋转向量R和平移向量t;
S7:构建人体肤色模型,首先使用手工标注方法统计大量RGB格式人体图像中的肤色区域的RGB值,得到人体肤色在RGB空间的分布情况;
S8:将RGB空间转化到YCrCb空间,得到人体肤色在YCrCb空间的分布情况;
S9:根据人体肤色在YCrCb空间的分布情况构建人体肤色模型;
如图2所示为人体肤色在RGB空间的分布图,如图3所示为人体肤色在YCrCb空间的分布图;人体肤色模型是描述使用一组值(通常三个值、四个值或者颜色成分)标示颜色方法的抽象数学模型,例如三原色(RGB)模型。
S10:被采集者站立在左相机和右相机的图像采集范围内,在t0时刻,使用左相机和右相机分别采集一帧左相机图像和一帧右相机图像,如图4所示为本发明一实施例的左相机图像和右相机图像;S11:根据人体肤色模型,分别对左相机图像和右相机图像进行预处理滤波去噪及肤色检测,得到左相机图像中的多个连通的肤色区域和右相机图像中的多个连通的肤色区域;
S12:分别对左相机图像中的多个连通的肤色区域和右相机图像中的多个连通的肤色区域进行二值化处理及滤波,获取左相机图像中的多个肤色区域和右相机图像中的多个肤色区域,其中,多个肤色区域至少包括被采集者的脸部;
如图5所示为本发明一实施例的左相机图像与经过预处理滤波去噪、肤色检测、二值化处理及滤波后的左相机图像的对比图,其中左图为左相机拍摄的左相机图像,右图为经过预处理滤波去噪、肤色检测、二值化处理及滤波后的左相机图像,可以看出,经二值化处理和滤波后,原左相机图像中拍摄到的人脸和人手部位被保留,其余部分均被忽略。
S13:分别计算左相机图像和右相机图像中的多个肤色区域的质心点的坐标,首先从左相机图像中的多个肤色区域和右相机图像中的多个肤色区域中取一个肤色区域;
S14:取该肤色区域的最小外接矩形,得到大小为m*n的子图像,其中m为最小外接矩形的宽度,n为最小外接矩形的长度;
S15:假设(i,j)为子图像中以对应的图像坐标系为基准的像素点的坐标,f(i,j)为子图像在该像素点的灰度值,则子图像的矩为:
M pq = &Sigma; i = 1 n &Sigma; j = 1 m i p j q f ( i , j ) ;
S16:分别计算子图像的0阶矩M00和1阶矩M10及M01
S17:设子图像的质心点的坐标为P(xc,yc),按照下式计算子图像的质心点的坐标:
x c = M 10 M 00 , y c = M 01 M 00 ;
S18:重复上述步骤S14~S17直至左相机图像中的多个肤色区域和右相机图像中的多个肤色区域全部计算完成;
S19:判断左相机图像中的多个肤色区域分别对应的质心点与右相机图像中的多个肤色区域分别对应的质心点之间的匹配关系,首先设定一灰度相关值阈值T;
S20:从右相机图像中的多个肤色区域中取一个肤色区域,并从左相机图像中取出与该右相机图像的肤色区域对应的肤色区域;
S21:以该右相机图像的肤色区域的质心点的坐标p1(x1,y1)为中心,选定一个大小为(2m′+1)*(2n′+1)的窗口,其中m′,n′为设定值的自然数;
S22:以左相机图像中对应肤色区域的质心点的坐标p2(x2,y2)为中心,也选定一个大小为(2m′+1)*(2n′+1)的窗口,
如图6所示为质心点匹配示意图,其中右相机图像为基准图,左相机图像为配准图,也即左相机图像以右相机图像为基准进行配准,其中区域A为在右相机图像中,以某一肤色区域的质心点为中心选定的大小为(2m′+1)*(2n′+1)的窗口,区域B为右相机图像中的该肤色区域的最小外接矩形,区域A′为以左相机图像中对应肤色区域的质心点为中心选定的大小为(2m′+1)*(2n′+1)的窗口,区域B′为左相机图像中的对应肤色区域的最小外接矩形;
S23:假设I1(x1+i,y1+j)为右相机图像中该肤色区域的质心点周围的像素点的灰度值,为右相机图像中该肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,也即B区域内所有像素点的灰度均值,I2(x2+i,y2+j)为左相机图像中对应肤色区域的质心点周围的像素点的灰度值,为左相机图像中对应肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,也即B′区域内所有像素点的灰度均值,σ(Ik)为标准差,通过以下两式计算该右相机图像的肤色区域与该左相机图像的肤色区域的灰度相关值R(p1,p2):
&sigma; ( I k ) = &Sigma; i = - n &prime; n &prime; &Sigma; j = - m &prime; m &prime; I k 2 ( x k + i , y k + j ) ( 2 m &prime; + 1 ) ( 2 n &prime; + 1 ) - ( I k ( x k , y k ) ) &OverBar; 2 , k=1或2,
R ( p 1 , p 2 ) = &Sigma; i = - n &prime; n &prime; &Sigma; j = - m &prime; m &prime; [ I 1 ( x 1 + i , y 1 + j ) - I 1 ( x 1 , y 1 ) &OverBar; ] [ I 2 ( x 2 + i , y 2 + j ) - I 2 ( x 2 , y 2 ) &OverBar; ] ( 2 m &prime; + 1 ) ( 2 n &prime; + 1 ) &sigma; 2 ( I 1 ) &times; &sigma; 2 ( I 2 ) ;
S24:比较灰度相关值R(p1,p2)与灰度相关值阈值T的大小,当R(p1,p2)>T时,说明该左图像中肤色区域的质心点与该右图像中肤色区域的质心点不匹配,并舍弃该左图像中肤色区域的质心点和该右图像中肤色区域的质心点,
其中,R(p1,p2)的范围为[-1,1],质心点不匹配的实际意义为该两个质心点不对应同一肤色区域,故需将其舍弃,否则会导致下面步骤中计算出的三维坐标信息不准确;
例如,若设定的灰度相关阈值为0.95,而通过计算得出某一右相机图像中的肤色区域与左相机图像中对应肤色区域的灰度相关值为0.9,则可认定此对质心点是不能匹配的,需将其舍弃。
S25:重复上述步骤S20~S24直至对右相机图像中的多个肤色区域全部完成匹配关系判断;
S26:根据S6中得到的内参数和外参数,计算相匹配的质心点在世界坐标系中的坐标,首先,假设ul、ur分别为某对相匹配的质心点在左图像坐标系中的横坐标和在右图像坐标系中的横坐标,按下式计算左相机和右相机的视差D:
D=ul-ur
S27:假设左相机的焦距为fc,左相机的光心和右相机的光心之间的距离为b,以左相机的光心为原点建立世界坐标系,其中,该世界坐标系为左手坐标系,按下式计算左相机在世界坐标系中的坐标zc
z c = b f c d ;
S28:假设该对相匹配的质心点在左图像坐标系中的纵坐标为vl,该对相匹配的质心点在左图像坐标系中的坐标对应世界坐标系中坐标为(xw,yw,zw)的点,则按下式计算xw,yw,zw的值,其中s为倾斜因子:
z c u l v l 1 = f x s c x 0 0 f y c y 0 0 0 1 0 R t 0 T 0 x w y w z w 1 ;
S29:经过一设定时间间隔后,在t1时刻,重复上述步骤S10~S28;
S30:判断被采集者的脸部的质心点是否被舍弃,如果未被舍弃,则进行步骤S31;
S31:假设t0时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt0(x0,y0,z0),t1时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt1(x′,y′,z′),设定一左右平移阈值ε和一前后平移阈值δ,并进行以下判断:
①若y′-y0<0,则判定被采集者发生了下蹲的动作,
②若x′-x0<ε,则判定被采集者向左发生了平移,
③若x′-x0>ε,则判定被采集者向右发生了平移,
④若z′-z0<δ,则判定被采集者向前发生了平移,
⑤若z′-z0>δ,则判定被采集者向后发生了平移。
第二实施例:
本发明的第二实施例用于判断被采集者的手臂姿势,具体的,可判断被采集者的双臂张开的角度以及双臂分别弯曲的程度,S1~S29步骤与第一实施例相同,故不再赘述,假设S12中的多个肤色区域还包括被采集者的左手和右手,且S30中未舍弃被采集者左手和右手的质心点,通过以下步骤判断被采集者的手臂姿势:
被采集者保持双臂伸直,使双臂在同一平面内且双臂所在平面与竖直面呈90度夹角,使用上述步骤S10~S28分别计算出被采集者的脸部、左手和右手的质心点在世界坐标系中的坐标,再分别计算左手与脸部之间的距离和右手与脸部之间的距离,并计算左手与脸部之间的距离和右手与脸部之间的距离的平均值S;
假设t1时刻采集到的图像计算出的左手质心点的坐标在世界坐标系中的坐标为L(xl,yl,zl),右手质心点的坐标在世界坐标系中的坐标为R(xr,yr,zr),
则左手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 L &RightArrow; | = ( x l - x &prime; ) 2 + ( y l - y &prime; ) 2 + ( z l - z &prime; ) 2 ,
右手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 R &RightArrow; | = ( x r - x &prime; ) 2 + ( y r - y &prime; ) 2 + ( z r - z &prime; ) 2 ,
计算之间的夹角θ即为被采集者的双臂张开的角度;
判断与S的关系:当时,左手臂发生弯曲,且越小,左手臂弯曲程度越大,
判断与S的关系:当时,右手臂发生弯曲,且越小,右手臂弯曲程度越大。
第三实施例:
本发明的第三实施例用于判断被采集者在一段时间内是否发生了快速移动,S1~S30步骤与第一实施例相同,故不再赘述,通过以下步骤判断被采集者在一段时间内是否发生了快速移动:
设定一速度阈值VT
计算脸部的质心点在t0~t1时间内的移动距离d,
d = | P t 0 P t 1 &RightArrow; | = ( x &prime; - x 0 ) 2 + ( y &prime; - y 0 ) 2 + ( z &prime; - z 0 ) 2
由于人体运动状态的突变往往在很短时间内完成,故,t0和t1之间的时间间隔不宜过大,这里,t0和t1分别对应的视频帧之间相差五帧图像(可根据实际需要设定t0和t1之间相差的图像帧数),也即,假设左相机和右相机采集视频的帧率均为f,则t1-t0=5/f;
计算脸部质心在t0~t1时间内的平均速度:
v=d/(t1-t0);
当v>VT时,判定被采集者发生了快速移动。
本发明还提供了一种用于实施上述基于双目视觉的人体姿态动作研究方法的系统,如图7所示为该系统的结构示意图,该系统包括双目标定模块10,质心提取模块11,质心匹配模块12,三维坐标获取模块13,姿态识别模块14,其中,
双目标定模块10用于对左相机和右相机进行双目标定;
质心提取模块11用于提取左相机图像和右相机图像中的肤色区域的质心点的坐标;
质心匹配模块12用于判断左相机图像中的肤色区域与对应的右相机图像中的肤色区域是否匹配;
三维坐标获取模块13用于计算相匹配的肤色区域的质心点在世界坐标系中的坐标;
姿态识别模块14用于识别被采集者的姿态。
本发明利用了双目立体视觉原理,通过获取左右相机的视频帧中相应人体部位的三维坐标点信息,能够较准确的判断人体上半身的姿态动作。本发明不需要拍摄大量图像,能够通过实时采集视频帧对人脸和双手等人体关键部位的质心点进行立体匹配,以获取人体关键部位之间的位置关系,运行成本较低。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域普通技术人员可以理解:实施例中的装置中的模块可以按照实施例描述分布于实施例的装置中,也可以进行相应变化位于不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (5)

1.一种基于双目视觉的人体姿态动作研究方法,其特征在于,包括以下步骤:
S1:将左相机和右相机分别置于与地面平行的同一水平线上,其中,两部相机为同一型号,两部相机之间的距离为设定值,且两部相机均能拍摄到完整的人体上半身;
S2:对所述左相机和所述右相机进行双目标定,首先准备一块带有多个圆形特征点的矩形标定板,其中,多个所述圆形特征点排列成多行和多列的阵列,位于同一行的圆形特征点的圆心在同一直线上,位于同一列的圆形特征点的圆心在同一直线上;
S3:将所述标定板置于相机拍摄区域内的至少5个不同方位,并分别使用左相机和右相机对所述标定板进行拍摄,得到多张对应左相机的左标定板图像和多张对应右相机的右标定板图像;
S4:计算所述左标定板图像中的多个所述圆形特征点在左图像坐标系中的坐标,以及所述右标定板图像中的多个所述圆形特征点在右图像坐标系中的坐标,其中,所述左图像坐标系的原点为所述左相机的成像面与其光轴的交点,所述右图像坐标系的原点为所述右相机的成像面与其光轴的交点;
S5:利用极线约束规则分别匹配同一方位下的所述左标定板图像和所述右标定板图像,得到每个方位下多个所述圆形特征点在所述左图像坐标系和所述右图像坐标系中的特征圆心;
S6:根据每个方位下多个所述圆形特征点在所述左图像坐标系和所述右图像坐标系中的特征圆心,利用Levenberg-Marquardt算法计算所述左相机的内参数,以及所述左相机和所述右相机组成的相机系统的外参数,其中,所述内参数至少包括左图像坐标系中u轴的有效焦距fx、v轴的有效焦距fy以及左图像坐标系的中心坐标(cx,cy),所述外参数至少包括旋转向量R和平移向量t;
S7:构建人体肤色模型,首先使用手工标注方法统计大量RGB格式人体图像中的肤色区域的RGB值,得到人体肤色在RGB空间的分布情况;
S8:将RGB空间转化到YCrCb空间,得到人体肤色在YCrCb空间的分布情况;
S9:根据人体肤色在YCrCb空间的分布情况构建人体肤色模型;
S10:被采集者站立在所述左相机和所述右相机的图像采集范围内,在t0时刻,使用所述左相机和所述右相机分别采集一帧左相机图像和一帧右相机图像;
S11:根据所述人体肤色模型,分别对所述左相机图像和所述右相机图像进行预处理滤波去噪及肤色检测,得到所述左相机图像中的多个连通的肤色区域和所述右相机图像中的多个连通的肤色区域;
S12:分别对所述左相机图像中的多个连通的肤色区域和所述右相机图像中的多个连通的肤色区域进行二值化处理及滤波,获取所述左相机图像中的多个肤色区域和所述右相机图像中的多个肤色区域,其中,所述多个肤色区域至少包括被采集者的脸部;
S13:分别计算所述左相机图像和所述右相机图像中的多个肤色区域的质心点的坐标,首先从所述左相机图像中的多个肤色区域和所述右相机图像中的多个肤色区域中取一个肤色区域;
S14:取该肤色区域的最小外接矩形,得到大小为m*n的子图像,其中m为所述最小外接矩形的宽度,n为所述最小外接矩形的长度;
S15:假设(i,j)为所述子图像中以对应的图像坐标系为基准的像素点的坐标,f(i,j)为所述子图像在该像素点的灰度值,则所述子图像的矩为:
M pq = &Sigma; i = 1 n &Sigma; j = 1 m i p j q f ( i , j ) ;
S16:分别计算所述子图像的0阶矩M00和1阶矩M10及M01
S17:设所述子图像的质心点的坐标为P(xc,yc),按照下式计算所述子图像的质心点的坐标:
x c = M 10 M 00 , y c = M 01 M 00 ;
S18:重复上述步骤S14~S17直至所述左相机图像中的多个肤色区域和所述右相机图像中的多个肤色区域全部计算完成;
S19:判断所述左相机图像中的多个肤色区域分别对应的质心点与所述右相机图像中的多个肤色区域分别对应的质心点之间的匹配关系,首先设定一灰度相关值阈值T;
S20:从所述右相机图像中的多个肤色区域中取一个肤色区域,并从所述左相机图像中取出与该右相机图像的肤色区域对应的肤色区域;
S21:以该右相机图像的肤色区域的质心点的坐标p1(x1,y1)为中心,选定一个大小为(2m′+1)*(2n′+1)的窗口,其中m′,n′为设定值的自然数;
S22:以左相机图像中对应肤色区域的质心点的坐标p2(x2,y2)为中心,也选定一个大小为(2m′+1)*(2n′+1)的窗口;
S23:假设I1(x1+i,y1+j)为右相机图像中该肤色区域的质心点周围的像素点的灰度值,为右相机图像中该肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,I2(x2+i,y2+j)为左相机图像中对应肤色区域的质心点周围的像素点的灰度值,为左相机图像中对应肤色区域的最小外接矩形包围的区域范围内所有像素点的灰度均值,σ(Ik)为标准差,通过以下两式计算该右相机图像的肤色区域与该左相机图像的肤色区域的灰度相关值R(p1,p2):
&sigma; ( I k ) = &Sigma; i = - n &prime; n &prime; &Sigma; j = - m &prime; m &prime; I k 2 ( x k + i , y k + j ) ( 2 m &prime; + 1 ) ( 2 n &prime; + 1 ) - ( I k ( x k , y k ) ) &OverBar; 2 , k=1或2,
R ( p 1 , p 2 ) = &Sigma; i = - n &prime; n &prime; &Sigma; j = - m &prime; m &prime; [ I 1 ( x 1 + i , y 1 + j ) - I 1 ( x 1 , y 1 ) &OverBar; ] [ I 2 ( x 2 + i , y 2 + j ) - I 2 ( x 2 , y 2 ) &OverBar; ] ( 2 m &prime; + 1 ) ( 2 n &prime; + 1 ) &sigma; 2 ( I 1 ) &times; &sigma; 2 ( I 2 ) ;
S24:比较灰度相关值R(p1,p2)与灰度相关值阈值T的大小,当R(p1,p2)>T时,说明该左图像中肤色区域的质心点与该右图像中肤色区域的质心点不匹配,并舍弃该左图像中肤色区域的质心点和该右图像中肤色区域的质心点;
S25:重复上述步骤S20~S24直至对所述右相机图像中的多个肤色区域全部完成匹配关系判断;
S26:根据S6中得到的内参数和外参数,计算相匹配的质心点在世界坐标系中的坐标,首先,假设ul、ur分别为某对相匹配的质心点在左图像坐标系中的横坐标和在右图像坐标系中的横坐标,按下式计算所述左相机和所述右相机的视差D:
D=ul-ur
S27:假设所述左相机的焦距为fc,所述左相机的光心和所述右相机的光心之间的距离为b,以所述左相机的光心为原点建立世界坐标系,其中,该世界坐标系为左手坐标系,按下式计算所述左相机在世界坐标系中的坐标zc
z c = b f c d ;
S28:假设该对相匹配的质心点在左图像坐标系中的纵坐标为vl,该对相匹配的质心点在左图像坐标系中的坐标对应世界坐标系中坐标为(xw,yw,zw)的点,则按下式计算xw,yw,zw的值,其中s为倾斜因子:
z c u l v l 1 = f x s c x 0 0 f y c y 0 0 0 1 0 R t 0 T 0 x w y w z w 1 ;
S29:经过一设定时间间隔后,在t1时刻,重复上述步骤S10~S28;
S30:判断被采集者的脸部的质心点是否被舍弃,如果未被舍弃,则进行步骤S31;
S31:假设t0时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt0(x0,y0,z0),t1时刻采集到的图像计算出的脸部的质心点的坐标在世界坐标系中的坐标为Pt1(x′,y′,z′),设定一左右平移阈值ε和一前后平移阈值δ,并进行以下判断:
①若y′-y0<0,则判定被采集者发生了下蹲的动作,
②若x′-x0<ε,则判定被采集者向左发生了平移,
③若x′-x0>ε,则判定被采集者向右发生了平移,
④若z′-z0<δ,则判定被采集者向前发生了平移,
⑤若z′-z0>δ,则判定被采集者向后发生了平移。
2.根据权利要求1所述的基于双目视觉的人体姿态动作研究方法,其特征在于,S12中所述的多个肤色区域还包括被采集者的左手和右手,且S30中未舍弃被采集者左手和右手的质心点,相应的,进一步包括一判断手臂姿势的步骤:
被采集者保持双臂伸直,使双臂在同一平面内且双臂所在平面与竖直面呈90度夹角,使用上述步骤S10~S28分别计算出被采集者的脸部、左手和右手的质心点在世界坐标系中的坐标,再分别计算左手与脸部之间的距离和右手与脸部之间的距离,并计算左手与脸部之间的距离和右手与脸部之间的距离的平均值S;
假设t1时刻采集到的图像计算出的左手质心点的坐标在世界坐标系中的坐标为L(xl,yl,zl),右手质心点的坐标在世界坐标系中的坐标为R(xr,yr,zr),
则左手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 L &RightArrow; | = ( x l - x &prime; ) 2 + ( y l - y &prime; ) 2 + ( z l - z &prime; ) 2 ,
右手质心点与脸部质心点之间的空间向量为该向量的模为 | P t 1 R &RightArrow; | = ( x r - x &prime; ) 2 + ( y r - y &prime; ) 2 + ( z r - z &prime; ) 2 ,
计算之间的夹角θ即为被采集者的双臂张开的角度,
判断与S的关系:当时,左手臂发生弯曲,且越小,左手臂弯曲程度越大,
判断与S的关系:当时,右手臂发生弯曲,且越小,右手臂弯曲程度越大。
3.根据权利要求1所述的基于双目视觉的人体姿态动作研究方法,其特征在于,进一步包括一判断被采集者是否发生快速移动的步骤:
设定一速度阈值VT,
计算脸部的质心点在t0~t1时间内的移动距离d:
d = | P t 0 P t 1 &RightArrow; | = ( x &prime; - x 0 ) 2 + ( y &prime; - y 0 ) 2 + ( z &prime; - z 0 ) 2 ,
计算脸部质心在t0~t1时间内的平均速度:
v=d/(t1-t0),
当v>VT时,判定被采集者发生了快速移动。
4.根据权利要求1所述的基于双目视觉的人体姿态动作研究方法,其特征在于,S4包括以下步骤:
对标定板图像进行canny边缘检测和滤波去噪;
利用最小二乘法拟合所述标定板上最外层的圆形特征点;
根据上述两步骤的结果计算多个所述圆形特征点在对应的图像坐标系中的坐标。
5.一种实施权利要求1所述的基于双目视觉的人体姿态动作研究方法的系统,其特征在于,包括:双目标定模块,质心提取模块,质心匹配模块,三维坐标获取模块,姿态识别模块,其中,
所述双目标定模块用于对左相机和右相机进行双目标定;
所述质心提取模块用于提取所述左相机图像和所述右相机图像中的肤色区域的质心点的坐标;
所述质心匹配模块用于判断所述左相机图像中的肤色区域与对应的右相机图像中的肤色区域是否匹配;
所述三维坐标获取模块用于计算相匹配的肤色区域的质心点在世界坐标系中的坐标;
所述姿态识别模块用于识别被采集者的姿态。
CN201410184042.5A 2014-05-04 2014-05-04 一种基于双目视觉的人体姿态动作研究方法 Expired - Fee Related CN104036488B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410184042.5A CN104036488B (zh) 2014-05-04 2014-05-04 一种基于双目视觉的人体姿态动作研究方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410184042.5A CN104036488B (zh) 2014-05-04 2014-05-04 一种基于双目视觉的人体姿态动作研究方法

Publications (2)

Publication Number Publication Date
CN104036488A true CN104036488A (zh) 2014-09-10
CN104036488B CN104036488B (zh) 2017-01-11

Family

ID=51467247

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410184042.5A Expired - Fee Related CN104036488B (zh) 2014-05-04 2014-05-04 一种基于双目视觉的人体姿态动作研究方法

Country Status (1)

Country Link
CN (1) CN104036488B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217554A (zh) * 2014-09-19 2014-12-17 武汉理工大学 学生健康学习姿势提醒系统及方法
CN106403838A (zh) * 2015-07-31 2017-02-15 北京航天计量测试技术研究所 一种手持式线结构光视觉三维扫描仪的现场标定方法
CN106485757A (zh) * 2016-10-13 2017-03-08 哈尔滨工业大学 一种基于实心圆标定板的立体视觉系统标定平台及标定方法
CN107341179A (zh) * 2017-05-26 2017-11-10 深圳奥比中光科技有限公司 标准运动数据库的生成方法、装置及存储装置
CN108253935A (zh) * 2016-12-29 2018-07-06 中国空气动力研究与发展中心超高速空气动力研究所 复杂外形模型超高速自由飞行姿态测量方法
CN108399630A (zh) * 2018-01-22 2018-08-14 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN108921907A (zh) * 2018-07-26 2018-11-30 上海慧子视听科技有限公司 一种运动测试评分的方法、装置、设备及存储介质
CN108939230A (zh) * 2018-05-31 2018-12-07 李洪均 健身房制氧设备、健身房供氧系统、供氧方法和装置
CN110398224A (zh) * 2019-04-12 2019-11-01 泰州市康平医疗科技有限公司 目标间距实时测量系统
CN110414322A (zh) * 2019-06-14 2019-11-05 平安科技(深圳)有限公司 提取图片的方法、装置、设备及存储介质
CN111275612A (zh) * 2020-01-17 2020-06-12 成都库珀区块链科技有限公司 一种基于vr技术的k线显示、交互方法及装置
CN111514584A (zh) * 2019-02-01 2020-08-11 北京市商汤科技开发有限公司 游戏控制方法及装置、游戏终端及存储介质
WO2020172783A1 (zh) * 2019-02-26 2020-09-03 武汉资联虹康科技股份有限公司 一种用于经颅磁刺激诊疗的人头姿态跟踪系统
CN111627043A (zh) * 2020-04-13 2020-09-04 浙江工业大学 一种基于标志物和特征筛选器的简易人体曲线获取方法
CN111815899A (zh) * 2019-04-12 2020-10-23 泰州市康平医疗科技有限公司 目标间距实时测量方法及存储介质
CN111990314A (zh) * 2020-08-25 2020-11-27 中国水产科学研究院渔业机械仪器研究所 一种用于鱼类行为量化观测的系统和方法
CN112668549A (zh) * 2021-01-15 2021-04-16 北京格灵深瞳信息技术股份有限公司 行人姿态分析方法、系统、及终端、存储介质
CN112697065A (zh) * 2021-01-25 2021-04-23 东南大学 基于相机阵列的三维形貌重构方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274739A1 (en) * 2009-12-21 2012-11-01 Huawei Device Co.,Ud. Image splicing method and apparatus
WO2012176945A1 (ko) * 2011-06-21 2012-12-27 (주)베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
CN103065289A (zh) * 2013-01-22 2013-04-24 清华大学 基于双目立体视觉的四目摄像机正面人脸重建方法
CN103186233A (zh) * 2011-12-31 2013-07-03 上海飞来飞去新媒体展示设计有限公司 眼神定位全景互动控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274739A1 (en) * 2009-12-21 2012-11-01 Huawei Device Co.,Ud. Image splicing method and apparatus
WO2012176945A1 (ko) * 2011-06-21 2012-12-27 (주)베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
CN103186233A (zh) * 2011-12-31 2013-07-03 上海飞来飞去新媒体展示设计有限公司 眼神定位全景互动控制方法
CN103065289A (zh) * 2013-01-22 2013-04-24 清华大学 基于双目立体视觉的四目摄像机正面人脸重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MICHAEL B 等: "Human Pose Estimation and Activity Recognition From Multi-View Videos: Comparative Explorations of Recent Developments", 《IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING》 *
沈洪宇 等: "计算机视觉中双目视觉综述", 《科技资讯》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217554A (zh) * 2014-09-19 2014-12-17 武汉理工大学 学生健康学习姿势提醒系统及方法
CN106403838A (zh) * 2015-07-31 2017-02-15 北京航天计量测试技术研究所 一种手持式线结构光视觉三维扫描仪的现场标定方法
CN106485757A (zh) * 2016-10-13 2017-03-08 哈尔滨工业大学 一种基于实心圆标定板的立体视觉系统标定平台及标定方法
CN108253935B (zh) * 2016-12-29 2020-04-10 中国空气动力研究与发展中心超高速空气动力研究所 复杂外形模型超高速自由飞行姿态测量方法
CN108253935A (zh) * 2016-12-29 2018-07-06 中国空气动力研究与发展中心超高速空气动力研究所 复杂外形模型超高速自由飞行姿态测量方法
CN107341179B (zh) * 2017-05-26 2020-09-18 深圳奥比中光科技有限公司 标准运动数据库的生成方法、装置及存储装置
CN107341179A (zh) * 2017-05-26 2017-11-10 深圳奥比中光科技有限公司 标准运动数据库的生成方法、装置及存储装置
CN108399630A (zh) * 2018-01-22 2018-08-14 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN108399630B (zh) * 2018-01-22 2022-07-08 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN108939230B (zh) * 2018-05-31 2020-10-16 李洪均 健身房制氧设备、健身房供氧系统、供氧方法和装置
CN108939230A (zh) * 2018-05-31 2018-12-07 李洪均 健身房制氧设备、健身房供氧系统、供氧方法和装置
CN108921907B (zh) * 2018-07-26 2022-03-08 上海慧子视听科技有限公司 一种运动测试评分的方法、装置、设备及存储介质
CN108921907A (zh) * 2018-07-26 2018-11-30 上海慧子视听科技有限公司 一种运动测试评分的方法、装置、设备及存储介质
CN111514584A (zh) * 2019-02-01 2020-08-11 北京市商汤科技开发有限公司 游戏控制方法及装置、游戏终端及存储介质
CN111514584B (zh) * 2019-02-01 2022-07-26 北京市商汤科技开发有限公司 游戏控制方法及装置、游戏终端及存储介质
US11429193B2 (en) 2019-02-01 2022-08-30 Beijing Sensetime Technology Development Co., Ltd. Control of virtual objects based on gesture changes of users
WO2020172783A1 (zh) * 2019-02-26 2020-09-03 武汉资联虹康科技股份有限公司 一种用于经颅磁刺激诊疗的人头姿态跟踪系统
CN111815899A (zh) * 2019-04-12 2020-10-23 泰州市康平医疗科技有限公司 目标间距实时测量方法及存储介质
CN111815899B (zh) * 2019-04-12 2021-02-12 汇金智融(深圳)科技有限公司 目标间距实时测量方法及存储介质
CN110398224A (zh) * 2019-04-12 2019-11-01 泰州市康平医疗科技有限公司 目标间距实时测量系统
CN110414322B (zh) * 2019-06-14 2024-05-28 平安科技(深圳)有限公司 提取图片的方法、装置、设备及存储介质
CN110414322A (zh) * 2019-06-14 2019-11-05 平安科技(深圳)有限公司 提取图片的方法、装置、设备及存储介质
CN111275612A (zh) * 2020-01-17 2020-06-12 成都库珀区块链科技有限公司 一种基于vr技术的k线显示、交互方法及装置
CN111627043A (zh) * 2020-04-13 2020-09-04 浙江工业大学 一种基于标志物和特征筛选器的简易人体曲线获取方法
CN111627043B (zh) * 2020-04-13 2023-09-19 浙江工业大学 一种基于标志物和特征筛选器的简易人体曲线获取方法
CN111990314A (zh) * 2020-08-25 2020-11-27 中国水产科学研究院渔业机械仪器研究所 一种用于鱼类行为量化观测的系统和方法
CN112668549A (zh) * 2021-01-15 2021-04-16 北京格灵深瞳信息技术股份有限公司 行人姿态分析方法、系统、及终端、存储介质
CN112668549B (zh) * 2021-01-15 2023-04-07 北京格灵深瞳信息技术股份有限公司 行人姿态分析方法、系统、及终端、存储介质
CN112697065B (zh) * 2021-01-25 2022-07-15 东南大学 基于相机阵列的三维形貌重构方法
CN112697065A (zh) * 2021-01-25 2021-04-23 东南大学 基于相机阵列的三维形貌重构方法

Also Published As

Publication number Publication date
CN104036488B (zh) 2017-01-11

Similar Documents

Publication Publication Date Title
CN104036488A (zh) 一种基于双目视觉的人体姿态动作研究方法
WO2021004548A1 (zh) 一种基于双目立体视觉系统的车辆智能测速方法
WO2021004312A1 (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
CN105631861B (zh) 结合高度图从无标记单目图像中恢复三维人体姿态的方法
CN107423729A (zh) 一种面向复杂视觉场景下的远距离类脑三维步态识别系统及实现方法
CN101443817B (zh) 用于确定场景的三维重建时的对应关系的方法和装置
CN109472831A (zh) 面向压路机施工过程的障碍物识别测距系统及方法
CN104463899B (zh) 一种目标对象检测、监控方法及其装置
CN104034269B (zh) 一种单目视觉测量方法与装置
CN104063702A (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN107909604A (zh) 基于双目视觉的动态物体运动轨迹识别方法
CN101398886A (zh) 一种基于双目被动立体视觉的快速三维人脸识别方法
CN104021538A (zh) 物体定位方法和装置
CN103839277A (zh) 一种户外大范围自然场景的移动增强现实注册方法
CN106503605A (zh) 基于立体视觉技术的人体目标识别方法
CN103366157A (zh) 一种人眼视线距离的判断方法
CN105913013A (zh) 双目视觉人脸识别算法
CN113050074B (zh) 无人驾驶环境感知中相机与激光雷达标定系统及标定方法
CN111126116A (zh) 无人船河道垃圾识别方法及系统
CN105354825A (zh) 自动识别读写场景中读物位置的智能装置及其应用
CN110021029A (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN104182968A (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN105739106A (zh) 一种体感多视点大尺寸光场真三维显示装置及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170111