CN105469113B - 一种二维视频流中的人体骨骼点追踪方法及系统 - Google Patents
一种二维视频流中的人体骨骼点追踪方法及系统 Download PDFInfo
- Publication number
- CN105469113B CN105469113B CN201510808527.1A CN201510808527A CN105469113B CN 105469113 B CN105469113 B CN 105469113B CN 201510808527 A CN201510808527 A CN 201510808527A CN 105469113 B CN105469113 B CN 105469113B
- Authority
- CN
- China
- Prior art keywords
- point
- coordinate
- hand
- image
- roi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000001514 detection method Methods 0.000 claims abstract description 82
- 210000003127 knee Anatomy 0.000 claims description 25
- 239000000284 extract Substances 0.000 claims description 17
- 239000000203 mixture Substances 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 claims description 5
- 210000001699 lower leg Anatomy 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000013508 migration Methods 0.000 claims description 3
- 230000005012 migration Effects 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 description 9
- 210000000988 bone and bone Anatomy 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 239000000700 radioactive tracer Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种二维视频流中的人体骨骼点追踪方法及系统,方法包括摄像头获取二维视频流,通过前景提取模块获取前景图,通过人脸检测模块获取头部点和颈部点坐标,系统判断头部点是否在屏幕中,否则继续进行人脸检测模块;是则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测,通过肩部点检测模块获取左肩点和右肩点坐标;通过手部点检测模块获取左手点和右手点坐标;通过肘部点检测模块获取左肘点和右肘点坐标,最后统计各点可信度并将可信点显示。
Description
技术领域
本发明涉及图像处理的研究领域,特别涉及一种二维视频流中的人体骨骼点追踪方法及系统。
背景技术
人机交互技术是指通过计算机的输入输出设备,以便于人们使用的方式实现人与计算机之间有效交流的技术。人体骨骼点追踪技术是人机交互领域的一项重要技术,它可以借助红外线来识别人体的运动,可以对人体的多个部位进行实时追踪而不需要借助任何外部设备进行动作扑捉,在人机交互环境中具有广泛的应用前景。现有技术中的人体骨骼追踪技术一般是构架Kinect和PC主机系统,Kinect主要负责采集图像、深度数据流和骨骼信息,主机负责通过数据库获取图像和深度数据进行骨骼运动轨迹跟踪,并把三维数据的世界坐标系转化为二维数据的图像像素坐标系,再通过降噪滤波每个骨骼数据,以获取人体的骨骼追踪信息,而该技术中最最主要的是识别用户的骨骼信息,现有技术中首先是利用红外线传感器通过黑白光谱的方式以每秒30帧的速度来感知环境并生成景深图像流,然后红外传感器将侦测到的3D深度图像,寻找图像中可能是人体的移动物体,通过逐个像分布来辨别人体的不同部位,再采用分割策略来将人体从背景环境中区分出来,从噪音中提取出有用的信号,最后随机决策树和森林通过身体组件识别推理出像素信息,将所有像素的信息汇集起来形成3D骨架关节位置的可靠预测,给出某个特定像素属于哪个身体部位的可能性。但是该方法对周围的光照环境敏感,光照条件不佳可能会影响追踪的准确性;人体部位的饰物等遮挡物会减少人体的部分局部特征,会对骨骼的追踪造成影响,甚至无法追踪,从而导致识别精度不高,降低了人机交互的效率性和自然性。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提出一种二维视频流中的人体骨骼点追踪方法及系统,通过处理深度数据来建立人体各个关节的坐标,利用骨骼追踪确定人体的各个部分。
为了达到上述目的,本发明采用以下技术方案:
本发明提供了一种二维视频流中的人体骨骼点追踪方法,该方法包括下述步骤:
摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
最后统计各点可信度并将可信点显示。
作为优选的,在摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图的步骤中,输出前景图的具体方法为:
通过人脸检测算法获取人脸中心位置HEAD(x,y)
设定两个参数:左构图阈值left_,右构图阈值right_,左构图指示器left_get=0,右构图指示器right_get=0;
提示用户向左移动,当人脸中心位置横坐标x<left_时,left_get=1,此时将当前屏幕右半边的图像保存下来,记为image_right;
继续提示用户向右移动,当人脸中心位置横坐标x>right_时,right_get=1,将当前屏幕左半边的图像保存下来,记为image_left;
当left_get=1且right_get=1时,将image_left和image_right拼起来,得到背景图BACKGROUND,
BACKGROUND=image_left+LD(image_right,image_left.clos)
其中LD(a,b)表示将图像a整体向右偏移b个像素;
之后每输入一幅图像IMAGE,将IMAGE和BACKGROUND相减并消噪获取前景掩膜foreground_mask,对foreground_mask进行二值化处理得到MASK;
将IMAGE与MASK进行与处理输出前景图FOREGROUND。
作为优选的,在对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标的步骤中,使用Haar分类器进行人脸检测,其具体方法为:
将彩色图转灰度图;
对灰度图进行直方图均衡化,增强对比度;
使用Haar分类器检测正脸,有检测到正脸则返回脸部中心点坐标和人脸矩形长宽;
如果检测不到正脸,则使用Haar分类器检测侧脸,返回脸部中心点坐标和人脸矩形长宽。
作为优选的,在使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标的步骤中,实现肩部点检测的具体方法为:
图像预处理获取人体外轮廓;
取左肩点ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
设置SCAN_X,SCAN_X为输入图像宽度的n1倍,其中0<n1<1,即SCAN_X=n1*ROI_WIDTH;
以宽度为SCAN_X从上往下去扫左肩ROI,如果有值大于设定值M,则返回该点坐标;
如果扫不到有值大于M,则以长度为SCAN_Y由右向左去扫左肩ROI,其中SCAN_Y为输入图像长度的n2倍,其中0<n1<1,即SCAN_Y=n2*ROI_HEIGHT;如果有值大于M,则返回该点坐标;
利用上述同样的识别方法获取左肩点坐标。
作为优选的,在利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标的步骤中,实现手部点检测的具体方法为:
将RGB转成YCrCb坐标系,存放在YUU中;
对YUU三通道分离并分别提取YUU各个通道中得特殊信息组合成新图,存放在BW中;
对BW进行开运算,除去除噪点、平滑图像并提取外轮廓;
遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于X倍矩形高度且矩形高度小于X倍矩形宽度,其中1<X<2;
如不满足:
新建点容器ptt,用来装最小外接矩形K的顶点;
检测左手,将最左的点找出,定义为ptt[0],判断次左的点,定义为ptt[1],定义p1为K的中点,定义p2为ptt[0]和ptt[1]的中点;
由p1和p2的几何关系确定手的大体位置,并将坐标赋值给p2,当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的方法识别右手的坐标。
作为优选的,在利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标的步骤中,实现肘部点检测的具体方法为:
图像预处理获取人体外轮廓;
取左肘部ROI,将ROI分为三个区域,分别对应举手,偏45度,叉腰向下这三种姿势;
当肩部点横坐标与手部点横坐标差值大于IMAGE_HEIGHT/50时:
举手动作:当手点纵坐标与肩部点纵坐标差值小于阈值IMAGE_HEIGHT/5时,则从下往上扫点,扫到就返回;
偏45度向下:当手点纵坐标与肩部点纵坐标差值大于阈值IMAGE_HEIGHT/5时,则从右往左扫点,扫到点的像素值大于就返回;
叉腰动作:当肩部点横坐标与手部点横坐标差值小于IMAGE_HEIGHT/50时,则从左向右扫点,返回第一个像素值大于50的点的坐标。
作为优选的,该方法还包括下述步骤:
利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测,所述脚点检测的具体方法为:
在全身模式下,以屏幕一半取出前景图的人体下半身ROI;
提取外轮廓,遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于Y倍矩形高度且矩形高度小于Y倍矩形宽度,其中1<Y<2;
如不满足:
新建点容器ptfoot,用来装最小外接矩形K的顶点;
检测左脚,将最左的点找出,定义为ptfoot[0],判断次左的点,定义为ptfoot[1],定义p1为K的中点,定义p2为ptfoot[0]和ptfoot[1]的中点;
由p1和p2的几何关系确定脚的大体位置,并将坐标赋值给p2;
当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的识别方法获取右脚点坐标。
作为优选的,该方法还包括下述步骤:
利用脚点往上取设定高度的距离进行扫描并返回的方法实现膝部点检测,所述膝部点检测的具体方法为:
背景重构模块获取人体前景,在全身模式下,取下半身人体ROI;
获取人体高度BODY_HEIGHT,BODY_HEIGHT=FOOT_LEFT_Y–FACE_Y+FACE_HEIGHT/2;
取左脚部ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
设置SCAN_Y,SCAN_Y为用户高度的0.2倍,即SCAN_Y=0.2*BODY_HEIGHT;
以FOOT_LEFT_Y以上SCAN_Y的高度从左往右去扫左脚ROI,如果有值大于50,则返回该点坐标(x+12,y),其中x+12表示对横坐标做一个12像素的偏移处理,使得膝部点处于膝部的中心位置;
如果扫不到有值大于50,则返回(0,0),并置为不可信点;
利用上述同样的识别方法获取右膝点坐标。
本发明还提供一种二维视频流中的人体骨骼点追踪系统,该系统包括:
前景提取模块,用于摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
人脸检测模块,用于对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
判断模块,用于判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
肩部点检测模块,用于使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
手部检测模块,用于利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
肘部检测模块,用于利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
统计模块,最后统计各点可信度并将可信点显示。
作为优选的,该系统还包括脚点检测模块和膝部点检测模块;
所述脚点检测模块,用于利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测;
所述膝部点检测模块,用于利用脚点往上取设定高度的距离进行扫描并返回的方法实现膝部点检测。
本发明与现有技术相比,具有如下优点和有益效果:
1.本发明不需要使用到深度信息,可直接利用普通摄像头实现人体骨架点识别,普适性较强。
2.本发明算法简单,占用计算资源少,对硬件要求低,实时性强;
3.本发明不受开发平台限制,可应用在移动终端(如手机,平板等),满足跨平台需求,可移植性强。
4.本发明可应对一般场景下的背景复杂,光照不均等问题,鲁棒性较强。
附图说明
图1为本发明的定义的人体的骨架图;
图2为本发明的二维视频流中的人体骨骼点追踪方法流程图;
图3是本发明输入的原始图像;
图4是本发明的背景图;
图5是本发明的掩膜二值图;
图6是本发明的前景图;
图7是本发明人脸检测区域示意图;
图8是本发明经过人脸检测获取的头部点和颈部点的示意图;
图9是本发明的肩部点的区域示意图;
图10是本发明手部点的区域示意图;
图11是本发明区域划分示意图;
图12本发明肘部点的区域示意图;
图13是本发明整体关键点的识别效果图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
当前,基于深度的骨骼追踪技术通过处理深度数据来建立人体各个关节的坐标,骨骼追踪能够确定人体的各个部分,如那部分是手,头部,以及身体,还能确定他们所在的位置。但是普通摄像头只能获取空间中的二维信息,本算法的目标就是实现二维视频流中的人体骨骼点追踪。
首先如图1所示,定义人体的相关检测点和相关图,如下表1、表2所示;
表1
1 | 头部点HEAD | 2 | 颈部点SHOULDER_center |
3 | 左肩点SHOULDER_left | 4 | 右肩点SHOULDER_RIGH |
5 | 左手点HAND_left | 6 | 右手点HAND_right |
7 | 左肘点ELBOW_left | 8 | 右肘点ELBOW_right |
9 | 臀部点HIP_center | 10 | 左脚点FOOT_left |
11 | 右脚点FOOT_right | 12 | 左膝点KNEE_left |
13 | 右膝点KNEE_right |
表2
原始图 | IMAGE | 背景图 | BACKGROUND |
原图宽度 | IMAGE_WIDTH | 前景掩膜 | MASK |
原图长度 | IMAGE_HEIGHT | 前景图 | FOREGROUND |
如图2所示,本发明一种二维视频流中的人体骨骼点追踪方法,该方法包括下述步骤:
步骤S1、摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
如图3-图6所示,输出前景图的具体方法为:
S11、通过人脸检测算法获取人脸中心位置HEAD(x,y)
S12、设定两个参数:左构图阈值left_,右构图阈值right_,左构图指示器left_get=0,右构图指示器right_get=0;
S13、提示用户向左移动,当人脸中心位置横坐标x<left_时,left_get=1,此时将当前屏幕右半边的图像保存下来,记为image_right;
S14、继续提示用户向右移动,当人脸中心位置横坐标x>right_时,right_get=1,将当前屏幕左半边的图像保存下来,记为image_left;
S15、当left_get=1且right_get=1时,将image_left和image_right拼起来,得到背景图BACKGROUND,
BACKGROUND=image_left+LD(image_right,image_left.clos)
其中LD(a,b)表示将图像a整体向右偏移b个像素;
S16、之后每输入一幅图像IMAGE,将IMAGE和BACKGROUND相减并消噪获取前景掩膜foreground_mask,对foreground_mask进行二值化处理得到MASK
foreground_mask=abs(IMAGE–BACKGROUND);
其中abs(a)表示对a取绝对值;
MASK=threshold(foreground_mask,55);
其中threshold(a,T)表示对图像a以阈值b做二值化处理,像素值高于T的点置为255,像素值低于T的点置为0,
S17、将IMAGE与MASK进行与处理输出前景图FOREGROUND。
步骤S2、对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
本实施例中,如图7、图8所示,采用Haar分类器进行人脸检测,其具体方法为:
S21、将彩色图转灰度图;
S22、对灰度图进行直方图均衡化,增强对比度;
S23、使用Haar分类器检测正脸,有检测到正脸则返回脸部中心点坐标和人脸矩形长宽(HEAD_HEIGHT,HEAD_WIDTH);
S24、如果检测不到正脸,则使用Haar分类器检测侧脸,返回脸部中心点坐标和人脸矩形长宽;
S25、其中脸部中心点坐标作为头部点,以头部点往下取0.75倍的人脸矩形长度,即将
(HEAD.X,HEAD.Y+0.75*HEAD_HEIGHT)确定为颈部点
S26、以头部点往下取3倍人脸矩形长度,即将(HEAD.X,HEAD.Y+3*HEAD_HEIGHT)确定为颈部点。
Harr特征值的计算公式为(窗口大小N*N):
对于给定的一个N*N的窗口I,其积分图计算公式如下:
对一个窗口图像中的一个方形内的像素求和计算方式如下:
步骤S3、判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
步骤S4、使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
如图9所示,实现肩部点检测的具体方法为:
S41、图像预处理获取人体外轮廓;
S42、取左肩点ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
S43、设置SCAN_X,SCAN_X为输入图像宽度的0.35倍,即SCAN_X=0.35*ROI_WIDTH;
S44、以宽度为SCAN_X从上往下去扫左肩ROI,如果有值大于50,则返回该点坐标;
S45、如果扫不到有值大于50,则以长度为SCAN_Y由右向左去扫左肩ROI,其中SCAN_Y为输入图像长度的0.7倍,即SCAN_Y=0.7*ROI_HEIGHT;如果有值大于50,则返回该点坐标;
利用上述同样的识别方法获取左肩点坐标。
步骤S5、利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
如图10所示,实现手部点检测的具体方法为:
S51、将RGB转成YCrCb坐标系,存放在YUU中;
S52、对YUU三通道分离并分别提取YUU各个通道中得特殊信息组合(Y<=173,Cr<=127,Cb>=77)成新图,存放在BW中;S53、对BW进行开运算(5*5处理窗):去除噪点;
S54、膨胀2次(3*3处理窗):使图像平滑;
S55、提取外轮廓;
S56、遍历外轮廓并提取最大面积对应的轮廓L;
S57、新建L的最小外接矩形K;
S58、K满足以下条件时直接返回中心点:矩形宽度小于1.5倍矩形高度且矩形高度小于1.5倍矩形宽度;
S59、如不满足:
新建点容器ptt,用来装最小外接矩形K的顶点;
检测左手,将最左的点找出,定义为ptt[0];
判断次左的点,定义为ptt[1];
定义p1为K的中点,定义p2为ptt[0]和ptt[1]的中点;
由p1和p2的几何关系确定手的大体位置,并将坐标赋值给p2;
当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
右手的处理同左手;
YCbCr格式可以从RGB格式线性变化得到,转换公式如下:
通过对大量皮肤像素的统计分析可以看到肤色聚类在色度空间中的很小的范围内,下述计算式判断是否属于皮肤区域:
(Cb>77And Cb<127)And(Cr>133And Cr<173)。
步骤S6、利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
如图11-图12所示,实现肘部点检测的方法为:
S61、利用将手部ROI划分为三个区域,三个区域如图11所示,各个区域分别用不同的扫描方式返回点实现肘部点识别;
S62、图像预处理获取人体外轮廓
S63、取左肘部ROI
S64、将ROI分为三个区域,分别对应举手,偏45度,叉腰向下这三种姿势
S65、当肩部点横坐标与手部点横坐标差值大于IMAGE_HEIGHT/50时:
举手动作(区域一):当手点纵坐标与肩部点纵坐标差值小于阈值IMAGE_HEIGHT/5时
即HAND.y-SHOULDER.y<IMAGE_HEIGHT/5,则从下往上扫点,扫到就返回
偏45度向下(区域二):当手点纵坐标与肩部点纵坐标差值大于阈值IMAGE_HEIGHT/5时
即HAND.y-SHOULDER.y>IMAGE_HEIGHT/5,则从右往左扫点(以ROI往下8个像素取点横向扫),扫到点的像素值大于就返回
叉腰动作(区域三):当肩部点横坐标与手部点横坐标差值小于IMAGE_HEIGHT/50时:
即SHOULDER.x–HAND.x<IMAGE_HEIGHT/50时,则从左向右扫点,返回第一个像素值大于50的点的坐标;
右手肘点与左手肘点同。
步骤S7、最后统计各点可信度并将可信点显示。
作为上述实施例的一个优化方案,本实施例二维视频流中的人体骨骼点追踪方法,该方法还包括下述步骤:
S8、利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测,所述脚点检测的具体方法为:
S81在全身模式下,以屏幕一半取出前景图的人体下半身ROI;
S82、提取外轮廓,遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
S83、K满足以下条件时直接返回中心点:矩形宽度小于1.5倍矩形高度且矩形高度小于1.5倍矩形宽度
S84、如不满足:
新建点容器ptfoot,用来装最小外接矩形K的顶点;
检测左脚,将最左的点找出,定义为ptfoot[0],判断次左的点,定义为ptfoot[1],定义p1为K的中点,定义p2为ptfoot[0]和ptfoot[1]的中点;
由p1和p2的几何关系确定脚的大体位置,并将坐标赋值给p2;
当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的识别方法获取右脚点坐标。
S9、利用脚点往上取0.2倍人体高度的距离进行扫描并返回的方法实现膝部点检测,所述膝部点检测的具体方法为:
S91、背景重构模块获取人体前景,在全身模式下,取下半身人体ROI;
S92、获取人体高度BODY_HEIGHT,BODY_HEIGHT=FOOT_LEFT_Y–FACE_Y+FACE_HEIGHT/2;
S93、取左脚部ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
S94、设置SCAN_Y,SCAN_Y为用户高度的0.2倍,即SCAN_Y=0.2*BODY_HEIGHT;
S95、以FOOT_LEFT_Y以上SCAN_Y的高度从左往右去扫左脚ROI,如果有值大于50,则返回该点坐标(x+12,y),其中x+12表示对横坐标做一个12像素的偏移处理,使得膝部点处于膝部的中心位置;
S96、如果扫不到有值大于50,则返回(0,0),并置为不可信点;
利用上述同样的识别方法获取右膝点坐标。
经过上述的步骤S1-S9,完成对所有整体关键点的识别,如图13所示。
本实施例中,在S1的步骤中,由于现实场景下光照不均和掩膜易受人的影子影响等问题,需要对前景提取模块中得到的掩膜进行优化,使得其能适应光照不均的情况。主要使用GI滤波函数进行掩膜优化,其具体方法为:
对输入掩膜进行高斯滤波消除高斯噪声,高斯滤波预设参数为:处理窗口大小为15x15,sigma为20;
对消噪后的掩膜图像应用GI滤波,得到0-1过渡图像,GI滤波预设参数为:处理窗大小为8x8,惩罚参数为51;
GI滤波算法,输入为彩色图I和初始掩膜P,输出为结合彩色图边缘信息做补全的优化掩膜,过程如下:
Algorithm 1.Guided Filter.
Input:filtering input image p,guidance image I,radius r,
regularization ∈
Output:filtering output q.
1:meanI=fmean(I)
meanp=fmean(p)
corrI=fmean(I.*I)
corrIp=fmean(I.*p)
2:varI=corrI-meanI.*meanI
covIp=corrIp-meanI.*meanp
3:a=covIp./(varI+∈)
b=meanp-a.*meanI
4:meana=fmean(a)
meanb=fmean(b)
5:q=meana.*I+meanb
/*fmean is a mean filter with a wide variety of O(N)time methods.*/
其中,mean表示获取图像均值,corr表示求二次矩均值;第2步求图像局部方差;第三步计算线性系数a和b;第4步计算系数均值;第5步实现信息补全。
使用3x3的处理窗进行开操作,进一步消除空洞点和离散点;
寻找掩膜最大连通域,再次进行高斯滤波得到优化的掩膜,高斯滤波预设参数为:处理窗口大小为15x15,sigma为20。
本发明还公开了一种二维视频流中的人体骨骼点追踪系统,该系统包括:
前景提取模块,用于摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
人脸检测模块,用于对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
判断模块,用于判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
肩部点检测模块,用于使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
手部检测模块,用于利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
肘部检测模块,用于利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
统计模块,最后统计各点可信度并将可信点显示。
除上述主要模块外,该系统还包括脚点检测模块和膝部点检测模块;
所述脚点检测模块,用于利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测;
所述膝部点检测模块,用于利用脚点往上取0.2倍人体高度的距离进行扫描并返回的方法实现膝部点检测。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种二维视频流中的人体骨骼点追踪方法,其特征在于,该方法包括下述步骤:
摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
最后统计各点可信度并将可信点显示;
在利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标的步骤中,实现手部点检测的具体方法为:
将RGB转成YCrCb坐标系,存放在YUU中;
对YUU三通道分离并分别提取YUU各个通道中得特殊信息组合成新图,存放在BW中;
对BW进行开运算,除去除噪点、平滑图像并提取外轮廓;
遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于X倍矩形高度且矩形高度小于X倍矩形宽度,其中1<X<2;
如不满足:
新建点容器ptt,用来装最小外接矩形K的顶点;
检测左手,将最左的点找出,定义为ptt[0],判断次左的点,定义为ptt[1],定义p1为K的中点,定义p2为ptt[0]和ptt[1]的中点;
由p1和p2的几何关系确定手的大体位置,并将坐标赋值给p2,当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的方法识别右手的坐标。
2.根据权利要求1所述的二维视频流中的人体骨骼点追踪方法,其特征在于,在摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图的步骤中,输出前景图的具体方法为:
通过人脸检测算法获取人脸中心位置HEAD(x,y);
设定两个参数:左构图阈值left_,右构图阈值right_,左构图指示器left_get=0,右构图指示器right_get=0;
提示用户向左移动,当人脸中心位置横坐标x<left_时,left_get=1,此时将当前屏幕右半边的图像保存下来,记为image_right;
继续提示用户向右移动,当人脸中心位置横坐标x>right_时,right_get=1,将当前屏幕左半边的图像保存下来,记为image_left;
当left_get=1且right_get=1时,将image_left和image_right拼起来,得到背景图BACKGROUND,
BACKGROUND=image_left+LD(image_right,image_left.clos)
其中LD(a,b)表示将图像a整体向右偏移b个像素;
之后每输入一幅图像IMAGE,将IMAGE和BACKGROUND相减并消噪获取前景掩膜foreground_mask,对foreground_mask进行二值化处理得到MASK;
将IMAGE与MASK进行与处理输出前景图FOREGROUND。
3.根据权利要求1所述的二维视频流中的人体骨骼点追踪方法,其特征在于,在对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标的步骤中,使用Haar分类器进行人脸检测,其具体方法为:
将彩色图转灰度图;
对灰度图进行直方图均衡化,增强对比度;
使用Haar分类器检测正脸,有检测到正脸则返回脸部中心点坐标和人脸矩形长宽;
如果检测不到正脸,则使用Haar分类器检测侧脸,返回脸部中心点坐标和人脸矩形长宽。
4.根据权利要求1所述的二维视频流中的人体骨骼点追踪方法,其特征在于,在使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标的步骤中,实现肩部点检测的具体方法为:
图像预处理获取人体外轮廓;
取左肩点ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
设置SCAN_X,SCAN_X为输入图像宽度的n1倍,其中0<n1<1,即SCAN_X=n 1*ROI_WIDTH;
以宽度为SCAN_X从上往下去扫左肩ROI,如果有值大于设定值M,则返回该点坐标;
如果扫不到有值大于M,则以长度为SCAN_Y由右向左去扫左肩ROI,其中SCAN_Y为输入图像长度的n2倍,其中0<n1<1,即SCAN_Y=n2*ROI_HEIGHT;如果有值大于M,则返回该点坐标;
利用上述同样的识别方法获取左肩点坐标。
5.根据权利要求1所述的二维视频流中的人体骨骼点追踪方法,其特征在于,在利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标的步骤中,实现肘部点检测的具体方法为:
图像预处理获取人体外轮廓;
取左肘部ROI,将ROI分为三个区域,分别对应举手,偏45度,叉腰向下这三种姿势;
当肩部点横坐标与手部点横坐标差值大于IMAGE_HEIGHT/50时:
举手动作:当手点纵坐标与肩部点纵坐标差值小于阈值IMAGE_HEIGHT/5时,则从下往上扫点,扫到就返回;
偏45度向下:当手点纵坐标与肩部点纵坐标差值大于阈值IMAGE_HEIGHT/5时,则从右往左扫点,扫到点的像素值大于就返回;
叉腰动作:当肩部点横坐标与手部点横坐标差值小于IMAGE_HEIGHT/50时,则从左向右扫点,返回第一个像素值大于50的点的坐标。
6.根据权利要求1所述的二维视频流中的人体骨骼点追踪方法,其特征在于,该方法还包括下述步骤:
利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测,所述脚点检测的具体方法为:
在全身模式下,以屏幕一半取出前景图的人体下半身ROI;
提取外轮廓,遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于Y倍矩形高度且矩形高度小于Y倍矩形宽度,其中1<Y<2;
如不满足:
新建点容器ptfoot,用来装最小外接矩形K的顶点;
检测左脚,将最左的点找出,定义为ptfoot[0],判断次左的点,定义为ptfoot[1],定义p1为K的中点,定义p2为ptfoot[0]和ptfoot[1]的中点;
由p1和p2的几何关系确定脚的大体位置,并将坐标赋值给p2;
当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的识别方法获取右脚点坐标。
7.根据权利要求6所述的二维视频流中的人体骨骼点追踪方法,其特征在于,该方法还包括下述步骤:
利用脚点往上取设定高度的距离进行扫描并返回的方法实现膝部点检测,所述膝部点检测的具体方法为:
背景重构模块获取人体前景,在全身模式下,取下半身人体ROI;
获取人体高度BODY_HEIGHT,BODY_HEIGHT=FOOT_LEFT_Y–FACE_Y+FACE_HEIGHT/2;
取左脚部ROI,其尺寸记为(ROI_HEIGHT,ROI_WIDTH);
设置SCAN_Y,SCAN_Y为用户高度的0.2倍,即SCAN_Y=0.2*BODY_HEIGHT;
以FOOT_LEFT_Y以上SCAN_Y的高度从左往右去扫左脚ROI,如果有值大于50,则返回该点坐标(x+12,y),其中x+12表示对横坐标做一个12像素的偏移处理,使得膝部点处于膝部的中心位置;
如果扫不到有值大于50,则返回(0,0),并置为不可信点;利用上述同样的识别方法获取右膝点坐标。
8.一种二维视频流中的人体骨骼点追踪系统,其特征在于,该系统包括:
前景提取模块,用于摄像头获取二维视频流,重构背景并利用减背景的方法提取前景掩膜,去噪处理后输出前景图;
人脸检测模块,用于对输出的前景图检测人脸,获取人脸矩形区域、头部点和颈部点坐标;
判断模块,用于判断头部点是否在屏幕中,如果否,则继续进行人脸检测模块;如果是,则将人体分为左部分ROI和右部分ROI分别进行其他关键点的检测;
肩部点检测模块,用于使用特定位置扫描并返回有像素值点的方法实现肩部点检测,并获取左肩点和右肩点坐标;
手部检测模块,用于利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标;
肘部检测模块,用于利用将手部ROI划分为三个区域,各个区域分别用不同的扫描方式返回点实现肘部点检测,并获取左肘点和右肘点坐标;
统计模块,最后统计各点可信度并将可信点显示;
在利用求肤色区域最小外接矩形近端点并返回实现手部点检测,并获取左手点和右手点坐标的步骤中,实现手部点检测的具体方法为:
将RGB转成YCrCb坐标系,存放在YUU中;
对YUU三通道分离并分别提取YUU各个通道中得特殊信息组合成新图,存放在BW中;
对BW进行开运算,除去除噪点、平滑图像并提取外轮廓;
遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于X倍矩形高度且矩形高度小于X倍矩形宽度,其中1<X<2;
如不满足:
新建点容器ptt,用来装最小外接矩形K的顶点;
检测左手,将最左的点找出,定义为ptt[0],判断次左的点,定义为ptt[1],定义p1为K的中点,定义p2为ptt[0]和ptt[1]的中点;
由p1和p2的几何关系确定手的大体位置,并将坐标赋值给p2,当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的方法识别右手的坐标。
9.根据权利要求8所述的二维视频流中的人体骨骼点追踪系统,其特征在于,该系统还包括脚点检测模块和膝部点检测模块;
所述脚点检测模块,用于利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测;
所述膝部点检测模块,用于利用脚点往上取设定高度的距离进行扫描并返回的方法实现膝部点检测;
利用求下半身前景区域最小外接矩形近端点并返回实现脚点检测,所述脚点检测的具体方法为:
在全身模式下,以屏幕一半取出前景图的人体下半身ROI;
提取外轮廓,遍历外轮廓并提取最大面积对应的轮廓L,新建L的最小外接矩形K;
K满足以下条件时直接返回中心点:矩形宽度小于Y倍矩形高度且矩形高度小于Y倍矩形宽度,其中1<Y<2;
如不满足:
新建点容器ptfoot,用来装最小外接矩形K的顶点;
检测左脚,将最左的点找出,定义为ptfoot[0],判断次左的点,定义为ptfoot[1],定义p1为K的中点,定义p2为ptfoot[0]和ptfoot[1]的中点;
由p1和p2的几何关系确定脚的大体位置,并将坐标赋值给p2;
当p2在边缘部分时,赋值为(0,0),值为(0,0)的点不显示;
返回p2;
利用上述同样的识别方法获取右脚点坐标。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510808527.1A CN105469113B (zh) | 2015-11-19 | 2015-11-19 | 一种二维视频流中的人体骨骼点追踪方法及系统 |
PCT/CN2016/070898 WO2017084204A1 (zh) | 2015-11-19 | 2016-01-14 | 一种二维视频流中的人体骨骼点追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510808527.1A CN105469113B (zh) | 2015-11-19 | 2015-11-19 | 一种二维视频流中的人体骨骼点追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105469113A CN105469113A (zh) | 2016-04-06 |
CN105469113B true CN105469113B (zh) | 2019-03-22 |
Family
ID=55606784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510808527.1A Active CN105469113B (zh) | 2015-11-19 | 2015-11-19 | 一种二维视频流中的人体骨骼点追踪方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105469113B (zh) |
WO (1) | WO2017084204A1 (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446958B (zh) * | 2016-10-09 | 2019-04-12 | 湖南穗富眼电子科技有限公司 | 一种人体离开可靠检测方法 |
CN108323204B (zh) * | 2017-07-17 | 2021-02-26 | 深圳和而泰智能控制股份有限公司 | 一种检测人脸瑕疵点的方法和智能终端 |
CN107392146A (zh) * | 2017-07-20 | 2017-11-24 | 湖南科乐坊教育科技股份有限公司 | 一种儿童坐姿检测方法及装置 |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
CN107865753B (zh) * | 2017-11-30 | 2023-05-09 | 湖南妙手机器人有限公司 | 康复机器人 |
CN108829233B (zh) * | 2018-04-26 | 2021-06-15 | 深圳市同维通信技术有限公司 | 一种交互方法及装置 |
CN108648229B (zh) * | 2018-05-18 | 2020-07-28 | 四川效率未来科技有限公司 | 基于Kinect相机的人体背部特征点提取方法 |
CN109325995B (zh) * | 2018-09-13 | 2022-11-25 | 叠境数字科技(上海)有限公司 | 基于人手参数模型的低分辨率多视角手部重建方法 |
US11715308B2 (en) * | 2018-10-10 | 2023-08-01 | Delaval Holding Ab | Animal identification using vision techniques |
CN109697446B (zh) * | 2018-12-04 | 2021-12-07 | 北京字节跳动网络技术有限公司 | 图像关键点提取方法、装置、可读存储介质及电子设备 |
CN109685797B (zh) * | 2018-12-25 | 2021-08-10 | 北京旷视科技有限公司 | 骨骼点检测方法、装置、处理设备及存储介质 |
CN111435421B (zh) * | 2019-01-11 | 2023-12-19 | 北京邮电大学 | 一种面向交通目标的车辆重识别方法和装置 |
TWI719409B (zh) * | 2019-02-23 | 2021-02-21 | 和碩聯合科技股份有限公司 | 追蹤系統及其方法 |
CN109947247B (zh) * | 2019-03-14 | 2022-07-05 | 海南师范大学 | 一种体感交互展示系统及方法 |
CN109948560B (zh) * | 2019-03-25 | 2023-04-07 | 南开大学 | 融合骨骼识别和IFace-TLD的移动机器人目标跟踪系统 |
CN110288520B (zh) * | 2019-06-29 | 2023-03-31 | 北京字节跳动网络技术有限公司 | 图像美化方法、装置及电子设备 |
CN110310351B (zh) * | 2019-07-04 | 2023-07-21 | 北京信息科技大学 | 一种基于草图的三维人体骨骼动画自动生成方法 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
CN111368746A (zh) * | 2020-03-06 | 2020-07-03 | 杭州宇泛智能科技有限公司 | 视频中人员安全帽佩戴状态的检测方法、装置及电子设备 |
CN111461020B (zh) * | 2020-04-01 | 2024-01-19 | 浙江大华技术股份有限公司 | 不安全使用手机行为的识别方法、设备及相关存储介质 |
CN111652076A (zh) * | 2020-05-11 | 2020-09-11 | 重庆大学 | 一种面向ad量表理解能力测试的姿态自动识别系统 |
CN111709360B (zh) * | 2020-06-16 | 2023-04-07 | 上海大学 | 一种安全绳佩戴识别方法及系统 |
CN112612434A (zh) * | 2020-12-16 | 2021-04-06 | 杭州当虹科技股份有限公司 | 一种基于ai技术视频竖屏解决方法 |
WO2022226724A1 (en) * | 2021-04-26 | 2022-11-03 | Intel Corporation | Method and system of image processing with multi-skeleton tracking |
CN113392738B (zh) * | 2021-06-01 | 2023-12-26 | 浙江大华技术股份有限公司 | 行为规范性检测方法、装置、电子设备和存储介质 |
CN113609917B (zh) * | 2021-07-12 | 2022-09-27 | 深圳市鸿合创新信息技术有限责任公司 | 人手位置信息确定方法及相关设备 |
CN114187368B (zh) * | 2022-02-17 | 2022-05-06 | 深圳艾灵网络有限公司 | 建筑板材的暗纹检测方法、装置、电子设备及存储介质 |
CN114577122B (zh) * | 2022-02-28 | 2023-08-18 | 长三角先进材料研究院 | 一种基于图像处理的自冲铆接剖面几何参数自动测量方法 |
CN115396576B (zh) * | 2022-08-24 | 2023-08-08 | 南京农业大学 | 从侧视、俯视双视角图像自动测量羊体尺的装置和方法 |
CN115620117B (zh) * | 2022-12-20 | 2023-03-14 | 吉林省信息技术研究所 | 一种用于网络访问权限认证的人脸信息加密方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609683A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种基于单目视频的人体关节自动标注方法 |
CN103038727A (zh) * | 2010-06-29 | 2013-04-10 | 微软公司 | 骨架关节识别和跟踪系统 |
CN103155003A (zh) * | 2010-10-08 | 2013-06-12 | 松下电器产业株式会社 | 姿势估计装置及姿势估计方法 |
CN103559491A (zh) * | 2013-10-11 | 2014-02-05 | 北京邮电大学 | 人体动作捕获及姿态分析系统 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007132451A2 (en) * | 2006-05-11 | 2007-11-22 | Prime Sense Ltd. | Modeling of humanoid forms from depth maps |
US9036920B2 (en) * | 2010-10-08 | 2015-05-19 | Industrial Technology Research Institute | Method of detecting feature points of an object in a system for motion detection |
KR101908284B1 (ko) * | 2012-01-13 | 2018-10-16 | 삼성전자주식회사 | 신체 연결 관계 분석 장치 및 방법 |
-
2015
- 2015-11-19 CN CN201510808527.1A patent/CN105469113B/zh active Active
-
2016
- 2016-01-14 WO PCT/CN2016/070898 patent/WO2017084204A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103038727A (zh) * | 2010-06-29 | 2013-04-10 | 微软公司 | 骨架关节识别和跟踪系统 |
CN103155003A (zh) * | 2010-10-08 | 2013-06-12 | 松下电器产业株式会社 | 姿势估计装置及姿势估计方法 |
CN102609683A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种基于单目视频的人体关节自动标注方法 |
CN103559491A (zh) * | 2013-10-11 | 2014-02-05 | 北京邮电大学 | 人体动作捕获及姿态分析系统 |
CN104680127A (zh) * | 2014-12-18 | 2015-06-03 | 闻泰通讯股份有限公司 | 手势识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
Automatic Human Body Tracking and Modeling from;Chih-Chang Yu 等;《Acoustics, Speech and Signal Processing, 2007. ICASSP 2007. IEEE International Conference on》;20070604;第917-920页 |
基于视频的运动捕捉关键技术研究;张俊杰;《中国优秀硕士学位论文全文数据库 信息科技辑》;20131130;I138-786 |
Also Published As
Publication number | Publication date |
---|---|
CN105469113A (zh) | 2016-04-06 |
WO2017084204A1 (zh) | 2017-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105469113B (zh) | 一种二维视频流中的人体骨骼点追踪方法及系统 | |
CN103186904B (zh) | 图片轮廓提取方法及装置 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN104484645B (zh) | 一种面向人机交互的“1”手势识别方法与系统 | |
CN104298996B (zh) | 一种应用于仿生机器鱼的水下主动视觉跟踪方法 | |
CN104200200B (zh) | 融合深度信息和灰度信息实现步态识别的系统及方法 | |
CN106600625A (zh) | 检测小型生物的图像处理方法及装置 | |
Ibraheem et al. | Comparative study of skin color based segmentation techniques | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN107330371A (zh) | 3d脸部模型的脸部表情的获取方法、装置和存储装置 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN103218605A (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
CN106204223B (zh) | 图像处理方法及系统 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN104598907B (zh) | 一种基于笔画宽度图的图像中文字数据提取方法 | |
CN110688965A (zh) | 基于双目视觉的ipt模拟训练手势识别方法 | |
CN112906550B (zh) | 一种基于分水岭变换的静态手势识别方法 | |
CN104951742A (zh) | 敏感视频的检测方法和系统 | |
Shen et al. | Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement | |
CN111507334A (zh) | 一种基于关键点的实例分割方法 | |
CN105405138A (zh) | 基于显著性检测的水面目标跟踪方法 | |
CN109784216B (zh) | 基于概率图的车载热成像行人检测RoIs提取方法 | |
CN112288780B (zh) | 多特征动态加权的目标跟踪算法 | |
Ye et al. | Human detection based on motion object extraction and head–shoulder feature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 510106 Guangdong city of Guangzhou province Tianhe District Sports Road No. 118 room 8 601 self Applicant after: Guangzhou new rhythm smart Polytron Technologies Inc Address before: 510106 Guangdong city of Guangzhou province Tianhe District Sports Road No. 118 room 8 601 self Applicant before: Guangzhou Newtempo Technologies Co., Ltd. |
|
COR | Change of bibliographic data | ||
GR01 | Patent grant | ||
GR01 | Patent grant |