CN103093211A - 基于深度核信息图像特征的人体运动跟踪方法 - Google Patents

基于深度核信息图像特征的人体运动跟踪方法 Download PDF

Info

Publication number
CN103093211A
CN103093211A CN2013100306722A CN201310030672A CN103093211A CN 103093211 A CN103093211 A CN 103093211A CN 2013100306722 A CN2013100306722 A CN 2013100306722A CN 201310030672 A CN201310030672 A CN 201310030672A CN 103093211 A CN103093211 A CN 103093211A
Authority
CN
China
Prior art keywords
image
pixel
frame
video
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100306722A
Other languages
English (en)
Other versions
CN103093211B (zh
Inventor
韩红
谢福强
张红蕾
韩启强
李晓君
顾建银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huazhen Environmental Protection Technology Co ltd
Qingdao Huashi Intelligent Technology Co ltd
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201310030672.2A priority Critical patent/CN103093211B/zh
Publication of CN103093211A publication Critical patent/CN103093211A/zh
Application granted granted Critical
Publication of CN103093211B publication Critical patent/CN103093211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度核信息图像特征的人体运动跟踪方法,主要解决现有技术的人体运动跟踪中对视频图像特征表示不准确,导致跟踪结果不精确的问题。其实现过程为:从数据库中获得视频图像的关节点三维坐标矩阵Y;提取处理后视频图像的深度核信息图像特征X;以提取的深度核信息图像特征X为输入,以视频图像中人体的三维坐标矩阵Y为输出,使用高斯过程学习回归函数;使用高斯过程学习得到的回归函数,以新的视频图像的深度核信息特征X为输入,估计出运动人体的三维姿态数据。本发明具有比现有的人体跟踪方法训练过程快,对图像特征表示准确的优点,可用于运动捕获,人机交互,视频监控,人体目标识别和三维姿势恢复。

Description

基于深度核信息图像特征的人体运动跟踪方法
技术领域
本发明属于图像处理技术领域,更进一步涉及到计算机视觉领域中实现人体运动跟踪的一种方法,可用于体育训练和动画制作,视频监控领域。
技术背景
人体运动跟踪是近二十年来计算机视觉领域的重大热点之一,人体运动跟踪在运动捕获,人机交互,视频监控等多领域获得了初步的应用,并具重大的应用前景。从视频序列中准确恢复三维人体姿态,实现人体运动跟踪是计算机视觉领域长期存在的问题。实现人体运动跟踪主要包括两步:第一步是实现对视频图像特征的准确表示,第二步是学习从视频图像特征到人体姿态的回归函数。其中最重要的就是第一步:实现对视频图像特征的准确表示。
对于一帧视频图像,人体是视频图像中的核心内容,反映视频图像的核心语义特征。对于人类来说,观看一帧图像的同时几乎可以瞬间理解其中人物的姿态,然而对于计算机,却要克服重重困难:必需要有一种有效的图像特征,作为计算机识别的接口。这种图像特征必须有效表示图像中的人物运动状态以及图像纹理,轮廓等细节信息。现有图像特征表示方法大致可以分为基于全局特征点方法和基于局部字码表的特征表示方法,如梯度直方图特征、层级化特征、形状上下文和尺度不变性特征点的方法。目前已经有很多成熟的图像特征表示方法被运用到人体特征表示和运动跟踪中。但是大部分描述人体的图像特征表示是基于轮廓和边缘信息的,在理论上不严谨,很难准确的刻画图像内部信息。这些基于边缘的图像特征表示方法还面临一个主要问题:视频图像的快速变换常沿边缘曲线不连续性跳跃,一方面会导致封闭边界的灰度不连续性模糊,另一方面也会导致纹理变化不沿几何曲线聚集。最终结果是无法有效表示图像中的几何纹理走向,不能全面刻画人在其中的姿态和特征信息,导致后期的运动跟踪和姿态恢复产生了模糊性和歧义性。
发明内容
本发明针对上述已有技术的不足,提出了一种基于深度核信息图像特征的人体运动跟踪方法,以降低图像特征提取的复杂度,提高特征的表征能力,并在图像数据分布未知情况下,通过学习先验进行准确的姿态预测。
本发明技术方案通过如下步骤实现:
(1)从原始的视频图像中获得人体关节点的三维坐标矩阵Y;
(2)提取训练视频图像的核图像特征x(U):
2a)输入待处理训练视频图像集转换为连续单幅序列图,根据图像内容,判断需要识别的主要人体目标,提取像素大小为64*192的含有人体的矩形框体,作为之后处理的训练样本图像集U;
2b)对训练样本图像集U中的像素点分别求梯度,得到每一个像素点的方向
Figure BDA00002780659300021
和模值
Figure BDA00002780659300022
其中,z为图像块中的像素点,z∈U;
2c)使用方向高斯核函数ko(·)计算不同像素点之间的角度相似度:
k o ( θ → z , θ → s ) = exp ( - γ 0 | | θ → z - θ → s | | 2 ) ,
其中,γ0为方向高斯核参数,
Figure BDA00002780659300024
为图像块中像素点z的方向角,
Figure BDA00002780659300025
为图像块中像素点s的方向角,exp(·)表示求自然对数的指数函数,||·|2表示求二范数;
2d)对图像块中的方向核函数进行取样,得到一组方向偏置向量
Figure BDA00002780659300026
其中,pi为第i个方向偏置向量,do为方向偏置向量的总数,i∈[1,do],则得到方向偏置基向量的高斯核函数:
k o ( θ → z , p i ) = exp ( - γ 0 | | θ → z - p i | | 2 ) ,
其中,γ0为方向高斯核参数,
Figure BDA00002780659300028
为图像块中像素点z的方向角,pi为第i个方向偏置基向量;
2e)使用位置高斯核函数kl(·)计算不同像素点之间的相似度:
kl(Lz,Ls)=exp(-γl||Lz-Ls||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置、Ls为图像块中像素s的位置;
2f)对图像块中的位置核函数进行取样,得到一组位置偏置基向量其中,qj为第j个位置偏置向量,dl为位置偏置基向量的总数,j∈[1,dl];
2g)根据偏置基向量
Figure BDA00002780659300031
和位置高斯核函数kl(Lz,Ls),得到位置偏置基向量的高斯核函数:
kl(Lz,qj)=exp(-γl||Lz-qj||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置,qj为第j个位置偏置基向量;
2h)根据像素点z的模值
Figure BDA00002780659300032
方向偏置基向量的高斯核函数以及位置偏置基向量的高斯核函数kl(Lz,qj),得到整个图像集U的核图像特征x(U):
x ( U ) = Σ i = 1 d o Σ j = 1 d l α ij { Σ z ∈ U m → z k o ( θ → z , p i ) k l ( L z , q j ) } ,
其中,∑·表示求和,αij为核投影系数,dl为位置偏置向量的总数,do为方向偏置向量的总数,z为图像中的像素点,
Figure BDA00002780659300035
为像素点z的方向,
Figure BDA00002780659300036
为像素点z的模值,pi为第i个方向偏置向量,qj为第j个位置偏置向量,Lz为图像块中像素点z的位置;
(3)使用块匹配方法提取训练视频图像的深度信息D;
(4)将深度信息D与核图像特征x(U)相加,得到深度核信息图像特征X;
X=D+x(U);
(5)使用深度核信息图像特征X进行人体运动姿势的跟踪,对输入视频图像进行三维运动姿势估计,并将估计到的三维运动姿势数据恢复成关节点骨架作为最终的跟踪结果。
本发明与现有的技术相比具有以下优点:
1、本发明由于使用了深度核信息图像特征表示方法,能够通过深度信息与核特征的结合,准确表示图像的人体结构信息,避免了传统基于边缘的,或基于轮廓的图像表示方法产生的表述模糊性,能得到更好的三维运动跟踪结果。
2、本发明由于使用高斯学习回归函数,能实现对不同复杂度的数据库的学习,较现有方法有效的减少了学习的时间,降低了学习过程中的计算复杂度,提高了学习结果准确性。
附图说明
图1是本发明的实现流程图;
图2是本发明提取视频图核图像特征的子流程图;
图3是未经处理的人体招手运动序列视频截图;
图4是用本发明对图3的姿态恢复结果图。
具体实施方式
参照图1,本发明的具体实施步骤如下:
步骤一,获得待处理训练视频图像和待处理训练视频图像中人体关节点的三维坐标矩阵Y。
待处理训练视频图像是从美国布朗大学的HumanEva数据库中获得,从HumanEva数据库中得到视频中人体中关节点的三维坐标矩阵Y。
步骤二,提取待处理训练视频图像的核图像特征X。
参照图2,本步骤的具体实现如下:
2a)输入待处理训练视频图像,使用Matlab软件将输入的待处理训练视频图像转换为连续单幅序列图,根据图像内容,判断需要识别的主要人体目标,提取像素大小为64*192的含有人体的矩形框体,作为之后处理的训练样本图像集U;
2b)对训练样本图像集U中的像素点分别求梯度,得到每一个像素点的方向
Figure BDA00002780659300041
和模值
Figure BDA00002780659300042
其中,z为图像块中的像素点,z∈U;
2c)使用方向高斯核函数ko(·)计算不同像素点之间的角度相似度:
k o ( θ → z , θ → s ) = exp ( - γ 0 | | θ → z - θ → s | | 2 ) ,
其中,γ0为方向高斯核参数,
Figure BDA00002780659300044
为图像块中像素点z的方向角,
Figure BDA00002780659300045
为图像块中像素点s的方向角,exp(·)表示求自然对数的指数函数,||·||2表示求二范数;
2d)对图像块中的方向核函数进行取样,得到一组方向偏置向量
Figure BDA00002780659300046
其中,pi为第i个方向偏置向量,do为方向偏置向量的总数,i∈[1,do];
2e)根据方向偏置基向量
Figure BDA00002780659300047
和方向高斯核函数
Figure BDA00002780659300048
得到方向偏置基向量的高斯核函数:
k o ( θ → z , p i ) = exp ( - γ 0 | | θ → z - p i | | 2 ) ,
其中,γ0为方向高斯核参数,
Figure BDA00002780659300052
为图像块中像素点z的方向角,pi为第i个方向偏置基向量;
2f)使用位置高斯核函数kl(·)计算不同像素点之间的相似度:
kl(Lz,Ls)=exp(-γl||Lz-Ls||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置、Ls为图像块中像素s的位置;
2g)对图像块中的位置核函数进行取样,得到一组位置偏置基向量
Figure BDA00002780659300053
其中,qj为第j个位置偏置向量,dl为位置偏置基向量的总数,j∈[1,dl];
2h)根据偏置基向量
Figure BDA00002780659300054
和位置高斯核函数kl(Lz,Ls),得到位置偏置基向量的高斯核函数:
kl(Lz,qj)=exp(-γl||Lz-qj||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置,qj为第j个位置偏置基向量;
2i)根据像素点z的模值
Figure BDA00002780659300055
方向偏置基向量的高斯核函数
Figure BDA00002780659300056
以及位置偏置基向量的高斯核函数kl(Lz,qj),得到整个图像集U的核图像特征x(U):
x ( U ) = Σ i = 1 d o Σ j = 1 d l α ij { Σ z ∈ U θ → z k o ( θ → z , p i ) k l ( L z , q j ) } ,
其中,∑·表示求和,αij为核投影系数,dl为位置偏置向量的总数,do为方向偏置向量的总数,z为图像中的像素点,
Figure BDA00002780659300058
为像素点z的方向,
Figure BDA00002780659300059
为像素点z的模值,pi为第i个方向偏置向量,qj为第j个位置偏置向量,Lz为图像块中像素点z的位置。
步骤三,使用块匹配方法提取训练视频图像的深度信息D。
3a)在训练样本图像集U中,在每一帧训练图像上都选取一个像素大小为4×4的图像块S,作为匹配图像块,其中,第r帧的匹配图像块为Sr,第r+1帧的匹配图像块为Sr+1,r∈[1,R],R为训练视频图像帧数;
3b)将第r帧匹配图像块Sr作为第r+1帧匹配图像块Sr+1的参考图像,计算第r帧的匹配图像块Sr与第r+1帧的匹配图像块Sr+1的像素位移,作为第r+1帧的深度信息Dr+1;
3c)重复步骤3b),获得全部训练样本图像集U的深度信息D,D={D1,....,Dr+1,...,DR},其中,r∈[1,R],R为训练视频图像帧数。
步骤四,将深度信息D与核图像特征x(U)相加,得到深度核信息图像特征X:
X=D+x(U)。
步骤五使用深度核信息图像特征X进行人体运动姿势的跟踪。
5a)使用高斯过程学习一个从深度核信息图像特征X到训练图像人体关节点三维坐标矩阵Y的映射关系g(·),使用g(·)将第t帧的三维姿势yt用第t帧的深度核信息图像特征xt表示,即:
yt=g(xt),
其中,t∈[1,n],n为训练图像帧数;
5b)对于新的人体运动视频图像序列,提取该视频图像序列的深度核信息图像特征X',使用步骤5a)中学习到的映射关系g(·),以第t帧的深度核信息图像特征xt′为输入,得到该视频序列的第t帧的三维姿势数据yt′:
y′t=g(xt);
5c)重复步骤5b),获得全部视频图像三维姿态数据Y′,Y′={y′1,...y′t,...y′n},其中,t∈[1,n],n为训练图像帧数;
5d)将三维人体运动姿势数据Y′={y′1,...y′t,...y′n},转换为人体骨架关节点,恢复出输入视频的三维运动姿势。
本发明的效果可以通过以下仿真实验得到验证:
1)仿真实验条件设置:本发明的仿真实验在Matlab2010a上编译完成,执行环境为Windows框架下的HP工作站。本发明仿真实验所用的视频图像来自美国布朗大学的HumanEva数据库,原始图像大小为640×480,预处理后,提取原始图像中含有人体的大小为64×192部分。本实验采用的原始视频人体运动姿态如图3所示,其中图3(a)是招手视频序列第1帧的截图,图3(b)是招手视频序列第1帧的截图,图3(c)是招手视频序列第3帧的截图,图3(d)是招手视频序列第4帧的截图。
2)仿真内容及结果
使用本发明对图3中“招手”的人体运动视频图像进行姿态恢复,恢复结果如图4。其中图4(a)是使用本方法对招手视频序列第1帧的恢复结果图,图4(b)是对招手序列第2帧的恢复结果图,图4(c)是对招手序列第3帧的恢复结果图,图4(d)是对招手序列第4帧的恢复结果图。
从图4中可以看出,恢复结果准确,没有歧义姿态出现,说明使用本方法可以实现对运动人体的准确跟踪。
综上,本发明在降低图像特征提取的复杂度的同时,提高了特征的表达能力,并在图像数据分布未知情况下,通过学习先验进行准确的三维姿态预测,减小了图像表示的模糊现象。本发明具有人体运动跟踪快速,结果精确,节省特征提取时间的优点,该技术可以进一步用于人体目标识别。

Claims (3)

1.一种基于深度核信息图像特征的人体运动跟踪方法包括如下步骤:
(1)从原始的视频图像中获得人体关节点的三维坐标矩阵Y;
(2)提取训练视频图像的核图像特征x(U):
2a)输入待处理训练视频图像集转换为连续单幅序列图,根据图像内容,判断需要识别的主要人体目标,提取像素大小为64*192的含有人体的矩形框体,作为之后处理的训练样本图像集U;
2b)对训练样本图像集U中的像素点分别求梯度,得到每一个像素点的方向和模值
Figure FDA00002780659200012
其中,z为图像块中的像素点,z∈U;
2c)使用方向高斯核函数ko(·)计算不同像素点之间的角度相似度:
k o ( θ → z , θ → s ) = exp ( - γ 0 | | θ → z - θ → s | | 2 ) ,
其中,γ0为方向高斯核参数,为图像块中像素点z的方向角,为图像块中像素点s的方向角,exp(·)表示求自然对数的指数函数,||·||2表示求二范数;
2d)对图像块中的方向核函数进行取样,得到一组方向偏置向量
Figure FDA00002780659200016
其中,pi为第i个方向偏置向量,do为方向偏置向量的总数,i∈[1,do],则得到方向偏置基向量的高斯核函数:
k o ( θ → z , p i ) = exp ( - γ 0 | | θ → z - p i | | 2 ) ,
其中,γ0为方向高斯核参数,
Figure FDA00002780659200018
为图像块中像素点z的方向角,pi为第i个方向偏置基向量;
2e)使用位置高斯核函数kl(·)计算不同像素点之间的相似度:
kl(Lz,Ls)=exp(-γl||Lz-Ls||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置、Ls为图像块中像素s的位置;
2f)对图像块中的位置核函数进行取样,得到一组位置偏置基向量
Figure FDA00002780659200021
其中,qj为第j个位置偏置向量,dl为位置偏置基向量的总数,j∈[1,dl];
2g)根据偏置基向量
Figure FDA00002780659200022
和位置高斯核函数kl(Lz,Ls),得到位置偏置基向量的高斯核函数:
kl(Lz,qj)=exp(-γl||Lz-qj||2),
其中,γl为位置高斯核参数,Lz为图像块中像素点z的位置,qj为第j个位置偏置基向量;
2h)根据像素点z的模值
Figure FDA00002780659200023
方向偏置基向量的高斯核函数以及位置偏置基向量的高斯核函数kl(Lz,qj),得到整个图像集U的核图像特征x(U):
x ( U ) = Σ i = 1 d o Σ j = 1 d l α ij { Σ z ∈ U m → z k o ( θ → z , p i ) k l ( L z , q j ) } ,
其中,∑·表示求和,αij为核投影系数,dl为位置偏置向量的总数,do为方向偏置向量的总数,z为图像中的像素点,
Figure FDA00002780659200026
为像素点z的方向,
Figure FDA00002780659200027
为像素点z的模值,pi为第i个方向偏置向量,qj为第j个位置偏置向量,Lz为图像块中像素点z的位置;
(3)使用块匹配方法提取训练视频图像的深度信息D;
(4)将深度信息D与核图像特征x(U)相加,得到深度核信息图像特征X;
X=D+x(U);
(5)使用深度核信息图像特征X进行人体运动姿势的跟踪,对输入视频图像进行三维运动姿势估计,并将估计到的三维运动姿势数据恢复成关节点骨架作为最终的跟踪结果。
2.根据权利要求1所述方法,其中步骤(3)所述的使用块匹配方法提取训练视频图像的深度信息D,包括如下步骤:
3a)在训练样本图像集U中,将每一帧训练图像上都选取一个像素大小为4×4的图像块S,作为匹配图像块,第r帧的匹配图像块为Sr,第r+1帧的匹配图像块为Sr+1,r∈[1,R],R为训练视频图像帧数;
3b)将第r帧匹配图像块Sr作为第r+1帧匹配图像块Sr+1的参考图像,计算第r帧的匹配图像块Sr与第r+1帧的匹配图像块Sr+1的像素位移,作为第r+1帧的深度信息Dr+1
3c)重复步骤3b),获得全部训练样本图像集U的深度信息D,D={D1,....,Dr+1,...,DR},其中,r∈[1,R],R为训练视频图像帧数。
3.根据权利要求1所述方法,其中步骤(5)所述的使用深度核信息图像特征X进行人体运动姿势的跟踪,包括如下步骤:
5a)使用高斯过程学习一个从深度核信息图像特征X到训练图像的三维姿势数据Y的映射关系g(·),使用g(·)将第t帧的三维姿势yt用第t帧的深度核信息图像特征xt表示,即:
yt=g(xt),
其中,t∈[1,n],n为训练图像帧数;
5b)对于新的人体运动视频图像序列,提取该视频图像序列的深度核信息图像特征X',使用步骤5a)中学习到的映射关系g(·),以第t帧的深度核信息图像特征xt′为输入,得到该视频序列的第t帧的三维姿势数据yt′
y′t=g(x′t);
5c)重复步骤5b),获得全部视频图像三维姿态数据Y′,Y′={y′1,...y′t,...y′n},其中,t∈[1,n],n为训练图像帧数;
5d)将三维人体运动姿势数据Y'={y′1,...y′t,...y′n},转换为人体骨架关节点,恢复出输入视频的三维运动姿势。
CN201310030672.2A 2013-01-27 2013-01-27 基于深度核信息图像特征的人体运动跟踪方法 Active CN103093211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310030672.2A CN103093211B (zh) 2013-01-27 2013-01-27 基于深度核信息图像特征的人体运动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310030672.2A CN103093211B (zh) 2013-01-27 2013-01-27 基于深度核信息图像特征的人体运动跟踪方法

Publications (2)

Publication Number Publication Date
CN103093211A true CN103093211A (zh) 2013-05-08
CN103093211B CN103093211B (zh) 2015-09-30

Family

ID=48205759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310030672.2A Active CN103093211B (zh) 2013-01-27 2013-01-27 基于深度核信息图像特征的人体运动跟踪方法

Country Status (1)

Country Link
CN (1) CN103093211B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951081A (zh) * 2015-07-09 2015-09-30 李乔亮 自动识别读写姿势的方法及其智能预警装置
CN105930793A (zh) * 2016-04-19 2016-09-07 中山大学 一种基于sae特征可视化学习的人体检测方法
CN106815563A (zh) * 2016-12-27 2017-06-09 浙江大学 一种基于人体表观结构的人群数量预测方法
CN106895818A (zh) * 2015-12-21 2017-06-27 中国电信股份有限公司 基于传感器识别高度变化的方法、装置和移动终端
CN106951831A (zh) * 2017-02-28 2017-07-14 中科唯实科技(北京)有限公司 一种基于深度摄像机的行人检测跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
CN101257895A (zh) * 2005-08-05 2008-09-03 拜耳先灵医药股份有限公司 用于具有高pH依赖性溶解度的活性成分的活性成分非pH依赖性缓释的药物剂型
CN102663779A (zh) * 2012-05-03 2012-09-12 西安电子科技大学 基于随机高斯隐变量的人体运动跟踪方法
CN102663369A (zh) * 2012-04-20 2012-09-12 西安电子科技大学 基于surf高效匹配核的人体运动跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
CN101257895A (zh) * 2005-08-05 2008-09-03 拜耳先灵医药股份有限公司 用于具有高pH依赖性溶解度的活性成分的活性成分非pH依赖性缓释的药物剂型
CN102663369A (zh) * 2012-04-20 2012-09-12 西安电子科技大学 基于surf高效匹配核的人体运动跟踪方法
CN102663779A (zh) * 2012-05-03 2012-09-12 西安电子科技大学 基于随机高斯隐变量的人体运动跟踪方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951081A (zh) * 2015-07-09 2015-09-30 李乔亮 自动识别读写姿势的方法及其智能预警装置
CN104951081B (zh) * 2015-07-09 2016-04-13 李乔亮 自动识别读写姿势的方法及其智能预警装置
CN106895818A (zh) * 2015-12-21 2017-06-27 中国电信股份有限公司 基于传感器识别高度变化的方法、装置和移动终端
CN105930793A (zh) * 2016-04-19 2016-09-07 中山大学 一种基于sae特征可视化学习的人体检测方法
CN105930793B (zh) * 2016-04-19 2019-04-16 中山大学 一种基于sae特征可视化学习的人体检测方法
CN106815563A (zh) * 2016-12-27 2017-06-09 浙江大学 一种基于人体表观结构的人群数量预测方法
CN106815563B (zh) * 2016-12-27 2020-06-02 浙江大学 一种基于人体表观结构的人群数量预测方法
CN106951831A (zh) * 2017-02-28 2017-07-14 中科唯实科技(北京)有限公司 一种基于深度摄像机的行人检测跟踪方法
CN106951831B (zh) * 2017-02-28 2020-07-31 中科唯实科技(北京)有限公司 一种基于深度摄像机的行人检测跟踪方法

Also Published As

Publication number Publication date
CN103093211B (zh) 2015-09-30

Similar Documents

Publication Publication Date Title
Rao et al. Selfie video based continuous Indian sign language recognition system
Tuan Tran et al. Regressing robust and discriminative 3D morphable models with a very deep neural network
Rozantsev et al. On rendering synthetic images for training an object detector
Kumar et al. Three-dimensional sign language recognition with angular velocity maps and connived feature resnet
Zhu et al. Vision based hand gesture recognition using 3D shape context
CN108182397B (zh) 一种多姿态多尺度的人脸验证方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN103093211B (zh) 基于深度核信息图像特征的人体运动跟踪方法
CN106599810B (zh) 一种基于栈式自编码的头部姿态估计方法
Vieriu et al. On HMM static hand gesture recognition
Sethi et al. Signpro-An application suite for deaf and dumb
Wu et al. Depth-based hand gesture recognition
CN102663453B (zh) 基于第二代条带波变换和极速学习机的人体运动跟踪方法
Yang et al. Ai-generated images as data source: The dawn of synthetic era
CN102663369B (zh) 基于surf高效匹配核的人体运动跟踪方法
CN105069767A (zh) 基于表征学习与邻域约束嵌入的图像超分辨重构方法
Rokade-Shinde et al. Dynamic hand gesture recognition
Bajpai et al. An experimental comparison of face detection algorithms
Leow et al. 3-D–2-D spatiotemporal registration for sports motion analysis
Rao et al. Gesture based robot control
Agianpuye et al. Synthesizing neutral facial expression on 3D faces using Active Shape Models
CN106651892B (zh) 一种边缘检测方法
Wang et al. Personalized Hand Modeling from Multiple Postures with Multi‐View Color Images
Kao et al. Human upper-body motion capturing using kinect

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200724

Address after: Room 309-1, 3 / F, building 1, Business Incubation Park, Zhejiang a & F University, No. 352, Nonglin Road, Jincheng Street, Lin'an District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou Huazhen Environmental Protection Technology Co.,Ltd.

Address before: Xi'an City, Shaanxi province Taibai Road 710071 No. 2

Patentee before: XIDIAN University

Effective date of registration: 20200724

Address after: 266101 area a, software park, 169 Songling Road, Laoshan District, Qingdao City, Shandong Province

Patentee after: Qingdao Huashi Intelligent Technology Co.,Ltd.

Address before: Room 309-1, 3 / F, building 1, Business Incubation Park, Zhejiang a & F University, No. 352, Nonglin Road, Jincheng Street, Lin'an District, Hangzhou City, Zhejiang Province

Patentee before: Hangzhou Huazhen Environmental Protection Technology Co.,Ltd.

TR01 Transfer of patent right