CN109101872B - 一种3d手势鼠标的生成方法 - Google Patents
一种3d手势鼠标的生成方法 Download PDFInfo
- Publication number
- CN109101872B CN109101872B CN201810633829.3A CN201810633829A CN109101872B CN 109101872 B CN109101872 B CN 109101872B CN 201810633829 A CN201810633829 A CN 201810633829A CN 109101872 B CN109101872 B CN 109101872B
- Authority
- CN
- China
- Prior art keywords
- particle
- fingertip
- image
- edge
- mouse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 239000002245 particle Substances 0.000 claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 230000008859 change Effects 0.000 claims abstract description 3
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000013139 quantization Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 7
- 238000012952 Resampling Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 235000014643 Orbignya martiana Nutrition 0.000 claims 1
- 244000021150 Orbignya martiana Species 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000007795 chemical reaction product Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种3D手势鼠标的生成方法,包括以下步骤,a.视频输入,采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;b.特征提取,对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪;c.特征融合以获得观测模型;d.粒子滤波跟踪,采用的粒子滤波方法过程明细如下:粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a},在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Ast+wt‑1实现;在本发明中并给出了粒子滤波算法步骤;e.鼠标位置转换。本发明提出了更加有效的特征,并且进行特征融合,再结合角点检测来达到实时精确的跟踪目的的有益效果。
Description
技术领域
本发明涉及计算机技术领域,具体是指一种3D手势鼠标的生成方法。
背景技术
鼠标是计算机的一种输入设备,也是计算机显示系统纵横坐标定位的指示器,因形似老鼠而得名。鼠标的使用是为了使计算机的操作更加简便快捷,来代替键盘那繁琐的指令。
鼠标的发展历程从原始鼠标、机械鼠标、光电鼠标(光学鼠标,激光鼠标)再到如今的触控鼠标,鼠标技术经历了漫漫征途终于修成正果。
在早些年,大多数用户都只愿意在鼠标身上花费不超过20元投资,当然此种情况今天已难得一见,应用的进步让人们对鼠标开始提出更多的要求,包括舒适的操作手感、灵活的移动和准确定位、可靠性高、不需经常清洁,鼠标的美学设计和制作工艺也逐渐为人所重视。在电脑中,鼠标的操纵性往往起到关键性的作用,而鼠标制造商迎合这股风潮开始大刀阔斧的技术改良,从机械到光学、从有线到无线,造型新颖、工艺细腻的高端产品不断涌现。
而现在本发明提出了一种基于指尖识别跟踪的3D鼠标方法,通过该方法可以跟踪获得手指指尖的3维信息,从而建立一个3维的鼠标。
发明内容
本发明针对上述背景技术,提出了一种基于指尖识别跟踪的3D鼠标方法,通过该方法可以跟踪获得手指指尖的3维信息,从而建立一个3维的鼠标。
本发明是通过以下方法实现的,一种3D手势鼠标的生成方法,其特征在于,包括以下步骤,
a.视频输入
采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;
b.特征提取
对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪,
b-1.模板提取,对于步骤a中的深度图像和RGB图像,从中选取不同大小的图像区域作为特征提取模板,分别用Mdepih,Mrgb表示,模板值分别为设定为Mdepih=40X40,Mrgb=80X90;
对于获取的深度图像提取手部的指尖部分,即感兴趣区域Mdepih,大小为40X40,对该图像进行二值化处理,从而得到指尖的一副大小为40X40的二值图像,其中白色(像素值255)表示指尖,黑色(像素值0)表示非指尖部分,将整个二值图像作出如下划分,整个图像的像素点数记为Ci,人体手指部分像素个数记为Ti,其中i为感兴趣区域的编号,则每个区域的指尖像素比如下:
对于彩色(RGB)图像,提取手部区域Mrgb=80X90(区域包含整个手掌),从该模板中提取边缘梯度信息作为另一个特征,提取边缘梯度信息的方法步骤和参数如下:
将彩色图像转换成灰度图像,利用canny算子进行边缘检测,得到该模板中明显的边缘点,然后用sobel算子与图像进行卷积操作,得到水平和垂直方向上的差分图像,分别标记为分别标记为Gx(xi)和Gy(xi),那么边缘点的梯度幅值和方向分别为
其中θ∈{0,360°}xi为像素点的坐标向量;
接着,对边缘点的方向指进行量化,一般量化级越高,匹配时越精确,由于是对指尖的小区域求边缘方向,边缘点数量不大,选取量化间隔为45°,量化级为8,为了提高边缘信息的可靠性,利用梯度幅值加权比重计算边缘直方图,以θ(xi)作为直方图的横坐标,则直方图的纵坐标取值如下式
b-2.特征提取,对从深度图中获取到的二值像素比信息,设定新的相似度衡量方式,将不同的感兴趣区域中的像素占比度进行比较,得到他们的相对差值,作为新的相似度衡量方式,表达式如下:
当ρ(y)越大时,表示与我们需要追踪的目标越相似,特征匹配度越高;
对于从RGB图像获得边缘特征,采用巴氏距离衡量候选模型与目标模型之间的相似度,其公式如下:
c.特征融合以获得观测模型
在变化的场景中,两种特征的表现性能不同,为了综合两者的优点,采用线性加权的方法联合两种特征的权重,对于式(5)和式(6),令
如果某个特征的表现性越好,则与目标模型越相似,权重就越大,则联合特征密度可表示为
ρsum(y)=α1(1-ρ1)+α2ρ2 (9)
d.粒子滤波跟踪
采用的粒子滤波方法过程明细如下:
粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a}其中x、y是粒子的中心位置,vx,vy是粒子在x,y方向上的移动速度,wx,wy,表示粒子所在区域的宽和高,在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程si=Asi+wi-1实现,其中A为状态转移矩阵,wi-1为高斯噪声;
粒子滤波算法包括以下步骤:
d-1.给定t-1时刻粒子样本集合,定义估计状态量,根据观测状态,权重和粒子数选择样本并进行重采样,本方法中粒子数设定为N=50,初始化每个粒子的权重为1/N..现在给定t-1时刻粒子样本集合si-1,重采样时,首先对权重数组求归一化累计概率数组
随后根据高斯正太分布随机生成N个[0,1]间的满足均匀分布的随机变量,构成数组r,对数组的中每个元素,采用轮盘赌算法搜索累积概率数组,得到更新后的样本集合;
d-2.根据新的样本粒子集合,由系统转换方程si=Asi+wt-1,计算新的粒子位置;
d-3.对每一个状态预测量(即每一个样本粒子),由公式(5)和(6)计算其所在候选区域的EOH(即边缘方向直方图)和像素占比度特征;
d-4.更新权重,由式(7)、(8)计算得到每一个粒子区域对应的EOH(边缘方向直方图)和像素比的特征概率密度ρ1,ρ2和权重比α1和α2,由式(9)计算候选目标与目标模型的相似度,根据观测得到的特征相似度,对该粒子的权重进行更新,权重的更新采用核函数:
d-5.对状态量进行估计,得到预测状态信息,根据更新后的权重,估计一个状态量作为跟踪输出,根据权重计算集合st的平均值,提取目标位置,作为跟踪输出结果,估计量满足关系式:
d-6.对预测的跟踪输出状态量,计算其与目标模型的相似度,当满足相似度阈值后,计算其所在区域的角点位置,重新更新角点位置为预测位置,再次计算更新后的状态量的边缘方向特征和像素占比度,计算该预测状态与观测状态目标模型的相似度,当联合特征相似度大于阈值(初始设定为0.86)的时候,利用遗忘因子更新目标模型的边缘直方图,并重新计算像素比,更新模型,遗忘因子取值范围为0.1~0.3,角点计算时,设定指尖边缘点的集合为F=(xp,yp),首先计算轮廓点集合的中心点
求出其中距离中心最远的一个点为指尖点,
其中p表示第p个轮廓点;
d-7.计算最大权重值,并结合预测位置信息高斯判断跟踪是否正常,若是,则输出目标位置,并回到(1);否则,跟踪丢失,回到程序开始,等待新目标;
e.鼠标位置转换
粒子滤波跟踪输出的位置仅仅是指尖在图像中的二维坐标,根据Kinect的深度图像和彩色图像的关系,由转换函数(kinect函数调用)得到其3维坐标;由于kinect转换得到的3维坐标与获取的深度图像有关,而其深度图像的波动会对得到的数据有明显的影响,提取粒子滤波输出点的周围相邻的8个位置的三维信息求平均来表示最终输出点的3维位置,
其中pf(x,y,z)为最终输出的指尖位置的3维坐标,n=8为相邻一圈的8个像素,但在实际的3维场景运用中,并不直接采用获取的深度坐标作为鼠标的显示位置,需要经过转换之后得到比较好的鼠标显示效果,转换方程为:
pmouse(x,y,z)=MC*pf(x,y,z) (17)
其中pmouse(x,y,z)为鼠标在3维场景中的位置,转换矩阵MC的构成如下
作为优选,步骤d中所述的固定值d1为40。
综上所述,本发明提出的一种3D手势鼠标的生成方法,主要采用粒子滤波作为跟踪方法,但是提出了更加有效的特征,并且进行特征融合,再结合角点检测来达到实时精确的跟踪目的。
附图说明
图1为本发明一种3D手势鼠标的生成方法的流程示意图;
图2为本发明中手指部分深度图;
图3为本发明中手指部分灰度图;
图4为本发明中指尖部分轮廓图。
具体实施方式
为能清楚说明本发明方案的技术特点,下面通过具体实施方式,对本方案进一步阐述。
在本实施例中,将固定每个粒子的半窗高和半窗宽,计算每一个粒子区域的边缘方向直方图和人体像素占比,采用巴式距离衡量边缘特征相似度,定义新的相似度衡量方式衡量像素占比度相似度,线性组合两种特征对目标模型进行跟踪,通过得到的预测模型,我们计算出其中离轮廓中心最远的一点,再次更新目标模型。
如图1中所示,一种3D手势鼠标的生成方法,包括以下步骤,
a.视频输入
采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;
b.特征提取
对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪,
b-1.模板提取,对于步骤a中的深度图像和RGB图像,从中选取不同大小的图像区域作为特征提取模板,分别用Mdepih,Mrgb表示,模板值分别为设定为Mdepih=40X40,Mrgb=80X90;
对于获取的深度图像提取手部的指尖部分,即感兴趣区域Mdepth,大小为40X40,对该图像进行二值化处理,从而得到指尖的一副大小为40X40的二值图像。其中白色(像素值255)表示指尖,黑色(像素值0)表示非指尖部分,将整个二值图像作出如下划分,整个图像的像素点数记为Ci,人体手指部分像素个数记为Ti,其中i为感兴趣区域的编号,则每个区域的指尖像素比如下:
对于彩色(RGB)图像,提取手部区域Mrgb=80X90(区域包含整个手掌),从该模板中提取边缘梯度信息作为另一个特征,提取边缘梯度信息的方法步骤和参数如下:
将彩色图像转换成灰度图像,利用canny算子进行边缘检测,得到该模板中明显的边缘点,然后用sobel算子与图像进行卷积操作,得到水平和垂直方向上的差分图像,分别标记为分别标记为Gx(xi)和Gy(xi),那么边缘点的梯度幅值和方向分别为
其中θ∈{0,360°}xi为像素点的坐标向量;
接着,对边缘点的方向指进行量化,一般量化级越高,匹配时越精确,由于是对指尖的小区域求边缘方向,边缘点数量不大,选取量化间隔为45°,量化级为8,为了提高边缘信息的可靠性,利用梯度幅值加权比重计算边缘直方图,以θ(xi)作为直方图的横坐标,则直方图的纵坐标取值如下式
b-2.特征提取,对从深度图中获取到的二值像素比信息,设定新的相似度衡量方式,将不同的感兴趣区域中的像素占比度进行比较,得到他们的相对差值,作为新的相似度衡量方式,表达式如下:
当ρ(y)越大时,表示与我们需要追踪的目标越相似,特征匹配度越高;
对于从RGB图像获得边缘特征,采用巴氏距离衡量候选模型与目标模型之间的相似度,其公式如下:
c.特征融合以获得观测模型
在变化的场景中,两种特征的表现性能不同,为了综合两者的优点,采用线性加权的方法联合两种特征的权重,对于式(5)和式(6),令
如果某个特征的表现性越好,则与目标模型越相似,权重就越大,则联合特征密度可表示为
ρsum(y)=α1(1-ρ1)+α2ρ2 (9)
d.粒子滤波跟踪
采用的粒子滤波方法过程明细如下:
粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a}其中x、y是粒子的中心位置,vx,vy是粒子在x,y方向上的移动速度,wx,wy,表示粒子所在区域的宽和高,在本实施例中,wx,wy,均设为固定值40,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Asi+wi-1实现,其中A为状态转移矩阵,wi-1为高斯噪声;
粒子滤波算法包括以下步骤:
d-1.给定t-1时刻粒子样本集合,定义估计状态量,根据观测状态,权重和粒子数选择样本并进行重采样,本方法中粒子数设定为N=50,初始化每个粒子的权重为1/N..现在给定t-1时刻粒子样本集合st-1,重采样时,首先对权重数组求归一化累计概率数组
随后根据高斯正太分布随机生成N个[0,1]间的满足均匀分布的随机变量,构成数组r,对数组的中每个元素,采用轮盘赌算法搜索累积概率数组,得到更新后的样本集合;
d-2.根据新的样本粒子集合,由系统转换方程st=Asi+wi-1,计算新的粒子位置;
d-3.对每一个状态预测量(即每一个样本粒子),由公式(5)和(6)计算其所在候选区域的EOH(即边缘方向直方图)和像素占比度特征;
d-4.更新权重,由式(7)、(8)计算得到每一个粒子区域对应的EOH(边缘方向直方图)和像素比的特征概率密度ρ1,ρ2和权重比α1和α2,由式(9)计算候选目标与目标模型的相似度,根据观测得到的特征相似度,对该粒子的权重进行更新,权重的更新采用核函数:
d-5.对状态量进行估计,得到预测状态信息,根据更新后的权重,估计一个状态量作为跟踪输出,根据权重计算集合si的平均值,提取目标位置,作为跟踪输出结果,估计量满足关系式:
d-6.对预测的跟踪输出状态量,计算其与目标模型的相似度,当满足相似度阈值后,计算其所在区域的角点位置,重新更新角点位置为预测位置,再次计算更新后的状态量的边缘方向特征和像素占比度,计算该预测状态与观测状态目标模型的相似度,当联合特征相似度大于阈值(初始设定为0.86)的时候,利用遗忘因子更新目标模型的边缘直方图,并重新计算像素比,更新模型,遗忘因子取值范围为0.1~0.3,角点计算时,设定指尖边缘点的集合为F=(xp,yp),首先计算轮廓点集合的中心点
求出其中距离中心最远的一个点为指尖点,
其中p表示第p个轮廓点;
d-7.计算最大权重值,并结合预测位置信息高斯判断跟踪是否正常,若是,则输出目标位置,并回到(1);否则,跟踪丢失,回到程序开始,等待新目标;
e.鼠标位置转换
粒子滤波跟踪输出的位置仅仅是指尖在图像中的二维坐标,根据Kinect的深度图像和彩色图像的关系,由转换函数(kinect函数调用)得到其3维坐标;由于kinect转换得到的3维坐标与获取的深度图像有关,而其深度图像的波动会对得到的数据有明显的影响,提取粒子滤波输出点的周围相邻的8个位置的三维信息求平均来表示最终输出点的3维位置,
其中pf(x,y,z)为最终输出的指尖位置的3维坐标,n=8为相邻一圈的8个像素,但在实际的3维场景运用中,并不直接采用获取的深度坐标作为鼠标的显示位置,需要经过转换之后得到比较好的鼠标显示效果,转换方程为:
pmouse(x,y,z)=MC*pf(x,y,z) (17)
其中pmouse(x,y,z)为鼠标在3维场景中的位置,转换矩阵MC的构成如下
最后,还应说明,上述举例和说明也并不仅限于上述实施例,本发明未经描述的技术特征可以通过或采用现有技术实现,在此不再赘述;以上实施例及附图仅用于说明本发明的技术方案并非是对本发明的限制,参照优选的实施方式对本发明进行了详细说明,本领域的普通技术人员应当理解,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改型、添加或替换都不脱离本发明的宗旨,也应属于本发明的权利要求保护范围,例如步骤b-1中,图像区域的大小尺寸也可以选择其他的大小尺寸,再次说明,上述实施例只是给出了随意举了一个目前常用的实施方式。
Claims (2)
1.一种3D手势鼠标的生成方法,其特征在于,包括以下步骤,
a.视频输入
采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;
b.特征提取
对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪,
b-1.模板提取,对于步骤a中的深度图像和RGB图像,从中选取不同大小的图像区域作为特征提取模板,分别用Mdepth,Mrgb表示,模板值分别为设定为Mdepth=40X40,Mrgb=80X90;
对于获取的深度图像提取手部的指尖部分,即感兴趣区域Mdepth,大小为40X40,对该图像进行二值化处理,从而得到指尖的一副大小为40X40的二值图像,其中白色(像素值255)表示指尖,黑色(像素值0)表示非指尖部分,将整个二值图像作出如下划分,整个图像的像素点数记为Ci,人体手指部分像素个数记为Ti,其中i为感兴趣区域的编号,则每个区域的指尖像素比如下:
对于彩色(RGB)图像,提取手部区域Mrgb=80X90(区域包含整个手掌),从该模板中提取边缘梯度信息作为另一个特征,提取边缘梯度信息的方法步骤和参数如下:
将彩色图像转换成灰度图像,利用canny算子进行边缘检测,得到该模板中明显的边缘点,然后用sobel算子与图像进行卷积操作,得到水平和垂直方向上的差分图像,分别标记为分别标记为Gx(xi)和Gy(xi),那么边缘点的梯度幅值和方向分别为
其中θ∈{0,360°}xi为像素点的坐标向量;
接着,对边缘点的方向指进行量化,一般量化级越高,匹配时越精确,由于是对指尖的小区域求边缘方向,边缘点数量不大,选取量化间隔为45°,量化级为8,为了提高边缘信息的可靠性,利用梯度幅值加权比重计算边缘直方图,以θ(xi)作为直方图的横坐标,则直方图的纵坐标取值如下式
b-2.特征提取,对从深度图中获取到的二值像素比信息,设定新的相似度衡量方式,将不同的感兴趣区域中的像素占比度进行比较,得到他们的相对差值,作为新的相似度衡量方式,表达式如下:
当ρ(y)越大时,表示与我们需要追踪的目标越相似,特征匹配度越高;
对于从RGB图像获得边缘特征,采用巴氏距离衡量候选模型与目标模型之间的相似度,其公式如下:
c.特征融合以获得观测模型
在变化的场景中,两种特征的表现性能不同,为了综合两者的优点,采用线性加权的方法联合两种特征的权重,对于式(5)和式(6),令
如果某个特征的表现性越好,则与目标模型越相似,权重就越大,则联合特征密度可表示为
ρsum(y)=α1(1-ρ1)+α2ρ2 (9)
d.粒子滤波跟踪
采用的粒子滤波方法过程明细如下:
粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a}其中x、y是粒子的中心位置,vx,vy是粒子在x,y方向上的移动速度,wx,wy,表示粒子所在区域的宽和高,在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Ast+wt-1实现,其中A为状态转移矩阵,wt-1为高斯噪声;
粒子滤波算法包括以下步骤:
d-1.给定t-1时刻粒子样本集合,定义估计状态量,根据观测状态,权重和粒子数选择样本并进行重采样,本方法中粒子数设定为N=50,初始化每个粒子的权重为1/N..现在给定t-1时刻粒子样本集合st-1,重采样时,首先对权重数组求归一化累计概率数组
随后根据高斯正太分布随机生成N个[0,1]间的满足均匀分布的随机变量,构成数组r,对数组的中每个元素,采用轮盘赌算法搜索累积概率数组,得到更新后的样本集合;
d-2.根据新的样本粒子集合,由系统转换方程st=Ast+wt-1,计算新的粒子位置;
d-3.对每一个状态预测量(即每一个样本粒子),由公式(5)和(6)计算其所在候选区域的EOH(即边缘方向直方图)和像素占比度特征;
d-4.更新权重,由式(7)、(8)计算得到每一个粒子区域对应的EOH(边缘方向直方图)和像素比的特征概率密度ρ1,ρ2和权重比α1和α2,由式(9)计算候选目标与目标模型的相似度,根据观测得到的特征相似度,对该粒子的权重进行更新,权重的更新采用核函数:
d-5.对状态量进行估计,得到预测状态信息,根据更新后的权重,估计一个状态量作为跟踪输出,根据权重计算集合st的平均值,提取目标位置,作为跟踪输出结果,估计量满足关系式:
d-6.对预测的跟踪输出状态量,计算其与目标模型的相似度,当满足相似度阈值后,计算其所在区域的角点位置,重新更新角点位置为预测位置,再次计算更新后的状态量的边缘方向特征和像素占比度,计算该预测状态与观测状态目标模型的相似度,当联合特征相似度大于阈值(初始设定为0.86)的时候,利用遗忘因子更新目标模型的边缘直方图,并重新计算像素比,更新模型,遗忘因子取值范围为0.1~0.3,角点计算时,设定指尖边缘点的集合为F=(xp,yp),首先计算轮廓点集合的中心点
求出其中距离中心最远的一个点为指尖点,
其中p表示第p个轮廓点;
d-7.计算最大权重值,并结合预测位置信息高斯判断跟踪是否正常,若是,则输出目标位置,并回到(1);否则,跟踪丢失,回到程序开始,等待新目标;
e.鼠标位置转换
粒子滤波跟踪输出的位置仅仅是指尖在图像中的二维坐标,根据Kinect的深度图像和彩色图像的关系,由转换函数(kinect函数调用)得到其3维坐标;由于kinect转换得到的3维坐标与获取的深度图像有关,而其深度图像的波动会对得到的数据有明显的影响,提取粒子滤波输出点的周围相邻的8个位置的三维信息求平均来表示最终输出点的3维位置,
其中pf(x,y,z)为最终输出的指尖位置的3维坐标,n=8为相邻一圈的8个像素,但在实际的3维场景运用中,并不直接采用获取的深度坐标作为鼠标的显示位置,需要经过转换之后得到比较好的鼠标显示效果,转换方程为:
pmouse(x,y,z)=MC*pf(x,y,z) (17)
其中pmouse(x,y,z)为鼠标在3维场景中的位置,转换矩阵MC的构成如下
2.根据权利要求1所述的一种3D手势鼠标的生成方法,其特征在于,步骤d中所述的固定值d1为40。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633829.3A CN109101872B (zh) | 2018-06-20 | 2018-06-20 | 一种3d手势鼠标的生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633829.3A CN109101872B (zh) | 2018-06-20 | 2018-06-20 | 一种3d手势鼠标的生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109101872A CN109101872A (zh) | 2018-12-28 |
CN109101872B true CN109101872B (zh) | 2023-04-18 |
Family
ID=64796973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810633829.3A Active CN109101872B (zh) | 2018-06-20 | 2018-06-20 | 一种3d手势鼠标的生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101872B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102356B (zh) * | 2019-06-18 | 2024-07-02 | 北京七鑫易维科技有限公司 | 一种目标跟踪方法、装置、终端设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402289A (zh) * | 2011-11-22 | 2012-04-04 | 华南理工大学 | 一种基于机器视觉的手势鼠标识别方法 |
CN102831439A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势跟踪方法及系统 |
CN102855461A (zh) * | 2011-07-01 | 2013-01-02 | 株式会社理光 | 在图像中检测手指的方法及设备 |
CN106780560A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法 |
CN107705321A (zh) * | 2016-08-05 | 2018-02-16 | 南京理工大学 | 基于嵌入式系统的运动目标检测与跟踪方法 |
WO2018032703A1 (zh) * | 2016-08-16 | 2018-02-22 | 广州视源电子科技股份有限公司 | 跟踪指部轮廓的方法及其装置 |
CN107813310A (zh) * | 2017-11-22 | 2018-03-20 | 浙江优迈德智能装备有限公司 | 一种基于双目视觉多手势机器人控制方法 |
-
2018
- 2018-06-20 CN CN201810633829.3A patent/CN109101872B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855461A (zh) * | 2011-07-01 | 2013-01-02 | 株式会社理光 | 在图像中检测手指的方法及设备 |
CN102402289A (zh) * | 2011-11-22 | 2012-04-04 | 华南理工大学 | 一种基于机器视觉的手势鼠标识别方法 |
CN102831439A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势跟踪方法及系统 |
CN107705321A (zh) * | 2016-08-05 | 2018-02-16 | 南京理工大学 | 基于嵌入式系统的运动目标检测与跟踪方法 |
WO2018032703A1 (zh) * | 2016-08-16 | 2018-02-22 | 广州视源电子科技股份有限公司 | 跟踪指部轮廓的方法及其装置 |
CN106780560A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法 |
CN107813310A (zh) * | 2017-11-22 | 2018-03-20 | 浙江优迈德智能装备有限公司 | 一种基于双目视觉多手势机器人控制方法 |
Non-Patent Citations (3)
Title |
---|
three-dimensional hand tracking based on microstructure of hand motion;ZHIQUAN FENG 等;JOURNAL OF SOFTWARE;第9卷(第8期);2133-2141 * |
利用Kinect手部跟踪构造手势空间点集进行指尖定位的研究与实现;杨博雄;胡旭华;黄静;《北京师范大学学报(自然科学版)》;第51卷(第06期);571-575 * |
采用改进粒子群优化粒子滤波的三维人手跟踪;李东年;周以齐;《光学精密工程》;第22卷(第10期);2870-2878 * |
Also Published As
Publication number | Publication date |
---|---|
CN109101872A (zh) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108460338B (zh) | 人体姿态估计方法和装置、电子设备、存储介质、程序 | |
Maiseli et al. | Recent developments and trends in point set registration methods | |
EP2680228B1 (en) | Improvements in or relating to three dimensional close interactions. | |
CN108052942B (zh) | 一种飞机飞行姿态的视觉图像识别方法 | |
CN100407798C (zh) | 三维几何建模系统和方法 | |
CN106096542B (zh) | 基于距离预测信息的图像视频场景识别方法 | |
KR101794399B1 (ko) | 사용자 얼굴의 복합 다중 감정 인식 방법 및 시스템 | |
CN113168729B (zh) | 一种基于局部参考坐标系的3d形状匹配方法及装置 | |
US11276202B2 (en) | Moving image generation apparatus, moving image generation method, and non-transitory recording medium | |
CN113436223B (zh) | 点云数据的分割方法、装置、计算机设备和存储介质 | |
CN112336342A (zh) | 手部关键点检测方法、装置及终端设备 | |
Cai et al. | A novel saliency detection algorithm based on adversarial learning model | |
CN110895683B (zh) | 一种基于Kinect的单视点手势姿势识别方法 | |
CN116310219A (zh) | 一种基于条件扩散模型的三维脚型生成方法 | |
CN112907569A (zh) | 头部图像区域的分割方法、装置、电子设备和存储介质 | |
CN115527065A (zh) | 髋关节分型方法、装置和存储介质 | |
CN109101872B (zh) | 一种3d手势鼠标的生成方法 | |
Zhou et al. | Label denoising adversarial network (ldan) for inverse lighting of face images | |
Yi et al. | Illumination normalization of face image based on illuminant direction estimation and improved retinex | |
CN117576303A (zh) | 三维图像生成方法、装置、设备及存储介质 | |
CN111339974A (zh) | 一种现代陶瓷与古陶瓷的鉴别方法 | |
CN113392820B (zh) | 动态手势识别方法、装置、电子设备及可读存储介质 | |
CN115311653A (zh) | 一种3d目标检测方法、装置、终端和存储介质 | |
Lei et al. | Holoscopic 3D micro-gesture recognition based on fast preprocessing and deep learning techniques | |
Basu et al. | Anthropometric salient points and convolutional neural network (CNN) for 3D human body classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |