CN110221687A - 基于三维空间映射的指尖运动跟踪方法 - Google Patents
基于三维空间映射的指尖运动跟踪方法 Download PDFInfo
- Publication number
- CN110221687A CN110221687A CN201910361412.0A CN201910361412A CN110221687A CN 110221687 A CN110221687 A CN 110221687A CN 201910361412 A CN201910361412 A CN 201910361412A CN 110221687 A CN110221687 A CN 110221687A
- Authority
- CN
- China
- Prior art keywords
- finger tip
- dimensional
- fingertip motions
- tip point
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 100
- 238000013507 mapping Methods 0.000 title claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 37
- 239000004576 sand Substances 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 5
- 150000001875 compounds Chemical class 0.000 abstract description 3
- 230000035479 physiological effects, processes and functions Effects 0.000 abstract 1
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种基于三维空间映射的指尖运动跟踪方法。针对手势跟踪和指尖交互的准确性要求,以及三维指尖点在二维图像中的投影存在运动估计误差的问题,本发明充分利用计算机技术,引入滤波算法,采集指尖在视频帧中的二维位置信息;根据手指尖运动生理特征,通过坐标转换获得指尖的三维位置信息,进行高精度的指尖三维运动估计;进一步的结合指尖运动规律拟合出复合运动模型、实现指尖运动的稳定跟踪。本发明可以精准反映指尖的位置信息,实现了稳定、准确的指尖运动跟踪。
Description
技术领域
本发明涉及计算机视觉和运动目标跟踪领域,具体涉及一种基于三维空间映射的指尖运动跟踪方法。
背景技术
人机交互和目标跟踪是目前研究的热点和难点,而指尖跟踪作为人机交互任务的基础,已成为人机交互领域中至关重要的研究问题。Hololens是一款增强现实头显设备,是集增强现实场景展现、人机交互于一身的可穿戴智能眼镜设备,该设备可获取包含指尖的视频数据。
视频目标跟踪是计算机视觉中的一项重要任务,是指对视频序列中的目标状态进行持续推断的过程,其任务在于通过在视频的每一帧中定位目标,以生成目标的运动轨迹,并在每一时刻提供完整的目标区域。视频跟踪技术在军事和民用方面都有着十分广泛的应用。传统目标跟踪方法通过数据关联完成观测数据与目标间的分配,再通过滤波技术完成目标状态估计。常用的目标跟踪方法包括:卡尔曼滤波算法、核相关滤波算法、最近邻法、联合概率数据关联(JPDA)、多假设跟踪等。卡尔曼滤波(Kalman Filter)算法是基于递推线性最小方差估计,它的主要原理是采用信号和噪声的状态空间模型,将最小均方误差作为最佳估计准则,再利用前一时刻的预测值和当前时刻的观测值来校正更新对状态变量的估计,得到当前时刻的估计值,它分为预测和更新两个步骤,通过更新迭代使得系统得到最佳的状态,并且具有计算量小、最优化自回归数据处理的特点。
但在二维图像中,当指尖点运动到摄像头成像边缘时,指尖点之间的距离变化通常小于实际指尖运动位移变化,图像中展现的指尖运动状态不能对应实际指尖运动,即二维图像的指尖位移无法描述指尖的真实运动,因此仅通过视频进行目标跟踪无法实现高精度高稳定性的指尖运动跟踪。
发明内容
本发明的目的是:提供一种高精度、高稳定性的基于三维空间映射的指尖运动跟踪方法。
本发明的技术方案是:本发明的基于三维空间映射的指尖运动跟踪方法,包括以下步骤:
①采集指尖视频,得到指尖在二维图像中的像素坐标;
②对采集到的指尖二维像素坐标进行坐标系转换,得到指尖对应的三维坐标;
③建立系统运动模型;
④采用步骤②得到的指尖三维坐标作为初始化滤波器的位置参数,初始化滤波器;
⑤通过当前时刻状态值与指尖的运动模型推算出下一时刻的预测位置;
⑥计算新一帧图像中的指尖三维位置,作为观测位置,再通过预测位置和观测位置对指尖运动进行估计,得到校正位置;
⑦更新卡尔曼滤波器,重复步骤②至步骤⑥,连续稳定地跟踪指尖运动。
进一步的方案是:上述步骤①包括以下具体步骤:
第一步:实验者穿戴上视频采集设备Hololens,并移动指尖;
第二步:通过Hololens采集包含指尖运动的视频;
第三步:计算视频帧中指尖点的二维像素坐标(uk,vk),其中k为时刻。
进一步的方案是:上述步骤②包括以下具体步骤:
第一步:设定实验者在做指尖运动时,手臂的初始状态为向人体朝向正前方伸直,指尖运动的全过程保持手臂伸直状态;
第二步:根据人体手臂运动规律,推断出指尖在三维球面上运动;
第三步:图像像素坐标系转换到图像物理坐标系,得到指尖物理坐标(xk,yk);
具体转换方法为:
A、设定指尖点的像素坐标为(uk,vk);
B、依据式(1)的坐标转换规则进行转换得到物理坐标为(xk,yk):
第四步:根据摄像机纵向视场角α和横向视场角β,以及图像长度a和宽度b,得到指尖点的三维坐标,具体方法为:
Ⅰ、设定实验者手臂长度为R;
Ⅱ、通过式(2)表达的指尖点和相机的角度θ关系,得到指尖点的三维坐标为
进一步的方案是:上述步骤③包括以下步骤:
第一步:实验并分析人指尖运动规律;
第二步:将指尖与沙盘要素进行交互的指尖运动分成三个过程:第一个过程:当手指尖开始运动,匀加速移动至沙盘中待操作对象周围;第二个过程:在与待操作对象相交前,减速至相交位置;第三个过程:选中待操作对象后,指尖使用匀速运动与操作对象开始进行交互;其中,第一个过程和第二个过程采用匀加速模型,第三个过程采用匀速模型。
进一步的方案是:上述步骤⑤中采用指尖的位置和速度描述指尖点的运动状态,由以下步骤实施:
第一步:设定指尖点的位置为当前速度为利用式(3)的匀速运动模型公式,预测出下一时刻指尖点的三维位置
第二步:设定指尖点的位置为当前速度为加速度为利用式(4)的匀加速运动模型公式,预测出下一时刻指尖点的三维位置
进一步的方案是:上述步骤⑥包括以下具体步骤:
第一步:将步骤②得到的k+1时刻的指尖三维坐标作为运动指尖点的观测位置;
第二步:结合步骤⑤得到的运动指尖点的预测位置,经过卡尔曼滤波得到指尖点的真实位置,具体步骤为:
Ⅰ、定义指尖运动状态向量对应的观测向量控制向量为其中T为相邻两帧之间的时间间隔;
Ⅱ、在匀速运动模型时,状态方程式为x(k+1)=A·x(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1),结合卡尔曼滤波算法方程组,得到下一时刻指尖点的三维位置
Ⅲ、在匀加速运动模型时,状态方程式x(k+1)=A·x(k)+B·u(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1)+B·u(k),得到下一时刻指尖点的三维位置
本发明具有积极的效果:本发明的基于三维空间映射的指尖运动跟踪方法,根据人指尖运动生理特性,实现指尖点位置信息从二维到三维的映射,根据手指尖的运动特性,拟合出复合卡尔曼运动模型,采用复合卡尔曼滤波得到三维空间中指尖运动的最优估计,实现了更高精度、更加稳定的指尖运动跟踪。
附图说明
图1为本发明的方法流程示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
(实施例1)
见图1,本实施例的基于三维空间映射的指尖运动跟踪方法,由以下步骤实施:
步骤1:采集指尖视频,得到指尖在二维图像中的像素坐标,具体如下:
步骤1.1:实验者穿戴上视频采集设备Hololens,并移动指尖;
步骤1.2:通过Hololens采集包含指尖运动的视频;
步骤1.3:计算视频帧中指尖点的二维像素坐标,即(uk,vk),其中k代表时刻。
步骤2:对采集到的指尖二维像素坐标进行坐标系转换,得到指尖对应的三维坐标,具体如下:
步骤2.1:设定实验者在做指尖运动时,手臂的初始状态为向人体朝向正前方伸直,指尖运动的全过程保持手臂伸直状态;
步骤2.2:根据人体手臂运动规律,推断出指尖在三维球面上运动;
步骤2.3:图像像素坐标系转换到图像物理坐标系,得到指尖物理坐标(xk,yk):
步骤2.3.1:设定指尖点的像素坐标为(uk,vk);
步骤2.3.2:依据坐标转换规则进行转换,转换关系如下,得到物理坐标为(xk,yk)。
步骤2.4:根据摄像机横纵向视场角为β、α,以及图像大小即长宽度a、b,得到指尖点的三维坐标:
步骤2.4.1:设定实验者手臂长度为R;
步骤2.4.2:通过指尖点和相机的角度θ间的关系,关系如下,得到指尖点的三维坐标为
步骤3:建立合适的系统运动模型:
步骤3.1:实验并分析人指尖运动规律;
步骤3.2:划分指尖运动过程,总结指尖运动规律,得到系统运动模型,即在指尖与沙盘要素进行交互时,指尖运动分成三个过程:第一个过程:当手指尖开始运动,匀加速移动至沙盘中待操作对象周围;第二个过程:在与待操作对象相交前,减速至相交位置;第三个过程:选中待操作对象后,指尖使用匀速运动与操作对象开始进行交互。在手指尖运动直到与沙盘操作对象交互的全过程中,根据不同运动过程匹配不同的模型,第一和第二个过程采用匀加速模型,第三个过程采用匀速模型。
步骤4:初始化滤波器:
将步骤2中计算得到的指尖三维坐标作为初始化滤波器的位置参数,初始化滤波器。
步骤5:通过当前时刻状态值与指尖的运动模型推算出下一时刻的预测位置:
步骤5.1:在匀速运动模型中,设定指尖点的位置为当前速度为预测出下一时刻指尖点的位置Pk+1,具体是:
采用指尖的位置和速度描述指尖点的运动状态,匀速运动模型公式为:得到下一时刻指尖点的预测的三维位置
步骤5.2:在匀加速运动模型中,设定指尖点的位置为当前速度为加速度为预测出下一时刻指尖点的位置Pk+1,具体是:
采用指尖的位置和速度描述指尖点的运动状态,匀加速运动模型公式为:得到下一时刻指尖点的预测的三维位置
步骤6:计算新一帧图像中的指尖三维位置,作为观测位置,再通过预测位置和观测位置对指尖运动进行估计,得到校正位置,具体如下:
步骤6.1:采用步骤3得到的k+1时刻的指尖三维坐标,即运动指尖点的观测位置;
步骤6.2:结合步骤5得到的运动指尖点的预测位置,经过卡尔曼滤波得到指尖点的真实位置:
第一步:将步骤②得到的k+1时刻的指尖三维坐标作为运动指尖点的观测位置;
第二步:结合步骤⑤得到的运动指尖点的预测位置,经过卡尔曼滤波得到指尖点的真实位置,具体步骤为:
Ⅰ、定义指尖运动状态向量对应的观测向量控制向量为其中T为相邻两帧之间的时间间隔;
Ⅱ、在匀速运动模型时,状态方程式为x(k+1)=A·x(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1),结合卡尔曼滤波算法方程组,得到下一时刻指尖点的三维位置
Ⅲ、在匀加速运动模型时,状态方程式x(k+1)=A·x(k)+B·u(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1)+B·u(k),得到下一时刻指尖点的三维位置
步骤7:更新卡尔曼滤波器,重复以上步骤2至步骤6,连续稳定地跟踪指尖运动。
以上实施例是对本发明的具体实施方式的说明,而非对本发明的限制,有关技术领域的技术人员在不脱离本发明的精神和范围的情况下,还可以做出各种变换和变化而得到相对应的等同的技术方案,因此所有等同的技术方案均应该归入本发明的专利保护范围。
Claims (6)
1.一种基于三维空间映射的指尖运动跟踪方法,其特征在于,该方法包括以下步骤:
①采集指尖视频,得到指尖在二维图像中的像素坐标;
②对采集到的指尖二维像素坐标进行坐标系转换,得到指尖对应的三维坐标;
③建立系统运动模型;
④采用步骤②得到的指尖三维坐标作为初始化滤波器的位置参数,初始化滤波器;
⑤通过当前时刻状态值与指尖的运动模型推算出下一时刻的预测位置;
⑥计算新一帧图像中的指尖三维位置,作为观测位置,再通过预测位置和观测位置对指尖运动进行估计,得到校正位置;
⑦更新卡尔曼滤波器,重复步骤②至步骤⑥,连续稳定地跟踪指尖运动。
2.根据权利要求1所述的基于三维空间映射的指尖运动跟踪方法,其特征在于:所述步骤①包括以下具体步骤:
第一步:实验者穿戴上视频采集设备Hololens,并移动指尖;
第二步:通过Hololens采集包含指尖运动的视频;
第三步:计算视频帧中指尖点的二维像素坐标(uk,vk),其中k为时刻。
3.根据权利要求1所述的基于三维空间映射的指尖运动跟踪方法,其特征在于,所述步骤②包括以下具体步骤:
第一步:设定实验者在做指尖运动时,手臂的初始状态为向人体朝向正前方伸直,指尖运动的全过程保持手臂伸直状态;
第二步:根据人体手臂运动规律,推断出指尖在三维球面上运动;
第三步:图像像素坐标系转换到图像物理坐标系,得到指尖物理坐标(xk,yk);
具体转换方法为:
A、设定指尖点的像素坐标为(uk,vk);
B、依据式(1)的坐标转换规则进行转换得到物理坐标为(xk,yk):
第四步:根据摄像机纵向视场角α和横向视场角β,以及图像长度a和宽度b,得到指尖点的三维坐标,具体方法为:
Ⅰ、设定实验者手臂长度为R;
Ⅱ、通过式(2)表达的指尖点和相机的角度θ关系,得到指尖点的三维坐标为
4.根据权利要求1所述的基于三维空间映射的指尖运动跟踪方法,其特征在于,所述步骤③包括以下步骤:
第一步:实验并分析人指尖运动规律;
第二步:将指尖与沙盘要素进行交互的指尖运动分成三个过程:第一个过程:当手指尖开始运动,匀加速移动至沙盘中待操作对象周围;第二个过程:在与待操作对象相交前,减速至相交位置;第三个过程:选中待操作对象后,指尖使用匀速运动与操作对象开始进行交互;其中,第一个过程和第二个过程采用匀加速模型,第三个过程采用匀速模型。
5.根据权利要求1所述的基于三维空间映射的指尖运动跟踪方法,其特征在于,所述步骤⑤中采用指尖的位置和速度描述指尖点的运动状态,由以下步骤实施:
第一步:设定指尖点的位置为当前速度为利用式(3)的匀速运动模型公式,预测出下一时刻指尖点的三维位置
第二步:设定指尖点的位置为当前速度为加速度为利用式(4)的匀加速运动模型公式,预测出下一时刻指尖点的三维位置
6.根据权利要求1所述的基于三维空间映射的指尖运动跟踪方法,其特征在于:所述步骤⑥包括以下具体步骤:
第一步:将步骤②得到的k+1时刻的指尖三维坐标作为运动指尖点的观测位置;
第二步:结合步骤⑤得到的运动指尖点的预测位置,经过卡尔曼滤波得到指尖点的真实位置,具体步骤为:
Ⅰ、定义指尖运动状态向量对应的观测向量控制向量为其中T为相邻两帧之间的时间间隔;
Ⅱ、在匀速运动模型时,状态方程式为x(k+1)=A·x(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1),结合卡尔曼滤波算法方程组,得到下一时刻指尖点的三维位置
Ⅲ、在匀加速运动模型时,状态方程式x(k+1)=A·x(k)+B·u(k)+η(k),状态向量预测方程为:x(k|k-1)=A·x(k-1|k-1)+B·u(k),得到下一时刻指尖点的三维位置
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910361412.0A CN110221687A (zh) | 2019-04-30 | 2019-04-30 | 基于三维空间映射的指尖运动跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910361412.0A CN110221687A (zh) | 2019-04-30 | 2019-04-30 | 基于三维空间映射的指尖运动跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110221687A true CN110221687A (zh) | 2019-09-10 |
Family
ID=67820427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910361412.0A Pending CN110221687A (zh) | 2019-04-30 | 2019-04-30 | 基于三维空间映射的指尖运动跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110221687A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111185906A (zh) * | 2020-01-10 | 2020-05-22 | 上海大学 | 一种基于Leap Motion的灵巧手主从控制方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038671A (zh) * | 2007-04-25 | 2007-09-19 | 上海大学 | 基于立体视觉三维手指运动轨迹跟踪方法 |
CN107256083A (zh) * | 2017-05-18 | 2017-10-17 | 河海大学常州校区 | 基于kinect的多手指实时跟踪方法 |
-
2019
- 2019-04-30 CN CN201910361412.0A patent/CN110221687A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038671A (zh) * | 2007-04-25 | 2007-09-19 | 上海大学 | 基于立体视觉三维手指运动轨迹跟踪方法 |
CN107256083A (zh) * | 2017-05-18 | 2017-10-17 | 河海大学常州校区 | 基于kinect的多手指实时跟踪方法 |
Non-Patent Citations (1)
Title |
---|
晏浩: "基于Kinect的三维多手指跟踪算法及应用", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111185906A (zh) * | 2020-01-10 | 2020-05-22 | 上海大学 | 一种基于Leap Motion的灵巧手主从控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949375B (zh) | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 | |
CN105652871A (zh) | 移动机器人的重定位方法 | |
CN107255476A (zh) | 一种基于惯性数据和视觉特征的室内定位方法和装置 | |
Jing et al. | Human-computer interaction using pointing gesture based on an adaptive virtual touch screen | |
Zhu et al. | Constrained optimization for human pose estimation from depth sequences | |
CN111596767B (zh) | 一种基于虚拟现实的姿态捕获方法和装置 | |
CN112464847B (zh) | 视频中人体动作切分方法及装置 | |
CN110533687A (zh) | 多目标三维轨迹跟踪方法及装置 | |
CN110321937A (zh) | 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法 | |
CN109655059B (zh) | 一种基于θ-增量学习的视觉-惯性融合导航系统及方法 | |
Wang et al. | Immersive human–computer interactive virtual environment using large-scale display system | |
CN111260765B (zh) | 一种显微手术术野的动态三维重建方法 | |
CN111433783B (zh) | 手部模型生成方法、装置、终端设备及手部动作捕捉方法 | |
Hori et al. | Silhouette-based synthetic data generation for 3D human pose estimation with a single wrist-mounted 360° camera | |
CN110221687A (zh) | 基于三维空间映射的指尖运动跟踪方法 | |
Liu et al. | Ego+ x: An egocentric vision system for global 3d human pose estimation and social interaction characterization | |
CN113221729B (zh) | 一种基于手势人机交互的无人机集群控制方法及系统 | |
CN115205737B (zh) | 基于Transformer模型的运动实时计数方法和系统 | |
CN113689501B (zh) | 一种基于收敛点的双机协同目标机定位跟踪控制方法 | |
Hoshino et al. | Realtime hand posture estimation with self-organizing map for stable robot control | |
CN112116673B (zh) | 一种姿态引导下的基于结构相似性的虚拟人体图像生成方法、系统及电子设备 | |
JP2000348181A (ja) | 移動物体追跡装置 | |
CN108469729A (zh) | 一种基于rgb-d信息的人体目标识别与跟随方法 | |
CN111612912A (zh) | 一种基于Kinect 2相机面部轮廓点云模型的快速三维重构及优化方法 | |
CN103885597B (zh) | 空间输入识别方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190910 |
|
RJ01 | Rejection of invention patent application after publication |