CN108334198B - 基于增强现实的虚拟雕塑方法 - Google Patents
基于增强现实的虚拟雕塑方法 Download PDFInfo
- Publication number
- CN108334198B CN108334198B CN201810139483.1A CN201810139483A CN108334198B CN 108334198 B CN108334198 B CN 108334198B CN 201810139483 A CN201810139483 A CN 201810139483A CN 108334198 B CN108334198 B CN 108334198B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- virtual
- sculpture
- gesture
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 24
- 210000003811 finger Anatomy 0.000 claims description 54
- 238000001514 detection method Methods 0.000 claims description 24
- 230000036544 posture Effects 0.000 claims description 19
- 239000003550 marker Substances 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 210000003813 thumb Anatomy 0.000 claims description 12
- 210000004932 little finger Anatomy 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 7
- 210000001145 finger joint Anatomy 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 210000004247 hand Anatomy 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了基于增强现实的虚拟雕塑方法,它允许操作者通过自己的三维手势,在增强现实的场景当中完成虚拟雕塑的功能,包括以下三个步骤:S1、手势数据的获取;S2、坐标系配准以及手势建模;S3、虚实碰撞检测;S4、雕塑模型的形变。本发明提出了一种基于增强现实的虚拟雕塑方法,这个方法通过传感器来获取操作者的手势数据,然后通过增强现实头盔,在增强现实的场景当中完成虚拟雕塑的功能,整个雕塑的过程十分自然、简洁以及高效。
Description
技术领域
本发明属于增强现实以及人机交互领域,涉及了一种基于增强现实的虚拟雕塑方法。
背景技术
传统的雕塑是通过雕刻家们用刻刀雕刻出来的,这种方式不仅浪费雕刻材料,而且对雕刻的技巧要求比较高,往往雕错了很难再撤销掉重新开始。随着计算机功能的不断强大,通过计算机来进行三维建模的软件也越来越多,人们可以通过这些软件来建立各种各样的三维模型。但同时,这些建模软件的使用门槛也变得越来越高,操作也越来越复杂,初学者不得不花费很大的精力掌握这些软件的操作方式。而众所周知,人的双手是最灵活的器官之一,人的双手可以比划出各种各样的手势,例如聋哑人可以通过手势来进行交流。而本发明利用手势来进行三维建模,通过传感器来获取手势数据,然后在增强现实的场景当中显示出来。
发明内容
本发明的目的在于克服现有技术存在的上述不足,提供基于增强现实的虚拟雕塑方法。
本发明提出的一种基于增强现实的虚拟雕塑方法,这个方法通过传感器来获取操作者的手势数据,然后通过增强现实头盔,在增强现实的场景当中完成虚拟雕塑的功能。
本发明基于增强现实的虚拟雕塑方法,包括如下步骤:
S1、手势数据的获取;
S2、坐标系配准以及手势建模;
S3、虚实碰撞检测;
S4、雕塑模型的形变。
进一步地,所述步骤S1包括以下步骤:
手势数据是通过Leap Motion传感器获取得到的,在获取的过程当中,存在着一些设备误差以及环境噪声误差,所以可以通过Kalman滤波算法来估计手势的位姿数据。
卡尔曼滤波算法可以从一系列的环境噪声和不完整的测量数据当中估计手的状态。四元数q相对于时间t的微分方程为:
其中,ωx,ωy,ωz是人手在X轴、Y轴和Z轴三个方向的角速度分量。由于xk包括了四元数状态和角速度,所以xk的格式为:
xk=[q0,k q1,k q2,k q3,k ωx,k ωy,k ωz,k] (2)
其中q0,k,q1,k,q2,k,q3,k是时刻k下的四元数分量,ωx,k,ωy,k,ωz,k是时刻k下的角速度分量。四元数分量的计算可以由角速度分量的测量来获得,具体的迭代过程如下:
其中t是采样时间。
所以从以上的公式可以推导得到,状态转换矩阵为:
其中Δt是系统的数据采样时间,在实际的操作中将矩阵Γk设为零矩阵。在整个过程当中是使用角速度来估计四元数状态的,因此将过程噪声向量设置为:
wk=[0 0 0 0 wx wy wz]T (5)
其中wx,wy,wz是角速度在X,Y,Z三个方向上的测量分量。由于用的是Leap Motion来测量角速度的,所以观察矩阵Hk为:
Hk=[0n×p In×n] (6)
其中n是角速度向量的数量,p是四元数的数量。最后需要对四元数进行规范化操作,在时间k下的标准四元数为:
进一步地,所述步骤S2包括以下步骤:
在Leap Motion坐标系和手掌坐标系中需要同步手势动作,而在这个过程中坐标系标定就显得特别重要。假设手掌坐标系为[xH yH zH],Leap Motion坐标系为[xL yL zL]。因此,有如下映射关系:
其中T1是从世界坐标系到手掌坐标系的转换矩阵,通过计算T1,可以将手掌坐标系中的点与Leap Motion坐标系中的点对应起来。
在增强现实的场景当中需要进行虚实之间的坐标系标定,即Leap Motion坐标系与雕塑模型坐标系之间的标定。虚拟环境中的雕塑模型是通过一个标记物来确定位置的,所以事先需要在真实环境当中摆放一个标记物,设这个标记物坐标系为[xM yM zM],标记物坐标系和Leap Motion坐标系之间的转换关系可以通过事先测量知道,假设为T2,则有如下转换关系:
设雕塑模型坐标系为[xS yS zS],雕塑模型坐标系相对于标记物坐标系也有一个转换关系,这个转换关系是自己设置的,假设为T3,则有如下转化关系:
由以上几个等式可以得出:
通过等式(11),可以对虚实之间的坐标系进行配准。
在Leap Motion获取到手势数据之后,需要在增强现实的场景当中对虚拟手进行数学建模,在Leap Motion的一帧数据当中,挑选了与虚拟手运动密切相关的一些手势数据,将之传送给增强现实场景当中。
所传送的手势数据为:
(1)左右手的手掌位置坐标以及姿态方向角;
(2)左右手大拇指的各个关节的起始位置和终点位置坐标,大拇指指尖关节的姿态方向角;
(3)左右手食指的各个关节的起始位置和终点位置坐标,食指指尖关节的姿态方向角;
(4)左右手中指的各个关节的起始位置和终点位置坐标,中指指尖关节的姿态方向角;
(5)左右手无名指的各个关节的起始位置和终点位置坐标,无名指指尖关节的姿态方向角;(6)左右手小拇指的各个关节的起始位置和终点位置坐标,小拇指指尖关节的姿态方向角;
所以,在对三维手势进行数学建模时,用的是一些基本的几何体来近似模拟三维手势,手掌部分使用的是方体,手指关节部分使用的是圆柱体,指尖部分使用的是球体。这些几何体根据Leap Motion的手势数据来不断的变换自身的位置以及姿态,从而构建起三维手势的数学模型,为接下来的碰撞检测以及模型变形做好准备。
进一步地,所述步骤S3包括以下步骤:
在虚拟手与雕塑模型的碰撞检测当中,使用了一种混合包围盒的碰撞检测算法来检测虚拟手模型的碰撞。在虚拟手进行雕塑的过程中,主要使用的是手指来与雕塑模型进行碰撞。而在手指的各个部位当中,指尖的使用特别频繁,指尖的运动也十分的灵活,通常需要各种角度的旋转,而且指尖一般是最先接触到雕塑模型的,其后才是手指的各个关节。所以出于这方面的考虑,打算在指尖部位使用球包围盒算法,而在手指的关节部分使用OBB包围盒算法。
对于虚拟手,只考虑其手指的碰撞,手掌部分的碰撞忽略掉了。所以对每只虚拟手,只需构建五个手指的包围盒,考虑到人体手指的真实结构,对每个手指的关节数量也进行了区分。由于大拇指的关节数量只有两个,所以在构建大拇指包围盒的时候,只用了两个OBB包围盒和一个球包围盒,而对于食指、中指、无名指和小指,均使用了三个OBB包围盒和一个球包围盒。在实际的碰撞检测过程当中,设计了如下的碰撞检测策略:
(1)检测指尖的球包围盒是否与雕塑模型发生碰撞
(2)如果指尖的球包围盒没有与雕塑模型产生碰撞,则认为整个虚拟手都没有与雕塑模型产生碰撞,整个碰撞检测的过程结束
(3)如果指尖的球包围盒与雕塑模型产生了碰撞,接下来依次检测手指关节的OBB包围盒是否与雕塑模型产生碰撞
这个策略可以降低算法的复杂度,因为在很多情况下,虚拟手是没有与雕塑模型发生碰撞的,这个时候只需要检测指尖的球包围盒即可,而不需要对整个虚拟手进行全面的碰撞检测。
进一步地,所述步骤S4包括以下步骤:
检测到三维手势与雕塑模型的碰撞之后,需要对雕塑模型进行变形以达到雕塑的效果。在这里使用的是一种网格形变算法,具体的算法流程如下所示:
(1)获取雕塑模型的全部网格顶点,将之存放在一个Vector3数组当中
(2)通过for循环来遍历网格中的每一个顶点
(3)对于遍历得到每一个顶点,进行三维手势模型的碰撞检测
(4)如果没有检测到碰撞,则网格顶点不发生变化
(5)如果检测到了碰撞,则获取碰撞包围盒的中心坐标以及尺寸大小,同时计算出三维手势的移动方向,则网格顶点坐标向这个移动方向移动一定的距离,直到没有检测到碰撞为止。
(6)一遍for循环下来之后,雕塑模型中的网格顶点坐标有的会发生变化,有的会保持不变,统一对网格顶点进行更新一遍。
(7)更新之后重新计算网格的包围顶点,删除一些冗余的点,以及对网格进行整体的优化。通过对以上流程的不断循环下去,就可以实现虚拟雕塑的效果。
与现有技术相比,本发明具有如下优点和技术效果:
本发明通过人的三维手势来进行虚拟雕塑,然后在增强现实头盔HoloLens中显示出来,以达到一个增强现实的效果。首先是通过Leap Motion传感器采集手势的位置以及姿态数据,由于设备误差以及一些环境噪声误差,测量误差会随着时间不断的增加,所以采用Kalman滤波算法对手势的位置以及姿态进行了估计,从而提高手势数据的准确性。为了达到雕塑的效果,需要对雕塑模型和双手进行碰撞检测,碰撞检测之后还需要对雕塑模型进行形状的改变。最后通过实验验证了这种方式,实验结果也表明了基于增强现实的虚拟雕塑可以运用在的实际生活当中。这种基于增强现实的雕塑方式具有很高的灵活性,准确性和高效性,操作员只需要使用自己的双手,传感器就可以获取手势的数据,然后在增强现实的场景当中完成虚拟雕塑的功能。
附图说明
图1是基于增强现实的虚拟雕塑流程图。
图2是手指的包围盒构建图。
具体实施方式
以下结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此,以下若有未特别详细说明之处,均是本领域技术人员可参照现有技术实现或理解的。
如图1,本实例基于增强现实的虚拟雕塑方法,包括如下步骤:
S1、手势数据的获取;
S2、坐标系配准以及手势建模;
S3、虚实碰撞检测;
S4、雕塑模型的形变。
所述步骤S1包括以下步骤:
手势数据是通过Leap Motion传感器获取得到的,在获取的过程当中,存在着一些设备误差以及环境噪声误差,所以可以通过Kalman滤波算法来估计手势的位姿数据。
卡尔曼滤波算法可以从一系列的环境噪声和不完整的测量数据当中估计手的状态。四元数q相对于时间t的微分方程为:
其中,ωx,ωy,ωz是人手在X轴、Y轴和Z轴三个方向的角速度分量。由于xk包括了四元数状态和角速度,所以xk的格式为:
xk=[q0,k q1,k q2,k q3,k ωx,k ωy,k ωz,k] (2)
其中q0,k,q1,k,q2,k,q3,k是时刻k下的四元数分量,ωx,k,ωy,k,ωz,k是时刻k下的角速度分量。四元数分量的计算可以由角速度分量的测量来获得,具体的迭代过程如下:
其中t是采样时间。
所以从以上的公式可以推导得到,状态转换矩阵为:
其中Δt是系统的数据采样时间,在实际的操作中将矩阵Γk设为零矩阵。在整个过程当中是使用角速度来估计四元数状态的,因此将过程噪声向量设置为:
wk=[0 0 0 0 wx wy wz]T (5)
其中wx,wy,wz是角速度在X,Y,Z三个方向上的测量分量。由于用的是Leap Motion来测
量角速度的,所以观察矩阵Hk为:
Hk=[0n×p In×n] (6)
其中n是角速度向量的数量,p是四元数的数量。最后需要对四元数进行规范化操作,在时
间k下的标准四元数为:
所述步骤S2包括以下步骤:
在Leap Motion坐标系和手掌坐标系中需要同步手势动作,而在这个过程中坐标系标定就显得特别重要。假设手掌坐标系为[xH yH zH],Leap Motion坐标系为[xL yL zL]。因此,有如下映射关系:
其中T1是从世界坐标系到手掌坐标系的转换矩阵,通过计算T1,可以将手掌坐标系中的点与Leap Motion坐标系中的点对应起来。
在增强现实的场景当中需要进行虚实之间的坐标系标定,即Leap Motion坐标系与雕塑模型坐标系之间的标定。虚拟环境中的雕塑模型是通过一个标记物来确定位置的,所以事先需要在真实环境当中摆放一个标记物,设这个标记物坐标系为[xM yM zM],标记物坐标系和LeapMotion坐标系之间的转换关系可以通过事先测量知道,假设为T2,则有如下转换关系:
设雕塑模型坐标系为[xS yS zS],雕塑模型坐标系相对于标记物坐标系也有一个转换关系,这个转换关系是自己设置的,假设为T3,则有如下转化关系:
由以上几个等式可以得出:
通过等式(11),可以对虚实之间的坐标系进行配准。
在Leap Motion获取到手势数据之后,需要在增强现实的场景当中对虚拟手进行数学建模,在Leap Motion的一帧数据当中,挑选了与虚拟手运动密切相关的一些手势数据,将之传送给增强现实场景当中。
所传送的手势数据为:
(1)左右手的手掌位置坐标以及姿态方向角
(2)左右手大拇指的各个关节的起始位置和终点位置坐标,大拇指指尖关节的姿态方向角
(3)左右手食指的各个关节的起始位置和终点位置坐标,食指指尖关节的姿态方向角
(4)左右手中指的各个关节的起始位置和终点位置坐标,中指指尖关节的姿态方向角
(5)左右手无名指的各个关节的起始位置和终点位置坐标,无名指指尖关节的姿态方向角
(6)左右手小拇指的各个关节的起始位置和终点位置坐标,小拇指指尖关节的姿态方向角
所以,在对三维手势进行数学建模时,用的是一些基本的几何体来近似模拟三维手势,手掌部分使用的是方体,手指关节部分202使用的是圆柱体,指尖201部分使用的是球体。这些几何体根据Leap Motion的手势数据来不断的变换自身的位置以及姿态,从而构建起三维手势的数学模型,为接下来的碰撞检测以及模型变形做好准备。
所述步骤S3包括以下步骤:
在虚拟手与雕塑模型的碰撞检测当中,使用了一种混合包围盒的碰撞检测算法来检测虚拟手模型的碰撞。在虚拟手进行雕塑的过程中,主要使用的是手指来与雕塑模型进行碰撞。而在手指的各个部位当中,指尖的使用特别频繁,指尖的运动也十分的灵活,通常需要各种角度的旋转,而且指尖一般是最先接触到雕塑模型的,其后才是手指的各个关节。所以出于这方面的考虑,打算在指尖部位使用球包围盒算法,而在手指的关节部分使用OBB包围盒算法。
如图2所示,对于虚拟手,只考虑其手指的碰撞,手掌部分的碰撞忽略掉了。所以对每只虚拟手,只需构建五个手指的包围盒,考虑到人体手指的真实结构,对每个手指的关节数量也进行了区分。由于大拇指的关节数量只有两个,所以在构建大拇指包围盒的时候,只用了两个OBB包围盒和一个球包围盒,而对于食指、中指、无名指和小指,均使用了三个OBB包围盒202和一个球包围盒201。在实际的碰撞检测过程当中,设计了如下的碰撞检测策略:
(1)检测指尖的球包围盒201是否与雕塑模型发生碰撞;
(2)如果指尖的球包围盒没有与雕塑模型产生碰撞,则认为整个虚拟手都没有与雕塑模型产生碰撞,整个碰撞检测的过程结束;
(3)如果指尖的球包围盒与雕塑模型产生了碰撞,接下来依次检测手指关节的OBB包围盒202是否与雕塑模型产生碰撞;
这个策略可以降低算法的复杂度,因为在很多情况下,虚拟手是没有与雕塑模型发生碰撞的,这个时候只需要检测指尖的球包围盒即可,而不需要对整个虚拟手进行全面的碰撞检测。
所述步骤S4包括以下步骤:
检测到三维手势与雕塑模型的碰撞之后,需要对雕塑模型进行变形以达到雕塑的效果。在这里使用的是一种网格形变算法,具体的算法流程如下所示:
(1)获取雕塑模型的全部网格顶点,将之存放在一个Vector3数组当中;
(2)通过for循环来遍历网格中的每一个顶点;
(3)对于遍历得到每一个顶点,进行三维手势模型的碰撞检测;
(4)如果没有检测到碰撞,则网格顶点不发生变化;
(5)如果检测到了碰撞,则获取碰撞包围盒的中心坐标以及尺寸大小,同时计算出三维手势的移动方向,则网格顶点坐标向这个移动方向移动一定的距离,直到没有检测到碰撞为止;
(6)一遍for循环下来之后,雕塑模型中的网格顶点坐标有的会发生变化,有的会保持不变,统一对网格顶点进行更新一遍;
(7)更新之后重新计算网格的包围顶点,删除一些冗余的点,以及对网格进行整体的优化。可以通过对以上流程的不断循环,实现虚拟雕塑的效果。上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.基于增强现实的虚拟雕塑方法,其特征在于,包括以下步骤:
S1、手势数据的获取:通过Leap Motion传感器获取得到的,在获取的过程当中,通过Kalman滤波算法来估计手势的位姿数据;所述Kalman滤波算法中,四元数q相对于时间t的微分方程为:
其中,ωx,ωy,ωz是人手在X轴、Y轴和Z轴三个方向的角速度分量;由于xk包括了四元数状态和角速度,所以xk的格式为:
xk=[q0,k q1,k q2,k q3,k ωx,k ωy,k ωz,k] (2)
其中q0,k,q1,k,q2,k,q3,k是时刻k下的四元数分量,ωx,k,ωy,k,ωz,k是时刻k下的角速度分量;四元数分量的计算由角速度分量的测量来获得,具体的迭代过程如下:
其中t是采样时间;
所以从以上的公式得到,状态转换矩阵为:
其中Δt是数据采样时间,将矩阵Γk设为零矩阵;在整个过程当中使用角速度来估计四元数状态的,因此将过程噪声向量设置为:
wk=[0 0 0 0 wx wy wz]T (5)
其中wx,wy,wz是角速度在X,Y,Z三个方向上的测量分量;由于用Leap Motion来测量角速度的,所以观察矩阵Hk为:
Hk=[0n×p In×n] (6)
其中n是角速度向量的数量,p是四元数的数量;最后对四元数进行规范化操作,在时间k下的标准四元数为:
S2、坐标系配准以及手势建模;
S3、虚实碰撞检测;
S4、雕塑模型的形变。
2.根据权利要求1所述的基于增强现实的虚拟雕塑方法,其特征在于,步骤S2具体包括:
在Leap Motion坐标系和手掌坐标系中需要同步手势动作,而在这个过程中坐标系标定就显得特别重要;假设手掌坐标系为[xH yH zH],Leap Motion坐标系为[xL yL zL];有如下映射关系:
其中T1是从世界坐标系到手掌坐标系的转换矩阵,通过计算T1,将手掌坐标系中的点与LeapMotion坐标系中的点对应起来;
在增强现实的场景当中需要进行虚实之间的坐标系标定,即Leap Motion坐标系与雕塑模型坐标系之间的标定;虚拟环境中的雕塑模型是通过一个标记物来确定位置的,所以在真实环境当中摆放一个标记物,设这个标记物坐标系为[xM yM zM],标记物坐标系和LeapMotion坐标系之间的转换关系通过事先测量知道,假设为T2,则有如下转换关系:
设雕塑模型坐标系为[xS yS zS],雕塑模型坐标系相对于标记物坐标系也有一个转换关系,这个转换关系为设定的,设为T3,则有如下转化关系:
由以上几个等式可以得出:
通过等式(11),对虚实之间的坐标系进行配准;
在Leap Motion获取到手势数据之后,需要在增强现实的场景当中对虚拟手进行数学建模,在Leap Motion的一帧数据当中,挑选与虚拟手运动密切相关的手势数据,将之传送给增强现实场景当中。
3.根据权利要求2所述的基于增强现实的虚拟雕塑方法,其特征在于,所述与虚拟手运动密切相关的手势数据为:
(1)左右手的手掌位置坐标以及姿态方向角;
(2)左右手大拇指的各个关节的起始位置和终点位置坐标,大拇指指尖关节的姿态方向角;
(3)左右手食指的各个关节的起始位置和终点位置坐标,食指指尖关节的姿态方向角;
(4)左右手中指的各个关节的起始位置和终点位置坐标,中指指尖关节的姿态方向角;
(5)左右手无名指的各个关节的起始位置和终点位置坐标,无名指指尖关节的姿态方向角;
(6)左右手小拇指的各个关节的起始位置和终点位置坐标,小拇指指尖关节的姿态方向角;
所以,在对三维手势进行数学建模时,用基本的几何体来近似模拟三维手势,手掌部分使用的是方体,手指关节部分使用的是圆柱体,指尖部分使用的是球体;这些几何体根据Leap Motion的手势数据来不断的变换自身的位置以及姿态,从而构建起三维手势的数学模型。
4.根据权利要求1所述的基于增强现实的虚拟雕塑方法,其特征在于,所述步骤S3包括:
在虚拟手与雕塑模型的碰撞检测当中,使用了一种混合包围盒的碰撞检测算法来检测虚拟手模型的碰撞,在手指的指尖部位使用球包围盒算法,而在手指的关节部分使用OBB包围盒算法。
5.根据权利要求4所述的基于增强现实的虚拟雕塑方法,其特征在于,对于虚拟手,只考虑其手指的碰撞,手掌部分的碰撞忽略掉了;对每只虚拟手,只需构建五个手指的包围盒,考虑到人体手指的真实结构,对每个手指的关节数量也进行了区分;由于大拇指的关节数量只有两个,所以在构建大拇指包围盒的时候,只用了两个OBB包围盒和一个球包围盒,而对于食指、中指、无名指和小指,均使用了三个OBB包围盒和一个球包围盒;在实际的碰撞检测过程当中,设计了如下的碰撞检测策略:
(1)检测指尖的球包围盒是否与雕塑模型发生碰撞;
(2)如果指尖的球包围盒没有与雕塑模型产生碰撞,则认为整个虚拟手都没有与雕塑模型产生碰撞,整个碰撞检测的过程结束;
(3)如果指尖的球包围盒与雕塑模型产生了碰撞,接下来依次检测手指关节的OBB包围盒是否与雕塑模型产生碰撞。
6.根据权利要求1所述的基于增强现实的虚拟雕塑方法,其特征在于,所述步骤S4包括:检测到三维手势与雕塑模型的碰撞之后,需要对雕塑模型进行变形以达到雕塑的效果,具体包括:
(1)获取雕塑模型的全部网格顶点,将之存放在一个Vector3数组当中;
(2)通过for循环来遍历网格中的每一个顶点;
(3)对于遍历得到每一个顶点,进行三维手势模型的碰撞检测;
(4)如果没有检测到碰撞,则网格顶点不发生变化;
(5)如果检测到了碰撞,则获取碰撞包围盒的中心坐标以及尺寸大小,同时计算出三维手势的移动方向,则网格顶点坐标向这个移动方向移动设定的距离,直到没有检测到碰撞为止;
(6)一遍for循环下来之后,雕塑模型中的网格顶点坐标有的会发生变化,有的会保持不变,统一对网格顶点进行更新一遍;
(7)更新之后重新计算网格的包围顶点,删除冗余的点,以及对网格进行整体的优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810139483.1A CN108334198B (zh) | 2018-02-09 | 2018-02-09 | 基于增强现实的虚拟雕塑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810139483.1A CN108334198B (zh) | 2018-02-09 | 2018-02-09 | 基于增强现实的虚拟雕塑方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108334198A CN108334198A (zh) | 2018-07-27 |
CN108334198B true CN108334198B (zh) | 2021-05-14 |
Family
ID=62929361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810139483.1A Expired - Fee Related CN108334198B (zh) | 2018-02-09 | 2018-02-09 | 基于增强现实的虚拟雕塑方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108334198B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109308741B (zh) * | 2018-08-08 | 2023-04-07 | 长春理工大学 | 一种基于Meta2的自然交互工艺品创意设计系统 |
CN109933194A (zh) * | 2019-03-05 | 2019-06-25 | 郑州万特电气股份有限公司 | 一种混合现实环境中对虚拟目标物的交互方法 |
CN111368733B (zh) * | 2020-03-04 | 2022-12-06 | 电子科技大学 | 一种基于标签分布学习的三维手部姿态估计方法、存储介质及终端 |
CN111429569B (zh) * | 2020-03-30 | 2022-07-26 | 华南理工大学 | 一种基于5g+增强现实的人体解剖教学方法 |
CN113608619A (zh) | 2021-08-12 | 2021-11-05 | 青岛小鸟看看科技有限公司 | 增强现实中的裸手操作方法、系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930599A (zh) * | 2012-10-18 | 2013-02-13 | 浙江大学 | 一种基于双四元数的手运动的三维模拟方法 |
CN106095109A (zh) * | 2016-06-20 | 2016-11-09 | 华南理工大学 | 基于手势和语音进行机器人在线示教的方法 |
CN106406875A (zh) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN106873768A (zh) * | 2016-12-30 | 2017-06-20 | 中兴通讯股份有限公司 | 一种增强现实方法、装置及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8606657B2 (en) * | 2009-01-21 | 2013-12-10 | Edgenet, Inc. | Augmented reality method and system for designing environments and buying/selling goods |
CN104462686B (zh) * | 2014-12-05 | 2019-03-05 | 南京邮电大学 | 网络博物馆参观系统及其实现方法 |
KR20170014693A (ko) * | 2015-07-31 | 2017-02-08 | 고경환 | 영상의 배경을 이용한 증강현실 이미징 포토 시스템 |
CN106066702A (zh) * | 2016-08-03 | 2016-11-02 | 温州大学 | 一种基于多媒体数字化技术的文化空间模拟方法 |
-
2018
- 2018-02-09 CN CN201810139483.1A patent/CN108334198B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930599A (zh) * | 2012-10-18 | 2013-02-13 | 浙江大学 | 一种基于双四元数的手运动的三维模拟方法 |
CN106095109A (zh) * | 2016-06-20 | 2016-11-09 | 华南理工大学 | 基于手势和语音进行机器人在线示教的方法 |
CN106406875A (zh) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN106873768A (zh) * | 2016-12-30 | 2017-06-20 | 中兴通讯股份有限公司 | 一种增强现实方法、装置及系统 |
Non-Patent Citations (2)
Title |
---|
《基于Leap motion的三维文物虚拟拼接方法》;卢浩然;《系统仿真学报》;20151231;第27卷(第12期);第3007页至第3009页 * |
《基于手势识别的人机交互发展研究》;任雅祥;《计算机工程与设计》;20060430;第27卷(第7期);第1204页第8-13行,附图6 * |
Also Published As
Publication number | Publication date |
---|---|
CN108334198A (zh) | 2018-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334198B (zh) | 基于增强现实的虚拟雕塑方法 | |
CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
JP5695758B2 (ja) | 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム | |
JP5931215B2 (ja) | 姿勢を推定する方法及び装置 | |
Riley et al. | Enabling real-time full-body imitation: a natural way of transferring human movement to humanoids | |
Tao et al. | A novel sensing and data fusion system for 3-D arm motion tracking in telerehabilitation | |
CN108268129A (zh) | 对动作捕捉手套上的多个传感器进行校准的方法和装置及动作捕捉手套 | |
JP2014501011A5 (zh) | ||
CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及系统 | |
CN109781104B (zh) | 运动姿态确定及定位方法、装置、计算机设备及介质 | |
CN112276914B (zh) | 一种基于ar技术的工业机器人及其人机交互方法 | |
CN108734762B (zh) | 运动轨迹仿真方法及系统 | |
CN115576426A (zh) | 一种针对混合现实飞行模拟器的手部交互方法 | |
CN108279773B (zh) | 一种基于marg传感器和磁场定位技术的数据手套 | |
Li et al. | Real-time hand gesture tracking for human–computer interface based on multi-sensor data fusion | |
Maycock et al. | Robust tracking of human hand postures for robot teaching | |
Fantacci et al. | Visual end-effector tracking using a 3D model-aided particle filter for humanoid robot platforms | |
CN112183316B (zh) | 一种运动员人体姿态测量方法 | |
Milosevic et al. | A SmartPen for 3D interaction and sketch-based surface modeling | |
Teleb et al. | Data glove integration with 3d virtual environments | |
Ji et al. | Motion trajectory of human arms based on the dual quaternion with motion tracker | |
Pere et al. | Virtual mechanical assembly on a PC-based system | |
WO2019152566A1 (en) | Systems and methods for subject specific kinematic mapping | |
CN109102572A (zh) | 变电仿真vr系统中虚拟手骨骼比例推定方法 | |
Moll et al. | Ball joints for marker-less human motion capture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210514 |
|
CF01 | Termination of patent right due to non-payment of annual fee |