CN111429569B - 一种基于5g+增强现实的人体解剖教学方法 - Google Patents
一种基于5g+增强现实的人体解剖教学方法 Download PDFInfo
- Publication number
- CN111429569B CN111429569B CN202010239091.XA CN202010239091A CN111429569B CN 111429569 B CN111429569 B CN 111429569B CN 202010239091 A CN202010239091 A CN 202010239091A CN 111429569 B CN111429569 B CN 111429569B
- Authority
- CN
- China
- Prior art keywords
- model
- human anatomy
- hololens
- user
- fingertip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000003484 anatomy Anatomy 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 17
- 230000003993 interaction Effects 0.000 claims abstract description 15
- 210000000056 organ Anatomy 0.000 claims description 34
- 230000001154 acute effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000003578 releasing effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000010146 3D printing Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 108091023037 Aptamer Proteins 0.000 description 1
- 241000652704 Balta Species 0.000 description 1
- 230000000845 anti-microbial effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于5G+增强现实的人体解剖教学方法。所述方法包括以下步骤:首先,在虚拟现实空间中构造了一个虚拟的人体模型。然后,深度摄像机Leap Motion会捕捉用户的手部动作,建立一个与真实手相对应虚拟模型,可以在虚拟空间中复现真实手的动作,从而实现用户与虚拟物体之间的交互。并且,深度摄像机Leap Motion被安装在增强现实设备Hololens上,因此用户的操作空间得到了极大的扩展。
Description
技术领域
本发明属于医疗教学领域,特别涉及一种基于5G+增强现实的人体解剖教学方法。
背景技术
人体解剖学课程是医学课程的基础,旨在介绍临床背景下的核心解剖学概念。对人体解剖学的扎实理解对于其余医学课程至关重要,并且在所有医学专业中都至关重要(Kugelmann D, Stratmann L, Nühlen N, et al. An augmented reality magic mirroras additive teaching device for gross anatomy[J]. Annals of Anatomy-Anatomischer Anzeiger, 2018, 215: 71-77.)。但是由于使用实验室的成本和要求较高,目前的新兴趋势涉及更少的解剖,更多的塑化标本,更少的讲座,更多的基于计算机的多媒体学习(Mathiowetz V, Yu C H, Quake‐Rapp C. Comparison of a gross anatomylaboratory to online anatomy software for teaching anatomy[J]. Anatomicalsciences education, 2016, 9(1): 52-59.)。
整体上教学的方法可以大致分为两类,一类是不使用生物进行教学;一类是使用生物体进行教学。因此研究人员的研究方向也大致分为这两个方向。首先,在不使用生物进行教学的方向上,提出了使用三维数字动画(Hoyek N, Collet C, Di Rienzo F, et al.Effectiveness of three‐dimensional digital animation in teaching humananatomy in an authentic classroom context[J]. Anatomical sciences education,2014, 7(6): 430-437.)对学生进行教学,使学生能够更加立体地认识人体结构。但是,这种展示方法仍然受到使用平面屏幕显示3D图像的限制。也有研究人员在模型的使用上进行了改进,提出不再使用传统的模型,而是使用3D打印技术(Vaccarezza M, Papa V. 3Dprinting: a valuable resource in human anatomy education[J]. Anatomicalscience international, 2015, 90(1): 64-65.)构建更复杂模型,从而克服模型的不精细的问题。但是,这种方法更多地应用于某一个器官,当应用于整个人体时可能会导致巨大的工作量。
因为解剖学家认为用于解剖学的教具中,塑料模型最不准确,其次是塑化标本,保存完好的软尸则能最好的反应人体特征(Balta J Y, Cronin M, Cryan J F, et al. Theutility of cadaver‐based approaches for the teaching of human anatomy: Asurvey of British and Irish anatomy teachers[J]. Anatomical scienceseducation, 2017, 10(2): 137-143.)。因此,Balta等人(Balta J Y, Lamb C, Soames RW. A pilot study comparing the use of Thiel‐and formalin‐embalmed cadavers inthe teaching of human anatomy[J]. Anatomical sciences education, 2015, 8(1):86-91.)尝试了使用不同的化学药品对尸体进行防腐。尽管使用尸体可以最大限度地保证真实程度,但是用于对尸体进行防腐处理的化学物质会不同程度地改变人体组织(Balta JY, Cronin M, Cryan J F, et al. The utility of cadaver‐based approaches forthe teaching of human anatomy: A survey of British and Irish anatomy teachers[J]. Anatomical sciences education, 2017, 10(2): 137-143.)。而且,使用药品处理尸体的成本也较高。因此,虚拟现实技术和增强现实技术也被应用到人体解剖教学中,用来提升教学效率、改善教学质量。并提出了移动增强现实,即在移动设备上的增强现实。许多应用基于移动增强现实开发,使用户可以观察到三维人体模型。
发明内容
本发明的目的是为了解决上述现有技术存在的缺陷,提出了一种新的人体解剖教学方法可以实现更加自然的交互效果,同时应用增强现实技术以改善用户体验。本发明将三维人体解剖模型经过虚拟现实设备Hololens直接展示在用户眼前,而不再是通过屏幕观察模型。本发明通过Leap Motion捕捉用户手势,建立了虚拟手模型允许用户直接与三维人体解剖模型之间的交互。
本发明的目的至少通过如下技术方案之一实现。
一种基于5G+增强现实的人体解剖教学方法,包括以下步骤:
S1、将深度摄像机Leap Motion安装在虚拟现实设备Hololens上,使得用户可以不受限制地执行解剖教学,便于用户在教学过程中随意移动观察;
S2、将三维人体解剖模型在Hololens中显示,并对Leap Motion和Hololens进行配准使两个设备中的虚拟对象坐标统一;
S3、通过Leap Motion捕捉手势数据并建立可以执行对应动作的虚拟手模型映射真实手动作,手势数据通过5G网络与Hololens进行传输;
S4、执行虚拟手模型和三维人体解剖模型之间的碰撞检测实现用户与三维人体解剖模型之间的交互,帮助用户完成人体解剖教学。
进一步地,步骤S1中,在Leap Motion进行采集数据的时候,由于Leap Motion被固定在Hololens上,因此Leap Motion 是非固定的,其自身也会移动,因此导致获取到的手势移动数据可能是手移动造成的,也有可能是Leap Motion的移动造成的;为了实现移动交互,用户手部佩戴一个惯性测量单元来保证数据的准确性;惯性测量单元用于感受到操作者手的加速度和角速度,依据该数据和手的初始位置计算出手移动后的位置从而减小误差。
进一步地,步骤S2中,所述三维人体解剖模型与Hololens的位置经过预先设定,在建立三维人体解剖模型的时候,依据Hololens所处的位置建立三维人体解剖模型;通过固定Leap Motion与Hololens之间的位置,保证两个设备之间的相对位置不变,因此LeapMotion与Hololens之间的坐标转换矩阵也不变,从而将基于Leap Motion坐标系的数据转换成基于Hololens坐标系的数据,实现坐标统一。
进一步地,步骤S3中,用户的手势数据经由Leap Motion捕捉获得,因而手势数据是基于Leap Motion坐标系表示,由于步骤S1中将Leap Motion固定在Hololens上,因而可以获得Leap Motion到Hololens的坐标系转换矩阵,从而实现在虚拟空间中建立真实手的映射模型。
进一步地,所述步骤S4具体包括以下步骤:
S31、通过在虚拟手模型的指尖添加碰撞体,判定用户何时对三维人体解剖模型进行了操作;当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,便令该器官随着用户的手部移动,从而实现用户抓取人体器官的效果;
S32、在用户控制人体器官进行移动和教学的时候,需要对不同的器官进行抓取或者指示并进行讲解,因此与模型的近距离交互涉及抓取和放开两种动作,需要进行区分和判断;通过检测虚拟手模型指尖移动路径的向量与三维人体解剖模型中器官的表面之间的夹角来区分。
进一步地,当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,在碰撞点构造器官模型的单位法向量,当该单位法向量与由碰撞点指向器官表面上另一点所构成的向量为锐角时,取该单位法向量为基准向量,若为钝角则取该单位法向量的反向单位法向量为基准向量;当虚拟手模型指尖移动路径的向量与基准向量的夹角为锐角,说明指尖在靠近模型,表示抓取操作,此时与指尖的碰撞体产生碰撞的器官模型会随指尖进行运动;而当向量与基准向量为钝角时,说明指尖在远离模型,表示放开操作,此时与指尖的碰撞体产生碰撞的器官模型就会停止运动;当向量与基准向量为直角时,说明指尖划过模型,不代表任何操作,此时模型保持不动。
与现有技术相比,本发明具有以下优势:
(1)本发明将三维人体解剖模型投射到三维空间内展示给用户,用户可以进行全方位感知。这种展示方式相较于其他方法中在二维平面上展示三维模型来说,给用户的体验更加立体、直观。
(2)用户不必在手上佩戴或者持有任何其他的设备即可实现与虚拟空间中的人体解剖模型进行交互。这种交互方式使用户不再受到交互设备的束缚,交互过程更加自然。
(3)用户可以在学习或者教学过程中随意移动,并不会影响用户与模型之间的交互,或者对模型的观察。用户受到的限制更少。
附图说明
图1为本发明一种基于5G+增强现实的人体解剖教学方法的流程图。
具体实施方式
下面结合实施例和附图对本发明的具体实施做进一步的说明,但本发明的实施方式不限于此。
实施例:
一种基于5G+增强现实的人体解剖教学方法,如图1所示,包括以下步骤:
S1、将深度摄像机Leap Motion安装在虚拟现实设备Hololens上,使得用户可以不受限制地执行解剖教学,便于用户在教学过程中随意移动观察;
在Leap Motion进行采集数据的时候,由于Leap Motion被固定在Hololens上,因此Leap Motion 是非固定的,其自身也会移动,因此导致获取到的手势移动数据可能是手移动造成的,也有可能是Leap Motion的移动造成的;为了实现移动交互,用户手部佩戴一个惯性测量单元来保证数据的准确性;惯性测量单元用于感受到操作者手的加速度和角速度,依据该数据和手的初始位置计算出手移动后的位置从而减小误差。
S2、将三维人体解剖模型在Hololens中显示,并对Leap Motion和Hololens进行配准使两个设备中的虚拟对象坐标统一;
所述三维人体解剖模型与Hololens的位置经过预先设定,在建立三维人体解剖模型的时候,依据Hololens所处的位置建立三维人体解剖模型;通过固定Leap Motion与Hololens之间的位置,保证两个设备之间的相对位置不变,因此Leap Motion与Hololens之间的坐标转换矩阵也不变,从而将基于Leap Motion坐标系的数据转换成基于Hololens坐标系的数据,实现坐标统一。
S3、通过Leap Motion捕捉手势数据并建立可以执行对应动作的虚拟手模型映射真实手动作,手势数据通过5G网络与Hololens进行传输;
用户的手势数据经由Leap Motion捕捉获得,因而手势数据是基于Leap Motion坐标系表示,由于步骤S1中将Leap Motion固定在Hololens上,因而可以获得Leap Motion到Hololens的坐标系转换矩阵,从而实现在虚拟空间中建立真实手的映射模型。
S4、执行虚拟手模型和三维人体解剖模型之间的碰撞检测实现用户与三维人体解剖模型之间的交互,帮助用户完成人体解剖教学。具体包括以下步骤:
S31、通过在虚拟手模型的指尖添加碰撞体,判定用户何时对三维人体解剖模型进行了操作;当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,便令该器官随着用户的手部移动,从而实现用户抓取人体器官的效果;
S32、在用户控制人体器官进行移动和教学的时候,需要对不同的器官进行抓取或者指示并进行讲解,因此与模型的近距离交互涉及抓取和放开两种动作,需要进行区分和判断;通过检测虚拟手模型指尖移动路径的向量与三维人体解剖模型中器官的表面之间的夹角来区分。
当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,在碰撞点构造器官模型的单位法向量,当该单位法向量与由碰撞点指向器官表面上另一点所构成的向量为锐角时,取该单位法向量为基准向量,若为钝角则取该单位法向量的反向单位法向量为基准向量;当虚拟手模型指尖移动路径的向量与基准向量的夹角为锐角,说明指尖在靠近模型,表示抓取操作,此时与指尖的碰撞体产生碰撞的器官模型会随指尖进行运动;而当向量与基准向量为钝角时,说明指尖在远离模型,表示放开操作,此时与指尖的碰撞体产生碰撞的器官模型就会停止运动;当向量与基准向量为直角时,说明指尖划过模型,不代表任何操作,此时模型保持不动。
Claims (4)
1.一种基于5G+增强现实的人体解剖教学方法,其特征在于,包括以下步骤:
S1、将深度摄像机LeapMotion安装在虚拟现实设备Hololens上,使得用户可以不受限制地执行解剖教学,便于用户在教学过程中随意移动观察;
S2、将三维人体解剖模型在Hololens中显示,并对LeapMotion和Hololens进行配准使两个设备中的虚拟对象坐标统一;
S3、通过LeapMotion捕捉手势数据并建立可以执行对应动作的虚拟手模型映射真实手动作,手势数据通过5G网络与Hololens进行传输;
S4、执行虚拟手模型和三维人体解剖模型之间的碰撞检测实现用户与三维人体解剖模型之间的交互,帮助用户完成人体解剖教学;具体包括以下步骤:
S31、通过在虚拟手模型的指尖添加碰撞体,判定用户何时对三维人体解剖模型进行了操作;当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,便令该器官随着用户的手部移动,从而实现用户抓取人体器官的效果;
S32、在用户控制人体器官进行移动和教学的时候,需要对不同的器官进行抓取或者指示并进行讲解,因此与模型的近距离交互涉及抓取和放开两种动作,需要进行区分和判断;通过检测虚拟手模型指尖移动路径的向量与三维人体解剖模型中器官的表面之间的夹角来区分;
当指尖的碰撞体与三维人体解剖模型的器官产生碰撞的时候,在碰撞点构造器官模型的单位法向量,当该单位法向量与由碰撞点指向器官表面上另一点所构成的向量为锐角时,取该单位法向量为基准向量,若为钝角则取该单位法向量的反向单位法向量为基准向量;当虚拟手模型指尖移动路径的向量与基准向量的夹角为锐角,说明指尖在靠近模型,表示抓取操作,此时与指尖的碰撞体产生碰撞的器官模型会随指尖进行运动;而当向量与基准向量为钝角时,说明指尖在远离模型,表示放开操作,此时与指尖的碰撞体产生碰撞的器官模型就会停止运动;当向量与基准向量为直角时,说明指尖划过模型,不代表任何操作,此时模型保持不动。
2.根据权利要求1所述的一种基于5G+增强现实的人体解剖教学方法,其特征在于,步骤S1中,在LeapMotion进行采集数据的时候,由于LeapMotion被固定在Hololens上,因此Leap Motion是非固定的,其自身也会移动,因此导致获取到的手势移动数据可能是手移动造成的,也有可能是LeapMotion的移动造成的;为了实现移动交互,用户手部佩戴一个惯性测量单元来保证数据的准确性;惯性测量单元用于感受到操作者手的加速度和角速度,依据该数据和手的初始位置计算出手移动后的位置从而减小误差。
3.根据权利要求1所述的一种基于5G+增强现实的人体解剖教学方法,其特征在于,步骤S2中,所述三维人体解剖模型与Hololens的位置经过预先设定,在建立三维人体解剖模型的时候,依据Hololens所处的位置建立三维人体解剖模型;通过固定LeapMotion与Hololens之间的位置,保证两个设备之间的相对位置不变,因此LeapMotion与Hololens之间的坐标转换矩阵也不变,从而将基于LeapMotion坐标系的数据转换成基于Hololens坐标系的数据,实现坐标统一。
4.根据权利要求1所述的一种基于5G+增强现实的人体解剖教学方法,其特征在于,步骤S3中,用户的手势数据经由LeapMotion捕捉获得,因而手势数据是基于LeapMotion坐标系表示,由于步骤S1中将Leap Motion固定在Hololens上,因而可以获得LeapMotion到Hololens的坐标系转换矩阵,从而实现在虚拟空间中建立真实手的映射模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010239091.XA CN111429569B (zh) | 2020-03-30 | 2020-03-30 | 一种基于5g+增强现实的人体解剖教学方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010239091.XA CN111429569B (zh) | 2020-03-30 | 2020-03-30 | 一种基于5g+增强现实的人体解剖教学方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111429569A CN111429569A (zh) | 2020-07-17 |
CN111429569B true CN111429569B (zh) | 2022-07-26 |
Family
ID=71555558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010239091.XA Expired - Fee Related CN111429569B (zh) | 2020-03-30 | 2020-03-30 | 一种基于5g+增强现实的人体解剖教学方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111429569B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788390A (zh) * | 2016-04-29 | 2016-07-20 | 吉林医药学院 | 基于增强现实的医学解剖辅助教学系统 |
CN106406875A (zh) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN108334198A (zh) * | 2018-02-09 | 2018-07-27 | 华南理工大学 | 基于增强现实的虚拟雕塑方法 |
CN109243575A (zh) * | 2018-09-17 | 2019-01-18 | 华南理工大学 | 一种基于移动交互和增强现实的虚拟针灸方法及系统 |
CN109285413A (zh) * | 2018-12-10 | 2019-01-29 | 福州大学 | 一种基于vr的生物显微镜三维仿真方法 |
CN110515455A (zh) * | 2019-07-25 | 2019-11-29 | 山东科技大学 | 一种基于Leap Motion和局域网内协同的虚拟装配方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10692401B2 (en) * | 2016-11-15 | 2020-06-23 | The Board Of Regents Of The University Of Texas System | Devices and methods for interactive augmented reality |
-
2020
- 2020-03-30 CN CN202010239091.XA patent/CN111429569B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788390A (zh) * | 2016-04-29 | 2016-07-20 | 吉林医药学院 | 基于增强现实的医学解剖辅助教学系统 |
CN106406875A (zh) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
CN108334198A (zh) * | 2018-02-09 | 2018-07-27 | 华南理工大学 | 基于增强现实的虚拟雕塑方法 |
CN109243575A (zh) * | 2018-09-17 | 2019-01-18 | 华南理工大学 | 一种基于移动交互和增强现实的虚拟针灸方法及系统 |
CN109285413A (zh) * | 2018-12-10 | 2019-01-29 | 福州大学 | 一种基于vr的生物显微镜三维仿真方法 |
CN110515455A (zh) * | 2019-07-25 | 2019-11-29 | 山东科技大学 | 一种基于Leap Motion和局域网内协同的虚拟装配方法 |
Non-Patent Citations (6)
Title |
---|
"A medical training system using augmented reality";Ryosuke Umeda et al.;《ICIIBMS 2017, Track 3: Bioinformatics, Medical Imaging and Neuroscience》;20171231;第146-149页 * |
"A Novel Natural Mobile Human-Machine Interaction Method With Augmented Reality";Guanglong Du et al.;《IEEE Access》;20191104;第154317-154330页 * |
"The Virtual Surgery of Extraocular Muscles Based on Gesture Interaction";Mingxuan Chen et al.;《2016 International Conference on Modeling, Simulation and Optimization Technologies and Applications (MSOTA2016)》;20181121;第404-408页 * |
"基于Kinect手势识别的虚拟人体解剖教学系统的设计与实现";李小龙;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20150315(第03期);第1-62页 * |
"适应物体形状的虚拟手抓取";胡晨等;《中国图象图形学报》;20170531;第22卷(第5期);第663-670页 * |
Guanglong Du et al.."A Novel Natural Mobile Human-Machine Interaction Method With Augmented Reality".《IEEE Access》.2019,第154317-154330页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111429569A (zh) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Recent developments in game-based virtual reality educational laboratories using the microsoft kinect | |
CN113096252B (zh) | 一种混合增强教学场景中多移动机制融合方法 | |
CN104574267B (zh) | 引导方法和信息处理设备 | |
JP7406780B2 (ja) | ハイブリッド仮想/拡張環境を有する実践的実験室器具および実証機並びにその使用方法 | |
US20090322671A1 (en) | Touch screen augmented reality system and method | |
CN104057453A (zh) | 机器人装置以及被加工物的制造方法 | |
WO2021143294A1 (zh) | 传感器标定及数据测量方法、装置、设备、存储介质 | |
JP2014221636A (ja) | 車両インターフェース用ジェスチャ基準制御システム | |
CN110379019A (zh) | 在真实环境的视图中表示兴趣点的方法以及移动设备 | |
CN110554774A (zh) | 一种面向ar的导航式交互范式系统 | |
CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及系统 | |
CN110969687B (zh) | 一种碰撞检测方法、装置、设备和介质 | |
CN108922306A (zh) | 一种针对物理实验的裸眼3d互动系统及方法 | |
Nguyen et al. | Mixed reality system for nondestructive evaluation training | |
WO2015199470A1 (ko) | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 | |
KR20200145698A (ko) | 증강 현실 기반의 3차원 조립 퍼즐을 제공하는 방법 및 단말 | |
CN111429569B (zh) | 一种基于5g+增强现实的人体解剖教学方法 | |
CN118098033A (zh) | 基于混合现实技术的教学系统及方法 | |
CN108682282A (zh) | 一种基于ARKit框架的增强现实版化学元素周期表的交互方法 | |
JP4607656B2 (ja) | 細胞操作シミュレータ、シミュレーション方法及びプログラム | |
KR101311297B1 (ko) | 텔레프리전스 로봇을 이용한 원격 교육 제공 방법 및 장치와 이를 이용한 시스템 | |
CN112181135B (zh) | 一种基于增强现实的6-dof视触觉交互方法 | |
Liu et al. | Research on motion control system of 6-DoF robotic arm | |
CN208225113U (zh) | 一种用于vr设备仿真模拟的数据采集装置 | |
Menon et al. | Usingregistration, calibration, and robotics to build a more accurate virtual reality simulation for astronaut training and telemedicine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220726 |