CN118098033A - 基于混合现实技术的教学系统及方法 - Google Patents
基于混合现实技术的教学系统及方法 Download PDFInfo
- Publication number
- CN118098033A CN118098033A CN202311709865.0A CN202311709865A CN118098033A CN 118098033 A CN118098033 A CN 118098033A CN 202311709865 A CN202311709865 A CN 202311709865A CN 118098033 A CN118098033 A CN 118098033A
- Authority
- CN
- China
- Prior art keywords
- teaching
- model
- input device
- mixed reality
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000005516 engineering process Methods 0.000 title claims description 18
- 230000033001 locomotion Effects 0.000 claims abstract description 29
- 239000011521 glass Substances 0.000 claims description 15
- 230000009471 action Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Educational Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Educational Administration (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种混合现实虚拟教学系统及方法,采集搭建教学场景,拷贝并扫描采集教学用模型,采用双摄像头拍摄教学用模型重叠计算,合并融合教学用模型与教学场景形成教学空间,并调整模型与空间比例关系,然后计算混合现实设备移动在教学空间中产生的移动距离和角度,得到教学用模型在教学空间内的相对移动参数后,识别语音指令和捕捉手部运动轨迹信息,手部运动轨迹信息生成模型控制指令,控制指令控制虚拟教学场景中教学用模型的操作,教师佩戴混合现实设备在虚拟教学空间中模拟教学。本发明能够应用于危险高压或复杂部件的实训教学中,实现了高精度、高清晰度的零部件放大、选取、识别,具有很好的教学效果。
Description
技术领域
本发明涉及混合现实技术领域,尤其涉及基于混合现实技术的教学系统及方法。
背景技术
汽车教学过程中,需要让学生对汽车的各个部件进行了解,在讲解时,需要将汽车教具的各个零部件,进行展示、拆解、拼装,便于学生更好的认知,现有技术中,如发明专利CN112294041A公开的一种用于汽车教具零部件的教学装置,通过定位与转动机构进行展示教学,但是由于汽车零部件较多且体积较大,不方便移动,也无法进行细节展示,学生们在实际学习过程中只能观摩老师操作而无法自己动手实操,从而影响课程效果。
发明内容
发明目的:本发明的目的是提供一种基于混合现实技术能够实现高精度与高清晰度地移动、拆卸、组装和细节展示的基于UML图的混合现实虚拟教学系统及方法。
技术方案:第一方面本发明提供了一种基于混合现实技术的教学系统,包括混合现实眼镜、手部动作采集装置、上位机和用于拍摄教学用模型的鱼眼状摄像头,所述混合现实眼镜透镜采用自由曲面技术,视场角大于45°FOV,所述混合现实眼镜配置视觉处理器GPU、6自由度系统、九轴陀螺仪、26自由度手势输入系统和按键输入设备,所述26自由度手势输入系统支持双手势并行控制,并支持这26自由度手势输入系统和按键输入设备的并存及动态启用和关闭。
进一步的,所述鱼眼状摄像头对称布置于混合现实眼镜两侧前端,用于模拟人眼拍摄扫描教学用模型。
进一步的,所述鱼眼状摄像头用于重叠计算的教学用模型,包括两个100W、单个的视场角为150°FOV的1300万高清RGB camera摄像头。
进一步的,所述九轴陀螺仪包括3轴加速度计、3轴陀螺仪和3轴磁力计,把这些数据经过融合算法后,嵌于应用程序系统中。
进一步的,所述九轴陀螺仪的刷新率为1000Hz。
进一步的,系统配置Wifi和蓝牙系统,用于实现混合现实眼镜、手部动作采集装置和上位机间的交互通讯与文件传输。
进一步的,基于UML(标准建模语言)图进行模型控制,具体包括如下模块:
InputSystem(输入系统):管理所有输入设备子系统;
Device(设备):输入设备,包含多个Part及注册输入设备的API;
Register/UnRegister(设备注册/解注册):把输入设备注册到InputSystem所需要的模块,实现device的注册、解注册,只有注册过的device才能使用;
Part(部件):具体到某个输入设备中的某一部分,每个输入设备属于一个part;
Data(数据):输入设备Part所需要存储数据的数据结构,管理此输入设备Part所有数据;
Status(状态):输入设备Part状态检测、查询模块,检测此输入设备Part是否活跃,如果状态为活跃,则打开其他模块,否则其他模块关闭;
GetData(获取数据):输入设备Part数据获取模块,用于此输入设备Part数据的获取,然后填充到输入设备Part Data中;
DataProcess(数据处理):输入设备Part用于处理输入设备Part Data中数据所需要的模块,进一步会分为简单处理模块和Event处理模块,分析数据是否有Event发生并派发Event;
Simpledataprocess(简单数据处理):输入设备part数据简单处理,通过GetData模块获取到的数据,计算出某些中间数据;
Eventdataprocess(对象数据处理):输入设备Part的Event处理模块,用于分析Key按键及其他数据,检测到Event则派发Event;
TargeDectect(目标检测):输入设备Part用于检测目标物体的模块,主要通过射线或者Collider检测包含Collider的目标物体,检测到目标物体后,输入设备PartDataProcess会给目标物体派发的Event;
UI(用户界面):输入设备Part所需要UI显示;
Model(模型):模型上挂载的脚本,控制模型的行为;
Keyevent(按键对象):用于分析Key按键及其数据;
Event(对象):对象处理模块,分析数据是否有对象的位状态发生,并派发Event。
进一步的,采用ShadowSDK软件中的InputSystem输入子系统负责处理输入设备和输出执行动作,负责包括各种输入设备的数据收集,数据处理,目标的检测,事件的派发;InputSystem输入子系统同时支持6自由度系统数据、按键输入设备和自由度手势输入系统输入,支持26自由度手势输入系统和按键输入设备并存及动态启用和关闭;InputSystem输入子系统提取各种输入设备共性,进行统一管理。
第二方面本发明提供了一种基于混合现实技术的汽车零部件装配教学方法包括以下步骤:
S1:采集搭建教学场景;
S2:拷贝和/或扫描采集教学用模型;
S3:采用双摄像头拍摄教学用模型重叠计算;
S4:合并融合教学用模型与教学场景形成教学空间,并调整模型与空间比例关系;
S5:计算混合现实设备移动在教学空间中产生的移动距离和角度,得到教学用模型在教学空间内的相对移动参数;
S6:识别交互信息,所述交互信息包括语音指令和捕捉手部运动轨迹信息,所述手部运动轨迹信息生成模型控制指令,控制指令控制虚拟教学场景中教学用模型的操作;
S7:教师佩戴混合现实设备在虚拟教学空间中模拟教学,在模拟教学空间中产生的教学过程生成视频并保存上传至服务器。
进一步的,所述手部运动轨迹信息包括教学用模型的移动、拆卸、组装、细节展示。
有益效果:与现有技术相比,本发明具有如下显著优点:本发明基于混合现实技术通过拷贝和拍摄扫描等方式录入教学用模具,高精度与高清晰度地移动、拆卸、组装和细节展示汽车零部件模型,教学带入感强,学生可以反复动手实操,从而激发学生的学习兴趣,提升学习效果。
附图说明
图1是本发明的系统功能示意图;
图2是本发明的系统的UML图;
图3是本发明的系统的手势关节表现示意图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
第一方面本发明提供了一种基于混合现实技术的教学系统,如图所示,包括混合现实眼镜、手部动作采集装置、上位机和用于拍摄教学用模型的鱼眼状摄像头,所述混合现实眼镜透镜采用自由曲面技术,视场角大于45°FOV,所述混合现实眼镜配置视觉处理器GPU、6自由度系统、九轴陀螺仪、26自由度手势输入系统和按键输入设备,所述26自由度手势输入系统支持双手势并行控制,并支持这26自由度手势输入系统和按键输入设备的并存及动态启用和关闭。鱼眼状摄像头对称布置于混合现实眼镜两侧前端,用于模拟人眼拍摄扫描教学用模型。鱼眼状摄像头用于重叠计算的教学用模型,包括两个100W、单个的视场角为150°FOV的1300万高清RGB camera摄像头。九轴陀螺仪包括3轴加速度计、3轴陀螺仪和3轴磁力计,把这些数据经过融合算法后,嵌于应用程序系统中。九轴陀螺仪的刷新率为1000Hz。系统配置Wifi和蓝牙系统,用于实现混合现实眼镜、手部动作采集装置和上位机间的交互通讯与文件传输。
本系统采用ShadowSDK软件中的InputSystem输入子系统负责处理输入设备和输出执行动作,负责各种输入设备的数据收集,数据处理,目标的检测,事件的派发等。
InputSystem输入子系统同时支持系统中的6自由度系统数据、按键输入设备和26自由度手势输入系统手势输入,支持这两种设备的并存及动态启用和关闭。InputSystem输入子系统提取各种输入设备共性,进行统一管理,如用输入设备进行拖拽,点击等Event操作。
并且本系统基于UML图进行模型控制,具体包括如下模块及关联关系:
InputSystem:管理所有输入设备子系统,如注册,解注册某个输入设备等;
Device:输入设备,可包含多个Part及注册输入设备的API;
Register/UnRegister:把输入设备注册到InputSystem所需要的模块,实现device的注册、解注册,只有注册过的device才能使用;
Part:具体到某个输入设备中的某一部分,如HandShank输入设备中的第一个手柄,26DofGesture26Dof输入设备中的右手等,每个输入设备属于一个part;
Data:输入设备Part所需要存储数据的数据结构,管理此输入设备Part所有数据;
Status:输入设备Part状态检测、查询模块,检测此输入设备Part是否活跃,如果状态为活跃,则打开其他模块,否则其他模块关闭;
GetData:输入设备Part数据获取模块,用于此输入设备Part数据的获取,然后填充到输入设备Part Data中;
DataProcess:输入设备Part用于处理输入设备Part Data中数据所需要的模块,进一步会分为简单处理模块和Event处理模块,分析数据是否有Event发生并派发Event;
Simpledataprocess:输入设备part数据简单处理,通过GetData模块获取到的数据,计算出某些中间数据;
Eventdataprocess:输入设备Part的Event处理模块,用于分析Key按键及其他数据,检测到Event则派发Event;
TargeDectect:输入设备Part用于检测目标物体的模块,主要通过射线或者Collider检测包含Collider的目标物体,检测到目标物体后,输入设备Part DataProcess会给目标物体派发的Event;
UI:输入设备Part所需要UI显示;
Model:模型上挂载的脚本,控制模型的行为;
Keyevent:用于分析Key按键及其数据;
Event:对象处理模块,分析数据是否有对象的位状态发生,并派发Event。
为实现高精度、无干扰的操作模型,本实施例中输入设备控制采用26自由度手势输入系统,26自由度手势输入系统输入设备是由所支持的单手26自由度手势组成,并支持双手势并行控制。
双手势的手势关节表现形式如图3,模型控制中包括Gesture26Dof输入设备的两个Part,每个Part包含的手势关节如上图中的圆球体,表示每个手指上的每个关节,可以通过API控制显示。通过眼镜设备所支持的26自由度手势输入系统进行抓取或者捏取动作,触发KeyEvent。
输入设备控制采用Gesture26Dof,较之前采用双手6Dof系统,在不影响动作响应时间前提下,在关键性能指标上有明显优势。与之前的性能对比如下表:
手势控制方法 | 抓取模型识别尺寸 | 螺栓正反转分辨率 |
Gesture6Dof(双手) | 1.8mm | 56% |
本实施例 | 1mm | 97% |
表1
第二方面本发明提供了一种基于混合现实技术的汽车零部件装配教学方法包括以下步骤:
S1:采集搭建教学场景;
S2:拷贝并扫描采集教学用模型;
S3:采用双摄像头拍摄教学用模型重叠计算;
S4:合并融合教学用模型与教学场景形成教学空间,并调整模型与空间比例关系;
S5:计算混合现实设备移动在教学空间中产生的移动距离和角度,得到教学用模型在教学空间内的相对移动参数;
S6:识别交互信息,所述交互信息包括语音指令和捕捉手部运动轨迹信息,所述手部运动轨迹信息生成模型控制指令,控制指令控制虚拟教学场景中教学用模型的操作;
S7:教师佩戴混合现实设备在虚拟教学空间中模拟教学,在模拟教学空间中产生的教学过程生成视频并保存上传至服务器。
Claims (10)
1.一种基于混合现实技术的教学系统,其特征在于,包括混合现实眼镜、手部动作采集装置、上位机和用于拍摄教学用模型的鱼眼状摄像头,所述混合现实眼镜透镜采用自由曲面技术,视场角大于45°FOV,所述混合现实眼镜配置视觉处理器GPU、6自由度系统、九轴陀螺仪、26自由度手势输入系统和按键输入设备,所述26自由度手势输入系统支持双手势并行控制,并支持这26自由度手势输入系统和按键输入设备的并存及动态启用和关闭。
2.根据权利要求3所述的一种基于混合现实技术的教学系统,其特征在于,所述鱼眼状摄像头对称布置于混合现实眼镜两侧前端。
3.根据权利要求3所述的一种基于混合现实技术的教学系统,其特征在于,所述鱼眼状摄像头用于重叠计算的教学用模型,包括两个100W、单个的视场角为150°FOV的1300万高清RGB camera摄像头。
4.根据权利要求3所述的一种基于混合现实技术的教学系统,其特征在于,所述九轴陀螺仪包括3轴加速度计、3轴陀螺仪和3轴磁力计。
5.根据权利要求3所述的一种基于混合现实技术的教学系统,其特征在于,所述九轴陀螺仪的刷新率为1000Hz。
6.根据权利要求3所述的一种基于混合现实技术的教学系统,其特征在于,系统配置Wifi和蓝牙系统,用于实现混合现实眼镜、手部动作采集装置和上位机间的交互通讯与文件传输。
7.根据权利要求1所述的一种基于混合现实技术的教学系统,其特征在于,输入设备模型控制的UML图具体包括如下模块:
InputSystem:管理所有输入设备子系统;
Device:输入设备,包含多个Part及注册输入设备的API;
Register/UnRegister:把输入设备注册到InputSystem所需要的模块,实现device的注册、解注册,只有注册过的device才能使用;
Part:具体到某个输入设备中的某一部分,每个输入设备属于一个part;
Data:输入设备Part所需要存储数据的数据结构,管理此输入设备Part所有数据;
Status:输入设备Part状态检测、查询模块,检测此输入设备Part是否活跃,如果状态为活跃,则打开其他模块,否则其他模块关闭;
GetData:输入设备Part数据获取模块,用于此输入设备Part数据的获取,然后填充到输入设备Part Data中;
DataProcess:输入设备Part用于处理输入设备Part Data中数据所需要的模块,进一步会分为简单处理模块和Event处理模块,分析数据是否有Event发生并派发Event;
Simpledataprocess:输入设备part数据简单处理,通过GetData模块获取到的数据,计算出某些中间数据;
Eventdataprocess:输入设备Part的Event处理模块,用于分析Key按键及其他数据,检测到Event则派发Event;
TargeDectect:输入设备Part用于检测目标物体的模块,主要通过射线或者Collider检测包含Collider的目标物体,检测到目标物体后,输入设备Part DataProcess会给目标物体派发的Event;
UI:输入设备Part所需要UI显示;
Model:模型上挂载的脚本,控制模型的行为;
Keyevent:用于分析Key按键及其数据;
Event:对象处理模块,分析数据是否有对象的位状态发生,并派发Event。
8.根据权利要求7所述的一种基于混合现实技术的教学系统,其特征在于,采用ShadowSDK软件中的InputSystem输入子系统负责处理输入设备和输出执行动作,负责包括各种输入设备的数据收集,数据处理,目标的检测,事件的派发;InputSystem输入子系统同时支持6自由度系统数据、按键输入设备和自由度手势输入系统输入,支持26自由度手势输入系统和按键输入设备并存及动态启用和关闭;InputSystem输入子系统提取各种输入设备共性,进行统一管理。
9.一种基于混合现实技术的教学方法,其特征在于,包括以下步骤:
S1:采集搭建教学场景;
S2:拷贝和/或扫描采集教学用模型;
S3:采用双摄像头拍摄教学用模型重叠计算;
S4:合并融合教学用模型与教学场景形成教学空间,并调整模型与空间比例关系;
S5:计算混合现实设备移动在教学空间中产生的移动距离和角度,得到教学用模型在教学空间内的相对移动参数;
S6:识别交互信息,所述交互信息包括语音指令和捕捉手部运动轨迹信息,所述手部运动轨迹信息生成模型控制指令,控制指令控制虚拟教学场景中教学用模型的操作;
S7:教师佩戴混合现实设备在虚拟教学空间中模拟教学,在模拟教学空间中产生的教学过程生成视频并保存上传至服务器。
10.根据权利要求1所述的一种基于混合现实技术的教学方法,其特征在于,所述手部运动轨迹信息包括教学用模型的移动、拆卸、组装、细节展示。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2022116119763 | 2022-12-14 | ||
CN202211611976.3A CN115938178A (zh) | 2022-12-14 | 2022-12-14 | 基于混合现实技术的汽车零部件装配教学方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118098033A true CN118098033A (zh) | 2024-05-28 |
Family
ID=86553715
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211611976.3A Withdrawn CN115938178A (zh) | 2022-12-14 | 2022-12-14 | 基于混合现实技术的汽车零部件装配教学方法及系统 |
CN202311709865.0A Pending CN118098033A (zh) | 2022-12-14 | 2023-12-13 | 基于混合现实技术的教学系统及方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211611976.3A Withdrawn CN115938178A (zh) | 2022-12-14 | 2022-12-14 | 基于混合现实技术的汽车零部件装配教学方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN115938178A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117391822B (zh) * | 2023-12-11 | 2024-03-15 | 中汽传媒(天津)有限公司 | 一种汽车营销的vr虚拟现实数字展示方法及系统 |
-
2022
- 2022-12-14 CN CN202211611976.3A patent/CN115938178A/zh not_active Withdrawn
-
2023
- 2023-12-13 CN CN202311709865.0A patent/CN118098033A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115938178A (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rautaray | Real time hand gesture recognition system for dynamic applications | |
US20090322671A1 (en) | Touch screen augmented reality system and method | |
US20130010071A1 (en) | Methods and systems for mapping pointing device on depth map | |
CN106530894A (zh) | 一种采用增强现实技术的飞行训练器虚拟平显方法及系统 | |
CN105374251A (zh) | 一种基于沉浸式输入、输出设备的矿用虚拟现实培训系统 | |
CN102541256A (zh) | 具有视觉反馈的位置知晓姿势作为输入方法 | |
CN118098033A (zh) | 基于混合现实技术的教学系统及方法 | |
CN107122045A (zh) | 一种基于混合现实技术的虚拟人机示教系统及方法 | |
US20170177077A1 (en) | Three-dimension interactive system and method for virtual reality | |
CN104182035A (zh) | 一种操控电视应用程序的方法和系统 | |
CN115933868A (zh) | 翻转讲台的立体综合教学场系统及其工作方法 | |
CN107861629A (zh) | 一种基于vr的教学实训方法 | |
Bednarz et al. | Distributed collaborative immersive virtual reality framework for the mining industry | |
Zaldívar-Colado et al. | A mixed reality for virtual assembly | |
Shao et al. | A natural interaction method of multi-sensory channels for virtual assembly system of power transformer control cabinet | |
CN106681506B (zh) | 一种终端设备中非vr应用的交互方法及终端设备 | |
Placidi et al. | Data integration by two-sensors in a LEAP-based Virtual Glove for human-system interaction | |
Henderson | Augmented reality interfaces for procedural tasks | |
Lu et al. | Classification, application, challenge, and future of midair gestures in augmented reality | |
CN112037090B (zh) | 基于vr技术和6dof姿态跟踪的知识教育系统 | |
CN103700128B (zh) | 移动设备及其增强显示方法 | |
Chen et al. | RL-LABEL: A Deep Reinforcement Learning Approach Intended for AR Label Placement in Dynamic Scenarios | |
CN117292601A (zh) | 一种虚拟现实手语教育系统 | |
CN202749066U (zh) | 一种非接触式物展交互系统 | |
KR20180036205A (ko) | 시뮬레이션용 스마트 테이블 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |