CN108805766A - 一种ar体感沉浸式教学系统和方法 - Google Patents

一种ar体感沉浸式教学系统和方法 Download PDF

Info

Publication number
CN108805766A
CN108805766A CN201810570821.7A CN201810570821A CN108805766A CN 108805766 A CN108805766 A CN 108805766A CN 201810570821 A CN201810570821 A CN 201810570821A CN 108805766 A CN108805766 A CN 108805766A
Authority
CN
China
Prior art keywords
user
sensings
host computer
image information
software
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810570821.7A
Other languages
English (en)
Other versions
CN108805766B (zh
Inventor
陈勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810570821.7A priority Critical patent/CN108805766B/zh
Publication of CN108805766A publication Critical patent/CN108805766A/zh
Application granted granted Critical
Publication of CN108805766B publication Critical patent/CN108805766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了AR体感沉浸式教学系统,包括电脑主机、投影仪、投影屏幕、摄像头和摄像平台;电脑主机启动AR体感软件;摄像头拍摄用户影像信息并发送到电脑主机;电脑主机运行AR体感软件对接收的用户影像信息进行解析,生成用户感应区域;AR体感软件根据应用逻辑在用户感应区域周围生成虚拟物品;电脑主机将虚拟物品和用户影像信息混合并发送到投影仪;通过体感技术在AR增强现实中产生交互;通过体感技术在AR增强现实中产生交互,其动作数据被所述AR体感软件解析,并控制所述AR体感软件产生相应的反馈,实现互动,克服了传统的触摸屏单一的交互方式;多个用户可以同时站在所述摄像平台上,实现多个人同时操作。

Description

一种AR体感沉浸式教学系统和方法
技术领域
本发明涉及AR应用技术领域,具体涉及一种AR体感沉浸式教学系统和方法。
背景技术
本方案中涉及的两个主要技术为AR和体感操作。AR增强现实Augmented Reality,简称AR,是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。它可以将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息,例如视觉信息、声音、味道、触觉,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。AR技术应用在教育领域后,学生可以与跃出屏幕之外的事物互动,更加直观、更加立体、更加趣味地学习知识,真正实现寓教于乐。目前苹果、谷歌以及BAT在内的全球科技巨头都已经投身AR领域,未来AR将形成多元化的商业模式,而其中教育类AR应用也将成为其中重要组成部分。
体感技术是指用户直接使用肢体动作,与周边的装置或环境互动,而无需使用任何复杂的控制设备,便可让人们身历其境地与内容做互动。依照体感方式与原理的不同,主要可分为三大类:惯性感测、光学感测以及惯性及光学感测。在本套解决方案中特指光学感测。
目前市场上普遍存在的AR教育应用大都是针对书籍、卡片的,通过智能设备拍摄传统书刊、画册后,在其上叠加显示增强现实画面。这种形式非常单调,缺乏互动性,用户的感觉仅仅是通过一种特殊的方式在纸张背景上播放了一段视频而已。同时,这些基于手机或pad的产品,唯一的显示终端是手机或pad自身的屏幕,只能在近距离内限定一个用户一个设备的观看,无法实现多人或者是大场景下的应用。
发明内容
本发明的目的在于提供一种AR体感沉浸式教学系统和方法,用以解决现有AR不能实现互动,使用范围小的问题。
为实现上述目的,本发明的技术方案为
一种AR体感沉浸式教学系统,包括电脑主机、投影仪、投影屏幕、摄像头和摄像平台;
所述摄像平台用于在采集用户视频信息时限定用户的活动区域;
所述电脑主机用于运行AR体感软件对采集的用户数据进行处理件并对投影仪、投影屏幕和摄像头进行控制以实现完整的AR体感交互方案;
所述摄像头用于实时采集站立在所述摄像平台上的用户的视频信息并发送到所述电脑主机进行数据处理;
所述投影仪用于接收所述电脑主机发送的经过所述AR体感软件处理的用户数据并投影到所述投影屏幕;
所述投影屏幕用于接收并显示所述投影仪发送的投影信息。
一种AR体感沉浸式教学方法,用于所述AR体感沉浸式教学系统,包括步骤:
步骤1:所述电脑主机启动所述AR体感软件;
步骤2:所述摄像头拍摄用户影像信息并发送到所述电脑主机;
步骤3:所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;
步骤4:所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;
步骤5:所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪;
步骤6:通过体感技术在AR增强现实中产生交互。
其中,所述电脑主机启动AR体感软件包括:
步骤1.1:在所述AR体感软件内预设教育信息,所述教育信息包括授课doc、ppt和html文档;
步骤1.2:启动所述AR体感软件。
其中,所述摄像头拍摄用户影像信息并发送到所述电脑主机包括:
当课程内容涉及AR内容时,用户站立到所述摄像平台上,所述摄像头采集用户影像信息并发送到所述电脑主机,同时所述用户影像信息经所述投影仪显示在所述显示屏上;所述显示屏根据所述影像信息的位置发出提醒信息提示用户移动到正确位置。
其中,所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生用户感应区域包括:
步骤3.1:所述摄像头启动后先拍摄一组特定区域的白数据,当用户根据所述提醒信息移动到所述特定区域时,通过对比所述白数据被覆盖的比例来确定用户位置是否正确;当所述白数据被覆盖率超过70%,即可判定用户位置有效;所述白数据是被用作对比基础的初始数据;
步骤3.2:通过对所述特定区域内的所述用户影像信息进行分析,并将分析结果与图像数据库中的头、眼、嘴、手、脚图像信息进行对比,以确定用户感应区域数据和虚拟世界中的世界座标位置。
其中,所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪包括:
步骤5.1:所述虚拟物品通过增强现实技术叠加显示在所述用户影像信息上之后输出给所述投影仪;
步骤5.2:所述投影仪将混合叠加后的所述虚拟物品和所述用户影像信息投影显示在所述投影屏幕上。
其中,所述通过体感技术在AR增强现实中产生交互包括:
步骤6.1:所述AR体感软件持续解析所述用户影像信息,并判断解析结果中是否存在体感操作指令;
步骤6.2:所述AR体感软件计算所述体感操作指令的功能,所述用户影像信息与所述虚拟物品发生的交互动作,并将所述交互动作通过所述投影仪显示在所述投影屏幕上。
其中,所述用户影像信息与所述虚拟物品发生的交互动作包括:
所述用户影像信息发出用户指令与所述虚拟物品产生碰撞;
所述AR体感软件的应用逻辑确认所述用户指令,并做出反馈。
本发明具有如下优点:
本发明的AR体感沉浸式教学系统,包括电脑主机、投影仪、投影屏幕、摄像头和摄像平台;
所述摄像平台用于在采集用户视频信息时限定用户的活动区域;
所述电脑主机用于运行AR体感软件对采集的用户数据进行处理件并对投影仪、投影屏幕和摄像头进行控制以实现完整的AR体感交互方案;
所述摄像头用于实时采集站立在所述摄像平台上的用户的视频信息并发送到所述电脑主机进行数据处理;
所述投影仪用于接收所述电脑主机发送的经过所述AR体感软件处理的用户数据并投影到所述投影屏幕;
所述投影屏幕用于接收并显示所述投影仪发送的投影信息;
本发明的AR体感沉浸式教学方法,用于所述AR体感沉浸式教学系统,包括步骤:
步骤1:所述电脑主机启动所述AR体感软件;
步骤2:所述摄像头拍摄用户影像信息并发送到所述电脑主机;
步骤3:所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;
步骤4:所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;
步骤5:所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪;
步骤6:通过体感技术在AR增强现实中产生交互;
通过所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;所述虚拟物品可以增强带入感,使得用户有身临其境的感觉;
通过体感技术在AR增强现实中产生交互,当用户动作时,其动作数据被所述AR体感软件解析,并控制所述AR体感软件产生相应的反馈,实现互动,克服了传统的触摸屏单一的交互方式;
在使用时,多个用户可以同时站在所述摄像平台上,由所述摄像头采集多个用户影像信息并由所述AR体感软件进行分析处理,实现多个人同时操作,扩大使用范围。
附图说明
图1是本发明的AR体感沉浸式教学系统的功能模块图。
图2是本发明的AR体感沉浸式教学方法的流程图。
图3是本发明的户影像信息解析过程示意图。
图4是本发明的用户影像和虚拟物品的示意图。
图5是本发明的用户影像发出指令与虚拟物品产生碰撞的示意图。
图6是本发明的应用逻辑确认用户指令虚拟物品做出反馈的示意图。
具体实施方式
以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例1
本实施例1的AR体感沉浸式教学系统,包括电脑主机、投影仪、投影屏幕、摄像头和摄像平台;
所述摄像平台用于在采集用户视频信息时限定用户的活动区域;
所述电脑主机用于运行AR体感软件对采集的用户数据进行处理件并对投影仪、投影屏幕和摄像头进行控制以实现完整的AR体感交互方案;
所述摄像头用于实时采集站立在所述摄像平台上的用户的视频信息并发送到所述电脑主机进行数据处理;
所述投影仪用于接收所述电脑主机发送的经过所述AR体感软件处理的用户数据并投影到所述投影屏幕;
所述投影屏幕用于接收并显示所述投影仪发送的投影信息。
通过所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;所述虚拟物品可以增强带入感,使得用户有身临其境的感觉;
通过体感技术在AR增强现实中产生交互,当用户动作时,其动作数据被所述AR体感软件解析,并控制所述AR体感软件产生相应的反馈,实现互动,克服了传统的触摸屏单一的交互方式;
在使用时,多个用户可以同时站在所述摄像平台上,由所述摄像头采集多个用户影像信息并由所述AR体感软件进行分析处理,实现多个人同时操作,扩大使用范围。
实施例2
进一步,在实施例1的基础上:
本实施例2的AR体感沉浸式教学方法,用于所述AR体感沉浸式教学系统,包括步骤:
步骤1:所述电脑主机启动所述AR体感软件;
步骤2:所述摄像头拍摄用户影像信息并发送到所述电脑主机;
步骤3:所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;
步骤4:所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;
步骤5:所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪;
步骤6:通过体感技术在AR增强现实中产生交互。
所述电脑主机启动AR体感软件包括:
步骤1.1:在所述AR体感软件内预设教育信息,所述教育信息包括授课doc、ppt和html文档;
步骤1.2:启动所述AR体感软件。
所述摄像头拍摄用户影像信息并发送到所述电脑主机包括:
当课程内容涉及AR内容时,用户站立到所述摄像平台上,所述摄像头采集用户影像信息并发送到所述电脑主机,同时所述用户影像信息经所述投影仪显示在所述显示屏上;所述显示屏根据所述影像信息的位置发出提醒信息提示用户移动到正确位置。
所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生用户感应区域包括:
步骤3.1:所述摄像头启动后先拍摄一组特定区域的白数据,当用户根据所述提醒信息移动到所述特定区域时,通过对比所述白数据被覆盖的比例来确定用户位置是否正确;当所述白数据被覆盖率超过70%,即可判定用户位置有效;所述白数据是被用作对比基础的初始数据;
步骤3.2:通过对所述特定区域内的所述用户影像信息进行分析,并将分析结果与图像数据库中的头、眼、嘴、手、脚图像信息进行对比,以确定用户感应区域数据和虚拟世界中的世界座标位置。
所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪包括:
步骤5.1:所述虚拟物品通过增强现实技术叠加显示在所述用户影像信息上之后输出给所述投影仪;
步骤5.2:所述投影仪将混合叠加后的所述虚拟物品和所述用户影像信息投影显示在所述投影屏幕上。
所述通过体感技术在AR增强现实中产生交互包括:
步骤6.1:所述AR体感软件持续解析所述用户影像信息,并判断解析结果中是否存在体感操作指令;
步骤6.2:所述AR体感软件计算所述体感操作指令的功能,所述用户影像信息与所述虚拟物品发生的交互动作,并将所述交互动作通过所述投影仪显示在所述投影屏幕上。
所述用户影像信息与所述虚拟物品发生的交互动作包括:
所述用户影像信息发出用户指令与所述虚拟物品产生碰撞;
所述AR体感软件的应用逻辑确认所述用户指令,并做出反馈。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (8)

1.一种AR体感沉浸式教学系统,其特征在于,包括电脑主机、投影仪、投影屏幕、摄像头和摄像平台;
所述摄像平台用于在采集用户视频信息时限定用户的活动区域;
所述电脑主机用于运行AR体感软件对采集的用户数据进行处理件并对投影仪、投影屏幕和摄像头进行控制以实现完整的AR体感交互方案;
所述摄像头用于实时采集站立在所述摄像平台上的用户的视频信息并发送到所述电脑主机进行数据处理;
所述投影仪用于接收所述电脑主机发送的经过所述AR体感软件处理的用户数据并投影到所述投影屏幕;
所述投影屏幕用于接收并显示所述投影仪发送的投影信息。
2.一种AR体感沉浸式教学方法,用于权利要求1所述AR体感沉浸式教学系统,其特征在于,包括步骤:
步骤1:所述电脑主机启动所述AR体感软件;
步骤2:所述摄像头拍摄用户影像信息并发送到所述电脑主机;
步骤3:所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域;
步骤4:所述AR体感软件根据应用逻辑在所述用户感应区域周围生成虚拟物品;
步骤5:所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪;
步骤6:通过体感技术在AR增强现实中产生交互。
3.根据权利要求2所述AR体感沉浸式教学系统,其特征在于,所述电脑主机启动AR体感软件包括:
步骤1.1:在所述AR体感软件内预设教育信息,所述教育信息包括授课doc、ppt和html文档;
步骤1.2:启动所述AR体感软件。
4.根据权利要求3所述AR体感沉浸式教学系统,其特征在于,所述摄像头拍摄用户影像信息并发送到所述电脑主机包括:
当课程内容涉及AR内容时,用户站立到所述摄像平台上,所述摄像头采集用户影像信息并发送到所述电脑主机,同时所述用户影像信息经所述投影仪显示在所述显示屏上;所述显示屏根据所述影像信息的位置发出提醒信息提示用户移动到正确位置。
5.根据权利要求4所述AR体感沉浸式教学系统,其特征在于,所述电脑主机运行所述AR体感软件对接收的所述用户影像信息进行解析,生成用户感应区域包括:
步骤3.1:所述摄像头启动后先拍摄一组特定区域的白数据,当用户根据所述提醒信息移动到所述特定区域时,通过对比所述白数据被覆盖的比例来确定用户位置是否正确;当所述白数据被覆盖率超过70%,即可判定用户位置有效;所述白数据是被用作对比基础的初始数据;
步骤3.2:通过对所述特定区域内的所述用户影像信息进行分析,并将分析结果与图像数据库中的头、眼、嘴、手、脚图像信息进行对比,以确定用户感应区域数据和虚拟世界中的世界座标位置。
6.根据权利要求5所述AR体感沉浸式教学系统,其特征在于,所述电脑主机将所述虚拟物品和所述用户影像信息混合并发送到所述投影仪包括:
步骤5.1:所述虚拟物品通过增强现实技术叠加显示在所述用户影像信息上之后输出给所述投影仪;
步骤5.2:所述投影仪将混合叠加后的所述虚拟物品和所述用户影像信息投影显示在所述投影屏幕上。
7.根据权利要求6所述AR体感沉浸式教学系统,其特征在于,所述通过体感技术在AR增强现实中产生交互包括:
步骤6.1:所述AR体感软件持续解析所述用户影像信息,并判断解析结果中是否存在体感操作指令;
步骤6.2:所述AR体感软件计算所述体感操作指令的功能,所述用户影像信息与所述虚拟物品发生的交互动作,并将所述交互动作通过所述投影仪显示在所述投影屏幕上。
8.根据权利要求7所述AR体感沉浸式教学系统,其特征在于,所述用户影像信息与所述虚拟物品发生的交互动作包括:
所述用户影像信息发出用户指令与所述虚拟物品产生碰撞;
所述AR体感软件的应用逻辑确认所述用户指令,并做出反馈。
CN201810570821.7A 2018-06-05 2018-06-05 一种ar体感沉浸式教学系统和方法 Active CN108805766B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810570821.7A CN108805766B (zh) 2018-06-05 2018-06-05 一种ar体感沉浸式教学系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810570821.7A CN108805766B (zh) 2018-06-05 2018-06-05 一种ar体感沉浸式教学系统和方法

Publications (2)

Publication Number Publication Date
CN108805766A true CN108805766A (zh) 2018-11-13
CN108805766B CN108805766B (zh) 2022-09-02

Family

ID=64088704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810570821.7A Active CN108805766B (zh) 2018-06-05 2018-06-05 一种ar体感沉浸式教学系统和方法

Country Status (1)

Country Link
CN (1) CN108805766B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615346A (zh) * 2019-01-29 2019-04-12 杨晴 一种远程虚拟办公系统
CN109917907A (zh) * 2019-01-29 2019-06-21 长安大学 一种基于卡片的动态故事板交互方法
CN110675666A (zh) * 2019-09-20 2020-01-10 陈红梅 一种教育培训ar智能系统
CN111275731A (zh) * 2020-01-10 2020-06-12 杭州师范大学 面向中学实验的投影式实物交互桌面系统和方法
CN112732084A (zh) * 2021-01-13 2021-04-30 西安飞蝶虚拟现实科技有限公司 基于虚拟现实技术未来课堂的互动系统及方法
CN113253838A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 基于ar的视频教学方法、电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
CN104102412A (zh) * 2014-07-24 2014-10-15 央数文化(上海)股份有限公司 一种基于增强现实技术的手持式阅览设备及其方法
CN204965778U (zh) * 2015-09-18 2016-01-13 华中师范大学 一种基于虚拟现实与视觉定位的幼儿教学系统
CN206379004U (zh) * 2016-12-22 2017-08-04 贵阳市乌当区智拓创客教育科技有限公司 一种基于vr技术的沉浸式教学系统
CN107102726A (zh) * 2017-03-14 2017-08-29 深圳市吉美文化科技有限公司 一种基于ar的学前教育系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
CN104102412A (zh) * 2014-07-24 2014-10-15 央数文化(上海)股份有限公司 一种基于增强现实技术的手持式阅览设备及其方法
CN204965778U (zh) * 2015-09-18 2016-01-13 华中师范大学 一种基于虚拟现实与视觉定位的幼儿教学系统
CN206379004U (zh) * 2016-12-22 2017-08-04 贵阳市乌当区智拓创客教育科技有限公司 一种基于vr技术的沉浸式教学系统
CN107102726A (zh) * 2017-03-14 2017-08-29 深圳市吉美文化科技有限公司 一种基于ar的学前教育系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615346A (zh) * 2019-01-29 2019-04-12 杨晴 一种远程虚拟办公系统
CN109917907A (zh) * 2019-01-29 2019-06-21 长安大学 一种基于卡片的动态故事板交互方法
CN109917907B (zh) * 2019-01-29 2022-05-03 长安大学 一种基于卡片的动态故事板交互方法
CN110675666A (zh) * 2019-09-20 2020-01-10 陈红梅 一种教育培训ar智能系统
CN111275731A (zh) * 2020-01-10 2020-06-12 杭州师范大学 面向中学实验的投影式实物交互桌面系统和方法
CN111275731B (zh) * 2020-01-10 2023-08-18 杭州师范大学 面向中学实验的投影式实物交互桌面系统和方法
CN112732084A (zh) * 2021-01-13 2021-04-30 西安飞蝶虚拟现实科技有限公司 基于虚拟现实技术未来课堂的互动系统及方法
CN113253838A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 基于ar的视频教学方法、电子设备

Also Published As

Publication number Publication date
CN108805766B (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
CN108805766A (zh) 一种ar体感沉浸式教学系统和方法
Azmandian et al. Haptic retargeting: Dynamic repurposing of passive haptics for enhanced virtual reality experiences
Bruder et al. To touch or not to touch? Comparing 2D touch and 3D mid-air interaction on stereoscopic tabletop surfaces
US20130198625A1 (en) System For Generating Haptic Feedback and Receiving User Inputs
Stanney et al. Virtual environments
Herskovitz et al. Making mobile augmented reality applications accessible
JP2022505998A (ja) 拡張現実データの提示方法、装置、電子機器及び記憶媒体
CN111580661A (zh) 交互方法和增强现实设备
Gillies What is movement interaction in virtual reality for?
Schmidt et al. Floor-projected guidance cues for collaborative exploration of spatial augmented reality setups
McMenemy et al. A hitchhiker's guide to virtual reality
Hettiarachchi et al. FingerDraw: more than a digital paintbrush
Dias et al. Mobile devices for interaction in immersive virtual environments
Elsayed et al. Cameraready: Assessing the influence of display types and visualizations on posture guidance
KR101618004B1 (ko) 가상 현실 기반의 인터랙티브 컨텐츠 제공 장치 및 그 방법
CN111901518B (zh) 显示方法、装置和电子设备
CN109671317B (zh) 基于ar的脸谱互动教学方法
Spear Virtual reality: patent review
Gaucher et al. A novel 3D carousel based on pseudo-haptic feedback and gestural interaction for virtual showcasing
Egusa et al. Development of an interactive puppet show system for the hearing-impaired people
Lin et al. Space connection: a new 3D tele-immersion platform for web-based gesture-collaborative games and services
WO2020073103A1 (en) Virtual reality system
Mantovani Passive haptic feedback for object manipulation in virtual reality
Loviscach Playing with all senses: Human–Computer interface devices for games
Mentzelopoulos et al. Hardware interfaces for VR applications: evaluation on prototypes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant