CN107728788A - 一种基于红外超声三维定位体感交互装置 - Google Patents
一种基于红外超声三维定位体感交互装置 Download PDFInfo
- Publication number
- CN107728788A CN107728788A CN201711040157.7A CN201711040157A CN107728788A CN 107728788 A CN107728788 A CN 107728788A CN 201711040157 A CN201711040157 A CN 201711040157A CN 107728788 A CN107728788 A CN 107728788A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- signal
- infrared
- module
- ultrasonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 28
- 230000004807 localization Effects 0.000 title claims abstract description 23
- 230000003183 myoelectrical effect Effects 0.000 claims abstract description 10
- 230000000694 effects Effects 0.000 claims abstract description 8
- 230000005540 biological transmission Effects 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 210000000481 breast Anatomy 0.000 claims description 7
- 238000002604 ultrasonography Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000002224 dissection Methods 0.000 claims description 2
- 238000010422 painting Methods 0.000 claims description 2
- 238000013515 script Methods 0.000 claims description 2
- 241001062009 Indigofera Species 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 14
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000036544 posture Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000007654 immersion Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种基于红外超声三维定位体感交互装置,包括三维信号发射端、穿戴式信号接收端,所述三维信号发射端包括红外发射模块、超声波发射模块、九轴状态识别模块、2.4G无线模块;所述信号接收端包括超声波接收模块、红外接收模块、九轴姿态模块、肌电传感器、2.4G无线模块、蓝牙模块;本发明结构小巧简单,携带方便,佩戴方式多样,采用三维的全向超声波发射器,定位精准,引入姿态识别及肌电识别来加深体感交互的体验效果,人机交互功能增强。
Description
技术领域
本发明涉及一种三维定位体感装置,特别涉及一种基于红外超声三维定位体感交互装置。
背景技术
现下大多数虚拟现实、混合现实等三维交互场景的定位设备主要由红外定位、红外体感摄像头定位等为主,它们都具有佩戴位置及交互方式单一、定位装备体积大不便于携带的缺点,还有一些采用超声波三维定位技术的,但是超声信号接收端体积大且固定静止、采用的全向超声发射装置多采用二维的全向超声波发射器,但并没有三维的全向超声波发射器,未更好的实现三维全向超声发射,大都具有定位死角,定位不够精确,不利于携带及佩戴,且人机交互功能不强。
发明内容
为解决上述问题,本发明提供一种基于红外超声三维定位体感交互装置,本发明结构小巧简单,携带方便,采用三维的全向超声波发射器,定位精准,引入姿态识别及肌电识别来加深体感交互的体验效果,人机交互功能增强。
为实现上述目的,本发明采用以下技术手段:
本发明提供一种基于红外超声三维定位体感交互装置,包括三维信号发射端、穿戴式信号接收端,所述三维信号发射端包括红外发射模块、超声波发射模块、九轴姿态识别模块、2.4G无线模块;
所述信号接收端包括超声波接收模块、红外接收模块、九轴姿态模块、肌电传感器、2.4G无线模块、蓝牙模块;
九轴姿态识别模块通过九轴姿态模块识别到信号发射端的实时定位,超声波发送模块采用压电超声波薄膜,发射定位所需超声波信号,红外发射模块发射超声波定位所需的同步信号,超声波接收模块用于接收超声波信号,红外接收模块用于接收红外信号,信号接收端微处理器将九轴姿态传感器数据处理后,自动识别信号接收器的佩戴方式:识别为胸针式佩戴模式下微处理器将红外超声波信号进行数字化处理得到超声波三维定位坐标并将数据通过2.4G无线模块传递给信号发射端用于对九轴姿态识别模块识别的实时定位坐标实时校准,信号发射端的微处理器将得到的修正后的九轴姿态识别模块识别的空间姿态及用户操作信息再通过2.4G无线模块传递给信号接收端,信号接收端通过TDOA交叉融合发射端九轴数据算法解算出发射端三维坐标,再结合接收端九轴姿态交叉融合解算出发射端的绝对坐标,再通过蓝牙将发射端的空间信息及用户操作信息回传到上位机;识别为手臂佩戴模式微处理器将启动肌电信号读取及处理,配合信号接收器的姿态识别完成手臂及手掌部分的简单动作识别,通过蓝牙将信号接收端的空间信息及佩戴者的手部操作信息回传到上位机;识别为桌面放置式将比胸针式佩戴模式多一个二维定位选择,可以在二维平面写字、画线。
所述上位机是以Unity3D为开发引擎的PC端上位机或手机上位机,PC端或手机上位机系统包括三维书画场景系统、三维生物解剖场景系统、三维机械装配场景系统、三维化学实验场景系统,所述PC端上位机通过WIFI连接手机客户端,通过C#脚本调用PC蓝牙或手机蓝牙,能将信号发射端的空间状态信息与用户动作信息及操作信息通过数据处理结合到三维场景。
进一步的,所述超声波接收模块包括三个不在同一条直线上的超声波接收模块,所述红外接收模块包括三个不在同一条直线上的红外接收模块。
进一步的,所述蓝牙模块采用采用4.0蓝牙模块。
进一步的,所述九轴姿态模块采用具有三轴加速度、三轴陀螺仪、三轴地磁场的MPU9520九轴传感器。
进一步的,所述超声接收麦克风采用低功耗微型MEMS超声麦克风
进一步的,所述肌电传感器采用肌电图信号采集模块(EMG),加深体感交互效果。
进一步的,所述穿戴式信号接收端为无线胸针佩戴式、手臂佩戴式及桌面放置式信号接收器。
本发明的有益效果:
本发明结构小巧简单,携带方便,采用三维的全向超声波发射器,定位精准,具有姿态识别及肌电识别,人机交互功能增强,三维信号发射端通过三维超声定位结合姿态传感器可实现大空间的三维坐标定位,通过九轴传感器及卡尔曼滤波等算法实现高精度的姿态识别,亦可实现三维空鼠等功能,通过肌电传感器能够采集到表面肌电信号及信号处理识别,能识别握拳及松拳等简单手势动作;通过压电超声波薄膜,解决了超声发射三维全向的问题;信号接收端具有姿态识别,即使佩戴部位不同,也可以通过姿态解算算法实现高精度超声三维定位,而且通过姿态识别还自动匹配对应佩戴方式,从而实现多种佩戴人机交互方式的自动切换,并且该装置通过机械学习可根据使用者的行为偏好权重选择模式;PC调用硬件接口程序后上位机实时获得三维发射端的三维坐标及通过处理肌电信息及九轴姿态信息得到的手部姿态动作,可以生动形象的实现用户沉浸式的画线体验且支持多颜色多粗细的沉浸选择;可以操作三维模型实现剥离、控制、移动、组装等功能,还可模拟现实的化学实验;PC建立服务器与手机客户端实现网络连接,引入手机的交互功能比如利用手机实现菜单选择、场景局部放大,提高增强现实效果,增加了用户的使用沉浸感,且拓展了本产品的应用性。
附图说明
图1是示出本发明的信号接收端结构图
图2是示出根据本发明提出的信号接收端的胸针式佩戴图
图3是示出根据本发明提出的信号接收端的手臂佩戴图
图4是示出本发明的信号发射端结构图
图5是示出本发明硬件系统原理示意图;
图6是示出本发明的信号接收端的工作原理流程示意图;
图7是示出本发明的信号发射端的工作原理流程示意图;
图8是示出本发明的PC端软件系统流程原理示意图;
具体实施方式
下面结合附图及具体实施例子对本发明做进一步说明。
实施例1:本实施例子提供一种基于红外超声三维定位体感交互装置,包括三维信号发射端、穿戴式信号接收端,如图1所示所述信号接收端包括超声波接收模块、红外接收模块、九轴姿态模块、肌电传感器、2.4G无线模块、蓝牙模块。
如图4所示所述三维信号发射端包括红外发射模块、超声波发射模块、九轴姿态识别模块、2.4G无线模块;
如图5所示硬件系统原理,信号接收端通过九轴姿态模块识别到信号发射端的实时姿态,超声波发送模块采用压电超声波薄膜,发射定位所需超声波信号,红外发射模块发射超声波定位所需的同步信号,超声波接收模块用于接收超声波信号,红外接收模块用于接收红外信号,红外信号作为时间基准来得到信号发射端与信号接收端的距离,通过三维空间坐标解算得到信号发射端的坐标;九轴姿态传感器数据处理后,自动识别信号接收器的佩戴方式:结合图2所示,识别为胸针式佩戴模式下信号接收端微处理器将红外超声波信号进行数字化处理得到超声波三维定位坐标并将数据通过2.4G无线模块传递给信号发射端用于对九轴姿态识别模块识别的实时定位坐标实时校准,信号发射端的微处理器将得到的修正后的九轴姿态识别模块识别的空间信息及用户操作信息再通过2.4G无线模块传递给信号接收端,信号接收端通过TDOA交叉融合发射端九轴数据算法解算出发射端三维坐标,再结合接收端九轴姿态交叉融合解算出发射端的绝对坐标,再通过蓝牙将信号端的空间信息及用户操作信息回传到上位机。结合如图3所示,识别为手臂佩戴模式微处理器将启动肌电信号读取及处理,配合信号接收器的姿态识别完成手臂及手掌部分的简单动作识别,通过蓝牙将信号接收端的空间信息及佩戴者的手部操作信息回传到上位机;识别为桌面放置式将比胸针式佩戴模式多一个二维定位选择,可以在二维平面写字、画线。
进一步的,所述超声波接收模块包括三个不在同一条直线上的超声波接收模块,所述红外接收模块包括三个不在同一条直线上的红外接收模块。
进一步的,所述蓝牙模块采用蓝牙4.0。
进一步的,所述九轴姿态模块采用具有三轴加速度、三轴陀螺仪、三轴地磁场的MPU9520九轴传感器。
进一步的,所述超声接收麦克风采用低功耗微型MEMS超声麦克风
进一步的,所述肌电传感器采用EMG肌电传感器。
进一步的,所述穿戴式信号接收端为无线胸针佩戴式、手臂佩戴式及桌面放置式信号接收器。
本发明结构小巧简单,携带方便,采用三维的全向超声波发射器,定位精准,引入姿态识别及肌电识别来加深体感交互的体验效果,人机交互功能增强,三维信号发射端通过三维超声定位结合姿态传感器可实现大空间的三维坐标定位。通过九轴传感器及卡尔曼滤波等算法实现高精度的姿态识别,亦可实现三维空鼠等功能,通过肌电传感器能够采集到表面肌电信号及信号处理识别,能识别握拳及松拳等简单手势动作;通过压电超声波薄膜,解决了超声发射三维全向的问题;如图6流程图所示,信号接收端具有姿态识别,即使佩戴部位不同,也可以通过姿态解算算法实现高精度超声三维定位,而且通过姿态识别还自动匹配对应佩戴方式,从而实现多种佩戴人机交互方式的自动切换,并且该装置通过机械学习可根据使用者的行为偏好权重选择模式;如图7流程图所示,信号发射端以50HZ为频率发射红外超声信号,通过九轴传感器原始数据的处理得到欧拉角,并通过无线模块把发射端的姿态信息、按键信息回传给信号接收端;PC调用硬件接口程序后上位机实时获得三维发射端的三维坐标及通过处理肌电信息及九轴姿态信息得到的手部姿态动作,实现了更深的人机交互体验,可以生动形象的实现用户沉浸式的画线体验且支持多颜色多粗细的沉浸选择;可以操作三维模型实现剥离、控制、移动、组装等功能,还可模拟现实的化学实验;PC建立服务器与手机客户端实现网络连接,引入手机的交互功能比如利用手机实现菜单选择、场景局部放大,提高增强现实效果,增加了用户的使用沉浸感,且拓展了本产品的应用性。
如图8流程图所示PC端上位机系统具有以下模块设计:
(1)碰撞模型设计:使用3DMax制作的obj三维模型,从而提高场景的画面感与真实性。使用MeshCollider(网格碰撞体)来产生三维场景的物体碰撞事件;
(2)三维体感软件设计:Unity3D每个组件均有欧拉角、直角坐标系信息,与外部设备的欧拉角、直角坐标系对应,用户操作外部设备能实时显示在软件场景,从而实现用户三维体感的虚拟现实。
(3)三维画线软件设计:画线功能:选取画线场景后,上位机实时获得三维发射端的三维坐标,用户按下三维发射端按键后,创建一个Vector3的列表,当按键持续按下时使用此列表存取下位机上传的三维坐标,同时按此列表的元素按顺序画线。
(4)虚拟三维化学实验设计:该设备的处理肌电信号及九轴姿态得到的手部动作结合PC端软件设计通过自然的交互方式,在三维场景进行复杂操作及虚拟化学实验的展示。
(5)上位机可自动匹配信号接收端的佩戴方式,根据不同的佩戴方式选择不同的三维场景。
可在以下应用场景使用:
新型的教育课堂模式:教师和学生可以利用体积小,重量轻的智能笔及其接收圆盘在交互界面上实现远距离,全方位的控制,从而可以扩大老师和学生互动的范围;老师们可以在各种不同的内设场景中利用智能笔的抓取和分离功能实现更加形象的教学示范,提高课堂的教学效率,学生也可以通过这些场景的进行互动式学习可以让他们参与其中,极大地提高他们学习兴趣,更好地促进他们对于传授内容的理解。
增强现实游戏:基于本设备的定位及体感功能,可以在此基础上开发出增强现实的三维游戏,让用户具有更加沉浸式的娱乐体验。智能笔取代了传统的鼠标,而unity 3D可以实现各类3D游戏的制作,而且画面效果很好。此类游戏可以使用户在三维的现实世界进行全新的笔控游戏体验,而且可以将该设备结合其他3D体感交互设备,应用到现有的在移动端触控和PC端鼠标控制的游戏,推出互动性更佳的版本。
通过对本产品的功能介绍不难预测其会在教育,科研以及商业等领域带来全新的AR人机交互体验,并且作为一种新的交互方式来促进这些行业的日常进程,提高工作效率。
Claims (7)
1.一种基于红外超声三维定位体感交互装置,其特征在于,包括三维信号发射端、穿戴式信号接收端,所述三维信号发射端包括红外发射模块、超声波发射模块、九轴姿态识别模块、2.4G无线模块;
所述信号接收端包括超声波接收模块、红外接收模块、九轴姿态模块、肌电传感器、2.4G无线模块、蓝牙模块;
九轴姿态识别模块通过九轴姿态模块识别到信号发射端的实时定位,超声波发送模块采用压电超声波薄膜,发射定位所需超声波信号,红外发射模块发射超声波定位所需的同步信号,超声波接收模块用于接收超声波信号,红外接收模块用于接收红外信号,信号接收端微处理器将九轴姿态传感器数据处理后,自动识别信号接收器的佩戴方式:识别为胸针式佩戴模式下,红外超声波信号进行数字化处理得到超声波三维定位坐标,并将数据通过2.4G无线模块传递给信号发射端,用于对九轴姿态识别模块识别的实时定位坐标实时校准,信号发射端的微处理器将得到的修正后的九轴姿态识别模块识别的空间姿态及用户操作信息,再通过2.4G无线模块传递给信号接收端,信号接收端通过TDOA交叉融合发射端九轴数据算法解算出发射端三维坐标,再结合接收端九轴姿态交叉融合解算出发射端的绝对坐标,再通过蓝牙将信号端的空间信息及用户操作信息回传到上位机;
识别为手臂佩戴模式下,微处理器将启动肌电信号读取及处理,配合信号接收器的姿态识别完成手臂及手掌部分的简单动作识别,通过蓝牙将信号接收端的空间信息及佩戴者的手部动作操作信息回传到上位机;
识别为桌面放置式将比胸针式佩戴模式多一个二维定位选择,可以在二维平面写字、画线;
所述上位机是以Unity3D为开发引擎的PC端上位机或手机上位机,PC端或手机上位机系统包括三维书画场景系统、三维生物解剖场景系统、三维机械装配场景系统、三维化学实验场景系统,所述PC端上位机通过WIFI连接手机客户端,通过C#脚本调用PC蓝牙或手机蓝牙,能将信号发射端的空间状态信息与用户动作信息及操作信息通过数据处理结合到三维场景。
2.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述超声波接收模块包括三个不在同一条直线上的超声波接收模块,所述红外接收模块包括三个不在同一条直线上的红外接收模块,红外超声与九轴姿态模块交叉融合解算出发射端的空间三维坐标。
3.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述蓝牙模块采用4.0蓝牙模块。
4.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述九轴姿态模块采用具有三轴加速度、三轴陀螺仪、三轴地磁场的九轴传感器。
5.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述肌电传感器采用肌电图信号采集模块(EMG),加深体感交互效果。
6.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述超声接收麦克风采用MEMS微型超声麦克风。
7.根据权利要1所述的一种基于红外超声三维定位体感交互装置,其特征在于,所述穿戴式信号接收端为无线胸针式、头戴式、手佩戴式、桌面放置式自动识别接收器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711040157.7A CN107728788A (zh) | 2017-10-31 | 2017-10-31 | 一种基于红外超声三维定位体感交互装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711040157.7A CN107728788A (zh) | 2017-10-31 | 2017-10-31 | 一种基于红外超声三维定位体感交互装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107728788A true CN107728788A (zh) | 2018-02-23 |
Family
ID=61203347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711040157.7A Pending CN107728788A (zh) | 2017-10-31 | 2017-10-31 | 一种基于红外超声三维定位体感交互装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107728788A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107976685A (zh) * | 2017-11-20 | 2018-05-01 | 北京航空航天大学 | 一种基于物联网的红外传感器室内人体目标跟踪系统 |
CN109523867A (zh) * | 2018-11-21 | 2019-03-26 | 宁波聚创工业设计有限公司 | 一种手环式奶牛直肠定位检查教学装置及教学方法 |
CN110132257A (zh) * | 2019-05-15 | 2019-08-16 | 吉林大学 | 基于多传感器数据融合的人体行为预测方法 |
CN110624217A (zh) * | 2019-09-23 | 2019-12-31 | 孙孟雯 | 一种基于多传感器融合的复健手套及其实现方法 |
CN117132240A (zh) * | 2023-10-24 | 2023-11-28 | 中川建投集团有限公司 | 一种基于大数据的工程项目管理系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN205692125U (zh) * | 2016-05-26 | 2016-11-16 | 江苏南大五维电子科技有限公司 | 手势判别设备 |
CN106200988A (zh) * | 2016-08-30 | 2016-12-07 | 上海交通大学 | 一种可穿戴式手语识别装置及手语翻译方法 |
CN106569606A (zh) * | 2016-11-08 | 2017-04-19 | 上海交通大学 | 一种基于自然手势识别的智能家居红外控制系统与方法 |
US20170123487A1 (en) * | 2015-10-30 | 2017-05-04 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
CN106933390A (zh) * | 2017-03-08 | 2017-07-07 | 吉林大学 | 惯性技术和超声波相结合的触控笔位姿检测方法及系统 |
CN107102749A (zh) * | 2017-04-23 | 2017-08-29 | 吉林大学 | 一种基于超声波和惯性传感器的三维笔式定位方法 |
-
2017
- 2017-10-31 CN CN201711040157.7A patent/CN107728788A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170123487A1 (en) * | 2015-10-30 | 2017-05-04 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
CN205692125U (zh) * | 2016-05-26 | 2016-11-16 | 江苏南大五维电子科技有限公司 | 手势判别设备 |
CN106200988A (zh) * | 2016-08-30 | 2016-12-07 | 上海交通大学 | 一种可穿戴式手语识别装置及手语翻译方法 |
CN106569606A (zh) * | 2016-11-08 | 2017-04-19 | 上海交通大学 | 一种基于自然手势识别的智能家居红外控制系统与方法 |
CN106933390A (zh) * | 2017-03-08 | 2017-07-07 | 吉林大学 | 惯性技术和超声波相结合的触控笔位姿检测方法及系统 |
CN107102749A (zh) * | 2017-04-23 | 2017-08-29 | 吉林大学 | 一种基于超声波和惯性传感器的三维笔式定位方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107976685A (zh) * | 2017-11-20 | 2018-05-01 | 北京航空航天大学 | 一种基于物联网的红外传感器室内人体目标跟踪系统 |
CN107976685B (zh) * | 2017-11-20 | 2021-11-19 | 北京航空航天大学 | 一种基于物联网的红外传感器室内人体目标跟踪系统 |
CN109523867A (zh) * | 2018-11-21 | 2019-03-26 | 宁波聚创工业设计有限公司 | 一种手环式奶牛直肠定位检查教学装置及教学方法 |
CN109523867B (zh) * | 2018-11-21 | 2021-03-09 | 杨天烈 | 一种手环式奶牛直肠定位检查教学装置及教学方法 |
CN110132257A (zh) * | 2019-05-15 | 2019-08-16 | 吉林大学 | 基于多传感器数据融合的人体行为预测方法 |
CN110624217A (zh) * | 2019-09-23 | 2019-12-31 | 孙孟雯 | 一种基于多传感器融合的复健手套及其实现方法 |
CN117132240A (zh) * | 2023-10-24 | 2023-11-28 | 中川建投集团有限公司 | 一种基于大数据的工程项目管理系统 |
CN117132240B (zh) * | 2023-10-24 | 2023-12-22 | 中川建投集团有限公司 | 一种基于大数据的工程项目管理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107728788A (zh) | 一种基于红外超声三维定位体感交互装置 | |
Balakrishnan et al. | Interaction of spatial computing in augmented reality | |
Zhang et al. | Recent developments in game-based virtual reality educational laboratories using the microsoft kinect | |
CN107533233B (zh) | 用于增强现实的系统和方法 | |
CN109976519A (zh) | 一种基于增强现实的交互显示装置及其交互显示方法 | |
CN204695231U (zh) | 移动式头盔沉浸系统 | |
LaViola et al. | 3D spatial interaction: applications for art, design, and science | |
US11769306B2 (en) | User-exhibit distance based collaborative interaction method and system for augmented reality museum | |
CN110688005A (zh) | 混合现实的教学环境、教师、教具互动系统及互动方法 | |
CN106325509A (zh) | 三维手势识别方法及系统 | |
CN110163054A (zh) | 一种人脸三维图像生成方法和装置 | |
CN104102412A (zh) | 一种基于增强现实技术的手持式阅览设备及其方法 | |
CN106601043A (zh) | 一种基于增强现实的多媒体互动教育设备及方法 | |
CN107281710A (zh) | 一种矫正动作误差的方法 | |
CN103760981B (zh) | 一种磁场可视化及交互方法 | |
CN108986577A (zh) | 一种基于前置式的移动增强现实型实验的设计方法 | |
Indrawan et al. | Markerless augmented reality utilizing gyroscope to demonstrate the position of Dewata Nawa Sanga. | |
CN106249900A (zh) | 一种基于增强现实的音频虚拟现实实现方法及系统 | |
CN115525144A (zh) | 一种基于虚拟现实的多对象交互设备及其交互方法 | |
Khurana et al. | AI frame-worked virtual world application-the ramification of virtual world on real world | |
CN107292221A (zh) | 一种轨迹处理方法和装置、一种用于轨迹处理的装置 | |
CN109871912A (zh) | 虚拟现实场景模拟装置及方法 | |
CN106020468A (zh) | 一种手套控制的增强现实系统 | |
CN108459716B (zh) | 一种在vr中实现多人协作完成任务的方法 | |
CN206863691U (zh) | 一种基于增强现实和虚拟现实的智能交互演示系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180223 |
|
RJ01 | Rejection of invention patent application after publication |