CN104750234A - 可穿戴智能设备及可穿戴智能设备的互动方法 - Google Patents
可穿戴智能设备及可穿戴智能设备的互动方法 Download PDFInfo
- Publication number
- CN104750234A CN104750234A CN201310741185.7A CN201310741185A CN104750234A CN 104750234 A CN104750234 A CN 104750234A CN 201310741185 A CN201310741185 A CN 201310741185A CN 104750234 A CN104750234 A CN 104750234A
- Authority
- CN
- China
- Prior art keywords
- data
- wearable smart
- smart machine
- micro
- virtual image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 38
- 230000002452 interceptive effect Effects 0.000 claims description 38
- 238000010586 diagram Methods 0.000 claims description 23
- 238000013459 approach Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 9
- VZCCETWTMQHEPK-QNEBEIHSSA-N gamma-linolenic acid Chemical compound CCCCC\C=C/C\C=C/C\C=C/CCCCC(O)=O VZCCETWTMQHEPK-QNEBEIHSSA-N 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 4
- 230000033001 locomotion Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical group [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 244000062793 Sorghum vulgare Species 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 235000019713 millet Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- BASFCYQUMIYNBI-UHFFFAOYSA-N platinum Chemical group [Pt] BASFCYQUMIYNBI-UHFFFAOYSA-N 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000005211 surface analysis Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
可穿戴智能设备及其互动方法,可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。本发明的可穿戴智能设备及其互动方法能够将控制界面的图像界面虚像与操作者动作的位置或者位置随时间的变化方式匹配或关联,使得操作者动作与视觉效果一致或关联。
Description
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备及可穿戴智能设备的互动方法。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓系统智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,
而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是提供一种匹配度高且功能局限性小的可穿戴智能设备。
为解决上述问题,本发明提供一种可穿戴智能设备,包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
可选的,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
可选的,所述位置传感器为声波反射器,所述位置识别器为金属环。
可选的,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
可选的,所述位置随时间的变化方式至少包括:点击、双击或滑动。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
可选的,所述设备框架配置有镜片且穿戴于使用者眼睛前。
可选的,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
可选的,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
本发明还提供一种穿戴智能设备的互动方法,包括:提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;根据所述位置传感器获取所述目标物的位置和位置随时间的变化方式,并将所述位置和位置随时间的变化方式的数据发送至中央数据中心;所述中央数据中心根据所述互动模式对位置和位置随时间的变化方式进行分析,并将结果转换成对应的图形数据;所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
可选的,所述互动模式为格斗模式,所述目标物为攻击者,所述中央数据中心根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点,并将弱点转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加。
可选的,所述图形投影为拳头图形。
可选的,所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
可选的,还包括:提供本地数据库或远程数据库。
可选的,所述中央数据中心根据所述互动模式对所述位置和动作进行分析包括:调用本地数据库,或者远程数据库的数据支持。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
与现有技术相比,本发明的技术方案具有以下优点:本发明提供一种虚-实结合的可穿戴智能设备,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
进一步,采用戒指作为位置识别器适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式,不会额外的增加用户的穿戴负担,且能够增强探测效果。
本发明的可穿戴智能设备的互动方法能够隐蔽、便携的提示使用者,让使用者获取互动技巧的同时不打扰旁边的其他人。
附图说明
图1是本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明另一实施例的可穿戴智能设备示意图;
图4为本发明又一实施例的可穿戴智能设备示意图;
图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图;
图6为本发明又一实施例的可穿戴智能设备示意图;
图7和图8为本发明一实施例的可穿戴智能设备图像传感器在获取至少部分人体的位置,并将所述位置转换为位置数据的示意图;
图9为本发明一实施例的图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据的示意图;
图10为本发明一实施例的可穿戴智能设备的互动方法流程示意图;
图11为本发明又一实施例的可穿戴智能设备的互动方法示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚-实结合的可穿戴智能设备,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置和位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架101,从所述第一支架101两端延伸出的第一侧臂102和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架101大致平行使用者的脸部,且所述第一支架101用于为分光镜120和位置传感器130提供支撑平台,使得分光镜能够较佳地成虚像于人眼;而所述位置传感器130较佳的设置于第一支架101的外围,使得位置传感器130能够尽可能大的范围的感应使用者的人体的位置和动作。
所述第一侧臂102或第二侧臂103用于为微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂102;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
还需要说明的是,所述第一支架101还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成虚像在使用者眼中。
作为一实施例,所述分光镜120为反射镜,所述反射镜为反射率为30%至70%,作为一示范例,所述反射镜的反射率为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成虚像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受虚像和实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成虚像于人眼,在此特意说明,不应限制本发明的保护范围。
作为一实施例,所述微投影仪110输出的图像界面位于分光镜120的焦点上,或者在分光镜120的一倍焦距内,从而使得图形界面能够在人眼成虚像。
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
作为一实施例,所述位置传感器130可以为声波反射器或图像传感器,所述位置传感器130根据声学原理或光学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器,所述中央数据中心140至少能够接受所述位置传感器130的位置数据和操作指令,并根据所述位置数据和操作指令控制所述微投影仪110输出相应图形界面,以匹配至少人体的位置,并执行与操作指令对应的操作。
所述中央数据中心140还适于与远程数据库交换数据,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式获得远程数据库数据支持。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还可以包括通信模块(未示出),所述通信模块可以内置于设备框架100内或者包括于中央数据中心140,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成虚像,且中央数据中心140根据位置传感器130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正虚像的位置,使得虚像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
本发明还提供另一实施例的可穿戴智能设备,请参考图3,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
设置于设备框架上的分光镜220,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器230,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
本实施例中的设备框架200、分光镜220、位置传感器230和中央数据中心240请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成像,使得成像效果具有立体感。
本发明还提供又一实施例的可穿戴智能设备,请参考图4,包括:
设备框架300;
设置于设备框架300上的微投影仪310,适于将图像界面投射于分光镜320上;
设置于设备框架上的分光镜320,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的声波反射器330,适于感应至少部分人体的位置和位置随时间的变化方式并将所述动作转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心340,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
穿戴于手指的位置识别器350,所述位置识别器350适于被所述声波反射器340感应,以确定手指的位置和位置随时间的变化方式。
在本实施例中,设备框架300、微投影仪310、分光镜320和中央数据中心340请参考之前实施例的相应描述。
在本实施例中,所述位置传感器为声波反射器330,所述位置识别器350为金属环,例如为戒指。
其中,所述声波反射器330用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器330接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心340根据所述位置数据校准微投影仪310或分光镜320,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波反射器330的距离可以根据下列公式确定:
d=V0t/2
其中,d为金属环与声波反射器330的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
V0=331.45×(1+τ/273.15)1/2m/s
其中,τ为声波反射时环境的温度;
金属环的相对声波反射器330的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
Δf=(2×V×cosθ/V0)×f
其中,Δf为声波反射器330探测到的频移,V为金属环的相对声波反射器330的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波反射器330发射声波的位置、声波反射器330探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂戒指。
还需要说明的是,本实施例的声波反射器330数量可以为1、2、3、4…6…11个。
较佳地,所述声波反射器330数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波反射器330能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请参考图5,图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图。
以声波反射器330和位置识别器350为例,根据声波反射器330和位置识别器350,所述声波反射器330可以获得金属环的运动方向,距离和运动速度。
中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪310和分光镜320调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
在另一实施例中,中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波反射器330调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪310先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器(在本实施例中为声波反射器330)通过位置识别器350识别当前手指位置,并且同微投影仪310的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心340根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心340内置使用者的预存数据和所述声波反射器330获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心340内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,可穿戴智能设备还可以兼容声音传输单元360,所述声音传输单元可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心340,中央数据中心340根据上述语音指令以调节输出的图像界面和执行操作指令。
本发明还提供又一实施例的可穿戴智能设备,请参考图6,包括:
设备框架400;
设置于设备框架400上的微投影仪410,适于将图像界面投射于分光镜420上;
设置于设备框架400上的分光镜420,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器430,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,所述位置传感器430为若干位置不同的图像传感器;
设置于设备框架上的中央数据中心440,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在本实施例中,设备框架400、微投影仪410、分光镜420和中央数据中心440请参考之前实施例的相应描述。
需要说明的是,图像传感器的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感器的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感器的位置和数量不应限制本发明的保护范围。
作为一实施例,所述位置传感器430为设置于设备框架400左上的图像传感器和设置于设备框架400右上的图像传感器。
左上的图像传感器和右上的图像传感器通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在位置传感器430内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感器和右上的图像传感器同时获取的至少部分人体的图像坐标及时间信息,集成在位置传感器430内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图6,图6中的第一图像471和第二图像472分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图7和图8,图7和图8为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图7中仅示出左上的图像传感器731和右上的图像传感器732,同样的为了方便理解,将至少部分人体以箭头符号740示意。
其中,左上的图像传感器731和右上的图像传感器732的间距为预设值,为了方便理解所述间距为L,左上的图像传感器731的焦距为f1,右上的图像传感器732的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感器731获取至少部分人体的图像数据741和右上的图像传感器732获取至少部分人体的图像数据742,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感器731获取的图像中测量获取,(x2,y2)从左上的图像传感器731获取的图像中测量获取;左上的图像传感器731的焦距f1和右上的图像传感器732的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
在其他实施例中,也可以根据图像传感器的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感器,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
请参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪410和分光镜420调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,在本实施例中,以所述至少部分人体为拳头为例,做示范性说明。
请依旧参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据校正所述位置传感器,调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,
作为一示例,由微投影仪410先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器识别当前手指位置,并且同微投影仪410的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心440根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心440内置使用者的预存数据和所述图像传感器获取的至少部分人体的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心440内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,在其他实施例中,请依旧参考图9,位置传感器430(在本实施例中为图像传感器)捕获拳头484的位置随时间的变化方式,在t-1与t时刻获取第三图像481和第四图像482,并根据之前实施例的运算方式,将拳头的位置和运动轨迹转换为所述操作指令和位置数据,中央数据中心440获得所述操作指令和位置数据后,控制微投影仪410和分光镜420调整输出的图像界面,且在人眼中将拳头484成虚像483,使得使用者在操作图像界面时,具有较好的体验。
本发明还提供一实施例的可穿戴智能设备的互动方法,请参考图10,包括如下步骤:
步骤S101,提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;
步骤S102,根据所述位置传感器获取所述目标物的位置和动作,并将所述位置和动作发送至中央数据中心;
步骤S103,所述中央数据中心根据所述互动模式对所述位置和动作进行分析,并将结果转换成对应的图形数据;
步骤S104,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
具体地,所述微投影仪、分光镜、位置传感器和中央数据中心请参考之前实施例中的相应描述。
需要说明的是,所述中央数据中心预设有互动模式,所述互动模式可以为格斗模式、棋谱模式、舞蹈模式、打牌模式或游戏模式。
所述目标物可以是游戏队友或游戏对手、攻击者、或棋谱和棋子、或桌面和棋牌。
所述位置传感器获取所述目标物的位置和动作,并将所述位置和动作发送至中央数据中心,中央数据中心根据所述互动模式对所述位置和动作进行分析,并将结果转换成对应的图形数据,并控制微投影仪和分光镜成虚像于人眼,且根据所述位置和动作,使得所述虚像与目标物的对应位置叠加。
本实施例可以在互动时,采用虚像即时地提示使用者,增加使用者互动乐趣和技巧,例如在游戏时隐性的提示使用者,或者在格斗时将弱点即时呈现于使用者眼中,提高使用者互动的技巧。
在其他实施例中,还可以提供本地数据库或远程数据库。
具体地,所述本地数据库可以配置于所述可穿戴智能设备。
所述远程数据库适于与所述中央数据中心进行交换数据。
所述中央数据中心可以调用本地数据库,或者所述中央数据中心内置通信模块,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持,对所述位置和动作进行分析,并将结果转换成对应的图形数据,并控制微投影仪和分光镜成虚像于人眼,且根据所述位置和动作,使得所述虚像与目标物的对应位置叠加。
请参考图11,图11为本发明又一实施例的可穿戴智能设备的互动方法,在本实施例中,以格斗模式为例,做示范性说明。
互动模式为格斗模式,目标物490为攻击者,位置传感器430(以两个图像传感器为例做示范性说明)在t-1与t时刻获取第五图像483和第六图像484,需要说明的是,位置传感器可以根据实际计算需要获取更多图像信息(例如第7、第8....第20图像)(未示出),位置传感器根据图像信息获取攻击者的位置和动作;所述中央数据中心440根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点485,并将弱点485转换成对应的图形数据,所述可穿戴智能设备的微投影仪410根据图形数据将对应的图形投影至分光镜420;所述分光镜420将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加,上述成虚像的具体过程可以参考之前实例中的相应描述,在此不再赘述。
所述格斗模式中内置有格斗技巧大全、擒拿术(刁、拿、锁、扣、扳、点、缠、切、拧、挫、旋、卷、封、闭等招法),跆拳道技巧,柔道技巧,截拳道技巧,咏春拳技巧,武术技巧,且格斗模式能够分析攻击者的位置和动作,获得攻击者弱点所在位置,所述中央数据中心440控制微投影仪410和分光镜420,将对应图形成虚像于人眼,所述图形可以为拳头图形或其他示意图示,使用者在形成虚像后,按照虚像的对应在攻击者身上位置,相应的进行攻击,从而能够在一定程度上提高使用者的防身技巧。
本发明还提供又一实施例的可穿戴智能设备的互动方法,在本实施例中,以棋谱模式为例,做示范性说明。
所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
本发明的可穿戴智能设备的互动方法还可以应用于舞蹈模式、打牌模式或游戏模式。
本发明的可穿戴智能设备的互动方法能够隐蔽、便携的提示使用者,让使用者获取互动技巧的同时不打扰旁边的其他人。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (20)
1.一种可穿戴智能设备,其特征在于,包括:
设备框架;
设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;
设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
2.如权利要求1所述的可穿戴智能设备,其特征在于,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
3.如权利要求2所述的可穿戴智能设备,其特征在于,所述位置传感器为声波反射器,所述位置识别器为金属环。
4.如权利要求3所述的可穿戴智能设备,其特征在于,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
5.如权利要求1所述的可穿戴智能设备,其特征在于,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
6.如权利要求1所述的可穿戴智能设备,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;
全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
7.如权利要求1所述的可穿戴智能设备,其特征在于,其特征在于,所述位置随时间的变化方式至少包括:点击、双击或滑动。
8.如权利要求7所述的可穿戴智能设备,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
9.如权利要求1所述的可穿戴智能设备,其特征在于,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
10.如权利要求1所述的可穿戴智能设备,其特征在于,所述设备框架配置有镜片且穿戴于使用者眼睛前。
11.如权利要求1所述的可穿戴智能设备,其特征在于,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
12.如权利要求1所述的可穿戴智能设备,其特征在于,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
13.如权利要求12所述的可穿戴智能设备,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
14.一种可穿戴智能设备的互动方法,其特征在于,包括:
提供目标物和可穿戴智能设备,可穿戴智能设备至少包括:微投影仪、分光镜、位置传感器和中央数据中心,所述中央数据中心预设有互动模式;
根据所述位置传感器获取所述目标物的位置和位置随时间的变化方式,并将所述位置和位置随时间的变化方式的数据发送至中央数据中心;
所述中央数据中心根据所述互动模式对位置和位置随时间的变化方式进行分析,并将结果转换成对应的图形数据;
所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;
所述分光镜将对应图形成虚像于人眼,且所述虚像与目标物的对应位置叠加。
15.如权利要求14所述的互动方法,其特征在于,所述互动模式为格斗模式,所述目标物为攻击者,所述中央数据中心根据所述格斗模式对攻击者的位置和动作进行分析并获得攻击者弱点,并将弱点转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与攻击者的弱点叠加。
16.如权利要求14所述的互动方法,其特征在于,所述图形投影为拳头图形。
17.如权利要求14所述的互动方法,其特征在于,所述互动模式为棋谱模式,所述目标物为棋盘和棋盘上的棋子,所述中央数据中心根据所述棋谱模式对棋盘和棋盘上的棋子的位置和变动进行分析并获得对应的下棋提示,并将下棋提示转换成对应的图形数据,所述可穿戴智能设备的微投影仪根据图形数据将对应的图形投影至分光镜;所述分光镜将对应图形成虚像于人眼,且所述虚像与棋盘上的位置叠加。
18.如权利要求14所述的互动方法,其特征在于,还包括:提供本地数据库或远程数据库。
19.如权利要求18所述的互动方法,其特征在于,所述中央数据中心根据所述互动模式对所述位置和动作进行分析包括:调用本地数据库,或者远程数据库的数据支持。
20.如权利要求19所述的互动方法,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310741185.7A CN104750234B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及可穿戴智能设备的互动方法 |
US14/569,860 US10007331B2 (en) | 2013-12-27 | 2014-12-15 | Wearable intelligent systems and interaction methods thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310741185.7A CN104750234B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及可穿戴智能设备的互动方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104750234A true CN104750234A (zh) | 2015-07-01 |
CN104750234B CN104750234B (zh) | 2018-12-21 |
Family
ID=53481673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310741185.7A Active CN104750234B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及可穿戴智能设备的互动方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10007331B2 (zh) |
CN (1) | CN104750234B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108769237A (zh) * | 2018-06-30 | 2018-11-06 | 广州艾缔亿生物科技有限公司 | 一种基于声音信号的交互服务平台、方法和记录媒介 |
CN109582137A (zh) * | 2018-11-15 | 2019-04-05 | 深圳市知更鸟旅游投资发展有限公司 | 一种行为动作识别系统及其方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101840929B1 (ko) * | 2016-05-24 | 2018-05-04 | 주식회사 에코로커스 | 가상 현실 구현을 위한 장치 |
DE102016215746A1 (de) * | 2016-08-23 | 2018-03-01 | Robert Bosch Gmbh | Projektor mit berührungsfreier Steuerung |
CN106707547A (zh) * | 2016-11-22 | 2017-05-24 | 全普光电科技(上海)有限公司 | 智能眼镜 |
KR102413561B1 (ko) | 2016-12-05 | 2022-06-24 | 매직 립, 인코포레이티드 | 혼합 현실 환경의 가상 사용자 입력 콘트롤들 |
CN107193127A (zh) * | 2017-06-27 | 2017-09-22 | 北京数科技有限公司 | 一种成像方法及穿戴式设备 |
US10922583B2 (en) | 2017-07-26 | 2021-02-16 | Magic Leap, Inc. | Training a neural network with representations of user interface devices |
CN107861247B (zh) * | 2017-12-22 | 2020-08-25 | 联想(北京)有限公司 | 光学部件及增强现实设备 |
CN108898118B (zh) * | 2018-07-04 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置和存储介质 |
CN114020102A (zh) * | 2021-11-05 | 2022-02-08 | 山西杉大科能自动化科技有限公司 | 一种基于可穿戴的智能互动设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102540463A (zh) * | 2010-09-21 | 2012-07-04 | 微软公司 | 用于透视头戴式显示器的不透明度滤光器 |
CN102782565A (zh) * | 2010-01-22 | 2012-11-14 | 奥克利有限公司 | 用于3d眼镜的镜片 |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
CN103119512A (zh) * | 2008-11-02 | 2013-05-22 | 大卫·乔姆 | 近眼式显示系统和装置 |
CN103149669A (zh) * | 2011-12-23 | 2013-06-12 | 微软公司 | 反射阵列波导 |
CN103294185A (zh) * | 2011-09-30 | 2013-09-11 | 微软公司 | 个人音频/视频系统的运动应用 |
CN103439801A (zh) * | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4969714A (en) * | 1989-02-21 | 1990-11-13 | United Technologies Corporation | Helmet mounted display having dual interchangeable optical eyepieces |
JPH074343B2 (ja) * | 1992-09-29 | 1995-01-25 | 株式会社エイ・ティ・アール視聴覚機構研究所 | 奥行き知覚分析装置 |
JP4908668B2 (ja) * | 2000-04-19 | 2012-04-04 | キヤノン株式会社 | 焦点検出装置 |
US7545571B2 (en) * | 2004-09-08 | 2009-06-09 | Concurrent Technologies Corporation | Wearable display system |
RU2448423C2 (ru) * | 2006-03-03 | 2012-04-20 | Конинклейке Филипс Электроникс Н.В. | Сообщение о свободном канале и поддержка потерявших сеть узлов в беспроводной сети |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
WO2012021967A1 (en) * | 2010-08-16 | 2012-02-23 | Tandemlaunch Technologies Inc. | System and method for analyzing three-dimensional (3d) media content |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
CN103018905A (zh) * | 2011-09-23 | 2013-04-03 | 奇想创造事业股份有限公司 | 头戴式体感操控显示系统及其方法 |
JP5990998B2 (ja) * | 2012-04-23 | 2016-09-14 | セイコーエプソン株式会社 | 虚像表示装置 |
US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US9448689B2 (en) * | 2013-08-30 | 2016-09-20 | Paypal, Inc. | Wearable user device enhanced display system |
US20150097719A1 (en) * | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | System and method for active reference positioning in an augmented reality environment |
US10401953B2 (en) * | 2015-10-26 | 2019-09-03 | Pillantas Inc. | Systems and methods for eye vergence control in real and augmented reality environments |
-
2013
- 2013-12-27 CN CN201310741185.7A patent/CN104750234B/zh active Active
-
2014
- 2014-12-15 US US14/569,860 patent/US10007331B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103119512A (zh) * | 2008-11-02 | 2013-05-22 | 大卫·乔姆 | 近眼式显示系统和装置 |
CN102782565A (zh) * | 2010-01-22 | 2012-11-14 | 奥克利有限公司 | 用于3d眼镜的镜片 |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
CN102540463A (zh) * | 2010-09-21 | 2012-07-04 | 微软公司 | 用于透视头戴式显示器的不透明度滤光器 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
CN103294185A (zh) * | 2011-09-30 | 2013-09-11 | 微软公司 | 个人音频/视频系统的运动应用 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
CN103149669A (zh) * | 2011-12-23 | 2013-06-12 | 微软公司 | 反射阵列波导 |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
CN103439801A (zh) * | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108769237A (zh) * | 2018-06-30 | 2018-11-06 | 广州艾缔亿生物科技有限公司 | 一种基于声音信号的交互服务平台、方法和记录媒介 |
CN109582137A (zh) * | 2018-11-15 | 2019-04-05 | 深圳市知更鸟旅游投资发展有限公司 | 一种行为动作识别系统及其方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104750234B (zh) | 2018-12-21 |
US10007331B2 (en) | 2018-06-26 |
US20150185828A1 (en) | 2015-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104750234A (zh) | 可穿戴智能设备及可穿戴智能设备的互动方法 | |
CN104749777B (zh) | 可穿戴智能设备的互动方法 | |
US11656677B2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
CN103713737B (zh) | 用于智能眼镜的虚拟键盘系统 | |
CN104750230A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
US9671566B2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
CN105446474A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
EP4272064A1 (en) | Micro hand gestures for controlling virtual and graphical elements | |
US20170277259A1 (en) | Eye tracking via transparent near eye lens | |
WO2015200406A1 (en) | Digital action in response to object interaction | |
CN110018736A (zh) | 人工现实中的经由近眼显示器界面的对象增强 | |
WO2015006784A2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
JP2017102768A (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
EP3413165B1 (en) | Wearable system gesture control method and wearable system | |
CN106125921A (zh) | 3d映射环境中的凝视检测 | |
KR20230028532A (ko) | 가상 현실 경험들을 위한 지상 실측값 데이터세트들의 생성 | |
US10908425B2 (en) | Transmission-type head mounted display apparatus, display control method, and computer program | |
CN104915023B (zh) | 使用混合跟踪的输入设备 | |
CN109656364A (zh) | 一种用于在用户设备上呈现增强现实内容的方法与设备 | |
US12014645B2 (en) | Virtual tutorials for musical instruments with finger tracking in augmented reality | |
CN116348916A (zh) | 用于卷帘快门相机的方位跟踪 | |
CN104750229A (zh) | 可穿戴智能设备的交互方法及穿戴智能设备系统 | |
WO2022240829A1 (en) | Virtual guided fitness routines for augmented reality experiences | |
CN112567319A (zh) | 一种信号输入的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |