CN104750230A - 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 - Google Patents
可穿戴智能设备及其交互的方法、可穿戴智能设备系统 Download PDFInfo
- Publication number
- CN104750230A CN104750230A CN201310739056.4A CN201310739056A CN104750230A CN 104750230 A CN104750230 A CN 104750230A CN 201310739056 A CN201310739056 A CN 201310739056A CN 104750230 A CN104750230 A CN 104750230A
- Authority
- CN
- China
- Prior art keywords
- wearable smart
- eyes
- smart machine
- micro
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
一种可穿戴智能设备及其交互的方法、可穿戴智能设备系统,可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作。本发明能够将控制界面的图像界面虚像与操作者动作的位置或者位置随时间的变化方式匹配或关联,使得操作者动作与视觉效果一致或关联。
Description
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备及其交互的方法、可穿戴智能设备系统。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓系统智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是提供一种匹配度高且功能局限性小的可穿戴智能设备。
为解决上述问题,本发明提供一种可穿戴智能设备,包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作。
可选的,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
可选的,还包括:光路系统,适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器。
可选的,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
可选的,所述光路系统包括:第一反射镜,红外滤镜,半反半透镜,所述分光镜;其中,所述第一反射镜,适于将所述红外光光源发射的红外光反射至所述红外滤镜;所述红外滤镜,适于过滤所述第一反射镜反射的红外光和所述半反半透镜反射的红外光;所述半反半透镜,适于反射所述红外滤镜过滤的红外光和透射所述微投影仪投射的图像界面;所述分光镜,还适于反射所述半反半透镜反射的红外光于眼睛。
可选的,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像。
可选的,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的虚像于眼睛。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于眼睛的虚像与眼睛观察到的实际图形叠加模式;全虚像模式:眼睛仅接受图像界面成像于眼睛的虚像模式。
可选的,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,还包括:设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
可选的,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
可选的,所述部分人体的位置随时间的变化方式至少包括:点击、双击或滑动。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,所述设备框架配置有镜片且穿戴于使用者眼睛前。
可选的,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
可选的,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
本发明还提供一种采用如上述任一项所述的可穿戴智能设备交互的方法,包括:所述微投影仪投射图像界面成虚像于眼睛;视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;中央数据中心根据操作指令获取与位置数据对应的图像界面内的图像信息,并根据信息在本地或远程数据库调用资讯信息;中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛。
可选的,所述图像界面为眼睛看见的外界环境影像。
可选的,所述图像界面至少包括人脸。
可选的,当眼睛注视图像界面的人脸时,视网膜位置感应单元感应眼睛的位置和注视并将所述注视转换相应的操作指令及将位置转换为位置数据,中央数据中心根据操作指令获取与位置数据对应的图像界面内的人脸信息,并根据人脸信息在本地或远程数据库调用资讯信息。
可选的,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
本发明还提供一种可穿戴智能设备系统,包括:如上述任一项所述的可穿戴智能设备;若干服务器;其中,所述可穿戴智能设备通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器或其他可穿戴智能设备交换数据。
与现有技术相比,本发明的技术方案具有以下优点:本发明提供一种虚实结合的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面虚像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
进一步的,采用视网膜位置感应单元通过视网膜反射红外线成像来实现视线跟踪,能够精确的定位眼睛位置,相比于监控虹膜和瞳孔的视线跟踪技术,视网膜成像精确度高。
再进一步的,本发明的实施例通过视网膜反射人眼不可视的红外线来实现视线跟踪,不会干扰眼睛正常的工作。
再进一步的,本发明的实施例通过优化光路,能够在较小的空间内实现投射虚像和红外线追踪视线,产品性能优良且体积小。
附图说明
图1为本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明一实施例的可穿戴智能设备的视网膜位置感应单元和光路系统示意图;
图4为本发明一实施例的可穿戴智能设备的T1时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图5为本发明一实施例的可穿戴智能设备的T2时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图6为本发明另一实施例的可穿戴智能设备示意图;
图7为本发明一实施例的可穿戴智能设备的校正示意图;
图8为本发明一实施例的可穿戴智能设备的菜单选择示意图;
图9为本发明又一实施例的可穿戴智能设备示意图;
图10为本发明又一实施例的可穿戴智能设备示意图;
图11为本发明又一实施例的可穿戴智能设备示意图;
图12和图13为本发明一实施例的可穿戴智能设备图像传感器在获取至少部分人体的位置,并将所述位置转换为位置数据的示意图;
图14为本发明又一实施例的可穿戴智能设备示意图;
图15为本发明一实施例的可穿戴智能设备交互的方法流程示意图;
图16为本发明另一实施例的可穿戴智能设备交互的方法示意图;
图17为本发明又一实施例的可穿戴智能设备交互的方法示意图;
图18为本发明一实施例的可穿戴智能设备系统示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚实结合的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面虚像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
进一步的,采用视网膜位置感应单元通过视网膜反射红外线成像来实现视线跟踪,能够精确的定位眼睛位置,相比于监控虹膜和瞳孔的视线跟踪技术,视网膜成像精确度高。
再进一步的,本发明的实施例通过视网膜反射人眼不可视的红外线来实现视线跟踪,不会干扰眼睛正常的工作。
再进一步的,本发明的实施例通过优化光路,能够在较小的空间内实现投射虚像和红外线追踪视线,产品性能优良且体积小。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架100上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架101,从所述第一支架101两端延伸出的第一侧臂102和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架101大致平行使用者的脸部,且所述第一支架101用于为分光镜120提供支撑平台,使得分光镜能够较佳地成虚像于人眼。
所述第一侧臂102或第二侧臂103用于为视网膜位置感应单元150、微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂102下方;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
在本实施例中,所述视网膜位置感应单元150设置于第一侧臂102的内侧。本领域的技术人员应该知晓,所述视网膜位置感应单元150设置以适于接受视网膜反射的红外光为宜,可以根据实际的产品合理设置,不应限制本发明的保护范围。
还需要说明的是,所述第一支架101还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出。
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成虚像在使用者眼中。
作为一实施例,所述分光镜120为反射镜,所述反射镜为反射率为30%至70%,作为一示范例,所述反射镜的反射率为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成虚像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受虚像和实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成虚像于人眼,在此特意说明,不应限制本发明的保护范围。
需要说明的是,通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
设置于设备框架上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
具体地,所述视网膜位置感应单元150可以通过接触镜式、电磁线圈式、红外光电反射式、红外电视式感应眼睛的位置和位置随时间的变化方式。
作为一实施例,请参考图3,所述视网膜位置感应单元150包括:红外光光源151,适于发射红外光并照射至眼睛的视网膜;红外图像传感器152,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜153,所述凸透镜配置于沿光路移动,所述凸透镜153适于将视网膜反射的红外线汇聚。
为了合理的利用设备框架,本实施例的可穿戴智能设备还包括光路系统,所述光路系统适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器,以减小可穿戴智能设备的体积。
具体地,所述光路系统包括:第一反射镜161,红外滤镜162,半反半透镜163,第二反射镜164;其中,所述第一反射镜161,适于将所述红外光光源发射的红外光反射至所述红外滤镜162;所述红外滤镜162,适于过滤所述第一反射镜161反射的红外光和所述半反半透镜163反射的红外光;所述半反半透镜163,适于反射所述红外滤镜162过滤的红外光和透射所述微投影仪110投射的图像界面;所述第二反射镜164,还适于反射所述半反半透镜163反射的红外光于眼睛170。
较佳地,为了进一步减少额外的可穿戴智能设备单元,减小可穿戴智能设备单元的体积和重量,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
作为一实施例,请结合参考图1和图3,所述微投影仪110和所述视网膜位置感应单元150设置第一侧臂102上,其中所述微投影仪110面对所述半反半透镜163的透射面,使得所述微投影仪110投射的图像从所述半反半透镜163透射;在本实施例中,采用所述分光镜120作为第二反射镜,即所述分光镜120将从所述半反半透镜163透射的图像反射,成虚像于眼睛170。
而所述视网膜位置感应单元150中的红外光光源151发射照明红外光,经过第一反射镜161反射,照明红外光通过红外滤镜162后,入射至所述半反半透镜163的反射面,反射至第二反射镜,在本实施例中,采用所述分光镜120作为第二反射镜,所述分光镜120将照明红外光反射至眼睛170的视网膜,视网膜将照明红外光反射至所述分光镜120,所述分光镜120反射至所述半反半透镜163的反射面,所述半反半透镜163将视网膜反射的红外光反射通过红外滤镜162后,被红外图像传感器152接受并将视网膜成像,为了便于理解,红外光源入射至视网膜的照明红外光用虚像表示,视网膜反射的红外光用实线表示。
本实施例采用视网膜位置感应单元150和微投影仪110共享部分光路,且微投影仪110是可见光,视网膜位置感应单元150是不可见光,两者在互不干扰的基础上实现资源共享,能够较大程度的减少光学单元,减轻可穿戴智能设备的重量,且通过优化光路系统,使得视线跟踪和虚像投影体积小。
需要说明的是,所述第一反射镜161可以内置于所述视网膜位置感应单元150内,以提高集成度,当所述第一反射镜161内置于所述视网膜位置感应单元150内时,所述第一反射镜161应该采用较小尺寸的反射镜,以避免影响半反半透镜163反射视网膜反射的红外光的成像效果。
还需要说明的是,在其他的实施例中,也可以视网膜位置感应单元150独享光路,微投影仪110独享光路,在此特意说明,不应限制本发明的保护范围。
请参考图4,图4为T1时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图4中的171所示;
请参考图5,图5为T2时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图5中的172所示;作为一实施例,图4中眼睛为凝视状态,图5中眼睛向左转动。
从图4和图5的视网膜图像,可以分析得出视网膜向右边移动,因此可以获知眼睛向左转动,而所述视网膜位置感应单元150内置时钟,以及根据图4和图5的视网膜图像的位置差异,可以获知眼睛转动的速度。
使用者可以在实际使用之前对所述眼睛随位置变化的方式进行校正,设定个人使用习惯,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼,所述操作指令至少包括:选取、确定、移动或解锁,作为一示范例,注视设置为双击,眨眼设置为点击,平滑跟踪设置为移动,眼跳动设置为噪音。
作为一示范例,注视表示视线停留在目标物体上的时间至少为100-200毫秒以上,需要说明的是,停留时间可以根据个人使用习惯进行校正,且在注视时,眼球并不是绝对静止的,而是不停地轻微抖动,其抖动幅度小于1°。
还需要说明的是,所述眼睛随位置变化的方式与所述操作指令可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
在另一实施例中,考虑到使用者的眼睛的晶状体和角膜会有不同的屈光度,所述视网膜位置感应单元150的凸透镜153设置为沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器152与所述凸透镜153将视网膜反射的红外线成清晰像。
还需要指出的是,所述中央数据中心140适于接受所述凸透镜153沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪110成清晰图像界面的虚像于眼睛。
在另一实施例中,请依旧参考图1,所述可穿戴智能设备还可以在设备框架前端设置位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
作为一实施例,所述位置传感器130可以为声波反射器或图像传感器,所述位置传感器130根据声学原理或光学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器,所述中央数据中心140至少能够接受所述位置传感器130的位置数据和操作指令,并根据所述位置数据和操作指令控制所述微投影仪110输出相应图形界面,以匹配至少人体的位置,并执行与操作指令对应的操作。
所述中央数据中心140还适于与远程数据库交换数据,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式获得远程数据库数据支持。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还可以包括通信模块(未示出),所述通信模块可以内置于设备框架100内或者包括于中央数据中心140,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成虚像,且中央数据中心140根据位置传感器130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正虚像的位置,使得虚像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
本发明还提供另一实施例的可穿戴智能设备,请参考图6,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
分别设置于设备框架两侧上的分光镜220,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器230,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
分别设置于设备框架200两侧上的视网膜位置感应单元250,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
本实施例中的设备框架200、分光镜220、视网膜位置感应单元250、位置传感器230和中央数据中心240请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成像,使得成像效果具有立体感。
图7为本发明一实施例的可穿戴智能设备的校正,具体地,中央数据中心140控制微投影仪110投射校正标记180成虚像于眼睛170,所述校正标记的坐标被预先设定于中央数据中心140内,使用者眼睛注视所述校正标记180,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像173,并根据视网膜图像173和校正标记180,对后续使用者的操作进行校正。
同样地,可穿戴智能设备可以对其他的眼睛的位置和位置随时间的变化方式进行校正,以提高可穿戴智能设备的响应准确度。
图8为本发明一实施例的可穿戴智能设备的菜单选择,中央数据中心140控制微投影仪110投射菜单界面成虚像于人眼;使用者注视菜单界面中的图标,作为一示例,以图8中箭头所示图标为使用者注视图标,在使用者注视图标的同时,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像174,并将视网膜的位置、图像以及视网膜随时间的变换数据,传输至中央数据中心140,中央数据中心140根据之前预设和校正数据,确定操作命令,作为一示例,确定为选取;中央数据中心140可以按照人眼170的位置投射一个光标,可以是图8中的箭头,于菜单界面上,此光标会跟随人眼170注视位置的移动,以辅助确认人眼170所注视目标。
需要说明的是,预设数据可以根据使用者的喜好进行设置,例如,注视时间为1.5秒为选取,注视时间为3秒为选取,或眨眼3次为选取。
本发明还提供又一实施例的可穿戴智能设备,请参考图9,包括:
设备框架300;
设置于设备框架300上的微投影仪310,适于将图像界面投射于分光镜320上;
设置于设备框架上的分光镜320,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的声波反射器330,适于感应至少部分人体的位置和位置随时间的变化方式并将所述动作转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心340,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
穿戴于手指的位置识别器350,所述位置识别器350适于被所述声波反射器340感应,以确定手指的位置和位置随时间的变化方式。
在本实施例中,设备框架300、微投影仪310、分光镜320和中央数据中心340请参考之前实施例的相应描述。
在本实施例中,所述位置传感器为声波反射器330,所述位置识别器350为金属环,例如为戒指。
其中,所述声波反射器330用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器330接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心340根据所述位置数据校准微投影仪310或分光镜320,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波反射器330的距离可以根据下列公式确定:
d=V0t/2
其中,d为金属环与声波反射器330的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
V0=331.45×(1+τ/273.15)1/2m/s
其中,τ为声波反射时环境的温度;
金属环的相对声波反射器330的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
Δf=(2×V×cosθ/V0)×f
其中,Δf为声波反射器330探测到的频移,V为金属环的相对声波反射器330的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波反射器330发射声波的位置、声波反射器330探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂金戒指。
还需要说明的是,本实施例的声波反射器330数量可以为1、2、3、4...6...11个。
较佳地,所述声波反射器330数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波反射器330能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请参考图10,图10为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图。
中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述视网膜位置感应单元350和位置传感器330获取的眼睛的位置或位置随时间的变化方式(根据视网膜图像375及相关数据)和至少部分人体的位置或位置随时间的变化方式,根据距离数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪310和分光镜320调整输出的图像界面在眼睛370中的成像,使得成像与使用者的手指位置匹配。
在另一实施例中,中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波反射器330调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪310先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器(在本实施例中为声波反射器330)通过位置识别器350识别当前手指位置,并且同微投影仪310的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心340根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心340内置使用者的预存数据和所述声波反射器330获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心340内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,可穿戴智能设备还可以兼容声音传输单元360,所述声音传输单元可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心340,中央数据中心340根据上述语音指令以调节输出的图像界面和执行操作指令。
本发明还提供又一实施例的可穿戴智能设备,请参考图11,包括:
设备框架400;
设置于设备框架400上的微投影仪410,适于将图像界面投射于分光镜420上;
设置于设备框架400上的分光镜420,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器430,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,所述位置传感器430为若干位置不同的图像传感器;
设置于设备框架上的中央数据中心440,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在本实施例中,设备框架400、微投影仪410、分光镜420和中央数据中心440请参考之前实施例的相应描述。
需要说明的是,图像传感器的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感器的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感器的位置和数量不应限制本发明的保护范围。
作为一实施例,所述位置传感器430为设置于设备框架400左上的图像传感器和设置于设备框架400右上的图像传感器。
左上的图像传感器和右上的图像传感器通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在位置传感器430内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感器和右上的图像传感器同时获取的至少部分人体的图像坐标及时间信息,集成在位置传感器430内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图11,图11中的第一图像471和第二图像472分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图12和图13,图12和图13为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图12中仅示出左上的图像传感器731和右上的图像传感器732,同样的为了方便理解,将至少部分人体以箭头符号740示意。
其中,左上的图像传感器731和右上的图像传感器732的间距为预设值,为了方便理解所述间距为L,左上的图像传感器731的焦距为f1,右上的图像传感器732的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感器731获取至少部分人体的图像数据741和右上的图像传感器732获取至少部分人体的图像数据742,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感器731获取的图像中测量获取,(x2,y2)从右上的图像传感器732获取的图像中测量获取;左上的图像传感器731的焦距f1和右上的图像传感器732的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
还需要说明的是,在其他实施例中,左上的图像传感器获取至少部分人体的图像数据和右上的图像传感器获取至少部分人体的图像数据为倒像时,需通过倒像获得反转的正像,并通过正像获取坐标。
在其他实施例中,也可以根据图像传感器的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感器,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
请参考图14,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪410和分光镜420调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,在本实施例中,以所述至少部分人体为拳头为例,做示范性说明。
请依旧参考图14,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据校正所述位置传感器,调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配。
作为一示例,由微投影仪410先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器识别当前手指位置,并且同微投影仪410的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心440根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心440内置使用者的预存数据和所述图像传感器获取的至少部分人体的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心440内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,在其他实施例中,请依旧参考图14,位置传感器430(在本实施例中为图像传感器)捕获拳头484的位置随时间的变化方式,在t-1与t时刻获取第三图像481和第四图像482,并根据之前实施例的运算方式,将拳头的位置和运动轨迹转换为所述操作指令和位置数据,中央数据中心440获得所述操作指令和位置数据后,控制微投影仪410和分光镜420调整输出的图像界面,且在人眼中将拳头484成虚像483,使得使用者在操作图像界面时,具有较好的体验。
本发明还提供一实施例的可穿戴智能设备交互的方法,请参考图15,包括如下步骤:
步骤S101,提供上述实施例的可穿戴智能设备;
步骤S102,所述微投影仪投射图像界面成虚像于眼睛;
步骤S103,视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
步骤S104,中央数据中心根据操作指令获取与位置数据对应的图像界面内的图像信息,并根据信息在本地或远程数据库调用资讯信息;
步骤S105,中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛。
具体地,中央数据中心根据场景控制所述微投影仪投射图像界面成虚像于眼睛,使用者预先预设习惯和校正,视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,其中所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼;中央数据中心根据操作指令获取与位置数据对应的图像界面内的图像信息,并根据信息在本地或远程数据库调用资讯信息,中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛。
作为一示例,图像界面为文物照片,眼睛注视文物照片中的文物时,根据预设习惯和校正,中央数据中心获取文物的资料,并相应显示于眼睛。
具体地过程请参考之前实施例的相应描述,在此不再赘述。
请参考图16,图16为本发明另一实施例的可穿戴智能设备交互的方法,具体地,当使用者佩戴本发明上述实施例的可穿戴智能设备行走于街道时,中央数据中心根据场景控制所述微投影仪投射图像界面成虚像于眼睛,所述图像界面至少包括人脸,当眼睛注视图像界面的人脸时,视网膜位置感应单元感应眼睛的位置和注视并将所述注视转换相应的操作指令及将位置转换为位置数据,中央数据中心根据操作指令获取与位置数据对应的图像界面内的人脸信息,并根据人脸信息在本地或远程数据库调用资讯信息;中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
作为其他实施例中,当中央数据中心根据场景控制所述微投影仪投射图像界面成虚像于眼睛时,中央数据中心根据人脸分析软件,自动识别出图像界面的人脸,并根据人脸信息在本地或远程数据库调用资讯信息,中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
本发明的实施例的互动方法能够及时的提供资讯信息给使用者,进一步的,能够在街道等场景提醒使用者周边是否有犯罪记录的人,提高使用者在街道等场景的警惕性,降低被犯罪的几率。
请参考图17,图17为本发明另一实施例的可穿戴智能设备交互的方法,具体地,当使用者佩戴本发明上述实施例的可穿戴智能设备行位于社交场合时,中央数据中心根据场景控制所述微投影仪投射图像界面成虚像于眼睛,所述图像界面至少包括人脸,当眼睛注视图像界面的人脸时,视网膜位置感应单元感应眼睛的位置和注视并将所述注视转换相应的操作指令及将位置转换为位置数据,中央数据中心根据操作指令获取与位置数据对应的图像界面内的人脸信息,并根据人脸信息在本地或远程数据库调用资讯信息;中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
需要说明的是,在图17中示出的人脸进行了模糊化处理,但是在实际的应用中,所述人脸为清洗图像。
本发明的实施例能够在社交场合隐蔽的提示使用者社交场合的其他人的信息,提高使用者的社交能力。
本发明还提供一种可穿戴智能设备系统,请参考图18,包括:
若干上述实施例的可穿戴智能设备501;
若干服务器500;
其中,所述可穿戴智能设备501通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器500或其他可穿戴智能设备501交换数据。
具体地,所述可穿戴智能设备501还包括通信模块,与若干服务器500构建成内部网络,所述通信模块通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器500或其他可穿戴智能设备501交换数据。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (24)
1.一种可穿戴智能设备,其特征在于,包括:
设备框架;
设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;
设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作。
2.如权利要求1所述的可穿戴智能设备,其特征在于,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
3.如权利要求1所述的可穿戴智能设备,其特征在于,还包括:光路系统,适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器。
4.如权利要求3所述的可穿戴智能设备,其特征在于,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
5.如权利要求4所述的可穿戴智能设备,其特征在于,所述光路系统包括:第一反射镜,红外滤镜,半反半透镜,所述分光镜;其中,所述第一反射镜,适于将所述红外光光源发射的红外光反射至所述红外滤镜;所述红外滤镜,适于过滤所述第一反射镜反射的红外光和所述半反半透镜反射的红外光;所述半反半透镜,适于反射所述红外滤镜过滤的红外光和透射所述微投影仪投射的图像界面;所述分光镜,还适于反射所述半反半透镜反射的红外光于眼睛。
6.如权利要求2所述的可穿戴智能设备,其特征在于,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像。
7.如权利要求6所述的可穿戴智能设备,其特征在于,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的虚像于眼睛。
8.如权利要求7所述的可穿戴智能设备,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于眼睛的虚像与眼睛观察到的实际图形叠加模式;
全虚像模式:眼睛仅接受图像界面成像于眼睛的虚像模式。
9.如权利要求1所述的可穿戴智能设备,其特征在于,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼。
10.如权利要求1所述的可穿戴智能设备,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
11.如权利要求1所述的可穿戴智能设备,其特征在于,还包括:设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
12.如权利要求11所述的可穿戴智能设备,其特征在于,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
13.如权利要求11所述的可穿戴智能设备,其特征在于,所述部分人体的位置随时间的变化方式至少包括:点击、双击或滑动。
14.如权利要求11所述的可穿戴智能设备,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
15.如权利要求1所述的可穿戴智能设备,其特征在于,所述设备框架配置有镜片且穿戴于使用者眼睛前。
16.如权利要求1所述的可穿戴智能设备,其特征在于,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
17.如权利要求1所述的可穿戴智能设备,其特征在于,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
18.如权利要求17所述的可穿戴智能设备,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
19.一种采用如权利要求1至18任一项所述的可穿戴智能设备交互的方法,其特征在于,
所述微投影仪投射图像界面成虚像于眼睛;
视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
中央数据中心根据操作指令获取与位置数据对应的图像界面内的图像信息,并根据信息在本地或远程数据库调用资讯信息;
中央数据中心根据资讯信息控制所述微投影仪投射与资讯信息对应的图像界面成虚像于眼睛。
20.如权利要求19所述的交互方法,其特征在于,所述图像界面为眼睛看见的外界环境影像。
21.如权利要求20所述的交互方法,其特征在于,所述图像界面至少包括人脸。
22.如权利要求21所述的交互方法,其特征在于,当眼睛注视图像界面的人脸时,视网膜位置感应单元感应眼睛的位置和注视并将所述注视转换相应的操作指令及将位置转换为位置数据,中央数据中心根据操作指令获取与位置数据对应的图像界面内的人脸信息,并根据人脸信息在本地或远程数据库调用资讯信息。
23.如权利要求21所述的交互方法,其特征在于,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
24.一种可穿戴智能设备系统,其特征在于,包括:
如权利要求1至18任一项所述的可穿戴智能设备;
若干服务器;
其中,所述可穿戴智能设备通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器或其他可穿戴智能设备交换数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739056.4A CN104750230A (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739056.4A CN104750230A (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104750230A true CN104750230A (zh) | 2015-07-01 |
Family
ID=53590061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310739056.4A Pending CN104750230A (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104750230A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105824409A (zh) * | 2016-02-16 | 2016-08-03 | 乐视致新电子科技(天津)有限公司 | 虚拟现实的交互控制方法及装置 |
CN105955491A (zh) * | 2016-06-30 | 2016-09-21 | 北京上古视觉科技有限公司 | 一种具有眼控及虹膜识别功能的vr眼镜 |
CN106686365A (zh) * | 2016-12-16 | 2017-05-17 | 歌尔科技有限公司 | 用于头戴显示设备的镜头调节方法、装置及头戴显示设备 |
CN106713882A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院苏州生物医学工程技术研究所 | 光刺激视觉修复设备和光刺激视觉成像方法 |
CN107193127A (zh) * | 2017-06-27 | 2017-09-22 | 北京数科技有限公司 | 一种成像方法及穿戴式设备 |
CN107219921A (zh) * | 2017-05-19 | 2017-09-29 | 京东方科技集团股份有限公司 | 一种操作动作执行方法及其系统 |
CN108268231A (zh) * | 2018-02-09 | 2018-07-10 | 京东方科技集团股份有限公司 | 一种显示装置、信息处理的方法、计算机存储介质及终端 |
CN109074772A (zh) * | 2016-01-25 | 2018-12-21 | 艾维赛特有限公司 | 基于视线的内容共享动态自组织网络 |
CN110908503A (zh) * | 2018-09-14 | 2020-03-24 | 苹果公司 | 跟踪和漂移校正 |
TWI710800B (zh) * | 2016-06-15 | 2020-11-21 | 威亞視覺科技股份有限公司 | 頭戴式個人多媒體系統與視覺輔助裝置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
CN103149669A (zh) * | 2011-12-23 | 2013-06-12 | 微软公司 | 反射阵列波导 |
-
2013
- 2013-12-27 CN CN201310739056.4A patent/CN104750230A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
CN103149669A (zh) * | 2011-12-23 | 2013-06-12 | 微软公司 | 反射阵列波导 |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109074772A (zh) * | 2016-01-25 | 2018-12-21 | 艾维赛特有限公司 | 基于视线的内容共享动态自组织网络 |
CN105824409A (zh) * | 2016-02-16 | 2016-08-03 | 乐视致新电子科技(天津)有限公司 | 虚拟现实的交互控制方法及装置 |
TWI710800B (zh) * | 2016-06-15 | 2020-11-21 | 威亞視覺科技股份有限公司 | 頭戴式個人多媒體系統與視覺輔助裝置 |
CN105955491A (zh) * | 2016-06-30 | 2016-09-21 | 北京上古视觉科技有限公司 | 一种具有眼控及虹膜识别功能的vr眼镜 |
CN106686365A (zh) * | 2016-12-16 | 2017-05-17 | 歌尔科技有限公司 | 用于头戴显示设备的镜头调节方法、装置及头戴显示设备 |
CN106713882A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院苏州生物医学工程技术研究所 | 光刺激视觉修复设备和光刺激视觉成像方法 |
CN107219921A (zh) * | 2017-05-19 | 2017-09-29 | 京东方科技集团股份有限公司 | 一种操作动作执行方法及其系统 |
CN107219921B (zh) * | 2017-05-19 | 2019-09-27 | 京东方科技集团股份有限公司 | 一种操作动作执行方法及其系统 |
CN107193127A (zh) * | 2017-06-27 | 2017-09-22 | 北京数科技有限公司 | 一种成像方法及穿戴式设备 |
CN108268231A (zh) * | 2018-02-09 | 2018-07-10 | 京东方科技集团股份有限公司 | 一种显示装置、信息处理的方法、计算机存储介质及终端 |
CN108268231B (zh) * | 2018-02-09 | 2021-09-10 | 京东方艺云科技有限公司 | 一种显示装置、信息处理的方法、计算机存储介质及终端 |
CN110908503A (zh) * | 2018-09-14 | 2020-03-24 | 苹果公司 | 跟踪和漂移校正 |
CN110908503B (zh) * | 2018-09-14 | 2022-04-01 | 苹果公司 | 跟踪设备的位置的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104749777B (zh) | 可穿戴智能设备的互动方法 | |
CN104750230A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
CN105446474B (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
KR102179142B1 (ko) | 착용식 식품 영양 피드백 시스템 | |
CN104750234B (zh) | 可穿戴智能设备及可穿戴智能设备的互动方法 | |
US9310891B2 (en) | Method and system enabling natural user interface gestures with user wearable glasses | |
JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
US20160259406A1 (en) | Interactive projection display | |
US20140152558A1 (en) | Direct hologram manipulation using imu | |
US20160131902A1 (en) | System for automatic eye tracking calibration of head mounted display device | |
CN110018736A (zh) | 人工现实中的经由近眼显示器界面的对象增强 | |
KR20150086388A (ko) | 사람에 의해 트리거되는 홀로그래픽 리마인더 | |
CN108170279A (zh) | 头显设备的眼动和头动交互方法 | |
CN103443742A (zh) | 用于凝视和姿势接口的系统和方法 | |
US11567569B2 (en) | Object selection based on eye tracking in wearable device | |
WO2018154272A1 (en) | Systems and methods for obtaining information about the face and eyes of a subject | |
CN104750229B (zh) | 可穿戴智能设备的交互方法及穿戴智能设备系统 | |
US11886646B2 (en) | Personalized calibration of user interfaces | |
KR20240028874A (ko) | 외부 디바이스에 의해 제어되는 증강 현실 디바이스 및 그 동작 방법 | |
WO2024091263A1 (en) | Fitting of head mounted wearable device from two-dimensional image | |
CN112965607A (zh) | 一种眼镜鼠标及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150701 |
|
RJ01 | Rejection of invention patent application after publication |