CN105446474B - 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 - Google Patents
可穿戴智能设备及其交互的方法、可穿戴智能设备系统 Download PDFInfo
- Publication number
- CN105446474B CN105446474B CN201410504709.5A CN201410504709A CN105446474B CN 105446474 B CN105446474 B CN 105446474B CN 201410504709 A CN201410504709 A CN 201410504709A CN 105446474 B CN105446474 B CN 105446474B
- Authority
- CN
- China
- Prior art keywords
- smart machine
- wearable smart
- unit
- data
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
一种可穿戴智能设备及其交互的方法、可穿戴智能设备系统,可穿戴智能设备包括:设备框架;微投影仪,适于将图像界面投射于分光镜上;分光镜,适于接受投射的图像界面并将图像界面成实像于人眼;图像传感单元,适于感应外部场景信息,并将外部场景信息转化为场景图像数据;视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将位置转换为位置数据;中央数据中心,中央数据中心至少适于将所述位置随时间的变化方式和位置数据转换相应的操作指令,所述中央数据中心还包括分享模块,至少适于接受所述操作指令,并执行将场景图像数据分享给第三方可穿戴智能设备的操作。本发明的可穿戴智能设备实现数据快速分享,提高了用户体验度。
Description
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备及其交互的方法、可穿戴智能设备系统。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓系统智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是提供一种匹配度高且功能局限性小的可穿戴智能设备。
为解决上述问题,本发明提供一种可穿戴智能设备,包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成实像于人眼视网膜;设置于设备框架前端的图像传感单元,适于感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将位置转换为位置数据;设置于设备框架上的中央数据中心,中央数据中心至少适于将所述位置随时间的变化方式和位置数据转换相应的操作指令,所述中央数据中心还包括分享模块,所述分享模块至少适于接受所述操作指令,并执行将场景图像数据分享给第三方可穿戴智能设备的操作。
可选的,所述分享模块包括存储单元、分享单元和通讯单元,所述存储单元适于存储的场景图像数据,所述分享单元适于在接收到操作指令和位置数据时,向存储单元发送将场景图像数据传送给通讯单元的传送指令,并向通讯单元发送分享指令,所述通讯单元适于在接收到场景图像数据时,根据接收的分享指令将场景图像数据分享给第三方可穿戴智能设备。
可选的,所述可穿戴智能设备还包括音频输入输出单元,适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
可选的,所述声频数据存储在存储单元中,所述分享单元在接收到操作指令和位置数据时,向存储单元发送将场景图像数据和声频数据传送给通讯单元的传送指令,并向通讯单元发送分享指令,所述通讯单元在接收到场景图像数据和声频数据时,根据接收的分享指令将场景图像数据和声频数据分享给第三方可穿戴智能设备。
可选的,所述分享模块包括情景单元,所述情景单元至少适于提供场景图像数据分享操作时的情景模式图像界面,情景模式图像界面上具有分享单元关联的分享图标。
可选的,所述分享模块包括显示单元,所述显示单元至少适于提供显示窗口,显示窗口适于显示或播放存储单元存储的场景图像数据或者图像传感单元获得的场景图像数据,所述显示窗口位于情景模式图像界面上。
可选的,所述情景模式包括街景模式、特定场所模式、会议模式、任务模式、团体任务模式、诊断/会诊模式或买卖模式。
可选的,所述分享模块还包括属性单元,适于定义可穿戴智能设备的属性。
可选的,所述属性包括场景/位置属性、信用属性、职业属性、级别属性、或状态属性。
可选的,所述分享模块在进行分享操作时,在选择分享对象的属性后,分享单元发送分享指令,所述分享指令中包含分享对象属性信息,通讯单元根据接收的分享指令将场景图像数据分享给具有该属性的第三方可穿戴智能设备。
可选的,所述场景/位置属性表示可穿戴智能设备使用者位于某一特定场所,信用属性表示可穿戴智能设备使用者的信用等级,职业属性表示可穿戴智能设备使用者的职业种类,级别属性表示可穿戴智能设备使用者的在领域内的技术或者权限级别,状态属性表示可穿戴智能设备使用者处于忙碌或空闲状态。
可选的,所述属性单元包括属性列表单元和属性定义单元,所述属性列表单元适于以列表的形式存储和显示不同的属性,所述属性定义单元适于定义属性列表单元中属性类别和属性内容。
可选的,所述属性单元还包括属性评估单元,所述属性评估单元适于第三方评估机构或者第三方可穿戴智能设备使用者对可穿戴智能设备的属性进行评估。
可选的,通讯单元通过无线通信将场景图像数据和声频数据直接分享给第三方可穿戴智能设备,或者所述通讯单元通过无线通信将场景图像数据和声频数据发送给服务器,然后由服务器分享给第三方可穿戴智能设备。
可选的,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
可选的,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的实像于眼睛;所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于眼睛的实像与眼睛观察到的实际图形叠加模式;
全实像投影模式:眼睛仅接受图像界面成实像于眼睛的实像投影模式。
可选的,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼,所述操作指令至少包括:选取、确定、移动或解锁。
本发明还提供了采用上述可穿戴智能设备进行交互的方法,包括:微投影仪将图像界面成实像于人眼视网膜;图像传感单元感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心;视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令;中央数据中心中的分享模块接受所述操作指令,将场景图像数据分享给第三方可穿戴智能设备。
可选的,所述可穿戴智能设备包括音频输入输出单元,所述音频输入输出单元将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
本发明还提供了一种可穿戴智能设备系统,包括:
若干上述所述的可穿戴智能设备;
若干服务器;
其中,所述可穿戴智能设备直接向第三方可穿戴智能设备分享场景图像数据和声频数据或者通过服务器向第三方可穿戴智能设备分享场景图像数据和声频数据。
与现有技术相比,本发明的技术方案具有以下优点:
本发明提供一种虚实结合的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面实像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致,并且本发明的可穿戴智能设备可以实现场景图像数据的分享,可以应用在逛街、任务发布、在线会议、虚拟现实协助、网购等多场合,提高可穿戴智能设备用户体验度。
进一步,所述可穿戴智能设备还包括音频输入输出单元,适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。音频输入输出单元可以实现录取,处理,以及声频数据的播放,在进行分享操作时,声频数据和场景图像数据可以同时发送给第三方可穿戴设备,有利于进一步提高了用户的体验度。
进一步,在进行分享操作时,可以选择分享的可穿戴智能设备属性,从而可以实现将场景图像数据分享给特定的可穿戴智能设备使用者。
进一步,可穿戴智能设备包括属性单元,通过对可穿戴智能设备进行属性定义,实现信用管理、技能和权限级别管理等。
进一步的,采用视网膜位置感应单元通过视网膜反射红外线成像来实现视线跟踪,能够精确的定位眼睛位置,相比于监控虹膜和瞳孔的视线跟踪技术,视网膜成像精确度高。
再进一步的,本发明的实施例通过视网膜反射人眼不可视的红外线来实现视线跟踪,不会干扰眼睛正常的工作。
再进一步的,本发明的实施例通过优化光路,能够在较小的空间内实现投射实像和红外线追踪视线,产品性能优良且体积小。
本发明互动方法,用户可以将场景图像数据和声频数据的分享给第三方可穿戴智能设备,提高了体验度。
本发明可穿戴智能设备系统可以实现数据的快速上传和快速分享。
附图说明
图1为本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明一实施例的可穿戴智能设备的视网膜位置感应单元和光路系统示意图;
图4为本发明一实施例的可穿戴智能设备的T1时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图5为本发明一实施例的可穿戴智能设备的T2时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图6为本发明一实施例的可穿戴智能设备的图像传感单元获得至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据的示意图;
图7~图8为本发明一实施例可穿戴智能设备获取至少部分人体的位置数据的示意图;
图9为本发明另一实施例可穿戴智能设备获取至少部分人体的位置数据的示意图;
图10为本发明一实施例分享模块的结构示意图;
图11为本发明又一实施例分享模块的结构示意图;
图12为本发明又一实施例的可穿戴智能设备示意图;
图13为本发明一实施例的可穿戴智能设备的校正的结构示意图;
图14为本发明一实施例的可穿戴智能设备的进行分享操作时的结构示意图;
图15为本发明一实施例的可穿戴智能设备系统示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚实结合的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面实像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致,并且本发明的可穿戴智能设备可以实现场景图像数据的分享,可以应用在逛街、任务发布、任务执行、团队协调配和、在线会议、虚拟现实协助、网购等多场合,提高可穿戴智能设备用户体验度。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成实像于人眼视网膜;
设置于设备框架100前端的图像传感单元130,适于感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心140;
设置于设备框架100上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将位置转换为位置数据;
设置于设备框架上的中央数据中心140,中央数据中心至少适于将所述位置随时间的变化方式和位置数据转换相应的操作指令,所述中央数据中心140还包括分享模块10,所述分享模块10至少适于接受所述操作指令和位置数据,并执行将场景图像数据分享给第三方可穿戴智能设备的操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架102,从所述第一支架102两端延伸出的第一侧臂101和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架102大致平行使用者的脸部,且所述第一支架102用于为分光镜120提供支撑平台,使得分光镜能够较佳地成实像于人眼视网膜。
所述第一侧臂101或第二侧臂103用于为视网膜位置感应单元150、微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂101下方;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
在本实施例中,所述视网膜位置感应单元150设置于第一侧臂101的内侧。本领域的技术人员应该知晓,所述视网膜位置感应单元150设置以适于接受视网膜反射的红外光为宜,可以根据实际的产品合理设置,不应限制本发明的保护范围。
还需要说明的是,所述第一支架102还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出。
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成实像于人眼视网膜。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成实像在使用者视网膜上。
作为一实施例,所述分光镜120为反射镜,所述反射镜为反射率为30%至70%,作为一示范例,所述反射镜的反射率为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成实像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受微投影仪110投射的实像和外部呈现的实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成实像于人眼视网膜,在此特意说明,不应限制本发明的保护范围。
需要说明的是,通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的实像于人眼观察到的实际图形叠加模式;全实像投影模式:人眼仅接受图像界面成实像于人眼的实像投影模式。
可穿戴智能设备工作在叠加模式时,可以调节微投影仪110的光源的亮度,使得虚线和实像的亮度向匹配,使得具有较好的视觉效果。比如在室外使用可穿戴智能设备时,可以调低节微投影仪110的光源的亮度,从而使得眼睛能较好的接受外部的实像。
设置于设备框架上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
具体地,所述视网膜位置感应单元150可以通过红外光电反射式、红外电视式感应眼睛的位置和位置随时间的变化方式。
作为一实施例,请参考图3,所述视网膜位置感应单元150包括:红外光光源151,适于发射红外光并照射至眼睛的视网膜;红外图像传感器152,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜153,所述凸透镜配置于沿光路移动,所述凸透镜153适于将视网膜反射的红外线汇聚,成像于红外图像传感器152。
为了合理的利用设备框架,本实施例的可穿戴智能设备还包括光路系统,所述光路系统适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器,以减小可穿戴智能设备的体积。
具体地,所述光路系统包括:第一反射镜161,红外滤镜162,半反半透镜163,第二反射镜164;其中,所述第一反射镜161,适于将所述红外光光源发射的红外光反射至所述红外滤镜162;所述红外滤镜162,适于过滤所述第一反射镜161反射的红外光和所述半反半透镜163反射的红外光;所述半反半透镜163,适于反射所述红外滤镜162过滤的红外光和透射所述微投影仪110投射的图像界面;所述第二反射镜164,还适于反射所述半反半透镜163反射的红外光于眼睛170。
较佳地,为了进一步减少额外的可穿戴智能设备单元,减小可穿戴智能设备单元的体积和重量,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
作为一实施例,请结合参考图1和图3,所述微投影仪110和所述视网膜位置感应单元150设置第一侧臂101上,其中所述微投影仪110面对所述半反半透镜163的透射面,使得所述微投影仪110投射的图像从所述半反半透镜163透射;在本实施例中,采用所述分光镜120作为第二反射镜,即所述分光镜120将从所述半反半透镜163透射的图像反射,成实像于眼睛170。
而所述视网膜位置感应单元150中的红外光光源151发射照明红外光,经过第一反射镜161反射,照明红外光通过红外滤镜162后,入射至所述半反半透镜163的反射面,反射至第二反射镜,在本实施例中,采用所述分光镜120作为第二反射镜,所述分光镜120将照明红外光反射至眼睛170的视网膜,视网膜将照明红外光反射至所述分光镜120,所述分光镜120反射至所述半反半透镜163的反射面,所述半反半透镜163将视网膜反射的红外光反射通过红外滤镜162后,被红外图像传感器152接受并将视网膜成像。
本实施例采用视网膜位置感应单元150和微投影仪110共享部分光路,且微投影仪110是可见光,视网膜位置感应单元150是不可见光,两者在互不干扰的基础上实现资源共享,能够较大程度的减少光学单元,减轻可穿戴智能设备的重量,且通过优化光路系统,使得视线跟踪和实像投影体积小。
需要说明的是,所述第一反射镜161可以内置于所述视网膜位置感应单元150内,以提高集成度,当所述第一反射镜161内置于所述视网膜位置感应单元150内时,所述第一反射镜161应该采用较小尺寸的反射镜,以避免影响半反半透镜163反射视网膜反射的红外光的成像效果。
还需要说明的是,在其他的实施例中,也可以视网膜位置感应单元150独享光路,微投影仪110独享光路,在此特意说明,不应限制本发明的保护范围。
请参考图4,图4为T1时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图4中的171所示;
请参考图5,图5为T2时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图5中的172所示;作为一实施例,图4中眼睛为凝视状态,图5中眼睛向左转动。
从图4和图5的视网膜图像,可以分析得出视网膜向右边移动,因此可以获知眼睛向左转动,而所述视网膜位置感应单元150内置时钟,以及根据图4和图5的视网膜图像的位置差异,可以获知眼睛转动的速度。
使用者可以在实际使用之前对所述眼睛随位置变化的方式进行校正,设定个人使用习惯,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼,所述中央数据中心100根据眼睛随位置变化的方式预设操作指令,所述操作指令至少包括:选取、确定、移动或解锁,作为一示范例,注视设置为双击,眨眼设置为点击,平滑跟踪设置为移动,眼跳动设置为噪音。
作为一示范例,注视表示视线停留在目标物体上的时间至少为100-200毫秒以上,需要说明的是,停留时间可以根据个人使用习惯进行校正,且在注视时,眼球并不是绝对静止的,而是不停地轻微抖动,其抖动幅度小于1°。
还需要说明的是,所述眼睛随位置变化的方式与所述操作指令可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
在另一实施例中,考虑到使用者的眼睛的晶状体和角膜会有不同的屈光度,所述视网膜位置感应单元150的凸透镜153设置为沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器152与所述凸透镜153将视网膜反射的红外线成清晰像。
还需要指出的是,所述中央数据中心140适于接受所述凸透镜153沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪110成清晰图像界面的实像于眼睛。
设置于设备框架100前端的图像传感单元130,适于感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心140。
所述图像传感单元130中包括若干感光单元,所述图像传感单元130可以为CCD(Charge Coupled Device)图像传感器或CMOS(Complementary Metal-OxideSemiconductor)图像传感器。
在本发明的其他实施例中,所述图像传感单元130还适于感应至少部分人体的位置和位置随时间的变化方式并将位置转换为位置数据。
请参考图6,图6为图像传感单元获得至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据的示意图。中央数据中心将所述图像传感单元获得的位置随时间的变化方式和位置数据转换相应的操作指令。
需要说明的是,图像传感单元130的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感单元130的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感单元的位置和数量不应限制本发明的保护范围。
作为一实施例,所述图像传感单元130为设置于设备框架100左上的图像传感单元和设置于设备框架100右上的图像传感单元。
左上的图像传感单元和右上的图像传感单元通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在图像传感单元130内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感单元和右上的图像传感单元同时获取的至少部分人体的图像坐标及时间信息,集成在图像传感单元130内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图6,图6中的第一图像171和第二图像172分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图7和图8,图7和图8为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图7中仅示出左上的图像传感单元131和右上的图像传感单元132,同样的为了方便理解,将至少部分人体以箭头符号140示意。
其中,左上的图像传感单元131和右上的图像传感单元132的间距为预设值,为了方便理解所述间距为L,左上的图像传感单元131的焦距为f1,右上的图像传感单元132的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感单元131获取至少部分人体的图像数据111和右上的图像传感单元132获取至少部分人体的图像数据112,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感单元131获取的图像中测量获取,(x2,y2)从右上的图像传感单元132获取的图像中测量获取;左上的图像传感单元131的焦距f1和右上的图像传感单元132的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
还需要说明的是,在其他实施例中,左上的图像传感单元获取至少部分人体的图像数据和右上的图像传感单元获取至少部分人体的图像数据为倒像时,需通过倒像获得反转的正像,并通过正像获取坐标。
在其他实施例中,也可以根据图像传感单元的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感单元,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
在本发明的其他实施例中,请参考图9,所述可穿戴智能设备还可以在设备框架前端还设置有声波感应单元151,所述声波感应单元151适于感应至少部分人体的位置和位置随时间的变化方式并将位置转换为位置数据。中央数据中心将所述声波感应单元151获得的位置随时间的变化方式和位置数据转换相应的操作指令
在具体的实施例中,所述声波感应单元151可以设置于框架前端的左下方和右下方。
作为一实施例,声波感应单元151根据声学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
本实施例中,以声波感应单元151感应手指的位置为例做示例性说明,手指上穿戴于位置识别器152,所述位置识别器152适于被所述声波感应单元151感应,以确定手指的位置和位置随时间的变化方式。
位置识别器152为金属环,在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂金戒指。
在本实施例中,设备框架100、微投影仪110、分光镜120和中央数据中心140请参考之前实施例的相应描述。
其中,所述声波感应单元151用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波感应单元151接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心140根据所述位置数据校准微投影仪110或分光镜120,使得所述图像界面的实像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波感应单元151的距离可以根据下列公式确定:
其中,d为金属环与声波感应单元151的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
V0=331.45×(1+τ/273.15)1/2m/s
其中,τ为声波反射时环境的温度;
金属环的相对声波感应单元151的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
Δf=(2×V×cosθ/V0)×f
其中,Δf为声波感应单元151探测到的频移,V为金属环的相对声波感应单元151的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波感应单元151发射声波的位置、声波感应单元151探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂金戒指。
还需要说明的是,本实施例的声波感应单元151数量可以为1、2、3、4…6…11个。
较佳地,所述声波感应单元151数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波感应单元151能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请继续参考图1,设置于设备框架100上的中央数据中心140,所述中央数据中心至少适于接收可穿戴设备的其他部件传递的数据,并对接收的数据进行处理,根据数据的处理结果发出相应的操作指令;所述中央数据中心还接收可穿戴设备的其他部分发送的指令,并根据接收的指令发出相应的操作指令,或者根据数据的处理结果和接收的指令发送操作指令。比如,中央数据中心140至少适于接受所述位置数据和操作指令并执行相应操作。
本实施例中,中央数据中心100至少适于将所述位置随时间的变化方式和位置数据转换相应的操作指令。在实际使用中,所述中央数据中心100预设操作指令,当中央数据中心100接收到所述位置随时间的变化方式和位置数据时,则发出对应的操作指令。或者使用者也可以根据自己的使用习惯自己定义。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本实施例中,所述中央数据中心中140包括分享模块10,所述分享模块10至少适于接受所述操作指令,并执行将场景图像数据分享给第三方可穿戴智能设备的操作。
在一实施例中,所述分享模块10包括存储单元12、分享单元11和通讯单元14,所述存储单元12适于存储图像传感单元130发送的场景图像数据,所述分享单元11适于在接收到中央数据中心发出的相应的指令时向存储单元12发送将场景图像数据传送给通讯单元14的传送指令并向通讯单元14发送分享指令,所述通讯单元14适于在接收到场景图像数据时根据接收的分享指令将场景图像数据分享给第三方可穿戴智能设备。
所述可穿戴智能设备还包括音频输入输出单元(图中未示出),适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块10在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
音频输入输出单元包括声音输入装置(比如可以为话筒、microphone等)和声音播放装置(比如可以耳机、音箱等),通过声音输入装置可以实现录取,处理,通过声音播放装置实现声频数据的播放。
在一实施例中,所述声频数据存储在存储单元12中,所述分享单元11在接收到操作指令和位置数据时,向存储单元12发送将场景图像数据和声频数据传送给通讯单元14的传送指令,并向通讯单元14发送分享指令,所述通讯单元14在接收到场景图像数据和声频数据时,根据接收的分享指令将场景图像数据和声频数据分享给第三方可穿戴智能设备。
所述分享模块10包括情景单元13,所述情景单元至少适于提供场景图像数据(和声频数据)分享操作时的情景模式图像界面,情景模式图像界面上具有分享单元关联的分享图标。情景模式图像界面上具有分享单元关联的分享图标具体是指当可穿戴智能设备使用者选择该分享图标时,所述分享单元11执行向存储单元12发送将场景图像数据传送给通讯单元14的传送指令并向通讯单元14发送分享指令的操作。关于如何选择该分享图标后续再详细介绍。
在使用可穿戴智能设备的分享功能时,所述中央数据中心140控制情景单元13将具有分享图标的情景模式图像界面传送给微投影仪110,所述微投影仪110将具有分享图标的情景模式图像界面成实像于人眼。
在一实施例中,所述情景模式包括街景模式、特定场所模式、会议模式、任务模式、团体任务模式、诊断/会诊模式或买卖模式。不同的情景模式可以具有不同的情景模式图像界面。
所述街景模式适于在马路上或街道上启用,比如可穿戴智能设备使用者在行走在马路上或街道上可以启用街景模式;所述特定场所模式适于在展览馆、美术馆或特定建筑物时启用,比如可穿戴智能设备使用者在展览馆、美术馆参观或者在特定建筑物参加某项活动时可以启用特定场所模式;所述会议模式适于需要进行多方会议时启用,比如可穿戴智能设备使用者需要与其他使用者进行某一会议时启动会议模式;任务模式适于在进行某项任务时使用,比如警察在巡逻时可以通过穿戴本实施例的可穿戴智能设备将获得的场景图像数据和声频数据发送给总台或其他的巡逻警察;团体任务模式适于在团队进行某一项任务时启用,比如在进行救火时,救火队员和指挥官均穿戴本发明实施例的可穿戴智能设备,救火队员可以通过穿戴的可穿戴智能设备将负责区域的场景图像数据和声频数据发送给指挥官,指挥官根据接收的信息可以对救火的工作进行实时调整,并通过穿戴的可穿戴智能设备将调整指令发送给救火队员,又比如在警察抓捕罪犯时,行动警察和指挥官均穿戴本发明实施例的可穿戴智能设备,各行动警察可以通过穿戴的可穿戴智能设备将负责区域的场景图像数据和声频数据发送给指挥官,指挥官根据接收的信息可以对抓捕工作进行实时调整,并通过穿戴的可穿戴智能设备将调整指令发送给行动警察;诊断/会诊模式适于在在线诊断和会诊时启用,比如患者穿戴本实施例的可穿戴智能设备位于家里,医生穿戴本实施例的可穿戴设备位于医院,患者和医生通过可穿戴智能设备可以实现实时的互动;买卖模式适于在进行在线商品买卖时启用,卖家和卖家通过可穿戴智能设备进行实时沟通。
所述分享模块10还包括属性单元15,属性单元15适于定义可穿戴智能设备的属性。
通过可穿戴智能设备的属性,因此在分享操作时可以选择某一属性的可穿戴智能设备进行分享,具体为:所述分享模块在进行分享操作是时,在选择分享对象的属性,分享单元11发送分享指令,所述分享指令中包含分享对象属性信息,通讯单元14根据接收的分享指令将场景图像数据(和声频数据)分享给具有该属性的第三方可穿戴智能设备。
所述属性包括场景/位置属性、信用属性、职业属性、级别属性或状态属性。
所述场景/位置属性表示可穿戴智能设备使用者位于某一特性场景,某一特性场景可以为某一条街道、展览馆、美术馆或特定建筑物等,某一条街道、展览馆、美术馆或特定建筑物上设置有条形码或二维码,可穿戴智能设备通过图像传感单元获得条形码或二维码图像信息,然后将条形码或二维码图像信息发送给属性单元15,属性单元15根据接收的条形码或二维码图像信息定义可穿戴智能设备的场景属性。
所述信用属性为表示可穿戴智能设备使用者的信用等级,所述信用等级可以包括诚信用户、非诚信用户等。信用属性一般是第三方评估机构进行定义,第三方评估机构为银行、权威部门或机构等,可穿戴智能设备与使用者的身份信息(比如身份证信息)关联。
所述职业属性表示可穿戴智能设备使用者的职业种类,所述职业种类可以包括:警察、律师、消防员、医生等。
级别属性表示可穿戴智能设备使用者的在领域内的技术级别或者权限,所述技术级别比如可以包括:入门、初级、高级、专家级等,或者一级、二级、三级等,或者不及格、及格、良、优等,或者好、坏等。
所述职业属性或级别属性可以使用者自己定义或者由第三方评估结构定义或者由第三方可穿戴智能设备使用者定义。
所述状态属性表示可穿戴智能设备使用者处于忙碌或空闲状态。
所述通讯单元14通过无线通信(通信模式为Wi-Fi、蓝牙、红外、步话机频段等)将场景图像数据直接分享给第三方可穿戴智能设备,或者所述通讯单元通过无线通信(通信模式为Wi-Fi、WAP、HSCSD、GPRS、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA等)将场景图像数据发送给服务器,然后由服务器分享给第三方可穿戴智能设备。
所述通讯单元14还可以接收第三方可穿戴智能设备和服务器发送的场景图像数据(和声频数据)。需要说明的是,所述通讯单元14还可以接收和发送其他类型的数据。
所述存储单元12可以为内存条,所述存储单元12除了存储图像传感单元130获得的场景图像数据外,所述存储单元12还可以存储通讯单元14接收和发送的数据(包括从第三方可穿戴智能设备和服务器发送的场景图像数据)。
在一实施例中,请参考图10,所述属性单元15包括属性列表单元16和属性定义单元17,所述属性列表单元16适于以列表的形式存储和显示不同的属性,比如,将场景属性、信用属性、职业属性、级别属性存储与一列表中,并以列表的形式显示,所述属性定义单元17适于定义属性列表单元16中的属性类别和属性内容。所述属性的类别比如可以为:场景属性、信用属性、职业属性、级别属性等,所述属性的内容可以为:某一条街道、展览馆、美术馆或特定建筑物的地址、简介等,或者诚信用户、非诚信用户等,或者警察、律师、消防员、医生等,或者入门、初级、高级、专家级等,或者一级、二级、三级等,或者不及格、及格、良、优等。
在一具体的实施例中,所述属性定义单元17通过接收图像传感单元130获得的条形码或二维码图像信息,定义属性列表单元16中属性类别和属性内容。在领域具体的实施例中,所述属性定义单元17通过接收使用者自己定义信息或者由第三方评估结构给出的评估信息或者由第三方可穿戴智能设备使用者19给出的评估信息定义属性列表单元16中的属性类别和属性内容。
第三方评估结构给出的评估信息或者由第三方可穿戴智能设备19使用者给出的评估信息通过通讯单元14传输给属性定义单元17。
在其他实施例中,所述属性单元15还包括属性评估单元18,所述属性评估单元18适于第三方评估机构或者第三方可穿戴智能设备使用者对可穿戴智能设备的属性进行评估。
第三方评估机构可以为银行、权威部门或机构等,第三方评估机构可以通过特定的第三方可穿戴智能设备或者服务器对其他的可穿戴智能设备的属性进行评估。第三方可穿戴智能设备使用者为大众、包括特殊职业使用者(警察、消防员等),比如第三方可穿戴智能设备使用者可以对其他的第三方可穿戴智能级别属性进行评估。
所述情景单元13提供情景模式图像界面上具有与属性单元15关联的属性图标。情景模式图像界面上具有分享单元关联的分享图标具体是指当可穿戴智能设备使用者选择该属性图标时,所述属性单元15执行属性定义相关的操作。关于如何选择该属性图标后续再详细介绍。
在使用可穿戴智能设备的分享功能时,所述中央数据中心140控制情景单元13将具有属性图标的情景模式图像界面传送给微投影仪110,所述微投影仪110将具有属性图标的情景模式图像界面成实像于人眼。
所述分享模块10中还包括提示单元(图中未示出),所述提示单元在进行分享操作时,提示是否进行分享操作;在进行属性定义操作时,提示是否进行属性的定义;或者在接收第三方可穿戴智能设备和服务器发送的场景图像数据时,提示是否接收场景图像数据。
提示单元的提示动作以提示窗口的形式位于情景模式图像界面上。提示单元需要用户选择“是”或者“否”,或者“确定”或“取消”操作,或者其他的选择操作时,提示单元根据中央数据中心给出的操作指令进行操作。
请参考图11,在本发明的领域实施例中,所述分享模块10还包括显示单元19,所述显示单元19至少适于提供显示窗口,显示窗口适于显示或播放存储单元12存储的场景图像数据或者图像传感单元130获得的场景图像数据,所述显示窗口位于情景模式图像界面上。
在使用可穿戴智能设备的分享功能时,所述中央数据中心140控制情景单元13将具有显示窗口的情景模式图像界面传送给微投影仪110,所述微投影仪110将具有显示窗口的情景模式图像界面成实像于人眼。
在本发明的其他实施例中,所述可穿戴智能设备还包括识别单元,所述识别单元用于识别使用者的身份信息。所述识别单元使用者的身份信息的方式包括指纹识别或虹膜识别。
使用者在第一次使用可穿戴智能设备时可以将指纹信息或虹膜信息保存在中央数据中心,指纹信息获得方式:为通过图像传感单元获得指纹图像数据,对指纹图像数据进行处理获得指纹信息。
所述虹膜信息的获得方式为:通过红外图像传感器获得虹膜图像数据,对虹膜图像数据进行处理获得虹膜信息。
当使用者再次使用该可穿戴智能设备时,进行指纹验证或虹膜验证。
指纹验证的过程为:可穿戴智能设备的图像传感单元获得使用者的指纹图像,指纹图像进行处理后与存储的指纹信息进行比对,若两者一致,则使用者可以使用该可穿戴智能设备,若两者不一致,则可穿戴智能设备不能正常使用。
本发明还提供另一实施例的可穿戴智能设备,请参考图12,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
分别设置于设备框架两侧上的分光镜220,适于接受投射的图像界面并将图像界面成实像于人眼视网膜;
设置于设备框架200前端的图像传感单元230,适于感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心240;
分别设置于设备框架200上的视网膜位置感应单元250,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,所述中央数据中心240中包括分享模块20,所述分享模块20至少适于接受所述操作指令和位置数据,并执行将场景图像数据分享给第三方可穿戴智能设备的操作。
本实施例中的设备框架200、分光镜220、视网膜位置感应单元250、图像传感单元230、中央数据中心240和分享模块20请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成实像,使得成像效果具有立体感。
在一实施例中,所述分享模块20包括存储单元22、分享单元21和通讯单元24,所述存储单元22适于存储图像传感单元230发送的场景图像数据,所述分享单元21适于在接收到中央数据中心发出的相应的指令时向存储单元22发送将场景图像数据传送给通讯单元24的传送指令并向通讯单元24发送分享指令,所述通讯单元24适于在接收到场景图像数据时根据接收的分享指令将场景图像数据分享给第三方可穿戴智能设备。
所述可穿戴智能设备还包括音频输入输出单元260,适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块20在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。通过音频输入输出单元可以实现录取,处理,以及声频数据的播放。
在一实施例中,所述声频数据存储在存储单元22中,所述分享单元21在接收到操作指令和位置数据时,向存储单元22发送将场景图像数据和声频数据传送给通讯单元24的传送指令,并向通讯单元24发送分享指令,所述通讯单元24在接收到场景图像数据和声频数据时,根据接收的分享指令将场景图像数据和声频数据分享给第三方可穿戴智能设备。
音频输入输出单元260包括声音输入装置(比如可以为话筒、microphone等)和声音播放装置(比如可以耳机、音箱等),通过声音输入装置可以实现录取,处理,通过声音播放装置实现声频数据的播放。
声音输入装置可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心240,中央数据中心240根据上述语音指令以调节输出的图像界面和执行操作指令。
所述分享模块20包括情景单元23,所述情景单元至少适于提供场景图像数据(和声频数据)分享操作时的情景模式图像界面,情景模式图像界面上具有分享单元关联的分享图标。情景模式图像界面上具有分享单元关联的分享图标具体是指当可穿戴智能设备使用者选择该分享图标时,所述分享单元21执行向存储单元22发送将场景图像数据传送给通讯单元24的传送指令并向通讯单元24发送分享指令的操作。关于如何选择该分享图标后续再详细介绍。
在使用可穿戴智能设备的分享功能时,所述中央数据中心240控制情景单元23将具有分享图标的情景模式图像界面传送给微投影仪220,所述微投影仪220将具有分享图标的情景模式图像界面成实像于人眼。
所述分享模块20还包括属性单元25,属性单元25适于定义可穿戴智能设备的属性。
通过可穿戴智能设备的属性,因此在分享操作时可以选择某一属性的可穿戴智能设备进行分享,具体为:所述分享模块在进行分享操作是时,在选择分享对象的属性,分享单元21发送分享指令,所述分享指令中包含分享对象属性信息,通讯单元24根据接收的分享指令将场景图像数据(和声频数据)分享给具有该属性的第三方可穿戴智能设备。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成实像,且中央数据中心140根据图像传感单元130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正实像的位置,使得实像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
图13为本发明一实施例的可穿戴智能设备的校正的结构示意图,具体地,中央数据中心140控制微投影仪110投射校正标记180成实像于眼睛170,所述校正标记的坐标被预先设定于中央数据中心140内,使用者眼睛注视所述校正标记180,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像173,并根据视网膜图像173和校正标记180,对后续使用者的操作进行校正。
同样地,可穿戴智能设备可以对其他的眼睛的位置和位置随时间的变化方式进行校正,以提高可穿戴智能设备的响应准确度。
在另一实施例中,当可穿戴智能设备设置有声波感应单元时,中央数据中心内置有使用者的预存数据,中央数据中心获得所述声波感应单元的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波感应单元调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪先发送一个目标图案,例如十字星图案,成实像于使用者眼中,然后使用者手指点击所述十字星图案,通过声波感应单元识别当前手指位置,并且同微投影仪的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述图像传感单元识别当前手指的坐标为(5,7),中央数据中心340根据所述图像传感单元传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心内置使用者的预存数据和所述声波感应单元获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
图14为本发明一实施例的可穿戴智能设备的进行分享操作时的结构示意图,所述中央数据中心140控制情景单元13将具有分享图标34、属性图标33和显示窗口32的情景模式图像界面31传送给微投影仪110,微投影仪110投射该情景模式图像界面31成实像于人眼;使用者情景模式图像界面31中的图标(分享图标34、属性图标33),作为一示例,以图14中分享图标34做为使用者注视图标,在使用者注视分享图标34的同时,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像174,并将视网膜的位置(与分享图标34对应)数据、图像以及视网膜位置随时间的变化方式,传输至中央数据中心140,中央数据中心100将所述视网膜位置随时间的变化方式和视网膜位置数据转化为对分享单元11操作指令(将视网膜位置随时间的变化方式与预设变化方式对比获得操作指令,根据视网膜的位置获得操作指令的对象为分享单元11),作为一示例,确定操作命令为选取(或选定),分享单元11根据该操作指令向存储单元12发送将场景图像数据传送给通讯单元14的传送指令并向通讯单元14发送分享指令,所述通讯单元14在接收到场景图像数据时根据接收的分享指令将场景图像数据分享给第三方可穿戴智能设备。
作为一示例,以图14中属性图标33做为使用者注视图标,在使用者注视属性图标33的同时,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像174,并将视网膜的位置(与属性图标33对应)数据、图像以及视网膜位置随时间的变化方式,传输至中央数据中心140,中央数据中心100将所述视网膜位置随时间的变化方式和视网膜位置数据转化为对属性单元15操作指令(将视网膜位置随时间的变化方式与预设变化方式对比获得操作指令,根据视网膜的位置获得操作指令的对象为分享单元11),作为一示例,确定操作命令为选取(或选定),属性单元15对可穿戴设备的属性进行定义或者显示可穿戴设备的属性。
在一实施例中,在进行分享操作时,分享单元11提示选择分享对象的属性(提示窗口成实像于人眼视网膜),在用户确定分享对象的属性后,分享单元发送分享指令,所述分享指令中包含分享对象属性信息,通讯单元根据接收的分享指令将场景图像数据分享给具有该属性的第三方可穿戴智能设备。
在一实施例中,所述中央数据中心140可以按照人眼170的位置投射一个光标,比如可以为箭头,于情景模式图像界面31上,此光标会跟随人眼170注视位置的移动,以辅助确认人眼170所注视的目标。
需要说明的是,预设数据可以根据使用者的喜好进行设置,例如,注视时间为1.5秒为选取,注视时间为3秒为选取,或眨眼3次为选取。
在一实施例中,可穿戴智能设备工作在叠加模式时,人眼的一部分看到成实像的情景模式图像界面31,人眼的另一部分看见外部的实像。在另一实施例中,可穿戴智能设备工作在全投射实像模式时,情景模式图像界面31成实像于人眼,图像传感单元13感应的外部场景信息可以通过情景模式图像界面31上的显示窗口实时的呈现在人眼上。
在另一实施例中,可穿戴智能设备在启动后,可穿戴智能设备可以工作在待机模式,在待机模式下,微投影仪110不会像人眼投射情景模式图像界面31,视网膜位置感应单元150则一直在检测人眼的位置和位置随时间的变化方式,当中央数据中心140获得启动的操作指令时,微投影仪110像人眼投射情景模式图像界面31。实际使用时,可以在中央数据中心140中预设启动的操作指令,比如2秒内眨眼三次定义为启动操作指令。
本发明实施例还提供了上述可穿戴智能设备交互的方法,包括:
微投影仪将图像界面成实像于人眼视网膜;
图像传感单元感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心;
视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令;
中央数据中心中的分享模块接受所述操作指令,将场景图像数据分享给第三方可穿戴智能设备。
所述可穿戴智能设备包括音频输入输出单元,所述音频输入输出单元将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
本发明还提供一种可穿戴智能设备系统,请参考图15,包括:
若干可穿戴智能设备301;
若干服务器300;
其中,所述可穿戴智能设备301直接向第三方可穿戴智能设备分享场景图像数据和声频数据或者通过服务器300向第三方可穿戴智能设备分享场景图像数据和声频数据。
具体地,所述可穿戴智能设备501还包括通讯单元,与若干服务器500构建成内部网络,所述通讯单元通过Wi-Fi、蓝牙、红外、步话机频段、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器300或其他可穿戴智能设备301交换数据。
本发明实施例的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面实像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致,并且本发明的可穿戴智能设备可以实现场景图像数据的分享,可以应用在逛街、任务发布、在线会议、虚拟现实协助、网购等多场合,提高可穿戴智能设备用户体验度。
进一步,所述可穿戴智能设备还包括音频输入输出单元,适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。音频输入输出单元可以实现录取,处理,以及声频数据的播放,在进行分享操作时,声频数据和场景图像数据可以同时发送给第三方可穿戴设备,有利于进一步提高了用户的体验度。
进一步,在进行分享操作时,可以选择分享的可穿戴智能设备属性,从而可以实现将场景图像数据分享给特定的可穿戴智能设备使用者。
进一步,可穿戴智能设备包括属性单元,通过对可穿戴智能设备进行属性定义,实现信用管理、技能和权限级别管理等。
进一步的,采用视网膜位置感应单元通过视网膜反射红外线成像来实现视线跟踪,能够精确的定位眼睛位置,相比于监控虹膜和瞳孔的视线跟踪技术,视网膜成像精确度高。
再进一步的,本发明的实施例通过视网膜反射人眼不可视的红外线来实现视线跟踪,不会干扰眼睛正常的工作。
再进一步的,本发明的实施例通过优化光路,能够在较小的空间内实现投射实像和红外线追踪视线,产品性能优良且体积小。
本发明实施例的互动方法,用户可以将场景图像数据和声频数据的分享给第三方可穿戴智能设备,提高了体验度。
本发明实施例的可穿戴智能设备系统可以实现数据的快速上传和快速分享。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (19)
1.一种可穿戴智能设备,其特征在于,包括:
设备框架;
设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;
设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成实像于人眼视网膜;
设置于设备框架前端的图像传感单元,适于感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心;
设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将位置转换为位置数据;
设置于设备框架上的中央数据中心,中央数据中心至少适于将所述位置随时间的变化方式和位置数据转换相应的操作指令,所述中央数据中心还包括分享模块,所述分享模块至少适于接受所述操作指令,并执行将场景图像数据分享给第三方可穿戴智能设备的操作,所述分享模块包括存储单元、分享单元和通讯单元,所述存储单元适于存储的场景图像数据,所述分享单元适于在接收到操作指令和位置数据时,向存储单元发送将场景图像数据传送给通讯单元的传送指令,并向通讯单元发送分享指令,所述通讯单元适于在接收到场景图像数据时,根据接收的分享指令将场景图像数据分享给第三方可穿戴智能设备。
2.如权利要求1所述的可穿戴智能设备,其特征在于,所述可穿戴智能设备还包括音频输入输出单元,适于将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
3.如权利要求2所述的可穿戴智能设备,其特征在于,所述声频数据存储在存储单元中,所述分享单元在接收到操作指令和位置数据时,向存储单元发送将场景图像数据和声频数据传送给通讯单元的传送指令,并向通讯单元发送分享指令,所述通讯单元在接收到场景图像数据和声频数据时,根据接收的分享指令将场景图像数据和声频数据分享给第三方可穿戴智能设备。
4.如权利要求1所述的可穿戴智能设备,其特征在于,所述分享模块包括情景单元,所述情景单元至少适于提供场景图像数据分享操作时的情景模式图像界面,情景模式图像界面上具有分享单元关联的分享图标。
5.如权利要求4所述的可穿戴智能设备,其特征在于,所述分享模块包括显示单元,所述显示单元至少适于提供显示窗口,显示窗口适于显示或播放存储单元存储的场景图像数据或者图像传感单元获得的场景图像数据,所述显示窗口位于情景模式图像界面上。
6.如权利要求4所述的可穿戴智能设备,其特征在于,所述情景模式包括街景模式、特定场所模式、会议模式、任务模式、团体任务模式、诊断/会诊模式或买卖模式。
7.如权利要求4所述的可穿戴智能设备,其特征在于,所述分享模块还包括属性单元,适于定义可穿戴智能设备的属性。
8.如权利要求7所述的可穿戴智能设备,其特征在于,所述属性包括场景/位置属性、信用属性、职业属性、级别属性或状态属性。
9.如权利要求8所述的可穿戴智能设备,其特征在于,所述分享模块在进行分享操作时,在选择分享对象的属性后,分享单元发送分享指令,所述分享指令中包含分享对象属性信息,通讯单元根据接收的分享指令将场景图像数据分享给具有该属性的第三方可穿戴智能设备。
10.如权利要求8所述的可穿戴智能设备,其特征在于,所述场景/位置属性表示可穿戴智能设备使用者位于某一特定场所,信用属性表示可穿戴智能设备使用者的信用等级,职业属性表示可穿戴智能设备使用者的职业种类,级别属性表示可穿戴智能设备使用者的在领域内的技术或者权限级别,状态属性表示可穿戴智能设备使用者处于忙碌或空闲状态。
11.如权利要求8所述的可穿戴智能设备,其特征在于,所述属性单元包括属性列表单元和属性定义单元,所述属性列表单元适于以列表的形式存储和显示不同的属性,所述属性定义单元适于定义属性列表单元中属性类别和属性内容。
12.如权利要求11所述的可穿戴智能设备,其特征在于,所述属性单元还包括属性评估单元,所述属性评估单元适于第三方评估机构或者第三方可穿戴智能设备使用者对可穿戴智能设备的属性进行评估。
13.如权利要求2所述的可穿戴智能设备,其特征在于,通讯单元通过无线通信将场景图像数据和声频数据直接分享给第三方可穿戴智能设备,或者所述通讯单元通过无线通信将场景图像数据和声频数据发送给服务器,然后由服务器分享给第三方可穿戴智能设备。
14.如权利要求13所述的可穿戴智能设备,其特征在于,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
15.如权利要求14所述的可穿戴智能设备,其特征在于,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的实像于眼睛;所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于眼睛的实像与眼睛观察到的实际图形叠加模式;
全实像投影模式:眼睛仅接受图像界面成实像于眼睛的实像投影模式。
16.如权利要求15所述的可穿戴智能设备,其特征在于,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼,所述操作指令至少包括:选取、确定、移动或解锁。
17.一种采用如权利要求1至16任一项所述的可穿戴智能设备交互的方法,其特征在于,包括:
微投影仪将图像界面成实像于人眼视网膜;
图像传感单元感应外部场景信息,并将外部场景信息转化为场景图像数据,并将场景图像数据发送给中央数据中心;
视网膜位置感应单元感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令;
中央数据中心中的分享模块接受所述操作指令,将场景图像数据分享给第三方可穿戴智能设备。
18.如权利要求17所述的可穿戴智能设备交互的方法,其特征在于,所述可穿戴智能设备包括音频输入输出单元,所述音频输入输出单元将声音转化为声频数据,或者将外部接收或者本可穿戴智能设备存储的声频数据转化为声音,所述分享模块在接受到所述操作指令时,执行将场景图像数据和声频数据分享给第三方可穿戴智能设备的操作。
19.一种可穿戴智能设备系统,其特征在于,包括:
若干如权利要求1至16任一项所述的可穿戴智能设备;
若干服务器;
其中,所述可穿戴智能设备直接向第三方可穿戴智能设备分享场景图像数据和声频数据或者通过服务器向第三方可穿戴智能设备分享场景图像数据和声频数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410504709.5A CN105446474B (zh) | 2014-09-26 | 2014-09-26 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410504709.5A CN105446474B (zh) | 2014-09-26 | 2014-09-26 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105446474A CN105446474A (zh) | 2016-03-30 |
CN105446474B true CN105446474B (zh) | 2018-08-10 |
Family
ID=55556771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410504709.5A Active CN105446474B (zh) | 2014-09-26 | 2014-09-26 | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105446474B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976118A (zh) * | 2016-05-10 | 2016-09-28 | 深圳市淘淘谷信息技术有限公司 | 一种信息管理方法及装置 |
TWI660304B (zh) * | 2016-05-30 | 2019-05-21 | 李建樺 | 虛擬實境即時導覽方法及系統 |
KR20190006553A (ko) * | 2016-06-16 | 2019-01-18 | 센소모토릭 인스트루멘츠 게젤샤프트 퓌어 이노바티브 센소릭 엠베하 | 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품 |
CN106125918A (zh) * | 2016-06-18 | 2016-11-16 | 深圳晨芯时代科技有限公司 | 一种虚拟现实装置和虚拟现实分享系统 |
CN105915873A (zh) * | 2016-06-25 | 2016-08-31 | 于卫华 | 可穿戴智能终端无线播放投映器 |
CN105959666A (zh) * | 2016-06-30 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种虚拟现实系统中分享3d影像的方法和装置 |
CN106302427B (zh) * | 2016-08-09 | 2019-11-29 | 深圳市摩登世纪科技有限公司 | 在虚拟现实环境中的分享方法及装置 |
CN110059585B (zh) * | 2016-08-18 | 2023-10-24 | 瑞声光学解决方案私人有限公司 | 具虹膜采集功能的虚拟现实设备 |
CN106790553A (zh) * | 2016-12-24 | 2017-05-31 | 珠海市魅族科技有限公司 | 虚拟现实设备的界面共享方法和装置 |
CN106873158A (zh) * | 2017-02-27 | 2017-06-20 | 阿里巴巴集团控股有限公司 | 虚拟现实头戴设备 |
CN111201568A (zh) * | 2017-10-13 | 2020-05-26 | 思睿逻辑国际半导体有限公司 | 现场性的检测 |
CN108667896B (zh) * | 2018-03-22 | 2022-04-26 | 京东方艺云科技有限公司 | 共享设备的数据共享方法、装置与系统及计算机设备 |
CN108632373B (zh) * | 2018-05-09 | 2021-11-30 | 方超 | 设备控制方法和系统 |
CN108958691B (zh) * | 2018-05-31 | 2020-07-24 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
EP3879848A4 (en) * | 2018-12-07 | 2021-11-24 | Huawei Technologies Co., Ltd. | POINT-TO-MULTIPLE POINT DATA TRANSFER METHOD AND ELECTRONIC DEVICE |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
CN103064186A (zh) * | 2011-10-19 | 2013-04-24 | 中央大学 | 一维扫描式瞳孔投影显示装置 |
CN103424891A (zh) * | 2013-07-31 | 2013-12-04 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
-
2014
- 2014-09-26 CN CN201410504709.5A patent/CN105446474B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
CN103064186A (zh) * | 2011-10-19 | 2013-04-24 | 中央大学 | 一维扫描式瞳孔投影显示装置 |
CN103424891A (zh) * | 2013-07-31 | 2013-12-04 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105446474A (zh) | 2016-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105446474B (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
US11107368B1 (en) | System for wireless devices and intelligent glasses with real-time connectivity | |
CN104749777B (zh) | 可穿戴智能设备的互动方法 | |
US10831268B1 (en) | Systems and methods for using eye tracking to improve user interactions with objects in artificial reality | |
CN103561635B (zh) | 视线追踪系统 | |
CN105431763B (zh) | 在佩戴移动设备时跟踪头部移动 | |
CN106415444B (zh) | 注视滑扫选择 | |
CN106471419B (zh) | 管理信息显示 | |
CN104137118B (zh) | 视频中的增强的脸部识别 | |
US20190188471A1 (en) | Method and apparatus for biometric data capture | |
US20170115742A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
US10533850B2 (en) | Method and system for inserting recognized object data into a virtual world | |
CN104838326B (zh) | 可佩戴的食物营养反馈系统 | |
US9552060B2 (en) | Radial selection by vestibulo-ocular reflex fixation | |
CN108427498A (zh) | 一种基于增强现实的交互方法和装置 | |
US20180350148A1 (en) | Augmented reality display system for overlaying apparel and fitness information | |
US20110213664A1 (en) | Local advertising content on an interactive head-mounted eyepiece | |
CN104750230A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
CN112181152A (zh) | 基于mr眼镜的广告推送管理方法、设备及应用 | |
CN104750234B (zh) | 可穿戴智能设备及可穿戴智能设备的互动方法 | |
WO2013029020A1 (en) | Portals: registered objects as virtualized, personalized displays | |
CN109002164A (zh) | 头戴显示设备的显示方法、装置及头戴显示设备 | |
WO2021073743A1 (en) | Determining user input based on hand gestures and eye tracking | |
US20230418390A1 (en) | Gesture recognition based on likelihood of interaction | |
CN104750229B (zh) | 可穿戴智能设备的交互方法及穿戴智能设备系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |