CN104750229A - 可穿戴智能设备的交互方法及穿戴智能设备系统 - Google Patents
可穿戴智能设备的交互方法及穿戴智能设备系统 Download PDFInfo
- Publication number
- CN104750229A CN104750229A CN201310739025.9A CN201310739025A CN104750229A CN 104750229 A CN104750229 A CN 104750229A CN 201310739025 A CN201310739025 A CN 201310739025A CN 104750229 A CN104750229 A CN 104750229A
- Authority
- CN
- China
- Prior art keywords
- micro
- information
- wearable smart
- projector
- smart machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
一种可穿戴智能设备的交互方法及穿戴智能设备系统,可穿戴智能设备系统包括:提供可穿戴智能设备,所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。本发明的可穿戴智能设备互动方法能够将控制界面的图像界面虚像与操作者动作的位置或者位置随时间的变化方式匹配或关联,使得操作者动作与视觉效果一致或关联。
Description
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备的交互方法及穿戴智能设备系统。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓系统智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是提供一种匹配度高且功能局限性小的可穿戴智能设备。
为解决上述问题,本发明提供一种可穿戴智能设备的交互方法,包括:提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
可选的,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
可选的,所述位置传感器为声波反射器,所述位置识别器为金属环。
可选的,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
可选的,所述位置随时间的变化方式至少包括:点击、双击或滑动。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
可选的,所述设备框架配置有镜片且穿戴于使用者眼睛前。
可选的,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
可选的,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
可选的,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
本发明还提供一种可穿戴智能设备的交互方法,包括:提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;所述中央数据中心控制微投影仪投影预定头像图像成虚像于人眼;所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括若干人像;所述中央数据中心将预定头像图像与若干人像进行比对,若头像图像与人像匹配,所述中央数据中心根据头像信息在本地服务器或远程服务器获取与头像信息匹配的资讯信息;所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
可选的,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
可选的,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
可选的,所述位置传感器为声波反射器,所述位置识别器为金属环。
可选的,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
本发明还提供一种可穿戴智能设备系统,包括:若干可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼;若干服务器;其中,所述可穿戴智能设备通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器或其他可穿戴智能设备交换数据。
与现有技术相比,本发明的技术方案具有以下优点:本发明提供一种虚实结合的可穿戴智能设备互动方法,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
附图说明
图1是本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明另一实施例的可穿戴智能设备示意图;
图4为本发明又一实施例的可穿戴智能设备示意图;
图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图;
图6为本发明又一实施例的可穿戴智能设备示意图;
图7和图8为本发明一实施例的图像传感器在获取至少部分人体的位置,并将所述位置转换为位置数据的示意图;
图9为本发明一实施例的图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据的示意图;
图10为本发明一实施例的可穿戴智能设备的交互方法流程示意图;
图11为本发明一实施例的可穿戴智能设备的交互方法示意图;
图12为本发明另一实施例的可穿戴智能设备的交互方法示意图;
图13为本发明另一实施例的可穿戴智能设备的交互方法流程示意图;
图14为本发明又一实施例的可穿戴智能设备的交互方法示意图;
图15为本发明一实施例的可穿戴智能设备系统示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚实结合的可穿戴智能设备,通过感应操作者的动作,并将控制界面的图像界面虚像与操作者的位置或者位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置和位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架101,从所述第一支架101两端延伸出的第一侧臂102和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架101大致平行使用者的脸部,且所述第一支架101用于为分光镜120和位置传感器130提供支撑平台,使得分光镜能够较佳地成虚像于人眼;而所述位置传感器130较佳的设置于第一支架101的外围,使得位置传感器130能够尽可能大的范围的感应使用者的人体的位置和动作。
所述第一侧臂102或第二侧臂103用于为微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂102;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
还需要说明的是,所述第一支架101还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成虚像在使用者眼中。
作为一实施例,所述分光镜120为反射镜,所述反射镜为反射率为30%至70%,作为一示范例,所述反射镜的反射率为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成虚像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受虚像和实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成虚像于人眼,在此特意说明,不应限制本发明的保护范围。
设置于设备框架前端的位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
作为一实施例,所述位置传感器130可以为声波反射器或图像传感器,所述位置传感器130根据声学原理或光学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器,所述中央数据中心140至少能够接受所述位置传感器130的位置数据和操作指令,并根据所述位置数据和操作指令控制所述微投影仪110输出相应图形界面,以匹配至少人体的位置,并执行与操作指令对应的操作。
所述中央数据中心140还适于与远程数据库交换数据,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式获得远程数据库数据支持。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还可以包括通信模块(未示出),所述通信模块可以内置于设备框架100内或者包括于中央数据中心140,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成虚像,且中央数据中心140根据位置传感器130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正虚像的位置,使得虚像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
本发明还提供另一实施例的可穿戴智能设备,请参考图3,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
设置于设备框架上的分光镜220,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器230,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
本实施例中的设备框架200、分光镜220、位置传感器230和中央数据中心240请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成像,使得成像效果具有立体感。
本发明还提供又一实施例的可穿戴智能设备,请参考图4,包括:
设备框架300;
设置于设备框架300上的微投影仪310,适于将图像界面投射于分光镜320上;
设置于设备框架上的分光镜320,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的声波反射器330,适于感应至少部分人体的位置和位置随时间的变化方式并将所述动作转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心340,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
穿戴于手指的位置识别器350,所述位置识别器350适于被所述声波反射器340感应,以确定手指的位置和位置随时间的变化方式。
在本实施例中,设备框架300、微投影仪310、分光镜320和中央数据中心340请参考之前实施例的相应描述。
在本实施例中,所述位置传感器为声波反射器330,所述位置识别器350为金属环,例如为戒指。
其中,所述声波反射器330用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器330接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心340根据所述位置数据校准微投影仪310或分光镜320,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波反射器330的距离可以根据下列公式确定:
d=V0t/2
其中,d为金属环与声波反射器330的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
V0=331.45x(1+τ/273.15)1/2m/s
其中,τ为声波反射时环境的温度;
金属环的相对声波反射器330的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
Δf=(2×V×cosθ/V0)×f
其中,Δf为声波反射器330探测到的频移,V为金属环的相对声波反射器330的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波反射器330发射声波的位置、声波反射器330探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂金戒指。
还需要说明的是,本实施例的声波反射器330数量可以为1、2、3、4…6…11个。
较佳地,所述声波反射器330数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波反射器330能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请参考图5,图5为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图。
以声波反射器330和位置识别器350为例,根据声波反射器330和位置识别器350,所述声波反射器330可以获得金属环的运动方向,距离和运动速度。
中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪310和分光镜320调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
在另一实施例中,中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波反射器330调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪310先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器(在本实施例中为声波反射器330)通过位置识别器350识别当前手指位置,并且同微投影仪310的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心340根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心340内置使用者的预存数据和所述声波反射器330获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心340内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,可穿戴智能设备还可以兼容声音传输单元360,所述声音传输单元可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心340,中央数据中心340根据上述语音指令以调节输出的图像界面和执行操作指令。
本发明还提供又一实施例的可穿戴智能设备,请参考图6,包括:
设备框架400;
设置于设备框架400上的微投影仪410,适于将图像界面投射于分光镜420上;
设置于设备框架400上的分光镜420,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器430,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,所述位置传感器430为若干位置不同的图像传感器;
设置于设备框架上的中央数据中心440,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在本实施例中,设备框架400、微投影仪410、分光镜420和中央数据中心440请参考之前实施例的相应描述。
需要说明的是,图像传感器的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感器的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感器的位置和数量不应限制本发明的保护范围。
作为一实施例,所述位置传感器430为设置于设备框架400左上的图像传感器和设置于设备框架400右上的图像传感器。
左上的图像传感器和右上的图像传感器通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在位置传感器430内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感器和右上的图像传感器同时获取的至少部分人体的图像坐标及时间信息,集成在位置传感器430内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图6,图6中的第一图像471和第二图像472分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图7和图8,图7和图8为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图7中仅示出左上的图像传感器731和右上的图像传感器732,同样的为了方便理解,将至少部分人体以箭头符号740示意。
其中,左上的图像传感器731和右上的图像传感器732的间距为预设值,为了方便理解所述间距为L,左上的图像传感器731的焦距为f1,右上的图像传感器732的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感器731获取至少部分人体的图像数据741和右上的图像传感器732获取至少部分人体的图像数据742,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感器731获取的图像中测量获取,(x2,y2)从右上的图像传感器732获取的图像中测量获取;左上的图像传感器731的焦距f1和右上的图像传感器732的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
还需要说明的是,在其他实施例中,左上的图像传感器获取至少部分人体的图像数据和右上的图像传感器获取至少部分人体的图像数据为倒像时,需通过倒像获得反转的正像,并通过正像获取坐标。
在其他实施例中,也可以根据图像传感器的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感器,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
请参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪410和分光镜420调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,在本实施例中,以所述至少部分人体为拳头为例,做示范性说明。
请依旧参考图9,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据校正所述位置传感器,调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配。
作为一示例,由微投影仪410先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器识别当前手指位置,并且同微投影仪410的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心440根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心440内置使用者的预存数据和所述图像传感器获取的至少部分人体的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心440内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,在其他实施例中,请依旧参考图9,位置传感器430(在本实施例中为图像传感器)捕获拳头484的位置随时间的变化方式,在t-1与t时刻获取第三图像481和第四图像482,并根据之前实施例的运算方式,将拳头的位置和运动轨迹转换为所述操作指令和位置数据,中央数据中心440获得所述操作指令和位置数据后,控制微投影仪410和分光镜420调整输出的图像界面,且在人眼中将拳头484成虚像483,使得使用者在操作图像界面时,具有较好的体验。
本发明还提供一实施例的可穿戴智能设备的交互方法,请参考图10,包括如下步骤:
步骤S101,提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;
步骤S102,所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;
步骤S103,所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;
步骤S104,所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
具体地,所述可穿戴智能设备的具体描述请参考之前实施例的相应描述,在此不再赘述。
所述穿戴智能设备穿戴于使用者身上,在本实施例中,所述穿戴智能设备为眼镜类智能穿戴设备,佩戴于使用者眼睛前方。
当所述穿戴智能设备穿戴于使用者身上时,所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像。
作为一实施例,请参考图11,当使用者穿戴所述穿戴智能设备行走于街道时,所述可穿戴智能设备获取实时场景信息,所述可穿戴智能设备获取实时场景信息可以通过内置于可穿戴智能设备的图像传感器获取,所述街道的实时场景信息包括多个游人图像。
使用者可以通过手指点击,位置传感器获取手指点击的位置和手指点击的信息,转换相应的操作指令及将位置转换为位置数据;
所述中央数据中心获取位置数据后,根据位置数据与实时场景信息匹配,从而筛选出对应的使用者点击的人像。
筛选出人像后,所述中央数据中心根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息,例如:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
其中,位置传感器获取手指点击的位置和手指点击的信息,转换相应的操作指令及将位置转换为位置数据请参考之前实施例的相应描述。
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼请参考之前实施例的相应描述,在此不再赘述。
需要说明的是,手指点击时,所述中央数据中心可以相应的控制所述微投影仪和分光镜成标记虚像于人眼,所述标记为方框、圆圈或气球。
还需要说明的是,在其他实施例中,可以多个手指点击,同时显示多个人像资讯。
作为另一实施例,请参考图12,当使用者穿戴所述穿戴智能设备行走于社交场合时,所述可穿戴智能设备获取实时场景信息,所述可穿戴智能设备获取实时场景信息可以通过内置于可穿戴智能设备的图像传感器获取,所述社交的实时场景信息包括多个人像图像。
所述中央数据中心内置人脸识别程序,对社交的实时场景信息进行分析,筛选出个人像图像。
筛选出人像后,所述中央数据中心根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息,例如:姓名,性别,居住地,职业,爱好,配偶中的一种或多种。
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
需要说明的是,在图12中人像图像已经经过模糊化处理,而在实际应用中,所述可穿戴智能设备获取的是清洗的人像图像,在此特意说明。
本发明的实施例能够在社交场合隐蔽的提示使用者社交场合的其他人的信息,提高使用者的社交能力。
本发明还提供另一实施例的可穿戴智能设备的交互方法,请参考图13,包括如下步骤:
步骤S201,提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;
步骤S202,所述中央数据中心控制微投影仪投影预定头像图像成虚像于人眼;
步骤S203,所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括若干人像;
步骤S204,所述中央数据中心将预定头像图像与若干人像进行比对,若头像图像与人像匹配,所述中央数据中心根据头像信息在本地服务器或远程服务器获取与头像信息匹配的资讯信息;
步骤S205,所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
下面结合一具体实施例对可穿戴智能设备的交互方法做具体说明。
请参考图14,所述中央数据中心控制微投影仪投影预定头像图像成虚像501于人眼;
需要说明的是,所述头像图像成虚像501的位置可以根据使用者的习惯进行自定义。
所述头像图像可以为朋友头像,罪犯头像,待接待人头像……
需要说明的是,图14中示出的头像图像为卡通图像,而在实际工作中,所述头像图像可以为实际的人像照片,在此特意说明。
当使用者穿戴所述穿戴智能设备行走于街道时,所述可穿戴智能设备获取实时场景信息,所述可穿戴智能设备获取实时场景信息可以通过内置于可穿戴智能设备的图像传感器获取,所述街道的实时场景信息包括多个游人图像。
所述中央数据中心内置人脸识别程序,对街道的实时场景信息进行分析,获取个人像图像,所述中央数据中心将预定头像图像与若干人像进行比对,若头像图像与人像匹配,所述中央数据中心根据头像信息在本地服务器或远程服务器获取与头像信息匹配的资讯信息,然后所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼,以供使用者参考。
例如头像为待接待人头像,使用者使用可穿戴智能设备时,获取街道上的实施场景信息,并匹配为待接待人头像,避免使用者使用肉眼去判断是否为接待人,导致使用者用眼疲劳、或容易误判断出错。
本发明还提供一种可穿戴智能设备系统,请参考图15,包括:
若干可穿戴智能设备601,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;
所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼;
其中可穿戴智能设备601的具体描述请参考之前实施例的相应描述。
若干服务器602;
其中,所述可穿戴智能设备601通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器602或其他可穿戴智能设备601交换数据。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (21)
1.一种可穿戴智能设备的交互方法,其特征在于,包括:
提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;
所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;
所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
2.如权利要求1所述的交互方法,其特征在于,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
3.如权利要求2所述的交互方法,其特征在于,所述位置传感器为声波反射器,所述位置识别器为金属环。
4.如权利要求3所述的交互方法,其特征在于,所述声波反射器用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心;中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
5.如权利要求1所述的交互方法,其特征在于,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
6.如权利要求1所述的交互方法,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;
全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
7.如权利要求1所述的交互方法,其特征在于,所述位置随时间的变化方式至少包括:点击、双击或滑动。
8.如权利要求1所述的交互方法,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
9.如权利要求1所述的交互方法,其特征在于,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
10.如权利要求1所述的交互方法,其特征在于,所述设备框架配置有镜片且穿戴于使用者眼睛前。
11.如权利要求1所述的交互方法,其特征在于,还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
12.如权利要求1所述的交互方法,其特征在于,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
13.如权利要求12所述的交互方法,其特征在于,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
14.如权利要求1所述的交互方法,其特征在于,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
15.一种可穿戴智能设备的交互方法,其特征在于,包括:
提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;
所述中央数据中心控制微投影仪投影预定头像图像成虚像于人眼;
所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括若干人像;
所述中央数据中心将预定头像图像与若干人像进行比对,若头像图像与人像匹配,所述中央数据中心根据头像信息在本地服务器或远程服务器获取与头像信息匹配的资讯信息;
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼。
16.如权利要求15所述的交互方法,其特征在于,所述资讯信息包括:姓名,性别,居住地,职业,犯罪记录,爱好,配偶中的一种或多种。
17.如权利要求15所述的交互方法,其特征在于,还包括:穿戴于手指的位置识别器,所述位置识别器适于被所述位置传感器感应,以确定手指的位置和动作。
18.如权利要求17所述的交互方法,其特征在于,所述位置传感器为声波反射器,所述位置识别器为金属环。
19.如权利要求15所述的交互方法,其特征在于,所述位置传感器为若干位置不同的图像传感器,所述图像传感器获取人体图像,并通过不同图像传感器的获取图像数据,确定人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据,中央数据中心根据所述位置数据校准所述位置传感器,使得所述图像界面的虚像与少部分人体在人眼的实像位置叠加,并根据操作指令执行相应操作。
20.如权利要求15所述的交互方法,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;
全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
21.一种可穿戴智能设备系统,其特征在于,包括:
若干可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作;
所述可穿戴智能设备获取实时场景信息,其中实时场景信息至少包括人像;
所述中央数据中心根据至少部分人体的位置或位置随时间的变化方式获取实时场景信息中人像信息,并根据人像信息在本地服务器或远程服务器获取与人像信息匹配的资讯信息;
所述中央数据中心控制所述微投影仪和分光镜将资讯信息成虚像于人眼;
若干服务器;
其中,所述可穿戴智能设备通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式与服务器或其他可穿戴智能设备交换数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739025.9A CN104750229B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的交互方法及穿戴智能设备系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739025.9A CN104750229B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的交互方法及穿戴智能设备系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104750229A true CN104750229A (zh) | 2015-07-01 |
CN104750229B CN104750229B (zh) | 2017-12-29 |
Family
ID=53590060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310739025.9A Active CN104750229B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的交互方法及穿戴智能设备系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104750229B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106713882A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院苏州生物医学工程技术研究所 | 光刺激视觉修复设备和光刺激视觉成像方法 |
CN107289949A (zh) * | 2017-07-26 | 2017-10-24 | 湖北工业大学 | 一种基于人脸识别技术的室内导识装置及方法 |
CN112684604A (zh) * | 2019-10-18 | 2021-04-20 | 宏达国际电子股份有限公司 | 头戴式显示装置及调整方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
US20130163089A1 (en) * | 2011-12-23 | 2013-06-27 | David D. Bohn | Reflective array waveguide |
CN103439801A (zh) * | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
-
2013
- 2013-12-27 CN CN201310739025.9A patent/CN104750229B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
US20130088941A1 (en) * | 2011-10-05 | 2013-04-11 | Klaus Elian | Sonic sensors and packages |
US20130163089A1 (en) * | 2011-12-23 | 2013-06-27 | David D. Bohn | Reflective array waveguide |
CN103055524A (zh) * | 2013-01-21 | 2013-04-24 | 上海恒润数码影像科技有限公司 | 定位装置及应用其的4d互动影院及互动方法 |
CN103439801A (zh) * | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106713882A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院苏州生物医学工程技术研究所 | 光刺激视觉修复设备和光刺激视觉成像方法 |
CN107289949A (zh) * | 2017-07-26 | 2017-10-24 | 湖北工业大学 | 一种基于人脸识别技术的室内导识装置及方法 |
CN107289949B (zh) * | 2017-07-26 | 2020-08-07 | 湖北工业大学 | 一种基于人脸识别技术的室内导识装置及方法 |
CN112684604A (zh) * | 2019-10-18 | 2021-04-20 | 宏达国际电子股份有限公司 | 头戴式显示装置及调整方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104750229B (zh) | 2017-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104749777B (zh) | 可穿戴智能设备的互动方法 | |
CN104750234B (zh) | 可穿戴智能设备及可穿戴智能设备的互动方法 | |
CN104750230A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
US11614803B2 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
CN103713737B (zh) | 用于智能眼镜的虚拟键盘系统 | |
US9310891B2 (en) | Method and system enabling natural user interface gestures with user wearable glasses | |
CN105446474B (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
US11747915B2 (en) | Smart ring for manipulating virtual objects displayed by a wearable device | |
US20150379770A1 (en) | Digital action in response to object interaction | |
EP4272064A1 (en) | Micro hand gestures for controlling virtual and graphical elements | |
JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
CN104871214B (zh) | 用于具扩增实境能力的装置的用户接口 | |
US20170277259A1 (en) | Eye tracking via transparent near eye lens | |
US20180350148A1 (en) | Augmented reality display system for overlaying apparel and fitness information | |
EP4172955A1 (en) | Generating ground truth datasets for virtual reality experiences | |
US20240031678A1 (en) | Pose tracking for rolling shutter camera | |
CN111259755A (zh) | 数据关联方法、装置、设备及存储介质 | |
CN105184268A (zh) | 手势识别设备、手势识别方法及虚拟现实系统 | |
CN104750229A (zh) | 可穿戴智能设备的交互方法及穿戴智能设备系统 | |
WO2018161564A1 (zh) | 手势识别系统、方法及显示设备 | |
CN113260951A (zh) | 基于指距或手接近的淡入用户界面显示 | |
US11688101B2 (en) | Intrinsic parameters estimation in visual tracking systems | |
US11983897B2 (en) | Camera intrinsic re-calibration in mono visual tracking system | |
US20240221222A1 (en) | Camera intrinsic re-calibration in mono visual tracking system | |
US20230401796A1 (en) | Fast ar device pairing using depth predictions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |