CN104793732A - 一种智能眼镜的操作方法及智能眼镜 - Google Patents
一种智能眼镜的操作方法及智能眼镜 Download PDFInfo
- Publication number
- CN104793732A CN104793732A CN201510003524.0A CN201510003524A CN104793732A CN 104793732 A CN104793732 A CN 104793732A CN 201510003524 A CN201510003524 A CN 201510003524A CN 104793732 A CN104793732 A CN 104793732A
- Authority
- CN
- China
- Prior art keywords
- white
- eyeball
- mean value
- eye
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及通信电子技术领域,尤其涉及一种智能眼镜的操作方法及智能眼镜。用于解决现有技术中用手指对智能眼镜操作不方便的问题。该智能眼镜包括可以对眼球进行识别的传感器,所述操作方法:所述传感器获取眼球参数,并发送给所述智能眼镜;所述智能眼镜根据接收到的所述眼球参数判断眼球的运动;所述智能眼镜确定与所述运动相对应的界面操作。因此该方法可解决现有技术中用手指对智能眼镜操作不方便的问题,提高用户的体验感。
Description
技术领域
本发明涉及通信电子技术领域,尤其涉及一种智能眼镜的操作方法及智能眼镜。
背景技术
目前智能眼镜以其方便携带的优势开始逐渐占领智能市场的一席之地。市场上常见的智能眼镜的外观结构如图1所示,其中包括触摸板11和显示模块12。用户通过手指在触摸板11上进行滑动,达到屏幕的切换操作;显示模块12根据手指的滑动方向显示相应的界面,屏幕的切换效果如图2所示,在没有接收到手指滑动操作时,用户看到的是界面2,当手指在触摸板11上向左滑动时,显示模块12显示界面1;当手指在触摸板11上向右滑动时,显示模块12显示界面3。
由于触摸板11面积较小且贴近面部,导致无法进行类似于手机一样的灵活操作,只能实现点击、上下左右滑动等简单功能,大大降低了智能眼镜使用的灵活性。在智能眼镜的操作界面方面,由于可操控的方式较少,所以采用了类似于卡片滑动的方案,只能通过手指在触摸板11左右滑动来实现卡片的切换,通过单击进入下一级菜单,通过双击退出当前菜单。
由此可见,智能眼镜作为一种新型可穿戴设备,在人机交互的界面控制上还存在较大的缺陷。通过手指在靠近脸部的位置进行滑动,本身就不属于正常的肢体动作,并且由于触摸板可识别的动作较少,无法实现较复杂的指令,导致智能眼镜的人机交互方式还处于非常简单的阶段,用户的体验感还有待进一步提高。
发明内容
本发明实施例提供一种智能眼镜操作方法及智能眼镜,用于解决现有技术中用手指对智能眼镜操作不方便的问题。
一种智能眼镜操作方法,该智能眼镜包括可以对眼球进行识别的传感器,所述操作方法:
所述传感器获取眼球参数,并发送给所述智能眼镜;
所述智能眼镜根据接收到的所述眼球参数判断眼球的运动;
所述智能眼镜确定与所述运动相对应的界面操作。
一种智能眼镜,该智能眼镜包括传感器,所述智能眼镜还包括:
接收模块,用于接收所述传感器发来的眼球参数;
判断模块,用于据接收到的所述眼球参数判断眼球的运动;
操作模块,用于确定与所述运动相对应的界面操作。
可见,本发明实施例提供的方法可以通过识别出眼球的运动完成对智能眼镜的相应操作,该方法不再需要手指的相关操作,因此可解决现有技术中用手指对智能眼镜操作不方便的问题,提高用户的体验感。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为现有技术中智能眼镜的结构图;
图2为现有技术中智能眼镜镜片显示的界面结构图;
图3为人眼结构图;
图4为本发明实施例提供的一种智能眼镜的操作方法流程图;
图5为本发明实施例提供的一种智能眼镜的具体操作方法流程图;
图6为本发明实施例提供的一种智能眼镜的镜片显示的界面结构图;
图7为本发明实施例提供的一种智能眼镜的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术方案作进一步详细的说明。
本发明实施例提供的方案是基于追踪眼球运动轨迹和眼睑变化的方式,通过眼睛直接操作智能眼镜,免去用手指滑动的方式。眼睛是距离智能眼镜设备最近的器官,在操作智能眼镜设备上有许多先天的优势。本发明能够很好的解决智能眼镜的人机交互操作。由于本发明是基于眼球运动而实现的,因此对于识别眼球的运动方向是本发明的基础,而该识别方式是基于眼球本身结构所实现的。
如图3所示,人眼的基本结构包括:瞳孔与虹膜构成的中心区、左侧眼白区、右侧眼白区、上部眼白区、下部眼白区、上眼睑以及下眼睑。正常人在视觉平视的情况下,中心区域的瞳孔以及虹膜的大部分都可以显露在外面,左、右侧眼白区域也可以显露在外面。上、下眼白区无法显露在外面。根据这一特性,设定如下参数,以方便本发明的叙述:
瞳孔直径OR——瞳孔上下距离与左右距离的平均值;
虹膜直径HR——虹膜左边缘到右边缘的直线距离;
左侧眼白长度LB——虹膜左侧边缘中心点与左眼角的直线距离;
右侧眼白长度RB——虹膜右侧边缘中心点与右眼角的直线距离;
上虹膜高度UHL——瞳孔上边缘最高点与虹膜可见范围最高点的长度,当上眼睑覆盖虹膜的时候,以上眼睑与虹膜接触线为依据;
下虹膜高度DHL——瞳孔下边缘最低点与虹膜可见范围最低点的长度;
上眼白高度UB——虹膜上边缘最高点与上眼睑的直线高度;
下眼白高度DB——虹膜下边缘最低点与下眼睑的直线高度。
本发明实施例提供的方法可以通过识别出眼球的运动完成对智能眼镜的相应操作,该方法不再需要手指的相关操作,因此可解决现有技术中用手指对智能眼镜操作不方便的问题,提高用户的体验感。该智能眼镜包括可以对眼球进行识别的传感器,该传感器的位置不受限制,只要达到可获取到相关眼球参数的效果即可。如图4所示,本发明实施例提供的具体方案如下:
步骤41,所述传感器获取眼球参数,并发送给所述智能眼镜;
步骤42,所述智能眼镜根据接收到的所述眼球参数判断眼球的运动;
步骤43,所述智能眼镜确定与所述运动相对应的界面操作。
具体的,在所述传感器获取眼球参数之前,进一步包括:
判断当前用户是否为首次使用所述智能眼镜的用户;
在所述传感器获取可靠的眼球参数包括:
如果当前用户为首次使用所述智能眼镜的用户则确定为首次用户,所述传感器获取所述首次用户的眼球参数;
如果当前用户不是首次使用所述智能眼镜的用户则确定为多次用户,所述智能眼镜查找出预先保存的与所述多次用户相对应的眼球参数。
具体的,在确定为首次用户之后、且在所述传感器获取眼球参数之前,进一步包括:
在指定时间内获取所述首次用户的多组眼球参数,每组眼球参数包括多个不同种类的细节参数;确定出每种细节参数的平均值;
当获取的所述首次用户的每一种当前的细节参数与该细节参数所对应的平均值之差在预设的阈值范围内,则确定为有效平均值;
所述传感器获取眼球参数包括:
所述传感器获取所述首次用户的当前眼球参数。
具体的,根据所述眼球参数判断眼球的运动包括:
根据获取到的所述首次用户的当前眼球参数中包括的各种当前细节参数与该当前细节参数对应的有效平均值之间的关系,判断眼球的运动。
具体的,所述细节参数包括:瞳孔直径、虹膜直径、左侧眼白长度、右侧眼白长度、上虹膜高度、下虹膜高度、上眼白高度以及下眼白高度;
所述运动为眼球向上运动包括:当上眼白高度的有效平均值大于0时,当前上眼白高度等于0并且当前下眼白高度大于下眼白高度的有效平均值;或者,当上眼白高度的有效平均值等于0时,当前上虹膜高度小于上虹膜高度的有效平均值并且当前下眼白高度大于下眼白高度的有效平均值;
所述运动为眼球向下运动包括:当下眼白高度的有效平均值大于0时,当前下眼白高度等于0并且当前上眼白高度大于上眼白高度的有效平均值;或者,当下眼白高度的有效平均值等于0时,当前下虹膜高度小于下虹膜高度的有效平均值并且当前上眼白高度大于上眼白高度的有效平均值;
所述运动为眼球向左运动包括:当前左侧眼白长度小于左侧眼白长度有效平均值的一半时,且当前右侧眼白长度大于右侧眼白长度有效平均值的1.5倍;
所述运动为眼球向右运动包括:当前右侧眼白长度小于右侧眼白长度有效平均值的一半,当前左侧眼白长度大于左侧眼白长度有效平均值的1.5倍;
所述运动为眼球左右运动包括:完成指定次数的所述向左运动和所述向右运动的交替运动;
所述运动为眼球上下运动包括:完成指定次数的所述向上运动和所述向下运动的交替运动。
以下以具体实施例进行介绍:
如图5,本发明实施例提供一种智能眼镜的操作方法,该操作方法依赖于对人眼眼球相关参数的分析,从而判断出眼球的运动方向,并根据该运动方向实现对智能眼镜的操作,具体过程如下:
步骤51,判断当前用户是否为首次使用该智能眼镜的用户;如果是,则确定当前用户为首次用户,并执行步骤52;否则确定为多次用户,并执行步骤56;
本步骤中的判断方法可以有多种,只要能够对用户进行身份识别的方式都可以;
本实施例中主要是通过传感器对虹膜进行识别操作,如果识别出当前用户虹膜的相关数据与预先保存的相匹配的,则确定当前用户为多次使用该智能眼镜的多次用户;否则为首次使用该智能眼镜的首次用户;
步骤52,在指定时间内获取多组眼球参数;
具体的,指定时间可以根据实际情况设置,本发明实施例中用户眼睛平视前方的指定时间为3秒,传感器会捕捉这3秒钟的眼球参数,按照每秒10帧的情况计算,共可得到30组眼球参数;
本实施例中每组眼球参数包括多个不同种类的细节参数,细节参数具体包括:瞳孔直径、虹膜直径、左侧眼白长度、右侧眼白长度、上虹膜高度、下虹膜高度、上眼白高度以及下眼白高度;
步骤53,确定出每种细节参数的平均值;
例如,获取出30个瞳孔直径:OR0、OR1、OR2……OR29,则瞳孔直径的平均值OR平均
OR平均=(OR0+OR1+OR2+……+OR29)/30;
步骤54,判断每种细节参数的平均值是否有效;如果有效执行步骤55;否则提示出错,重新执行步骤51;
具体的本步骤中判断平均值是否有效包括:
判断每组中的每个细节参数是否有效,如果该细节参数有效则确定出的该细节参数的平均值有效,具体判断方式为判断每个细节参数与该细节参数的平均值之差是否小于预设的阈值范围,预设的阈值范围为该细节参数的10%,公式如下:
|Xn-X平均|<Xn*10%
其中Xn为细节参数,例如OR0、OR1、OR2或者OR29,X平均为OR平均,如果满足上述公式则说明OR0为有效值,依次类推OR0、OR1、OR2……OR29都为有效值是,则OR平均为有效的平均值,可以用该平均值完成后续步骤57中的相关操作;
步骤55,传感器获取首次用户的眼球参数,即获取首次用户的当前的细节参数:OR当、HR当、LB当、RB当、UHL当、DHL当、UB当、DB当;
步骤56,智能眼镜查找出预先保存的与多次用户相对应的眼球参数;即查找出与该多次用户相匹配的所有细节参数作为当前的细节参数,并执行步骤57;
步骤57,根据眼球参数判断眼球的运动;具体为根据当前的细节参数判断眼球的运动,包括:
所述运动为眼球向上运动包括:当上眼白高度的有效平均值大于0时,当前上眼白高度等于0并且当前下眼白高度大于下眼白高度的有效平均值;或者,当上眼白高度的有效平均值等于0时,当前上虹膜高度小于上虹膜高度的有效平均值并且当前下眼白高度大于下眼白高度的有效平均值;
所述运动为眼球向下运动包括:当下眼白高度的有效平均值大于0时,当前下眼白高度等于0并且当前上眼白高度大于上眼白高度的有效平均值;或者,当下眼白高度的有效平均值等于0时,当前下虹膜高度小于下虹膜高度的有效平均值并且当前上眼白高度大于上眼白高度的有效平均值;
所述运动为眼球向左运动包括:当前左侧眼白长度小于左侧眼白长度有效平均值的一半时,且当前右侧眼白长度大于右侧眼白长度有效平均值的1.5倍;
所述运动为眼球向右运动包括:当前右侧眼白长度小于右侧眼白长度有效平均值的一半,当前左侧眼白长度大于左侧眼白长度有效平均值的1.5倍;
所述运动为眼球左右运动包括:完成指定次数的所述向左运动和所述向右运动的交替运动;
所述运动为眼球上下运动包括:完成指定次数的所述向上运动和所述向下运动的交替运动。
具体的,根据眼睛特有的运动方式还可包括以下两种:
第一,眨眼运动包括:一秒钟内,传感器检测到瞳孔不可见状态续300毫秒以上并还原成瞳孔可见状态。眨眼要求瞳孔不可见的时间持续300毫秒以上,以排除正常的眨眼活动;
第二,闭眼运动包括:瞳孔不可见状态持续1秒以上。
步骤58,根据上述八种不同的运动状态,可以分别设置与该运动状态相对应的相关操作,当智能眼镜确定发生什么动作后,确定与该动作相对应的操作界面,例如,图6所示的界面,当用户眼睛平视的时候智能眼镜显示的是主界面,当智能眼镜判断出用户的眼睛运动分别为向上运动、向下运动、向左运动或者向右运动时,分别显示上方界面、下方界面、左侧界面或者右侧界面,而每一个界面显示什么内容可以由用户预先设置。
如图7所示,本发明实施例提供一种智能眼镜,该智能眼镜包括传感器,所述智能眼镜还包括:
接收模块71,用于接收所述传感器发来的眼球参数;
判断模块73,用于据接收到的所述眼球参数判断眼球的运动;
操作模块74,用于确定与所述运动相对应的界面操作。
所述判断模块73还用于:
判断当前用户是否为首次使用所述智能眼镜的用户;
在所述传感器获取可靠的眼球参数包括:
如果当前用户为首次使用所述智能眼镜的用户则确定为首次用户,所述传感器获取所述首次用户的眼球参数;
如果当前用户不是首次使用所述智能眼镜的用户则确定为多次用户,所述智能眼镜查找出预先保存的与所述多次用户相对应的眼球参数。
所述智能眼镜还包括:
参数模块72,用于在指定时间内获取所述首次用户的多组眼球参数,每组眼球参数包括多个不同种类的细节参数;确定出每种细节参数的平均值;
当获取的所述首次用户的每一种当前的细节参数与该细节参数所对应的平均值之差在预设的阈值范围内,则确定为有效平均值;
所述传感器获取眼球参数包括:
所述传感器获取所述首次用户的当前眼球参数。
所述判断模块73具体用于:
根据获取到的所述首次用户的当前眼球参数中包括的各种当前细节参数与该当前细节参数对应的有效平均值之间的关系,判断眼球的运动。
所述细节参数包括:瞳孔直径、虹膜直径、左侧眼白长度、右侧眼白长度、上虹膜高度、下虹膜高度、上眼白高度以及下眼白高度;所述判断模块具体用于:
所述运动为眼球向上运动包括:当上眼白高度的有效平均值大于0时,当前上眼白高度等于0并且当前下眼白高度大于下眼白高度的有效平均值;或者,当上眼白高度的有效平均值等于0时,当前上虹膜高度小于上虹膜高度的有效平均值并且当前下眼白高度大于下眼白高度的有效平均值;
所述运动为眼球向下运动包括:当下眼白高度的有效平均值大于0时,当前下眼白高度等于0并且当前上眼白高度大于上眼白高度的有效平均值;或者,当下眼白高度的有效平均值等于0时,当前下虹膜高度小于下虹膜高度的有效平均值并且当前上眼白高度大于上眼白高度的有效平均值;
所述运动为眼球向左运动包括:当前左侧眼白长度小于左侧眼白长度有效平均值的一半时,且当前右侧眼白长度大于右侧眼白长度有效平均值的1.5倍;
所述运动为眼球向右运动包括:当前右侧眼白长度小于右侧眼白长度有效平均值的一半,当前左侧眼白长度大于左侧眼白长度有效平均值的1.5倍;
所述运动为眼球左右运动包括:完成指定次数的所述向左运动和所述向右运动的交替运动;
所述运动为眼球上下运动包括:完成指定次数的所述向上运动和所述向下运动的交替运动。
综上所述,有益效果:
本发明实施例提供的方法可以通过识别出眼球的运动完成对智能眼镜的相应操作,该方法不再需要手指的相关操作,因此可解决现有技术中用手指对智能眼镜操作不方便的问题,提高用户的体验感。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种智能眼镜的操作方法,该智能眼镜包括可以对眼球进行识别的传感器,其特征在于,所述操作方法:
所述传感器获取眼球参数,并发送给所述智能眼镜;
所述智能眼镜根据接收到的所述眼球参数判断眼球的运动;
所述智能眼镜确定与所述运动相对应的界面操作。
2.如权利要求1所述的智能眼镜操作方法,其特征在于,在所述传感器获取眼球参数之前,进一步包括:
判断当前用户是否为首次使用所述智能眼镜的用户;
在所述传感器获取可靠的眼球参数包括:
如果当前用户为首次使用所述智能眼镜的用户则确定为首次用户,所述传感器获取所述首次用户的眼球参数;
如果当前用户不是首次使用所述智能眼镜的用户则确定为多次用户,所述智能眼镜查找出预先保存的与所述多次用户相对应的眼球参数。
3.如权利要求2所述的智能眼镜操作方法,其特征在于,在确定为首次用户之后、且在所述传感器获取眼球参数之前,进一步包括:
在指定时间内获取所述首次用户的多组眼球参数,每组眼球参数包括多个不同种类的细节参数;确定出每种细节参数的平均值;
当获取的所述首次用户的每一种当前的细节参数与该细节参数所对应的平均值之差在预设的阈值范围内,则确定为有效平均值;
所述传感器获取眼球参数包括:
所述传感器获取所述首次用户的当前眼球参数。
4.如权利要求3所述的智能眼镜操作方法,其特征在于,根据所述眼球参数判断眼球的运动包括:
根据获取到的所述首次用户的当前眼球参数中包括的各种当前细节参数与该当前细节参数对应的有效平均值之间的关系,判断眼球的运动。
5.如权利要求4所述的智能眼镜操作方法,其特征在于,所述细节参数包括:瞳孔直径、虹膜直径、左侧眼白长度、右侧眼白长度、上虹膜高度、下虹膜高度、上眼白高度以及下眼白高度;
所述运动为眼球向上运动包括:当上眼白高度的有效平均值大于0时,当前上眼白高度等于0并且当前下眼白高度大于下眼白高度的有效平均值;或者,当上眼白高度的有效平均值等于0时,当前上虹膜高度小于上虹膜高度的有效平均值并且当前下眼白高度大于下眼白高度的有效平均值;
所述运动为眼球向下运动包括:当下眼白高度的有效平均值大于0时,当前下眼白高度等于0并且当前上眼白高度大于上眼白高度的有效平均值;或者,当下眼白高度的有效平均值等于0时,当前下虹膜高度小于下虹膜高度的有效平均值并且当前上眼白高度大于上眼白高度的有效平均值;
所述运动为眼球向左运动包括:当前左侧眼白长度小于左侧眼白长度有效平均值的一半时,且当前右侧眼白长度大于右侧眼白长度有效平均值的1.5倍;
所述运动为眼球向右运动包括:当前右侧眼白长度小于右侧眼白长度有效平均值的一半,当前左侧眼白长度大于左侧眼白长度有效平均值的1.5倍;
所述运动为眼球左右运动包括:完成指定次数的所述向左运动和所述向右运动的交替运动;
所述运动为眼球上下运动包括:完成指定次数的所述向上运动和所述向下运动的交替运动。
6.一种智能眼镜,该智能眼镜包括传感器,其特征在于,所述智能眼镜还包括:
接收模块,用于接收所述传感器发来的眼球参数;
判断模块,用于据接收到的所述眼球参数判断眼球的运动;
操作模块,用于确定与所述运动相对应的界面操作。
7.如权利要求6所述的智能眼镜,其特征在于,所述判断模块还用于:
判断当前用户是否为首次使用所述智能眼镜的用户;
在所述传感器获取可靠的眼球参数包括:
如果当前用户为首次使用所述智能眼镜的用户则确定为首次用户,所述传感器获取所述首次用户的眼球参数;
如果当前用户不是首次使用所述智能眼镜的用户则确定为多次用户,所述智能眼镜查找出预先保存的与所述多次用户相对应的眼球参数。
8.如权利要求7所述的智能眼镜,其特征在于,所述智能眼镜还包括:
参数模块,用于在指定时间内获取所述首次用户的多组眼球参数,每组眼球参数包括多个不同种类的细节参数;确定出每种细节参数的平均值;
当获取的所述首次用户的每一种当前的细节参数与该细节参数所对应的平均值之差在预设的阈值范围内,则确定为有效平均值;
所述传感器获取眼球参数包括:
所述传感器获取所述首次用户的当前眼球参数。
9.如权利要求8所述的智能眼镜,其特征在于,所述判断模块具体用于:
根据获取到的所述首次用户的当前眼球参数中包括的各种当前细节参数与该当前细节参数对应的有效平均值之间的关系,判断眼球的运动。
10.如权利要求9所述的智能眼镜,其特征在于,所述细节参数包括:瞳孔直径、虹膜直径、左侧眼白长度、右侧眼白长度、上虹膜高度、下虹膜高度、上眼白高度以及下眼白高度;所述判断模块具体用于:
所述运动为眼球向上运动包括:当上眼白高度的有效平均值大于0时,当前上眼白高度等于0并且当前下眼白高度大于下眼白高度的有效平均值;或者,当上眼白高度的有效平均值等于0时,当前上虹膜高度小于上虹膜高度的有效平均值并且当前下眼白高度大于下眼白高度的有效平均值;
所述运动为眼球向下运动包括:当下眼白高度的有效平均值大于0时,当前下眼白高度等于0并且当前上眼白高度大于上眼白高度的有效平均值;或者,当下眼白高度的有效平均值等于0时,当前下虹膜高度小于下虹膜高度的有效平均值并且当前上眼白高度大于上眼白高度的有效平均值;
所述运动为眼球向左运动包括:当前左侧眼白长度小于左侧眼白长度有效平均值的一半时,且当前右侧眼白长度大于右侧眼白长度有效平均值的1.5倍;
所述运动为眼球向右运动包括:当前右侧眼白长度小于右侧眼白长度有效平均值的一半,当前左侧眼白长度大于左侧眼白长度有效平均值的1.5倍;
所述运动为眼球左右运动包括:完成指定次数的所述向左运动和所述向右运动的交替运动;
所述运动为眼球上下运动包括:完成指定次数的所述向上运动和所述向下运动的交替运动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510003524.0A CN104793732A (zh) | 2015-01-04 | 2015-01-04 | 一种智能眼镜的操作方法及智能眼镜 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510003524.0A CN104793732A (zh) | 2015-01-04 | 2015-01-04 | 一种智能眼镜的操作方法及智能眼镜 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104793732A true CN104793732A (zh) | 2015-07-22 |
Family
ID=53558606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510003524.0A Pending CN104793732A (zh) | 2015-01-04 | 2015-01-04 | 一种智能眼镜的操作方法及智能眼镜 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104793732A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106708251A (zh) * | 2015-08-12 | 2017-05-24 | 天津电眼科技有限公司 | 一种基于眼球追踪技术的智能眼镜控制方法 |
CN107092873A (zh) * | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动方向识别方法及装置 |
CN107092872A (zh) * | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动识别方法及装置 |
CN107102732A (zh) * | 2017-04-08 | 2017-08-29 | 闲客智能(深圳)科技有限公司 | 一种眼动判断方法及装置 |
CN110554768A (zh) * | 2018-05-31 | 2019-12-10 | 努比亚技术有限公司 | 一种智能穿戴设备控制方法、设备和计算机可读存储介质 |
CN111077681A (zh) * | 2020-01-09 | 2020-04-28 | 甘肃创客空间信息科技有限责任公司 | 一种多功能智能眼镜 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5839000A (en) * | 1997-11-10 | 1998-11-17 | Sharp Laboratories Of America, Inc. | Automatic zoom magnification control using detection of eyelid condition |
CN103294178A (zh) * | 2012-02-29 | 2013-09-11 | 联想(北京)有限公司 | 一种人机交互控制方法及电子终端 |
CN103399636A (zh) * | 2013-07-30 | 2013-11-20 | 深圳市中兴移动通信有限公司 | 通过眼睛动作调整终端字体大小的方法及装置 |
CN103782251A (zh) * | 2011-06-24 | 2014-05-07 | 汤姆逊许可公司 | 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法 |
CN104238726A (zh) * | 2013-06-17 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 智能眼镜控制方法、装置及一种智能眼镜 |
-
2015
- 2015-01-04 CN CN201510003524.0A patent/CN104793732A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5839000A (en) * | 1997-11-10 | 1998-11-17 | Sharp Laboratories Of America, Inc. | Automatic zoom magnification control using detection of eyelid condition |
CN103782251A (zh) * | 2011-06-24 | 2014-05-07 | 汤姆逊许可公司 | 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法 |
CN103294178A (zh) * | 2012-02-29 | 2013-09-11 | 联想(北京)有限公司 | 一种人机交互控制方法及电子终端 |
CN104238726A (zh) * | 2013-06-17 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 智能眼镜控制方法、装置及一种智能眼镜 |
CN103399636A (zh) * | 2013-07-30 | 2013-11-20 | 深圳市中兴移动通信有限公司 | 通过眼睛动作调整终端字体大小的方法及装置 |
Non-Patent Citations (1)
Title |
---|
沈建虎: "眼球运动模型动画仿真的研究", 《中国优秀博硕士学位论文全文数据库 (硕士) 医药卫生科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106708251A (zh) * | 2015-08-12 | 2017-05-24 | 天津电眼科技有限公司 | 一种基于眼球追踪技术的智能眼镜控制方法 |
CN107092873A (zh) * | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动方向识别方法及装置 |
CN107092872A (zh) * | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动识别方法及装置 |
CN107102732A (zh) * | 2017-04-08 | 2017-08-29 | 闲客智能(深圳)科技有限公司 | 一种眼动判断方法及装置 |
CN110554768A (zh) * | 2018-05-31 | 2019-12-10 | 努比亚技术有限公司 | 一种智能穿戴设备控制方法、设备和计算机可读存储介质 |
CN111077681A (zh) * | 2020-01-09 | 2020-04-28 | 甘肃创客空间信息科技有限责任公司 | 一种多功能智能眼镜 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104793732A (zh) | 一种智能眼镜的操作方法及智能眼镜 | |
CN107506037B (zh) | 一种基于增强现实的控制设备的方法和装置 | |
CN104410883B (zh) | 一种移动可穿戴非接触式交互系统与方法 | |
CN103442129A (zh) | 智能手表与移动终端的交互方法及系统 | |
CN104331149B (zh) | 一种控制方法、装置和电子设备 | |
CN111898407B (zh) | 一种基于人脸动作识别的人机交互操作系统 | |
KR100464040B1 (ko) | 얼굴 움직임을 이용한 이동 통신 단말기의 제어 방법 | |
CN103885589A (zh) | 眼动追踪方法及装置 | |
CN105549739A (zh) | 一种屏幕亮屏方法及终端 | |
CN103488299A (zh) | 一种融合人脸和手势的智能终端人机交互方法 | |
CN105635776B (zh) | 虚拟操作界面遥控控制方法及系统 | |
CN105022981A (zh) | 一种检测人眼健康状态的方法、装置及移动终端 | |
CN106708251A (zh) | 一种基于眼球追踪技术的智能眼镜控制方法 | |
CN106886290A (zh) | 一种眼动控制方法及装置 | |
CN103336581A (zh) | 基于人体眼动特征设计的人机交互方法及系统 | |
CN108960071A (zh) | 一种睁眼闭眼状态检测方法 | |
CN104462923A (zh) | 应用于移动通信设备的智能型虹膜身份识别系统 | |
CN105042789A (zh) | 一种智能空调的控制方法及系统 | |
CN105892881A (zh) | 人机交互方法及装置、移动设备 | |
CN105072264A (zh) | 基于三轴加速度传感器的智能腕表控制方法及系统 | |
CN104484588A (zh) | 具有人工智能的虹膜安全认证方法 | |
CN106681509A (zh) | 界面操作的方法和系统 | |
CN110148092A (zh) | 基于机器视觉的青少年坐姿及情绪状态的分析方法 | |
CN109814722A (zh) | 一种多模态人机交互系统及交互方法 | |
CN107092872A (zh) | 一种眼动识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150722 |