CN105242776A - 一种智能眼镜的控制方法及智能眼镜 - Google Patents
一种智能眼镜的控制方法及智能眼镜 Download PDFInfo
- Publication number
- CN105242776A CN105242776A CN201510564798.7A CN201510564798A CN105242776A CN 105242776 A CN105242776 A CN 105242776A CN 201510564798 A CN201510564798 A CN 201510564798A CN 105242776 A CN105242776 A CN 105242776A
- Authority
- CN
- China
- Prior art keywords
- intelligent glasses
- gesture
- operating result
- movement locus
- gesture information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及通信电子技术领域,尤其涉及一种智能眼镜的控制方法及智能眼镜。一种智能眼镜的控制方法,所述方法包括:所述智能眼镜通过其摄像头获取手势信息;根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;根据所述操作结果执行相应的操作。可见该方法可用于解决现有技术中智能眼镜人机交互不便利的问题。
Description
技术领域
本发明涉及通信电子技术领域,尤其涉及一种智能眼镜的控制方法及智能眼镜。
背景技术
目前智能眼镜已开始逐步进入电子市场,智能眼镜在具备智能手机功能的同时,还具有满足消费者对便携性和大屏幕视觉体验等需求,是消费电子领域继个人电脑、智能手机之后又一款革命性产品。但是智能眼镜作为可穿戴式计算机,在人机交互方面存在较大的弊端,由于智能眼镜通常不具备像智能手机或平板的触摸屏的装置而导致无法进行最直接便捷且精准的操控,目前已有的几种人机交互方案有:
第一种,外接触摸板设备,通过捕捉手指的滑动按压等来操作界面;
第二种,通过语音控制进行人机交互,使用语音识别技术分析语音数据得到控制信息进行操控。
但本发明人发现,虽然当前已有几个方案可以实现基于智能眼镜设备进行的人机交互,但是仍存在一定缺陷,如下:
1.外接触摸板设备,通过捕捉手指的滑动按压等来操作界面。由于智能眼镜的显示方式为在眼镜上方安装独立的显示模块而无法像智能手机或平板一样使用触摸屏进行最直接便捷且精准的操控,使用外接触摸板便无法将用户的手指动作精确到屏幕的某一位置只能针对全屏进行手势操控,如单(双)击、长按、上下左右滑动等,可使用的操作非常少,触摸板面积小且位于镜架位置使用起来不方便,同时也限制了智能眼镜界面的显示方式被局限在卡片式;
2.通过语音控制进行人机交互,使用语音识别技术分析语音数据得到控制信息进行操控。这种交互方式可以免去用户手部的动作,仅通过语音就可以进行交互,但是它的弊端在于语音识别的精确度、周围环境的影响等。
由此可见,智能眼镜作为一种新型可穿戴设备,在人机交互的界面控制上还存在较大的缺陷。
发明内容
本发明提供了一种智能眼镜的控制方法及智能眼镜,该方法用于解决现有技术中智能眼镜人机交互不便利的问题。
一种智能眼镜的控制方法,所述方法包括:
所述智能眼镜通过其摄像头获取手势信息;
根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
根据所述操作结果执行相应的操作。
一种智能眼镜,所述智能眼镜包括:
获取模块,用于通过其摄像头获取手势信息;
确定模块,用于根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
操作模块,用于根据所述操作结果执行相应的操作。
可见,该方法通过获取手势信息以及与手势信息匹配的识别方式,确定出要对模块进行的操作结果,并根据该操作结果对模块执行相应的操作。可见该方法可以通过手势实现人机交互,因此可大大方便智能眼镜与人的交互操作。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例提供的一种智能眼镜的控制方法流程图;
图2为本发明实施例一提供的手指坐标示意图;
图3为本发明实施例一提供的识别出指尖位置在播放按钮上的示意图;
图4为本发明实施例一提供的识别出手指按下动作触发down事件按钮变色示意图;
图5为本发明实施例一提供的识别出手指抬起动作触发up事件按钮改变状态示意图;
图6为本发明实施例一提供的运动轨迹触发操作的示意图;
图7为本发明实施例提供的智能眼镜结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术方案作进一步详细的说明。
本发明实施例提供的一种智能眼镜的控制方法及智能眼镜,可通过获取手势信息以及与手势信息匹配的识别方式,确定出要对模块进行的操作结果,并根据该操作结果对模块执行相应的操作。可见该方法可以通过手势实现人机交互,因此可大大方便智能眼镜与人的交互操作。如图1所示,具体如下:
步骤11,所述智能眼镜通过其摄像头获取手势信息;
步骤12,根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
步骤13,根据所述操作结果执行相应的操作。
具体的,所述智能眼镜通过其摄像头获取手势信息之前进一步包括:
在所述智能眼镜的显示区域的底层设置获取区域;此时,所述智能眼镜通过其摄像头获取手势信息包括:
所述智能眼镜通过其摄像头获取位于所述获取区域内的手势信息。
具体的,所述根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果包括:
当所述预先设置的识别方式为识别手势的运动轨迹时,所述手势信息为获取区域内的手势的运动轨迹;将获取到运动轨迹与预先保存的运动轨迹进行匹配,将匹配成功的预先保存的运动轨迹所对应的操作结果作为确定出的操作结果。
具体的,所述根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果包括:
当所述预先设置的识别方式为识别手势的坐标信息时,所述手势信息为获取区域内的手势的特定点;根据所述特定点确定出要进行操作的模块,并根据所述特定点的运动轨迹确定出操作结果。
具体的,获取所述特定点包括:
确定手的轮廓以及手指的重心,在所述轮廓上寻找距离所述中心最远的点,将该点作为特定点。
以下以具体实施例进行介绍:
实施例一,第一种智能眼镜的控制方法,该方法通过精确定位每一帧手的运动轨迹,然后根据该运动轨迹确定要进行的相关操作,该方法需要预先固定手的形状,该形状能够保证有一个手指伸出其他手指识别不到,这样可以获得该手指的指尖坐标,并根据指尖的运动轨迹进行相应操作,具体如下:
当确定出预先设置的识别方式为识别手势的运动轨迹时,既对手指的运动轨迹进行识别,此时需要获取的手势信息为获取区域内的手势的运动轨迹;
步骤一,在所述智能眼镜的显示区域的底层设置获取区域;
该步骤中,获取区域与其他显示在屏幕上的模块可重叠且位于最底部,获取区域也可与显示区域的大小相同,摄像头只扑捉进入到获取区域内的手势;
步骤二,智能眼镜通过其摄像头获取手势信息;
本步骤中智能眼镜的摄像头应当获取位于获取区域内的手势信息;
步骤三,根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果,本步骤具体操作如下:
当所述预先设置的识别方式为识别手势的坐标信息时,所述手势信息为获取区域内的手势的特定点,既指尖信息;
根据所述特定点确定出要进行操作的模块,并根据所述特定点与手部的面积确定出操作结果。具体方式如下:
如图2所示,通过摄像头采集的手势的相关信息,检测出指尖位置和手部面积,并根据手部图像数据的宽高与显示屏幕的比例转换得到指尖在屏幕中的坐标信息Tn(x,y,z),其中T为该坐标点名称,n为整数表示当前指尖坐标点为第几帧的信息,x为浮点数表示距离原点的横向坐标,y为浮点数表示距离原点的竖向坐标,z为浮点数表示距离原点的深度纵向坐标;手部的面积信息记为Sn,原点为屏幕左上角,S为整数表示该帧手部所占面积。
并将该指尖作为特定点,根据该特定点确定出要进行操作的模块;
检测出手指指尖的坐标信息,既手指指尖的位置的具体方法包括:
首先通过分析图像深度信息、肤色形状信息、以及已经训练好的手势模板提取出手部,计算该部分的像素点数总和作确定出手部面积,采用轮廓检测得到手的轮廓数据并计算出手的重心,在得到的轮廓数据中查找距离重心最远的点作为指尖的位置,该位置既为指尖坐标;
当指尖坐标位于或者重叠于某一功能模块的坐标区域内,则说明需要对该模块进行相应操作;根据分析每一帧的Tn(x,y,z)以及Sn数据信息以及每一帧间的变化,将这些信息转换成手指按下、滑动以及抬起的操作,如图3为识别出指尖位置在播放按钮上,圆点指示指尖位置;图4为识别出手指按下动作触发down事件按钮变色;图5为识别出手指抬起动作触发up事件按钮改变状态,在图4和图5的状态之间还有很多个坐标相近的move事件,这样又一个down事件、多个坐标相近的move事件和一个up事件组成的单击动作就完成了,由此即可确定出特定点的操作结果,并根据该操作结果对相应模块进行操作。
实施例二,本发明实施例提供第二种智能眼镜的控制方法,该方法与实施例一中的方法的区别在于,在步骤三中当所述预先设置的识别方式为识别手势的运动轨迹时,所述手势信息为获取区域内的手势的运动轨迹;将获取到运动轨迹与预先保存的运动轨迹进行匹配,将匹配成功的预先保存的运动轨迹所对应的操作结果作为确定出的操作结果。例如,当预先保存了运动轨迹为圆形时要进行的操作为快进歌曲,如图6所示,当摄像头扑捉到手势的运动轨迹后,将该运动轨迹与预先保存的运动轨迹进行匹配,根据匹配结果确定出相应的操作结果。
在实施例二中仅识别特定手势动作得到该动作的结果,并给于相应特定指令进行操控的方法,是需要得到一个完整的手势,将这个手势所表示的指令传给系统进行操控。首先会有几组基本的手势指定能够保证进行最基本的操控,如上下左右滑动、单双击等手势,这些手势需要结合指尖坐标和手部面积的变化进行识别。另外用户可以自定义手势,通过3次手势输入供内部算法进行学习得到指尖坐标和手部面积的变化并指定该手势所表示的指令后,当用户再次做出这个手势,通过与已学习到的手势进行比对识别出该手势的指令信息即可,如图6为画圈手势作为快进歌曲5秒的指令。这种方式能够实现已有的外接触摸板的功能,同时解决触摸板面积小操控不便的缺陷。
如图7所示,本发明实施例提供一种智能眼镜,所述智能眼镜包括:
获取模块71,用于通过其摄像头获取手势信息;
确定模块73,用于根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
操作模块74,用于根据所述操作结果执行相应的操作。
所述智能眼镜还包括获取区域72;
所述获取区72域位于所述智能眼镜的显示区域的底层;
所述获取模块71具体用于,通过所述摄像头获取位于所述获取区域内的手势信息。
所述确定模块73具体用于:
当所述预先设置的识别方式为识别手势的运动轨迹时,所述手势信息为获取区域内的手势的运动轨迹;
将获取到运动轨迹与预先保存的运动轨迹进行匹配,将匹配成功的预先保存的运动轨迹所对应的操作结果作为确定出的操作结果。
所述确定模块73还具体用于:当所述预先设置的识别方式为识别手势的坐标信息时,所述手势信息为获取区域内的手势的特定点;
根据所述特定点确定出要进行操作的模块;根据所述特定点以及手部面积信息确定出操作结果。
获取所述特定点包括:
确定手的轮廓以及手指的重心,在所述轮廓上寻找距离所述中心最远的点,将该点作为特定点。
综上所述,有益效果:
该方法通过获取手势信息以及与手势信息匹配的识别方式,确定出要对模块进行的操作结果,并根据该操作结果对模块执行相应的操作。可见该方法可以通过手势实现人机交互,因此可大大方便智能眼镜与人的交互操作。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种智能眼镜的控制方法,其特征在于,所述方法包括:
所述智能眼镜通过其摄像头获取手势信息;
根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
根据所述操作结果执行相应的操作。
2.如权利要求1所述的方法,其特征在于,所述智能眼镜通过其摄像头获取手势信息之前进一步包括:
在所述智能眼镜的显示区域的底层设置获取区域;
所述智能眼镜通过其摄像头获取手势信息包括:
所述智能眼镜通过其摄像头获取位于所述获取区域内的手势信息。
3.如权利要求1所述的方法,其特征在于,所述根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果包括:
当所述预先设置的识别方式为识别手势的运动轨迹时,所述手势信息为获取区域内的手势的运动轨迹;
将获取到运动轨迹与预先保存的运动轨迹进行匹配,将匹配成功的预先保存的运动轨迹所对应的操作结果作为确定出的操作结果。
4.如权利要求1所述的方法,其特征在于,所述根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果包括:
当所述预先设置的识别方式为识别手势的坐标信息时,所述手势信息为获取区域内的手势的特定点;
根据所述特定点确定出要进行操作的模块;根据所述特定点以及手部面积信息确定出操作结果。
5.如权利要求4所述的方法,其特征在于,获取所述特定点包括:
确定手的轮廓以及手指的重心,在所述轮廓上寻找距离所述中心最远的点,将该点作为特定点。
6.一种智能眼镜,其特征在于,所述智能眼镜包括:
获取模块,用于通过其摄像头获取手势信息;
确定模块,用于根据获取到的所述手势信息以及预先设置的识别方式,确定出操作结果;
操作模块,用于根据所述操作结果执行相应的操作。
7.如权利要求6所述的智能眼镜,其特征在于,所述智能眼镜还包括获取区域;
所述获取区域位于所述智能眼镜的显示区域的底层;
所述获取模块具体用于,通过所述摄像头获取位于所述获取区域内的手势信息。
8.如权利要求6所述的智能眼镜,其特征在于,所述确定模块具体用于:
当所述预先设置的识别方式为识别手势的运动轨迹时,所述手势信息为获取区域内的手势的运动轨迹;
将获取到运动轨迹与预先保存的运动轨迹进行匹配,将匹配成功的预先保存的运动轨迹所对应的操作结果作为确定出的操作结果。
9.如权利要求6所述的智能眼镜,其特征在于,所述确定模块还具体用于:当所述预先设置的识别方式为识别手势的坐标信息时,所述手势信息为获取区域内的手势的特定点;
根据所述特定点确定出要进行操作的模块;根据所述特定点以及手部面积信息确定出操作结果。
10.如权利要求9所述的方法,其特征在于,获取所述特定点包括:
确定手的轮廓以及手指的重心,在所述轮廓上寻找距离所述中心最远的点,将该点作为特定点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510564798.7A CN105242776A (zh) | 2015-09-07 | 2015-09-07 | 一种智能眼镜的控制方法及智能眼镜 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510564798.7A CN105242776A (zh) | 2015-09-07 | 2015-09-07 | 一种智能眼镜的控制方法及智能眼镜 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105242776A true CN105242776A (zh) | 2016-01-13 |
Family
ID=55040447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510564798.7A Pending CN105242776A (zh) | 2015-09-07 | 2015-09-07 | 一种智能眼镜的控制方法及智能眼镜 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105242776A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105866955A (zh) * | 2016-06-16 | 2016-08-17 | 深圳市世尊科技有限公司 | 智能眼镜 |
CN106020459A (zh) * | 2016-05-12 | 2016-10-12 | 上海擎感智能科技有限公司 | 一种智能眼镜、智能眼镜的操控方法及操控系统 |
CN106406527A (zh) * | 2016-09-07 | 2017-02-15 | 传线网络科技(上海)有限公司 | 基于虚拟现实的输入方法、装置及虚拟现实装置 |
WO2019037257A1 (zh) * | 2017-08-20 | 2019-02-28 | 平安科技(深圳)有限公司 | 密码输入的控制设备、方法及计算机可读存储介质 |
CN110096926A (zh) * | 2018-01-30 | 2019-08-06 | 北京亮亮视野科技有限公司 | 一种放缩智能眼镜屏幕的方法与智能眼镜 |
CN110096132A (zh) * | 2018-01-30 | 2019-08-06 | 北京亮亮视野科技有限公司 | 一种消除智能眼镜消息通知的方法与智能眼镜 |
WO2019161576A1 (en) * | 2018-02-23 | 2019-08-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
CN103180893A (zh) * | 2011-08-23 | 2013-06-26 | 索尼公司 | 用于提供三维用户界面的方法和系统 |
CN103814343A (zh) * | 2011-07-20 | 2014-05-21 | 谷歌公司 | 在可穿戴计算系统上操纵和显示图像 |
US20150009309A1 (en) * | 2011-07-08 | 2015-01-08 | Google Inc. | Optical Frame for Glasses and the Like with Built-In Camera and Special Actuator Feature |
-
2015
- 2015-09-07 CN CN201510564798.7A patent/CN105242776A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
US20150009309A1 (en) * | 2011-07-08 | 2015-01-08 | Google Inc. | Optical Frame for Glasses and the Like with Built-In Camera and Special Actuator Feature |
CN103814343A (zh) * | 2011-07-20 | 2014-05-21 | 谷歌公司 | 在可穿戴计算系统上操纵和显示图像 |
CN103180893A (zh) * | 2011-08-23 | 2013-06-26 | 索尼公司 | 用于提供三维用户界面的方法和系统 |
Non-Patent Citations (1)
Title |
---|
褥铜: "人手捕捉虚拟物体交互技术研究", 《万方数据库》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106020459A (zh) * | 2016-05-12 | 2016-10-12 | 上海擎感智能科技有限公司 | 一种智能眼镜、智能眼镜的操控方法及操控系统 |
CN106020459B (zh) * | 2016-05-12 | 2020-07-07 | 上海擎感智能科技有限公司 | 一种智能眼镜、智能眼镜的操控方法及操控系统 |
CN105866955A (zh) * | 2016-06-16 | 2016-08-17 | 深圳市世尊科技有限公司 | 智能眼镜 |
CN106406527A (zh) * | 2016-09-07 | 2017-02-15 | 传线网络科技(上海)有限公司 | 基于虚拟现实的输入方法、装置及虚拟现实装置 |
WO2019037257A1 (zh) * | 2017-08-20 | 2019-02-28 | 平安科技(深圳)有限公司 | 密码输入的控制设备、方法及计算机可读存储介质 |
CN110096926A (zh) * | 2018-01-30 | 2019-08-06 | 北京亮亮视野科技有限公司 | 一种放缩智能眼镜屏幕的方法与智能眼镜 |
CN110096132A (zh) * | 2018-01-30 | 2019-08-06 | 北京亮亮视野科技有限公司 | 一种消除智能眼镜消息通知的方法与智能眼镜 |
WO2019161576A1 (en) * | 2018-02-23 | 2019-08-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105242776A (zh) | 一种智能眼镜的控制方法及智能眼镜 | |
CN104199550B (zh) | 一种虚拟键盘操作装置、系统及方法 | |
WO2018076523A1 (zh) | 手势识别的方法、装置及车载系统 | |
US10001838B2 (en) | Feature tracking for device input | |
CN103294996B (zh) | 一种3d手势识别方法 | |
US9910498B2 (en) | System and method for close-range movement tracking | |
CN105980965A (zh) | 用于非接触式打字的系统、设备和方法 | |
EP2790089A1 (en) | Portable device and method for providing non-contact interface | |
US20130181897A1 (en) | Operation input apparatus, operation input method, and program | |
CN104793731A (zh) | 可穿戴设备的信息输入方法及可穿戴设备 | |
CN102096471B (zh) | 一种基于机器视觉的人机交互方法 | |
US20140327611A1 (en) | Information processing apparatus and method, and program | |
CN103294257B (zh) | 对于手写识别用于引导手写输入的装置和方法 | |
CN104199547B (zh) | 一种虚拟触屏操作装置、系统及方法 | |
CN103472916A (zh) | 一种基于人体手势识别的人机交互方法 | |
CN104246682A (zh) | 增强的虚拟触摸板和触摸屏 | |
US20130155026A1 (en) | New kind of multi-touch input device | |
WO2007061057A1 (ja) | ジェスチャー入力装置、及び方法 | |
WO2006091753A2 (en) | Method and apparatus for data entry input | |
CN101901106A (zh) | 用于数据输入的方法及装置 | |
CN109074224A (zh) | 用于在字符串中插入字符的方法以及相应的数字设备 | |
WO2017114002A1 (zh) | 一维手写文字输入设备和一维手写文字输入方法 | |
KR20150024247A (ko) | 터치 스크린 디바이스에서 다수의 입력기구를 이용하는 애플리케이션을 실행하는 방법 및 터치 스크린 디바이스 | |
CN101847057A (zh) | 一种触摸板获取输入信息的方法 | |
CN104199548B (zh) | 一种三维人机交互操作装置、系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160113 |
|
WD01 | Invention patent application deemed withdrawn after publication |