CN104238726B - 智能眼镜控制方法、装置及一种智能眼镜 - Google Patents
智能眼镜控制方法、装置及一种智能眼镜 Download PDFInfo
- Publication number
- CN104238726B CN104238726B CN201310239041.1A CN201310239041A CN104238726B CN 104238726 B CN104238726 B CN 104238726B CN 201310239041 A CN201310239041 A CN 201310239041A CN 104238726 B CN104238726 B CN 104238726B
- Authority
- CN
- China
- Prior art keywords
- control
- intelligent glasses
- control instruction
- user
- focal position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
一种智能眼镜控制方法,包括:侦测并跟踪用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置;接收用户通过智能眼镜的触控模块所触发的控制指令;以及根据控制指令在焦点位置处执行相应的操作。此外,本发明还提供一种智能眼镜控制装置及一种智能眼镜。上述智能眼镜控制方法、装置及一种智能眼镜可提高智能眼镜控制的便捷性与准确性。
Description
技术领域
本发明涉及智能眼镜技术,尤其涉及一种智能眼镜、智能眼镜控制方法及控制装置。
背景技术
随着科技的发展,智能眼镜被开发出来。智能眼镜也称智能镜,是指像智能手机一样,具有独立的操作系统,可以由用户安装软件、游戏等软件服务商提供的程序,可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入的这样一类眼镜的总称。现有技术中,智能眼镜的用户与智能眼镜之间大多采用语音的方式进行交互,如果用户想要实现某一个操作时,就必需向智能眼镜说一句标准的英语,或者是其他语言。然而在公众场合中,语音交互一方面会受到周围噪音的影响,另一方面也会给周围的人造成困扰,并且由于语音交互对用户发音有比较高的要求,如果用户咬字不清,便很难让智能眼镜去完成自己想要的操作。因此,如何提高智能眼镜控制的便捷性与准确性是当前的一大难题。
发明内容
有鉴于此,本发明提供一种智能眼镜控制方法、装置及一种智能眼镜,可提高智能眼镜控制的便捷性与准确性。
本发明实施例提供一种智能眼镜控制方法,包括:侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;接收用户通过所述智能眼镜的触控模块所触发的控制指令;以及根据所述控制指令在所述焦点位置处执行相应的操作。
本发明实施例提供一种智能眼镜控制装置,包括:焦点位置跟踪模块,用于侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;控制指令接收模块,用于接收用户通过所述智能眼镜的触控模块所触发的控制指令;以及控制指令执行模块,用于根据所述控制指令接收模块接收的所述控制指令在所述焦点位置处执行相应的操作。
本发明还实施例提供一种智能眼镜,包括眼镜框。所述智能眼镜还包括:摄像模块,用于侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;触控模块,设置在所述眼镜框上,用于获取所述用户触发的触控手势控制指令;以及中央处理器,用于根据所述触控手势控制指令在所述焦点位置处执行相应的操作。
本发明实施例提供的智能眼镜控制方法、装置及一种智能眼镜,通过接收用户通过所述智能眼镜的触控模块所触发的控制指令,根据该控制指令在用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置处执行相应的操作,使得智能眼镜的用户即使是在有语言障碍的情况下,也可通过触控手势动作完成在智能眼镜的操作系统界面上的操作,从而可提高智能眼镜控制的便捷性与准确性。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
图1为本发明第一实施例提供的智能眼镜控制方法的流程图。
图2为本发明第二实施例提供的智能眼镜控制方法的流程图。
图3为本发明第三实施例提供的智能眼镜控制装置的结构示意图。
图4为本发明第四实施例提供的智能眼镜控制装置的结构示意图。
图5为本发明第五实施例提供的智能眼镜的结构示意图。
具体实施方式
为更进一步阐述本发明为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明的具体实施方式、结构、特征及其功效,详细说明如后。
本发明实施例所提供的智能眼镜控制方法可应用于智能眼镜中,控制智能眼镜在操作系统界面上完成与获取的用户控制指令相对应的操作。
第一实施例
图1为本发明第一实施例提供的智能眼镜控制方法的流程图。如图1所示,本实施例的智能眼镜控制方法包括以下步骤:
步骤S11,侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置。
智能眼镜的操作系统界面是指用户在佩戴上智能眼镜时所看到的图形界面,该图形界面可以被显示在智能眼镜的眼镜片上。优选地,于本实施例其他具体实施方式中,该图形界面也可以通过投影的方式被投影在用户视野范围之内,例如:距离用户眼睛正前方10厘米的地方。
智能眼镜首先通过摄像头侦测并跟踪用户眼球的运动轨迹,然后根据用户眼球的轨迹变化与操作系统界面上的不同位置的坐标之间的映射关系,获取用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置信息。这里的焦点位置信息至少包括用户眼球聚焦在智能眼镜的操作系统界面上的坐标,例如:假设操作系统界面的分辨率为1024X768,以操作系统界面的左上角顶点为原点建立坐标轴,定义当用户眼球聚焦在该操作系统界面的左上角时,其焦点位置的坐标为(0,0),当用户眼球聚焦在该操作系统界面的右下角时,其焦点位置的坐标为(1024,768)。具体跟踪方法可以采用现有的眼球跟踪技术,在此不再赘述。
步骤S12,接收用户通过所述智能眼镜的触控模块所触发的控制指令。
具体地,触控模块通过被设置于智能眼镜的镜框表面的触控屏获取用户的触控手势,并根据预置规则将获取的触控手势转化为相应的控制指令,例如:将用户持续1秒以上的轻触触控屏的动作转化为“打开”的控制指令、或将用户0.2秒的连续多次轻触触控屏的动作转化为“关闭”的控制指令等。可以理解的,触控屏可以是表面电容式、电阻式、表面声波式、红外线式、投射电容式中的任一种。优选地,于本实施例其他具体实施方式中,触控模块也可通过被设置于智能眼镜上的控制按钮、或其它外设(例如:线控)获取用户的控制指令。
步骤S13,根据所述控制指令在所述焦点位置处执行相应的操作。
可以理解的,相应的操作可包括:打开、或关闭焦点位置处的应用程序;选定、或剪切、或粘贴、或复制焦点位置处的文字信息、应用程序的快捷方式等现有技术或未来技术中通过鼠标或触控屏所能完成的一切操作。
本发明实施例提供的智能眼镜控制方法,通过接收用户通过所述智能眼镜的触控模块所触发的控制指令,根据该控制指令在用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置处执行相应的操作,使得智能眼镜的用户即使是在有语言障碍的情况下,也可通过触控手势动作完成在智能眼镜的操作系统界面上的操作,从而可提高智能眼镜控制的便捷性与准确性。
第二实施例
图2为本发明第二实施例提供的智能眼镜控制方法的流程图。如图2所示,本实施例的智能眼镜控制方法包括以下步骤:
步骤S201,获取用户发送的开启任务指令。
具体地,可通过设置于智能眼镜上的任务开关,获取用户发送的开启任务指令。可以理解的,任务开关可以设置在智能眼镜的任何位置,例如:可设置于智能眼镜的边框上。优选地,于本实施例一其他具体实施方式中,也可通过设置于智能眼镜上的触控屏,获取用户发送的开启任务指令,例如:可定义当检测到用户用力按住触控屏表面10秒的动作时,为接收到用户发送的开启任务指令。优选地,于本实施例另一其他具体实施方式中,也可通过其它外设,例如:通过连接于智能眼镜上的线控,获取用户发送的开启任务指令。
步骤S202,根据所述开启任务指令,开启侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的任务,搜索用户眼球。
具体地,智能眼镜在获取到用户发送的开启任务指令时,开启侦测用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置的任务,通过摄像头间隔预设时长(例如:1秒)搜索一次是否有物体出现在智能眼镜的镜片的附近,然后根据摄像头获取的该物体的图像,分析识别该物体是否为人的眼球。智能眼镜的镜片的附近指的是人们佩戴智能眼镜时镜片正对着自己的那一面和眼球通常的距离。
步骤S203,判断搜索是否成功。
若搜索失败,则执行步骤S204:等待预设时长后,执行步骤S202,搜索用户眼球。
若搜索成功,则执行步骤S205:侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置。
此步骤可以参考第一实施例中的相应步骤,这里不再赘述。
步骤S206,生成指示光标,将所述指示光标显示在所述焦点位置。
指示光标用于提示用户当前用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置。可以理解的,智能眼镜实时侦测并跟踪用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置,并在对应的位置处生成一个光标,同时将该光标显示在操作系统界面上的对应位置处。在用户感知上来说就是,这个光标会随着用户眼球的转动而移动,这样用户可根据光标的指引,通过转动自己的眼球更准确地在智能眼镜的操作系统界面上定位出欲控制的对象,智能眼镜从而可进一步提高对智能眼镜的控制的准确性。
步骤S207,获取用户发送的控制指令,分析所述控制指令的类型。
开启侦测用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置的任务并不影响用户通过语音来控制智能眼镜,可以理解地,控制指令可包括:用户通过语音输入的语音控制指令;用户通过触控智能眼镜的触控模块发送的触控手势控制指令;用户通过语音输入的语音控制指令与用户通过触控智能眼镜的触控模块发送的触控手势控制指令。
步骤S208,若所述控制指令为所述语音控制指令,则根据所述语音控制指令在所述焦点位置处执行相应的操作。
步骤S209,若所述控制指令为所述触控手势控制指令,则根据所述触控手势控制指令在所述焦点位置处执行相应的操作。
可以理解地,语音控制指令中包含的具体操作类型与触控手势控制指令中包含的具体操作类型可以相同,也可以不相同。当获取的控制指令为多个时,智能眼镜可按照控制指令的获取时间的先后顺序依次分析控制指令的类型,并按照控制指令的获取时间的先后顺序依次在焦点位置处执行相应的操作。
步骤S210,获取所述用户发送的关闭任务指令,根据所述关闭任务指令,关闭侦测用户眼球聚焦在所述眼镜片上的焦点位置的信息的任务,取消显示所述指示光标。
本步骤中获取用户发送的关闭任务指令的具体方法与步骤S201相似,例如,可通过设置于智能眼镜上的任务开关获取,在这里不再赘述。
具体地,根据关闭任务指令,关闭侦测用户眼球聚焦在眼镜片上的焦点位置的信息的任务,同时,为不影响用户浏览智能眼镜上的操作系统界面上的信息,删除操作系统界面上显示的指示光标。
本发明实施例提供的智能眼镜控制方法,通过接收用户通过所述智能眼镜的触控模块所触发的控制指令,根据该控制指令在用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置处执行相应的操作,使得智能眼镜的用户即使是在有语言障碍的情况下,也可通过触控手势动作完成在智能眼镜的操作系统界面上的操作,从而可提高智能眼镜控制的便捷性与准确性。
第三实施例
图3为本发明第三实施例提供的智能眼镜控制装置的结构示意图。本实施例提供的智能眼镜控制装置可以用于实现第一实施例中的智能眼镜控制方法。如图3所示,智能眼镜控制装置10包括:焦点位置跟踪模块11、控制指令接收模块12、控制指令执行模块13。
其中,焦点位置跟踪模块11用于侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置。
控制指令接收模块12用于接收用户通过所述智能眼镜的触控模块所触发的控制指令。
控制指令执行模块13用于根据所述控制指令接收模块12接收的所述控制指令在所述焦点位置处执行相应的操作。
本实施例智能眼镜控制装置10的各功能模块实现各自功能的具体过程,请参见上述图1至图2所示实施例中描述的具体内容,此处不再赘述。
本发明实施例提供的智能眼镜控制装置,通过接收用户通过所述智能眼镜的触控模块所触发的控制指令,根据该控制指令在用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置处执行相应的操作,使得智能眼镜的用户即使是在有语言障碍的情况下,也可通过触控手势动作完成在智能眼镜的操作系统界面上的操作,从而可提高智能眼镜控制的便捷性与准确性。
第四实施例
图4为第四实施例提供的智能眼镜控制装置的结构示意图。本实施例提供的智能眼镜控制装置可以用于实现第二实施例中的智能眼镜控制方法。如图4所示,智能眼镜控制装置20包括:焦点位置跟踪模块21、控制指令接收模块22、控制指令执行模块23、开启任务指令获取模块24、任务开启模块25、指示光标模块26、关闭任务指令获取模块27、任务关闭模块28。
其中,焦点位置跟踪模块21用于侦测并跟踪用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置。
控制指令接收模块22用于接收用户通过所述智能眼镜的触控模块所触发的控制指令。
控制指令执行模块23用于根据所述控制指令接收模块22接收的所述控制指令在所述焦点位置处执行相应的操作。控制指令执行模块23包括第一控制指令执行单元231与第二控制指令执行单元232,其中第一控制指令执行单元231用于若所述控制指令接收模块22接收的所述控制指令为所述语音控制指令,则根据所述语音控制指令在所述焦点位置处执行相应的操作。第二控制指令执行单元232用于若所述控制指令接收模块22接收的所述控制指令为所述触控手势控制指令,则根据所述触控手势控制指令在所述焦点位置处执行相应的操作。
开启任务指令获取模块24用于获取用户发送的开启任务指令。
任务开启模块25用于根据所述开启任务指令获取模块24获取的所述开启任务指令,开启侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的任务。
指示光标模块26用于生成指示光标,将所述指示光标显示在所述焦点位置,以提示所述用户所述焦点位置。
关闭任务指令获取模块27用于获取所述用户发送的关闭任务指令;
任务关闭模块28用于根据所述关闭任务指令获取模块27获取的所述关闭任务指令,关闭侦测用户眼球聚焦在所述眼镜片上的焦点位置的信息的任务,取消显示所述指示光标。
优选地,所述控制指令包括所述用户通过语音输入的语音控制指令和/或所述用户通过触控所述智能眼镜的触控模块发送的触控手势控制指令。
本实施例智能眼镜控制装置20的各功能模块实现各自功能的具体过程,请参见上述图1至图2所示实施例中描述的具体内容,此处不再赘述。
本发明实施例提供的智能眼镜控制装置,通过接收用户通过所述智能眼镜的触控模块所触发的控制指令,根据该控制指令在用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置处执行相应的操作,使得智能眼镜的用户即使是在有语言障碍的情况下,也可通过触控手势动作完成在智能眼镜的操作系统界面上的操作,从而可提高智能眼镜控制的便捷性与准确性。
第五实施例
图5为第五实施例提供的智能眼镜的结构示意图。
本发明实施例还提供一种智能眼镜,该智能眼镜50包括眼镜框51。于本实施例中,该智能眼镜还包括:摄像模块52、触控模块53、中央处理器54。
其中,摄像模块52用于侦测并跟踪用户眼球聚焦在智能眼镜的操作系统界面上的焦点位置。
触控模块53设置于所述眼镜框51上用于获取用户触发的触控手势控制指令。该触控模块53可以获取用户触发眼镜框表面设置的触控屏所触发的触控手势控制指令,也可以获取用户触发眼镜框上的触控按钮所触发的触控手势控制指令。
中央处理器54用于根据触控手势控制指令在焦点位置处执行相应的操作。
优选地,智能眼镜还可包括眼镜片,用于显示智能眼镜的操作系统界面。
优选地,智能眼镜还可包括投影模块,用于将智能眼镜的操作系统界面投影在用户视野范围之内。
优选地,智能眼镜还可包括任务开关,用于获取用户发送的开启任务指令或关闭任务指令。
优选地,智能眼镜还可连接外设,例如线控等,用于获取用户触发的控制指令,或用户发送的开启任务指令或关闭任务指令。
优选地,智能眼镜还可包括麦克风,用于获取用户通过语音输入的语音控制指令。
优选地,中央处理器54还用于根据按压控制指令或语音控制指令在焦点位置处执行相应的操作。
本实施例中的智能眼镜的各功能组件实现各自功能的具体过程,请参见上述图1及图2对应实施例的方法,以及图3图及图4对应实施例的装置,此处不再赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者装置中还存在另外的相同要素。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (13)
1.一种智能眼镜控制方法,其特征在于,包括:
侦测并跟踪用户眼球的运动轨迹,以根据用户眼球的轨迹变化与操作系统界面上的不同位置的坐标之间的映射关系获取用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;
接收用户通过所述智能眼镜的触控模块所触发的控制指令,所述控制指令由所述触控模块根据预置规则对获取的触控手势进行转化得到;以及
根据所述控制指令在所述焦点位置处执行相应的操作。
2.根据权利要求1所述的方法,其特征在于,所述侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的步骤之前,还包括:
获取用户发送的开启任务指令;
根据所述开启任务指令,开启侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的任务。
3.根据权利要求1所述的方法,其特征在于,所述侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的步骤之后,还包括:
生成指示光标,将所述指示光标显示在所述焦点位置,以提示所述用户所述焦点位置。
4.根据权利要求3所述的方法,其特征在于,还包括:
获取所述用户发送的关闭任务指令;
根据所述关闭任务指令,关闭侦测用户眼球聚焦在所述眼镜片上的焦点位置的信息的任务,取消显示所述指示光标。
5.根据权利要求1至4的任一项所述的方法,其特征在于,所述控制指令包括所述用户通过语音输入的语音控制指令和/或所述用户通过触控所述智能眼镜的触控模块发送的触控手势控制指令。
6.根据权利要求5所述的方法,其特征在于,所述根据所述控制指令在所述焦点位置处执行相应的操作的步骤包括:
若所述控制指令为所述语音控制指令,则根据所述语音控制指令在所述焦点位置处执行相应的操作;
若所述控制指令为所述触控手势控制指令,则根据所述触控手势控制指令在所述焦点位置处执行相应的操作。
7.一种智能眼镜控制装置,其特征在于,包括:
焦点位置跟踪模块,用于侦测并跟踪用户眼球的运动轨迹,以根据用户眼球的轨迹变化与操作系统界面上的不同位置的坐标之间的映射关系获取用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;
控制指令接收模块,用于接收用户通过所述智能眼镜的触控模块所触发的控制指令,所述控制指令由所述触控模块根据预置规则对获取的触控手势进行转化得到;以及
控制指令执行模块,用于根据所述控制指令接收模块接收的所述控制指令在所述焦点位置处执行相应的操作。
8.根据权利要求7所述的装置,其特征在于,还包括:
开启任务指令获取模块,用于获取用户发送的开启任务指令;
任务开启模块,用于根据所述开启任务指令获取模块获取的所述开启任务指令,开启侦测用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置的任务。
9.根据权利要求7所述的装置,其特征在于,还包括:
指示光标模块,用于生成指示光标,将所述指示光标显示在所述焦点位置,以提示所述用户所述焦点位置。
10.根据权利要求9所述的装置,其特征在于,还包括:
关闭任务指令获取模块,用于获取所述用户发送的关闭任务指令;
任务关闭模块,用于根据所述关闭任务指令获取模块获取的所述关闭任务指令,关闭侦测用户眼球聚焦在所述眼镜片上的焦点位置的信息的任务,取消显示所述指示光标。
11.根据权利要求7至10的任一项所述的装置,其特征在于,所述控制指令包括所述用户通过语音输入的语音控制指令和/或所述用户通过触控所述智能眼镜的触控模块发送的触控手势控制指令。
12.根据权利要求11所述的装置,其特征在于,所述控制指令执行模块包括:
第一控制指令执行单元,用于若所述控制指令接收模块接收的所述控制指令为所述语音控制指令,则根据所述语音控制指令在所述焦点位置处执行相应的操作;
第二控制指令执行单元,用于若所述控制指令接收模块接收的所述控制指令为所述触控手势控制指令,则根据所述触控手势控制指令在所述焦点位置处执行相应的操作。
13.一种智能眼镜,包括眼镜框,其特征在于,所述智能眼镜还包括:
摄像模块,用于侦测并跟踪用户眼球的运动轨迹,以根据用户眼球的轨迹变化与操作系统界面上的不同位置的坐标之间的映射关系获取用户眼球聚焦在所述智能眼镜的操作系统界面上的焦点位置;
触控模块,设置在所述眼镜框上,用于获取所述用户触发的触控手势并根据预置规则将获取的触控手势转化为控制指令;以及
中央处理器,用于根据所述控制指令在所述焦点位置处执行相应的操作。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310239041.1A CN104238726B (zh) | 2013-06-17 | 2013-06-17 | 智能眼镜控制方法、装置及一种智能眼镜 |
PCT/CN2013/090111 WO2014201831A1 (en) | 2013-06-17 | 2013-12-20 | Wearable smart glasses as well as device and method for controlling the same |
US14/254,888 US20140368432A1 (en) | 2013-06-17 | 2014-04-16 | Wearable smart glasses as well as device and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310239041.1A CN104238726B (zh) | 2013-06-17 | 2013-06-17 | 智能眼镜控制方法、装置及一种智能眼镜 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104238726A CN104238726A (zh) | 2014-12-24 |
CN104238726B true CN104238726B (zh) | 2017-07-18 |
Family
ID=52103881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310239041.1A Active CN104238726B (zh) | 2013-06-17 | 2013-06-17 | 智能眼镜控制方法、装置及一种智能眼镜 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN104238726B (zh) |
WO (1) | WO2014201831A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104536654B (zh) * | 2014-12-25 | 2018-02-02 | 小米科技有限责任公司 | 智能穿戴设备上的菜单选取方法、装置及智能穿戴设备 |
CN104793732A (zh) * | 2015-01-04 | 2015-07-22 | 北京君正集成电路股份有限公司 | 一种智能眼镜的操作方法及智能眼镜 |
CN105320261A (zh) * | 2015-01-07 | 2016-02-10 | 维沃移动通信有限公司 | 移动终端的控制方法及移动终端 |
CN104808800A (zh) * | 2015-05-21 | 2015-07-29 | 上海斐讯数据通信技术有限公司 | 智能眼镜设备、移动终端及移动终端操作方法 |
CN105095429A (zh) * | 2015-07-22 | 2015-11-25 | 深圳智眸信息技术有限公司 | 一种基于智能眼镜的卡片快速查找方法 |
CN107533360B (zh) * | 2015-12-07 | 2021-06-15 | 华为技术有限公司 | 一种显示、处理的方法及相关装置 |
CN108140080B (zh) * | 2015-12-09 | 2021-06-01 | 华为技术有限公司 | 一种显示的方法、装置及系统 |
CN106997236B (zh) | 2016-01-25 | 2018-07-13 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
CN105893993A (zh) * | 2016-06-07 | 2016-08-24 | 深圳创龙智新科技有限公司 | 智能眼镜 |
CN107193381A (zh) * | 2017-05-31 | 2017-09-22 | 湖南工业大学 | 一种基于眼球追踪传感技术的智能眼镜及其显示方法 |
CN108829239A (zh) * | 2018-05-07 | 2018-11-16 | 北京七鑫易维信息技术有限公司 | 终端的控制方法、装置及终端 |
CN112019756B (zh) * | 2020-10-06 | 2021-05-18 | 盛夏 | 一种基于5g的智能可穿戴设备的控制方法及系统 |
CN112527177A (zh) * | 2020-12-07 | 2021-03-19 | 维沃移动通信有限公司 | 应用程序管理方法、装置及智能眼镜 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101272727A (zh) * | 2005-09-27 | 2008-09-24 | 潘尼公司 | 用于控制外部单元的装置 |
CN102670163A (zh) * | 2004-04-01 | 2012-09-19 | 威廉·C·托奇 | 控制计算装置的系统及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
CN101311882A (zh) * | 2007-05-23 | 2008-11-26 | 华为技术有限公司 | 视线跟踪人机交互方法及装置 |
DE102010041344B4 (de) * | 2010-09-24 | 2020-10-29 | tooz technologies GmbH | Anzeigevorrichtung mit augengesteuerter Eingabeschnittstelle |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
-
2013
- 2013-06-17 CN CN201310239041.1A patent/CN104238726B/zh active Active
- 2013-12-20 WO PCT/CN2013/090111 patent/WO2014201831A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102670163A (zh) * | 2004-04-01 | 2012-09-19 | 威廉·C·托奇 | 控制计算装置的系统及方法 |
CN101272727A (zh) * | 2005-09-27 | 2008-09-24 | 潘尼公司 | 用于控制外部单元的装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2014201831A1 (en) | 2014-12-24 |
CN104238726A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104238726B (zh) | 智能眼镜控制方法、装置及一种智能眼镜 | |
US11696060B2 (en) | User identification using headphones | |
US11500672B2 (en) | Distributed personal assistant | |
US10789959B2 (en) | Training speaker recognition models for digital assistants | |
EP3701520B1 (en) | Multi-turn canned dialog | |
CN104956292B (zh) | 多个感知感测输入的交互 | |
US20180374484A1 (en) | Applying neural network language models to weighted finite state transducers for automatic speech recognition | |
KR20210034572A (ko) | 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법 | |
CN106796789A (zh) | 与话音参考点的协同言语交互 | |
DK201770411A1 (en) | MULTI-MODAL INTERFACES | |
KR20190002586A (ko) | 디지털 어시스턴트와의 애플리케이션 통합 | |
CN107636594A (zh) | 用于处理触摸输入的设备和方法 | |
KR20170139644A (ko) | 디바이스 음성 제어 | |
CN110515510A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN104090652A (zh) | 一种语音输入方法和装置 | |
KR20220034243A (ko) | 시뮬레이션된 현실 설정에 대한 자연 언어 모호성 해결 | |
KR20160016532A (ko) | 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법 | |
EP4352607A1 (en) | Speech interpretation based on environmental context | |
US20230401795A1 (en) | Extended reality based digital assistant interactions | |
WO2016152200A1 (ja) | 情報処理システムおよび情報処理方法 | |
CN109144385A (zh) | 悬浮球的移动方法及装置 | |
CN111158487A (zh) | 使用无线耳机与智能终端进行交互的人机交互方法 | |
CN109917988B (zh) | 选中内容显示方法、装置、终端及计算机可读存储介质 | |
CN110286836A (zh) | 用于移动应用接口元素的设备、方法和图形用户界面 | |
CN113497912A (zh) | 通过语音和视频定位的自动取景 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |