CN109085914A - 一种通过眼睛操作智能手机的方法 - Google Patents

一种通过眼睛操作智能手机的方法 Download PDF

Info

Publication number
CN109085914A
CN109085914A CN201710445765.XA CN201710445765A CN109085914A CN 109085914 A CN109085914 A CN 109085914A CN 201710445765 A CN201710445765 A CN 201710445765A CN 109085914 A CN109085914 A CN 109085914A
Authority
CN
China
Prior art keywords
track
eyes
smart phone
instruction
operational order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710445765.XA
Other languages
English (en)
Inventor
王应祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710445765.XA priority Critical patent/CN109085914A/zh
Publication of CN109085914A publication Critical patent/CN109085914A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)

Abstract

一种通过眼睛操作智能手机的方法,包括以下步骤:步骤1:获取眼睛在屏幕上注视点的移动轨迹,作为目光轨迹;步骤2:在所述屏幕上设置虚拟的指令轨迹,当所述目光轨迹与所述指令轨迹重合度达到A%时,执行所述指令轨迹对应的操作指令。通过眼睛在屏幕上注视点的移动轨迹判断用户的操作目的,或根据眼睛在屏幕上注视点的移动轨迹自动执行设定的操作,从而完成对智能手机的简单操作,这样的操作简单且方便用户对智能手机的控制;通过对比所述移动轨迹和指令轨迹的重合度实现对用户目的判断,方法简单有效且易实现,另外,在指令轨迹上增加时间停顿点,增大判断用户操作目的的准确率。

Description

一种通过眼睛操作智能手机的方法
技术领域
本发明涉及智能手机操作方法领域,具体涉及一种通过眼睛操作智能手机的方法。
背景技术
智能手机是大家再熟悉不过的交流、娱乐或工作工具了,而智能手机的操作方式有,电阻式触控屏按压式、电容式触摸屏触感式、电阻电容结合式触控屏触按结合式、语音识别控制式、机械按键式等操作方式,但这些操作方式大都需要手的参与。在对智能手机的体验中,观看手机电视或是电子书时,会存在双手被占用或不想抬手去操作手机的情况。
发明内容
针对现有技术的不足,本发明提供一种通过眼睛操作智能手机的方法,方便对智能手机的操作。
一种通过眼睛操作智能手机的方法,其特征在于,包括以下步骤:
步骤1:获取眼睛在屏幕上注视点的移动轨迹,作为目光轨迹;
步骤2:在所述屏幕上设置虚拟的指令轨迹,当所述目光轨迹与所述指令轨迹重合度达到A%时,执行所述指令轨迹对应的操作指令。
为更好实现本发明,可进一步为:所述指令轨迹包括虚拟的曲线或直线以及指令代号,所述操作指令存储在数据库中,所述指令代号与所述操作指令一一对应。
为更好实现本发明,可进一步为:在所述指令轨迹上设置虚拟的时间停顿点,采集所述注视点在所述时间停顿点上的停顿时间,将所述停顿时间记为T1,当所述T1大于等于设定值B,同时所述目光轨迹与所述指令轨迹重合度达到C%时,执行所述指令轨迹对应的操作指令。
为更好实现本发明,可进一步为:所述指令轨迹还包括所述虚拟的曲线或直线在所述屏幕上的位置信息和方向信息,所述操作指令包括上翻页指令和下翻页指令。
为更好实现本发明,可进一步为:所述操作指令包括打开指令、关闭指令和暂停指令。
为更好实现本发明,可进一步为:所述A的范围为70~100,所述B的范围为1~2秒,所述C的范围为60~100。
本发明的有益效果:通过眼睛在屏幕上注视点的移动轨迹判断用户的操作目的,或根据眼睛在屏幕上注视点的移动轨迹自动执行设定的操作,从而完成对智能手机的简单操作,这样的操作简单且方便用户对智能手机的控制;通过对比所述移动轨迹和指令轨迹的重合度实现对用户目的判断,方法简单有效且易实现,另外,在指令轨迹上增加时间停顿点,增大判断用户操作目的的准确率。
附图说明
图1为本发明的流程图;
图2为本发明在第一应用中的示意图;
图3为本发明在第二应用中的示意图。
图中,1为眼睛,2为视线,3为摄像头,4为目光轨迹,5为智能手机,6为屏幕,7为指令轨迹,8为时间停顿点,9为打开指令的指令轨迹,10为关闭指令的指令轨迹,11为暂停指令的指令轨迹,13为软件图标。
具体实施方式
下面结合附图对本发明做详细说明。
一种通过眼睛操作智能手机的方法,包括以下步骤:
步骤S101:获取眼睛1在屏幕6上注视点的移动轨迹,作为目光轨迹4;
步骤S102:在所述屏幕6上设置虚拟的指令轨迹7,当所述目光轨迹4与所述指令轨迹 7重合度达到A%时,执行所述指令轨迹7对应的操作指令。
其中,所述指令轨迹7包括虚拟的曲线或直线以及指令代号,所述操作指令存储在数据库中,所述指令代号与所述操作指令一一对应,方便智能手机5依据指令代号对操作指令的调用。
在所述指令轨迹7上设置虚拟的时间停顿点8,采集所述注视点在所述时间停顿点8上的停顿时间,将所述停顿时间记为T1,当所述T1大于等于设定值B,同时所述目光轨迹4与所述指令轨迹7重合度达到C%时,执行所述指令轨迹7对应的操作指令。
如图1所示,将本发明应用在电子书中时,所述指令轨迹7还包括所述虚拟的曲线或直线在所述屏幕6上的位置信息和方向信息,所述操作指令包括上翻页指令和下翻页指令;所述移动轨迹则是用户阅读每行文字的轨迹,具体实现时,可以将上翻页指令的指令轨迹设置为阅读电子书页面第一行反方向直线轨迹,即当用户的目光轨迹4为反向阅读第一行文字的直线轨迹,则电子书执行上翻页指令;另外,下翻页指令的指令轨迹7设置为电子书页面最后一行文字的直线轨迹,为更有效判断用户的操作目的,在所述最后文字的直线轨迹后增加一个1s的时间停顿点8,即当用户的目光轨迹4为阅读最后一行文字的直线轨迹,并在最后一行文字的位置停留1s时,则执行电子书的下翻页指令。
如图2所示,将本发明应用在智能手机5主页面操作时,所述操作指令包括打开指令、关闭指令和暂停指令,所述打开指令即打开软件指令或打开操作按钮指令,则可将打开指令的指令轨迹7设置为圆形,并在圆形结束时将轨迹终点停留在软件图标12上或操作按钮上,当目光轨迹4与所述打开指令的重合度达到70%时,智能手机5则执行打开软件图标12代表的软件或操作按钮代表的指令;所述关闭指令即为关闭软件或关闭页面的指令,则可将关闭指令的指令轨迹7设置为三角形,当目光轨迹4与所述三角形的关闭指令的重合度达到70%时,智能手机5则执行关闭软件或手机页面的指令;所述暂停指令即为暂停手机电视界面的指令,则暂停指令的指令轨迹7设置为S字母的形状,当所述目光轨迹4与所述S形的暂停指令的重合度达到70%时,智能手机5则执行暂停处于播放中手机电视的指令。
所述A的范围为70~100,所述B的范围为1~2秒,所述C的范围为60~100。
本发明的有益效果:通过眼睛1在屏幕6上注视点的移动轨迹判断用户的操作目的,或根据眼睛1在屏幕6上注视点的移动轨迹自动执行设定的操作,从而完成对智能手机5的简单操作,这样的操作简单且方便用户对智能手机5的控制;通过对比所述移动轨迹和指令轨迹7的重合度实现对用户目的判断,方法简单有效且易实现,另外,在指令轨迹7上增加时间停顿点8,增大判断用户操作目的的准确率。
在实际应用中,可以使双手存在残疾的人可以通过眼睛1对智能手机5进行简单的操作。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种通过眼睛操作智能手机的方法,其特征在于,包括以下步骤:
步骤1:获取眼睛在屏幕上注视点的移动轨迹,作为目光轨迹;
步骤2:在所述屏幕上设置虚拟的指令轨迹,当所述目光轨迹与所述指令轨迹重合度达到A%时,执行所述指令轨迹对应的操作指令。
2.根据权利要1所述的一种通过眼睛操作智能手机的方法,其特征在于,所述指令轨迹包括虚拟的曲线或直线以及指令代号,所述操作指令存储在数据库中,所述指令代号与所述操作指令一一对应。
3.根据权利要2所述的一种通过眼睛操作智能手机的方法,其特征在于,在所述指令轨迹上设置虚拟的时间停顿点,采集所述注视点在所述时间停顿点上的停顿时间,将所述停顿时间记为T1,当所述T1大于等于设定值B,同时所述目光轨迹与所述指令轨迹重合度达到C%时,执行所述指令轨迹对应的操作指令。
4.根据权利要3所述的一种通过眼睛操作智能手机的方法,其特征在于,所述操作指令包括上翻页指令和下翻页指令。
5.根据权利要3所述的一种通过眼睛操作智能手机的方法,其特征在于,所述操作指令包括打开指令、关闭指令和暂停指令。
6.根据权利要3所述的一种通过眼睛操作智能手机的方法,其特征在于,所述A的范围为70~100,所述B的范围为1~2秒,所述C的范围为60~100。
CN201710445765.XA 2017-06-14 2017-06-14 一种通过眼睛操作智能手机的方法 Pending CN109085914A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710445765.XA CN109085914A (zh) 2017-06-14 2017-06-14 一种通过眼睛操作智能手机的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710445765.XA CN109085914A (zh) 2017-06-14 2017-06-14 一种通过眼睛操作智能手机的方法

Publications (1)

Publication Number Publication Date
CN109085914A true CN109085914A (zh) 2018-12-25

Family

ID=64838834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710445765.XA Pending CN109085914A (zh) 2017-06-14 2017-06-14 一种通过眼睛操作智能手机的方法

Country Status (1)

Country Link
CN (1) CN109085914A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690909A (zh) * 2022-06-01 2022-07-01 润芯微科技(江苏)有限公司 一种ai视觉自适应的方法、装置、系统、计算机可读介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690909A (zh) * 2022-06-01 2022-07-01 润芯微科技(江苏)有限公司 一种ai视觉自适应的方法、装置、系统、计算机可读介质

Similar Documents

Publication Publication Date Title
CN108052202B (zh) 一种3d交互方法、装置、计算机设备及存储介质
CN106233240B (zh) 交互式显示器上的文本输入
CN102483679B (zh) 提供搜索功能性的用户接口方法
EP2853989A1 (en) Contactless gesture-based control method and apparatus
CN105117056A (zh) 一种操作触摸屏的方法和设备
US20100115473A1 (en) Associating gestures on a touch screen with characters
US20140298244A1 (en) Portable device using touch pen and application control method using the same
CN104205047A (zh) 用于提供远程用户交互的装置和方法
CN102460364A (zh) 提供连续缩放功能性的用户接口方法
CN103713810B (zh) 一种移动终端列表数据交互方法及装置
WO2012115853A3 (en) Electronic book interface systems and methods
CN101506758A (zh) 触觉型触摸屏
Burstyn et al. FlexView: an evaluation of depth navigation on deformable mobile devices
CN103106031A (zh) 一种移动终端的操作方法及装置
CN105302419B (zh) 一种实现多种手势操作的触摸屏
US20100110020A1 (en) Virtual press number pad
CN109144377A (zh) 智能手表的操作方法、智能手表及计算机可读存储介质
CN106293199B (zh) 一种控制触摸屏的方法及装置
CN105046249B (zh) 一种人机交互方法
CN109085914A (zh) 一种通过眼睛操作智能手机的方法
CN106325490A (zh) 控制电子设备的方法及电子设备
Jordà et al. Interactive surfaces and tangibles
Kiran et al. Implementation of Home automation system using Smart Mirror
CN111857338A (zh) 一种适合大屏幕上使用移动应用的方法
CN105242795A (zh) 一种利用方位手势输入英文字母的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181225