CN105892642A - 一种根据眼部动作对终端进行控制的方法及装置 - Google Patents

一种根据眼部动作对终端进行控制的方法及装置 Download PDF

Info

Publication number
CN105892642A
CN105892642A CN201511026694.7A CN201511026694A CN105892642A CN 105892642 A CN105892642 A CN 105892642A CN 201511026694 A CN201511026694 A CN 201511026694A CN 105892642 A CN105892642 A CN 105892642A
Authority
CN
China
Prior art keywords
user
coordinate
eye
eye motion
variable quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201511026694.7A
Other languages
English (en)
Inventor
郝金鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Original Assignee
LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LeTV Mobile Intelligent Information Technology Beijing Co Ltd filed Critical LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Priority to CN201511026694.7A priority Critical patent/CN105892642A/zh
Priority to PCT/CN2016/087844 priority patent/WO2017113668A1/zh
Publication of CN105892642A publication Critical patent/CN105892642A/zh
Priority to US15/247,655 priority patent/US20170192500A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种根据眼部动作对终端进行控制的方法及装置,所述方法包括如下步骤:获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;识别用户视线焦点的坐标值;监测所述坐标值是否进入所述坐标范围;当所述坐标值进入所述坐标范围,识别用户的眼部动作;当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。

Description

一种根据眼部动作对终端进行控制的方法及装置
技术领域
本发明涉及智能控制领域,具体涉及一种根据眼部动作对终端进行控制的方法及装置。
背景技术
目前,诸如手机和平板电脑等智能终端的功能越来越丰富,智能终端中一般都设有摄像装置,包括前置摄像头和后置摄像头,通常用于拍摄照片和视频。随着人工智能技术的发展,摄像装置的用途也在不断拓展,例如前置摄像头可以用于采集人脸图像信息,以便于终端处理器进行人脸识别,由此终端可以基于人脸识别技术进行解锁等操作。由此可见,在摄像装置性能不断进步的背景下,智能终端可以利用摄像装置为用户提供更便利的操作方式。
现有的智能终端已经可以实现识别用户的眼部动作,并根据眼部动作做出相应的反应,具体是利用前置摄像头实时采集用户的眼部图像,根据连续的图像,可以判断出用户是否连续眨眼,甚至可以识别出用户的眼球转动幅度。基于此技术,某些终端可以实现在识别到用户连续眨眼时关闭页面、或者识别到眼球朝某一方向转动时进行翻页等操作。
众所周知,终端所显示的页面上通常具有多个可操作的区域,例如虚拟按钮区域、虚拟滑块区域等,用户可以在触摸屏上点击不同的操作区域,终端会反馈不同的控制动作。而上述现有的基于眼部动作对终端进行控制的方案只能根据识别到的眼部动作进行相应处理,而眼部动作是比较有限的,因此对于具有多个可操作区域的页面而言,无法将每一个可操作区域分别对应不同的眼部动作,而只能人为选择某些比较重要的操作区域与眼部动作相对应,由此可见,现有的基于眼部动作对终端进行控制的方案灵活性较差,不能满足用户的需求。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中的基于眼部动作对终端进行控制的方案灵活性较差的缺陷。
有鉴于此,本发明提供一种根据眼部动作对终端进行控制的方法,包括如下步骤:获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;识别用户视线焦点的坐标值;监测所述坐标值是否进入所述坐标范围;当所述坐标值进入所述坐标范围,识别用户的眼部动作;当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。
优选地,所述监测所述坐标值是否进入所述坐标范围,包括:获取用户眼部与所述显示区域的距离值;根据所述距离值确定视线焦点移动比例;获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据所述转动幅度值和所述视线焦点移动比例确定当前坐标值的变化。
优选地,所述预设眼部动作包括静止和运动。
优选地,所述识别用户的眼部动作,包括:监测所述坐标值在所述坐标范围内的变化量;根据所述变化量与预设变化量的关系确定用户的眼部动作。
优选地,所述根据所述变化量与预设变量的关系确定用户的眼部动作,包括:判断所述变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;如果ΔX1≤Y1,且ΔX2≤Y2,则判定用户的眼部动作为静止;如果ΔX1>Y1和/或ΔX2>Y2,则判定用户的眼部动作为运动。
相应地,本发明还提供一种根据眼部动作对终端进行控制的装置,包括:获取单元,用于获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;焦点识别单元,用于识别用户视线焦点的坐标值;监测单元,监测所述坐标值是否进入所述坐标范围;识别单元,用于当所述坐标值进入所述坐标范围时,识别用户的眼部动作;执行单元,用于当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。
优选地,所述动作监测单元包括:距离获取单元,用于获取用户眼部与所述显示区域的距离值;比例确定单元,用于根据所述距离值确定视线焦点移动比例;移动监测单元,用于获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据所述转动幅度值和所述视线焦点移动比例确定当前坐标值的变化。
优选地,所述预设眼部动作包括静止和运动。
优选地,所述识别单元包括:变化量监测单元,用于监测所述坐标值在所述坐标范围内的变化量;动作确定单元,用于根据所述变化量与预设变化量的关系确定用户的眼部动作。
优选地,所述动作确定单元包括:变化量判定单元,用于判断所述变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;静止判定单元,用于当ΔX1≤Y1,且ΔX2≤Y2时,判定用户的眼部动作为静止;运动判定单元,用于当ΔX1>Y1和/或ΔX2>Y2时,判定用户的眼部动作为运动。
本发明提供的根据眼部动作对终端进行控制的方法及装置,通过获取终端显示区域内的可操作区域的坐标范围,并识别用户视线焦点的坐标值,可以判断出用户视线焦点与可操作区域的关系,即可得知用户想要;然后通过监测视线焦点坐标值的变化,并判断坐标值是否进入某一可操作区域的坐标范围,可以判断出用户想要对哪一个可操作区域进行操作,最终通过识别用户的眼部动作,可以决定是否执行预定的控制操作。由此可见,上述方案可以结合用户视线焦点与可操作范围的对应关系,以及用户眼部动作对终端进行丰富的控制操作,该方案具有较高的灵活性。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的根据眼部动作对终端进行控制的方法的流程图;
图2为一个显示区域示意图;
图3为用户视线焦点在图2所示显示区域内的移动过程示意图;
图4为本发明提供的根据眼部动作对终端进行控制的装置的结构图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明实施例提供一种根据眼部动作对终端进行控制的方法,该方法可以由设有摄像装置的智能终端来执行,如图1所示,该方法包括如下步骤:
S1,获取终端显示区域内的可操作区域的坐标范围,坐标范围关联有预设眼部动作,预设眼部动作关联有控制操作。图2示出了一个终端显示区域20,其中有2个可操作区域,分别为第一区域201和第二区域202,本领域技术人员可以理解,可操作区域的数量不仅限于2个,更多或更少的区域都是可行的。其中第一区域201关联第一预设动作,第一预设动作关联第一控制操作;第二区域202关联第二预设动作,第二预设动作关联第二控制操作,并且上述第一预设动作和第二预设动作可以是相同的,也可以是不同的,例如当可操作区域过多时,可以使某些区域关联相同的预设眼部动作。
S2,识别用户视线焦点的坐标值,具体可以使用前置摄像头来采集用户眼部的图像,然后可以通过图像分析瞳孔的状态分析双眼视线的焦点,然后将焦点映射到终端显示区域所在的平面上。本发明可以利用现有的多种视线焦点追踪算法来识别用户视线焦点的坐标值,某些算法识别精度较高,但计算过程复杂;某些算法比较简单,但识别精度较差,具体可以根据终端处理器的性能进行选择。当用户注视屏幕且双目视线聚焦在屏幕上时,则可以识别到如图2中所示的焦点P,其坐标为(X1,X2)。
S3,监测所述坐标值是否进入所述坐标范围,如果未进入则继续监测,直至坐标值进入坐标范围内时,执行步骤S4。根据上文描述可知,显示区域20内除了2个可操作区域外还有其他不可操作的区域,当焦点P的坐标未落在第一区域201或第二区域202中时,继续监测;当焦点P的坐标进入第一区域201或第二区域202中时才执行下一步操作。
S4,识别用户的眼部动作,并判断用户眼部动作是否符合预设眼部动作,如果符合则执行步骤S5,否则继续判断。识别眼部动作的方法有多种,例如可以根据眼部图像进行识别,也可以根据焦点P的移动来识别,本发明优选为根据焦点P的移动来识别眼部动作,具体方式将在下文进行介绍。
S5,当眼部动作符合预设眼部动作时,执行控制操作。图3示出了用户视线焦点移动到可操作区域内时的示意图,当前焦点P的坐标落入第二区域202中,则开始识别用户的眼部动作是否符合上述第二预设眼部动作,假设第二眼部动作是向下转动眼球,如果用户向下转动眼球使焦点P相应地向下移动,且焦点移动前后其坐标均在可操作区域内,则执行上述第二控制操作,例如向下滚动页面。
本发明提供的方案可以应用于多种场景,例如文本阅读场景,显示区域内可以设有诸如翻页、滚动、放大、缩小、关闭等多个虚拟按钮或滑块,这些虚拟按钮和滑块即为可操作区域。其中诸如翻页、放大、缩小、关闭等虚拟按钮可以关联相同的一种预设眼部动作(如直视或连续眨眼);而诸如滚动滑操作等虚拟滑块可以关联另一种预设眼部动作(如双眼球同时向某一方向转动),但每个可操作区域内的预设眼部动作关联的控制操作是不相同的。由此,当用户的视线焦点移动到放大按钮上并直视一定时间时,终端则对当前显示的页面进行放大、当用户的视线焦点移动到缩小按钮上并直视一定时间时,终端则对当前显示的页面进行缩小、当用户的视线焦点移动到关闭按钮上并直视一定时间时,终端则关闭对当前显示的页面;当用户的视线焦点移动到滚动按钮上并转动眼球时,终端则使当前显示的页面朝相应的方向进行滚动。
本发明提供的根据眼部动作对终端进行控制的方法,通过获取终端显示区域内的可操作区域的坐标范围,并识别用户视线焦点的坐标值,可以判断出用户视线焦点与可操作区域的关系,即可得知用户想要;然后通过监测视线焦点坐标值的变化,并判断坐标值是否进入某一可操作区域的坐标范围,可以判断出用户想要对哪一个可操作区域进行操作,最终通过识别用户的眼部动作,可以决定是否执行预定的控制操作。由此可见,上述方案可以结合用户视线焦点与可操作范围的对应关系,以及用户眼部动作对终端进行丰富的控制操作,该方案具有较高的灵活性。
作为一个优选的实施方式,上述S3可以包括:
S31,获取用户眼部与显示区域的距离值L。本领域技术人员可以理解,眼球转动对焦点移动的幅度将取决于距离值L,L越大则用户眼部转动时,焦点移动的幅度越大;L越小则用户眼部转动时,焦点移动的幅度越小。
S32,根据距离值确定视线焦点移动比例,确定此比例值的算法有多种,例如可以根据预设的函数进行计算,也可以预存对应关系,比如某一距离范围对应一个比例值等。
S33,获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据转动幅度值和视线焦点移动比例确定当前坐标值的变化。根据用户的眼球转动幅度和上述距离值L实时捕捉焦点P坐标值的变化,当变化后的(X1,X2)进入可操作区域内,则开始识别眼部动作。
上述方案根据实时捕获用户眼部与显示区域的距离,并实时根据距离和眼球转动幅度捕捉用户视线焦点的移动,该方案具有较高的准确性,并且可以满足用户在不同距离上通过眼球动作控制终端,进一步提高操作灵活性。
根据上文描述可知用户眼部的动作可以有多种,而作为一个优选的实施方式,可以将上述预设眼部动作归为静止和运动两类,由此可以降低对预设动作的判断难度。优选地,上述步骤S4可以包括如下子步骤:
S41,监测坐标值在上述坐标范围内的变化量,在此可以预定一个时间值,当用户视线焦点进入可操作区域后开始记录时间,并判断在预定时间内视线焦点坐标值的变化量,该变化量实际上即为视线焦点的移动量。
S42,根据变化量与预设变化量的关系确定用户的眼部动作,如果在预定时间内,该变化量满足某一条件,例如两个方向的子坐标变化量均小于或大于某值,则将其判定为某一种眼部动作。
进一步地,上述步骤S42可以包括如下步骤:
S421,判断变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;
S422,如果ΔX1≤Y1,且ΔX2≤Y2,这种关系表示在上述一定时间内用户视线焦点在可操作区域内的变化量很小,由此则可以判定用户的眼部动作为静止;
S423,如果ΔX1>Y1和/或ΔX2>Y2,这种关系表示在上述一定时间内用户视线焦点在可操作区域内的某一方向上(方向取决于ΔX1和ΔX2)产生了一定幅度的移动,由此则可以判定用户的眼部动作为运动。之后终端则可以判断该动作是否为预设动作,然后进一步决定是否执行相关联的控制操作。
上述优选方案根据用户视线焦点在可操作区域内的移动量来确定用户的眼部动作,相比通过眼部图像判定眼部动作该方案具有更高的准确性。
本发明的另一个实施例还提供一种根据眼部动作对终端进行控制的装置,该装置可以设置在具有摄像装置的智能终端中,如图4所示该装置包括:
获取单元41,用于获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;优选地,所述预设眼部动作包括静止和运动。
焦点识别单元42,用于识别用户视线焦点的坐标值;
监测单元43,监测所述坐标值是否进入所述坐标范围;
识别单元44,用于当所述坐标值进入所述坐标范围时,识别用户的眼部动作;
执行单元45,用于当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。
本发明提供的根据眼部动作对终端进行控制的装置,通过获取终端显示区域内的可操作区域的坐标范围,并识别用户视线焦点的坐标值,可以判断出用户视线焦点与可操作区域的关系,即可得知用户想要;然后通过监测视线焦点坐标值的变化,并判断坐标值是否进入某一可操作区域的坐标范围,可以判断出用户想要对哪一个可操作区域进行操作,最终通过识别用户的眼部动作,可以决定是否执行预定的控制操作。由此可见,上述方案可以结合用户视线焦点与可操作范围的对应关系,以及用户眼部动作对终端进行丰富的控制操作,该方案具有较高的灵活性。
优选地,所述动作监测单元43包括:
距离获取单元,用于获取用户眼部与所述显示区域的距离值;
比例确定单元,用于根据所述距离值确定视线焦点移动比例;
移动监测单元,用于获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据所述转动幅度值和所述视线焦点移动比例确定当前坐标值的变化。
上述方案根据实时捕获用户眼部与显示区域的距离,并实时根据距离和眼球转动幅度捕捉用户视线焦点的移动,该方案具有较高的准确性,并且可以满足用户在不同距离上通过眼球动作控制终端,进一步提高操作灵活性。
优选地,所述识别单元44包括:
变化量监测单元,用于监测所述坐标值在所述坐标范围内的变化量;
动作确定单元,用于根据所述变化量与预设变化量的关系确定用户的眼部动作。
上述优选方案将预设眼部动作归为静止和运动两类,由此可以降低对预设动作的判断难度。
优选地,所述动作确定单元包括:
变化量判定单元,用于判断所述变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;
静止判定单元,用于当ΔX1≤Y1,且ΔX2≤Y2时,判定用户的眼部动作为静止;
运动判定单元,用于当ΔX1>Y1和/或ΔX2>Y2时,判定用户的眼部动作为运动。
上述优选方案根据用户视线焦点在可操作区域内的移动量来确定用户的眼部动作,相比通过眼部图像判定眼部动作该方案具有更高的准确性。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种根据眼部动作对终端进行控制的方法,其特征在于,包括如下步骤:
获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;
识别用户视线焦点的坐标值;
监测所述坐标值是否进入所述坐标范围;
当所述坐标值进入所述坐标范围,识别用户的眼部动作;
当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。
2.根据权利要求1所述的方法,其特征在于,所述监测所述坐标值是否进入所述坐标范围,包括:
获取用户眼部与所述显示区域的距离值;
根据所述距离值确定视线焦点移动比例;
获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据所述转动幅度值和所述视线焦点移动比例确定当前坐标值的变化。
3.根据权利要求1或2所述的方法,其特征在于,所述预设眼部动作包括静止和运动。
4.根据权利要求3所述的方法,其特征在于,所述识别用户的眼部动作,包括:
监测所述坐标值在所述坐标范围内的变化量;
根据所述变化量与预设变化量的关系确定用户的眼部动作。
5.根据权利要求4所述的方法,其特征在于,所述根据所述变化量与预设变量的关系确定用户的眼部动作,包括:
判断所述变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;
如果ΔX1≤Y1,且ΔX2≤Y2,则判定用户的眼部动作为静止;
如果ΔX1>Y1和/或ΔX2>Y2,则判定用户的眼部动作为运动。
6.一种根据眼部动作对终端进行控制的装置,其特征在于,包括:
获取单元,用于获取终端显示区域内的可操作区域的坐标范围,所述坐标范围关联有预设眼部动作,所述预设眼部动作关联有控制操作;
焦点识别单元,用于识别用户视线焦点的坐标值;
监测单元,监测所述坐标值是否进入所述坐标范围;
识别单元,用于当所述坐标值进入所述坐标范围时,识别用户的眼部动作;
执行单元,用于当所述眼部动作符合所述预设眼部动作时,执行所述控制操作。
7.根据权利要求6所述的装置,其特征在于,所述动作监测单元包括:
距离获取单元,用于获取用户眼部与所述显示区域的距离值;
比例确定单元,用于根据所述距离值确定视线焦点移动比例;
移动监测单元,用于获取用户视觉焦点的当前坐标值,并监测用户眼球的转动幅度值,根据所述转动幅度值和所述视线焦点移动比例确定当前坐标值的变化。
8.根据权利要求1或2所述的装置,其特征在于,所述预设眼部动作包括静止和运动。
9.根据权利要求8所述的装置,其特征在于,所述识别单元包括:
变化量监测单元,用于监测所述坐标值在所述坐标范围内的变化量;
动作确定单元,用于根据所述变化量与预设变化量的关系确定用户的眼部动作。
10.根据权利要求9所述的装置,其特征在于,所述动作确定单元包括:
变化量判定单元,用于判断所述变化量(ΔX1,ΔX2)中的ΔX1与第一预设变化量Y1的关系,以及ΔX2与第二预设变化量Y2的关系;
静止判定单元,用于当ΔX1≤Y1,且ΔX2≤Y2时,判定用户的眼部动作为静止;
运动判定单元,用于当ΔX1>Y1和/或ΔX2>Y2时,判定用户的眼部动作为运动。
CN201511026694.7A 2015-12-31 2015-12-31 一种根据眼部动作对终端进行控制的方法及装置 Pending CN105892642A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201511026694.7A CN105892642A (zh) 2015-12-31 2015-12-31 一种根据眼部动作对终端进行控制的方法及装置
PCT/CN2016/087844 WO2017113668A1 (zh) 2015-12-31 2016-06-30 一种根据眼部动作对终端进行控制的方法及装置
US15/247,655 US20170192500A1 (en) 2015-12-31 2016-08-25 Method and electronic device for controlling terminal according to eye action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511026694.7A CN105892642A (zh) 2015-12-31 2015-12-31 一种根据眼部动作对终端进行控制的方法及装置

Publications (1)

Publication Number Publication Date
CN105892642A true CN105892642A (zh) 2016-08-24

Family

ID=57002282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511026694.7A Pending CN105892642A (zh) 2015-12-31 2015-12-31 一种根据眼部动作对终端进行控制的方法及装置

Country Status (3)

Country Link
US (1) US20170192500A1 (zh)
CN (1) CN105892642A (zh)
WO (1) WO2017113668A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406710A (zh) * 2016-09-30 2017-02-15 维沃移动通信有限公司 一种录制屏幕的方法及移动终端
CN106527705A (zh) * 2016-10-28 2017-03-22 努比亚技术有限公司 一种实现操作的方法和装置
CN107105161A (zh) * 2017-04-27 2017-08-29 深圳市元征科技股份有限公司 变焦倍数调整方法及装置
WO2018045669A1 (zh) * 2016-09-08 2018-03-15 深圳市元征科技股份有限公司 一种电子设备界面的控制方法及电子设备
CN107943280A (zh) * 2017-10-30 2018-04-20 深圳市华阅文化传媒有限公司 电子书阅读的控制方法及装置
CN107992193A (zh) * 2017-11-21 2018-05-04 出门问问信息科技有限公司 手势确认方法、装置及电子设备
CN108089801A (zh) * 2017-12-14 2018-05-29 维沃移动通信有限公司 一种信息显示方法及移动终端
CN108279778A (zh) * 2018-02-12 2018-07-13 上海京颐科技股份有限公司 用户交互方法、装置以及系统
CN108491072A (zh) * 2018-03-05 2018-09-04 京东方科技集团股份有限公司 一种虚拟现实交互方法及装置
CN109324686A (zh) * 2018-08-13 2019-02-12 中国航天员科研训练中心 一种基于视线追踪的滑块操作方法
CN109600555A (zh) * 2019-02-02 2019-04-09 北京七鑫易维信息技术有限公司 一种对焦控制方法、系统及拍照设备
CN114237119A (zh) * 2021-12-16 2022-03-25 珠海格力电器股份有限公司 显示屏控制方法及装置
CN114253439A (zh) * 2021-10-30 2022-03-29 惠州华阳通用智慧车载系统开发有限公司 一种多屏交互方法
CN114253439B (zh) * 2021-10-30 2024-06-04 惠州华阳通用智慧车载系统开发有限公司 一种多屏交互方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180081433A1 (en) * 2016-09-20 2018-03-22 Wipro Limited System and method for adapting a display on an electronic device
CN107219921B (zh) * 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统
CN109905744A (zh) * 2017-12-08 2019-06-18 深圳Tcl新技术有限公司 一种智能电视的控制方法、存储介质以及智能电视
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
CN110825228B (zh) * 2019-11-01 2023-06-23 腾讯科技(深圳)有限公司 交互控制方法和装置、存储介质及电子装置
CN111147549B (zh) * 2019-12-06 2023-05-12 珠海格力电器股份有限公司 一种终端桌面内容的分享方法、装置、设备及存储介质
CN113778070B (zh) * 2020-07-17 2024-04-19 北京京东振世信息技术有限公司 机器人的控制方法和装置
CN112383826A (zh) * 2020-11-09 2021-02-19 中国第一汽车股份有限公司 车载娱乐终端的控制方法、装置、存储介质、终端及汽车
CN113110769B (zh) * 2021-03-31 2023-07-21 联想(北京)有限公司 一种控制方法及控制装置
CN113419631B (zh) * 2021-06-30 2022-08-09 珠海云洲智能科技股份有限公司 一种编队控制方法、电子设备及存储介质
US20230050526A1 (en) * 2021-08-10 2023-02-16 International Business Machines Corporation Internet of things configuration using eye-based controls

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019507A (zh) * 2012-11-16 2013-04-03 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法
CN103885592A (zh) * 2014-03-13 2014-06-25 宇龙计算机通信科技(深圳)有限公司 一种在屏幕上显示信息的方法及装置
CN104571508A (zh) * 2014-12-29 2015-04-29 北京元心科技有限公司 操作移动终端显示的数据的方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9971400B2 (en) * 2012-06-29 2018-05-15 Symbol Technologies, Llc Device and method for eye tracking data trigger arrangement
CN103324290A (zh) * 2013-07-04 2013-09-25 深圳市中兴移动通信有限公司 终端设备及其眼睛操控方法
CN103500061B (zh) * 2013-09-26 2017-11-07 三星电子(中国)研发中心 控制显示器的方法及设备
CN107087431B (zh) * 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
CN104320688A (zh) * 2014-10-15 2015-01-28 小米科技有限责任公司 视频播放操控方法及装置
CN104866100B (zh) * 2015-05-27 2018-11-23 京东方科技集团股份有限公司 眼控装置及其眼控方法和眼控系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019507A (zh) * 2012-11-16 2013-04-03 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法
CN103885592A (zh) * 2014-03-13 2014-06-25 宇龙计算机通信科技(深圳)有限公司 一种在屏幕上显示信息的方法及装置
CN104571508A (zh) * 2014-12-29 2015-04-29 北京元心科技有限公司 操作移动终端显示的数据的方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045669A1 (zh) * 2016-09-08 2018-03-15 深圳市元征科技股份有限公司 一种电子设备界面的控制方法及电子设备
CN106406710A (zh) * 2016-09-30 2017-02-15 维沃移动通信有限公司 一种录制屏幕的方法及移动终端
CN106527705A (zh) * 2016-10-28 2017-03-22 努比亚技术有限公司 一种实现操作的方法和装置
CN107105161A (zh) * 2017-04-27 2017-08-29 深圳市元征科技股份有限公司 变焦倍数调整方法及装置
CN107943280A (zh) * 2017-10-30 2018-04-20 深圳市华阅文化传媒有限公司 电子书阅读的控制方法及装置
CN107992193A (zh) * 2017-11-21 2018-05-04 出门问问信息科技有限公司 手势确认方法、装置及电子设备
CN108089801A (zh) * 2017-12-14 2018-05-29 维沃移动通信有限公司 一种信息显示方法及移动终端
CN108279778A (zh) * 2018-02-12 2018-07-13 上海京颐科技股份有限公司 用户交互方法、装置以及系统
CN108491072A (zh) * 2018-03-05 2018-09-04 京东方科技集团股份有限公司 一种虚拟现实交互方法及装置
WO2019169834A1 (en) * 2018-03-05 2019-09-12 Boe Technology Group Co., Ltd. Virtual reality interaction method, virtual reality interaction apparatus, virtual reality display apparatus, and computer-program product
CN108491072B (zh) * 2018-03-05 2020-01-21 京东方科技集团股份有限公司 一种虚拟现实交互方法及装置
US11301037B2 (en) 2018-03-05 2022-04-12 Beijing Boe Optoelectronics Technology Co., Ltd. Virtual reality interaction method, virtual reality interaction apparatus, virtual reality display apparatus, and computer-program product
CN109324686A (zh) * 2018-08-13 2019-02-12 中国航天员科研训练中心 一种基于视线追踪的滑块操作方法
CN109324686B (zh) * 2018-08-13 2022-02-11 中国航天员科研训练中心 一种基于视线追踪的滑块操作方法
CN109600555A (zh) * 2019-02-02 2019-04-09 北京七鑫易维信息技术有限公司 一种对焦控制方法、系统及拍照设备
CN114253439A (zh) * 2021-10-30 2022-03-29 惠州华阳通用智慧车载系统开发有限公司 一种多屏交互方法
CN114253439B (zh) * 2021-10-30 2024-06-04 惠州华阳通用智慧车载系统开发有限公司 一种多屏交互方法
CN114237119A (zh) * 2021-12-16 2022-03-25 珠海格力电器股份有限公司 显示屏控制方法及装置

Also Published As

Publication number Publication date
WO2017113668A1 (zh) 2017-07-06
US20170192500A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
CN105892642A (zh) 一种根据眼部动作对终端进行控制的方法及装置
EP3293620B1 (en) Multi-screen control method and system for display screen based on eyeball tracing technology
US10001844B2 (en) Information processing apparatus information processing method and storage medium
CN109375765B (zh) 眼球追踪交互方法和装置
Li et al. Learning to predict gaze in egocentric video
CN109343700B (zh) 眼动控制校准数据获取方法和装置
CN102473041B (zh) 图像识别装置、操作判断方法以及程序
CN104391567A (zh) 一种基于人眼跟踪的三维全息虚拟物体显示控制方法
CN108139582A (zh) 用于数据采集和评估环境数据的方法和装置
CN105955461A (zh) 一种交互界面管理方法和系统
DE102014019637A1 (de) Anzeigeschaltverfahren, Datenverarbeitungsverfahren und elektronische Vorrichtung
CN102749991A (zh) 一种适用于人机交互的非接触式自由空间视线跟踪方法
JP5225870B2 (ja) 情動分析装置
WO2020020022A1 (zh) 视觉识别方法及其系统
CN109600555A (zh) 一种对焦控制方法、系统及拍照设备
CN107562186A (zh) 基于注意力辨识进行情感运算的3d校园导览方法
CN106462230A (zh) 用于操作显示装置的方法和系统
CN114092985A (zh) 一种终端控制方法、装置、终端及存储介质
CN109328355A (zh) 用于智能群体肖像的方法和系统
CN206906936U (zh) 一种提供驾驶适宜性检测的头戴式显示设备
CN116453198B (zh) 一种基于头部姿态差异的视线校准方法和装置
KR20190085466A (ko) 사용자 트리거 의도 결정 장치 및 방법
CN115103094A (zh) 一种基于注视点的摄像头模组远视角调节方法及系统
CN114779925A (zh) 一种基于单目标的视线交互方法及装置
CN114740966A (zh) 多模态图像显示控制方法、系统及计算机设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160824

WD01 Invention patent application deemed withdrawn after publication