CN106990843A - 一种眼睛跟踪系统的参数校准方法及电子设备 - Google Patents

一种眼睛跟踪系统的参数校准方法及电子设备 Download PDF

Info

Publication number
CN106990843A
CN106990843A CN201710212644.0A CN201710212644A CN106990843A CN 106990843 A CN106990843 A CN 106990843A CN 201710212644 A CN201710212644 A CN 201710212644A CN 106990843 A CN106990843 A CN 106990843A
Authority
CN
China
Prior art keywords
content
calibration
electronic equipment
target
tracking system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710212644.0A
Other languages
English (en)
Other versions
CN106990843B (zh
Inventor
盛宏伟
崔理金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201710212644.0A priority Critical patent/CN106990843B/zh
Publication of CN106990843A publication Critical patent/CN106990843A/zh
Application granted granted Critical
Publication of CN106990843B publication Critical patent/CN106990843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供一种眼睛跟踪系统的参数校准方法及电子设备,其中方法应用于具有眼睛跟踪系统的电子设备,包括:获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。

Description

一种眼睛跟踪系统的参数校准方法及电子设备
技术领域
本发明涉及通信技术领域,尤其涉及一种眼睛跟踪系统的参数校准方法及电子设备。
背景技术
眼睛跟踪技术是一种通过眼睛来控制电子设备的应用技术,例如,基于眼球移动的游戏地图控制,或者基于眼睛的电视图标控制,等等。眼睛跟踪系统是通过检测瞳孔的偏移来判断眼睛的视线方向,以实现与电子设备的交互。眼睛跟踪系统需要建立眼睛位置特征参数与电子设备显示界面的位置参数之间的函数关系,然而,由于不同人眼的眼部特征存在差异,从而使得不同人眼对电子设备显示界面的对象控制可能出现偏差。可见,现有电子设备的眼睛跟踪系统所存在的问题在于眼睛位置参数与显示界面位置参数之间可能具有偏差。
发明内容
本发明实施例提供一种眼睛跟踪系统的参数校准方法及电子设备,以解决现有电子设备的眼睛跟踪系统存在眼睛位置参数与显示界面位置参数之间可能具有偏差的问题。
第一方面,本发明实施例提供了一种眼睛跟踪系统的参数校准方法,应用于具有眼睛跟踪系统的电子设备,包括:
获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;
确定所述目标语音信息对应的所述目标校准内容所在的目标位置;
根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
第二方面,本发明实施例还提供一种电子设备,具有眼睛跟踪系统,所述电子设备包括:
第一获取模块,用于获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;
确定模块,用于确定所述目标语音信息对应的所述目标校准内容所在的目标位置;
计算模块,用于根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
这样,本发明实施例中,获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。由于人在朗读的时候,朗读出来的语音信息对应的校准内容所在的位置可以间接反映人眼注视的位置。因此,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获取其他的附图。
图1是本发明实施例提供的一种眼睛跟踪系统的参数校准方法的流程图;
图2是本发明实施例提供的另一种眼睛跟踪系统的参数校准方法的流程图;
图3是本发明实施例提供的一种电子设备的结构图之一;
图4是本发明实施例提供的一种电子设备的结构图之二;
图5是本发明实施例提供的一种电子设备的结构图之三;
图6是本发明实施例提供的一种电子设备的结构图之四;
图7是本发明实施例提供的另一种电子设备的结构图;
图8是本发明实施例提供的另一种电子设备的结构图。
具体实施方式
人在朗读的时候,眼睛和口的动作是可以看作同步的,朗读出来的语音信息对应的校准内容所在的位置可以间接反映人眼注视的位置。本发明实施例基于这一点提供了基于语音输入对电子设备的眼睛跟踪系统的参数进行校准的方法。
本发明实施例中,可以在电子设备的显示界面上显示一定的校准内容,用户可以根据显示界面上显示的校准内容进行朗读,即用户向电子设备输入语音信息。电子设备接收到用户输入的语音信息时,电子设备可以将语音信息转换成文字内容或图片特征信息,与显示界面的校准内容进行匹配,从而可以计算出用户朗读的目标位置。同时,电子设备中的眼睛跟踪系统可以获取用户朗读时的眼睛凝视位置。这样,电子设备可以根据目标位置与眼睛凝视位置之间的偏差实现对眼睛跟踪系统的眼睛位置参数的校准。
本发明实施例提供的眼睛跟踪系统的参数校准方法可以应用于具有语音输入设备和眼睛跟踪系统的电子设备。其中,眼睛跟踪系统可以包括摄像头和位置计算设备,用来获取眼睛凝视位置;语音输入设备,例如可以是麦克风,用来接收用户输入的语音信息。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获取的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的眼睛跟踪系统的参数校准方法的流程图,如图1所示,包括以下步骤:
步骤101、获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息。
该步骤中,如果电子设备接收到用户输入的语音信息,电子设备可以获取在语音信息输入的时刻,由眼睛跟踪系统确定的眼睛凝视位置。
其中,目标语音信息为用户基于电子设备的显示界面所显示的目标校准内容输入的语音信息,也就是说,目标语音信息对应的内容为电子设备的显示界面上所显示的目标校准内容。校准内容可以是供用户识别和朗读的任何内容,例如,可以是由汉字或字母组成的字符串,也可以是图片。
另外,电子设备的显示界面上可以只显示一个校准内容,也可以显示多个校准内容。当前用户输入的语音信息可以理解为目标语音信息,与目标语音信息对应的校准内容可以理解为目标校准内容。显示界面上的每个校准内容都可能作为目标校准内容。
可选的,一个所述校准内容为一个字符串或一个图片。
本发明实施方式中,一个校准内容可以为一个字符串或一个图片。其中,字符串可以包括汉字、字母或多个字母组成的英文单词,等等。图片可以是容易供用户识别且内容单一的图片,例如,可以是生活用品的图片,或者动物的图片,等等。
本发明实施方式中,将一个字符串或一个图片作为一个校准内容,既有利于明确校准内容所对应的目标位置;也使用户在输入语音信息时,可以对校准内容进行逐个朗读,从而使校准过程统一化、标准化,以适应于不同用户。
在电子设备的显示界面上,可以只显示一个校准内容,也可以显示多个校准内容;显示的校准内容的大小也可以不同。这可以根据不同的应用场景、不同的电子设备或不同的操作系统来预先设置合适数量或合适大小的校准内容。为便于更好地理解,下面以应用场景的不同进行举例说明:
例如,对于将眼睛跟踪系统应用于电视图标控制的情况而言,由于电视图标控制要求的定位精度较低,因此,可以为该应用场景预先设置少量且较大的校准内容;例如,对于将眼睛跟踪系统应用于游戏地图移动控制的情况而言,由于游戏控制要求的定位精度较高,因此,可以为该应用场景预先设置较多且较小的校准内容;等等。
另外,对于眼睛跟踪系统的工作原理,即步骤101中的由眼睛跟踪系统确定眼睛凝视位置,作进一步的说明。
眼睛跟踪系统的摄像头可以拍摄到用户的瞳孔位置图像,眼睛跟踪系统的位置计算设备根据瞳孔位置图像获取瞳孔相对于眼睛中心(即眼睛水平中心轴和垂直中心轴的交点)的水平偏移量和垂直偏移量,即确定眼睛凝视位置。
需要说明的是,步骤101中获取的眼睛凝视位置可能并不是真实的眼睛凝视位置,即眼睛跟踪系统获取的眼睛凝视位置可能与真实的眼睛凝视位置存在偏差。这也是本发明实施例所需要解决的问题。
步骤102、确定所述目标语音信息对应的所述目标校准内容所在的目标位置。
该步骤中,电子设备可以确定目标语音信息对应的目标校准内容所在的目标位置。由于用户输入的语音信息是基于用户在显示界面上看到的校准内容进行朗读的结果,因此,用户输入的语音信息与校准内容存在对应关系,由语音信息即可确定对应的校准内容,从而可以获取到校准内容所在的目标位置。
步骤102的工作原理具体如下:电子设备可以将语音输入设备接收的语音信息转换成文本内容,电子设备将转换后的文本内容与显示界面上的校准内容进行匹配,从而电子设备可以获取与语音信息对应的校准内容所在的目标位置,该目标位置即为真实的眼睛凝视位置。
为便于理解,以校准内容为一个熊猫的图片为例,如果用户输入“熊猫”的目标语音信息,电子设备可以将语音信息转换成与“熊猫”的含义相同或相似的文本内容,电子设备将校准内容与文本内容进行匹配,从而确定目标校准内容为熊猫的图片,并将该熊猫图片所在的位置确定为目标位置。当然,图片也可以是包含文字信息的图片,用户可以通过语音输入图片中所包含的的文字信息,通过图形识别技术识别图片中文字信息所在的位置。
需要说明的是,步骤101和步骤102可以同步进行,即在语音信息输入时刻,电子设备可以同时获取眼睛凝视位置和目标位置。此外,由于人眼可能随时处于移动状态,因此眼睛凝视位置的获取需要与语音信息输入时刻同步;而校准内容可以处于静止状态,目标位置的获取可以稍晚于语音信息输入时刻,即步骤102可以稍晚于步骤101执行。
步骤103、根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
该步骤中,电子设备可以计算眼睛凝视位置与目标位置之间的偏差,并可以根据该偏差计算校准数据,电子设备可以将该校准数据反馈给眼睛跟踪系统,以实现对眼睛跟踪系统的眼睛位置参数的校准。
其中,对于整个显示界面只显示一个校准内容的情况,可以将步骤103中获得的校准数据作为整个显示界面的校准数据。也就是说,将电子设备的整个显示界面作为一个显示区域,眼睛跟踪系统在该显示区域中的任何位置计算眼睛位置参数所采用的算法均一致。
对于整个显示界面显示多个校准内容的情况,可以获取每个校准内容所在的目标位置的所有校准数据,并根据所有校准数据进行进一步的计算,以得到更精确的校准数据。
本发明实施例中,上述电子设备可以是任何具有眼睛跟踪系统的设备,例如:计算机(Computer)、手机、平板电脑(Tablet Personal Computer)、膝上型电脑(LaptopComputer)、个人数字助理(personal digital assistant,简称PDA)、移动上网电子设备(Mobile Internet Device,MID)、可穿戴式设备(Wearable Device)或电视机等。
本发明实施例的眼睛跟踪系统的参数校准方法,获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;确定所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
参见图2,图2是本发明实施例提供的眼睛跟踪系统的参数校准方法的流程图,如图2所示,包括以下步骤:
步骤201、将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容。
对于定位精度要求较高的应用场景或操作系统,若仅对显示界面的整个显示区域执行统一校准,可能无法实现对操作对象的精确控制。考虑到上述因素,本发明实施例中,可以采取将电子设备的显示界面划分为多个显示区域,通过获取每个显示区域的校准数据,以实现对每个显示区域的校准。
该步骤中,电子设备可以将显示界面划分为至少两个显示区域,例如,可以是将显示界面划分为左上、右上、左下、右下共四个显示区域;也可以是将显示界面划分为3×3共九个显示区域;还可以是将显示界面划分为更多的显示区域;等等。
具体的显示区域的划分方式可以根据为应用场景或操作系统配置的定位精度来确定。例如,对于仅依靠眼睛跟踪系统实现翻页操作的情况,可以将显示界面划分为左右(或上下)两个显示区域;对于依靠眼睛跟踪系统实现较复杂的游戏操作的情况,显示区域的数量应与游戏控制精度相匹配。
该步骤中,每个显示区域中显示的校准内容的数量可以是一个,也可以是多个,校准内容的大小也可以不同。这可以根据不同的应用场景、不同的电子设备或不同的操作系统来预先设置合适数量或合适大小的校准内容。例如,对于划分的显示区域较大的情况而言,为了获取该显示区域较精确的校准数据,可以考虑在该显示区域设置数量较多的校准内容;对于划分的显示区域较小的情况而言,可以考虑在该显示区域设置数量较少的校准内容。在一个显示区域的校准内容未填满该显示区域时,校准内容的位置可以随意布局,不受限制。
可选的,一个所述校准内容为一个字符串或一个图片。
本发明实施方式中,一个校准内容可以为一个字符串或一个图片。其中,字符串可以包括汉字、字母或多个字母组成的英文单词,等等。图片可以是容易供用户识别且内容单一的图片,例如,可以是生活用品的图片,或者动物的图片,等等。
本发明实施方式中,将一个字符串或一个图片作为一个校准内容,既有利于明确校准内容所对应的目标位置;也使用户在输入语音信息时,可以对校准内容进行逐个朗读,从而使校准过程统一化、标准化,以适应于不同用户。
可选的,在所述将所述电子设备的显示界面划分为至少两个显示区域的步骤之前,所述方法还包括:获取所述眼睛跟踪系统的定位精度;所述将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一校准内容,包括:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
如前所述,显示区域的大小,或者每个显示区域中的校准内容的大小可以不作限制。然而,若对于定位精度较高的应用场景或操作系统,若显示区域过大,或者每个显示区域中的校准内容过大,可能无法达到校准的要求;若对于定位精度较低的应用场景或操作系统,若显示区域过小,或者每个显示区域中的校准内容过小,虽然可以达到校准的要求,但存在资源过度使用的缺陷。
基于上述因素,为了使资源匹配达到较佳的状态,本发明实施方式中,电子设备可以获取眼睛跟踪系统的定位精度,并将每个显示区域或者每个显示区域中显示的每个校准内容的大小与该定位精度相匹配。具体的,可以包括如下两种方式。
第一种,显示区域的划分可以大于该定位精度,而每个显示区域显示的校准内容与定位精度相匹配。即将电子设备的显示界面划分为至少两个显示区域,每个显示区域显示至少一个大小与定位精度相匹配的校准内容。
第二种,显示区域的划分与定位精度相匹配,这样,每个显示区域可以只显示一个校准内容。即将电子设备的显示界面划分为至少两个大小与定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
本发明实施方式中,通过定位精度划分显示区域或者将每个显示区域中的校准内容与定位精度相匹配,可以实现在每个显示区域的眼睛位置参数的校准满足眼睛跟踪系统的定位精度的目的。
步骤202、获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息。
该步骤中,如果电子设备接收到用户输入的语音信息,电子设备可以获取在语音信息输入的时刻,由眼睛跟踪系统确定的眼睛凝视位置。其中,语音信息对应的内容为电子设备的显示界面上所显示的校准内容。
步骤203、确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域。
该步骤中,由于将电子设备的显示界面划分为至少两个显示区域,因此,电子设备可以确定步骤202中目标语音信息对应的目标校准内容所在的目标显示区域。
步骤204、确定所述目标校准内容在所述目标显示区域中的目标位置。
该步骤中,电子设备可以确定目标校准内容在目标显示区域中的目标位置。
步骤205、根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
该步骤中,电子设备可以根据目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
若目标显示区域内的校准内容的数量为一个,那么,目标显示区域内的这个校准内容所对应的校准数据,即可以直接作为目标显示区域的校准数据。若目标显示区域内的校准内容的数量为多个,可以通过下面的可选实施方式进行目标显示区域的校准数据的计算。
可选的,若每个所述显示区域显示的校准内容为至少两个,所述根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据,包括:根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
本发明实施方式适合于目标显示区域中有两个或两个以上校准内容的情况,由于目标显示区域中有多个校准内容,那么位于该目标显示区域中的目标位置的数量也有多个。也就是说,通过步骤204可以获取目标显示区域内所有校准内容对应的多个校准数据。这样,电子设备可以将目标显示区域内的所有校准内容对应的校准数据的平均值确定为目标显示区域的校准数据。当然,也不排除通过其它算法来计算目标显示区域的校准数据。
本发明实施方式中,在目标显示区域显示多个校准内容时,可以使该目标显示区域的校准数据更为精确,适合于眼睛跟踪系统的定位精度较高的应用场景或操作系统中。
本发明实施例与第一实施例的区别在于,本发明实施例考虑将显示界面划分为多个显示区域,以获得每个显示区域的校准数据,以实现对眼睛跟踪系统更精确校准的目的。
本发明实施例的眼睛跟踪系统的参数校准方法,应用于具有眼睛跟踪系统的电子设备,包括:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;确定所述目标校准内容在所述目标显示区域中的目标位置;根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
参见图3,图3是本发明实施例提供的电子设备的结构图,如图3所示,电子设备300,具有眼睛跟踪系统,包括第一获取模块301、确定模块302及计算模块303,其中,第一获取模块301与计算模块303连接,确定模块302与计算模块303连接。
第一获取模块301,用于获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;
确定模块302,用于确定所述目标语音信息对应的所述目标校准内容所在的目标位置;
计算模块303,用于根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
可选的,如图4所示,电子设备300还包括:
划分模块304,用于将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;
确定模块302包括:
第一确定子模块3021,用于确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;
第二确定子模块3022,用于确定所述目标校准内容在所述目标显示区域中的目标位置;
计算模块303具体用于:根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
可选的,如图5所示,若每个所述显示区域显示的校准内容为至少两个,计算模块303包括:
计算子模块3031,用于根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;
第三确定子模块3032,用于将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
可选的,如图6所示,电子设备300还包括:
第二获取模块305,用于获取所述眼睛跟踪系统的定位精度;
划分模块304具体用于:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
可选的,一个所述校准内容为一个字符串或一个图片。
电子设备300能够实现图1至图2的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的电子设备300,具有眼睛跟踪系统,获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
参见图7,图7是本发明实施提供的电子设备的结构图,如图7所示,电子设备700包括:至少一个处理器701、存储器702、至少一个网络接口704和用户接口703。电子设备700中的各个组件通过总线系统705耦合在一起。可理解,总线系统705用于实现这些组件之间的连接通信。总线系统705除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图7中将各种总线都标为总线系统705。
其中,用户接口703可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本发明实施例中的存储器702可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DRRAM)。本文描述的系统和方法的存储器702旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器702存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统7021和应用程序7022。
其中,操作系统7021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序7022,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序7022中。
在本发明实施例中,通过调用存储器702存储的程序或指令,具体的,可以是应用程序7022中存储的程序或指令,处理器701用于:获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
上述本发明实施例揭示的方法可以应用于处理器701中,或者由处理器701实现。处理器701可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器701中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器701可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器702,处理器701读取存储器702中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的模块(例如过程、函数等)来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
可选的,处理器701还用于:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;确定所述目标校准内容在所述目标显示区域中的目标位置;根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
可选的,处理器701还用于:若每个所述显示区域显示的校准内容为至少两个,根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
可选的,处理器701还用于:获取所述眼睛跟踪系统的定位精度;将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
可选的,一个所述校准内容为一个字符串或一个图片。
电子设备700能够实现前述实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的电子设备700,具有眼睛跟踪系统,获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
请参阅图8,图8是本发明实施提供的电子设备的结构图,如图8所示,电子设备800包括射频(Radio Frequency,RF)电路810、存储器820、输入单元830、显示单元840、处理器850、音频电路860、通信模块870、电源880和眼睛跟踪系统890。
其中,眼睛跟踪系统890可以包括摄像头891和位置计算设备892,其中,摄像头891可以拍摄到用户的瞳孔位置图像,位置计算设备892可以根据瞳孔位置图像获取瞳孔相对于眼睛中心(即眼睛水平中心轴和垂直中心轴的交点)的水平偏移量和垂直偏移量,即确定眼睛凝视位置。
其中,输入单元830可用于接收用户输入的数字或字符信息,以及产生与电子设备800的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元830可以包括触控面板831。触控面板831,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板831上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板831可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器850,并能接收处理器850发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板831。除了触控面板831,输入单元830还可以包括其他输入设备832,其他输入设备832可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,显示单元840可用于显示由用户输入的信息或提供给用户的信息以及电子设备800的各种菜单界面。显示单元840可包括显示面板841,可选的,可以采用LCD或有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板841。
应注意,触控面板831可以覆盖显示面板841,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器850以确定触摸事件的类型,随后处理器850根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。
触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。
其中处理器850是电子设备800的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器821内的软件程序和/或模块,以及调用存储在第二存储器822内的数据,执行电子设备800的各种功能和处理数据,从而对电子设备800进行整体监控。可选的,处理器850可包括一个或多个处理单元。
在本发明实施例中,通过调用存储该第一存储器821内的软件程序和/或模块和/或该第二存储器822内的数据,处理器850用于:获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;确定所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
可选的,处理器850还用于:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;确定所述目标校准内容在所述目标显示区域中的目标位置;根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
可选的,处理器850还用于:若每个所述显示区域显示的校准内容为至少两个,根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
可选的,处理器850还用于:获取所述眼睛跟踪系统的定位精度;将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
可选的,一个所述校准内容为一个字符串或一个图片。
电子设备800能够实现前述实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的电子设备800,具有眼睛跟踪系统,获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置;确定所述目标语音信息对应的所述目标校准内容所在的目标位置;根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。这样,本发明实施例基于用户的语音输入可以实现对眼睛跟踪系统的参数进行校准的目的。本发明实施例利用人体眼、口同步的原理,校准精确,操作简单、方便。此外,还可以结合朗诵游戏进行,而不被用户所察觉,可以进一步提高用户体验,体现系统智能。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、电子设备和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的电子设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,电子设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种眼睛跟踪系统的参数校准方法,其特征在于,应用于具有眼睛跟踪系统的电子设备,包括:
获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;
确定所述目标语音信息对应的所述目标校准内容所在的目标位置;
根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
2.根据权利要求1所述的方法,其特征在于,在所述获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置的步骤之前,所述方法还包括:
将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;
所述确定所述目标语音信息对应的所述目标校准内容所在的目标位置,包括:
确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;
确定所述目标校准内容在所述目标显示区域中的目标位置;
所述根据所述眼睛凝视位置与所述目标位置,计算校准数据,包括:
根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
3.根据权利要求2所述的方法,其特征在于,若每个所述显示区域显示的校准内容为至少两个,所述根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据,包括:
根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;
将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
4.根据权利要求2或3所述的方法,其特征在于,在所述将所述电子设备的显示界面划分为至少两个显示区域的步骤之前,所述方法还包括:
获取所述眼睛跟踪系统的定位精度;
所述将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一校准内容,包括:
将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,
将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
5.根据权利要求1至3中任一项所述的方法,其特征在于,一个所述校准内容为一个字符串或一个图片。
6.一种电子设备,其特征在于,具有眼睛跟踪系统,所述电子设备包括:
第一获取模块,用于获取在目标语音信息输入时刻由所述眼睛跟踪系统确定的眼睛凝视位置,其中,所述目标语音信息为用户基于所述电子设备的显示界面所显示的目标校准内容输入的语音信息;
确定模块,用于确定所述目标语音信息对应的所述目标校准内容所在的目标位置;
计算模块,用于根据所述眼睛凝视位置与所述目标位置,计算校准数据,所述校准数据用于对所述眼睛跟踪系统的参数进行校准。
7.根据权利要求6所述的电子设备,其特征在于,还包括:
划分模块,用于将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个校准内容;
所述确定模块包括:
第一确定子模块,用于确定所述目标语音信息对应的所述目标校准内容所在的目标显示区域;
第二确定子模块,用于确定所述目标校准内容在所述目标显示区域中的目标位置;
所述计算模块具体用于:根据所述目标显示区域内的每一个校准内容对应的目标位置以及每一个校准内容对应的眼睛凝视位置,计算所述目标显示区域的校准数据。
8.根据权利要求7所述的电子设备,其特征在于,若每个所述显示区域显示的校准内容为至少两个,所述计算模块包括:
计算子模块,用于根据所述目标显示区域内的每一个校准内容对应的目标位置,以及每一个校准内容对应的眼睛凝视位置,计算每一个校准内容对应的校准数据;
第三确定子模块,用于将所述目标显示区域内的所有校准内容对应的校准数据的平均值确定为所述目标显示区域的校准数据。
9.根据权利要求7或8所述的电子设备,其特征在于,还包括:
第二获取模块,用于获取所述眼睛跟踪系统的定位精度;
所述划分模块具体用于:将所述电子设备的显示界面划分为至少两个显示区域,每个所述显示区域显示至少一个大小与所述定位精度相匹配的校准内容;或者,
将所述电子设备的显示界面划分为多个大小与所述定位精度相匹配的显示区域,每个所述显示区域显示一个校准内容。
10.根据权利要求6至8中任一项所述的电子设备,其特征在于,一个所述校准内容为一个字符串或一个图片。
CN201710212644.0A 2017-04-01 2017-04-01 一种眼睛跟踪系统的参数校准方法及电子设备 Active CN106990843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710212644.0A CN106990843B (zh) 2017-04-01 2017-04-01 一种眼睛跟踪系统的参数校准方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710212644.0A CN106990843B (zh) 2017-04-01 2017-04-01 一种眼睛跟踪系统的参数校准方法及电子设备

Publications (2)

Publication Number Publication Date
CN106990843A true CN106990843A (zh) 2017-07-28
CN106990843B CN106990843B (zh) 2021-01-08

Family

ID=59415789

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710212644.0A Active CN106990843B (zh) 2017-04-01 2017-04-01 一种眼睛跟踪系统的参数校准方法及电子设备

Country Status (1)

Country Link
CN (1) CN106990843B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857333A (zh) * 2020-06-29 2020-10-30 维沃移动通信有限公司 眼动追踪方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426483A (zh) * 2011-12-27 2012-04-25 中国科学院软件研究所 一种面向触控设备的多通道精确目标定位方法
CN104423543A (zh) * 2013-08-26 2015-03-18 联想(北京)有限公司 一种信息处理方法及装置
US20150130716A1 (en) * 2013-11-12 2015-05-14 Yahoo! Inc. Audio-visual interaction with user devices
CN105378595A (zh) * 2013-06-06 2016-03-02 微软技术许可有限责任公司 通过触摸输入校准眼睛跟踪系统
CN105607255A (zh) * 2014-11-17 2016-05-25 精工爱普生株式会社 头部佩戴型显示装置、控制其的方法及计算机程序
CN105653164A (zh) * 2015-07-31 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种语音输入用户事件的方法及终端
CN106462733A (zh) * 2014-05-19 2017-02-22 微软技术许可有限责任公司 视线检测校准
CN106537290A (zh) * 2014-05-09 2017-03-22 谷歌公司 与真实和虚拟对象交互的基于生物力学的眼球信号的系统和方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426483A (zh) * 2011-12-27 2012-04-25 中国科学院软件研究所 一种面向触控设备的多通道精确目标定位方法
CN105378595A (zh) * 2013-06-06 2016-03-02 微软技术许可有限责任公司 通过触摸输入校准眼睛跟踪系统
CN104423543A (zh) * 2013-08-26 2015-03-18 联想(北京)有限公司 一种信息处理方法及装置
US20150130716A1 (en) * 2013-11-12 2015-05-14 Yahoo! Inc. Audio-visual interaction with user devices
CN106537290A (zh) * 2014-05-09 2017-03-22 谷歌公司 与真实和虚拟对象交互的基于生物力学的眼球信号的系统和方法
CN106462733A (zh) * 2014-05-19 2017-02-22 微软技术许可有限责任公司 视线检测校准
CN105607255A (zh) * 2014-11-17 2016-05-25 精工爱普生株式会社 头部佩戴型显示装置、控制其的方法及计算机程序
CN105653164A (zh) * 2015-07-31 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种语音输入用户事件的方法及终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857333A (zh) * 2020-06-29 2020-10-30 维沃移动通信有限公司 眼动追踪方法、装置及电子设备

Also Published As

Publication number Publication date
CN106990843B (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN106991367B (zh) 确定人脸转动角度的方法和装置
CN105144067B (zh) 用于调节控件的外观的设备、方法和图形用户界面
US20110254865A1 (en) Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US20130318445A1 (en) User interfaces based on positions
CN106445235B (zh) 一种触摸起始位置识别方法及移动终端
CN106527693A (zh) 一种应用程序控制方法及移动终端
CN107181913A (zh) 一种拍照方法及移动终端
CN107678644A (zh) 一种图像处理方法及移动终端
CN107172346A (zh) 一种虚化方法及移动终端
CN107613193A (zh) 一种摄像头控制方法及移动终端
CN107404577A (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN107608854A (zh) 一种休眠电流值的检测方法及电子设备
CN106791422A (zh) 一种图像处理方法及移动终端
CN110099219A (zh) 全景拍摄方法及相关产品
CN107423018A (zh) 一种分屏显示方法和终端
CN107329586A (zh) 一种信息输入方法、移动终端及计算机可读存储介质
CN110245607A (zh) 眼球追踪方法及相关产品
US20150063577A1 (en) Sound effects for input patterns
AU2018407274B2 (en) Fingerprint enrollment method and terminal
CN106990843A (zh) 一种眼睛跟踪系统的参数校准方法及电子设备
CN107515681B (zh) 一种文字输入方法、移动终端及计算机可读存储介质
CN106407945B (zh) 一种指纹识别方法及移动终端
CN107145238A (zh) 一种信息发送方法及电子设备
CN107094235A (zh) 一种拍照方法及移动终端
CN110221696A (zh) 眼球追踪方法及相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20171107

Address after: 283 No. 523860 Guangdong province Dongguan city Changan town usha BBK Avenue

Applicant after: VIVO MOBILE COMMUNICATION CO., LTD.

Applicant after: Wewo Mobile Communication Co. Ltd. Beijing branch

Address before: 283 No. 523860 Guangdong province Dongguan city Changan town usha BBK Avenue

Applicant before: VIVO MOBILE COMMUNICATION CO., LTD.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200630

Address after: 283 No. 523860 Guangdong province Dongguan city Changan town usha BBK Avenue

Applicant after: VIVO MOBILE COMMUNICATION Co.,Ltd.

Address before: 283 No. 523860 Guangdong province Dongguan city Changan town usha BBK Avenue

Applicant before: VIVO MOBILE COMMUNICATION Co.,Ltd.

Applicant before: Wewo Mobile Communication Co.,Ltd. Beijing branch

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant