CN104520799A - 通过眼睛跟踪进行的用户输入处理 - Google Patents

通过眼睛跟踪进行的用户输入处理 Download PDF

Info

Publication number
CN104520799A
CN104520799A CN201380022450.4A CN201380022450A CN104520799A CN 104520799 A CN104520799 A CN 104520799A CN 201380022450 A CN201380022450 A CN 201380022450A CN 104520799 A CN104520799 A CN 104520799A
Authority
CN
China
Prior art keywords
user
input
focus
image
physical state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380022450.4A
Other languages
English (en)
Inventor
C.诺登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Computer Entertainment America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment America LLC filed Critical Sony Computer Entertainment America LLC
Publication of CN104520799A publication Critical patent/CN104520799A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Abstract

一种系统确定多个用户中的哪一用户通过单个输入装置提供了输入。一种机构捕获所述一或多个用户的图像。当检测到输入时,可处理所述图像以确定哪一用户使用所述输入装置提供了输入。可处理所述图像以识别每一用户的头部和眼睛,且确定每一用户的眼睛的焦点。将眼睛聚焦在输入位置的用户识别为提供所述输入。当输入机构为触摸屏时,将眼睛聚焦在被触摸的触摸屏部分上的用户识别为所述输入的来源。

Description

通过眼睛跟踪进行的用户输入处理
相关申请的交叉引用
本申请要求2012年5月4日申请的美国专利申请号13/464,703的优先权权益,所述专利申请的公开内容以引用的方式并入本文中。
发明背景
技术领域
本发明大体上涉及输入处理系统,且更明确地说,涉及经由图像处理来处理来自多个用户的输入。
习知技术
计算系统应用程序通过接收用户输入、处理所述输入以及提供结果来与用户交互。随着系统变得更先进,且更多的人欣然接受技术,应用程序已演进为同时使多个用户参与。多个用户可同时与计算系统交互,且所述用户可提供与特定用户有关的输出。举例来说,两个用户可使用游戏控制器来玩计算机游戏,其允许所述用户在游戏会话期间与每一其它用户竞争。每一用户用相应的游戏控制器来提供输入。
技术已演进为允许与计算系统的不同类型的交互。不同于例如接收来自每一用户的远程游戏控制器的输入,一些计算系统利用单个输入机构,例如触摸屏。当仅一个用户与所述计算装置啮合时,所述单个输入机构接收来自单个用户的输入。当多个用户啮合具有单个输入机构的计算系统时,确定哪一用户正在提供输入非常困难。
此项技术中需要一种系统,其允许多个用户容易且高效地使用单个输入机构与计算装置交互。
发明概要
在一实施例中,性能、功能性、内容或业务相关性。基于学习技术、高效监视和资源管理,本发明的系统可以非常低的开销捕获网络应用程序的数据,并提供网络应用程序的异常值的分析信息。
在一实施例中,在装置存在的情况下,可通过首先在物理上识别多个用户来接收输入。输入可由装置从所述多个物理存在的用户中的第一用户接收。可从所述多个用户中与所述输入相关联的一者检测物理状态。
在一实施例中,一种用户检测输入的系统可包含显示装置、相机、处理器,以及存储在存储器中且可由处理器执行的模块。所述相机可捕获色彩图像数据,且将图像数据提供给处理器。特征检测模块可执行以检测用户的物理特征。用户焦点检测模块检测用户眼睛的焦点。一种输入处理模块接收并处理来自用户的输入。
附图简述
图1是用于通过计算控制台的触摸屏接收输入的示范性系统的框图。
图2是用于通过平板计算机的触摸屏接收输入的示范性系统的框图。
图3是用于通过移动装置的触摸屏接收输入的示范性系统的框图。
图4是具有用户检测机构的示范性计算装置。
图5是示范性的一组可执行软件模块。
图6是用于识别来自多个用户中的一者的输入的示范性方法的流程图。
图7A到7B是用户眼睛的示范性图像。
图8是接收来自多个用户中的一者的输入的示范性计算装置的框图。
图9是用于实施计算装置的示范性系统的框图。
具体实施方式
本发明的实施例确定多个用户中的哪一用户通过单个输入装置提供了输入。所述计算系统可包含用于捕获所述一或多个用户的图像的机构。可处理所述图像以确定哪一用户使用所述输入装置提供了输入。举例来说,可处理所述图像以识别每一用户的头部和眼睛,且确定每一用户的眼睛的焦点。将眼睛聚焦在输入装置处的用户识别为提供所述输入。在输入机构可为触摸屏的实施例中,将眼睛聚焦在被触摸的触摸屏部分上的用户识别为提供所述输入。
本发明的实施例可结合若干类型的计算装置使用。图1是用于通过计算控制台的触摸屏接收输入的示范性系统的框图。计算控制台125将用于显示的图像数据提供给触摸屏120。触摸屏120可接收触摸输入,且将输入提供给计算控制台125。计算控制台可接收输入,处理所述输入并创建新的图像数据,且将所述图像数据提供给触摸屏120。用户105和110中的任一者可将输入提供给计算控制台125,例如通过触摸触摸屏120。本发明能够确定哪一用户触摸了触摸屏,且相应地处理所述输入。图2是用于通过平板计算机130的触摸屏接收输入的示范性系统的框图。用户105和110可各自使用平板的触摸屏将输入提供给平板计算机130。本发明的实施例可确定用户105和110中的哪一者将输入提供给了平板计算机130,且相应地处理所述输入。图3是用于通过移动装置的触摸屏接收输入的示范性系统的框图。用户105和110可各自通过触摸屏或其它输入件将输入提供给移动装置140。本发明可确定哪一用户将输入提供给了移动装置140,且为所述用户处理输入。
图4是具有用户检测机构45的示范性计算装置。用户检测机构405可结合计算控制台、平板计算机、移动装置或任何其它计算装置使用。用户检测机构包含彩色相机410和红外线(IR)相机415。彩色相机410可捕获计算装置附近的区域420的图像。可处理所述图像以识别用户、用户的物理特征,以及所述物理特征的状态。举例来说,可处理彩色相机410所捕获的两个玩家的图像,以识别区域420内的两个用户,每一用户的物理特征包含用户头部和眼睛,以及每一用户的眼睛的状态,例如每一用户将其眼睛聚焦在何处。还可使用IR成像系统415来捕获和处理图像。可在低光条件下利用IR成像系统415,以捕获区域425的IR图像。可处理IR图像以识别若干用户、用户物理特征以及特征状态,类似于彩色相机图像处理的处理。
图5是示范性的一组可执行软件模块。所述模块可由处理器执行以实施本文所述的本发明的各种方面。特征检测模块520检测用户的图像中的特征。举例来说,特征检测模块可接收图像,检测人类脸部的轮廓,且识别脸部内的眼睛。模块520可具有一或多个脸部的模板,以与接收到的图像的部分进行比较来识别人类脸部。所述模板可存储在特征库模块540中。在一些实施例中,特征检测模块540可检测两个或两个以上连续图像之间的运动,且使用像素着色的变化来检测用户。一旦检测到用户头部,特征检测模块就分析所述头部内的特征以检测用户的眼睛。可通过检测例如靠近眼睛的鼻子等特征,确定用户眼睛在用户头顶下方的某一距离,或执行此项技术中通常已知的其它算法来识别眼睛。除物理特征之外,也可确定其它特征,例如用户远离计算装置的距离。在一些实施例中,如果检测到的人大于距计算装置的某一阈值距离,那么用户将不被视为能够提供输入的用户。
用户聚焦模块510可分析用户眼睛的图像以确定用户聚焦在何处。人眼的前部包含黑瞳、瞳孔周围的彩色虹膜,以及虹膜周围的白色巩膜。计算装置可分析巩膜的面积和位置,以确定用户向上、向下、向左还是向右聚焦。举例来说,当用户的眼睛聚焦在他右边的物体上时,用户眼睛所捕获的图像将显示用户的巩膜的较多部分在图像(用户的左侧)中在眼睛的右侧而不是左侧,因为眼睛将朝左侧移动。
输入聚焦模块530接收输入并处理所述输入。所述输入可为触摸屏上的指定热点、按钮、无线信号或某一其它输入的选择。输入聚焦模块530可从识别用户已提供最近输入的其它模块接收信息。输入处理模块接着将所述输入处理为所识别的用户的动作。
特征库模块540可包含脸部和眼睛掩模、模板、模型和其它数据,其用于处理图像,且识别用户物理特征和特征状态,例如用户的眼睛聚焦在哪一方向上。
图6是用于识别来自多个用户中的一者的输入的示范性方法的流程图。图6的方法可由计算装置120和125、130和140中的任一者执行。在步骤610处,计算装置识别参与的用户。参与的用户是可将输入提供给计算装置的那些用户。可通过向系统注册或图像处理来识别参与的用户。注册可包括每一用户将某一类的识别信息或它们存在的指示提供给计算装置。图像处理可包括:捕获用户可从中提供输入的区域的一或多个图像;检测人类头部的数目;以及将值指派给每一检测到的头部。在一些实施例中,可使用注册和图像处理两者来识别参与的用户。
一种用于经由图像处理检测人类头部的方法可以分析类似人类头部的形状的图像来开始。可使用对比度检测、运动检测和其它技术来识别形状。一旦检测到潜在的头部形状,就针对大部分人类头部共有的特征来分析头部候选者。所述特征可包含呈现鼻子、嘴巴或眼睛可能所处的位置的对比度、阴影或其它特征。如果候选头部满足阈值特征等级,那么可将所述头部候选者识别为参与的用户。用于检测图像中的脸部的其它方法是此项技术中已知的。
在步骤615处,定位每一用户的眼睛区域。检测参与用户的头部的眼睛区域可涉及搜索头部内眼睛所位于的区域周围的对比度、亮度或其它图像特性等级。在步骤620处,一旦定位到用户眼睛,就可针对每一参与用户校准眼睛行为。校准可包括屏幕上对参与用户指示用户的脸部应距计算装置的距离范围的指令,看屏幕上的特定点的指令以及其它方向。所述校准可使用户看计算装置的显示器上的不同点或热点,且当已知用户眼睛的焦点时,分析用户眼睛的图像。举例来说,图7A到7C说明当用户眼睛聚焦在不同区域上时的用户头部和眼睛。图7A说明具有眼睛714和712的用户头部710。眼睛714包含虹膜和瞳孔区域716,以及巩膜区域718和720。眼睛712包含虹膜和瞳孔区域722,以及巩膜区域724和726。当虹膜和瞳孔区域的左侧和右侧的巩膜面积大约相同时,可确定用户大约聚焦在正前方。当巩膜的面积在虹膜和瞳孔区域的右侧远大于在瞳孔和虹膜左侧的巩膜面积时,用户焦点可朝向用户的右侧(图7C)。类似地,当巩膜的面积在虹膜和瞳孔区域的右侧和下面远大于在瞳孔和虹膜左侧和上方的巩膜面积时,用户焦点可朝向用户的右上侧(图7D)。可通过在校准期间取用户眼睛的一组测量结果来得出聚焦程度以及对应的焦点。可记录用户的瞳孔、虹膜和其它对象的面积和位置,以用于后续跟踪用户眼睛。
在步骤625处,用户眼睛的跟踪开始。所述跟踪涉及捕获用户的连续图像。可处理所述图像,以跟踪和维持用户眼睛位置和焦点的知识。在一些实施例中,重复地捕获并存储所述图像,但接着如果未从任何用户接收到输入,那么丢弃所述图像。
在步骤630处,在屏幕热点处检测输入。所述输入可包含用户触摸计算控制台120、平板计算机220和移动装置320中的一者的触摸屏上的热点。所述热点可为屏幕上所显示的特定图像对象,例如字母、球、虚拟项目、文本或其它对象的图像。在步骤635处,识别眼睛聚焦在输入的热点位置上的用户。如上文所论述,可相对于校准过程确定眼睛位置。可以多种方式识别对应于特定输入的用户。举例来说,可确定每一用户的眼睛焦点,且可选择眼睛焦点距热点最近的用户。或者,可确定每一用户的眼睛焦点,直到在接收到输入的热点的阈值距离内检测到眼睛焦点为止。在一些实施例中,可基于用户的输入历史、眼睛焦点、是否期望来自用户的输入等,为每一用户确定输入的可能性。一旦输入与所识别的用户相关联,就在步骤640处,为所述特定用户处理热点处的输入。
图8是接收来自多个用户中的一者的输入的示范性计算装置的框图。计算装置800包含相机系统805(用户检测系统),其具有彩色相机810和IR相机815。用户830和835各自在彩色相机810的范围820以及IR相机815的范围825内。计算装置800包含具有热点840、845、850、855和860的触摸屏。在校准期间,所述系统可显示文本,其要求用户在系统捕获用户眼睛的图像时聚焦在特定的热点上。
当接收到输入时,计算装置800确定用户焦点,且将输入识别为来自聚焦在接收到输入的热点上的用户。举例来说,用户835已通过在热点855处按压屏幕来在热点855处提供输入。在接收到输入后,处理装置将即刻分析从彩色相机810、IR相机815或两者捕获的图像。从所述图像,将确定用户焦点。如果在处理所述图像之后,确定用户830具有焦点870,且确定用户835具有对应于热点855的焦点880,那么在热点855处接收到的输入将与用户835相关联。通过确定用户眼睛聚焦在何处,通过多个玩家所使用的装置接收到的输入可与多个玩家中的一者相关联。
图9说明可用以实施计算装置以结合现有技术使用的示范性计算系统900。图9的系统900可在类似于计算控制台120、平板计算机220和移动装置320的情境中实施。图9的计算系统900包含一或多个相机910、处理器915和存储器920。主存储器920部分地存储指令和数据,以供处理器915执行。主存储器920可在操作中时存储可执行代码。图9的系统900进一步包含大容量存储装置925、便携式存储媒体驱动器930、IR装置935、输出装置940、用户输入装置945、显示器950以及外围装置955。
相机910可包含能够捕获适合图像处理分析的一系列照片的一或多个相机。所述照片可嵌入在安装于系统外部的计算系统内。可经由总线960将相机910所捕获的图像提供给处理器915,其可执行存储在存储器920中的模块以为特征检测分析所述图像。
IR装置935可包含能够在非常低的光条件下捕获图像的IR相机。可与用于用户特征检测的彩色相机图像类似地处理IR图像。可经由总线960将从IR装置935捕获的图像发送到处理器915以供处理。
将图9中所示的组件描绘为经由单个总线990连接。然而,可经由一或多个数据输送构件来连接所述组件。举例来说,处理器单元915和主存储器920可经由本地微处理器总线连接,且大容量存储装置925、外围装置955、便携式存储装置930以及显示系统950可经由一或多个输入/输出(I/O)总线连接。
可用磁盘驱动器或光盘驱动器实施的大容量存储装置925为用于存储供处理器单元915使用的数据和指令的非易失性存储装置。大容量存储装置925可存储用于实施本发明的实施例的系统软件,以用于将所述软件加载到主存储器920中的目的。
便携式存储装置930结合便携式非易失性存储媒体(例如软盘、压缩光盘或数字视频光盘)而操作,以将数据和代码输入到图9的计算机系统900且从计算机系统900输出数据和代码。用于实施本发明的实施例的系统软件可存储在此便携式媒体上,且经由便携式存储装置930输入到计算机系统900。
输入装置945提供用户接口的一部分。输入装置945可包含字母数字小键盘,例如键盘,用于输入字母数字以及其它信息,或指点装置,例如鼠标、跟踪球、手写笔或光标方向键。另外,如图9中所示的系统900包含输出装置940。合适的输出装置的实例包含扬声器、打印机、网络接口和监视器。
显示系统950可包含液晶显示器(LCD)或其它合适显示装置。显示系统950接收纹理和图形信息,且处理所述信息以供输出到显示装置。显示系统950可包含触摸屏装置,其通过检测显示器的表面上的触摸来接收输入。经由总线960将接收所述触摸的像素传送到处理器915。
外围装置955可包含任何类型的计算机支持装置,以将额外功能性添加到计算机系统。举例来说,外围装置955可包含调制解调器或路由器。
图9的计算机系统900中所含有的组件为通常在计算机系统中找到的那些组件,其可适合结合本发明的实施例使用,且意在表示此项技术中众所周知的此些计算机组件的广泛类别。因此,图9的计算机系统900可为个人计算机、手持式计算装置、电话、移动计算装置、工作台、服务器、迷你计算机、大型计算机或任何其它计算装置。所述计算机还可包含不同总线配置、连网平台、多处理器平台等。可使用各种操作系统,包含尤尼斯(Unix)、哩纳克斯(Linux)、视窗(Windows)、麦金塔(Macintosh)OS、奔迈(Palm)OS,以及其它合适操作系统。
本文已出于说明和描述的目的呈现了所述技术的前述详细描述。所述描述无意为详尽的,或将所述技术限于所公开的精确形式。鉴于以上教示,许多修改和变化是可能的。选择所描述的实施例是为了最好地阐释所述技术的原理及其实际应用,以藉此使所属领域的技术人员能够在各种实施例中最佳利用所述技术,且具有适合所预期的特定使用的各种修改。希望所述技术的范围由所附权利要求书界定。

Claims (20)

1.一种用于通过装置接收输入的方法,其包括:
在存在所述装置的情况下,物理上识别多个用户;
通过所述装置从所述多个物理上存在的用户中的第一用户接收输入;以及
从所述多个用户中与所述输入相关联的一者检测物理状态。
2.根据权利要求1所述的方法,其中所述输入包含接收触摸屏显示器上的输入。
3.根据权利要求1所述的方法,其中检测物理状态包含检测所述第一用户的眼睛聚焦在热点上。
4.根据权利要求1所述的方法,其进一步包括在所述装置存在的情况下,物理上定位所述多个用户中的每一者的所述眼睛。
5.根据权利要求1所述的方法,其进一步包括将用户的眼睛焦点与显示器上的所述位置校准。
6.根据权利要求1所述的方法,其中在触摸屏显示器上的热点处检测所述输入,所述第一用户物理状态包含眼睛聚焦在所述热点上。
7.根据权利要求1所述的方法,其中检测物理状态包括处理所述第一用户的图像。
8.根据权利要求7所述的方法,其中处理图像包括在所述用户的图像中识别与所述第一用户的巩膜相关联的一或多个像素区域。
9.根据权利要求1所述的方法,其进一步包括为具有与所述输入相关联的物理状态的所述第一用户处理所述输入。
10.一种上面包含有程序的非暂时性计算机可读存储媒体,所述程序可由处理器执行以实施用于接收输入的方法,所述方法包括
在存在所述装置的情况下,物理上识别多个用户;
通过所述装置从所述多个物理上存在的用户中的第一用户接收输入;以及
从所述多个用户中与所述输入相关联的一者检测物理状态。
11.根据权利要求10所述的非暂时性计算机可读存储媒体,其中所述输入包含接收触摸屏显示器上的输入。
12.根据权利要求10所述的非暂时性计算机可读存储媒体,其中检测物理状态包括检测所述第一用户的眼睛聚焦在热点上。
13.根据权利要求10所述的非暂时性计算机可读存储媒体,所述方法进一步包括在所述装置存在的情况下,物理上定位所述多个用户中的每一者的所述眼睛。
14.根据权利要求10所述的非暂时性计算机可读存储媒体,所述方法进一步包括将用户的眼睛焦点与显示器上的所述位置校准。
15.根据权利要求10所述的非暂时性计算机可读存储媒体,其中在触摸屏显示器上的热点处检测所述输入,所述第一用户物理状态包含眼睛聚焦在所述热点上。
16.根据权利要求10所述的非暂时性计算机可读存储媒体,其中检测物理状态包含处理所述第一用户的图像。
17.根据权利要求16所述的非暂时性计算机可读存储媒体,其中处理图像包括在所述用户的图像中识别与所述第一用户的巩膜相关联的一或多个像素区域。
18.根据权利要求10所述的非暂时性计算机可读存储媒体,所述方法进一步包括为具有与所述输入相关联的物理状态的所述第一用户处理所述输入。
19.一种用于检测输入的系统,所述系统包括:
显示装置;
相机,其能够捕获彩色图像数据且将所述图像数据提供给处理器;
处理器,其经配置以执行一或多个模块
可执行特征检测模块,其存储在存储器中且经配置以检测用户的物理特征;
可执行用户焦点检测模块,其存储在存储器中,且经配置以检测用户眼睛的焦点;以及
可执行输入处理模块,其存储在存储器中,且经配置以从用户接收输入且处理所述输入。
20.根据权利要求19所述的系统,其进一步包括IR装置,其经配置以捕获一或多个用户的红外线图像。
CN201380022450.4A 2012-05-04 2013-04-04 通过眼睛跟踪进行的用户输入处理 Pending CN104520799A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/464,703 2012-05-04
US13/464,703 US9471763B2 (en) 2012-05-04 2012-05-04 User input processing with eye tracking
PCT/US2013/035331 WO2013165646A2 (en) 2012-05-04 2013-04-04 User input processing with eye tracking

Publications (1)

Publication Number Publication Date
CN104520799A true CN104520799A (zh) 2015-04-15

Family

ID=49512152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380022450.4A Pending CN104520799A (zh) 2012-05-04 2013-04-04 通过眼睛跟踪进行的用户输入处理

Country Status (9)

Country Link
US (3) US9471763B2 (zh)
EP (1) EP2845077A4 (zh)
JP (1) JP5974165B2 (zh)
KR (1) KR101705841B1 (zh)
CN (1) CN104520799A (zh)
BR (1) BR112014027343B1 (zh)
IN (1) IN2014MN02224A (zh)
RU (1) RU2608462C2 (zh)
WO (1) WO2013165646A2 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106066694A (zh) * 2016-05-30 2016-11-02 维沃移动通信有限公司 一种触摸屏操作响应的控制方法及终端
CN107092873A (zh) * 2017-04-08 2017-08-25 闲客智能(深圳)科技有限公司 一种眼动方向识别方法及装置
CN108062492A (zh) * 2016-11-07 2018-05-22 罗克韦尔自动化技术公司 基于标签的定位
CN108700933A (zh) * 2015-09-24 2018-10-23 托比股份公司 能够进行眼睛追踪的可穿戴设备

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
WO2015142228A1 (en) * 2014-03-18 2015-09-24 Telefonaktiebolaget L M Ericsson (Publ) Controlling a target device
CN104391567B (zh) * 2014-09-30 2017-10-31 深圳市魔眼科技有限公司 一种基于人眼跟踪的三维全息虚拟物体显示控制方法
CN104383681B (zh) * 2014-10-27 2016-03-30 腾讯科技(深圳)有限公司 游戏进程控制方法、装置和移动终端
KR101671838B1 (ko) 2015-06-17 2016-11-03 주식회사 비주얼캠프 시선 추적을 이용한 입력 장치
CN105159590B (zh) * 2015-08-27 2017-06-23 广东欧珀移动通信有限公司 一种控制用户终端的屏幕的方法及用户终端
DE102015222388A1 (de) 2015-11-13 2017-05-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug
CN105677845A (zh) 2016-01-06 2016-06-15 北京京东尚科信息技术有限公司 电子书籍的推送方法和装置
US10474231B2 (en) * 2017-08-16 2019-11-12 Industrial Technology Research Institute Eye tracking apparatus and method thereof
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
CA3117612A1 (en) * 2018-12-31 2020-07-09 Guardian Glass, LLC Systems and/or methods for parallax correction in large area transparent touch interfaces
US10890992B2 (en) * 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
CN110262673A (zh) * 2019-06-26 2019-09-20 广东技术师范大学 一种眼睛控制键盘打字的方法
US11800206B2 (en) * 2019-07-08 2023-10-24 Calumino Pty Ltd. Hybrid cameras
US11156831B2 (en) * 2019-12-31 2021-10-26 Tobii Ab Eye-tracking system and method for pupil detection, associated systems and computer programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101523895A (zh) * 2006-10-02 2009-09-02 索尼爱立信移动通讯有限公司 通过注视方向选择对焦区域
CN101593022A (zh) * 2009-06-30 2009-12-02 华南理工大学 一种基于指端跟踪的快速人机交互方法
US20100225595A1 (en) * 2009-03-03 2010-09-09 Microsoft Corporation Touch discrimination
CN102034088A (zh) * 2009-10-08 2011-04-27 托比技术股份公司 利用gpu的眼动跟踪

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
JP2000148396A (ja) * 1998-11-06 2000-05-26 Canon Inc 情報入力装置および方法
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
AU2002233323A1 (en) * 2001-02-09 2002-08-28 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
TW200622893A (en) * 2004-07-09 2006-07-01 Nokia Corp Cute user interface
JP2006201966A (ja) 2005-01-19 2006-08-03 Oki Electric Ind Co Ltd 端末装置
JP2007089732A (ja) * 2005-09-28 2007-04-12 Aruze Corp 入力装置
JP4649319B2 (ja) 2005-11-21 2011-03-09 日本電信電話株式会社 視線検出装置、視線検出方法、および視線検出プログラム
US7889244B2 (en) * 2005-12-27 2011-02-15 Panasonic Corporation Image processing apparatus
WO2008020614A1 (fr) * 2006-08-18 2008-02-21 Kaneka Corporation Procédé destiné à produire un polymère vinylique ramifié ayant un groupe fonctionnel
US8147316B2 (en) * 2006-10-10 2012-04-03 Wms Gaming, Inc. Multi-player, multi-touch table for use in wagering game systems
WO2008115287A2 (en) * 2006-10-18 2008-09-25 Efthimion Enterprises, Inc. Laser assisted microwave plasma spectroscopy
US8259169B2 (en) * 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8922480B1 (en) * 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
JP5305039B2 (ja) * 2010-03-25 2013-10-02 アイシン・エィ・ダブリュ株式会社 表示装置、表示方法、及び表示プログラム
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
JP5664064B2 (ja) 2010-09-22 2015-02-04 富士通株式会社 視線検出装置および補正係数算出プログラム
US20120081392A1 (en) * 2010-09-30 2012-04-05 Apple Inc. Electronic device operation adjustment based on face detection
US8717393B2 (en) * 2010-11-03 2014-05-06 Blackberry Limited System and method for controlling a display of a mobile device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR101797599B1 (ko) * 2011-06-30 2017-11-15 엘지이노텍 주식회사 백라이트 유닛 및 그를 이용한 디스플레이 장치
US20130033524A1 (en) * 2011-08-02 2013-02-07 Chin-Han Wang Method for performing display control in response to eye activities of a user, and associated apparatus
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
US20130201305A1 (en) * 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101523895A (zh) * 2006-10-02 2009-09-02 索尼爱立信移动通讯有限公司 通过注视方向选择对焦区域
US20100225595A1 (en) * 2009-03-03 2010-09-09 Microsoft Corporation Touch discrimination
CN101593022A (zh) * 2009-06-30 2009-12-02 华南理工大学 一种基于指端跟踪的快速人机交互方法
CN102034088A (zh) * 2009-10-08 2011-04-27 托比技术股份公司 利用gpu的眼动跟踪

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108700933A (zh) * 2015-09-24 2018-10-23 托比股份公司 能够进行眼睛追踪的可穿戴设备
CN106066694A (zh) * 2016-05-30 2016-11-02 维沃移动通信有限公司 一种触摸屏操作响应的控制方法及终端
CN108062492A (zh) * 2016-11-07 2018-05-22 罗克韦尔自动化技术公司 基于标签的定位
US10846492B2 (en) 2016-11-07 2020-11-24 Rockwell Automation Technologies, Inc. Tag based location
CN108062492B (zh) * 2016-11-07 2021-09-07 罗克韦尔自动化技术公司 基于标签定位的方法和电子装置
CN107092873A (zh) * 2017-04-08 2017-08-25 闲客智能(深圳)科技有限公司 一种眼动方向识别方法及装置

Also Published As

Publication number Publication date
EP2845077A4 (en) 2016-01-13
RU2014148784A (ru) 2016-06-27
KR101705841B1 (ko) 2017-02-10
EP2845077A2 (en) 2015-03-11
US20130293467A1 (en) 2013-11-07
JP5974165B2 (ja) 2016-08-23
WO2013165646A3 (en) 2015-03-26
US9471763B2 (en) 2016-10-18
BR112014027343B1 (pt) 2021-09-21
BR112014027343A2 (pt) 2017-07-18
US11650659B2 (en) 2023-05-16
RU2608462C2 (ru) 2017-01-18
US20200249751A1 (en) 2020-08-06
IN2014MN02224A (zh) 2015-10-09
JP2015521312A (ja) 2015-07-27
US20170139476A1 (en) 2017-05-18
KR20150032661A (ko) 2015-03-27
US10496159B2 (en) 2019-12-03
WO2013165646A2 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
US20210271340A1 (en) Gesture recognition devices and methods
US9489574B2 (en) Apparatus and method for enhancing user recognition
CN107003716B (zh) 投射型影像显示装置以及影像显示方法
US9039419B2 (en) Method and system for controlling skill acquisition interfaces
JP5885835B2 (ja) ユーザの眼球の動きによって操作可能なコンピュータ装置、およびそのコンピュータ装置を操作する方法
CN101501611B (zh) 用于监视用户在计算机屏幕处的活动以促进运动性的方法和装置
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
Calandra et al. Navigating wall-sized displays with the gaze: a proposal for cultural heritage.
US10620748B2 (en) Method and device for providing a touch-based user interface
Mock et al. Using touchscreen interaction data to predict cognitive workload
US9557825B2 (en) Finger position sensing and display
Ellavarason et al. A framework for assessing factors influencing user interaction for touch-based biometrics
Evans et al. Group Touch: Distinguishing tabletop users in group settings via statistical modeling of touch pairs
Roig-Maimó et al. Evaluation of a mobile head-tracker interface for accessibility
WO2010061448A1 (ja) 操作入力装置、情報処理装置及び選択ボタン特定方法
JP6492545B2 (ja) 情報処理装置、情報処理システム及びプログラム
KR101458295B1 (ko) 눈추적 기술을 이용한 키보드 입력 장치 및 그 입력 방법
He et al. Mobile
US11250242B2 (en) Eye tracking method and user terminal performing same
Moberg et al. Interacting with Hand Gestures in Augmented Reality: A Typing Study
Ellavarason Touch-screen Behavioural Biometrics on Mobile Devices
Srivastava et al. Design and Development of Gesture Recognition Based Virtual Mouse System
CN117271029A (zh) 控制方法和装置
Rådell Combining Eye Tracking and Gestures to Interact with a Computer System

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150415

RJ01 Rejection of invention patent application after publication