CN111602102A - 用于视觉人-机交互的方法和系统 - Google Patents

用于视觉人-机交互的方法和系统 Download PDF

Info

Publication number
CN111602102A
CN111602102A CN201980006404.2A CN201980006404A CN111602102A CN 111602102 A CN111602102 A CN 111602102A CN 201980006404 A CN201980006404 A CN 201980006404A CN 111602102 A CN111602102 A CN 111602102A
Authority
CN
China
Prior art keywords
user
gaze
point
display
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980006404.2A
Other languages
English (en)
Other versions
CN111602102B (zh
Inventor
皮尔·苏尔纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Eye AB
Original Assignee
Smart Eye AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Eye AB filed Critical Smart Eye AB
Publication of CN111602102A publication Critical patent/CN111602102A/zh
Application granted granted Critical
Publication of CN111602102B publication Critical patent/CN111602102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

披露了一种用于使用注视估计在用户(10)与机器(20)之间进行视觉交互的方法。该方法包括:在显示器(30)上显示初始元素和一个或多个另外的元素,每个另外的元素与该初始元素在空间上分离,由此每个另外的元素关于该初始元素的位置限定角范围;确定从第一注视点到第二注视点的方向位于由该用户选择的另外的元素限定的角范围内;以及向该机器发送用于执行与该所选元素相关联的功能的指令。还披露了一种用于使用注视估计在用户(10)与机器(20)之间进行视觉交互的系统(1)。该用户的注视点能够以相对低的精度进行确定。

Description

用于视觉人-机交互的方法和系统
技术领域
本发明涉及一种用于在用户与机器之间进行视觉交互的方法和系统。
背景技术
眼睛跟踪技术通过眼睛注视实现人-机交互。这些技术可以例如用于将文本输入到计算机中。在这种应用中,用户通常通过注视屏幕上示出的字母的图标来首先选择一个字母来“键入”。突出显示被注视的图标,并且用户通过例如眨眼或让他或她的注视短暂停留在已突出显示的图标上来最终确认选择。关于注视控制的文本输入的讨论可以在论文“Gazing with pEYEs:towards a universal input for various applications(注视pEYE:朝用于各种应用的通用输入)”(由A.Huckauf和M.H.Urbina撰写并发表于“《Proceedings of the 2008 symposium on Eye tracking research&applications(眼睛跟踪研究与应用的2008年座谈会会议记录)》”,ETRA'08,第51-54页,美国纽约州纽约市的ACM出版社(ACM))中找到。
文本输入和用户通过眼睛注视与显示器上示出的图形界面交互的其他应用通常要求以高精度确定注视方向。高精度通常要求眼睛跟踪系统相对于眼睛参数和闪烁参数进行准确校准,由于对闪烁生成和相机分辨率的照明要求,这增加了成本。另外,校准程序通常涉及一系列测量,其中,用户必须仔细看着一系列不同的目标。该程序是耗时的,并且许多用户认为很复杂。
US 2014/0354539中披露了一种降低准确校准需求的系统。如本文所披露的,用户通过用他或她的注视跟随屏幕上的移动图形控件来选择对操作系统的输入操作。如果注视的移动与图形控件的移动匹配,则选择与特定图形控件相关联的输入操作。尽管在US2014/0354539中披露的系统中降低了对准确校准的需求,但是该系统相当复杂,例如因为需要若干交互模式(单向和双向)。此外,一些用户可能发现用其注视跟随移动图形控件很困难或不方便,并且选择操作的过程也相当缓慢。
发明内容
鉴于前述内容,存在对用于视觉人-机交互的改进的或替代的方法的感知需求。
为了满足这一需求,根据本发明的第一方面,呈现了一种用于使用注视估计在用户与机器之间进行视觉交互的方法,其中,该方法包括激活交互模式,并且其中,该交互模式包括以下步骤:在显示器上显示初始元素,该初始元素具有固定位置;估计该用户的第一注视点;假设该用户正在注视该初始元素;在该显示器上显示一个或多个另外的元素,每个另外的元素与该机器的一个或多个功能相关联,并且具有与该初始元素的位置在空间上分离的固定位置,由此每个另外的元素关于该初始元素的位置限定角范围;估计该用户的第二注视点;确定从该第一注视点到该第二注视点的方向位于由该一个或多个另外的元素的所选另外的元素限定的角范围内;以及向该机器发送用于执行该一个或多个功能中的与该所选元素相关联的至少一个功能的指令。
当前眼睛跟踪系统通常能够以良好的准确度确定相对方向,即使由于误差消除而没有或仅有近似的初始校准。本发明基于不必使用移动图形用户界面元素来利用此属性的认识。在本发明中,图形用户界面元素不像在US 2014/0354539中披露的系统中那样在屏幕上移动。相反,用户经由他或她的注视相对于图形用户界面元素之一(即“初始元素”)的移动来选择功能。结果是一种用于视觉人-机交互的方法,该方法易于实施,并且由于其易于使用而以小风险的用户选择错误实现快速交互。
此外,因为不需要或仅需要眼睛跟踪系统的低精度校准,所以对例如相机分辨率和闪烁生成的要求相对低,这有助于降低成本。作为示例,通常不需要关于闪烁参数和/或视觉轴线参数的校准。
该激活步骤可以包括以下步骤中的至少一个步骤:确定该用户的注视点在距预定区域预定距离内;确定该用户的注视点正朝预定区域移动;确定该用户的注视点固定在预定区域处持续预定量的时间;检测姿势;检测声音;以及接收来自手动输入设备的命令。预定区域可以例如是显示器的观看区域。手动输入设备可以例如是按钮、旋钮或棒。
该方法可以包括,在该发送步骤之前,在视觉上指示该所选另外的元素的步骤。该视觉上指示步骤的目的是通知该用户他或她已经选择了哪个另外的元素。因此,降低了执行除了用户想要的功能之外的功能的风险。
该视觉上指示步骤可以例如包括突出显示该所选另外的元素。突出显示该所选另外的元素可以例如包括以下操作中的至少一个:改变该所选另外的元素的颜色、形状或大小;使该所选另外的元素变亮或变暗;使该所选另外的元素褪色;以及从显示器移除非所选另外的元素。进一步地,该视觉上指示步骤可以包括用一个或多个不同的图形用户界面元素替换该所选另外的元素。例如,该所选另外的元素可以被表示菜单的图形用户元素替换,该菜单允许用户在不同的选项之间进行选择。仍进一步地,该视觉上指示步骤可以包括在该显示器上移动该所选另外的元素。在这种情况下,当机器的操作以某种方式改变时,该所选另外的元素可以在屏幕上移动,该所选另外的元素的移动因此是操作改变的视觉表示。例如,当汽车收音机的音量或汽车内的温度被调节时,该所选另外的元素可以在屏幕上移动。
该方法可以包括在该发送步骤之前,从该用户接收确认以执行该一个或多个功能中的与该所选另外的元素相关联的该至少一个功能的步骤。接收步骤的目的是允许用户发送所选功能是他或她旨在选择的功能的确认。因此,降低了执行除了用户想要的功能之外的功能的风险。该接收步骤可以包括以下步骤中的至少一个:确定该用户的注视固定在该第二注视点处持续预定量的时间;检测该用户眨眼;检测姿势;检测声音;以及接收来自手动输入设备的命令。
该方法可以包括基于该初始元素的位置和该第一注视点校准眼睛跟踪器。该第一注视点的位置和该初始元素的位置可以是不同的,并且位置信息可以用于校准眼睛跟踪器,以提高其准确度。
根据本发明的第二方面,呈现了一种用于使用注视估计在用户与机器之间进行视觉交互的系统,该系统包括:图形模块,该图形模块被配置成在显示器上显示初始元素和至少一个另外的元素,该初始元素具有固定位置,每个另外的元素与该机器的一个或多个功能相关联,并且具有与该初始元素的位置在空间上分离的固定位置,由此每个另外的元素关于该初始元素的位置限定角范围;眼睛跟踪器,该眼睛跟踪器被配置成估计该用户的第一注视点和第二注视点;以及处理电路系统,该处理电路系统连接至该图形模块和该眼睛跟踪器,该处理电路系统被配置成确定从该第一注视点到该第二注视点的方向位于由该一个或多个另外的元素的所选另外的元素限定的角范围内,并且发送指示该机器执行该一个或多个功能中的与该所选元素相关联的至少一个功能的信号。
本发明的第二方面的效果和特征基本上类似于以上所描述的本发明的第一方面的效果和特征。
该图形模块可以被配置成向该用户视觉上指示该所选另外的元素。例如,该图形模块可以被配置成突出显示该所选另外的元素。作为另一个示例,该图形模块可以被配置成在该显示器上移动该所选另外的元素。
该处理电路系统被配置成从该用户接收确认以执行该一个或多个功能中的与该所选另外的元素相关联的该至少一个功能。
该眼睛跟踪器可以被配置成基于该初始元素的位置和该第一注视点进行校准。
附图说明
将参考附图更详细地描述本发明,在附图中:
图1示出了根据本发明的实施例的用于使用注视估计在用户与机器之间进行视觉交互的系统的示意图;
图2a、图2b、图2c、图2d和图2e示出了图1中系统的一部分在其使用期间的示意图;
图3示出了根据本发明的实施例的用于使用注视估计在用户与机器之间进行视觉交互的方法的流程图;以及
图4示意性地示出了根据本发明的实施例的配备有用于使用注视估计在用户与机器之间进行视觉交互的系统的车辆的内部视图。
贯穿全文,相同的附图标记指代相同的要素。
具体实施方式
图1示出了用于在用户10(由眼睛示意性地表示)与使用注视估计的机器20之间进行视觉交互的系统1的透视图。用户10可以使用他或她的注视经由显示器30选择机器20的功能。显示器30在此是平板显示器,具体地说是使用发光二极管的平板显示器,但是系统1可以与其他类型的显示器一起使用。机器20可以例如是与车辆集成的一件设备。这种设备件的示例包括汽车收音机和汽车气候控制系统。在这种情况下,机器20的功能可以例如是改变无线电频率或打开或关掉加热。作为另一个实例,机器20可以是计算机,比如台式计算机或平板计算机。在这种情况下,机器20的功能可以例如是执行存储在计算机上的一段软件,或使用显示器30上示出的虚拟键盘来键入字母。作为又另一个示例,机器20可以是计算机网络中的设备,并且可以被配置成例如经由远程程序调用(Remote Procedure Call)在网络中的其他设备上远程执行程序。因此,应该清楚的是,本文所使用的术语“机器”和“功能”意旨被广义地解释。
如图1中所展示的,系统1包括被配置成在显示器30上显示图形用户界面的图形模块2。图形模块1与显示器30之间的连接在这种情况下是有线连接,但是在不同的示例中可以是无线连接。
系统1进一步包括眼睛跟踪器3。在这种情况下,眼睛跟踪器3是常规类型的,并且位于显示器30下方。然而,在不同的示例中,眼睛跟踪器3可以具有不同的位置。眼睛跟踪器3被配置成估计用户10正在注视的位置。
系统1包括连接至图形模块2、眼睛跟踪器3和机器20的处理电路系统4。在这种情况下,处理电路系统4经由有线连接而连接至这些部件。然而,可设想的是使用无线连接来代替有线连接。处理电路系统4被配置成控制图形模块2,并从眼睛跟踪器2接收关于用户10的注视11的位置的数据。进一步地,当用户10移动他或她的注视11时,处理电路系统4在此被配置成使用位置信息来确定注视11移动的方向。处理电路系统4还被配置成向机器20发送指令。
应注意,尽管图形模块2、眼睛跟踪器3和处理电路系统4在图1中被展示为独立的部件,但在不同的示例中,情况可能是这样或可能不是这样。例如,图形模块2可以与处理电路系统4集成。作为另一个示例,图形模块2和处理电路系统4可以与眼睛跟踪器3集成。因此,在不同的示例中,这些部件中的一些或所有可以形成单个单元的一部分。
在使用中,系统1如以下参考图2a、图2b、图2c、图2d、图2e和图3以及继续参考图1所描述的那样操作。图2a示出了显示器30在比图2b、图2c、图2d和图2e更早的时间点的前视图,这些图示出了显示器30的透视图。
在步骤S1中,系统1的交互模式被激活。当交互模式被激活时,用户10可以在视觉上与系统1交互。在这种情况下,当眼睛跟踪器3估计用户的注视11位于在距显示器30预定距离d处时(参见图2a),系统1进入交互模式。因此,交互模式在此被自动激活。应注意,存在交互模式可以被激活的其他方式。例如,系统1可以被配置成当用户10的注视11被估计为朝显示器30移动或位于距显示器30上的区域或点预定距离处或朝距该显示器上的该区域或该点预定距离移动时进入交互模式。进一步地,系统1可以被配置成使得用户10可以手动激活交互模式,例如通过发出声音或做手势。替代性地或另外地,系统1可以包括手动输入设备以允许用户10向系统1发送命令,使得系统1切换到交互模式。这种手动输入设备可以例如是计算机鼠标或汽车内控制面板上的旋钮或按钮。
系统1可以被配置成使得当用户10将注视11背离显示器30移动时,系统1离开交互模式。在这种情况下,用户10可以通过将注视背离显示器30移动来随时取消选择过程。例如,如果用户10取消选择过程,则系统1可以被适配成将显示器30变暗。
在步骤S2中,在交互模式已经被激活之后,图形模块2在显示器30上显示初始元素31(参见图2a)。初始元素31在此是图形用户界面元素。初始元素31在显示器30上具有固定位置,因此初始元素31不会在显示器30上移动。在这种情况下,初始元素31具有圆形形状,并且位于显示器30的中心处。当然,初始元素31通常可以具有被认为适合的任何位置和形状。
在步骤S3中,眼睛跟踪器3估计用户10的第一注视点12(参见图2b)。眼睛跟踪器3通常连续地跟踪用户10的注视11,并且可以将第一注视点12估计为在超过所需时间段内恒定的注视点,这指示用户10已经将她/他的注视停留在初始元素31上。在显示器30上首次示出初始元素31之后,处理电路系统4可以等待预定量的时间以供眼睛跟踪器3提供第一注视点12。如果在预定时间内没有获得注视点(即,眼睛跟踪器3无法确定用户10已经聚焦了他/她的注视),或如果处理电路系统4接收到不在初始元素31附近的注视点,则处理电路系统4可以指示图形模块2从显示器30移除初始元素,并且处理返回到步骤S1。
取决于眼睛跟踪器3的校准,所估计第一注视点12可以或可以不对应于初始元素31的位置。从图2b中可以看出,在这种情况下,第一注视点12不位于初始元素31上。换句话说,用户10观察初始元素31,但是由于眼睛跟踪器3的不完美的校准,所估计注视点稍微偏移。
应注意,眼睛跟踪器3可以被适配成通过首先估计两个注视点(用户10的每只眼睛一个注视点)来估计第一注视点12,并且然后基于这两个注视点来确定第一注视点12,例如通过取其平均值。确定用户10的注视的这种方式使得系统1针对例如可能使眼睛跟踪器3暂时失去对用户10的眼睛之一的跟踪的事件(比如眨眼)相对鲁棒。
在步骤S4中,处理电路系统4假设用户10正在注视初始元素31。处理电路系统4通常在已经估计第一注视点12之后立即做出这一假设,使得用户10没有时间移动他或她的注视11。
在步骤S5中,在以上所描述的步骤S4之后,图形模块2在显示器30上显示一个或多个另外的元素32a、32b、32c、32d(参见图2b)。在这种情况下,显示器30上显示有四个另外的元素32a、32b、32c、32d,但是通常另外的元素32a、32b、32c、32d的数量可以大于或小于四个。另外的元素32a、32b、32c、32d中的每一个是图形用户界面元素,并且与机器20的功能相关联。另外的元素32a、32b、32c、32d在显示器30上具有对应的固定位置。因此,另外的元素32a、32b、32c、32d不在显示器30上移动。另外的元素32a、32b、32c、32d的位置与初始元素31的位置在空间上分离。在所展示的示例中,四个另外的元素32a、32b、32c、32d通常分别位于初始元素31的上方、下方、右侧和左侧。在不同的示例中,另外的元素32a、32b、32c、32d当然可以具有相对于初始元素31的其他位置。初始元素31在此不与另外的元素32a、32b、32c、32d中的任何一个重叠,但是在不同的示例中,情况可能是这样或可能不是这样。在这种情况下,另外的元素32a、32b、32c、32d是楔形的,并且被布置成形成馅饼形菜单。然而,另外的元素32a、32b、32c、32d不限于任何特定的形状或配置。因此,另外的元素32a、32b、32c、32d可以例如是圆形或矩形的,并且不必形成馅饼形菜单。
另外的元素32a、32b、32c、32d相对于初始元素31限定对应的角范围αa、αb、αc、αd。如图2b所展示的,例如,在这种情况下,角范围αa可以被视为对应于圆的扇区,该圆以初始元素31为中心,并且该扇区覆盖另外的元素32a。在这种情况下,角范围αa、αb、αc、αd加起来为完整的圆,但是在不同的示例中可能是这样或可能不是这样。
如在图2b中还可以看出,在这种情况下,角范围αa、αb、αc、αd中的每一个对应于四分之一圆。换句话说,角范围αa、αb、αc、αd中的每一个具有90°的“宽度”。然而,在不同的示例中,角范围可以具有不同的宽度,并且角范围中的所有角范围不必具有相同的宽度。通常,角范围的宽度取决于例如另外的元素的数量、另外的元素的大小以及另外的元素在显示器上的位置。
在步骤S6中,眼睛跟踪器3估计注视11被引导到第二注视点13处(参见图2c)。具体地,用户10可以通过移动注视11来选择另外的元素32a、32b、32c、32d之一。在图2c所展示的示例中,用户10向右移动注视11,以便选择位于初始元素31右侧的另外的元素32b。在检测到用户10的注视11已经移动时,眼睛跟踪器3估计注视11被引导到第二注视点13处。通常,第二注视点13可以或可以不位于用户10旨在选择的另外的元素上。从图2c中可以看出,在这种情况下,第二注视点13不位于在初始元素31右侧的另外的元素32b上。
应注意,当估计第二注视点13时,眼睛跟踪器3可以被适配成利用用户10的两只眼睛注视(也参见以上结合步骤S3的讨论)。
在步骤S7中,处理电路系统4确定从第一注视点12到第二注视点13的方向D。在这种情况下,方向D是直接向右的。方向D可以以若干种不同的方式来确定。方向D可以例如通过找到从第一注视点12到第二注视点13的矢量的方向角来确定。作为另一个示例,方向D可以通过找到从第一注视点12到第二注视点13的矢量来确定,这包括确定矢量的方向角和长度。
处理电路系统4将已确定方向D与由另外的元素32a、32b、32c、32d限定的角范围αa、αb、αc、αd进行比较。在这种情况下,已确定方向D位于由另外的元素32b限定的角范围αb内,并且因此,处理电路系统4确定用户10已经选择了另外的元素32b。因此,用户10的选择是由相对注视移动而不是绝对注视方向确定的。
应注意,只要方向D在角范围αb内,处理电路系统4就确定已经选择了另外的元素32b。因此,在这种情况下,用户10不必为了选择另外的元素32b而将注视11直接向右移动,而是可以在指向向右并且稍微向上或向下的方向上移动注视11。
进一步地,应注意,在不同的示例中,可能存在不对应于另外的元素的方向,因为例如由这些另外的元素限定的角范围加起来不是完整的圆。在这种情况下,如果确定方向D不位于角范围之一内,则系统1可以例如被适配成简单地等待用户10再次移动注视11和/或向用户10发信号通知他或她需要再次移动注视11以作出选择。
在可选的步骤S8中,图形模块2在视觉上指示右侧的另外的元素32b(参见图2c、图2d和图2e)。由此,用户10看到他或她已经选择了哪个另外的元素。在这种情况下,处理电路系统4指示图形模块3在视觉上指示另外的元素32a、32b、32c、32d中的哪一个。
存在若干种方式可以使图形模块2在视觉上指示用户10已经选择了另外的元素32a、32b、32c、32d中的哪一个。所选另外的元素可以例如点亮(参见图2c)。作为另一个示例,图形模块2可以通过用表示向用户10呈现新选项的菜单的另外的图形用户元素替换所选另外的元素来在视觉上指示所选另外的元素(参见图2d)。因此,图形模块2可以被适配成向用户10呈现分级菜单。使用分级菜单是将另外的元素与机器20的若干功能相关联的一种方式。进一步地,图形模块2可以通过例如在显示器30上移动所选另外的元素(参见图2e)、旋转所选另外的元素和/或使所选另外的元素脉动来在视觉上指示所选另外的元素。
应注意,系统1可以被配置成向用户10指示他或她以非视觉方式选择了哪个另外的元素32a、32b、32c、32d。例如,系统1可以能够经由扬声器给出音频指示,比如语音消息或声音信号。
在可选的步骤S9中,系统1在此从用户10接收确认,该确认为视觉上指示的另外的元素32b是用户10旨在选择的元素。存在允许用户10确认他或她的选择的若干替代方案。系统1可以例如被配置成使得用户10可以通过以下至少一种方式来确认选择:眨眼;做手势;发出声音;以及将注视11固定在第二注视点13处或第二注视点13周围的区域持续预定量的时间。替代性地或另外地,系统1可以被配置成使得用户可以通过使用比如按钮、旋钮或棒等手动输入设备向系统1发送命令来确认选择。
应注意,系统1可以被配置成使得用户10可以“取消选择”另外的元素,该另外的元素已经被视觉上指示但不是用户10旨在选择的元素。例如,用户10可能能够通过将注视11背离第二注视点13移动来取消选择视觉上指示的另外的元素。替代性地或另外地,系统1可以被配置成使得用户可以通过使用比如按钮、旋钮或棒等手动输入设备向系统1发送命令来取消选择视觉上指示的另外的元素。
在步骤S10中,在已经从用户10接收到确认之后,处理电路系统4发送指示机器20执行与所选另外的元素32b相关联的功能的信号。机器20然后执行用户10已经选择的功能。
在可选的步骤S11中,眼睛跟踪器3在此基于初始元素31的位置和所估计第一注视点12来校准。例如,眼睛跟踪器3可以自动校准,即眼睛跟踪器3可以自身校准。应注意,校准步骤S11可以在步骤S6中估计第二注视点13之后的任何时间发生。
现在转到图4,示出了配备有使用注视估计进行人-机交互的系统1的车辆40的内部视图。图4中的系统1类似于以上关于图1至图3所描述的系统。在这种情况下,车辆40是汽车,但是系统1可以集成在其他道路车辆中,比如卡车,并且也可以集成在飞行器和船只中,比如飞机和船。汽车40具有连接至系统1的三个显示器30’、30”、30’”。每个显示器30’、30”、30’”与一个或多个与汽车集成的机器相关联,比如音频系统、气候控制系统等。汽车40的驾驶员可以用他或她的注视来控制机器。在使用中,系统1通常使用眼睛跟踪器3连续地监测驾驶员的注视。当检测到驾驶员的注视被引导到显示器30’、30”、30’”之一附近超过预定量时间时,系统1进入交互模式并在该特定显示器上示出初始元素。驾驶员然后可以以上文关于图1至图3所描述的方式选择与该特定显示器相关联的(多个)机器的功能。
本领域的技术人员认识到,本发明绝不局限于以上所描述的优选实施例。相反地,在所附权利要求的范围内,许多修改和变化是可能的。例如,可以同时执行步骤S1至S10中的一些步骤,比如视觉上指示步骤S8和发送步骤S10。
在权利要求中,置于括号之间的任何附图标记都不应解释为对权利要求进行限制。词语“包括(comprising)”不排除存在除权利要求中列出的元素或步骤之外的其他元素或步骤。在元素前的词语“一个(a)”或“一种(an)”并不排除存在多个这种元素。

Claims (14)

1.一种用于使用注视估计在用户(10)与机器(20)之间进行视觉交互的方法,其中,该方法包括激活(S1)交互模式,并且其中,该交互模式包括以下步骤:
在显示器(30;30’,30”,30’”)上显示(S2)初始元素(31),该初始元素(31)具有固定位置;
估计(S3)该用户的第一注视点(12);
假设(S4)该用户(10)正在注视该初始元素(31);
在该显示器(30;30’,30”,30’”)上显示(S5)一个或多个另外的元素(32a,32b,32c,32d),每个另外的元素(32a,32b,32c,32d)与该机器(20)的一个或多个功能相关联,并且具有与该初始元素(31)的位置在空间上分离的固定位置,由此每个另外的元素(32a,32b,32c,32d)关于该初始元素(31)的位置限定角范围(αa,αb,αc,αd);
估计(S6)该用户(10)的第二注视点(13);
确定(S7)从该第一注视点(12)到该第二注视点(13)的方向位于由所述一个或多个另外的元素(32a,32b,32c,32d)中的所选另外的元素(32b)限定的角范围(αa,αb,αc,αd)内;以及
向该机器(20)发送(S10)用于执行该一个或多个功能中的与该所选元素(32b)相关联的至少一个功能的指令。
2.根据权利要求1所述的方法,其中,该激活步骤(S1)包括以下步骤中的至少一个:确定该用户(10)的注视点在距预定区域预定距离内;确定该用户(10)的注视点正朝预定区域移动;确定该用户(10)的注视点固定在预定区域处持续预定量的时间;检测姿势;检测声音;以及接收来自手动输入设备的命令。
3.根据权利要求1或2所述的方法,包括,在该发送步骤(S10)之前,在视觉上指示(S8)该所选另外的元素(32b)的步骤。
4.根据权利要求3所述的方法,其中,该视觉上指示步骤(S8)包括突出显示该所选另外的元素(32b)。
5.根据权利要求3或4所述的方法,其中,该视觉上指示步骤(S8)包括在该显示器(30;30’,30”,30’”)上移动该所选另外的元素(32b)。
6.根据前述权利要求中任一项所述的方法,包括,在该发送步骤(S10)之前,从该用户(10)接收(S9)确认以执行该一个或多个功能中的与该所选另外的元素(32b)相关联的所述至少一个功能的步骤。
7.根据权利要求6所述的方法,其中,该接收步骤(S9)包括以下步骤中的至少一个:确定该用户(10)的注视(11)固定在该第二注视点(13)处持续预定量的时间;检测该用户(10)的眨眼;检测姿势;检测声音;以及接收来自手动输入设备的命令。
8.根据前述权利要求中任一项所述的方法,包括基于该初始元素(31)的位置和该第一注视点(12)校准(S11)眼睛跟踪器(3)。
9.一种用于使用注视估计在用户(10)与机器(20)之间进行视觉交互的系统(1),该系统包括:
图形模块(2),该图形模块被配置成在显示器(30;30’,30”,30’”)上显示初始元素(31)和至少一个另外的元素(32a,32b,32c,32d),该初始元素(31)具有固定位置,每个另外的元素(32a,32b,32c,32d)与该机器(20)的一个或多个功能相关联,并且具有与该初始元素(31)的位置在空间上分离的固定位置,由此每个另外的元素(32a,32b,32c,32d)关于该初始元素(31)的位置限定角范围(αa,αb,αc,αd);
眼睛跟踪器(3),该眼睛跟踪器被配置成估计该用户(10)的第一注视点(12)和第二注视点(13);以及
处理电路系统(4),该处理电路系统连接至该图形模块(2)和该眼睛跟踪器(3),该处理电路系统(4)被配置成
确定从该第一注视点(12)到该第二注视点(13)的方向位于由所述一个或多个另外的元素(32a,32b,32c,32d)中的所选另外的元素(32b)限定的角范围(αa,αb,αc,αd)内,并且
发送指示该机器(20)执行该一个或多个功能中的与该所选元素(32b)相关联的至少一个功能的信号。
10.根据权利要求9所述的系统(1),其中,该图形模块(2)被配置成向该用户(10)视觉上指示该所选另外的元素(32b)。
11.根据权利要求9或10所述的系统(1),其中,该图形模块(2)被配置成突出显示该所选另外的元素(32b)。
12.根据权利要求9至11之一所述的系统(1),其中,该图形模块(2)被配置成在该显示器(30;30’,30”,30’”)上移动该所选另外的元素(32b)。
13.根据权利要求9至12之一所述的系统(1),其中,该处理电路系统(4)被配置成从该用户(10)接收确认以执行该一个或多个功能中的与该所选另外的元素(32b)相关联的所述至少一个功能。
14.根据权利要求9至13之一所述的系统(1),其中,该眼睛跟踪器(3)被配置成基于该初始元素(31)的位置和该第一注视点(12)进行校准。
CN201980006404.2A 2018-02-06 2019-02-05 用于视觉人-机交互的方法和系统 Active CN111602102B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18155213.4 2018-02-06
EP18155213.4A EP3521977B1 (en) 2018-02-06 2018-02-06 A method and a system for visual human-machine interaction
PCT/EP2019/052728 WO2019154789A1 (en) 2018-02-06 2019-02-05 A method and a system for visual human-machine interaction

Publications (2)

Publication Number Publication Date
CN111602102A true CN111602102A (zh) 2020-08-28
CN111602102B CN111602102B (zh) 2023-04-04

Family

ID=61192673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980006404.2A Active CN111602102B (zh) 2018-02-06 2019-02-05 用于视觉人-机交互的方法和系统

Country Status (4)

Country Link
US (1) US10963048B2 (zh)
EP (1) EP3521977B1 (zh)
CN (1) CN111602102B (zh)
WO (1) WO2019154789A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192570B2 (ja) * 2019-02-27 2022-12-20 株式会社Jvcケンウッド 記録再生装置、記録再生方法およびプログラム
US20210276575A1 (en) * 2020-03-04 2021-09-09 Ford Global Technologies, Llc Vehicle component identification system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140247210A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Zonal gaze driven interaction
US20140354539A1 (en) * 2013-05-30 2014-12-04 Tobii Technology Ab Gaze-controlled user interface with multimodal input
US20150177833A1 (en) * 2013-12-23 2015-06-25 Tobii Technology Ab Eye Gaze Determination
US20160139665A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
WO2016161954A1 (en) * 2015-04-10 2016-10-13 Beijing Zhigu Rui Tuo Tech Co., Ltd. Information acquiring method, information acquiring apparatus, and user equipment
US20170123492A1 (en) * 2014-05-09 2017-05-04 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US20170123491A1 (en) * 2014-03-17 2017-05-04 Itu Business Development A/S Computer-implemented gaze interaction method and apparatus
US20170182414A1 (en) * 2015-12-29 2017-06-29 Bandai Namco Entertainment Inc. Game device, processing method, and information storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1979802A4 (en) * 2006-02-01 2013-01-09 Tobii Technology Ab CREATING GRAPHIC FEEDBACK IN A COMPUTER SYSTEM
US20140368442A1 (en) * 2013-06-13 2014-12-18 Nokia Corporation Apparatus and associated methods for touch user input
JP2016529635A (ja) * 2013-08-27 2016-09-23 オークランド ユニサービシズ リミテッド 凝視制御インターフェース方法およびシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140247210A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Zonal gaze driven interaction
US20140354539A1 (en) * 2013-05-30 2014-12-04 Tobii Technology Ab Gaze-controlled user interface with multimodal input
US20150177833A1 (en) * 2013-12-23 2015-06-25 Tobii Technology Ab Eye Gaze Determination
US20170123491A1 (en) * 2014-03-17 2017-05-04 Itu Business Development A/S Computer-implemented gaze interaction method and apparatus
US20170123492A1 (en) * 2014-05-09 2017-05-04 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US20160139665A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
WO2016161954A1 (en) * 2015-04-10 2016-10-13 Beijing Zhigu Rui Tuo Tech Co., Ltd. Information acquiring method, information acquiring apparatus, and user equipment
US20170182414A1 (en) * 2015-12-29 2017-06-29 Bandai Namco Entertainment Inc. Game device, processing method, and information storage medium

Also Published As

Publication number Publication date
US10963048B2 (en) 2021-03-30
US20200379558A1 (en) 2020-12-03
CN111602102B (zh) 2023-04-04
EP3521977A1 (en) 2019-08-07
WO2019154789A1 (en) 2019-08-15
EP3521977B1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US11003242B2 (en) Eye tracking
JP2019197575A (ja) 一つの制御装置及び触覚効果を利用可能なユーザインターフェースを使用して複数のディスプレイを制御するシステム並びに方法
EP3299951A2 (en) Light-based touch controls on a steering wheel and dashboard
US8416219B2 (en) Operating device and operating system
CN110395182B (zh) 具有电子后视镜的机动车
US20140095031A1 (en) Sunroof Control Interface Utilizing Position Presets
CN112384403B (zh) 用于运行显示操作设备的方法、显示操作设备以及机动车
CN109507799A (zh) 车载hud显示方法和系统
CN111602102B (zh) 用于视觉人-机交互的方法和系统
JP2008195141A (ja) 車載機器の操作支援装置、操作支援方法
JP6375715B2 (ja) 視線入力装置
JP6018775B2 (ja) 車載機器の表示制御装置
JP2019192124A (ja) スイッチ装置および制御装置
US20160170507A1 (en) Touch pad module, remote input system, and method of controlling a remote input system
US10809872B2 (en) Display control device
US20190155560A1 (en) Multi-display control apparatus and method thereof
JP5860746B2 (ja) 空調機器の表示制御装置
CN106289305A (zh) 车载显示装置
JP2016018558A (ja) ヒューマンマシンインタラクションを支援する装置及び方法
JP2018162023A (ja) 操作装置
KR20180127042A (ko) 운전자 통합 정보 시스템의 퀵메뉴 제공장치 및 방법
US10452225B2 (en) Vehicular input device and method of controlling vehicular input device
JP6525504B2 (ja) 入力装置および操作入力方法
CN116783087A (zh) 用于提高在操作设备期间的安全性的方法
CN111806463A (zh) 用于展现交通工具的操作模式切换的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant