CN102473033A - 一种注视点检测方法及其装置 - Google Patents

一种注视点检测方法及其装置 Download PDF

Info

Publication number
CN102473033A
CN102473033A CN2009801598984A CN200980159898A CN102473033A CN 102473033 A CN102473033 A CN 102473033A CN 2009801598984 A CN2009801598984 A CN 2009801598984A CN 200980159898 A CN200980159898 A CN 200980159898A CN 102473033 A CN102473033 A CN 102473033A
Authority
CN
China
Prior art keywords
user
blinkpunkt
camera
reference table
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2009801598984A
Other languages
English (en)
Other versions
CN102473033B (zh
Inventor
庄珑鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yuanyuan Assets Group Co ltd
Alcatel Lucent SAS
Original Assignee
Yuanyuan Assets Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yuanyuan Assets Group Co ltd filed Critical Yuanyuan Assets Group Co ltd
Publication of CN102473033A publication Critical patent/CN102473033A/zh
Application granted granted Critical
Publication of CN102473033B publication Critical patent/CN102473033B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

提出一种基于脸部检测和图像测量的注视点检测方法和装置。该装置包括:摄像头,参考表获取单元和计算单元。摄像头用于捕获用户的脸部图像;参考表获取单元用于获取包括参考脸部图像与用户视线方向之间的关系的参考表;计算单元,根据摄像头所捕获的用户的脸部图像来执行图像测量,并查找参考表获取单元中的参考表以计算用户在屏幕上的注视点。

Description

种注视点检测方法及其装置 技术领域
本发明的实施例涉及图像处理领域, 具体涉及一种基于脸部检测 和图像测量的注视点检测方法和装置。 背景技术
随着图像处理技术的不断发展, 在当今的视频显示屏 (例如台式 计算机或膝上计算机的屏幕, 或电视机的屏幕, 等等) 上, 当用户希 望将光标从屛幕上的某个区域移动到其他区域时, 该用户通常需要使 用附属设备 (例如鼠标或触摸板, 或是遥控器) 来完成该动作。
然而, 对于某些用户来说, 手的活动由于某些原因而受到限制, 例如生理上的残疾或受到外伤, 因而上述光标移动会变得艰难甚至无 法实现。 另外, 即使手的活动功能正常, 在某些特殊情况下, 也希望 无需用手便能够执行上述的光标移动, 或者尽可能地减少手的移动距 离。
除此之外, 即使不移动光标, 某些应用也需要检测用户在显示屏 上的注视点, 以便进行后续的处理和操作。
如今, 摄像头不断普及、 成熟脸部检测算法的不断涌现, 使得基 于摄像头的视频图像的检测变得可行。 为此, 需要一种利用摄像头的 注视点检测技术, 以检测用户在显示屏上的注视点。 发明内容
本发明的一个方面提供了一种注视点检测装置, 用于计算用户在 屏幕上的注视点, 所述装置包括: 摄像头, 用于捕获用户的脸部图像; 参考表获取单元, 用于获取包括参考脸部图像与用户视线方向之间的 关系的参考表; 以及计算单元, 根据摄像头所捕获的用户的脸部图像 来执行图像测量, 并査找参考表获取单元中的参考表, 以计算用户在 屏幕上的注视点。
优选地, 参考表获取单元包括以下至少一项: 参考表构建单元, 根据摄像头所捕获的用户的至少一个参考脸部图像来构建参考表; 以 及参考表存储单元, 其中存储有已经构建好的参考表。
优选地,计算单元包括:视线方向计算单元,根据摄像头的位置, 测量用户脸部图像中用户的两个瞳孔之间的中点与摄像头的距离, 并 通过查找参考表计算用户的视线方向; 以及注视点计算单元, 根据摄 像头的位置、 用户的两个瞳孔之间的中点与摄像头的距离以及用户的 视线方向, 计算用户在屏幕上的注视点。
优选地, 注视点检测装置还包括: 光标移动单元, 在计算出注视 点后, 如果该注视点位于屏幕之内, 则光标移动单元将屏幕上的光标 移动到注视点。
优选地, 如果注视点与当前光标之间的距离小于预定义值, 则光 标移动单元不移动光标。
优选地, 注视点检测装置还包括: 附属单元, 用于在光标位置处 执行操作。 优选地, 附属单元包括鼠标、 键盘、 触摸板、 手柄和遥控 器中至少一项。
本发明的另一方面提供了一种注视点检测方法, 用于计算用户在 屏幕上的注视点, 所述方法包括如下步骤: 参考表获取步骤, 获取包 括参考脸部图像与用户视线方向之间的关系的参考表; 注视点计算步 骤, 使用摄像头捕获用户的脸部图像, 执行图像测量并查找参考表, 以计算用户在屏幕上的注视点。
优选地, 参考表获取步骤包括: 使用摄像头获取用户的至少一个 参考脸部图像, 以构建包括参考脸部图像与用户视线方向之间的关系 的参考表; 或者直接获取已经构建好的参考表。
优选地, 注视点计算步骤包括: 根据摄像头的位置, 测量用户脸 部图像中用户的两个瞳孔之间的中点与摄像头的距离, 并通过查找参 考表计算用户的视线方向; 以及根据摄像头的位置、 用户的两个瞳孔 之间的中点与摄像头的距离以及用户的视线方向, 计算用户在屏幕上 的注视点。
优选地, 注视点检测方法还包括: 在计算出注视点后, 如果该注 视点位于屏幕之内, 则将屏幕上的光标移动到注视点。 优选地, 如果注视点与当前光标之间的距离小于预定义值, 则不 移动光标。 优选地, 可以根据需要来设置所述预定义值。
本发明的又一方面提供了一种多屏幕计算机, 具有围绕用户的多 个屏幕, 该多屏幕计算机包括本发明的注视点检测装置。 附图说明
通过下文结合附图的详细描述, 本发明的上述和其他特征将会变 得更加明显, 其中- 图 1是示出了根据本发明的注视点检测装置的实施例的框图; 图 2a是示出了根据本发明的注视点检测方法的实施例的流程图; 图 2b是示出了图 2a中注视点检测方法的子步骤的流程图; 图 3是示出示例性坐标系中的参考脸部图像的示意图;
图 4是示例性的脸部图像的示意图;
图 5a是示出了不同的脸部方向的示意图;
图 5b是示出了不同的脸部方向的编码图;
图 6a是示出了不同方向的眼球模型的示意图;
图 6b是示出了在示例性坐标系中的眼球模型的垂直夹角和水平 夹角之间关系的示意图;
图 7是示出了投影圆半径和圆锥体顶角的关系示意图;
图 8是示出摄像头与用户的连线在图像上的投影 (Α。' B ' ) 和 X 轴 (A。, C ' ) 的夹角的示意图;
图 9是示出了根据本发明的注视点检测的原理图;
图 10是示出了眼球方向表的一个示例的框图; 以及
图 11是示出了投影圆半径-圆锥体顶角表的一个示例的框图。 具体实施方式
下面, 通过结合附图对本发明的具体实施例的描述, 本发明的原 理和实现将会变得明显。 应当注意的是, 本发明不应局限于下文所述 的具体实施例。
图 1是示出了根据本发明的注视点检测装置 100的实施例的框图。 如图 1所示,该注视点检测装置 100包括摄像头 102、参考表获取单元 104 和计算单元 106。 摄像头 102可以是本领域中的常规摄像头, 用于捕获 用户的脸部图像。参考表获取单元 104用于获取包括参考脸部图像与用 户视线方向之间的关系的参考表。计算单元 106可以通过该参考表来计 算用户的视线方向, 继而计算出用户在屏幕 108上的注视点。
下面, 作为示例, 参照图 3- 9来说明参考脸部图像和参考表的一 种具体实现, 以及注视点检测装置 100中各个组件的操作。
为了进行定位和计算, 可建立如图 3所示的 3轴坐标体系, 该坐 标体系的原点位于屏幕的左上角。 从计算机用户的角度来说, 沿着屏 幕的上边沿从左向右延伸的轴是 X轴,沿着屏幕的左边沿从上向下延伸 的轴是 Y轴, 而垂直于屏幕从远(屏幕端)至近(用户端)延伸的轴是 Z轴。 摄像头 102安装在坐标为(Xl, yh 0)的点 A处。 如图 4所示, 点 B 是用户的两个瞳孔之间的中点。 AB距离是点 A (摄像头的位置) 与点 B 的距离。 瞳距是图像中用户的两个瞳孔的中心之间的距离。
例如, 假设屏幕处于平面 1 (Pi ) 中, 而摄像头 102的正面与平面
1平行。 并且, 假定点 B处于与平面 1平行的平面 2 (p2 ) 或平面 3 (p3 ) 中。 如图 9所示, 平面 Pb指的是点 B所在的、 垂直于直线 AB的平面。 在 平面 Pb里, Yb轴是直线 AB所在的铅直平面与平面 Pb的交叉线, Xb轴是 平面 Pb内垂直于 Yb轴的一条直线。
基于 "越远越小, 越近越大" 的原理, 可以根据脸部图像的大小 或有关的分量距离来检测点 A与点 B之间的距离。 为了进行该测量, 引 入参考脸部图像。如图 3中所示,参考脸部图像是指当用户的脸部位于 摄像头正前方、 并且 A与 B之间的距离为 D。 (摄像头和两个瞳孔的中点 之间的距离) 时摄像头所捕获的图像。 由于可能存在相对误差, 所以 参考脸部图像的数目越多就可以减小相对误差, 检测结果就越精确。 例如, 引入两个参考脸部图像, 其中一个 AB距离为 D。, 而另一个 A B 距离较短, 为 D 为了获得参考脸部图像, 应当把摄像头 102设置在坐 标体系中具有坐标(Xl, y,, 0)的点 A处, 而且用户应当位于适当的位 置,以确保点 B (两眼之间的中点,如图 4所示。位于坐标系中的(x^ y!, zo) 或 (x,, yi, z 处, 并且 (Xl, yh ZQ)和(Xl, y„ Zl)应当满足如下等式: z0 - 0 = Do (1)
ζ, - Ο ^ ϋ, (2)
当使用脸部检测 /识别算法检测用户脸部时, 可以对每个瞳孔的 中心进行定位, 从而可以获得点 B和两个瞳孔的中心之间的距离 P, 如图 4中所示。 如果用户的脸部图像是距离为 D。的参考脸部图像, 那 么两个瞳孔的中心之间的距离是参考瞳距 P。。 如果用户的脸部图像是 距离为 的参考脸部图像, 那么两个瞳孔的中心之间的距离是参考瞳 距 P!。
在本实施例中, 参考表包括眼球方向表和投影圆半径-圆锥体顶 角表, 下面参考图 10和 11对其进行详细描述。
当用户看向屏幕中的不同区域时, 用户可能会转动头部以使得脸 部直接地(或几乎直接地)面向该区域。 图 5a示出了可能的脸部方向。 根据脸部的不同朝向, 在此大致把脸部朝向划分为 9个方向, 并对不 同的脸部方向进行编码, 具体编码如图 5b所示。
当捕获到用户的脸部后, 可以同时确定用户的眼睛瞳孔的轮廓。 在本实施例中, 可以把用户的眼球看作球体, 而把瞳孔看作眼球表面 上的圆圈。并且, 瞳孔会直接朝向屏幕上的注视点。 图 6a示出了具有 2 个不同眼球方向的眼球模型。 如图 6a所示, 当用户向不同的方向看去 时, 瞳孔会随着眼睛而改变方向。 在摄像头所获得图像中, 瞳孔的轮 廓会从一种椭圆形变为另一种椭圆形。 基于瞳孔的轮廓和脸部方向, 可以得到每一个眼球的转动角度, 包括:
左眼球的垂直转动角度: e VB^,
左眼球的水平转动角度: e„。n,
右眼球的垂直转动角度: e V(^,
右眼球的水平转动角度: e„„_R
此处的 Θ ^是指瞳孔方向与 Yb轴的夹角, 而 Θ„„是指瞳孔方向与 Xb轴的夹角。为了提高眼球方向计算的性能以获得上述 4个角度, 即 Θ nr- Θ NOR.L , Θ VOR.R , Θ Hor.R j 引入眼球方向表以列出所有可能的眼球方 向及其转动角度。参考图 10, 该表至少包括 5列信息: 第 1列表示索引; 第 2列表示垂直转动角度 θ ν„; 第 3列表示水平转动角度 第 4列表 示对应的大致脸部方向; 以及第 5列包括眼睛(瞳孔)经过垂直和水平 转动后的瞳孔轮廓有关的图像。第 2列( Θ Ver)和第 3列( Θ Hor)的值在 0. 0- 至 180. 0·之间变化。 如图 6b所示, Θ ^和 Θ H。r的取值必须满足点 0处于 球面上。眼球方向表的取值范围就是图 6 所示球面上面向摄像头一侧 (也就是 Z轴负轴方向) 上的采样点对应的 9 ^和 Θ Η„, 以及摄像头 所看到的瞳孔在该釆样点的轮廓图形。 采样点越密集, e v。^a e H。Jt 量就越小, 结果就越精确, 但是执行的负荷也越大。 默认的角度的增 量是 0. 1度。作为示例, 图 10仅示出了瞳孔在点 M, 点^[, 点 Q和点 Q' 时的表格内容(其中索引列在实际实现中应该为整数值递增, 如 1, 2 , 3等, 此处为表述方便, 写成 IM, IN, IQ等)。
该表的使用过程如下: 在获得眼睛图像之后, 提取左眼(或右眼) 的轮廓, 并从该表中找出最适合的轮廓, 从而获得如下角度: 9 V。^, Θ„or-L (或 Θ Ver.R, Θ Hor_B)0从表中我们可以看出在围绕图 6b中球心点对 称的点, 比如点 Q和点 Q ' , 摄像头所看到的瞳孔轮廓是一样的, 这 就需要通过脸部方向来加与判断。 在实际操作过程中, 可以根据用户 相对于摄像头 102的位置关系,以及屏幕的大小,对用户可能处在得角 度 e v。 n Θ 的范围加大插值密度, 这对于提高结果的精度有帮助。
对于摄像头 102来说, 位于一个圆锥体侧面上的所有点都会被投 影到摄像头的图像中的一个圆上。 因此, 一旦获知摄像头的图像中的 圆的半径, 就可以确定圆锥体的顶角, 如图 7所示。为了更好地描述圆 锥体的顶角, 图 11示出了对于某一种摄像头圆锥体所有可能的顶角以 及投影圆的半径的关系。 表中采用的距离单位是像素, 可以折算成其 它的单位。 投影圆的半径值的范围是从 0到 RMAX。 RMM是从图像中心到图 像的一角的最远距离。 表中的内容可以根据不同的摄像头来设置, 因 为不同的摄像头具有不同的分辨率、 焦距和广角。 建议的投影圆半径 增量的粒度是 5个像素。该粒度越小, 结果就越精确, 但是执行时的需 要的计箅、 比较的次数也越多。 作为示例, 图 11所示的投影圆半径- 圆锥体顶角表采用 1 0个像素为单位, 摄像头的 是 2 0 Q像素, 摄 像头的最大视角为 40度 (左右各 2 0度)。
在实际操作过程中, 可以根据用户相对于摄像头 102的位置关系, 对用户经常所在的位置对应的夹角 (也就是圆锥体的顶角)加大插值 密度, 这对于提高结果的精度有帮助。
在本实施例中, 参考表获取单元 104包括参考表构建单元 1042, 其利用摄像头 102捕获的具有距离 D。和 的参考脸部图像, 构建上文所 述的眼球方向表和投影圆半径-圆锥体顶角表。另外,参考表获取单元 104还可以包括参考表存储单元 1044。如果参考表已经构建好并保存在 参考表存储单元 1044中, 那么参考表获取单元 104直接从中读取即可。 此外, 参考表构建单元 1042所构建的参考表可以存储到参考表存储单 元 1044中。
计算单元 106可以包括视线方向计算单元 1062和注视点计算单元
1064。 其中, 视线方向计算单元 1062根据摄像头的位置, 测量用户脸 部图像中用户的两个瞳孔之间的中点与摄像头的距离, 并通过查找参 考表计算用户的视线方向。 具体地, 视线方向计算单元 1062使用成熟 的脸部检测 /识别算法, 例如 OpenCV, 来检测用户脸部的大致方向、用 户的眼睛和瞳孔的轮廓以及瞳距 P。 使用瞳距?、 参考瞳距 P。和 来计 算 AB距离 L。 视距(Di stance)和目标图像大小 (Image Size )具有如 下关系:
视距 X图像大小 常数 (3)
因此, AB距离 L和瞳距 P满足如下等式:
LxP«D0xP0 (4)
为了提高结果的精度, 将等式 (4) 和 (5 ) 合并, 得到-
视线方向计算单元 1062进一步计算角度 (1和3。 具体地, α是平 面 2中线 Α。Β与 X轴的夹角, 其中 Α。是点 Α在平面 Ρ2上的垂直投射点, B是 两个瞳孔之间的中点 (如图 9所示)。 由于平面 2与平面 1平行, 因此该 角度 α与摄像头图像中的投影角 α, 相同。
α = α ' (7)
图 8示出了图像内的点 Α。' , Β ' 和角度 a ' , 它们满足:
A0 ,B, Xsin(a')=B'C (8) A。, B, 和 B' C 表示图像中这些点之间的长度。 因此, 角度 α, 的值是. - a'=arcsin(B'C7 Ao'B') (9)
在获得摄像头的图像中 Α。' B' 的长度后,视线方向计算单元 1062 可在投影圆半径-圆锥体顶角表中进行搜索,找到其投影圆半径值与长 度 Α。' B' 匹配的最适合的行。这样, 同一行中的圆锥体的顶角便是角 度 0。然后, 视线方向计算单元 1062计算点 B的坐标。利用先前得到的 结果, 当 B点处于 Ao点的左下方时(从正面查看图象角度,如图 9所示, 下同), 可以按照如下等式来计算点 B的坐标 (x3,y3, z3) :
x3= X i+Lxsin( ) xcos(a) (10)
y3= yi+Lxsin( ) xsin(a) (11)
当 B点处于 AQ点的右方(包括右上、 右下)时, 等式(10) 中的 加号要变成减号, 当 B点处于 Ao点的上方 (包括左上、 右上) 时, 等 式 (11 ) 中的加号要变成减号。
接下来, 视线方向计算单元 1062计算眼球转动角度。 具体地, 根 据摄像头的图像, 检测左眼的瞳孔的轮廓, 并从上文提到的眼球方向 表中找出最适合的轮廓, 结合脸部的方向, 从而获得眼球的相对于 Yb 轴的垂直转动角 Θ H。rt和相对于 Xb轴的水平转动角度 Θ Hrt。 右眼的 Θ ver-R , 6„。^也可以按照相同的步骤获得。
然后, 视线方向计算单元 1062计算用户视线的方向:
0Ver = (0Ver-L+0Ver-R 2 (13)
ΘΗΟΓ = ( ΘΗΟΙ· e+Hor-R)/2 (14)
上述视线的方向是相对于平面 Pb内的 Xb轴和 Yb轴而言的, 需要进 一步转换成相对于 X轴和 Y轴的角度。 为此, 视线方向计算单元 1062 计算出平面 Pb的水平轴 Xb轴与平面 P1的水平轴 X轴的夹角 δ ^以及 Yb 轴与平面 PI的垂直轴 Y轴的夹角 δ ν„。 如图 9所示, 它们满足:
xcos(a)] I [Lxcos (β)] (15)
xsin(a)] I [Lxcos (β)] (16)
所以可以得出 δ Η。^Β δ ν„: Lxsin(p) xcos(a) I [Lxcos (β)] } (17)
5Ver=arctan{ Lxsin( ) xsin(a) I [Lxcos (β)] } (18)
结合之前的得出的 Θ ^和 Θ Hor, 视线方向计算单元 1062可以计算 出最终的 Θ Ver-Final和 Θ Hor-Final ί
之后, 注视点计算单元 1064根据摄像头的位置、 用户的两个瞳孔 之间的中点与摄像头的距离以及用户的视线方向,计算用户在屏幕 108 上的注视点。具体地,注视点计算单元 1064利用视线方向计算单元 1062 计算出的 e Ver-Final和 Θ Hor-Final 7 按照下式来计算屏幕 108上的注视点 D的 坐标 74, 0):
Lo丄 xcos(P) (21)
y4=L。/Tan(eVer_Finai) xcos(9Hr_Finai)+y3 (23)
可选地, 注视点检测装置 100还可以包括光标移动单元 112。 光标 移动单元 112判断是否需要移动光标。如果需要,则将光标移动到注视 点。否则, 不移动光标。优选地, 由于计算精度以及其他因素的影响, 真实的注视点和计算的注视点 D之间可能存在一定偏差。为了容许这种 偏差, 这里引入注视区域的概念, 该区域是指以点 D (计算出来的注视 点) 为中心、 以预定义的长度 G为半径、 在屏幕上的圆形区域。 因此, 每当获得新的注视点 D时,当注视点处于屏幕可显示范围之外时,不移 动光标。 此外, 只要当前的光标和点 D之间的距离小于预定义的值 G, 则光标不会发生移动。 反之, 将光标移动到注视点 D。
可选地, 该注视点检测装置 100还可以包括附属单元 110。 用户可 以使用附属单元, 如鼠标、 键盘、 触摸板、 手柄和遥控器中的一项或 几项, 在光标处执行操作。 例如, 用户可以使用鼠标进行单击或双击 操作, 也可以使用手柄或遥控器来执行各种按键操作。
接下来, 结合附图 2&和213 描述根据本发明实施例的注视点检测 方法的各个步骤。
如图 2a所示, 方法在 S20开始。 在步骤 S22处, 执行准备工作。 该准备工作包括: 在摄像头上收 集参考脸部图像, 在此实施例中获取具有距离 D。和 的参考脸部图像。 参考脸部图像对于用户的脸部检测 /识别来说至关重要。在确定了参考 脸部图像之后, 获取两个瞳孔的中点之间的距离作为参考瞳距 P。和 Ρ。 然后,构建上文提到的眼球方向表以及投影圆半径-圆锥体顶角表。或 者, 如果两个表巳经构建好并保存在参考表存储单元里, 那么直接读 取即可。 最后, 确定摄像头所在位置, 即点 A的坐标 (ΧιΥι, 0)。
在步骤 S24处, 执行注视点检测。 图 2b中示出了该注视点检测的 具体步骤。 具体地, 在 S241 , 检测用户的脸部、 瞳孔轮廓以及瞳距 P。 在 S243, 使用瞳距?、 参考瞳距^和?,来计算 AB距离 L。 在步骤 S245,- 获得角度 0和3。 在步骤 S247, 计算点 B的坐标。 之后, 在步骤 S249, 计算眼球转动角度。 如上文所述, 根据摄像头的图像, 检测左眼的瞳 孔的轮廓, 并从上文提到的眼球方向表中找出最适合的轮廓, 结合脸 部的方向,从而获得眼球的相对于 Yb轴的垂直转动角 Θ Η ^Β相对于 轴的水平转动角度 Θ„or-Lo右眼的 Θ Ver_R, θ Η„-κ也可以按照相同的步骤 获得。 然后, 计算用户视线的方向。 最后, 在步骤 S251, 根据计算得 到的用户的视线方向来计算屏幕 108上的注视点 D的坐标 ( , y4, 0)。
当上述注视点检测步骤 S24执行完毕后, 参考图 2a, 可选地在步 骤 S26处判断是否需要移动光标。 如果需要, 则在步骤 S28将光标移动 到注视点。否则, 不移动光标。 之后, 该方法流程可回到步骤 S24, 循 环地执行注视点检测。 如果终止该方法, 则该方法在 S30处结束。
综上所述, 本发明提供了一种基于脸部检测和图像测量的注视点 检测方法和装置, 通过检测用户的脸部方向和眼球方向, 计算出用户 在屏幕上的注视点,可以将光标移动到该区域。根据计算精度的需要, 可以计算出可能的注视区域, 并将光标移到该区域中, 之后由用户手 动地将光标移动到期望的精确位置, 这使得用户的实际移动距离大大 缩短, 同时减轻了注视点检测装置的计算负荷。 上述方案可以通过根 据实际的装置精度有意地设置较大的预定义半径 G而实现。
此外, 本发明的检测方法和装置还可用于具有围绕用户的多个屏 幕的多屏幕计算机。 具体实现是: 当有多个屏幕时, 确定各个屏幕的 方位以及其和摄像头所在平面的夹角关系。 当检测到用户视线时, 利 用本发明的上述原理, 并通过计算视线延长线和相关平面的相交点, 最终得出注视点。
尽管以上已经结合本发明的优选实施例示出了本发明, 但是本领 域的技术人员将会理解, 在不脱离本发明的精神和范围的情况下, 可 以对本发明进行各种修改、 替换和改变。 因此, 本发明不应由上述实 施例来限定, 而应由所附权利要求及其等价物来限定。
I I

Claims (14)

  1. 权 利 要 求
    1. 一种注视点检测装置, 用于计算用户在屏幕上的注视点, 所 述装置包括:
    摄像头, 用于捕获用户的脸部图像;
    参考表获取单元, 用于获取包括参考脸部图像与用户视线方向之 间的关系的参考表; 以及
    计算单元, 根据摄像头所捕获的用户的脸部图像来执行图像测 量, 并查找参考表获取单元中的参考表, 以计算用户在屏幕上的注视 点。
  2. 2. 根据权利要求 1所述的注视点检测装置, 其中, 参考表获取单 元包括以下至少一项:
    参考表构建单元, 根据摄像头所捕获的用户的至少一个参考脸部 图像来构建参考表; 以及
    参考表存储单元, 其中存储有已经构建好的参考表。
  3. 3. 根据权利要求 1所述的注视点检测装置, 其中,计算单元包括: 视线方向计算单元, 根据摄像头的位置, 测量用户脸部图像中用 户的两个瞳孔之间的中点与摄像头的距离, 并通过査找参考表计算用 户的视线方向; 以及
    注视点计算单元, 根据摄像头的位置、 用户的两个瞳孔之间的中 点与摄像头的距离以及用户的视线方向,计算用户在屏幕上的注视点。
  4. 4. 根据权利要求 1所述的注视点检测装置, 还包括: 光标移动单 元, 在计算出注视点后, 如果该注视点位于屏幕之内, 则光标移动单 元将屛幕上的光标移动到注视点。
  5. 5. 根据权利要求 4所述的注视点检测装置, 其中, 如果注视点与 当前光标之间的距离小于预定义值, 则光标移动单元不移动光标。
  6. 6. 根据权利要求 4或 5所述的注视点检测装置, 还包括: 附属单 元, 用于在光标位置处执行操作。
  7. 7. 根据权利要求 6所述的注视点检测装置, 其中, 附属单元包括 鼠标、 键盘、 触摸板、 手柄和遥控器中至少一项。
  8. 8. 一种注视点检测方法, 用于计算用户在屏幕上的注视点, 所 述方法包括如下步骤:
    参考表获取步骤, 获取包括参考脸部图像与用户视线方向之间的 关系的参考表;
    注视点计算步骤, 使用摄像头捕获用户的脸部图像, 执行图像测 量并查找参考表, 以计算用户在屏幕上的注视点。
  9. 9. 根据权利要求 8所述的方法, 其中, 参考表获取步骤包括: 使用摄像头获取用户的至少一个参考脸部图像, 以构建包括参考 脸部图像与用户视线方向之间的关系的参考表; 或者
    直接获取已经构建好的参考表。
  10. 10. 根据权利要求 8所述的方法, 其中, 注视点计算步骤包括: 根据摄像头的位置, 测量用户脸部图像中用户的两个瞳孔之间的 中点与摄像头的距离, 并通过查找参考表计算用户的视线方向; 以及 根据摄像头的位置、 用户的两个瞳孔之间的中点与摄像头的距离 以及用户的视线方向, 计算用户在屏幕上的注视点。
  11. 11. 根据权利要求 8所述的方法, 还包括: 在计算出注视点后, 如果该注视点位于屏幕之内, 则将屏幕上的光标移动到注视点。
  12. 12. 根据权利要求 11所述的方法, 其中: 如果注视点与当前光标 之间的距离小于预定义值, 则不移动光标。
  13. 13. 根据权利要求 12所述的方法, 其中, 可以根据需要来设置所 述预定义值。
  14. 14. 一种多屏幕计算机, 具有围绕用户的多个屏幕, 所述多屏幕 计算机包括如权利要求 1-7中任意一项所述的注视点检测装置。
CN200980159898.4A 2009-09-29 2009-09-29 一种注视点检测方法及其装置 Expired - Fee Related CN102473033B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2009/001105 WO2011038527A1 (zh) 2009-09-29 2009-09-29 一种注视点检测方法及其装置

Publications (2)

Publication Number Publication Date
CN102473033A true CN102473033A (zh) 2012-05-23
CN102473033B CN102473033B (zh) 2015-05-27

Family

ID=43825476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200980159898.4A Expired - Fee Related CN102473033B (zh) 2009-09-29 2009-09-29 一种注视点检测方法及其装置

Country Status (6)

Country Link
US (1) US20120169596A1 (zh)
EP (1) EP2485118A4 (zh)
JP (1) JP5474202B2 (zh)
KR (1) KR101394719B1 (zh)
CN (1) CN102473033B (zh)
WO (1) WO2011038527A1 (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413467A (zh) * 2013-08-01 2013-11-27 袁苗达 可控强制引导型自主学习系统
CN106030614A (zh) * 2014-04-22 2016-10-12 史內普艾德有限公司 基于对一台摄像机所拍摄的图像的处理来控制另一台摄像机的系统和方法
CN106123819A (zh) * 2016-06-29 2016-11-16 华中科技大学 一种注意力焦点测量方法
CN106444403A (zh) * 2016-10-29 2017-02-22 深圳智乐信息科技有限公司 一种智能家居场景设置和控制的方法及系统
CN106444404A (zh) * 2016-10-29 2017-02-22 深圳智乐信息科技有限公司 一种控制方法及系统
CN106569467A (zh) * 2016-10-29 2017-04-19 深圳智乐信息科技有限公司 基于移动终端选择场景的方法及系统
CN107003744A (zh) * 2016-12-01 2017-08-01 深圳前海达闼云端智能科技有限公司 视点确定方法、装置、电子设备和计算机程序产品
CN108874127A (zh) * 2018-05-30 2018-11-23 北京小度信息科技有限公司 信息交互方法、装置、电子设备及计算机可读存储介质
CN109947253A (zh) * 2019-03-25 2019-06-28 京东方科技集团股份有限公司 眼球追踪的模型建立方法、眼球追踪方法、设备、介质
CN109993030A (zh) * 2017-12-29 2019-07-09 上海聚虹光电科技有限公司 基于数据统计的注视点预测模型建立方法
CN112434595A (zh) * 2020-11-20 2021-03-02 小米科技(武汉)有限公司 行为识别方法及装置、电子设备、存储介质
CN112445328A (zh) * 2019-09-03 2021-03-05 北京七鑫易维信息技术有限公司 映射控制方法及装置
CN112541400A (zh) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 基于视线估计的行为识别方法及装置、电子设备、存储介质
CN112804504A (zh) * 2020-12-31 2021-05-14 成都极米科技股份有限公司 画质调整方法、装置、投影仪及计算机可读存储介质
CN114025674A (zh) * 2019-08-09 2022-02-08 富士胶片株式会社 内窥镜装置、控制方法、控制程序及内窥镜系统
TWI768704B (zh) * 2021-02-05 2022-06-21 宏碁股份有限公司 計算關注焦點的方法及電腦程式產品
WO2023279557A1 (zh) * 2021-07-09 2023-01-12 武汉大学 基于眨眼同步及双目移动检测的伪造视频检验方法及系统
CN117017235A (zh) * 2023-10-09 2023-11-10 湖南爱尔眼视光研究所 一种视觉认知检测方法、装置及设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140053115A1 (en) * 2009-10-13 2014-02-20 Pointgrab Ltd. Computer vision gesture based control of a device
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
US8433710B2 (en) * 2010-09-09 2013-04-30 Ebay Inc. Sizing content recommendation system
KR101231510B1 (ko) * 2010-10-11 2013-02-07 현대자동차주식회사 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량
JP5982956B2 (ja) * 2012-03-30 2016-08-31 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
CN103777861A (zh) * 2012-10-23 2014-05-07 韩国电子通信研究院 终端和用于在终端中控制触摸操作的方法
CN103870097A (zh) * 2012-12-12 2014-06-18 联想(北京)有限公司 信息处理的方法及电子设备
JP6157165B2 (ja) * 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
JP6070833B2 (ja) * 2013-05-08 2017-02-01 富士通株式会社 入力装置及び入力プログラム
CN103455298A (zh) * 2013-09-06 2013-12-18 深圳市中兴移动通信有限公司 一种外来数据显示方法和外来数据显示设备
JP6260255B2 (ja) * 2013-12-18 2018-01-17 株式会社デンソー 表示制御装置およびプログラム
CN105874528B (zh) * 2014-01-15 2018-07-20 麦克赛尔株式会社 信息显示终端、信息显示系统以及信息显示方法
JP6346018B2 (ja) * 2014-07-18 2018-06-20 国立大学法人静岡大学 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム
CN104461005B (zh) * 2014-12-15 2018-01-02 东风汽车公司 一种车载屏幕开关控制方法
WO2016115872A1 (zh) * 2015-01-21 2016-07-28 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN105183169B (zh) * 2015-09-22 2018-09-25 小米科技有限责任公司 视线方向识别方法及装置
US9830708B1 (en) * 2015-10-15 2017-11-28 Snap Inc. Image segmentation of a video stream
CN106325505B (zh) * 2016-08-17 2019-11-05 传线网络科技(上海)有限公司 基于视点跟踪的控制方法和装置
EP3305176A1 (en) 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
CN106791794A (zh) * 2016-12-30 2017-05-31 重庆卓美华视光电有限公司 一种显示设备、图像处理方法及装置
CN107392120B (zh) * 2017-07-06 2020-04-14 电子科技大学 一种基于视线估计的注意力智能监督方法
CN111736698A (zh) * 2020-06-23 2020-10-02 中国人民解放军63919部队 一种手动辅助定位的视线指点方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050200806A1 (en) * 2004-03-12 2005-09-15 Honda Motor Co., Ltd. Line-of-sight detection method and apparatus therefor
CN101311882A (zh) * 2007-05-23 2008-11-26 华为技术有限公司 视线跟踪人机交互方法及装置
CN101419672A (zh) * 2008-12-03 2009-04-29 中国科学院计算技术研究所 一种同步采集人脸图像和注视视角的装置及方法
CN101489467A (zh) * 2006-07-14 2009-07-22 松下电器产业株式会社 视线方向检测装置和视线方向检测方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
WO1999035633A2 (en) * 1998-01-06 1999-07-15 The Video Mouse Group Human motion following computer mouse and game controller
DE19819961A1 (de) * 1998-05-05 1999-11-11 Dirk Kukulenz Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung
JP2000089905A (ja) 1998-09-14 2000-03-31 Sony Corp ポインティングデバイス
EP1968006B1 (en) * 2005-12-27 2020-03-25 Panasonic Intellectual Property Corporation of America Image processing apparatus
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP4991440B2 (ja) * 2007-08-08 2012-08-01 株式会社日立製作所 商品販売装置、商品販売管理システム、商品販売管理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050200806A1 (en) * 2004-03-12 2005-09-15 Honda Motor Co., Ltd. Line-of-sight detection method and apparatus therefor
CN101489467A (zh) * 2006-07-14 2009-07-22 松下电器产业株式会社 视线方向检测装置和视线方向检测方法
CN101311882A (zh) * 2007-05-23 2008-11-26 华为技术有限公司 视线跟踪人机交互方法及装置
CN101419672A (zh) * 2008-12-03 2009-04-29 中国科学院计算技术研究所 一种同步采集人脸图像和注视视角的装置及方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413467A (zh) * 2013-08-01 2013-11-27 袁苗达 可控强制引导型自主学习系统
CN106030614A (zh) * 2014-04-22 2016-10-12 史內普艾德有限公司 基于对一台摄像机所拍摄的图像的处理来控制另一台摄像机的系统和方法
CN106123819A (zh) * 2016-06-29 2016-11-16 华中科技大学 一种注意力焦点测量方法
CN106123819B (zh) * 2016-06-29 2018-07-24 华中科技大学 一种注意力焦点测量方法
CN106444403A (zh) * 2016-10-29 2017-02-22 深圳智乐信息科技有限公司 一种智能家居场景设置和控制的方法及系统
CN106444404A (zh) * 2016-10-29 2017-02-22 深圳智乐信息科技有限公司 一种控制方法及系统
CN106569467A (zh) * 2016-10-29 2017-04-19 深圳智乐信息科技有限公司 基于移动终端选择场景的方法及系统
CN107003744A (zh) * 2016-12-01 2017-08-01 深圳前海达闼云端智能科技有限公司 视点确定方法、装置、电子设备和计算机程序产品
CN109993030A (zh) * 2017-12-29 2019-07-09 上海聚虹光电科技有限公司 基于数据统计的注视点预测模型建立方法
CN108874127A (zh) * 2018-05-30 2018-11-23 北京小度信息科技有限公司 信息交互方法、装置、电子设备及计算机可读存储介质
CN109947253A (zh) * 2019-03-25 2019-06-28 京东方科技集团股份有限公司 眼球追踪的模型建立方法、眼球追踪方法、设备、介质
CN109947253B (zh) * 2019-03-25 2020-06-19 京东方科技集团股份有限公司 眼球追踪的模型建立方法、眼球追踪方法、设备、介质
CN114025674A (zh) * 2019-08-09 2022-02-08 富士胶片株式会社 内窥镜装置、控制方法、控制程序及内窥镜系统
CN112445328A (zh) * 2019-09-03 2021-03-05 北京七鑫易维信息技术有限公司 映射控制方法及装置
CN112434595A (zh) * 2020-11-20 2021-03-02 小米科技(武汉)有限公司 行为识别方法及装置、电子设备、存储介质
CN112541400A (zh) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 基于视线估计的行为识别方法及装置、电子设备、存储介质
CN112804504A (zh) * 2020-12-31 2021-05-14 成都极米科技股份有限公司 画质调整方法、装置、投影仪及计算机可读存储介质
CN112804504B (zh) * 2020-12-31 2022-10-04 成都极米科技股份有限公司 画质调整方法、装置、投影仪及计算机可读存储介质
TWI768704B (zh) * 2021-02-05 2022-06-21 宏碁股份有限公司 計算關注焦點的方法及電腦程式產品
WO2023279557A1 (zh) * 2021-07-09 2023-01-12 武汉大学 基于眨眼同步及双目移动检测的伪造视频检验方法及系统
CN117017235A (zh) * 2023-10-09 2023-11-10 湖南爱尔眼视光研究所 一种视觉认知检测方法、装置及设备

Also Published As

Publication number Publication date
WO2011038527A1 (zh) 2011-04-07
EP2485118A4 (en) 2014-05-14
EP2485118A1 (en) 2012-08-08
CN102473033B (zh) 2015-05-27
US20120169596A1 (en) 2012-07-05
KR20120080215A (ko) 2012-07-16
JP5474202B2 (ja) 2014-04-16
JP2013506209A (ja) 2013-02-21
KR101394719B1 (ko) 2014-05-15

Similar Documents

Publication Publication Date Title
CN102473033A (zh) 一种注视点检测方法及其装置
US10936874B1 (en) Controller gestures in virtual, augmented, and mixed reality (xR) applications
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
Zhu et al. Subpixel eye gaze tracking
US9338425B2 (en) Device and method for generating stereoscopic image
US20100100853A1 (en) Motion controlled user interface
Lander et al. Gazeprojector: Accurate gaze estimation and seamless gaze interaction across multiple displays
US20190050071A1 (en) Transparent display device and control method using the same
US11669173B2 (en) Direct three-dimensional pointing using light tracking and relative position detection
CN107862713B (zh) 针对轮询会场的摄像机偏转实时检测预警方法及模块
US20210256733A1 (en) Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures
WO2012144145A1 (ja) ポインティング制御装置とその集積回路、およびポインティング制御方法
CN101636748A (zh) 模型生成的图形图像到照相机帧的基于帧和象素的匹配
TW201809591A (zh) 三維量測方法及應用其之三維量測裝置
JP2012238293A (ja) 入力装置
CN106127115A (zh) 一种基于全景和常规视觉的混合视觉目标定位方法
Barz et al. Computational modelling and prediction of gaze estimation error for head-mounted eye trackers
WO2011096571A1 (ja) 入力装置
Madritsch et al. CCD‐Camera Based Optical Beacon Tracking for Virtual and Augmented Reality
Mitsugami et al. Estimation of 3D gazed position using view lines
JP2011002292A (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
Hansen et al. Eye typing off the shelf
JP2021071845A (ja) 軌道算出装置、軌道算出方法、軌道算出プログラム
JP6468078B2 (ja) 視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法
CN117351074B (zh) 基于头戴式眼动仪和深度相机的视点位置检测方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150527

Termination date: 20160929