CN109508089B - 一种基于层级随机森林的视线控制系统与方法 - Google Patents

一种基于层级随机森林的视线控制系统与方法 Download PDF

Info

Publication number
CN109508089B
CN109508089B CN201811272311.8A CN201811272311A CN109508089B CN 109508089 B CN109508089 B CN 109508089B CN 201811272311 A CN201811272311 A CN 201811272311A CN 109508089 B CN109508089 B CN 109508089B
Authority
CN
China
Prior art keywords
model
video
face
head position
random forest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811272311.8A
Other languages
English (en)
Other versions
CN109508089A (zh
Inventor
姚宇巍
王江锋
尹悦
丁艳红
隋秀娟
张新鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201811272311.8A priority Critical patent/CN109508089B/zh
Publication of CN109508089A publication Critical patent/CN109508089A/zh
Application granted granted Critical
Publication of CN109508089B publication Critical patent/CN109508089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Abstract

本发明提出一种基于层级随机森林的视线控制系统与方法,采用基于层级随机森林的计算视线落点区域的系统,利用电脑屏幕前的摄像头获取人脸视频流,并检测出视频中每一帧人脸位置,进一步提取人脸中的眼部特征信息,最后将眼部特征信息送入层级随机森林模型中计算出视线在电脑屏幕中的落点区域。本发明只需要一个网络摄像头即可计算视线在电脑屏幕上的实时落点区域,且使用前无需校准与标定,检测方法简单方便,所需硬件配置少,实施成本低。

Description

一种基于层级随机森林的视线控制系统与方法
技术领域
本发明涉及信息传感领域,具体涉及一种基于随机森林的视线控制系统与方法。
背景技术
视线追踪技术,可以应用到人机交互,产品测评,辅助驾驶,交互游戏,军事战斗,心理测试等等领域。针对不同应用,就产生了两种眼动仪:头戴式和非头戴式。其中市面上的主流头戴式产品有ASL Model H6系列眼动仪,ASL Model Eye系列等;市面上主流的非头戴式产品主要有Tobii系列眼动仪,Smart Eye系列等。
目前尚未出现一种实用可行的可以仅仅依靠网络摄像头来进行视线追踪的方法。目前除了依靠硬件设备来实现视线追踪之外,还有依赖于深度学习,神经网络来追踪视线的方法。但是这些方法往往应用于iPad等这种固定屏幕大小。正是因为固定屏幕大小,才能方便神经网络模型训练。同时目前在进行落点标定的研究中,常用的方法分为以下3种:基于非线性多项式和广义回归神经网络的视线估计方法,支持矢量回归的视线落点估计方法,基于解析头动补偿的视线估计方法等。但这些落点标定过程都比较复杂繁琐。而本发明提出的基于层级随机森林的视线控制方法拥有很好的通用性和可扩展性,可以适用于拥有网络摄像头的各种电脑,显示器,投影仪等等设备。
发明内容
本发明的技术解决问题是:可以仅仅依赖网络摄像头来实现通用的视线控制。为此本发明的目的是提供一种基于层级随机森林的视线控制系统。
为达到上述目的,本发明采用如下技术方案:
一种基于层级随机森林的视线控制系统,包括视频采集模块、特征提取模块、特征分析模块和显示模块;所述视频采集模块、特征提取模块模块、特征分析模和显示模块块依此连接;
所述视频采集模块,用于采集人脸视频流;
所述特征提取模块,用于从采集到的人脸视频流中提取每一帧,在每一帧图片中提取人脸位置,并且进一步提取人脸中的眼部特征;
所述特征分析模块,用于将上述特征提取模块中的眼部特征进行分析,计算出视线在频幕上的落点位置;
所述显示模块,用于将用户在屏幕上 的视线落点显示出来。
所述视频采集包括视频采集单元与指示单元;所述视频采集单元用于采集人脸视频流,并将采集到的视频流传输至特征提取模块;所述指示单元用于指示目前视频采集单元处于工作状态或者非工作状态。
所述特征提取模块包括头部位置测量单元与眼部特征提取单元;所述头部位置测量单元用于测量被测人头部与上述采集模块的相对位置;眼部特征提取单元用于提取上述眼球轮廓特征,眼球轮廓特征为眼球轮廓在视频中的相对位置;所述的头部与采集模块的相对位置与眼球轮廓特征将被传输至特征分析模块。
所述特征分析模块包括随机森林模型单元、模型选择单元与视线落点预测单元;所述随机森林模型单元存有预先训练好的不同头部相对位置与眼球轮廓特征的随机森林模型;模型选择单元用与将上述特征提取模块传递的头部相对位置与上述随机森林模型单元中的每一个模型进行比较,寻找最相似的模型;视线落点预测单元则使用上述模型选择单元选择的最佳模型,将上述特征提取模块传递的眼球轮廓特征进行分析,得出视线落点,并将所得视线落点传递至显示单元。
所述显示模块包含指示光标单元;指示光标将显示在显示模块上,代表用户视线的落点位置。
一种基于层级随机森林的视线控制方法,具体操作步骤如下:
步骤1:人脸识别,若视频帧中存在人脸,则执行步骤步骤S2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
步骤2:计算视频帧中人脸的头部位置;
步骤3:提取人脸的眼部轮廓特征;
步骤4:计算视线落点:首先使用上述步骤2计算得到头部位置,分别与现存模型中的所使用的头部位置进行比较,寻找最合适的模型;其次使用选择得到的最佳模型参数,将上述步骤3提取的人脸眼部轮廓作为输入,最终计算得出视线落点位置。
所述步骤1的具体步骤为:步骤1.1,人脸识别:使用任何现有方法均可以识别出视频中是否存在人脸,并将识别结果传至步骤1.2;
步骤1.2,人脸判断:根据上述步骤1.1得出的结果,若视频中存在人脸,则继续执行步骤2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
所述步骤2的具体步骤为:
步骤2.1,头部位置模板读取:读取现有的头部位置模型模板,该模板为在不同头部位置中时头部特征。
步骤2.2,头部位置计算:将视频中的脸部像素与读取的头部模板比对,从而找到最相近的模板,则头部位置即为最相近的头部位置。
所述步骤3的具体步骤为:
步骤3.1,神经网络建模:使用神经网络对眼部轮廓进行建立模型,并人为标出眼部轮廓供模型学习。
步骤3.2,将视频输入进完成训练的神经网络中,得出眼部的轮廓特征。眼部轮廓特征为眼睛轮廓在视频中的像素位置,共分为水平方向与垂直方向。
所述步骤4的具体步骤为:
步骤4.1,模型比较;现已知在不同头部位置情况下,用于计算视线落点的随机森林模型。使用上述步骤2计算得到的头部位置与模型中的头部位置进行比较,从而选择最合适的模型。其比较方法为寻找欧式距离θ最小的模型为标准,该比较标准包括参数:头部水平前后距离x1,头部水平左右距离y1,头部垂直距离z1,模型最佳头部水平前后距离xm,模型最佳头部水平左右距离ym,模型最佳头部垂直距离zm
Figure BDA0001846274460000031
步骤4.2,模型计算:使用上述步骤4.1选择的最佳模型最为参数,将上述步骤3提取的眼部轮廓特征作为输入,使用随机森林回归算法,计算得到最终的视线落点位置。
本发明与现有技术相比,具有如下显而易见的突出实质性和技术进步:
1)本发明提出了一种层级随机森林的模型,去除传统方法中,在使用前需要手动对人眼位置进行标定与校准的繁琐过程,即可准确计算出人眼再屏幕上的视线落点位置,具有创新性与先进性。
2)本发明提出了一种层级随机森林的模型,可运行于windows操作系统与linux操作系统的计算机环境中,也可以运行于嵌入式环境中,可移植性强,基本涵盖当今大部分计算平台,具有可行性与使用性。
3)本发明仅仅使用一个外接摄像头采集的脸部视频即可计算出人眼的视线落点位置,无需额外的传感器件,避免了使用红外、激光等其他专用传感器来捕捉瞳孔位置,操作简单,具有可靠性和经济性。
4)本发明所计算出来的视线落点位置进行人机交互,适用于代替鼠标进行视线翻页、虚拟现实场景切换、视线辅助驾驶等一系列实现控制应用场景,具有应用推广性。
附图说明
图1是本发明基于层级随机森林的视线控制系统示意图。
图2是提取眼部轮廓特征效果图。
图3是层级随机森林模型示意图。
图4是计算得到的视线落点效果图。
图5是一种基于层级随机森林的视线控制方法的流程图。
图6是一种基于层级随机森林的视线控制方法步骤1的子流程图。
图7是一种基于层级随机森林的视线控制方法步骤2的子流程图。
图8是一种基于层级随机森林的视线控制方法步骤3的子流程图。
图9是一种基于层级随机森林的视线控制方法步骤4的子流程图。
具体实施方案
以下结合附图对本发明进行详细描述:
如图1所示:一种基于分层随机森林的视线控制系统,包括视频采集模块、特征提取模块、特征分析模块和显示模块;所述视频采集模块、特征提取模块模块、特征分析模和显示模块块依此连接;其中:
所述视频采集模块,用于采集人脸视频流;
所述特征提取模块,用于从采集到的人脸视频流中提取每一帧,在每一帧图片中提取人脸位置,并且进一步提取人脸中的眼部特征(见附图2);
所述特征分析模块,用于将上述特征提取模块中的眼部特征进行分析,计算出视线在频幕上的落点位置;
所述显示模块,用于将用户在屏幕上 的视线落点显示出来。
所述视频采集包括视频采集单元与指示单元;所述视频采集单元用于采集人脸视频流,并将采集到的视频流传输至特征提取模块;所述指示单元用于指示目前视频采集单元处于工作状态或者非工作状态。
所述特征提取模块包括头部位置测量单元与眼部特征提取单元;所述头部位置测量单元用于测量被测人头部与上述采集模块的相对位置;眼部特征提取单元用于提取上述眼球轮廓特征,眼球轮廓特征为眼球轮廓在视频中的相对位置;所述的头部与采集模块的相对位置与眼球轮廓特征将被传输至特征分析模块。
所述特征分析模块包括随机森林模型单元、模型选择单元与视线落点预测单元;所述随机森林模型单元存有预先训练好的不同头部相对位置与眼球轮廓特征的随机森林模型;模型选择单元用与将上述特征提取模块传递的头部相对位置与上述随机森林模型单元中的每一个模型进行比较,寻找最相似的模型;视线落点预测单元则使用上述模型选择单元选择的最佳模型,将上述特征提取模块传递的眼球轮廓特征进行分析,得出视线落点,并将所得视线落点传递至显示单元(见附图3)。
所述显示模块包含指示光标单元;指示光标将显示在显示模块上,代表用户视线的落点位置(见附图4)。
如图5所示,一种基于层级随机森林的视线控制方法,具体操作步骤如下:
步骤1:人脸识别,若视频帧中存在人脸,则执行步骤步骤S2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
步骤2:计算视频帧中人脸的头部位置;
步骤3:提取人脸的眼部轮廓特征;
步骤4:计算视线落点:首先使用上述步骤2计算得到头部位置,分别与现存模型中的所使用的头部位置进行比较,寻找最合适的模型;其次使用选择得到的最佳模型参数,将上述步骤3提取的人脸眼部轮廓作为输入,最终计算得出视线落点位置。
如图6所示,所述步骤1的具体步骤为:步骤1.1,人脸识别:使用任何现有方法均可以识别出视频中是否存在人脸,并将识别结果传至步骤1.2;
步骤1.2,人脸判断:根据上述步骤1.1得出的结果,若视频中存在人脸,则继续执行步骤2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
如图7所示,所述步骤2的具体步骤为:
步骤2.1,头部位置模板读取:读取现有的头部位置模型模板,该模板为在不同头部位置中时头部特征。
步骤2.2,头部位置计算:将视频中的脸部像素与读取的头部模板比对,从而找到最相近的模板,则头部位置即为最相近的头部位置。
如图8所示,所述步骤3的具体步骤为:
步骤3.1,神经网络建模:使用神经网络对眼部轮廓进行建立模型,并人为标出眼部轮廓供模型学习。
步骤3.2,将视频输入进完成训练的神经网络中,得出眼部的轮廓特征。眼部轮廓特征为眼睛轮廓在视频中的像素位置,共分为水平方向与垂直方向。
如图9所示,所述步骤4的具体步骤为:
步骤4.1,模型比较;现已知在不同头部位置情况下,用于计算视线落点的随机森林模型。使用上述步骤2计算得到的头部位置与模型中的头部位置进行比较,从而选择最合适的模型。其比较方法为寻找欧式距离θ最小的模型为标准,该比较标准包括参数:头部水平前后距离x1,头部水平左右距离y1,头部垂直距离z1,模型最佳头部水平前后距离xm,模型最佳头部水平左右距离ym,模型最佳头部垂直距离zm
Figure BDA0001846274460000061
步骤4.2,模型计算:使用上述步骤4.1选择的最佳模型最为参数,将上述步骤3提取的眼部轮廓特征作为输入,使用随机森林回归算法,计算得到最终的视线落点位置。
本发明提出了一种层级随机森林的模型,去除传统方法中,在使用前需要手动对人眼位置进行标定与校准的繁琐过程,即可准确计算出人眼再屏幕上的视线落点位置;可运行于windows操作系统与linux操作系统的计算机环境中,也可以运行于嵌入式环境中,可移植性强,基本涵盖当今大部分计算平台;仅仅使用一个外接摄像头采集的脸部视频即可计算出人眼的视线落点位置,无需额外的传感器件,避免了使用红外、激光等其他专用传感器来捕捉瞳孔位置,操作简单;使用本发明所计算出来的视线落点位置进行人机交互,适用于代替鼠标进行视线翻页、虚拟现实场景切换、视线辅助驾驶等一系列实现控制应用场景。

Claims (9)

1.一种基于层级随机森林的视线控制系统,包括视频采集模块(1)、特征提取模块(2)、特征分析模块(3)和显示模块(4);所述视频采集模块(1)、特征提取模块(2)、特征分析模块(3)和显示模块(4)依此连接;其特征在于:
所述视频采集模块(1),用于采集人脸视频流;
所述特征提取模块(2),用于从采集到的人脸视频流中提取每一帧,在每一帧图片中提取人脸位置,并且进一步提取人脸中的眼部特征;
所述特征分析模块(3),用于将上述特征提取模块中的眼部特征进行分析,计算出视线在频幕上的落点位置;
所述显示模块(4),用于将用户在屏幕上的视线落点显示出来,使用一个外接摄像头采集的脸部视频,即可计算出人眼的视线落点位置;
所述特征分析模块(3)包括随机森林模型单元(31)、模型选择单元(32)与视线落点预测单元(33);所述随机森林模型单元(31)存有预先训练好的不同头部相对位置与眼球轮廓特征的随机森林模型;模型选择单元(32)用与将上述特征提取模块传递的头部相对位置与上述随机森林模型单元中的每一个模型进行比较,寻找最相似的模型;视线落点预测单元(33)则使用上述模型选择单元选择的最佳模型,将上述特征提取模块(2)传递的眼球轮廓特征进行分析,得出视线落点,并将所得视线落点传递至显示单元;
利用所述基于层级随机森林的视线控制系统进行视线控制,包括如下步骤:
步骤1:人脸识别,若视频帧中存在人脸,则执行步骤S2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
步骤2:计算视频帧中人脸的头部位置;
步骤3:提取人脸的眼部轮廓特征;
步骤4:使用层级随机森林模型计算视线落点:首先使用上述步骤2计算得到头部位置,分别与现存模型中的所使用的头部位置进行比较,寻找最合适的模型;其次使用选择得到的最佳模型参数,将上述步骤3提取的人脸眼部轮廓作为输入,最终计算得出视线落点位置;
所述步骤2的具体步骤为:
步骤2.1,头部位置模板读取:读取现有的头部位置模型模板,该模板为在不同头部位置中时头部特征;
步骤2.2,头部位置计算:将视频中的脸部像素与读取的头部模板比对,从而找到最相近的模板,则头部位置即为最相近的头部位置;
所述步骤4的具体步骤为:
步骤4.1,模型比较;现已知在不同头部位置情况下,用于计算视线落点的随机森林模型;使用上述步骤2计算得到的头部位置与模型中的头部位置进行比较,从而选择最合适的模型;其比较方法以寻找欧式距离θ最小的模型为标准;
步骤4.2,模型计算:使用上述步骤4.1选择的最佳模型最为参数,将上述步骤3提取的眼部轮廓特征作为输入,使用随机森林回归算法,计算得到最终的视线落点位置。
2.根据权利要求1所述的基于层级随机森林的视线控制系统,所述视频采集模块(1)包括视频采集单元(11)与指示单元(12);所述视频采集单元(11)用于采集人脸视频流,并将采集到的视频流传输至特征提取模块(2);所述指示单元(12)用于指示目前视频采集单元处于工作状态或者非工作状态。
3.根据权利要求1所述的基于层级随机森林的视线控制系统,所述特征提取模块(2)包括头部位置测量单元(21)与眼部特征提取单元(22);所述头部位置测量单元(21)用于测量被测人头部与上述采集模块的相对位置;眼部特征提取单元(22)用于提取上述眼球轮廓特征,眼球轮廓特征为眼球轮廓在视频中的相对位置;所述的头部与采集模块的相对位置与眼球轮廓特征将被传输至特征分析模块(3)。
4.根据权利要求1所述的基于层级随机森林的视线控制系统,所述显示模块(4)包含指示光标单元(41)与显示单元(42);指示光标将显示在显示单元上,代表用户视线的落点位置。
5.一种基于层级随机森林的视线控制方法,采用权利要求1所述的基于层级随机森林的视线控制系统进行操作,其特征在于具体操作步骤如下:
步骤1:人脸识别,若视频帧中存在人脸,则执行步骤S2;若视频中不存在人脸,则等待,直至视频帧中出现人脸;
步骤2:计算视频帧中人脸的头部位置;
步骤3:提取人脸的眼部轮廓特征;
步骤4:使用层级随机森林模型计算视线落点:首先使用上述步骤2计算得到头部位置,分别与现存模型中的所使用的头部位置进行比较,寻找最合适的模型;其次使用选择得到的最佳模型参数,将上述步骤3提取的人脸眼部轮廓作为输入,最终计算得出视线落点位置。
6.根据权利要求5所述的基于层级随机森林的视线控制方法,其特征在于,所述步骤1的具体步骤为:
步骤1.1,人脸识别:使用任何现有方法均可以识别出视频中是否存在人脸,并将识别结果传至步骤1.2;
步骤1.2,人脸判断:根据上述步骤1.1得出的结果,若视频中存在人脸,则继续执行步骤2;若视频中不存在人脸,则等待,直至视频帧中出现人脸。
7.根据权利要求5所述的基于层级随机森林的视线控制方法,其特征在于,所述步骤2的具体步骤为:
步骤2.1,头部位置模板读取:读取现有的头部位置模型模板,该模板为在不同头部位置中时头部特征;
步骤2.2,头部位置计算:将视频中的脸部像素与读取的头部模板比对,从而找到最相近的模板,则头部位置即为最相近的头部位置。
8.根据权利要求5所述的基于层级随机森林的视线控制方法,其特征在于,所述步骤3的具体步骤为:
步骤3.1,神经网络建模:使用神经网络对眼部轮廓进行建立模型,并人为标出眼部轮廓供模型学习;
步骤3.2,眼睛轮廓提取:将视频输入进完成训练的神经网络中,得出眼部的轮廓特征;眼部轮廓特征为眼睛轮廓在视频中的像素位置,共分为水平方向与垂直方向。
9.根据权利要求5所述的基于层级随机森林的视线控制方法,其特征在于,所述步骤4的具体步骤为:
步骤4.1,模型比较;现已知在不同头部位置情况下,用于计算视线落点的随机森林模型;使用上述步骤2计算得到的头部位置与模型中的头部位置进行比较,从而选择最合适的模型;其比较方法以寻找欧式距离θ最小的模型为标准;
步骤4.2,模型计算:使用上述步骤4.1选择的最佳模型最为参数,将上述步骤3提取的眼部轮廓特征作为输入,使用随机森林回归算法,计算得到最终的视线落点位置。
CN201811272311.8A 2018-10-30 2018-10-30 一种基于层级随机森林的视线控制系统与方法 Active CN109508089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811272311.8A CN109508089B (zh) 2018-10-30 2018-10-30 一种基于层级随机森林的视线控制系统与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811272311.8A CN109508089B (zh) 2018-10-30 2018-10-30 一种基于层级随机森林的视线控制系统与方法

Publications (2)

Publication Number Publication Date
CN109508089A CN109508089A (zh) 2019-03-22
CN109508089B true CN109508089B (zh) 2022-06-14

Family

ID=65747058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811272311.8A Active CN109508089B (zh) 2018-10-30 2018-10-30 一种基于层级随机森林的视线控制系统与方法

Country Status (1)

Country Link
CN (1) CN109508089B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321820B (zh) * 2019-06-24 2022-03-04 东南大学 一种基于非接触式设备的视线落点检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102125422A (zh) * 2010-01-12 2011-07-20 北京科技大学 视线追踪系统中基于瞳孔-角膜反射的视线估计方法
KR20170005273A (ko) * 2015-07-02 2017-01-12 주식회사 에스원 얼굴 정렬을 위한 특징점별 특징을 추출하기 위한 서술자 생성 시스템 및 이를 이용한 특징점별 서술자 생성 방법
CN106796449A (zh) * 2014-09-02 2017-05-31 香港浸会大学 视线追踪方法及装置
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107315997B (zh) * 2017-05-27 2020-08-28 湖北天业云商网络科技有限公司 一种基于快速特征点定位的视线朝向判断方法及系统
CN107330378A (zh) * 2017-06-09 2017-11-07 湖北天业云商网络科技有限公司 一种基于嵌入式图像处理的驾驶员行为检测系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102125422A (zh) * 2010-01-12 2011-07-20 北京科技大学 视线追踪系统中基于瞳孔-角膜反射的视线估计方法
CN106796449A (zh) * 2014-09-02 2017-05-31 香港浸会大学 视线追踪方法及装置
KR20170005273A (ko) * 2015-07-02 2017-01-12 주식회사 에스원 얼굴 정렬을 위한 특징점별 특징을 추출하기 위한 서술자 생성 시스템 및 이를 이용한 특징점별 서술자 생성 방법
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Learning-by-Synthesis for Appearance-based 3D Gaze Estimation;Yusuke Sugano等;《2014 IEEE Conference on Computer Vision and Pattern Recognition》;20141225;第1821-1828页 *
NLOS Identification for Indoor Localization using Random Forest Algorithm;Mohammed Ramadan等;《22nd International ITG Workshop on Smart Antennas》;20180614;第1-5页 *
基于时空上下文和随机森林的人眼跟踪定位算法研究;刘林涛等;《液晶与显示》;20180515(第05期);第82-88页 *
视线追踪系统眼部特征检测及视线方向计算方法研究;迟健男等;《控制与决策》;20090915(第09期);第67-72页 *

Also Published As

Publication number Publication date
CN109508089A (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
Mehrubeoglu et al. Real-time eye tracking using a smart camera
CN109375765B (zh) 眼球追踪交互方法和装置
CN103336576B (zh) 一种基于眼动追踪进行浏览器操作的方法及装置
CN106095089A (zh) 一种获取感兴趣目标信息的方法
CN109343700B (zh) 眼动控制校准数据获取方法和装置
US20200050263A1 (en) Electronic apparatus operated by head movement and operation method thereof
JP5225870B2 (ja) 情動分析装置
CN113050802A (zh) 用于在虚拟现实环境中导航的方法、系统及设备
CN105068646B (zh) 终端的控制方法和系统
KR20120045667A (ko) 움직임 인식을 이용한 사용자 인터페이스 장치 및 방법
KR20140046652A (ko) 학습 모니터링 장치 및 학습 모니터링 방법
US20120133753A1 (en) System, device, method, and computer program product for facial defect analysis using angular facial image
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN105159452A (zh) 一种基于人脸姿态估计的控制方法与系统
Bellmore et al. Interactive display using depth and RGB sensors for face and gesture control
KR20190015332A (ko) 증강 현실의 가상 객체들에 영향을 미치는 장치
CN114821753B (zh) 一种基于视觉图像信息的眼动交互系统
CN109508089B (zh) 一种基于层级随机森林的视线控制系统与方法
US20170262055A1 (en) Information processing device, information processing method, and program
CN112183200B (zh) 一种基于视频图像的眼动追踪方法和系统
CN111459285B (zh) 基于眼控技术的显示设备控制方法、显示设备及存储介质
Dani et al. Mid-air fingertip-based user interaction in mixed reality
CN114639168B (zh) 一种用于跑步姿态识别的方法和系统
Murukesh et al. Drowsiness detection for drivers using computer vision
Huang et al. Real-time precise human-computer interaction system based on gaze estimation and tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant