CN111078000B - 一种根据眼行为特征进行眼机交互的方法、装置及系统 - Google Patents

一种根据眼行为特征进行眼机交互的方法、装置及系统 Download PDF

Info

Publication number
CN111078000B
CN111078000B CN201911126463.1A CN201911126463A CN111078000B CN 111078000 B CN111078000 B CN 111078000B CN 201911126463 A CN201911126463 A CN 201911126463A CN 111078000 B CN111078000 B CN 111078000B
Authority
CN
China
Prior art keywords
matrix
human eye
image
human
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911126463.1A
Other languages
English (en)
Other versions
CN111078000A (zh
Inventor
陈友华
陈亚晨
韩伟
桂志国
康弘向
白雪剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North University of China
Original Assignee
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North University of China filed Critical North University of China
Priority to CN201911126463.1A priority Critical patent/CN111078000B/zh
Publication of CN111078000A publication Critical patent/CN111078000A/zh
Application granted granted Critical
Publication of CN111078000B publication Critical patent/CN111078000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Abstract

本发明公开一种根据眼行为特征进行眼机交互的方法、装置及系统,该方法包括:获取人眼二值化图像的图像矩阵;计算图像矩阵的行和,组成列矩阵;计算所图像矩阵的列和,组成行矩阵;获取列矩阵的逆矩阵、行矩阵的逆矩阵;分别遍历列矩阵、行矩阵、列矩阵的逆矩阵和行矩阵的逆矩阵,根据遍历过程中遇到的第一个非零元素的位置对应得到所述人眼二值化图像中人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标,进行人眼定位并计算人眼开合度;根据开合度确定机体的对应动作。本发明能够准确获取人眼的行为特征,并根据眼行为特征控制外部设备作出相应的操作,即实现眼机交互。

Description

一种根据眼行为特征进行眼机交互的方法、装置及系统
技术领域
本发明涉及眼机交互技术领域,特别是涉及一种根据眼行为特征进行眼机交互的方法、装置及系统。
背景技术
人机交互是现代人们不可或缺的工具,设计和实现方便人们使用的人机交互的方法和技术一直是工程技术界学者们努力的方向。目前,关于人机交互的研究已成为各科研领域的热点,而且人机交互的易用性对于肢体残疾人士显得尤为重要。视觉是人与周围世界发生联系的最重要的感觉通道,我们从外界获得的信息中,至少有80%都是通过视觉得到的,对于大部分肢体障碍患者来说,虽然其肢体功能存在某种程度的缺陷,但是他们的大部分其他功能都与正常人一样,尤其是眼部功能,即他们依然可以按照自己的主观意愿自由的控制眼球运动。如果能够利用眼机交互接口系统获取眼动信息,然后按照已经得到的关于眼动的相关知识将这些信息按照一定的规律进行解码,进而指挥控制外部的电子辅助设备如计算机、家用电器等的运行状态,对于肢体障碍患者来说,找到一种替代肌肉通路功能的外部通路,使他们能够像正常人一样表达自己的意志,是非常有必要的。
发明内容
本发明的目的是提供一种根据眼行为特征进行眼机交互的方法、装置及系统,能够准确获取人眼的行为特征,并根据眼行为特征控制外部设备作出相应的操作,即实现眼机交互。
为实现上述目的,本发明提供了如下技术方案:
一种根据眼行为特征进行眼机交互的方法,包括:
获取人眼二值化图像的图像矩阵;
计算所述图像矩阵的行和,组成列矩阵;
计算所述图像矩阵的列和,组成行矩阵;
获取所述列矩阵的逆矩阵、所述行矩阵的逆矩阵;
分别遍历所述列矩阵、行矩阵、所述列矩阵的逆矩阵和所述行矩阵的逆矩阵,根据遍历过程中遇到的第一个非零元素的位置对应得到所述人眼二值化图像中人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
根据所述人眼开合度确定人眼行为的特征;
根据所述人眼行为特征确定机体的对应动作。
可选的,所述人眼二值化图像的图像矩阵的获取方法,包括:
获取人眼图像;
将所述人眼图像转换为灰度图像;
对所述灰度图像进行预处理,得到二值化图像;
根据所述二值化图像得到所述二值化图像的图像矩阵。
可选的,所述根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度,包括:
采用公式H=Ymax-Ymin计算人眼的高,其中,H是人眼上下眼睑垂直方向的距离,即人眼的高,Ymax是最大纵坐标,Ymin是最小纵坐标;
采用公式W=Xmax-Xmin计算人眼的宽,其中,W是人眼两个眼角间的水平距离,即为人眼的宽,Xmax是最大横坐标,Xmin是最小横坐标;
采用公式RHW=H/W计算人眼的开合度,其中,RHW是人眼的开合度,H是人眼的高,W是人眼的宽。
可选的,所述根据所述人眼开合度确定人眼行为特征,包括:
当人眼的开合度小于第一设定阈值时,人眼的状态为闭眼状态;
当人眼的开合度小于第二设定阈值且大于第一设定阈值时,人眼的状态为眯眼状态;
当人眼的开合度大于第二设定阈值时,人眼的状态为睁眼状态。
可选的,对所述灰度图像进行预处理,得到二值化图像,包括:
对所述灰度图像依次直方图均衡化、图像金字塔和二值化,得到二值化图像。
一种根据眼行为特征进行眼机交互的装置,包括:微距摄像头和计算机,所述微距摄像头与计算机通讯连接,所述微距摄像头用于采集人眼图像,所述计算机用于根据所述人眼图像确定人眼行为的特征。
可选的,还包括头盔和头盔支架,所述头盔支架一端与所述头盔固定连接,另一端与所述微距摄像头固定连接;所述头盔支架用于固定所述微距摄像头。
可选的,所述头盔支架为可拆卸支架。
可选的,所述头盔支架的长短可调节。
一种根据眼行为特征进行眼机交互的系统,包括:
人眼图像获取模块,用于获取人眼图像;
灰度转换模块,用于将所述人眼图像转换为灰度图像;
图像预处理模块,用于对所述灰度图像进行预处理,得到二值化图像;
人眼定位模块,用于根据所述二值化图像确定人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
计算模块,用于根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
状态识别模块,用于根据所述人眼开合度确定人眼行为特征;
眼机交互模块,用于根据所述眼行为特征控制机体动作。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明通过图像处理过程能够准确获取人眼的行为特征,并根据眼行为特征控制外部设备作出相应的操作,从而实现眼机交互。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明根据眼行为特征进行眼机交互的方法流程图;
图2为本发明根据眼行为特征进行眼机交互的系统模块图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种根据眼行为特征进行眼机交互的方法及系统,能够准确获取人眼的行为特征,并根据眼行为特征控制外部设备作出相应的操作,即实现眼机交互。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明根据眼行为特征进行眼机交互的方法流程图,如图1所示,一种根据眼行为特征进行眼机交互的方法,包括:
步骤101:获取人眼二值化图像的图像矩阵;
步骤102:计算所述图像矩阵的行和,组成列矩阵;
步骤103:计算所述图像矩阵的列和,组成行矩阵;
步骤104:获取所述列矩阵的逆矩阵、所述行矩阵的逆矩阵;
步骤105:分别遍历所述列矩阵、行矩阵、所述列矩阵的逆矩阵和所述行矩阵的逆矩阵,根据遍历过程中遇到的第一个非零元素的位置对应得到所述人眼二值化图像中人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
步骤106:根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
步骤107:根据所述开合度确定人眼行为特征;
步骤108:根据所述人眼行为特征确定机体的对应动作。
其中,步骤101具体包括:获取人眼图像;将所述人眼图像转换为灰度图像;对所述灰度图像依次直方图均衡化、图像金字塔和二值化,得到二值化图像;其中,图像金字塔能够降低图像分辨率;根据所述二值化图像得到所述二值化图像的图像矩阵。
步骤102-步骤105具体包括:
所述图像矩阵为A(m,n),遍历图像矩阵A(m,n)的行时,计算行和,组成新的列矩阵H(m);遍历图像矩阵A(m,n)的列时,计算列和,组成新的行矩阵V(n);
根据列矩阵H(m)得到其逆矩阵q(m),根据行矩阵V(n)得到其逆矩阵p(n);
分别遍历矩阵H(m)、q(m)、V(n)和p(n),遍历过程中做如下判断:
当H(h)≠0,则Ymin=h;
当q(h)≠0,则Ymax=m-h+1;
当V(w)≠0,则Xmax=w;
当p(w)≠0,则Xmin=n-w+1;
也就是对于列矩阵H(m)和q(m),按顺序依次遍历每个矩阵中的元素,当遇到第一个非零元素时,该非零元素所在的行数即分别为Ymin和Ymax;同理,对于行矩阵V(n)和p(n),按顺序依次遍历每个矩阵中的元素,当遇到第一个非零元素时,该非零元素所在的列数即分别为Xmax和Xmin
其中,m是图像矩阵的行数;n是图像矩阵的列数;h是遍历列矩阵H(m)过程中第一个非零元素所在的行数,w是遍历行矩阵V(n)过程中的第一个非零元素所在的列数;Ymin、Ymax分别是人眼的上眼睑的最小、最大纵坐标;Xmax、Xmin分别是人眼宽度的最大、最小横坐标。
步骤106具体包括:采用公式H=Ymax-Ymin计算人眼的高,其中,H是人眼上下眼睑垂直距离,即为人眼的高,Ymax是最大纵坐标,Ymin是最小纵坐标;采用公式W=Xmax-Xmin计算人眼的宽,其中,W是人眼两个眼角间的水平距离,即人眼的宽,Xmax是最大横坐标,Xmin是最小横坐标;采用公式RHW=H/W计算人眼的开合度,其中,RHW是人眼的开合度,H是人眼的高,W是人眼的宽。
步骤107具体包括:当人眼的开合度小于第一设定阈值时,人眼行为特征为闭眼状态;当人眼的开合度小于第二设定阈值且大于第一设定阈值时,人眼行为特征为眯眼状态;当人眼的开合度大于第二设定阈值时,人眼行为特征为睁眼状态。
本发明还公开了一种根据人眼行为特征进行眼机交互的装置,该装置包括:头盔、头盔支架、微距摄像头、控制系统和计算机;
其中,微距摄像头通过头盔支架固定在头盔上,微距摄像头位于人眼正前方偏上的位置,头盔支架为可拆卸支架,且头盔支架的长短可以调节,微距摄像头通过数据传输线与控制系统的USB端口连接,控制系统通过皮带夹可以插到腰间位置,控制系统通过WiFi或以太网与计算机通讯连接,用于将采集的人眼图像传输至计算机,在计算机上计算人眼开合度。
本发明将用于采集人眼图像的微距摄像头固定于头盔上,能够保持采集设备与人的相对位置不变,即微距摄像头与人眼的距离固定,不受头部运动影响,极大地降低了后续图像处理的难度,能够获得高精度的人眼图像信息。
其中,控制系统包括ARM核心板,底板硬件电路,LCD液晶屏和电池。其中,其中,ARM核心板包括基于ARM Cortex-A7架构的嵌入式ARM处理器,512MB的LvDDR3运行内存和4GB的EMMC存储器,是整个硬件单元的控制及数据处理中心;底板硬件电路是系统的外设接口,包括电源转换模块,串口,USB模块,SD卡槽,以太网接口,LCD连接器,开关按键、蓝牙模块和WiFi模块。核心板通过板对板连接器将相应的引脚与底板电路的各模块连接。该控制系统外层由配套的保护壳,保护壳上有皮带夹,在使用时,可以将其固定在使用者的腰间。使用者方便携带同时又不会影响正常的活动。控制系统搭载嵌入式Linux系统,Linux系统移植有QT库,在嵌入式Linux系统中编写有基于V4L2(video for linux 2)视频架构,控制摄像头采集图像及传输的GUI应用程序,操作LCD液晶显示屏的GUI界面应用程序可以实现图像的采集、存储及传输。采集的人眼图像可以通过以太网或蓝牙WiFi模块将采集的图像实时传输至计算机,计算机进行人眼开合度的计算。
计算机通过图像批量处理获得人眼视频图像的每一帧图像,然后分析计算采集的人眼图像信息,得到人眼的开合度,并将所得到的人眼开合度对应得到人眼行为特征,再将人眼行为特征反馈至使用的机体,机体通过所反馈的人眼的行为特征触发机体中与人眼行为特征相对应的功能模块,进行机体调节,进而实现其功能并达到使用者的需求,从而实现眼机交互。
例如,将本发明与自动望远镜结合:当使用者观察远方物体时,我们需要借助望远镜来观察。由于眯眼的程度不同,人眼的开合度也会不同,我们通过将人眼的开合度的数据反馈给望远镜,使望远镜可以根据人眼的开合度自动调焦,从而可以清楚的观察到远方物体,更便捷的获取远方物体的信息。
图2为本发明根据人眼开合状态进行眼机交互的系统模块图,如图2所示,一种根据人眼开合状态进行眼机交互的系统,包括:
人眼图像获取模块201,用于获取人眼图像;
灰度转换模块202,用于将所述人眼图像转换为灰度图像;
图像预处理模块203,用于对所述灰度图像进行预处理,得到二值化图像;
人眼定位模块204,用于根据所述二值化图像确定人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
计算模块205,用于根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
状态识别模块206,用于根据所述人眼开合度识别人眼行为特征;
眼机交互模块207,用于根据所述眼行为特征控制机体动作。
根据本发明公开的方法、装置及系统,能够准确获取人眼的行为特征,并根据眼行为特征控制外部设备作出相应的操作,即实现眼机交互。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种根据眼行为特征进行眼机交互的方法,其特征在于,包括:
获取人眼二值化图像的图像矩阵;
计算所述图像矩阵的行和,组成列矩阵;
计算所述图像矩阵的列和,组成行矩阵;
获取所述列矩阵的逆矩阵、所述行矩阵的逆矩阵;
分别遍历所述列矩阵、行矩阵、所述列矩阵的逆矩阵和所述行矩阵的逆矩阵,根据遍历过程中遇到的第一个非零元素的位置对应得到所述人眼二值化图像中人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
根据所述最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
根据所述开合度确定人眼行为特征;
根据所述人眼行为特征确定机体的对应动作;
所述根据所述人眼的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼的开合度,包括:
采用公式H=Ymax-Ymin计算人眼的高,其中,H是人眼上下眼睑的垂直距离,即人眼的高,Ymax是最大纵坐标,Ymin是最小纵坐标;
采用公式W=Xmax-Xmin计算人眼的宽,其中,W是人眼的两个眼角间的水平距离,即人眼的宽,Xmax是最大横坐标,Xmin是最小横坐标;
采用公式RHW=HW计算人眼的开合度,其中,RHW是人眼的开合度,H是人眼的高,W是人眼的宽;
所述根据所述开合度确定人眼行为特征,包括:
当人眼的开合度小于第一设定阈值时,人眼的状态为闭眼状态;
当人眼的开合度小于第二设定阈值且大于第一设定阈值时,人眼的状态为眯眼状态;
当人眼的开合度大于第二设定阈值时,人眼的状态为睁眼状态。
2.根据权利要求1所述的根据眼行为特征进行眼机交互的方法,其特征在于,所述人眼二值化图像的图像矩阵的获取方法,包括:
获取人眼图像;
将所述人眼图像转换为灰度图像;
对所述灰度图像进行预处理,得到二值化图像;
根据所述二值化图像得到所述二值化图像的图像矩阵。
3.根据权利要求2所述的根据眼行为特征进行眼机交互的方法,其特征在于,对所述灰度图像进行预处理,得到二值化图像,包括:
对所述灰度图像依次直方图均衡化、图像金字塔和二值化,得到二值化图像。
4.一种根据眼行为特征进行眼机交互的装置,其特征在于,所述装置应用于如权利要求1-3任一项所述的根据眼行为特征进行眼机交互的方法,所述装置包括:微距摄像头和计算机,所述微距摄像头与计算机通讯连接,所述微距摄像头用于采集人眼图像,所述计算机用于根据所述人眼图像确定人眼行为的特征。
5.根据权利要求4所述的根据眼行为特征进行眼机交互的装置,其特征在于,还包括头盔和头盔支架,所述头盔支架一端与所述头盔固定连接,另一端与所述微距摄像头固定连接;所述头盔支架用于固定所述微距摄像头。
6.根据权利要求5所述的根据眼行为特征进行眼机交互的装置,其特征在于,所述头盔支架为可拆卸支架。
7.根据权利要求5所述的根据眼行为特征进行眼机交互的装置,其特征在于,所述头盔支架的长短可调节。
8.一种根据眼行为特征进行眼机交互的系统,其特征在于,包括:
人眼图像获取模块,用于获取人眼图像;
灰度转换模块,用于将所述人眼图像转换为灰度图像;
图像预处理模块,用于对所述灰度图像进行预处理,得到二值化图像;
人眼定位模块,用于根据所述二值化图像确定人眼的外接矩阵的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标,具体包括:获取人眼二值化图像的图像矩阵;计算所述图像矩阵的行和,组成列矩阵;计算所述图像矩阵的列和,组成行矩阵;获取所述列矩阵的逆矩阵、所述行矩阵的逆矩阵;分别遍历所述列矩阵、行矩阵、所述列矩阵的逆矩阵和所述行矩阵的逆矩阵,根据遍历过程中遇到的第一个非零元素的位置对应得到所述人眼二值化图像中人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标;
计算模块,用于根据所述人眼外接矩形的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼开合度;
状态识别模块,用于根据所述人眼开合度确定人眼行为特征;
眼机交互模块,用于根据所述人眼行为特征控制机体动作;
所述根据所述人眼的最小纵坐标、最大纵坐标、最大横坐标和最小横坐标计算人眼的开合度,包括:
采用公式H=Ymax-Ymin计算人眼的高,其中,H是人眼上下眼睑的垂直距离,即人眼的高,Ymax是最大纵坐标,Ymin是最小纵坐标;
采用公式W=Xmax-Xmin计算人眼的宽,其中,W是人眼的两个眼角间的水平距离,即人眼的宽,Xmax是最大横坐标,Xmin是最小横坐标;
采用公式RHW=HW计算人眼的开合度,其中,RHW是人眼的开合度,H是人眼的高,W是人眼的宽;
所述根据所述开合度确定人眼行为特征,包括:
当人眼的开合度小于第一设定阈值时,人眼的状态为闭眼状态;
当人眼的开合度小于第二设定阈值且大于第一设定阈值时,人眼的状态为眯眼状态;
当人眼的开合度大于第二设定阈值时,人眼的状态为睁眼状态。
CN201911126463.1A 2019-11-18 2019-11-18 一种根据眼行为特征进行眼机交互的方法、装置及系统 Active CN111078000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911126463.1A CN111078000B (zh) 2019-11-18 2019-11-18 一种根据眼行为特征进行眼机交互的方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911126463.1A CN111078000B (zh) 2019-11-18 2019-11-18 一种根据眼行为特征进行眼机交互的方法、装置及系统

Publications (2)

Publication Number Publication Date
CN111078000A CN111078000A (zh) 2020-04-28
CN111078000B true CN111078000B (zh) 2023-04-28

Family

ID=70311224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911126463.1A Active CN111078000B (zh) 2019-11-18 2019-11-18 一种根据眼行为特征进行眼机交互的方法、装置及系统

Country Status (1)

Country Link
CN (1) CN111078000B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111835581B (zh) * 2020-06-17 2021-09-17 中车青岛四方机车车辆股份有限公司 一种以太网物理层信号测试方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578008A (zh) * 2017-09-02 2018-01-12 吉林大学 基于分块特征矩阵算法和svm的疲劳状态检测方法
CN108280444A (zh) * 2018-02-26 2018-07-13 江苏裕兰信息科技有限公司 一种基于车辆环视图的快速运动物体检测方法
CN108595008A (zh) * 2018-04-27 2018-09-28 北京计算机技术及应用研究所 基于眼动控制的人机交互方法
CN110221699A (zh) * 2019-06-13 2019-09-10 北京师范大学珠海分校 一种前置摄像头视频源的眼动行为识别方法
TW202004222A (zh) * 2018-05-18 2020-01-16 美商壯生和壯生視覺關懷公司 使用隱形眼鏡之系統及方法(二)
CN110750157A (zh) * 2019-10-18 2020-02-04 天津理工大学 基于3d眼球模型的眼控辅助输入装置及方法
CN113821108A (zh) * 2021-11-23 2021-12-21 齐鲁工业大学 基于多模态交互技术的机器人远程控制系统及控制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4648089B2 (ja) * 2005-05-27 2011-03-09 株式会社キャタラー 排ガス浄化用触媒
CN100559874C (zh) * 2007-03-21 2009-11-11 汤一平 基于全方位视觉传感器的头盔
US8473330B2 (en) * 2009-12-10 2013-06-25 GM Global Technology Operations LLC Software-centric methodology for verification and validation of fault models
CN106250801A (zh) * 2015-11-20 2016-12-21 北汽银翔汽车有限公司 基于人脸检测和人眼状态识别的疲劳检测方法
CN107831900B (zh) * 2017-11-22 2019-12-10 中国地质大学(武汉) 一种眼控鼠标的人机交互方法及系统
CN109740512A (zh) * 2018-12-29 2019-05-10 山东财经大学 一种用于疲劳驾驶判断的人眼状态识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578008A (zh) * 2017-09-02 2018-01-12 吉林大学 基于分块特征矩阵算法和svm的疲劳状态检测方法
CN108280444A (zh) * 2018-02-26 2018-07-13 江苏裕兰信息科技有限公司 一种基于车辆环视图的快速运动物体检测方法
CN108595008A (zh) * 2018-04-27 2018-09-28 北京计算机技术及应用研究所 基于眼动控制的人机交互方法
TW202004222A (zh) * 2018-05-18 2020-01-16 美商壯生和壯生視覺關懷公司 使用隱形眼鏡之系統及方法(二)
CN110221699A (zh) * 2019-06-13 2019-09-10 北京师范大学珠海分校 一种前置摄像头视频源的眼动行为识别方法
CN110750157A (zh) * 2019-10-18 2020-02-04 天津理工大学 基于3d眼球模型的眼控辅助输入装置及方法
CN113821108A (zh) * 2021-11-23 2021-12-21 齐鲁工业大学 基于多模态交互技术的机器人远程控制系统及控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王昱欣 ; 王贺升 ; 陈卫东 ; .软体机器人手眼视觉/形状混合控制.机器人.2018,(第05期),全文. *
蔡勇智 ; .基于图像识别的无弹射击自动报靶研究.科技信息.2013,(第20期),全文. *

Also Published As

Publication number Publication date
CN111078000A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN107193383B (zh) 一种基于人脸朝向约束的二级视线追踪方法
CN102393796B (zh) 基于眨眼特征提取的控制方法及基于该方法的拍摄眼镜
Mayberry et al. iShadow: design of a wearable, real-time mobile gaze tracker
CN110032271B (zh) 对比度调节装置及其方法、虚拟现实设备及存储介质
CN108427503A (zh) 人眼追踪方法及人眼追踪装置
CN105164999A (zh) 图像处理方法及图像处理装置
TWI729983B (zh) 電子裝置、螢幕調節系統及方法
CN109375765B (zh) 眼球追踪交互方法和装置
CN102841354A (zh) 一种具有显示屏幕的电子设备的保护视力实现方法
CN105095893A (zh) 图像采集装置和方法
CN103312972B (zh) 电子装置及其焦距调整方法
CN107260506B (zh) 基于眼动的3d视觉训练系统、智能终端及头戴设备
CN110352033A (zh) 用眼睛追踪装置确定眼睛睁开度
KR20120060978A (ko) 시선 위치 추적 기반의 3차원 인간-컴퓨터 상호작용 장치 및 방법
CN105843397A (zh) 基于瞳孔追踪技术的虚拟现实互动系统
CN109948435A (zh) 坐姿提醒方法及装置
CN111078000B (zh) 一种根据眼行为特征进行眼机交互的方法、装置及系统
CN114938556B (zh) 台灯光线自动调节方法、装置、电子设备及存储介质
US10819894B2 (en) Human machine interface system and method of providing guidance and instruction for iris recognition on mobile terminal
CN110750157A (zh) 基于3d眼球模型的眼控辅助输入装置及方法
CN109308118A (zh) 基于eog的中文眼写信号识别系统及其识别方法
DE102016119948A1 (de) Gestensteuerung mit Hilfe von Tiefenangaben
DE102022210008A1 (de) Verfahren und vorrichtungen zur augenerkennung
CN104905764B (zh) 一种基于fpga的高速视线跟踪方法
CN114220160A (zh) 一种基于vr技术的防作弊远程考试设备及其使用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant