CN114821753B - 一种基于视觉图像信息的眼动交互系统 - Google Patents
一种基于视觉图像信息的眼动交互系统 Download PDFInfo
- Publication number
- CN114821753B CN114821753B CN202210432529.5A CN202210432529A CN114821753B CN 114821753 B CN114821753 B CN 114821753B CN 202210432529 A CN202210432529 A CN 202210432529A CN 114821753 B CN114821753 B CN 114821753B
- Authority
- CN
- China
- Prior art keywords
- eye
- neural network
- convolutional neural
- module
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 33
- 230000003993 interaction Effects 0.000 title claims abstract description 26
- 230000000007 visual effect Effects 0.000 title claims abstract description 11
- 210000001508 eye Anatomy 0.000 claims abstract description 150
- 239000011521 glass Substances 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000003190 augmentative effect Effects 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 58
- 238000013527 convolutional neural network Methods 0.000 claims description 55
- 238000012360 testing method Methods 0.000 claims description 27
- 230000004913 activation Effects 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 238000010276 construction Methods 0.000 claims description 10
- 238000012790 confirmation Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 241000287181 Sturnus vulgaris Species 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 15
- 230000001960 triggered effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000004399 eye closure Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉图像信息的眼动交互系统,包括头戴式AR眼镜、睁闭眼识别模块、注视点坐标预测模块、闭眼计时模块和指令集识别模块。头戴式AR眼镜逐帧采集双眼图像,睁闭眼识别模块负责识别左右双眼分别处于睁眼状态还是闭眼状态,如果睁闭眼识别模块将双眼图像都识别为睁眼状态,则利用注视点坐标预测模块实时预测当前双眼的注视点坐标。如果有一只眼睛图像识别为闭眼状态或者双眼图像都识别为闭眼状态,则利用指令集识别模块对眼动动作指令进行判别。本发明系统无须繁琐的标定过程,可以随戴随用,同时具有良好的自适应性和鲁棒性,具有低成本以及适用性广泛的优点。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及到一种基于视觉图像信息的眼动交互系统。
背景技术
相比较于其它人机交互方式,眼动交互是人与其它对象最直接、最自然的一种交互方式,在人机交互领域有着广泛的应用前景,其更是AR、VR等设备的重要组成部分。传统的眼动交互方法往往依赖特有设备且需要使用者完成复杂的校准过程。比如,现在头戴式AR设备中普遍采用红外校准方式,其需要使用者在每次佩戴时完成多点的标定工作,通过红外光在眼球上的多点反射确定相对位置关系,这种方式不仅使用流程繁琐且还会受到环境光和佩戴过程中发生的位置偏移的影响。
发明内容
针对现有的眼动交互方法使用流程繁琐且易受到其它因素影响的问题,本发明公开了一种基于视觉图像信息的眼动交互系统,通过摄像头采集的人眼眼部图像就可以实时预测出人眼视线的方向并且实现包括“眨眼确认”在内的多种眼部动作指令。
本发明公开了一种基于视觉图像信息的眼动交互系统,包括头戴式AR眼镜、睁闭眼识别模块、注视点坐标预测模块、闭眼计时模块和指令集识别模块,头戴式AR眼镜与睁闭眼识别模块相连接,睁闭眼识别模块与注视点坐标预测模块相连接,注视点坐标预测模块与指令集识别模块相连接,闭眼计时模块与睁闭眼识别模块相连接。头戴式AR眼镜的近眼摄像头逐帧采集双眼图像,并将每一帧双眼图像送入睁闭眼识别模块,睁闭眼识别模块负责识别左右双眼分别处于睁眼状态还是闭眼状态,如果睁闭眼识别模块将双眼图像都识别为睁眼状态,则利用注视点坐标预测模块实时预测当前双眼的注视点坐标。如果睁闭眼识别模块识别双眼图像中有一只眼睛图像识别为闭眼状态或者双眼图像都识别为闭眼状态,则利用指令集识别模块对眼动动作指令进行判别,眼动动作指令在人机交互中起到指令作用。眼动动作指令包括眨眼确认等。闭眼计时模块负责对连续闭眼状态的持续时间进行统计,其采用按帧计数的方式对时间进行统计。双眼的注视点坐标是指被试者双眼注视屏幕时,双眼视线交汇于屏幕上的一点的坐标。双眼图像包括左右两个单眼图像。
睁闭眼识别模块采用三层隐藏层的卷积神经网络进行睁眼闭眼的二分类识别,该卷积神经网络的输入为每一帧的单眼图像,输出为睁眼或者闭眼的二分类识别结果,三层隐藏层分别为卷积层、池化层以及全连接层。
所述的睁闭眼识别模块的构建,首先需要构建样本数据集,其次是搭建卷积神经网络,最后是对所搭建的卷积神经网络进行训练和测试。
所述的构建样本数据集,采集N个人的睁眼闭眼图片各M张,在采集过程中,在头戴式AR眼镜的近眼摄像头能采集到完整双眼图像的前提下,确保采集环境光线、近眼摄像头相对被采集者的位置和角度均具有多样性,对所采集到的NM张图像样本分别采用旋转、平移、亮度变化等方式,将其扩增至3NM张图像样本以上,将扩增后的图像样本作样本数据集。
所述的搭建卷积神经网络,该卷积神经网络的第一层为卷积层。第二层为池化层,采用最大池化方案。第三层即为全连接层,该层采用线性拟合的方式得到预测结果,三个层依次连接,激活函数采用ReLU激活函数,并将该激活函数添加至卷积层之后。
所述的对所搭建的卷积神经网络进行训练和测试,对样本数据集进行尺寸缩放、归一化和标准化处理,将处理过的样本数据转化为PyTorch可处理的Tensor向量,作为该卷积神经网络的输入,该卷积神经网络的梯度更新采用随机梯度下降算法,该卷积神经网络的参数优化采用Adam函数。采用交叉验证法对样本数据集进行划分并进行迭代训练及测试。
所述的注视点预测模块,采用六层深度卷积神经网络来实现,该模块的输入为每一帧的双眼图片,其输出为预测得到的双眼的注视点坐标值。
所述的注视点预测模块,首先需要构建样本数据集,其次是搭建深度卷积神经网络,最后是对所搭建的深度卷积神经网络进行训练和测试。
所述的样本数据集的构建,需要若干名被试者参与,每一名被试者佩戴头戴式AR眼镜,凝视其头戴式AR眼镜显示界面中不断移动的目标,使其眼睛的注视点跟随目标移动,该目标从头戴式AR眼镜显示界面中背景网格图的左上角移动至右下角,再从右下角移动至左上角为一轮测试,每名被试者需要重复测试20轮,在每轮测试中,头戴式AR眼镜上的近眼摄像头逐帧采集被试者的双眼图像,并记录双眼注视点即目标的坐标位置,双眼图像和对应的注视点坐标构成该样本数据集的样本和标签,从而完成对该样本数据集的构建。
所述的搭建深度卷积神经网络,其第一层卷积层的卷积核数量为8,卷积核尺寸为3×3,卷积的步长为3。激活函数为ReLU激活函数。其后第2至6层卷积层卷积核数量逐层增加至前层的1.5倍,第2至6层卷积层的卷积核尺寸均为3×3,采用膨胀卷积的方式,膨胀系数为2,激活函数使用LeakyReLU激活函数。
所述的对所搭建的深度卷积神经网络进行训练和测试,对样本数据集进行尺寸缩放、归一化和标准化处理。将样本数据集的以7:3的数据量比例划分为训练集和测试集,以L1损失函数作为损失函数,以Adam函数作为优化函数,对所搭建的深度卷积神经网络进行迭代训练若干次后,取测试结果最佳的一组模型参数,作为该深度卷积神经网络的最终参数。
本发明的有益效果为:
本发明的公开的基于视觉图像信息的眼动交互方法无须繁琐的标定过程,可以随戴随用。基于眼部图像特征的眼动行为识别针对不同使用人员的眼部差异性也具有良好的自适应性,针对每次佩戴时位置的差异性以及佩戴过程中的产生的位置偏移也具有良好的鲁棒性。基于2D灰度图像特征的识别方式在不同环境光下,也具有良好的自适应性。此外,本方案只需要采集眼部图像的2D平面信息所以并不依赖特有设备,只需要普通的摄像头就可以实现,比如笔记本或者手机自带的摄像头或者一个普通的USB摄像头,相比较于传统的红外方式更是具有低成本以及适用性广泛的优点。
附图说明
图1为本发明在AR眼镜场景下的一种眼动交互方式总体流程图;
图2为本发明的睁闭眼识别模块的实现示意图;
图3为本发明的注视点预测模块的实现示意图;
图4为本发明的头戴式AR设备显示界面示意图;
图5为本发明的AR设备场景的一套眼动指令集的示意图;
图6为本发明在“右眼眼图识别为睁眼状态”时,左眼的不同状态下触发的“眨眼确认”、“长眨打开”两种指令的详细流程图。
具体实施方式
为了更好的了解本发明内容,这里给出一个实施例。
首先对本发明实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
深度学习:深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
卷积神经网络:Convolutional Neural Networks基于卷积运算的神经网络系统是深度学习一种方式。卷积神经网络主要由两部分组成,一部分是特征提取(卷积、激活函数、池化),另一部分是分类识别(全连接层)。其中:卷积(convolution):提取输入的不同特征;激活函数(Activation Function):引入非线性因素,把卷积层的结果进行非线性映射;池化层(Pooling):缩小输入图像,减少计算量;全连接层(Fully connected layers):全连接层在整个卷积神经网络中起到“分类器”的作用,即通过卷积、激活函数、池化等深度网络后,再经过全连接层对结果进行识别分类。yTorch:PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。全连接层:全连接层中的每一层是由许多神经元组成的平铺结构,其核心操作就是矩阵向量乘积y=Wx,从而将信号由一个特征空间线性变换到另一个特征空间。
基础卷积神经网络模型即Base CNN Model,最初主要用于进行图片分类任务,但可基于此模型架构修改或组合而进行其他深度学习任务如目标检测,语义分割等等,常见的基础卷积神经网络模型包括AlexNet,GoogLenet,ResNet,MobileNet,EfficientNet等等。
实施例1:
如参考图1,其示出了本发明在AR眼镜场景下的一种眼动交互方式总体流程图。
通过头戴式AR眼镜的近眼摄像头逐帧采集双眼图像,每一帧双眼图像送入睁闭眼识别模块,睁闭眼识别模块负责识别左右双眼分别处于睁眼状态还是闭眼状态,如果睁闭眼识别模块将双眼图像都识别为睁眼状态,则利用注视点坐标预测模责实时预测当前双眼的注视点坐标,在人机交互上用于对注视点进行定位。如果睁闭眼识别模块识别双眼图像中有一只眼睛图像识别为闭眼状态或者双眼图像都识别为闭眼状态,则利用指令集识别模块对眼动动作指令进行判别,眼动动作指令在人机交互中起到指令作用。眼动动作指令包括眨眼确认等。闭眼计时模块负责对连续闭眼状态的持续时间进行统计,其采用按帧计数的方式对时间进行统计。针对不同设备性能可以设置不同的图像采集频率。以30Hz的采样率为例,即设备每秒采集30张眼部图像用于分析,那么闭眼计时模块每连续计数30张闭眼图片为一秒。双眼的注视点坐标是指被试者双眼注视屏幕时,双眼视线交汇于屏幕上的一点的坐标。双眼图像包括左右两个单眼图像。
如参考图2所示,基于移动设备算力有限性以及对眼动交互的实时性考量,睁闭眼识别模块采用三层隐藏层的卷积神经网络进行睁眼闭眼的二分类识别,该卷积神经网络的输入为每一帧的单眼图像,输出为睁眼或者闭眼的二分类识别结果,三层隐藏层分别为卷积层、池化层以及全连接层。
所述的睁闭眼识别模块的构建,首先需要构建样本数据集,其次是搭建卷积神经网络,最后是对所搭建的卷积神经网络进行训练和测试。
所述的构建样本数据集,采集N个人的睁眼闭眼图片各M张,在采集过程中,在头戴式AR眼镜的近眼摄像头能采集到完整双眼图像的前提下,确保采集环境光线、近眼摄像头相对被采集者的位置和角度均具有多样性,对所采集到的NM张图像样本分别采用旋转、平移、亮度变化等方式,将其扩增至3NM张图像样本以上,将扩增后的图像样本作样本数据集。
所述的搭建卷积神经网络,其网络结构如图2所示,该卷积神经网络的第一层为卷积层,其卷积核设置为10个,卷积核尺寸为3*3,步长为2。第二层为池化层,采用最大池化方案。第三层即为全连接层,该层采用线性拟合的方式得到预测结果,三个层依次连接,激活函数采用ReLU激活函数,并将该激活函数添加至卷积层之后。
所述的对所搭建的卷积神经网络进行训练和测试,为防止参数量过大影响在线识别的速度,同时减少样本无关特征带来的差异性影响,对样本数据集进行尺寸缩放、归一化和标准化处理。以采集的图像尺寸640*400为例,首先将图像放缩至320*200大小,然后将所有像素值均除以250使所有像素值均分布在0-1之间,实现归一化。然后以0.5为均值,0.5为方差对样本进行标准化分布处理。将处理过的样本数据转化为PyTorch可处理的Tensor向量,作为该卷积神经网络的输入,该卷积神经网络的梯度更新采用随机梯度下降算法,该卷积神经网络的参数优化采用Adam函数。采用交叉验证法对样本数据集进行划分并进行迭代训练及测试。
所述的注视点预测模块,如参考图3所示,为达到较好的注视点预测精度,同时兼顾注视点预测的实时性效果,采用六层深度卷积神经网络来实现,该模块的输入为每一帧的双眼图片,其输出为预测得到的双眼的注视点坐标值。
所述的注视点预测模块,首先需要构建样本数据集,其次是搭建深度卷积神经网络,最后是对所搭建的深度卷积神经网络进行训练和测试。
所述的样本数据集的构建,为克服不同使用者眼睛形状、大小等差异性多带来的影响使模型具有良好的跨被试能力,需要若干名被试者参与,每一名被试者佩戴头戴式AR眼镜,凝视其头戴式AR眼镜显示界面中不断移动的目标,使其眼睛的注视点跟随目标移动,该目标从头戴式AR眼镜显示界面中背景网格图的左上角移动至右下角,再从右下角移动至左上角为一轮测试,每名被试者需要重复测试20轮,在每轮测试中,头戴式AR眼镜上的近眼摄像头逐帧采集被试者的双眼图像,并记录双眼注视点即目标的坐标位置,双眼图像和对应的注视点坐标构成该样本数据集的样本和标签,从而完成对该样本数据集的构建。头戴式AR设备显示界面如图4所示。
所述的搭建深度卷积神经网络,基于参考图3所示的网络结构,其第一层卷积层的卷积核数量为8,卷积核尺寸为3×3,卷积的步长为3。激活函数为ReLU激活函数。其后第2至6层卷积层卷积核数量逐层增加至前层的1.5倍,第2至6层卷积层的卷积核尺寸均为3×3,但为了在减少参数量的同时不减少特征数,采用膨胀卷积的方式,膨胀系数为2,激活函数使用LeakyReLU激活函数。
所述的对所搭建的深度卷积神经网络进行训练和测试,对样本数据集进行尺寸缩放、归一化和标准化处理。将样本数据集的以7:3的数据量比例划分为训练集和测试集,以L1损失函数作为损失函数,以Adam函数作为优化函数,对所搭建的深度卷积神经网络进行迭代训练若干次后,取测试结果最佳的一组模型参数,作为该深度卷积神经网络的最终参数。参考图5展示了此发明为AR设备场景而设计的一套眼动指令集。
首先指明,该指令集可以不依赖额外的传感器,比如用右眼闭眼、左眼眼球向上运动代替右眼闭眼、头部姿态向上的滚动页面指令,但针对AR设备场景下,其AR设备具有头部姿态运动传感器的优势,为使用户拥有更好的使用体验以及更低的学习成本,此指令集以AR设备的头部姿态传感器为辅助示出了一种AR设备场景下的眼动指令集。应当明确的是此实施例是作为AR设备场景下的一种实施范例,但是此发明可以应用于包括但不限于AR设备以及任何具有双目摄像头及姿态传感器(陀螺仪)的设备或场景。
如整体流程图中所介绍,在双眼均闭眼或者左眼、右眼中有一只眼睛闭眼时,整体流程进入眼动指令集识别模块。如图5所示,该指令集包括了人机交互中最常用的八种指令。具体介绍如下:
应当首先指出的是,为了避免人正常眼睑跳动所带来的指令误触,所有眨眼指令必须要求单眼闭眼在0.5秒以上。
指令1:眨眼确认
当右眼处于睁眼状态,左眼处于闭眼状态且闭眼时长大于0.5秒但是小于1.5秒时触发,该指令模拟了鼠标的单击确认功能,是人机交互中最常用的一个功能。
指令2:长眨打开
当右眼处于睁眼状态,左眼处于闭眼状态且闭眼状态时长大于1.5秒但是小于3秒时触发。该指令模拟了鼠标的双击打开功能,也是人机交互中非常常用的一个功能。
指令3:向上滚动页面
当左眼处于睁眼状态,右眼处于闭眼状态且闭眼时长大于0.5秒时开始读取AR设备头部姿态传感器数据,当头部向上运动即抬头时,触发此“向上滚动页面”指令。该指令模拟了鼠标的向下滚动滚轮实现页面向上滚动的功能或者在手机上用手指向上滑动页面的功能。
指令4:向下滚动页面
当左眼处于睁眼状态,右眼处于闭眼状态且闭眼时长大于0.5秒时开始读取AR设备头部姿态传感器数据,当头部向下运动即低头时,触发此“向下滚动页面”指令。该指令模拟了鼠标的向上滚动滚轮实现页面向下滚动的功能或者在手机上用手指向下滑动页面的功能。
指令5:向左翻页
当左眼处于睁眼状态,右眼处于闭眼状态且闭眼时长大于0.5秒时开始读取AR设备头部姿态传感器数据,当头部向左运动即向左扭头时,触发此“向左翻页”指令。该指令模拟了在手机上用手指向左滑动翻页的功能。
指令6:向右翻页
当左眼处于睁眼状态,右眼处于闭眼状态且闭眼时长大于0.5秒时开始读取AR设备头部姿态传感器数据,当头部向右运动即向右扭头时,触发此“向右翻页”指令。该指令模拟了在手机上用手指向右滑动翻页的功能。
指令7:返回上一层
当左右双眼都处于闭眼状态,且闭眼时间大于0.5秒、小于1.5秒时触发。该功能模拟了手机三大功能键之一的点击返回功能。
指令8:返回首页
当左右双眼都处于闭眼状态,且闭眼时长大于1.5秒小于3秒时触发。该功能模拟了手机三大功能键之一“Home”键功能即返回首页功能。
以“眨眼确认”、“长眨打开”指令为例介绍指令识别的具体过程:
如参考图6,其示出了在“右眼眼图识别为睁眼状态”时,左眼的不同状态下触发的“眨眼确认”、“长眨打开”两种指令的详细流程图。
首先,通过AR眼镜的近眼摄像逐帧采集单眼图像,每一帧眼部图像经过预处理(尺寸缩放、归一化、标准化)后送入闭眼识别模块,闭眼识别模块检测当前帧的眼图是否闭眼,如果闭眼则进入闭眼计时模块,闭眼计时模块负责检测连续闭眼状态的时间,若连续闭眼时间不足0.5秒,即在开始闭眼的0.5秒内检测到睁眼状态,则闭眼计数器清零;若连续闭眼时间超过0.5秒,则继续计时,若在此后的1秒内检测到睁眼状态则触发“眨眼确认”指令,否则继续计时;若在此后的1.5秒内即左眼开始闭眼的1.5秒到3秒时间内检测到左眼睁眼状态,则触发“长眨打开”指令,否则判定为空指令。
需要特别指出的是,所有指令触发完成后,闭眼计时器都会清零,为下一次指令的触发做准备。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (4)
1.一种基于视觉图像信息的眼动交互系统,其特征在于,包括头戴式AR眼镜、睁闭眼识别模块、注视点坐标预测模块、闭眼计时模块和指令集识别模块,头戴式AR眼镜与睁闭眼识别模块相连接,睁闭眼识别模块与注视点坐标预测模块相连接,注视点坐标预测模块与指令集识别模块相连接,闭眼计时模块与睁闭眼识别模块相连接;头戴式AR眼镜的近眼摄像头逐帧采集双眼图像,并将每一帧双眼图像送入睁闭眼识别模块,睁闭眼识别模块负责识别左右双眼分别处于睁眼状态还是闭眼状态,如果睁闭眼识别模块将双眼图像都识别为睁眼状态,则利用注视点坐标预测模块实时预测当前双眼的注视点坐标;如果睁闭眼识别模块识别双眼图像中有一只眼睛图像识别为闭眼状态或者双眼图像都识别为闭眼状态,则利用指令集识别模块对眼动动作指令进行判别,眼动动作指令在人机交互中起到指令作用;闭眼计时模块负责对连续闭眼状态的持续时间进行统计,其采用按帧计数的方式对时间进行统计;双眼的注视点坐标是指被试者双眼注视屏幕时,双眼视线交汇于屏幕上的一点的坐标;双眼图像包括左右两个单眼图像;
睁闭眼识别模块采用三层隐藏层的卷积神经网络进行睁眼闭眼的二分类识别,该卷积神经网络的输入为每一帧的单眼图像,输出为睁眼或者闭眼的二分类识别结果,三层隐藏层分别为卷积层、池化层以及全连接层;
所述的睁闭眼识别模块的构建,首先需要构建样本数据集,其次是搭建卷积神经网络,最后是对所搭建的卷积神经网络进行训练和测试;
所述的构建样本数据集,采集N个人的睁眼闭眼图片各M张,在采集过程中,在头戴式AR眼镜的近眼摄像头能采集到完整双眼图像的前提下,确保采集环境光线、近眼摄像头相对被采集者的位置和角度均具有多样性,对所采集到的NM张图像样本分别采用旋转、平移、亮度变化的方式,将其扩增至3NM张图像样本以上,将扩增后的图像样本作样本数据集;
所述的搭建卷积神经网络,该卷积神经网络的第一层为卷积层;第二层为池化层,采用最大池化方案;第三层即为全连接层,该层采用线性拟合的方式得到预测结果,三个层依次连接,激活函数采用ReLU激活函数,并将该激活函数添加至卷积层之后;
所述的对所搭建的卷积神经网络进行训练和测试,对样本数据集进行尺寸缩放、归一化和标准化处理,将处理过的样本数据转化为PyTorch可处理的Tensor向量,作为该卷积神经网络的输入,该卷积神经网络的梯度更新采用随机梯度下降算法,该卷积神经网络的参数优化采用Adam函数;采用交叉验证法对样本数据集进行划分并进行迭代训练及测试。
2.如权利要求1所述的基于视觉图像信息的眼动交互系统,其特征在于,所述的注视点预测模块,采用六层深度卷积神经网络来实现,该模块的输入为每一帧的双眼图片,其输出为预测得到的双眼的注视点坐标值。
3.如权利要求2所述的基于视觉图像信息的眼动交互系统,其特征在于,所述的注视点预测模块,首先需要构建样本数据集,其次是搭建深度卷积神经网络,最后是对所搭建的深度卷积神经网络进行训练和测试;
所述的样本数据集的构建,需要若干名被试者参与,每一名被试者佩戴头戴式AR眼镜,凝视其头戴式AR眼镜显示界面中不断移动的目标,使其眼睛的注视点跟随目标移动,该目标从头戴式AR眼镜显示界面中背景网格图的左上角移动至右下角,再从右下角移动至左上角为一轮测试,每名被试者需要重复测试20轮,在每轮测试中,头戴式AR眼镜上的近眼摄像头逐帧采集被试者的双眼图像,并记录双眼注视点即目标的坐标位置,双眼图像和对应的注视点坐标构成该样本数据集的样本和标签,从而完成对该样本数据集的构建;
所述的搭建深度卷积神经网络,其第一层卷积层的卷积核数量为8,卷积核尺寸为3×3,卷积的步长为3;激活函数为ReLU激活函数;其后第2至6层卷积层卷积核数量逐层增加至前层的1.5倍,第2至6层卷积层的卷积核尺寸均为3×3,采用膨胀卷积的方式,膨胀系数为2,激活函数使用LeakyReLU激活函数;
所述的对所搭建的深度卷积神经网络进行训练和测试,对样本数据集进行尺寸缩放、归一化和标准化处理;将样本数据集的以7:3的数据量比例划分为训练集和测试集,以L1损失函数作为损失函数,以Adam函数作为优化函数,对所搭建的深度卷积神经网络进行迭代训练若干次后,取测试结果最佳的一组模型参数,作为该深度卷积神经网络的最终参数。
4.如权利要求1所述的基于视觉图像信息的眼动交互系统,其特征在于,眼动动作指令包括眨眼确认。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432529.5A CN114821753B (zh) | 2022-04-23 | 2022-04-23 | 一种基于视觉图像信息的眼动交互系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432529.5A CN114821753B (zh) | 2022-04-23 | 2022-04-23 | 一种基于视觉图像信息的眼动交互系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821753A CN114821753A (zh) | 2022-07-29 |
CN114821753B true CN114821753B (zh) | 2024-04-09 |
Family
ID=82507772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210432529.5A Active CN114821753B (zh) | 2022-04-23 | 2022-04-23 | 一种基于视觉图像信息的眼动交互系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821753B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115602286B (zh) * | 2022-10-18 | 2024-06-04 | 上海诠视传感技术有限公司 | 一种基于ar眼镜的双眼同时知觉检测和训练方法及系统 |
CN116185182B (zh) * | 2022-12-30 | 2023-10-03 | 天津大学 | 一种融合眼动注意力的可控图像描述生成系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020147948A1 (en) * | 2019-01-16 | 2020-07-23 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
CN113095297A (zh) * | 2021-05-11 | 2021-07-09 | 昆明理工大学 | 一种基于一维投影跟踪眼动速率的疲劳检测方法 |
CN113419623A (zh) * | 2021-05-27 | 2021-09-21 | 中国人民解放军军事科学院国防科技创新研究院 | 一种非标定眼动交互方法和装置 |
-
2022
- 2022-04-23 CN CN202210432529.5A patent/CN114821753B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020147948A1 (en) * | 2019-01-16 | 2020-07-23 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
CN113095297A (zh) * | 2021-05-11 | 2021-07-09 | 昆明理工大学 | 一种基于一维投影跟踪眼动速率的疲劳检测方法 |
CN113419623A (zh) * | 2021-05-27 | 2021-09-21 | 中国人民解放军军事科学院国防科技创新研究院 | 一种非标定眼动交互方法和装置 |
Non-Patent Citations (1)
Title |
---|
基于LSTM的眼动行为识别及人机交互应用;黄君浩;贺辉;;计算机系统应用;20200315(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114821753A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114821753B (zh) | 一种基于视觉图像信息的眼动交互系统 | |
US8732623B2 (en) | Web cam based user interaction | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
US20150338651A1 (en) | Multimodal interation with near-to-eye display | |
CN111898407B (zh) | 一种基于人脸动作识别的人机交互操作系统 | |
CN106909220A (zh) | 一种适用于触控的视线交互方法 | |
CN105516280A (zh) | 一种多模态学习过程状态信息压缩记录方法 | |
Kalsh et al. | Sign language recognition system | |
Rautaray et al. | Design of gesture recognition system for dynamic user interface | |
Balasuriya et al. | Learning platform for visually impaired children through artificial intelligence and computer vision | |
Raheja et al. | Android based portable hand sign recognition system | |
CN106681509A (zh) | 界面操作的方法和系统 | |
Adhikari et al. | A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform. | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
Surekha et al. | Hand Gesture Recognition and voice, text conversion using | |
KR20200081529A (ko) | 사회적 수용성을 고려한 hmd 기반 사용자 인터페이스 방법 및 장치 | |
Bhaltilak et al. | Human motion analysis with the help of video surveillance: a review | |
Chaudhary | Finger-stylus for non touch-enable systems | |
Manresa-Yee et al. | Towards hands-free interfaces based on real-time robust facial gesture recognition | |
Yu et al. | The study of facial gesture based on facial features | |
Kawaguchi et al. | Basic investigation of sign language motion classification by feature extraction using pre-trained network models | |
Alagarsamy et al. | Control the movement of mouse using computer vision technique | |
CN112527103A (zh) | 显示设备的遥控方法、装置、设备及计算机可读存储介质 | |
Pradeep et al. | Advancement of sign language recognition through technology using python and OpenCV | |
Cao | Eye tracking in human-computer interaction recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |