CN104504390A - 一种基于眼动数据的网上用户状态识别方法和装置 - Google Patents
一种基于眼动数据的网上用户状态识别方法和装置 Download PDFInfo
- Publication number
- CN104504390A CN104504390A CN201510019518.4A CN201510019518A CN104504390A CN 104504390 A CN104504390 A CN 104504390A CN 201510019518 A CN201510019518 A CN 201510019518A CN 104504390 A CN104504390 A CN 104504390A
- Authority
- CN
- China
- Prior art keywords
- eye movement
- blinkpunkt
- user
- network
- movement data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种基于眼动数据的网上用户状态识别方法和装置,所述方法包括如下步骤:采集网上用户在观看网页的过程中的眼动数据,并对所述眼动数据进行预处理,得到预处理后的眼动数据;对所述预处理后的眼动数据进行特征提取,获取多个眼动特征参数;将所述网上用户的所述多个眼动特征参数输入到预设的状态分类器中进行比对,以识别所述网上用户的当前工作状态为搜索状态或浏览状态。本发明针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了基于支持向量机的分类方法,学习速度快,分类正确率高,具有较高的识别效率。
Description
技术领域
本发明涉及模式识别人机交互技术领域,特别涉及一种基于眼动数据的网上用户状态识别方法和装置。
背景技术
当前,计算机网络已经成为人们工作、学习、生活等各个方面不可或缺的平台,计算机网络智能的研究成为了焦点。作为计算机网络智能的Web智能是研究Web环境中实现智能的方法和应用,是人工智能与计算机网络两个领域的结合。Web智能包括两个方面:一个是基于网页的人机交互智能,一个是信息服务智能。网页作为人与网络交互的重要人机界面,但是目前只能通过键盘、鼠标和触摸屏等被动的接受用户的信息请求,从而做出响应和提供信息服务。这种被动的感知技术已经越来越不能满足人们对于机器智能化程度的需求。
发明内容
本发明的一个目的是提供一种基于眼动数据的网上用户状态识别方法,该方法针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了诸如基于支持向量机SVM的分类方法,解决了高效准确的机器识别用户状态的技术问题,其学习速度快,分类正确率高,具有较高的识别效率。
为实现上述目的,本发明提供一种基于眼动数据的网上用户状态识别方法,包括如下步骤:
步骤S1,采集网上用户在观看网页的过程中的眼动数据,并对所述眼动数据进行预处理,得到预处理后的眼动数据;
步骤S2,对所述预处理后的眼动数据进行特征提取,获取多个眼动特征参数;
步骤S3,将所述网上用户的所述多个眼动特征参数输入到预设的状态分类器中进行比对,以识别所述网上用户的当前工作状态为搜索状态或浏览状态。
根据本发明的一个方面,采用红外线摄像机采集所述网上用户在观看网页的过程中的眼动数据。
根据本发明的一个方面,所述眼动数据包括:所述网上用户的注视点位置、注视时间和瞳孔直径。
根据本发明的一个方面,所述多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数,所述步骤S2还包括:
步骤S21,根据每个眼动数据中的瞳孔直径构成瞳孔直径数据集矩阵u,其中,
其中,m为所述眼动数据中的注视点的个数,n为在m个注视点中选取的n个采样点,uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
在所述瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以所述瞳孔直径的基线值D0,得到下述瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值,
步骤S22,根据每个所述注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0);
设所述网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算所述注视点中心距矩阵中每行数据的中位数,构成下述注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数;
步骤S23,组合所述瞳孔直径变化率和注视点中心距的中位数。
根据本发明的又一个方面,所述步骤S3还包括:
步骤S31,对所述步骤S1之前采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2;
步骤S32,将所述步骤S31中的组合特征数据集输入到支持向量机中,训练得到状态分类器;
步骤S33,将所述步骤S2中得到的多个眼动特征参数输入到所述步骤S32中得到的所述状态分类器中,识别所述网上用户的当前工作状态为搜索状态或浏览状态。
本发明提供的基于眼动数据的网上用户状态识别方法,解决了在基于视觉行为人机接口领域,仍然存在无法识别网上用户工作状态的问题。本发明针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了基于支持向量机的分类方法,学习速度快,分类正确率高,具有较高的识别效率。本发明可以根据网上用户观看网页时的眼动信息,识别出用户的工作状态是有目的的搜索状态还是无目的的浏览状态。本发明基于眼动数据的网上用户工作状态识别的方法和系统实现了一种以眼动为方式的人机交互,通过用户的眼动数据来识别用户的工作状态。
本发明的另一个目的是提供一种基于眼动数据的网上用户状态识别装置,该装置针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了诸如基于支持向量机SVM的分类方法,解决了高效准确的机器识别用户状态的技术问题,其学习速度快,分类正确率高,具有较高的识别效率。
为实现上述目的,本发明提供一种基于眼动数据的网上用户状态识别装置,包括:数据采集和预处理单元,用于采集网上用户在观看网页的过程中的眼动数据,并对所述眼动数据进行预处理,得到预处理后的眼动数据;特征提取单元,用于对所述预处理后的眼动数据进行特征提取,获取多个眼动特征参数;状态判断单元,用于将所述网上用户的所述多个眼动特征参数输入到预设的状态分类器中进行比对,以识别所述网上用户的当前工作状态为搜索状态或浏览状态。
根据本发明的一个方面,所述数据采集和预处理单元包括红外线摄像机,所述红外线摄像机用于采集所述网上用户在观看网页的过程中的眼动数据。
根据本发明的一个方面,所述眼动数据包括:所述网上用户的注视点位置、注视时间和瞳孔直径。
根据本发明的一个方面,所述多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数,所述特征提取单元还包括:瞳孔直径变化率计算子单元和注视点中心距的中位数计算子单元,其中,
所述瞳孔直径变化率计算子单元用于根据每个眼动数据中的瞳孔直径构成瞳孔直径数据集矩阵u,其中,
其中,m为所述眼动数据中的注视点的个数,n为在m个注视点中选取的n个采样点,uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
所述瞳孔直径变化率计算子单元在所述瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以所述瞳孔直径的基线值D0,得到下述瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值;
所述注视点中心距的中位数计算子单元用于根据每个所述注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0));
所述注视点中心距的中位数计算子单元设所述网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算所述注视点中心距矩阵中每行数据的中位数,构成下述注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数。
根据本发明的又一个方面,所述状态判断单元还包括:对前一次采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2;
所述状态判断单元将所述数据采集和预处理单元采集到的组合特征数据集输入到支持向量机中,训练得到状态分类器,然后将所述数据采集和预处理单元得到的多个眼动特征参数输入到所述状态分类器中,识别所述网上用户的当前工作状态为搜索状态或浏览状态。
本发明提供的基于眼动数据的网上用户状态识别装置,解决了在基于视觉行为人机接口领域,仍然存在无法识别网上用户工作状态的问题。本发明针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了基于支持向量机的分类方法,学习速度快,分类正确率高,具有较高的识别效率。本发明可以根据网上用户观看网页时的眼动信息,识别出用户的工作状态是有目的的搜索状态还是无目的的浏览状态。本发明基于眼动数据的网上用户工作状态识别的方法和系统实现了一种以眼动为方式的人机交互,通过用户的眼动数据来识别用户的工作状态。
附图说明
图1是根据本发明的基于眼动数据的网上用户状态识别方法的一实施方式的流程图;
图2是根据本发明的对眼动数据进行特征提取的一实施方式的流程图;
图3是根据本发明的方法中识别所述网上用户的当前工作状态的一实施方式的流程图;
图4是根据本发明的方法中基于眼动数据的网上用户状态识别装置的一实施方式的结构示意图;
图5是根据本发明的装置中特征提取单元的一实施方式的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
下面首先对本发明实施例的基于眼动数据的网上用户状态识别方法和装置的技术背景内容进行说明。
鉴于被动感知技术不能满足人们对于机器智能化的需要,本采用自动感知技术实现人机交互智能的需要,其特点是机器能够主动感知用户需求并为用户提供信息服务。
具体地,作为网页的人机界面,如果能够获取用户网上的行为和用户的心理状态,则能给用户提供更好的服务。其中,视觉搜索和浏览是用户上网的两种主要的视觉行为方式。
视觉搜索是用户带有明确的搜索目标,有目的地在网页上查找需求信息。视觉浏览是用户没有明确目标,自由浏览和查看网页上的信息。网页上的信息搜索过程会受信息呈现形式、信息布局、以及浮动广告等多种因素的影响。由于,越来越多的网页设计采用了浮动广告的设计理念,而在网上用户搜索网页内容的过程中浮动广告等内容会对用户产生负面影响,分散用户的注意力,使人产生厌恶情绪从而降低用户的搜索效率。如果能够区分网上用户的工作状态,适时的增加或者减少浮动广告会有利于用户关注浮动广告内容并且提高搜索效率。
网上用户观看网页过程中的眼动信息在不同状态下会分别表现出不同的特征,可以识别眼动信息的特征,判断用户在观看网页过程中的思维状态,进行交互。
由此,本发明实施例的基于眼动数据的网上用户状态识别方法和装置,可以根据网上用户的眼动数据特征定义及其相应的特征数据组合生成人机交互信息并利用支持向量机SVM进行状态识别,判断该网上用户是在搜索网页还是浏览网页。
如图1所示,本发明提供一种基于眼动数据的网上用户状态识别方法的一具体实施例,包括如下步骤:
步骤S1,采集网上用户在搜索网页中特定目标和随机浏览网页两种状态下的眼动数据,并对眼动数据进行预处理,得到预处理后的眼动数据。
在一个实施方式中,具体地,利用眼动追踪装置,获取网上用户在搜索和浏览网页两种状态下的眼动数据。其中,眼动追踪装置可以为型号为TobiiT120眼动仪,利用眼动仪中的红外线摄像机以120Hz的采样频率采集网上用户在两种状态下的眼动数据。其中,眼动数据,是指与眼球运动相关的数据,包括但不限于与注视、眼跳和追随等眼球运动(或说眼球运动模式)等相关的数据。这里,眼动数据包括:网上用户的注视点(即用户查看网页时眼球不动时位于网页的点)位置、注视时间和瞳孔直径。
进一步,每个注视点的注视信息数据集F包含所有的注视信息fk,即与“注视”被观察对象的这类眼球运动信息相关的数据。该fk是一个五元数组(tfk,dlk,drk,xfk,yfk),tfk为注视点的注视时间,dlk为左眼瞳孔直径,drk为右眼瞳孔直径,xfk为注视点的横坐标,yfk为注视点的纵坐标。一种方式,可以按照处理瞳孔直径的通用方法,采用左右眼瞳孔直径的平均值代表该注视点的瞳孔直径值,即算得dfk=(dlk+drk)/2,将fk简化为四元组(tfk,dfk,xfk,yfk)。
进一步,眼动跟踪技术能够实时记录用户在网页上的眼球运动情况。通过分析眼动轨迹(眼球的运动轨迹)、瞳孔直径等根据视觉感官反应的眼球的行为指标,能更加客观的反映用户的行为,从而揭示人们在网页上的心理状态。
对上述眼动数据进行预处理,包括剔除采集到的眼动数据中的极端数据和三倍标准差以外的异常数据,得到预处理后的眼动数据。
步骤S2,对预处理后的眼动数据进行特征提取,获取多个眼动特征参数。
一个实施方式中,可以分别选定每一个注视点,该注视点对应的注视信息中包含注视时间信息。针对眼动数据,计算每个注视点在注视时间内的瞳孔直径变化率和注视点中心距。其中,多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数。
在一个实施例中,可以根据用户的注视点位置数据计算用户的注视点中心距,比如,注视点坐标(xfk,yfk)和网页中心坐标间的欧式距离为注视点中心距;可以根据用户的瞳孔直径dfk大小计算用户在观看网页过程中的瞳孔直径大小随时间的变化曲线;进而,计算出网页中所有注视点的中位数和每个注视点的瞳孔直径变化率作为特征参数。
如图2所示,所述步骤S2还可以包括如下步骤:
步骤S21,计算瞳孔直径变化率,得到瞳孔直径变化率特征数据集。
在一个实施方式中,注视点在注视时间内的采样次数为注视时间除以采样周期,其中可以预设采样周期例如为:8毫秒。
根据每个眼动数据中的瞳孔直径构成瞳孔直径数据集矩阵u,其中,
其中,m为眼动数据中的注视点的个数,n为在第m个注视点中选取的n个采样点,而uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
在瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以瞳孔直径的基线值D0,得到下述m行一列瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值。
步骤S22,计算注视点中心距的中位数,得到注视点中心距特征数据集。根据每个注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0)。注视点信息数据集可以简化为三元组(tfk,dfk,cdfk)。
设网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算注视点中心距矩阵中每行数据的中位数,构成下述p行一列注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数;
步骤S23,组合瞳孔直径变化率和注视点中心距的中位数。
步骤S3,将网上用户的多个眼动特征参数输入到预设的状态分类器中进行比对,以识别网上用户的当前工作状态为搜索状态或浏览状态。
在一个实施方式中,将网上用户在观看网页的过程中的工作状态分为两个状态类型,一个为搜索状态,一个为浏览状态。获取用户在观看网页过程中的眼动数据会在这两个状态中分别表现出不同的特征,当网上用户处于搜索状态时,相较于浏览状态,在眼动数据上会表现出瞳孔直径变化率减小,注视点中心距呈现周边特性的特征。因此获取到这两个状态的眼动数据的不同特征,即可以判断用户在观看网页过程中所处的状态。
如图3所示,所述步骤S3还可以包括如下步骤:
步骤S31,对步骤S1之前采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取。一种方式为:对搜索任务的眼动数据进行特征提取,得到搜索状态下的眼动特征参数;对浏览任务的眼动数据进行特征提取,得到浏览状态下的眼动特征参数。进而,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2。
步骤S32,将步骤S31中的组合特征数据集进行机器学习,以训练得到状态分类器。一种方式为:将组合特征数据集输入到支持向量机SVM中,训练得到状态分类器。例如,可以对搜索状态和浏览状态的眼动特征参数输入到支持向量机SVM中进行训练,得到训练过的状态分类器,从而实现后续对网络用户进行搜索或浏览的视觉行为的识别。其中,利用支持向量机对所得的眼动特征参数进行训练,训练得到状态分类器,一个具体实施例可以是:利用带有类别标签的特征参数数据集作为训练样本集,选择径向基函数作为核函数,训练时使用五折交叉验证,即训练样本数为总样本的4/5,测试样本为总样本的1/5,用网格搜索法选择最佳的参数C和gamma。进一步,状态分类器可以采用多种形式,除了上述例子中采用的支持向量机(SVM分类器)进行训练得到外、神经网络、遗传算法等其他机器学习算法也可以实现分类器训练。优选地,状态分类器还可以为libsvm支持向量机工具包等。
步骤S33,将步骤S2中得到的多个眼动特征参数(包括实时的或已经采集的)输入到步骤S32中得到的状态分类器中,识别网上用户的当前工作状态为搜索状态或浏览状态。
在一个实施方式中,将步骤S1中提取的眼动特征数据按步骤S2中数据集格式整理,输入到训练好的状态分类器中,从而判断网上用户的工作状态为搜索还是浏览,即识别出网上用户的工作状态类型。例如:支持向量机的输出为1时,则对应为搜索状态;输出为2时,则对应为浏览状态。
综上,本实施例采用基于眼动数据的网上用户状态识别方法,解决了在基于视觉行为人机接口领域,仍然存在无法识别网上用户工作状态的问题。本发明针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了基于支持向量机的分类方法,学习速度快,分类正确率高,具有较高的识别效率。本发明可以根据网上用户观看网页时的眼动信息,识别出用户的工作状态是有目的的搜索状态还是无目的的浏览状态。本发明基于眼动数据的网上用户工作状态识别的方法和系统实现了一种以眼动为方式的人机交互,通过用户的眼动数据来识别用户的工作状态。
本发明还提出一种基于眼动数据的网上用户状态识别装置,参见图4所示的装置的一个实施例结构示意图,包括:数据采集和预处理单元100、特征提取单元200和状态判断单元300。
具体地,数据采集和预处理单元100用于采集网上用户在观看网页的过程中的眼动数据,并对眼动数据进行预处理,得到预处理后的眼动数据。
在本发明的实施例中,数据采集和预处理单元100包括红外线摄像机,红外线摄像机用于采集网上用户在观看网页的过程中的眼动数据。其中,眼动数据包括:网上用户的注视点位置、注视时间和瞳孔直径。
在一个实施方式中,具体地,利用眼动追踪装置,获取网上用户观看网页时的眼动数据。其中,眼动追踪装置可以为型号为Tobii T120眼动仪,利用眼动仪中的红外线摄像机以120Hz的采样频率采集网上用户在观看网页的过程中的眼动数据。其中,眼动数据,是指与眼球运动相关的数据,包括但不限于与注视、眼跳和追随等眼球运动(或说眼球运动模式)等相关的数据。这里,眼动数据包括:网上用户的注视点(即用户查看网页时眼球不动时位于网页的点)位置、注视时间和瞳孔直径。
进一步,每个注视点的注视信息数据集F包含所有的注视信息fk,即与“注视”被观察的对象的这类眼球运动信息相关的数据。该fk是一个五元数组(tfk,dlk,drk,xfk,yfk),tfk为注视点的注视时间,dlk为左眼瞳孔直径,drk为右眼瞳孔直径,xfk为注视点的横坐标,yfk为注视点的纵坐标。一种方式,可以按照处理瞳孔直径的通用方法,采用左右眼瞳孔直径的平均值代表该注视点的瞳孔直径值,即算得dfk=(dlk+drk)/2,将fk简化为四元组(tfk,dfk,xfk,yfk)。
进一步,眼动跟踪技术能够实时记录用户在网页上的眼球运动情况。通过分析眼动轨迹(眼球的运动轨迹)、瞳孔直径等根据视觉感官反应的眼球的行为指标,能更加客观的反映用户的行为,从而揭示人们在网页上的心理状态。
数据采集和预处理单元100对上述眼动数据进行预处理,包括剔除采集到的眼动数据中的极端数据和三倍标准差以外的异常数据,得到预处理后的眼动数据。
数据采集和预处理单元100的具体实施和处理如步骤S1的描述。
特征提取单元200连接至数据采集和预处理单元100,用于对预处理后的眼动数据进行特征提取,获取多个眼动特征参数。一个实施方式中,可以分别选定每一个注视点,该注视点对应的注视信息中包含注视时间信息。针对眼动数据,计算每个注视点在注视时间内的瞳孔直径变化率、注视频率和注视点中心距。其中,多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数。
如图5所示,特征提取单元200包括:瞳孔直径变化率计算子单元210和注视点中心距的中位数计算子单元220。
瞳孔直径变化率计算子单元210计算瞳孔直径变化率,得到瞳孔直径变化率特征数据集。在一个实施方式中,注视点在注视时间内的采样次数为注视时间除以采样周期,其中可以预设采样周期例如为:8毫秒。具体地,瞳孔直径变化率计算子单元210用于根据每个眼动数据中的瞳孔直径构成瞳孔
直径数据集矩阵u,其中,
其中,m为眼动数据中的注视点的个数,n为在第m个注视点中选取的n个采样点,而uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
瞳孔直径变化率计算子单元210在瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以瞳孔直径的基线值D0,得到下述瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值。
注视点中心距的中位数计算子单元220用于根据每个注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0),注视点信息数据集可以简化为三元组(tfk,dfk,cdfk)。
注视点中心距的中位数计算子单元220设网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算注视点中心距矩阵中每行数据的中位数,构成下述注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数。
特征提取单元200进一步组合上述瞳孔直径变化率和注视点中心距的中位数。
特征提取单元200的具体实施和处理如步骤S2的描述。
状态判断单元300连接至特征提取单元200,用于将网上用户的多个眼动特征参数输入到预设的状态分类器中进行比对,以识别网上用户的当前工作状态为搜索状态或浏览状态。
状态判断单元300对前一次采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取。一种方式为:对搜索任务的眼动数据进行特征提取,得到搜索状态下的眼动特征参数;对浏览任务的眼动数据进行特征提取,得到浏览状态下的眼动特征参数。进而,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2。
状态判断单元300将数据采集和预处理单元采集到的组合特征数据集进行机器学习,以训练得到状态分类器。一种方式为:将组合特征数据集输入到支持向量机SVM中,训练得到状态分类器,然后将数据采集和预处理单元得到的多个眼动特征参数输入到状态分类器中,识别网上用户的当前工作状态为搜索状态或浏览状态。
具体地,状态判断单元300对搜索状态和浏览状态的眼动特征参数输入到支持向量机SVM中进行训练,得到训练过的状态分类器,从而实现后续对网络用户进行搜索或浏览的视觉行为的识别。其中,利用支持向量机对所得的眼动特征参数进行训练,训练得到状态分类器,一个具体实施例可以是:利利用带有类别标签的特征参数数据集作为训练样本集,选择径向基函数作为核函数,训练时使用五折交叉验证,即训练样本数为总样本的4/5,测试样本为总样本的1/5,用网格搜索法选择最佳的参数C和gamma。
进一步,状态分类器可以采用多种形式,除了上述例子中采用的支持向量机(SVM分类器)进行训练得到外、神经网络、遗传算法等其他机器学习算法也可以实现分类器训练。优选地,状态分类器还可以为libsvm支持向量机工具包等。
状态判断单元300将多个眼动特征参数(包括实时的或已经采集的)输入到状态分类器中,识别网上用户的当前工作状态为搜索状态或浏览状态。在一个实施方式中,将提取的眼动特征数据按特征提取单元200中的方式进行数据集格式整理,输入到训练好的状态分类器中,从而判断网上用户的工作状态为搜索还是浏览,即识别出网上用户的工作状态类型。例如:支持向量机的输出为1时,则对应为搜索状态;输出为2时,则对应为浏览状态。
状态判断单元300的具体实施和处理如步骤S3的描述。
本实施例采用基于眼动数据的网上用户状态识别装置,解决了在基于视觉行为人机接口领域,仍然存在无法识别网上用户工作状态的问题。本发明针对网上用户搜索和浏览两种工作状态进行识别,采用主动感知技术提取两种眼动特征,同时采用了基于支持向量机的分类方法,学习速度快,分类正确率高,具有较高的识别效率。本发明可以根据网上用户观看网页时的眼动信息,识别出用户的工作状态是有目的的搜索状态还是无目的的浏览状态。本发明基于眼动数据的网上用户工作状态识别的方法和系统实现了一种以眼动为方式的人机交互,通过用户的眼动数据来识别用户的工作状态。
由于本实施例的系统所实现的处理及功能基本相应于前述图1~图3所示的方法实施例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (10)
1.一种基于眼动数据的网上用户状态识别方法,包括如下步骤:
步骤S1,采集网上用户在观看网页的过程中的眼动数据,并对所述眼动数据进行预处理,得到预处理后的眼动数据;
步骤S2,对所述预处理后的眼动数据进行特征提取,获取多个眼动特征参数;
步骤S3,将所述网上用户的所述多个眼动特征参数输入到预设的状态分类器中进行比对,以识别所述网上用户的当前工作状态为搜索状态或浏览状态。
2.根据权利要求1所述的基于眼动数据的网上用户状态识别方法,其中,采用红外线摄像机采集所述网上用户在观看网页的过程中的眼动数据。
3.根据权利要求1或2所述的基于眼动数据的网上用户状态识别方法,其中,所述眼动数据包括:所述网上用户的注视点位置、注视时间和瞳孔直径。
4.根据权利要求3所述的基于眼动数据的网上用户状态识别方法,其中,所述多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数,所述步骤S2还包括:
步骤S21,根据每个眼动数据中的瞳孔直径构成瞳孔直径数据集矩阵u,其中,
其中,m为所述眼动数据中的注视点的个数,n为在m个注视点中选取的n个采样点,uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
在所述瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以所述瞳孔直径的基线值D0,得到下述瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值,
步骤S22,根据每个所述注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0);
设所述网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算所述注视点中心距矩阵中每行数据的中位数,构成下述注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数;
步骤S23,组合所述瞳孔直径变化率和注视点中心距的中位数。
5.根据权利要求4所述的基于眼动数据的网上用户状态识别方法,所述步骤S3还包括:
步骤S31,对所述步骤S1之前采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2;
步骤S32,将所述步骤S31中的组合特征数据集输入到支持向量机中,训练得到状态分类器;
步骤S33,将所述步骤S2中得到的多个眼动特征参数输入到所述步骤S32中得到的所述状态分类器中,识别所述网上用户的当前工作状态为搜索状态或浏览状态。
6.一种基于眼动数据的网上用户状态识别装置,包括:
数据采集和预处理单元,用于采集网上用户在观看网页的过程中的眼动数据,并对所述眼动数据进行预处理,得到预处理后的眼动数据;
特征提取单元,用于对所述预处理后的眼动数据进行特征提取,获取多个眼动特征参数;
状态判断单元,用于将所述网上用户的所述多个眼动特征参数输入到预设的状态分类器中进行比对,以识别所述网上用户的当前工作状态为搜索状态或浏览状态。
7.根据权利要求6所述的基于眼动数据的网上用户状态识别装置,其中,所述数据采集和预处理单元包括红外线摄像机,所述红外线摄像机用于采集所述网上用户在观看网页的过程中的眼动数据。
8.根据权利要求6或7所述的基于眼动数据的网上用户状态识别装置,其中,所述眼动数据包括:所述网上用户的注视点位置、注视时间和瞳孔直径。
9.根据权利要求8所述的基于眼动数据的网上用户状态识别装置,其中,所述多个眼动特征参数包括瞳孔直径变化率和注视点中心距的中位数,所述特征提取单元还包括:瞳孔直径变化率计算子单元和注视点中心距的中位数计算子单元,其中,
所述瞳孔直径变化率计算子单元用于根据每个眼动数据中的瞳孔直径构成瞳孔直径数据集矩阵u,其中,
其中,m为所述眼动数据中的注视点的个数,n为在m个注视点中选取的n个采样点,uij为第i个注视点第j次采样的瞳孔直径值,其中,1≤i≤m,1≤j≤n;
所述瞳孔直径变化率计算子单元在所述瞳孔直径数据集矩阵u按行求均值,减去瞳孔直径的基线值D0,除以所述瞳孔直径的基线值D0,得到下述瞳孔直径变化率矩阵U,
其中,D0为瞳孔直径的基线值;
所述注视点中心距的中位数计算子单元用于根据每个所述注视点位置计算注视点中心距CDfk,其中,
其中,注视点的坐标为(Xfk,Yfk),网页中心坐标为(X0,Y0);
所述注视点中心距的中位数计算子单元设所述网上用户观看网页数量为p,每个网页选取q个注视点,则构成注视点中心距矩阵,计算所述注视点中心距矩阵中每行数据的中位数,构成下述注视点中心距的中位数矩阵W,其中,
其中,Median()为求中位数的函数。
10.根据权利要求9所述的基于眼动数据的网上用户状态识别装置,其中,所述状态判断单元还包括:
对前一次采集到的网上用户进行搜索状态或浏览状态过程中的眼动数据和特征提取,按第一列为训练或者预测样本的标签值,其他列为对应特征的特征值构成如下组合特征数据集:
其中,label为训练数据集的目标值;index为从1开始的整数,表示特征的序号;value为用于训练或预测的数据,即特征值,其中搜索状态标记为1,浏览状态标记为2;
所述状态判断单元将所述数据采集和预处理单元采集到的组合特征数据集输入到支持向量机中,训练得到状态分类器,然后将所述数据采集和预处理单元得到的多个眼动特征参数输入到所述状态分类器中,识别所述网上用户的当前工作状态为搜索状态或浏览状态。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510019518.4A CN104504390B (zh) | 2015-01-14 | 2015-01-14 | 一种基于眼动数据的网上用户状态识别方法和装置 |
PCT/CN2015/087641 WO2016112690A1 (zh) | 2015-01-14 | 2015-08-20 | 一种基于眼动数据的网上用户状态识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510019518.4A CN104504390B (zh) | 2015-01-14 | 2015-01-14 | 一种基于眼动数据的网上用户状态识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104504390A true CN104504390A (zh) | 2015-04-08 |
CN104504390B CN104504390B (zh) | 2017-09-19 |
Family
ID=52945786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510019518.4A Active CN104504390B (zh) | 2015-01-14 | 2015-01-14 | 一种基于眼动数据的网上用户状态识别方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN104504390B (zh) |
WO (1) | WO2016112690A1 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016112690A1 (zh) * | 2015-01-14 | 2016-07-21 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
CN106073805A (zh) * | 2016-05-30 | 2016-11-09 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN106200905A (zh) * | 2016-06-27 | 2016-12-07 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN106920129A (zh) * | 2017-03-09 | 2017-07-04 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评系统及其方法 |
CN107341468A (zh) * | 2017-06-30 | 2017-11-10 | 北京七鑫易维信息技术有限公司 | 驾驶员状态识别方法、装置、存储介质及处理器 |
CN107544660A (zh) * | 2016-06-24 | 2018-01-05 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN108338798A (zh) * | 2017-01-25 | 2018-07-31 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN108921199A (zh) * | 2018-06-11 | 2018-11-30 | 厦门大学 | 基于物体表征状态的眼部关注偏好预测方法 |
CN108985164A (zh) * | 2018-06-11 | 2018-12-11 | 厦门大学 | 基于物体运动状态的眼部关注预测方法 |
CN109117711A (zh) * | 2018-06-26 | 2019-01-01 | 西安交通大学 | 基于眼动数据的分层特征提取与融合的专注度检测装置及方法 |
CN109189222A (zh) * | 2018-08-28 | 2019-01-11 | 广东工业大学 | 一种基于检测瞳孔直径变化的人机交互方法及装置 |
CN109199412A (zh) * | 2018-09-28 | 2019-01-15 | 南京工程学院 | 基于眼动数据分析的异常情绪识别方法 |
CN109259775A (zh) * | 2018-08-30 | 2019-01-25 | 清华大学 | 一种人脸刺激范式生成方法及自闭症分析系统 |
CN109960892A (zh) * | 2019-04-04 | 2019-07-02 | 北京理工大学 | 一种基于眼动信号的cad指令生成方法及系统 |
CN111475391A (zh) * | 2020-04-03 | 2020-07-31 | 中国工商银行股份有限公司 | 眼动数据处理方法、装置及系统 |
CN111708434A (zh) * | 2020-06-03 | 2020-09-25 | 东南大学 | 一种结合眼动识别的网上答题反馈系统 |
CN111966223A (zh) * | 2020-08-17 | 2020-11-20 | 陈涛 | 非感知的mr眼镜人机识别方法、系统、设备及存储介质 |
CN113180667A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 认知负荷评估方法、装置、存储介质及计算机设备 |
CN117460126A (zh) * | 2023-10-27 | 2024-01-26 | 石家庄铁道大学 | 基于乘客舒适度的地铁站台光环境设计方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109144262B (zh) * | 2018-08-28 | 2021-11-26 | 广东工业大学 | 一种基于眼动的人机交互方法、装置、设备及存储介质 |
CN113349776A (zh) * | 2020-03-03 | 2021-09-07 | 朴光宇 | 一种提高眼动注视坐标精度技术 |
CN111568367B (zh) * | 2020-05-14 | 2023-07-21 | 中国民航大学 | 一种识别和量化眼跳入侵的方法 |
CN112869744B (zh) * | 2021-01-20 | 2024-05-31 | 上海市精神卫生中心(上海市心理咨询培训中心) | 一种精神分裂症辅助诊断方法、系统和存储介质 |
CN115607159B (zh) * | 2022-12-14 | 2023-04-07 | 北京科技大学 | 基于眼动序列时空特征分析的抑郁状态鉴别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060202841A1 (en) * | 2001-11-08 | 2006-09-14 | Sleep Diagnostics, Pty., Ltd. | Alertness monitor |
CN101686815A (zh) * | 2007-06-27 | 2010-03-31 | 松下电器产业株式会社 | 人的状态推定装置以及方法 |
CN103324287A (zh) * | 2013-06-09 | 2013-09-25 | 浙江大学 | 基于眼动和笔触数据的计算机辅助草图绘制的方法和系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9304584B2 (en) * | 2012-05-31 | 2016-04-05 | Ca, Inc. | System, apparatus, and method for identifying related content based on eye movements |
CN103336576B (zh) * | 2013-06-28 | 2016-12-28 | 广州爱九游信息技术有限公司 | 一种基于眼动追踪进行浏览器操作的方法及装置 |
CN104504390B (zh) * | 2015-01-14 | 2017-09-19 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
-
2015
- 2015-01-14 CN CN201510019518.4A patent/CN104504390B/zh active Active
- 2015-08-20 WO PCT/CN2015/087641 patent/WO2016112690A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060202841A1 (en) * | 2001-11-08 | 2006-09-14 | Sleep Diagnostics, Pty., Ltd. | Alertness monitor |
CN101686815A (zh) * | 2007-06-27 | 2010-03-31 | 松下电器产业株式会社 | 人的状态推定装置以及方法 |
CN103324287A (zh) * | 2013-06-09 | 2013-09-25 | 浙江大学 | 基于眼动和笔触数据的计算机辅助草图绘制的方法和系统 |
Non-Patent Citations (2)
Title |
---|
严会霞: "基于SVM的眼动轨迹解读思维状态研究", 《万方数据企业知识服务平台》 * |
栗觅等: "Web页面视觉搜索与浏览策略的眼动研究", 《北京工业大学学报》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016112690A1 (zh) * | 2015-01-14 | 2016-07-21 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
CN106073805A (zh) * | 2016-05-30 | 2016-11-09 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN106073805B (zh) * | 2016-05-30 | 2018-10-19 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN107544660A (zh) * | 2016-06-24 | 2018-01-05 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107544660B (zh) * | 2016-06-24 | 2020-12-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106200905B (zh) * | 2016-06-27 | 2019-03-29 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN106200905A (zh) * | 2016-06-27 | 2016-12-07 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
US10664689B2 (en) | 2016-06-27 | 2020-05-26 | Lenovo (Beijing) Co., Ltd. | Determining user activity based on eye motion |
CN108338798A (zh) * | 2017-01-25 | 2018-07-31 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN106920129B (zh) * | 2017-03-09 | 2020-05-05 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评系统及其方法 |
CN106920129A (zh) * | 2017-03-09 | 2017-07-04 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评系统及其方法 |
CN107341468A (zh) * | 2017-06-30 | 2017-11-10 | 北京七鑫易维信息技术有限公司 | 驾驶员状态识别方法、装置、存储介质及处理器 |
CN108921199A (zh) * | 2018-06-11 | 2018-11-30 | 厦门大学 | 基于物体表征状态的眼部关注偏好预测方法 |
CN108985164A (zh) * | 2018-06-11 | 2018-12-11 | 厦门大学 | 基于物体运动状态的眼部关注预测方法 |
CN109117711A (zh) * | 2018-06-26 | 2019-01-01 | 西安交通大学 | 基于眼动数据的分层特征提取与融合的专注度检测装置及方法 |
CN109189222A (zh) * | 2018-08-28 | 2019-01-11 | 广东工业大学 | 一种基于检测瞳孔直径变化的人机交互方法及装置 |
CN109259775A (zh) * | 2018-08-30 | 2019-01-25 | 清华大学 | 一种人脸刺激范式生成方法及自闭症分析系统 |
CN109199412A (zh) * | 2018-09-28 | 2019-01-15 | 南京工程学院 | 基于眼动数据分析的异常情绪识别方法 |
CN109199412B (zh) * | 2018-09-28 | 2021-11-09 | 南京工程学院 | 基于眼动数据分析的异常情绪识别方法 |
CN109960892B (zh) * | 2019-04-04 | 2020-09-01 | 北京理工大学 | 一种基于眼动信号的cad指令生成方法及系统 |
CN109960892A (zh) * | 2019-04-04 | 2019-07-02 | 北京理工大学 | 一种基于眼动信号的cad指令生成方法及系统 |
CN111475391A (zh) * | 2020-04-03 | 2020-07-31 | 中国工商银行股份有限公司 | 眼动数据处理方法、装置及系统 |
CN111475391B (zh) * | 2020-04-03 | 2024-04-16 | 中国工商银行股份有限公司 | 眼动数据处理方法、装置及系统 |
CN111708434A (zh) * | 2020-06-03 | 2020-09-25 | 东南大学 | 一种结合眼动识别的网上答题反馈系统 |
CN111708434B (zh) * | 2020-06-03 | 2023-09-29 | 东南大学 | 一种结合眼动识别的网上答题反馈系统 |
CN111966223A (zh) * | 2020-08-17 | 2020-11-20 | 陈涛 | 非感知的mr眼镜人机识别方法、系统、设备及存储介质 |
CN111966223B (zh) * | 2020-08-17 | 2022-06-28 | 陈涛 | 非感知的mr眼镜人机识别方法、系统、设备及存储介质 |
CN113180667A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 认知负荷评估方法、装置、存储介质及计算机设备 |
CN117460126A (zh) * | 2023-10-27 | 2024-01-26 | 石家庄铁道大学 | 基于乘客舒适度的地铁站台光环境设计方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2016112690A1 (zh) | 2016-07-21 |
CN104504390B (zh) | 2017-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104504390A (zh) | 一种基于眼动数据的网上用户状态识别方法和装置 | |
CN104504404B (zh) | 一种基于视觉行为的网上用户类型识别方法及系统 | |
Zhang et al. | MOOCRC: A highly accurate resource recommendation model for use in MOOC environments | |
Liu et al. | Fineaction: A fine-grained video dataset for temporal action localization | |
CN102547123B (zh) | 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法 | |
CN103324287B (zh) | 基于眼动和笔触数据的计算机辅助草图绘制的方法和系统 | |
CN103294194B (zh) | 一种基于眼球跟踪的翻译方法及系统 | |
CN103530540A (zh) | 基于人机交互行为特征的用户身份属性检测方法 | |
Zheng et al. | Progressive localization networks for language-based moment localization | |
CN108703824B (zh) | 一种基于肌电手环的仿生手控制系统及控制方法 | |
CN102034096A (zh) | 基于自顶向下运动注意机制的视频事件识别方法 | |
CN102542066B (zh) | 视频聚类方法、排序方法和视频搜索方法以及相应装置 | |
CN111562842B (zh) | 一种基于肌电信号的虚拟键盘设计方法 | |
CN104317827A (zh) | 一种商品的图片导航方法 | |
CN110472506A (zh) | 一种基于支持向量机和神经网络优化的手势识别方法 | |
CN106491129A (zh) | 一种基于eog的人体行为识别系统及方法 | |
CN109558005A (zh) | 一种自适应人机界面配置方法 | |
CN109086794A (zh) | 一种基于t-lda主题模型的驾驶行为模式识方法 | |
Wang et al. | Driver action recognition based on attention mechanism | |
Sheeba et al. | Hybrid features-enabled dragon deep belief neural network for activity recognition | |
Jia et al. | STCM-Net: A symmetrical one-stage network for temporal language localization in videos | |
Krishnamoorthy et al. | StimulEye: An intelligent tool for feature extraction and event detection from raw eye gaze data | |
Ying | Gated recurrent unit based on feature attention mechanism for physical behavior recognition analysis | |
Chu et al. | Multi-modal fusion sign language recognition based on residual network and attention mechanism | |
CN111767880A (zh) | 一种基于脸部特征的活体身份识别方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Mi Inventor after: Lv Shengfu Inventor after: Zhang Mengjie Inventor after: Zhong Ning Inventor before: Lv Shengfu Inventor before: Li Mi Inventor before: Zhang Mengjie Inventor before: Zhong Ning |
|
COR | Change of bibliographic data | ||
GR01 | Patent grant | ||
GR01 | Patent grant |