CN104200227A - 一种用于人类认知模式识别的特征归一化方法及系统 - Google Patents

一种用于人类认知模式识别的特征归一化方法及系统 Download PDF

Info

Publication number
CN104200227A
CN104200227A CN201410441415.2A CN201410441415A CN104200227A CN 104200227 A CN104200227 A CN 104200227A CN 201410441415 A CN201410441415 A CN 201410441415A CN 104200227 A CN104200227 A CN 104200227A
Authority
CN
China
Prior art keywords
characteristic
eigenmatrix
function
normalized
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410441415.2A
Other languages
English (en)
Other versions
CN104200227B (zh
Inventor
栗觅
吕胜富
周宇
钟宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410441415.2A priority Critical patent/CN104200227B/zh
Publication of CN104200227A publication Critical patent/CN104200227A/zh
Application granted granted Critical
Publication of CN104200227B publication Critical patent/CN104200227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Abstract

本发明提供了一种用于人类认知模式识别的特征归一化方法及系统,该方法通过将特征数据按用户分组以形成特征矩阵,基于预定的归一化函数对特征矩阵进行分组参数估计以得到每个分组对应的分组参数,能够基于分组参数对特征矩阵的每个分组分别构建归一化函数,并利用构建的归一化函数对特征矩阵进行分组归一化处理。本方法采用多个归一化函数对认知模式特征数据进行归一化处理,既保留了现有特征整体归一化方法的优点,又减少了特征数据内部分布尺度过大的问题,从而提高了分类正确率,并具有很强的鲁棒性。

Description

一种用于人类认知模式识别的特征归一化方法及系统
技术领域
本发明属于人类认知模式识别技术领域,特别涉及一种用于人类认知模式识别的特征归一化方法及系统。
背景技术
认知模式识别是指计算机通过分析人的外在行为特征达到对其内部心理模式的理解,特别是在人机交互中对于人的目的、意图进行识别和判断。使用模式识别技术对于人的不同认知模式的识别是近几年发展起来的研究热点,基于磁共振、脑波和眼动的认知模式识别方法研究的比较多。认知模式识别的流程包括以下步骤:特征提取、特征归一化、分类器训练和模式判别。
在认知模式识别处理中,特征提取及其归一化处理方法均对认知模式识别效果有着重要的影响。特征归一化的目的是将各种不同的特征转换到一个共同的值域范围,可以避免分类器训练时出现大数量级特征所占权重过大的问题,归一化处理后使得原本数量级较小但是差异性较大的特征能够在判别函数中起到相应的作用。
现有技术的特征归一化方法中,特征内部数据分布多样性问题导致不同认知模式下的特征数据互相重叠,可区分性大大降低,将会严重影响识别效果。而且该问题并不能通过特征整体归一化方法来解决,由于用户间特征数据分布存在个体差异,对特征进行特征整体归一化后仅仅解决了特征间的分布多样性问题,特征数据内部的差异仍然保留了下来,在训练分类器时就会产生影响,导致识别率不能有效地提高。
目前,适用于认知模式识别的特征提取技术已经日趋成熟,但是通用的特征归一化方法并不能满足认知模式识别的需求,因此亟需要一种能够用于认知模式识别的特征归一化方法。
发明内容
为了解决现有特征整体归一化方法导致识别准确率低的技术问题,本发明提供了一种分类准确率高、鲁棒性强的用于人类认知模式识别的特征归一化方法及系统。
根据本发明的一个方面,提供了一种用于人类认知模式识别的特征归一化方法,包括如下步骤:步骤S1,将特征数据按用户分组以形成特征矩阵;步骤S2,基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数;步骤S3,基于分组参数对特征矩阵的每个分组分别构建归一化函数;步骤S4,利用构建的归一化函数对特征矩阵进行分组归一化处理。
优选的,所述步骤S1包括:步骤S11,获取每个用户执行每个任务时的特征数据;步骤S12,将每个用户对应的特征数据构成特征矩阵的一行以构建特征矩阵。
优选的,所述步骤S2包括:步骤S21,设置归一化函数;步骤S22,基于特征矩阵每个分组的特征数据进行参数估计,以得到该分组对应的归一化函数的参数。
所述步骤S4中,把归一化前的每个分组的特征数据代入到该分组对应的归一化函数中,以得到该分组归一化后的特征数据。
其中,所述特征数据是每个用户执行多个任务类别的多个任务时的认知模式特征数据,所述任务类别至少包括观看图片和文本阅读。
其中,所述认知模式至少包括瞳孔直径、眼跳距离、注视时间、和注视次数中的一项或多项。
其中,所述归一化函数至少包括:Min-Max归一化函数、Z-score归一化函数、Median归一化函数或tanh归一化函数。
根据本发明的另一方面,提供了一种用于人类认知模式识别的特征归一化系统,所述系统包括特征矩阵形成单元1、分组参数估计单元2、函数构建单元3、数据处理单元4,所述特征矩阵形成单元1用于将特征数据按用户分组以形成特征矩阵;所述分组参数估计单元2连接到特征矩阵形成单元1,其基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数;所述函数构建单元3连接到分组参数估计单元2,其基于分组参数对特征矩阵的每个分组分别构建归一化函数;所述数据处理单元4连接到特征矩阵形成单元1和函数构建单元3,其利用构建的归一化函数对特征矩阵进行分组归一化处理。
优选的,所述特征矩阵形成单元1进一步包括:特征数据获取单元11,用于获取每个用户执行多种任务类型的多个任务时的特征数据并发送给特征矩阵构建单元12;和特征矩阵构建单元12,连接到特征数据获取单元11,其根据特征数据获取单元11获取的特征数据,将每个用户对应的特征数据构成特征矩阵T的一行以构建特征矩阵。
优选的,所述分组参数估计单元2进一步包括:函数设置单元21,用于设置归一化函数;和函数参数计算单元22,连接到函数设置单元21和前述特征矩阵形成单元1,其根据所述归一化函数的参数要求,基于特征矩阵中每个分组的特征数据计算得到该分组对应的归一化函数的参数。
如上所述,本发明提供了一种基于特征数据分组的特征归一化方法和系统,采用多个归一化函数对认知模式特征数据按用户分组以形成特征矩阵,对特征矩阵的每个分组分别构建归一化函数以进行分组归一化处理,既保留了原有特征整体归一化方法的优点,同时减少了特征数据内部分布尺度过大的问题,从而提高了分类正确率;同时,本发明提出的特征归一化方法具有很强的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术提供的整体特征归一化方法流程图;
图2显示了本发明的用于人类认知模式识别的特征归一化方法的流程图;
图3显示了本发明的特征归一化方法中形成特征矩阵的流程示意图;
图4显示了本发明的特征归一化方法中分组参数估计的流程示意图;
图5显示了本发明的用于人类认知模式识别的特征归一化系统的结构示意图;
图6显示了本发明优选实施例中特征矩阵形成单元的结构示意图;
图7显示了本发明优选实施例中分组参数估计单元的结构示意图;
图8显示了现有技术的特征整体归一化方法应用于瞳孔直径的正态拟合分布图;
图9显示了本发明的特征归一化方法应用于瞳孔直径的正态拟合分布图;
图10显示了本发明的特征归一化方法与现有技术的整体归一化方法分别对瞳孔直径特征进行认知模式识别的识别率对比图;
图11显示了本发明的特征归一化方法与现有技术的整体归一化方法分别对眼跳距离特征进行认知模式识别的识别率对比图;
图12显示了本发明的特征归一化方法与现有技术的整体归一化方法分别对注视时间特征进行认知模式识别的识别率对比图;
图13显示了本发明的特征归一化方法与现有技术的整体归一化方法分别对注视次数特征进行认知模式识别的识别率对比图;
图14显示了本发明的特征归一化方法与现有技术方法对组合特征识别率的对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1显示了现有技术中常用的特征归一化方法的示意图。
特征归一化的目的是将各种不同的特征转换到一个共同的值域范围,从而避免分类器训练时出现大数量级特征所占权重过大的问题,归一化处理后使得原本数量级较小但是差异性较大的特征能够在判别函数中起到相应的作用。除此之外,对每种特征归一化处理后,数据范围的变化使得分类算法可以较好的收敛,获得更好的识别效果。
如图1所示,现有技术的特征归一化方法包括下述步骤:
步骤S1’,选择需要使用的归一化函数;步骤S2’,对特征的所有特征数据进行归一化函数的参数估计;步骤S3’,对特征的所有特征数据使用相同参数的归一化函数进行整体转换。在这种归一化方法中,相同特征的数据采用相同参数的归一化函数进行整体变换,因此通常称为特征整体归一化方法。
这种特征整体归一化方法能够解决各个特征之间存在的分布多样性问题,研究表明,对于基于多种生物特征的用户识别系统,以及基于不同搜索引擎产生的文档相关度的文档检索系统,使用该方法均能有效提高识别性能。
但是,在实际操作中,使用认知模式识别的特征提取技术获取的特征通常具有以下特点:首先,各个特征的分布存在多样性,不同特征分布的位置和尺度具有差异;其次,为了得到人类认知的共性差异特征,需要同时提取多名用户的特征数据,比如基于视觉行为的认知模式识别,需要通过多名用户眼动特征中存在的共性差异来区分不同的认知模式。通常来说,不同用户的视觉行为特征是存在差异的,比如每名用户固有的瞳孔直径大小并不一致。因此,对于认知模式识别所提取的特征,即使是同一种特征,其内部的分布也是具有多样性的,即相同特征用户间的特征分布存在着个体差异。
对于这种相同特征用户间的特征分布存在个体差异的现象,现有技术的特征整体归一化方法在认知模式识别过程中的使用效果并不理想。具体来说,在使用该方法后,虽然统一了不同特征的值域范围,在一定程度上提高了认知模式的识别效果,但是并未解决每种特征内部存在分布多样性的问题。
图2显示了本发明的用于人类认知模式识别的特征归一化方法的流程图。
本发明的用于人类认知模式识别的特征归一化方法,主要用于对使用者执行视觉类任务时提取的大量视觉信息进行数据处理,使得经过数据处理的特征数据能够在后期的分类器训练和模式判别中被有效使用。
在本发明的实施例中,例如通过使用Tobii T120眼动装置(采样频率120Hz)采集30名用户进行20个A类任务(观看图片)和20个B类任务(文本阅读)认知时的视觉特征信息,然后提取这些用户的瞳孔直径、眼跳距离、注视时间和注视次数等体现视觉特征信息的特征数据。特征数据提取完成后通过特征归一化方法进行数据处理。
本发明的特征归一化方法包括四个阶段:特征数据分组、归一化函数选择和分组参数估计、分组归一化函数构建、特征分组归一化处理。在下面的优选实施例中,以瞳孔直径的特征数据为例描述特征分组归一化方法,同样的方法也适用于眼跳距离、注视时间和注视次数等其他特征数据,因此不再重复。
如图2所示,作为本发明优选实施例的用于人类认知模式识别的特征归一化方法包括如下步骤:
步骤S1,将特征数据按用户分组以形成特征矩阵。
将多个用户分别执行多个任务种类的多个任务的认知模式特征数据按用户数进行分组,每个用户分别执行多个任务种类的多个任务而获取的认知模式特征数据形成为一组,每个用户对应的一组特征数据构成特征矩阵T的一行,多个用户对应特征矩阵T的多个行,进而形成特征矩阵。这里,特征数据是指某个认知模式对应的特征数据,包括瞳孔直径、眼跳距离、注视时间及注视次数等视觉特征参数。
例如,将瞳孔直径特征T按用户分组,每一行为一组,30用户对应30个行,根据用户的数量最终得到30个分组。
步骤S2,基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数。
本步骤中,任选一个归一化函数,根据归一化函数的参数要求,对某个特征参数的特征矩阵的每个分组分别进行参数估计,得到每个分组对应的分组参数。
可见,本发明中,对每个用户使用的归一化函数的参数彼此独立,从而能够有效解决用户间的相同特征分布存在个体差异的现象。与此对应,现有技术中是将所有的特征数据使用相同参数的归一化函数进行整体转换,各个用户的相同特征的数据采用相同参数的归一化函数进行整体变换,因此不能解决上述缺陷。
步骤S3,基于分组参数对特征矩阵的每个分组分别构建归一化函数。
根据步骤S2中得到的分组参数,对多个用户组的特征数据分别构建归一化函数,即每个用户组(对应于特征矩阵的每一行)基于其对应的归一化函数的参数构建独立的归一化函数。
步骤S4,利用构建的归一化函数对特征矩阵进行分组归一化处理。
根据步骤S3中构建的多个归一化函数,对特征矩阵中的每个用户组的特征数据分别进行归一化处理,每个用户组的归一化处理使用该组对应的分组归一化函数进行。
如上所述,本发明的特征归一化方法采用多个归一化函数对认知模式特征数据进行归一化处理,既保留了现有技术的特征整体归一化方法的优点,同时减少了特征数据内部分布尺度过大的问题,从而提高了分类正确率;同时,本发明提出的特征归一化方法具有很强的鲁棒性。
图3显示了本发明的特征归一化方法中形成特征矩阵的流程示意图。
在本发明的示例性实施例中,将所述用户数设为m个,所述任务数分为A类、B类,所述A类任务的个数为n1个,所述B类任务的任务数为n2个,所述认知模式特征数据表示为特征T,例如包括瞳孔直径、眼跳距离、注视时间和注视次数。如图3所示,所述形成特征矩阵的步骤S1包括:
步骤S11,获取每个用户执行每个任务时的特征数据。
分别获取每个用户在执行每个任务时的特征数据,其中,特征数据TAij,i=1,2,...,m;j=1,2,...,n1表示第i个用户执行A类任务的每个任务获取的特征数据,特征数据TBij,i=1,2,...,m;j=1,2,...,n2表示第i个用户执行B类任务的每个任务获取的特征数据。
步骤S12,将每个用户对应的特征数据构成特征矩阵的一行以构建特征矩阵。
将特征数据按用户数分组,每个用户对应的数据构成特征矩阵的一行,m个用户对应m行,即分成m个特征数据组,特征矩阵的第i个分组为:
X i = XA i 1 XA i 2 . . . XA in 1 XB i 1 XB i 2 . . . XB in 2 i = 1,2 , . . . , m - - - ( 1 )
这里,每个用户执行的不同类型的任务在矩阵列的方向上顺序排列。例如上述分组中,XAij表示用户i执行A类任务产生的特征数据,XBik表示用户i执行B类任务产生的特征数据。
上述特征数据可以是瞳孔直径、眼跳距离、注视时间及注视次数等,可以依次对这些特征数据分别进行分组。
然后,将各个用户组合并形成特征矩阵,从而构建出特征数据的特征矩阵 X = ( XA ij , XB ij ) m * ( n 1 + n 2 ) , 具体如下:
X = XA 11 XA 12 . . . XA 1 n 1 XB 11 XB 12 . . . XB 1 n 2 XA 21 XA 22 . . . XA 2 n 1 XB 21 XB 22 . . . XB 2 n 2 . . . . . . . . . . . . XA i 1 XA i 2 . . . XA in 1 XB i 1 XB i 2 . . . XB in 2 . . . . . . . . . . . . XA m 1 XA m 2 . . . XA mn 1 XB m 1 XB m 2 . . . XB m n 2 - - - ( 2 )
图4显示了本发明的特征归一化方法中分组参数估计的流程示意图。
如图4所示,本发明优选实施例的分组参数估计的步骤S2包括:
步骤S21,设置归一化函数。
预先选择一种归一化函数f(x),该选定的归一化函数具有若干个函数执行参数,例如参数1,参数2,……,参数k共k个函数参数。本实施例以Z-score函数作为特征的归一化函数,也可以采用其他类型的归一化函数,例如包括Min-Max,Z-score,Median,tanh等函数。
步骤S22,基于特征矩阵每个分组的特征数据进行参数估计,以得到该分组对应的归一化函数的参数。
根据步骤S21所选归一化函数的参数要求,基于特征矩阵的每个分组(每行)中的特征数据分别进行参数估计,以得到该分组对应的归一化函数f(x)的参数。上述特征矩阵X中,共得到m个分组的参数,其中第i个分组Xi对应的归一化函数的k个参数为参数i1,参数i2,…,参数ik,i=1,2,...,m,这些参数都是基于第i个分组Xi的所有特征数据计算得到。
相应的,在所述步骤S3中,根据所述m组分组参数对m个用户组的认知模式特征数据分别构建归一化函数,所述特征X的m个分组中第i个分组Xi的归一化函数的参数使用对应的第i个分组的参数,即参数i1,参数i2,…,参数ik,第个分组的归一化函数为fi(x)由上述k个参数共同确定,其中i=1,2,...,m。
相应的,所述步骤S4中,把归一化前的第i个分组的特征数据Xi代入第i个分组的归一化函数fi(x)中,得到第i个分组归一化后的特征数据X′i,具体采用如下公式:
X i ′ = X i → f i ( x ) = ( XA i 1 ′ XA i 2 ′ . . . XA in 1 ′ XB i 1 ′ XB i 2 ′ . . . XB in 2 ′ )
XA'ij=XAij→fi(x)
i=1,2,...,m,j=1,2,...,n1
XB'ij=XBij→fi(x)
i=1,2,...,m,j=1,2,...,n2  (3)
XAij是分组归一化前的特征X的A类特征数据,XBij是分组归一化前的特征X的B类特征数据;XA′ij是分组归一化后的特征X的A类特征数据,XB′ij是分组归一化后的特征X的B类特征数据。
下面,以瞳孔直径为例介绍本发明的一个具体实施例,该实施例同样适用于眼跳距离、注视时间和注视次数等其他特征数据的归一化处理。
在该实施例中,通过使用TobiiT120眼动装置(采样频率120Hz)采集了30名用户进行20个A类任务(观看图片)和20个B类任务(文本阅读)认知时的视觉信息,然后提取了瞳孔直径、眼跳距离、注视时间和注视次数四种特征。特征提取完成后将进入特征分组归一化流程,下面以瞳孔直径特征为例具体介绍本发明的特征分组归一化方法。
(1)瞳孔直径特征的特征数据分组
(1-1)计算30名用户在执行20个A类认知任务时每个任务的瞳孔直径数据TAij(i=1,2,...,30,j=1,2,...,20);
(1-2)计算30名用户在执行20个B类认知任务时的每个任务的瞳孔直径数据TBij(i=1,2,...,30,j=1,2,...,20);
(1-3)构造瞳孔直径特征的特征矩阵T,T=(TAij,TBij)30*40,如下:
T = TA 11 TA 12 . . . TA 120 TB 11 TB 12 . . . TB 120 TA 21 TA 22 . . . TA 220 TB 21 TB 22 . . . TB 220 . . . . . . . . . . . . TA i 1 TA i 2 . . . TA i 20 TB i 1 TB i 2 . . . TB i 20 TA 301 TA 302 . . . TA 3020 TB 301 TB 302 . . . TB 3020 - - - ( 4 )
将瞳孔直径特征T按用户分组,每一行为一组,30用户对应30个行,根据用户的数量最终得到30个分组。
按上述方法依次对眼跳距离、注视时间及注视次数三种特征数据分别进行分组。
(2)分组参数估计
(2-1)任选一个归一化函数,本实施例以Z-score函数作为特征的归一化函数,Z-score函数含有两个参数,分别是均值Mean(Xi)和标准差std(Xi),公式如下:
x′ij=(xij-Mean(Xi))/std(Xi)
xij∈(TAij,TBij)
x′ij∈(TA′ij,TB′ij)
i=1,2,...,30,j=1,2,...,20  (5)
其中,x′ij为特征数据分组归一化后第i个分组X′i的第j个归一化值,xij为特征数据归一化前的第i个分组Xi的第个值,参数Mean(Xi)为特征数据第i个分组Xi(包括该组所有的TA,TB数据)的均值,参数std(Xi)为特征数据第i个分组Xi(包括该组所有的TA,TB数据)的标准差。
(2-2)根据步骤(1)分组结果,以及步骤(2-1)的归一化函数的参数要求,对瞳孔直径特征T的每个分组分别进行参数估计,得到30个分组的统计参数,见下表:
(3)分组归一化函数构建
本例以Z-score函数作为特征的归一化函数,对瞳孔直径特征T的每个分组分别构建分组归一化函数,特征T的30个分组中第i(i=1,2,...,30)个分组的归一化函数的参数使用对应的第i个分组的统计参数,不同的分组构建了不同的归一化函数,瞳孔直径特征T的30个分组共构建30个分组归一化函数,例如,式(4)中分组1的分组归一化函数为:
x′1j=(x1j-3.585)/0.272
x1j∈(TA1j,TB1j)
x′1j∈(TA′1j,TB′1j)
j=1,2,...,20  (6)
x′1j是第1分组归一化后的瞳孔直径特征的特征数据,x1j是第1分组归一化前的瞳孔直径特征的特征数据,3.585是分组1的均值参数值,0.272是分组1的标准差参数值,TA1j,TB1j分别是瞳孔直径特征分组归一化前的A类和B类特征数据,TA′1j,TB′1j分别是瞳孔直径特征分组归一化后的A类和B类特征数据。
(4)分组归一化处理
使用步骤(3)构建的瞳孔直径特征分组归一化函数,对瞳孔直径特征的特征数据进行分组归一化处理,瞳孔直径特征T的30个分组中第i(i=1,2,...,30)个分组的归一化处理使用对应的第i个分组的分组归一化函数进行归一化。依次完成所有30个特征数据分组的归一化处理,即可得到归一化后的瞳孔直径特征矩阵T',如式(7)。然后按上述方法依次对眼跳距离、注视时间及注视次数三种特征进行归一化处理。
T ′ = TA 11 ′ TA 12 ′ . . . TA 120 ′ TB 11 ′ TB 12 ′ . . . TB 120 ′ TA 21 ′ TA 22 ′ . . . TA 220 ′ TB 21 ′ TB 22 ′ . . . TB 220 ′ . . . . . . . . . . . . TA i 1 ′ TA i 2 ′ . . . TA i 20 ′ TB i 1 ′ TB i 2 ′ . . . TB i 20 ′ . . . . . . . . . . . . TA 301 ′ TA 302 ′ . . . TA 3020 ′ TB 301 ′ TB 302 ′ . . . TB 3020 ′ - - - ( 7 )
图5显示了本发明的用于人类认知模式识别的特征归一化系统的结构示意图。
如图5所示,本发明的用于人类认知模式识别的特征归一化系统包括特征矩阵形成单元1、分组参数估计单元2、函数构建单元3、数据处理单元4。
特征矩阵形成单元1用于将特征数据按用户分组以形成特征矩阵。特征矩阵形成单元1的输入信号为特征数据,输出信号为特征矩阵。将多个用户分别执行多个任务种类的多个任务的认知模式特征数据按用户数进行分组,每个用户分别执行多个任务种类的多个任务而获取的认知模式特征数据形成为一组,每个用户对应的一组特征数据构成特征矩阵T的一行,多个用户对应特征矩阵T的多个行,进而形成特征矩阵。
分组参数估计单元2连接到特征矩阵形成单元1,其基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数。分组参数估计单元2接收特征矩阵形成单元1输出的特征矩阵,根据预先输入的归一化函数的参数要求,特征矩阵的每个分组分别进行参数估计,得到每个分组对应的分组参数(即归一化函数的所有参数)。分组参数估计单元2输出特征矩阵中每个分组对应的分组参数。
函数构建单元3连接到分组参数估计单元2,其基于分组参数对特征矩阵的每个分组分别构建归一化函数。函数构建单元3接收分组参数估计单元2输出的特征矩阵中每个分组对应的分组参数,基于这些参数对每个分组分别构建对应的归一化函数并输出。
数据处理单元4连接到特征矩阵形成单元1和函数构建单元3,其利用构建的归一化函数对特征矩阵进行分组归一化处理。数据处理单元4接收函数构建单元3输出的多个归一化函数和特征矩阵形成单元1输出的特征矩阵,对特征矩阵中的每个用户组的特征数据利用该用户组对应的归一化函数分别进行归一化处理,并输出归一化后的特征矩阵。
如上所述,本发明的特征归一化系统采用多个归一化函数对认知模式特征数据进行归一化处理,既保留了原有的特征整体归一化方法的优点,同时减少了特征数据内部分布尺度过大的问题,从而提高了分类正确率;同时,本发明提出的特征归一化方法具有很强的鲁棒性。
图6显示了本发明优选实施例中特征矩阵形成单元的结构示意图。
如图6所示,在本发明的优选实施例中,特征矩阵形成单元1包括特征数据获取单元11和特征矩阵构建单元12。
特征数据获取单元11用于获取每个用户执行多种任务类型的多个任务时的特征数据,并发送给特征矩阵构建单元12。
特征矩阵构建单元12连接到特征数据获取单元11,其根据特征数据获取单元11获取的特征数据,将每个用户对应的特征数据构成特征矩阵T的一行以构建特征矩阵。
图7显示了本发明优选实施例中分组参数估计单元的结构示意图。
如图7所示,在本发明的优选实施例中,分组参数估计单元2包括函数设置单元21和函数参数计算单元22。
函数设置单元21用于设置归一化函数f(x),通常由使用者预先输入或设置归一化函数的类型。
函数参数计算单元22连接到函数设置单元21和前述特征矩阵形成单元1中的特征矩阵构建单元12,其根据函数设置单元21中设置的归一化函数的参数要求,基于特征矩阵中每个分组的特征数据计算得到该分组对应的归一化函数的参数。
图8-图9显示了本发明的特征归一化方法与现有技术的方法的正态拟合分布比较。其中,图8显示了现有技术的特征整体归一化方法的正态拟合分布图,图9显示了本发明的特征归一化方法的正态拟合分布图,特征数据均来源于本发明的上述具体实施例中的瞳孔直径数据。
从图中对比可知,使用原有的特征整体归一化方法时的A类和B类数据的两类数据的均值差是0.92,使用本发明提出的特征归一化方法时,A类和B类数据的均值差增大到1.63,后者是前者的1.77倍。两类数据的均值差越大,两类数据的分布距离越远,两类数据的重叠度越小,识别效果越好。
另外,从类内标准差来看,使用原有的特征整体归一化方法时A类数据的标准差是0.96,使用本发明方法时,A类数据的标准差降低到0.55,是使用原有的特征整体归一化方法时的0.57倍,使用本发明的B类数据的标准差是使用原有的特征整体归一化方法时的0.69倍。无论A类数据还是B类数据,使用本发明方法时,其类内标准差都减少了,标准差减少说明类内数据分布范围变小,同样可以减少两类数据间的重叠程度。总之,使用本发明方法,不但两类数据的特征分布间的距离变大,且每类数据分布的范围尺度减小,换句话说,特征内的分布多样性问题通过使用本发明的归一化方法得以解决,因此降低了数据的重叠程度。
图10-图13显示了本发明的特征归一化方法与现有技术的整体归一化方法的进行认知模式识别的识别率对比图。其中,图10,图11,图12,图13分别显示了针对瞳孔直径,眼跳距离,注视时间,注视次数分别采用本发明的特征归一化方法和现有技术的整体归一化方法进行认知模式识别的识别率对比图。
本实施例使用四种不同的归一化函数(Min-Max,Z-score,Median,tanh)对于四种不同特征:瞳孔直径,眼跳距离,注视时间,注视次数使用原有的特征整体归一化方法和本发明提出的特征归一化方法分别进行归一化后,使用支持向量机基于单个特征的模式分类的识别正确率,从图中对比结果来看,无论哪一个特征,无论使用哪种归一化函数,本发明提出的方法的识别正确率都高于现有技术的特征整体归一化方法。
图14显示了本发明的特征归一化方法与现有技术方法对组合特征识别率的对比图。
图14是本发明优选实施例提供的基于不同的归一化函数(Min-Max,Z-score,Median,tanh)使用本发明提出的方法和使用现有技术的特征整体归一化方法分别对于各个特征数据进行归一化处理后,把这些特征进行组合(瞳孔直径+眼跳距离+注视时间+注视次数)后的模式分类的识别正确率,结果可以看出,无论使用哪种归一化函数,使用本发明方法的组合特征识别正确率都高于现有技术的特征整体归一化的组合特征识别正确率。本实施提供的基于单个特征的分类识别正确率数据和组合特征识别正确率数据说明,本发明提出的特征归一化方法既解决了特征内部数据分布多样性问题,也解决了特征之间数据分布多样性问题,保留了现有技术的特征整体归一化方法的优点。本发明提出的特征归一化方法与现有技术的特征整体归一化方法相比,具有很强的鲁棒性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
如上所述,本发明公开了一种用于人类认知模式识别的特征归一化方法,采用多个归一化函数对认知模式特征数据进行归一化处理,既保留了现有技术的特征整体归一化方法的优点,同时又减少了特征数据内部分布尺度过大的问题,从而提高了分类正确率;同时,本发明提出的特征归一化方法还具有很强的鲁棒性。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种用于人类认知模式识别的特征归一化方法,其特征在于,包括如下步骤:
步骤S1,将特征数据按用户分组以形成特征矩阵;
步骤S2,基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数;
步骤S3,基于分组参数对特征矩阵的每个分组分别构建归一化函数;
步骤S4,利用构建的归一化函数对特征矩阵进行分组归一化处理。
2.如权利要求1所述的方法,其特征在于,所述步骤S1包括:
步骤S11,获取每个用户执行每个任务时的特征数据;
步骤S12,将每个用户对应的特征数据构成特征矩阵的一行以构建特征矩阵。
3.如权利要求1所述的方法,其特征在于,所述步骤S2包括:
步骤S21,设置归一化函数;
步骤S22,基于特征矩阵每个分组的特征数据进行参数估计,以得到该分组对应的归一化函数的参数。
4.如权利要求1所述的方法,其特征在于,所述步骤S4中,把归一化前的每个分组的特征数据代入到该分组对应的归一化函数中,以得到该分组归一化后的特征数据。
5.如权利要求1至4任意一项所述的方法,其特征在于,所述特征数据是每个用户执行多个任务类别的多个任务时的认知模式特征数据,所述任务类别至少包括观看图片和文本阅读。
6.如权利要求5所述的方法,其特征在于,所述认知模式至少包括瞳孔直径、眼跳距离、注视时间和注视次数中的一项或多项。
7.如权利要求1至4任意一项所述的方法,其特征在于,所述归一化函数至少包括:Min-Max归一化函数、Z-score归一化函数、Median归一化函数或tanh归一化函数。
8.一种用于人类认知模式识别的特征归一化系统,所述系统包括特征矩阵形成单元(1)、分组参数估计单元(2)、函数构建单元(3)、数据处理单元(4),其特征在于:
所述特征矩阵形成单元(1)用于将特征数据按用户分组以形成特征矩阵;
所述分组参数估计单元(2)连接到特征矩阵形成单元(1),其基于预定的归一化函数对特征矩阵进行分组参数估计,得到每个分组对应的分组参数;
所述函数构建单元(3)连接到分组参数估计单元(2),其基于分组参数对特征矩阵的每个分组分别构建归一化函数;以及
所述数据处理单元(4)连接到特征矩阵形成单元(1)和函数构建单元(3),其利用构建的归一化函数对特征矩阵进行分组归一化处理。
9.如权利要求8所述的系统,其特征在于,所述特征矩阵形成单元(1)进一步包括:
特征数据获取单元(11),用于获取每个用户执行多种任务类型的多个任务时的特征数据并发送给特征矩阵构建单元(12);和
特征矩阵构建单元(12),连接到特征数据获取单元(11),其根据特征数据获取单元(11)获取的特征数据,将每个用户对应的特征数据构成特征矩阵T的一行以构建特征矩阵。
10.如权利要求8所述的系统,其特征在于,所述分组参数估计单元(2)进一步包括:
函数设置单元(21),用于设置归一化函数;和
函数参数计算单元(22),连接到函数设置单元(21)和前述特征矩阵形成单元(1),其根据所述归一化函数的参数要求,基于特征矩阵中每个分组的特征数据计算得到该分组对应的归一化函数的参数。
CN201410441415.2A 2014-05-17 2014-09-01 一种用于人类认知模式识别的特征归一化方法及系统 Active CN104200227B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410441415.2A CN104200227B (zh) 2014-05-17 2014-09-01 一种用于人类认知模式识别的特征归一化方法及系统

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2014102092544 2014-05-17
CN201410209254.4 2014-05-17
CN201410209254.4A CN104008393A (zh) 2014-05-17 2014-05-17 一种用于认知状态识别的特征分组归一化方法
CN201410441415.2A CN104200227B (zh) 2014-05-17 2014-09-01 一种用于人类认知模式识别的特征归一化方法及系统

Publications (2)

Publication Number Publication Date
CN104200227A true CN104200227A (zh) 2014-12-10
CN104200227B CN104200227B (zh) 2016-05-11

Family

ID=51369042

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201410209254.4A Pending CN104008393A (zh) 2014-05-17 2014-05-17 一种用于认知状态识别的特征分组归一化方法
CN201410441415.2A Active CN104200227B (zh) 2014-05-17 2014-09-01 一种用于人类认知模式识别的特征归一化方法及系统

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201410209254.4A Pending CN104008393A (zh) 2014-05-17 2014-05-17 一种用于认知状态识别的特征分组归一化方法

Country Status (3)

Country Link
US (1) US20170220905A1 (zh)
CN (2) CN104008393A (zh)
WO (1) WO2015176417A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359145A (zh) * 2018-09-12 2019-02-19 国云科技股份有限公司 一种多样式数据的标准化处理方法
WO2020155712A1 (zh) * 2019-01-29 2020-08-06 深圳市商汤科技有限公司 图像处理方法、装置、计算机设备和计算机存储介质
CN111738325A (zh) * 2020-06-16 2020-10-02 北京百度网讯科技有限公司 图像识别方法、装置、设备以及存储介质
CN111738325B (zh) * 2020-06-16 2024-05-17 北京百度网讯科技有限公司 图像识别方法、装置、设备以及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008393A (zh) * 2014-05-17 2014-08-27 北京工业大学 一种用于认知状态识别的特征分组归一化方法
CN112561047B (zh) * 2020-12-22 2023-04-28 上海壁仞智能科技有限公司 用于处理数据的装置、方法和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102565580A (zh) * 2011-12-21 2012-07-11 南阳金冠电气有限公司 多柱并联电阻片柱电流分布不均匀系数测量方法
CN102622605A (zh) * 2012-02-17 2012-08-01 国电科学技术研究院 一种表面肌电信号的特征提取及动作模式识别方法
CN103605972A (zh) * 2013-12-10 2014-02-26 康江科技(北京)有限责任公司 一种基于分块深度神经网络的非限制环境人脸验证方法
WO2014063489A1 (zh) * 2012-10-26 2014-05-01 华为技术有限公司 音频信号的比特分配的方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
US8402369B2 (en) * 2008-05-28 2013-03-19 Nec Laboratories America, Inc. Multiple-document summarization using document clustering
US9665703B2 (en) * 2010-11-29 2017-05-30 Biocatch Ltd. Device, system, and method of detecting user identity based on inter-page and intra-page navigation patterns
WO2014159793A1 (en) * 2013-03-13 2014-10-02 Aptima, Inc. User state estimation systems and methods
CN104008393A (zh) * 2014-05-17 2014-08-27 北京工业大学 一种用于认知状态识别的特征分组归一化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102565580A (zh) * 2011-12-21 2012-07-11 南阳金冠电气有限公司 多柱并联电阻片柱电流分布不均匀系数测量方法
CN102622605A (zh) * 2012-02-17 2012-08-01 国电科学技术研究院 一种表面肌电信号的特征提取及动作模式识别方法
WO2014063489A1 (zh) * 2012-10-26 2014-05-01 华为技术有限公司 音频信号的比特分配的方法和装置
CN103605972A (zh) * 2013-12-10 2014-02-26 康江科技(北京)有限责任公司 一种基于分块深度神经网络的非限制环境人脸验证方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359145A (zh) * 2018-09-12 2019-02-19 国云科技股份有限公司 一种多样式数据的标准化处理方法
WO2020155712A1 (zh) * 2019-01-29 2020-08-06 深圳市商汤科技有限公司 图像处理方法、装置、计算机设备和计算机存储介质
CN111738325A (zh) * 2020-06-16 2020-10-02 北京百度网讯科技有限公司 图像识别方法、装置、设备以及存储介质
CN111738325B (zh) * 2020-06-16 2024-05-17 北京百度网讯科技有限公司 图像识别方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
WO2015176417A1 (zh) 2015-11-26
CN104008393A (zh) 2014-08-27
CN104200227B (zh) 2016-05-11
US20170220905A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
CN103984919A (zh) 基于粗糙集与混合特征的人脸表情识别方法
CN104392246B (zh) 一种基于类间类内面部变化字典的单样本人脸识别方法
CN107886061A (zh) 基于多模态深度玻尔兹曼机的人体行为识别方法及系统
CN109063724A (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN104200227A (zh) 一种用于人类认知模式识别的特征归一化方法及系统
CN106909946A (zh) 一种多模态融合的商品分类系统
CN102760292A (zh) 利用纹理特征的影像分割法
CN108764282A (zh) 一种类别增量行为识别方法和系统
CN103745200A (zh) 一种基于词带模型的人脸图像识别方法
CN108960288B (zh) 基于卷积神经网络的三维模型分类方法及系统
CN108960299A (zh) 一种多类运动想象脑电信号的识别方法
CN103941244A (zh) 一种雷达目标一维距离像局部最优子空间识别方法
CN102880855A (zh) 一种基于云模型的人脸表情识别方法
CN104799852A (zh) 基于超限学习机自编码的运动想象脑电信号特征的提取方法
CN110084174A (zh) 一种人脸识别方法、系统及电子设备和存储介质
CN104137144A (zh) 图像处理用数字滤波器及字符串倾斜错觉生成装置
CN102855488A (zh) 三维手势识别方法和系统
CN105740787A (zh) 基于多核鉴别彩色空间的人脸识别方法
CN103714340A (zh) 基于图像分块的自适应特征提取方法
CN103824063A (zh) 基于稀疏表示的动态手势识别方法
CN106650573B (zh) 一种跨年龄的人脸验证方法及系统
CN102609733B (zh) 海量人脸库应用环境下的人脸快速识别方法
CN104318224A (zh) 一种人脸识别方法及监控设备
CN106845462A (zh) 基于三元组诱导的同时选择特征及聚类的人脸识别方法
CN102521623B (zh) 一种基于子空间的增量学习人脸识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant