CN107491754A - 基于并行遗传算法的高精度步态识别方法 - Google Patents

基于并行遗传算法的高精度步态识别方法 Download PDF

Info

Publication number
CN107491754A
CN107491754A CN201710701384.3A CN201710701384A CN107491754A CN 107491754 A CN107491754 A CN 107491754A CN 201710701384 A CN201710701384 A CN 201710701384A CN 107491754 A CN107491754 A CN 107491754A
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
mtd
munderover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710701384.3A
Other languages
English (en)
Other versions
CN107491754B (zh
Inventor
张福泉
林晓佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Chengyi Technology Consulting Co ltd
Original Assignee
Minjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minjiang University filed Critical Minjiang University
Priority to CN201710701384.3A priority Critical patent/CN107491754B/zh
Publication of CN107491754A publication Critical patent/CN107491754A/zh
Application granted granted Critical
Publication of CN107491754B publication Critical patent/CN107491754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Abstract

本发明涉及一种基于并行遗传算法的高精度步态识别方法。首先将应用于集成的候选神经网络泛化,使用了基于分等级公平竞争的并行遗传算法,以此增加网络的多样性;此外,使用一组由HFC‑PGA选择的适当特性来训练每个候选的神经网络;最后,在设计出候选的神经网络后,选择一组个体神经网络,以便将泛化误差最小化,负相关最大化。本发明方法法提高了人体步态识别的准确性和可靠性。

Description

基于并行遗传算法的高精度步态识别方法
技术领域
本发明涉及一种基于并行遗传算法的高精度步态识别方法。
背景技术
每个人的步态都有特有的特征,取决于一个人的重量、肢体长度、鞋子、姿势以及他们特有的动作[1]。作为一个生物特征,步态的独特优势在于非侵入性、容易在远处获得,甚至可以在低分辨率下进行测量。由于这些原因,在体育训练、医疗卫生、电子游戏等领域,人体步态成为了最近的研究热点。然而,步态识别并不是一个像其他生物识别技术一样可靠的生物特征识别技术[2]
文献[3]提出了一种遗传算法(GA)优化的BP神经网络分类器,来实现人体下肢运动的步态识别,但该方法对传感器的精度要求较高。文献[4]提出利用平均影响值和概率神经网络来实现步态识别。文献[5]提出了基于负相关神经网络集成的算法,将其用于识别应用领域。没有事先假设输入数据的统计分布,神经网络就可以构造出非线性的决策边界。特别是,它们表示给定数据的隐性知识。然而,单个规模有限的神经网络通常需要不完全地加载一个特定的映射,而且该映射通常泛化得不充分。即使增加单个网络隐藏层的大小和数量,也不一定会提高映射。因此,作为高性能系统发展的一个新方向,神经网络集成可以有效应用于步态识别[6]
发明内容
本发明的目的在于提供一种基于并行遗传算法的高精度步态识别方法,该方法提高了人体步态识别的准确性和可靠性。
为实现上述目的,本发明的技术方案是:一种基于并行遗传算法的高精度步态识别方法,包括如下步骤,
S1、图像预处理:采用背景减法从图像序列中生产轮廓图像序列,而后进行归一化处理,得到归一化轮廓图像序列;
S2、特征提取:将归一化轮廓图像序列中移动轮廓图像作为步态特征,移动轮廓图像是灰度图像,其像素强度表示像素移动的时态移动历史,具有关键的空间和时间信息,其定义为:
其中,S(x,y,t)为第t帧移动轮廓图像像素点(x,y)处的值,t表示为当前时间或者帧数,x和y分别表示图像水平和垂直方向的坐标,S(x,y,t)=1表示出现新的轮廓区域,最终计算得到的为移动轮廓图像上像素点(x,y)处的灰度值;
对于低维的特征,运用主分量分析,令表示第i个移动轮廓图像,q表示移动轮廓图像像素的数量,通过以下方程式将mi投影到特征空间中:
xi=PTmi=[P1P2...Pp]Tmi
其中,{Pt|t=1,2,...p}表示q维协方差矩阵特征向量集合,对应最大的特征值p(p<<q),即低维度移动轮廓图像中特征的数量;xi表示第i个低维度移动轮廓图像,
S3、采用基于分等级公平竞争的并行遗传算法,训练多神经网络;
S4、假设由步骤S3训练的多神经网络构建的神经网络集成,其有J个个体神经网络;若提供另外一个神经网络个体,并且将其增加到集成中,那么新的集成就有J+1个个体神经网络,新神经网络集成所生成的误差由以下递归误差方程式来表达:
其中,E(J+1)表示第J+1个神经网络个体的误差,λ表示可控制的变量,将Cjt和Kjt定义为:
其中,表示第j个神经网络的第k个输出,是ci的目标表式;神经网络集成是否应该增加新的神经网络个体的决定,由上述递归误差方程式来实现,即若则增加第J+1个神经网络个体;若则放弃第J+1个神经网络个体;
S5、通过上述步骤S1-S4,即可实现高精度的步态识别。
相较于现有技术,本发明具有以下有益效果:本发明方法提高了人体步态识别的准确性和可靠性。
附图说明
图1为图像轮廓提取示例。
图2为移动轮廓图像。
图3为本发明方法中所采用的遗传算法染色体。
图4为神经网络的示例。
图5为11个视角的步态图像示例。
图6为0°视角下3种条件的序列示例,其中,6(a)为0°视角下情况下一般步态图像示例,6(b)为0°视角下穿外套的步态图像示例,6(c)为0°视角下携带物品的步态图像示例。
图7为一般条件下的识别率结果。
图8为携带物品条件下的识别率结果。
图9为一般条件下的结果。
图10为携带物品条件下的结果。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明的一种基于并行遗传算法的高精度步态识别方法,包括如下步骤,
S1、图像预处理:采用背景减法从图像序列中生产轮廓图像序列,而后进行归一化处理,得到归一化轮廓图像序列;
S2、特征提取:将归一化轮廓图像序列中移动轮廓图像作为步态特征,移动轮廓图像是灰度图像,其像素强度表示像素移动的时态移动历史,具有关键的空间和时间信息,其定义为:
其中,S(x,y,t)为第t帧移动轮廓图像像素点(x,y)处的值,t表示为当前时间或者帧数,x和y分别表示图像水平和垂直方向的坐标,S(x,y,t)=1表示出现新的轮廓区域,最终计算得到的为移动轮廓图像上像素点(x,y)处的灰度值;
对于低维的特征,运用主分量分析,令表示第i个移动轮廓图像,q表示移动轮廓图像像素的数量,通过以下方程式将mi投影到特征空间中:
xi=PTmi=[P1P2...Pp]Tmi
其中,{Pt|t=1,2,...p}表示q维协方差矩阵特征向量集合,对应最大的特征值p(p<<q),即低维度移动轮廓图像中特征的数量;xi表示第i个低维度移动轮廓图像,
S3、采用基于分等级公平竞争的并行遗传算法,训练多神经网络;
S4、假设由步骤S3训练的多神经网络构建的神经网络集成,其有J个个体神经网络;若提供另外一个神经网络个体,并且将其增加到集成中,那么新的集成就有J+1个个体神经网络,新神经网络集成所生成的误差由以下递归误差方程式来表达:
其中,E(J+1)表示第J+1个神经网络个体的误差,λ表示可控制的变量,将Cjt和Kjt定义为:
其中,表示第j个神经网络的第k个输出,是ci的目标表式;神经网络集成是否应该增加新的神经网络个体的决定,由上述递归误差方程式来实现,即若则增加第J+1个神经网络个体;若则放弃第J+1个神经网络个体;
S5、通过上述步骤S1-S4,即可实现高精度的步态识别。
以下为本发明的具体实现过程。
本发明提出了一种新的设计方法,将神经网络集成应用于步态识别中,并将泛化误差最小化,系统多样性最大化[7]。该方法首先将应用于集成的候选神经网络泛化,使用了基于分等级公平竞争的并行遗传算法(HFC-PGA)[8],以此增加网络的多样性。此外,使用一组由HFC-PGA选择的适当特性来训练每个候选的神经网络,而不是全部特性。最后,在设计出候选的神经网络后,选择一组个体神经网络,以便将泛化误差最小化,负相关最大化。在CASIA-B步态数据库上的实验证明了提出的步态识别方法的有效性。由于负相关有利于实现个体多样化,而且可以有效实现更高的分类率,因此,与现有的几种方法相比较,提出的方法提高了人体步态识别的准确性和可靠性。
1步态识别系统
1.1预处理
我们首先运用背景减法从图像序列中生成轮廓图像[9]。然后在轮廓的轮廓周围建立一个边界框,将轮廓的大小调整到固定尺寸,以便消除缩放效果。图1(a)、(b)显示了背景减法图像和归一化轮廓图像的1个示例。
1.2特征提取
我们在归一化轮廓图像中将移动轮廓图像(motion silhouette images,MSI)[8]作为步态特征。移动轮廓图像是一个灰度图像,它的像素强度表示像素移动的时态移动历史。它具有关键的空间和时间信息,将其定义为:
其中,S(x,y,t)为第t帧移动轮廓图像像素点(x,y)处的值,t表示为当前时间或者帧数,x和y分别表示图像水平和垂直方向的坐标,S(x,y,t)=1表示出现新的轮廓区域,最终计算得到的为移动轮廓图像上像素点(x,y)处的灰度值;图2中(a)、(b)、(c)分别体现了移动轮廓图像的侧面图,斜视图和正面视图示例。
对于低维的特征,运用了主分量分析(principal component analysis,PCA)[10],令表示第i个移动轮廓图像,q表示移动轮廓图像像素的数量,通过以下方程式将mi投影到特征空间中:
xi=PTmi=[P1P2...Pp]Tmi
其中,{Pt|t=1,2,...p}表示q维协方差矩阵特征向量集合,对应最大的特征值p(p<<q),即低维度移动轮廓图像中特征的数量;xi表示第i个低维度移动轮廓图像,
2基于并行遗传算法的高精度步态识别方法
本发明提出了一种新的神经网络集成设计方法应用于步态识别中,以便改善步态识别的准确性和可靠性。本文提出的神经网络集成设计方法包括两个阶段。在第一阶段,使用基于分等级公平竞争的并行遗传算法(HFC-PGA)来训练多神经网络,以便每个神经网络都有一组适当的特征、优化结构以及调整过的参数。在第二个阶段,从可用于构建集成的多神经网络中选择一组个体。
2.1基于分等级公平竞争的并行遗传算法
在集成的背景下系统的多样性是一个非常重要的因素[7][8]。因此对于多神经网络的训练而言,简单的遗传算法(genetic algorithm,GA)可能不是一个好的选择,因为:1)可能出现过早收敛,该算法受困于局部的最佳状态中;2)在上一代中,一种具备最高适应度的个体主导了整个群体[8]
两种情况都会使个体彼此相似,因此在形成网络集成时它们的效果有限。本文提出利用HFC-PGA算法来解决这个问题,以此减少过早收敛的可能性,并且保持个体种群的多样性。在不同的种群中,分等级公平竞争模型允许年轻又有前途的个体从早期的竞争中成长。在适当的时候,该模型会让他们加入到残酷的竞争过程中。HFC-PGA算法有多个分层次组织的子种群,而且每个子种群都可以容纳指定适应度范围内的个体[13]。分等级公平竞争模型维护了多个不同的子种群,从而提供最好的解决方案,此外还提供多样化的解决方案。
在第一阶段中,运用HFC-PGA算法生成个体神经网络,每个个体神经网络都被编码为染色体,如图3所示。染色体由两个次染色体组成;一个负责处理特征选择,而另外一个负责神经网络的结构和参数优化。如图3所示,第一个次染色体被编码为二进制字符串,其中每个比特都与对应的特征相关,表明对应的特征是否已经被选定:是(‘1’)或否(‘0’);p表示低维度移动轮廓图像中特征的数量。
第二个次染色体表示神经网络的结构和参数,对其进行编码如图3所示。在图中,whi和woh分别表示输入层和隐藏层之间,以及隐藏层和输出层之间的权重,wb表示偏差。p,h和o分别表示输入节点、隐藏节点以及输出节点的数量。由于p和o是已知的参数,应该确定h的数值,因此它包含在染色体内,大小规定在1和nmh之间,其中nmh是隐藏节点允许的最大值。图4显示了神经网络的编码示例,用于解决两个级别和四个特征的问题。由于有三个选择特征和两个类别,因此神经网络有三个输入节点,四个隐藏节点和两个输出节点,whi,woh和wb的长度分别为12,8和6。
在HFC-PGA算法中运用了交叉和突变,作为遗传算子。在次染色体中使用一点交叉和比特反转突变,用于特征选择。在第二个次染色体中运用了算术、简单、启发式的交叉和均匀的边界突变。特别是,通过对相应的基因,使用最大的整数函数来确定隐藏层的神经元数量。
2.2神经网络集成
通过结合在上节中设计的多神经网络来构建神经网络集成。为了构造一个有效的集成,应该选择一组合适的个体神经网络,同时保持良好的集成生成能力。换句话说,选择的个体网络应该多样化。负相关性促使集成选择不同的个体网络,不同的个体网络学习的训练数据不同或者集中在训练数据的不同方面。因此,我们在选择神经网络个体时,不仅仅基于学习误差,而且基于个体之间的相关性[7]。假设一组低维度的移动轮廓图像为:
{(xi,cj)|i=1,...,N}
且cj∈{1,2,3,...,C},cj表示相关级别的标记;
定理1:假设有一个神经网络集成,有J个个体。如果提供另外一个神经网络个体,并且将其增加到集成中,那么新的集成就有J+1个个体,新集成所生成的误差由以下方程式来表达:
其中,E(J+1)表示第J+1个神经网络个体的误差,λ表示可控制的变量,将Cjt和Kjt定义为:
其中, 表示第j个神经网络的第k个输出,是ci的目标表式;定理1的论据见参考文献[7]。关于集成是否应该增加新的神经网络个体的决定,由定理1中的递归误差方程式来实现,因为新的集成有J+1个个体,它的误差可以通过比较有J个个体的集成误差和有J+1个神经网络个体的集成误差来计算。如果那么应该增加第J+1个神经网络个体。但是如果那么应该放弃第J+1个神经网络个体。因此,根据这一误差递归方程式,我们就可以决定集成是否需要增加新的神经网络个体,而且可以得到一个优秀的集成用于解决提出的问题。
3实验结果与分析
3.1实验设置
为了验证本文提出方法的有效性,及其在步态识别中的准确性,我们在本文的实验中,运用了中国科学院自动化研究所提供的CASIA步态数据库中的Dataset-B[11]。该数据库已经广泛应用于步态识别的基准算法中。相比数据库Dataset-A,Dataset-B数据库的规模更大,且是多视角的步态库,采集的人数更多,适用性更广泛和真实。该数据库通过在户外的环境中,在两个不同的日期内,运用固定在三脚架的数码照相机捕获步态序列,来构建了CASIA步态数据库。
实验环境为Windows 7操作系统,CPU为Pentium Dual-Core E5200处理器,2GB内存,仿真环境为Matlab R2014a。
Dataset-B具有124个人的步态数据,每个人有11个视角(0°,18°,36°,54°,72°,90°,108°,126°,144°,162°和180°),图5显示了11种不同视图的示例图像。在3种条件(一般情况、携带物品和穿外套)下完成采集,图像解析度为320×240,一共13640个步态序列,0°视角下3种条件的序列示例,分别如图6(a)、图6(b)和图6(c)所示。
3.2参数设置
在本实验中,在移动轮廓图像中使用了二十个主分量,采用留一效验方法来测试该算法的总体性能。表1对应用于进化优化的参数值进行了汇总。表1中种群数量、负相关系数、隐藏层最大规模和子种群数量参数值设置参考了文献[13]中实验的结果,注意其中子种群数量为种群数量的十分之一。
表1进化优化参数
3.3结果与分析
本文选取了Dataset-B中的前20个人3个视角(0°,36°和90°)下的一般情况和携带物品的图像序列。测试结果如图7和图8所示。通过分层次神经网络进化构建了四十个独立的神经网络。基于提出的方法对神经网络个体进行选择,并且将其用于构建集成。
从图7和图8的实验结果可以看出:在视角为0°条件下的识别率最高,视角为36°条件下的识别率次之,视角为90°条件下的识别率最差。导致这种结果的原因是视角为0°时获得的侧面视图具有最多的轮廓信息,而在斜视或者正面视角时(36°和90°)由于部分遮掩,不能获得较多的轮廓信息,因此步态识别率较低。此外,相比一般情况下的步态识别,穿外套的步态识别率均表现较低。这是因为较大的外套,如大衣,会影响在特征提取过程中的特征值,从而导致误差增大。
本文从3个视角,采用最常用的累积匹配分值(cumulative match scores,CMS)指标来评价提出方法的性能,图9和图10分别为人数20时一般情况和携带物品的条件下的累积匹配分值图。从图9和图10的曲线结果可以看出,三种视角(0°、36°和90°)在一般条件下的累积匹配分值指标,均优于在携带物品条件下的相同指标,在一般条件下7、13和14介次(分别对应0°、36°和90°)就能达到100%指标,而在携带物品条件下最少也需要12介次。此外,两种条件下0°视角的指标均最好,36°次之,90°结果最差。
为了体现提出方法的性能提升效果,将提出方法与其他几种步态识别方法[6][11][12][13],进行了比较。实验取数Dataset-B人数20时0°,36°,72°,90°,126°,162°和180°视角,一般情况和携带物品的条件下图像序列为测试样本。所有比较方法的参数均与原文一致,比较结果如表2所示。
表2不同算法的结果比较
从表2的结果可以看出,在一般条件下,本文提出方法和文献[13]的识别率更高,可以达到90%以上,本文方法最高达到93.31%。在携带物品的条件下,所以方法的识别有所下降,但是本文提出方法的识别率为82.48%,相比文献[6]提高近3%,即识别率最高,证明了提出方法的优越性。
4结论
提高步态识别的性能,本文将神经网络集成和HFC-PGA应用于步态识别中,以便获得较高的识别准确度。运用HFC-PGA生成多样化的个体神经网络。并合理选择神经网络个体,使得泛化误差最小化,而且个体之间的相关性是负的。在CASIA步态数据库上的实验证。实验结果表明,与其他文献中步态识别方法的性能相比较,提出方法的性能更胜一筹。
参考文献:
[1]Guan Y,Li C,Roli F.On Reducing the Effect of Covariate Factors inGait Recognition:A Classifier Ensemble Method[J].IEEE Transactions on PatternAnalysis&Machine Intelligence,2015,37(7):1521-1528.
[2]Huang S,Elgammal A,Lu J,et al.Cross-Speed Gait Recognition UsingSpeed-Invariant Gait Templates and Globality–Locality Preserving Projections[J].IEEE Transactions on Information Forensics&Security,2015,10(10):2071-2083.
[3]马玉良,马云鹏,张启忠,等.GA-BP神经网络在下肢运动步态识别中的应用研究[J].传感技术学报,2013,26(9):1183-1187.
Ma Yu-liang,MA Yun-peng,ZHANG Qi-zhong,et al.Application study of GA-BP neural network in gait recognition oflower limb[J].Journal ofsensingtechnology,2013,26(9):1183-1187.
[4]袁娜,杨鹏,刘作军.利用平均影响值和概率神经网络的步态识别[J].哈尔滨工程大学学报,2015(2):181-185.
YUAN Na,YANG Peng,LIU Gang.Gait recognition using mean value andprobabilistic neural networks[J].Journal ofHarbin Engineering University,2015(2):181-185.
[5]伍鹏,谢凯,陈传波,等.基于负相关神经网络集成的货币识别算法研究[J].电视技术,2013,37(9):198-201.
Wu Peng,XIE Kai,CHEN Chuan-bo,et al.Study of currency identificationalgorithm based on neural network ensemble ofnegative correlation[J].television technology,2013,37(9):198-201.
[6]Kordjazi N,Rahati S.Gait recognition for human identificationusing ensemble of LVQ Neural Networks[C]//International Conference onBiomedical Engineering.IEEE,2012:180-185.
[7]Lee H,Kim E,Pedrycz W.A new selective neural network ensemble withnegative correlation[J].Applied Intelligence,2012,37(4):488-498.
[8]Oh S K,Kim W D,Pedrycz W,et al.Fuzzy Radial Basis Function NeuralNetworks with information granulation and its parallel genetic optimization[J].Fuzzy Sets&Systems,2014,237(1):96-117.
[9]Hoang T.Adaptive Cross-Device Gait Recognition Using a MobileAccelerometer[J].Journal ofInformation Processing Systems,2013,9(2):333-348.
[10]Lee H,Hong S,Kim E.An Efficient Gait Recognition with BackpackRemoval[J].EURASIP Journal onAdvances in Signal Processing,2008,2009(1):1-7.
[11]李轶,明东,王璐,等.融合步态和人脸特征的远距离身份识别研究[J].仪器仪表学报,2011,32(2):264-270.
LI Yi,MING Dong,WANG Lu,et al.Long distance identification ofgait andfacial features[J].proceedings ofthe Institute ofinstrumentation,2011,32(2):264-270.
[12]Kusakunniran W,Wu Q,Zhang J,et al.A New View-Invariant Featurefor Cross-View Gait Recognition[J].IEEE Transactions on InformationForensics&Security,2013,8(10):1642-1653.
[13]Ben X,Meng W,Yan R,et al.Kernel coupled distance metric learningfor gait recognition and face recognition[J].Neurocomputing,2013,120(10):577-589.。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (1)

1.一种基于并行遗传算法的高精度步态识别方法,其特征在于:包括如下步骤,
S1、图像预处理:采用背景减法从图像序列中生产轮廓图像序列,而后进行归一化处理,得到归一化轮廓图像序列;
S2、特征提取:将归一化轮廓图像序列中移动轮廓图像作为步态特征,移动轮廓图像是灰度图像,其像素强度表示像素移动的时态移动历史,具有关键的空间和时间信息,其定义为:
<mrow> <mi>M</mi> <mi>S</mi> <mi>I</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <mi>M</mi> <mi>S</mi> <mi>I</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mn>1</mn> <mo>&amp;rsqb;</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,S(x,y,t)为第t帧移动轮廓图像像素点(x,y)处的值,t表示为当前时间或者帧数,x和y分别表示图像水平和垂直方向的坐标,S(x,y,t)=1表示出现新的轮廓区域,最终计算得到的为移动轮廓图像上像素点(x,y)处的灰度值;
对于低维的特征,运用主分量分析,令表示第i个移动轮廓图像,q表示移动轮廓图像像素的数量,通过以下方程式将mi投影到特征空间中:
xi=PTmi=[P1P2...Pp]Tmi
其中,{Pt|t=1,2,...p}表示q维协方差矩阵特征向量集合,对应最大的特征值p(p<<q),即低维度移动轮廓图像中特征的数量;xi表示第i个低维度移动轮廓图像,
S3、采用基于分等级公平竞争的并行遗传算法,训练多神经网络;
S4、假设由步骤S3训练的多神经网络构建的神经网络集成,其有J个个体神经网络;若提供另外一个神经网络个体,并且将其增加到集成中,那么新的集成就有J+1个个体神经网络,新神经网络集成所生成的误差由以下递归误差方程式来表达:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mover> <mi>E</mi> <mo>^</mo> </mover> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mi>J</mi> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msub> <mover> <mi>E</mi> <mo>^</mo> </mover> <mi>J</mi> </msub> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mi>J</mi> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <mn>2</mn> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <mo>&amp;lsqb;</mo> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>J</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <msub> <mi>&amp;lambda;K</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>J</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> <mo>&amp;rsqb;</mo> <mo>+</mo> <msub> <mi>E</mi> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mi>J</mi> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msub> <mover> <mi>E</mi> <mo>^</mo> </mover> <mi>J</mi> </msub> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mi>J</mi> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <mn>2</mn> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>J</mi> <mo>+</mo> <mn>1</mn> </mrow> </munderover> <mo>&amp;lsqb;</mo> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>J</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <msub> <mi>&amp;lambda;K</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>J</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> <mo>&amp;rsqb;</mo> <mo>-</mo> <msub> <mi>E</mi> <mrow> <mo>(</mo> <mi>J</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mo>)</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,E(J+1)表示第J+1个神经网络个体的误差,λ表示可控制的变量,将Cjt和Kjt定义为:
<mrow> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mi>t</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>C</mi> </munderover> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <msubsup> <mi>f</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>f</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
<mrow> <msub> <mi>K</mi> <mrow> <mi>j</mi> <mi>t</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>C</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>r</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <msubsup> <mi>f</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <msubsup> <mi>f</mi> <mi>r</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>f</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <msubsup> <mi>f</mi> <mi>r</mi> <mi>k</mi> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
其中,表示第j个神经网络的第k个输出,是ci的目标表式;神经网络集成是否应该增加新的神经网络个体的决定,由上述递归误差方程式来实现,即若则增加第J+1个神经网络个体;若则放弃第J+1个神经网络个体;
S5、通过上述步骤S1-S4,即可实现高精度的步态识别。
CN201710701384.3A 2017-08-16 2017-08-16 基于并行遗传算法的高精度步态识别方法 Active CN107491754B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710701384.3A CN107491754B (zh) 2017-08-16 2017-08-16 基于并行遗传算法的高精度步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710701384.3A CN107491754B (zh) 2017-08-16 2017-08-16 基于并行遗传算法的高精度步态识别方法

Publications (2)

Publication Number Publication Date
CN107491754A true CN107491754A (zh) 2017-12-19
CN107491754B CN107491754B (zh) 2020-07-31

Family

ID=60646359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710701384.3A Active CN107491754B (zh) 2017-08-16 2017-08-16 基于并行遗传算法的高精度步态识别方法

Country Status (1)

Country Link
CN (1) CN107491754B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101290658A (zh) * 2007-04-18 2008-10-22 中国科学院自动化研究所 一种基于步态的性别识别方法
CN101807245A (zh) * 2010-03-02 2010-08-18 天津大学 基于人工神经网络的多源步态特征提取与身份识别方法
US20110021320A1 (en) * 2008-01-07 2011-01-27 Lenhardt Martin L Gait enhanced learning device and method
CN106529499A (zh) * 2016-11-24 2017-03-22 武汉理工大学 基于傅里叶描述子和步态能量图融合特征的步态识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101290658A (zh) * 2007-04-18 2008-10-22 中国科学院自动化研究所 一种基于步态的性别识别方法
US20110021320A1 (en) * 2008-01-07 2011-01-27 Lenhardt Martin L Gait enhanced learning device and method
CN101807245A (zh) * 2010-03-02 2010-08-18 天津大学 基于人工神经网络的多源步态特征提取与身份识别方法
CN106529499A (zh) * 2016-11-24 2017-03-22 武汉理工大学 基于傅里叶描述子和步态能量图融合特征的步态识别方法

Also Published As

Publication number Publication date
CN107491754B (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
Zhuang LadderNet: Multi-path networks based on U-Net for medical image segmentation
CN110309861B (zh) 一种基于生成对抗网络的多模态人类活动识别方法
Kumar et al. Hand posture and face recognition using a fuzzy-rough approach
CN101807245B (zh) 基于人工神经网络的多源步态特征提取与身份识别方法
Sinha et al. Optimization of convolutional neural network parameters for image classification
CN105975932B (zh) 基于时间序列shapelet的步态识别分类方法
CN103886341A (zh) 基于特征组合的步态行为识别方法
Odeh Using an Adaptive Neuro-Fuzzy Inference System(AnFis) Algorithm for Automatic Diagnosis of Skin Cancer
CN106778501A (zh) 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN102938070A (zh) 一种基于动作子空间与权重化行为识别模型的行为识别方法
Karnowski et al. Deep spatiotemporal feature learning with application to image classification
KR101687217B1 (ko) 인터벌 타입-2 rbf 신경회로망 기반 ct 기법을 이용한 강인한 얼굴 인식 패턴 분류 방법 및 이를 실행하기 위한 시스템
CN104915658B (zh) 一种基于情感分布学习的情感成分分析方法及其系统
CN102592150B (zh) 基于模糊理论决策的双向二维主成分分析的步态识别方法
Zohrevand et al. Deep convolutional neural network for finger-knuckle-print recognition
Twum et al. Textural Analysis for Medicinal Plants Identification Using Log Gabor Filters
Mustafa et al. Medical data classification scheme based on hybridized smote technique (hst) and rough set technique (rst)
CN107491754A (zh) 基于并行遗传算法的高精度步态识别方法
Ahmed et al. Improving prediction of plant disease using k-efficient clustering and classification algorithms
Thakare et al. A Novel End-To-End Approach For Offline Signature Verification System
Ma et al. Sports competition assistant system based on fuzzy big data and health exercise recognition algorithm
CN102682294A (zh) 一种基于人脸形状及广义自组织映射的性别识别方法
Allahyani et al. SD2GAN: A siamese dual discriminator generative adversarial network for mode collapse reduction
Tarle et al. Improved artificial neural network for dimension reduction in medical data classification
Safari MCSM-DEEP: A multi-class soft-max deep learning classifier for image recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240221

Address after: 510000 Building 1, No. 106 Fengze East Road, Nansha District, Guangzhou City, Guangdong Province X1301-D010825 (Cluster Registration) (JM)

Patentee after: Guangzhou Chengyi Technology Consulting Co.,Ltd.

Country or region after: China

Address before: 200 xiyuangong Road, Shangjie Town, Minhou County, Fuzhou City, Fujian Province

Patentee before: MINJIANG University

Country or region before: China