CN104636732A - 一种基于序列深信度网络的行人识别方法 - Google Patents
一种基于序列深信度网络的行人识别方法 Download PDFInfo
- Publication number
- CN104636732A CN104636732A CN201510076210.3A CN201510076210A CN104636732A CN 104636732 A CN104636732 A CN 104636732A CN 201510076210 A CN201510076210 A CN 201510076210A CN 104636732 A CN104636732 A CN 104636732A
- Authority
- CN
- China
- Prior art keywords
- sequence
- boltzmann machine
- limited boltzmann
- pedestrian
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Abstract
本发明公开了一种基于序列深信度网络的行人识别方法,包括以下步骤:对行人数据库中的训练图像进行预处理,获得训练样本图像,对获得的训练样本图像进行HOG特征提取,构建并训练基于序列受限玻尔兹曼机的序列深信度网络,用序列深信度网络对获得的HOG特征进一步进行特征提取,形成训练样本的特征向量,将获得的特征数据输入支持向量机分类器,完成训练;对待测的行人图像进行预处理,得到测试样本,用HOG和序列深信度网络对测试样本进行行人特征提取,形成测试样本的特征向量;将测试样本的特征向量输入支持向量机分类器,识别测试图像为行人还是非行人。本发明可以获得较好的分类性能,提高了行人识别的准确率,增强了行人识别算法的鲁棒性。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于序列深信度网络的行人识别方法。
背景技术
行人识别在智能交通系统和智能监控系统中具有广泛的应用前景,但它目前仍然是计算机视觉领域公开的难题,原因是行人外观和背景环境,如衣着、姿势、光照、视角等变化很大,加之背景复杂,识别的准确率不高。
在整个行人检测系统中,特征提取技术是最基本也是最关键的步骤,目前一些学者对行人识别和分类的研究主要集中于特征提取方面。用于行人检测的主要特征有梯度直方图特征、LBP特征、edgelet特征,harr特征等。梯度方向直方图HOG描述子已经被实验证明是现阶段单一特征中性能最好的一种,但其HOG描述子生成过程冗长,导致速度慢,实时性差;且很难处理遮挡问题。其他的一些特征也都有其不足之处,如LBP具有冗余信息、维数高和判别能力差的特点;harr是不连续的,多应用于人脸识别,对行人识别则效果不佳;局部特征SIFT的维数很高且旋转不变性存在偏差;MSER特征所检测的特征点较少等问题。
发明内容
本发明是为了克服现有技术存在的不足之处,提供一种基于序列深信度网络的行人识别方法,以期能有效地克服行人外观形变与复杂背景环境的影响,获得较好的分类性能,从而有效提高行人识别率,增强行人识别算法的鲁棒性。
本发明为解决技术问题采用如下技术方案:
本发明一种基于序列深信度网络的行人识别方法,应用于包含行人数据库的序列深信度网络中;其特点是,所述行人识别方法是按如下步骤进行:
步骤1、从所述行人数据库中随机选取n个行人训练图像和n个非行人训练图像,对所述n个行人训练图像和n个非行人训练图像分别进行预处理,获得n个行人正样本训练图像和n个非行人负样本训练图像;
步骤2、对所述n个行人正样本训练图像和n个非行人负样本训练图像分别进行HOG特征提取,获得行人特征x+和非行人特征x-;
步骤3、假设基于序列受限玻尔兹曼机的序列深信度网络包括一个输入层、L-2个隐层和一个输出层;对所述序列深信度网络进行训练,获得初始化模型参数θ;
步骤4、利用式(1)所示的映射函数获得优化后的行人特征y+和优化后的非行人特征y-:
步骤5、利用支持矢量机对所述优化后的行人特征y+和优化后的非行人特征y-进行训练,获得分类识别模型和阈值τ;
步骤6、对待识别的测试图像I按照步骤1和步骤2进行预处理和HOG特征提取,获得测试特征;
步骤7、将所述测试特征输入所述分类识别模型中,从而获得识别结果,若所述识别结果大于阈值τ,则表示所述测试图像为行人图像,否则表示所述测试图像为非行人图像。
本发明所述的基于序列深信度网络的行人识别方法的特点也在于,所述步骤3是按如下步骤进行:
步骤1、建立一个序列受限玻尔兹曼机:
步骤1.1、假设第i个时间帧的受限玻尔兹曼机包含一个输入层Vi和一个含有S个节点Ji的隐层Hi;将相邻两个受限玻尔兹曼机隐层的s个节点依次对应连接,从而获得由T个时间帧的序列受限玻尔兹曼机组成的序列受限玻尔兹曼机;则所述序列受限玻尔兹曼机中的T个输入层记为V={V1,V2,…,Vi,…,VT};所述序列受限玻尔兹曼机中的T个隐层记为H={H1,H2,…,Hi,…,HT};所述序列受限玻尔兹曼机中T个隐层的S个节点记为J={J1,J2,…,Ji,…,JT};并有 表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点;1≤s≤S;1≤i≤T;
步骤1.2、利用式(2)计算所述序列受限玻尔兹曼机中T个输入层与T个隐层的权值矩阵W0:
W0=V(E[H′|V]-E[H′]) (2)
式(2)中,E[·]表示求取数学期望;H′表示所述序列受限玻尔兹曼机中的T个隐层H的转置;
步骤1.3、利用式(3)计算相邻时间帧的跨层边缘权值矩阵W1:
W1=V*(1:T-1)(E[H′*(2:T)|V]-E[H′*(2:T)]) (3)
式(3)中,V*(1:T-1)表示从T个输入层V中抽取第一列到第T-1列的元素组成的子阵,H′*(2:T)表示从T个隐层H中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤1.4、利用式(4)计算第i个时间帧的受限玻尔兹曼机隐层的第s个节点与第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的权值
式(4)中,表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点的值,表示第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的值;
步骤2、重复步骤1,从而获得L个序列受限玻尔兹曼机记为K={K1,K2,…,Kl,…,KL};Kl表示第l个序列受限玻尔兹曼机;1≤l≤L;并有Kl={Vl,Hl};Vl表示所述第l个序列受限玻尔兹曼机Kl的T个输入层;Hl表示所述第l个序列受限玻尔兹曼机Kl的T个隐层;
步骤3、将所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl作为第l+1个序列受限玻尔兹曼机Kl+1的T个输入层Vl+1,与所述第l+1个序列受限玻尔兹曼机Kl+1的T个隐层Hl+1依次连接,从而获得序列深信度网络;以第1个序列受限玻尔兹曼机K1的T个输入层V1作为所述序列深信度网络的输入层;以第L个序列受限玻尔兹曼机KL的T个隐层HL作为所述序列深信度网络的输出层;其余的序列受限玻尔兹曼机的输入层和隐层作为所述序列深信度网络的L-2个隐层;
步骤4、利用式(5)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵
式(5)中,Xl=E[Hl];(Hl)′表示所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl的转置;
步骤5、利用式(6)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵
式(6)中,表示从Xl中抽取第一列到第T-1列的元素组成的子阵,(Hl)′*(2:T)表示从所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤6、利用式(7)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值
式(7)中,表示第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点对应的值,表示第l个序列受限玻尔兹曼机Kl中第i+1个时间帧的受限玻尔兹曼机的第s个节点对应的值;
步骤7、以所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵以及所述第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值构成所述第l个序列受限玻尔兹曼机Kl的初始化模型参数θl;即从而获得所述序列深信度网络的初始化模型参数θ={θ1,θ2,…,θl,…θL-1}。
与已有技术相比,本发明有益效果体现在:
1、本发明首先采用分级特征提取的方式提取行人特征和非行人特征;然后,构造基于序列受限玻尔兹曼机的序列深信度网络,形成一种新颖的深度结构网络;其次,训练序列深信度网络,获得初始化参数,提高训练效率;再次,利用函数映射的方式学习特征,避免了大量的手工设计数据;最后,采用支持向量机技术,充分利用分级特征中的信息实现行人分类;从而解决了行人外观形变与复杂背景下的行人识别问题,提高行人识别率,实现了高效的行人识别。
2、本发明采用分级特征提取的方式,首先将训练样本图像进行HOG特征提取,获得初级特征向量,再利用训练完成的基于序列受限玻尔兹曼机的序列深信度网络对获得的初级特征向量进一步进行特征提取,形成训练样本的特征向量,分级特征能更完整地表征出行人的特点,提高了对外观形变和不同行人场景的适应能力。
3、本发明采用由多时间帧受限玻尔兹曼机组成序列受限玻尔兹曼机,再由多层序列受限玻尔兹曼机堆叠的方法构建序列深信度网络,序列深信度网络的结构和参数与序列受限玻尔兹曼机有关,且构建的序列深信度网络是一种新颖的深度结构网络,既强调了网络结构的深度又突出了特征表达的能力。
4、本发明采用非监督训练方式逐层初始化的方法训练序列深信度网络,获得初始化参数;先训练由输入层和第一个隐层构成的最底层的序列受限玻尔兹曼机模型;训练完成后,将这个序列受限玻尔兹曼机的隐层输出作为下一个序列受限玻尔兹曼机模型的输入层输入,继续训练由第一个隐层和第二个隐层组成的第二个序列受限玻尔兹曼机;以此类推进行每一层的训练,最终获得初始化参数;这种学习自动建模的数据的方式提高了训练效率。
5、本发明采用函数映射的方式获得训练样本的特征向量,即利用初始化参数对由HOG特征提取的初级特征向量进行映射获得训练样本的特征向量;这种方法用数据学习特征,避免了大量的手工设计数据,缩减了大量的训练时间,提高了训练的效率和精确度。
6、本发明采用支持向量机分类算法解决行人分类识别问题,支持向量机技术在机器学习中简单高效,高斯核函数可以有效提高数据在非线性条件下的可区分性,提高行人分类识别率。
附图说明
图1为本发明的系统流程图;
图2为本发明中序列受限玻尔兹曼机的示意图;
图3为本发明中序列信度网络的示意图。
具体实施方式
本实施例中,如图1所示,应用于包含行人数据库的序列深信度网络中的基于序列深信度网络的行人识别方法包括以下步骤:对行人数据库中的训练图像进行预处理,获得需要的训练样本图像,对获得的训练样本图像进行HOG特征提取,构建并训练基于序列受限玻尔兹曼机的序列深信度网络,用序列深信度网络对获得的HOG特征进一步进行特征提取,形成训练样本的特征向量,将获得的特征数据输入支持向量机分类器,完成训练;对待测的行人图像进行预处理,得到测试样本,用训练过程中使用的HOG和构建并训练的序列深信度网络对测试样本进行行人特征提取,形成测试样本的特征向量;将测试样本的特征向量输入训练完成的支持向量机分类器,识别测试图像为行人还是非行人。具体地说,是按如下步骤进行:
步骤1、从INRIA数据库、Daimler数据库、TUD数据库、CVC数据库和MIT数据库等的其中一种行人数据库中随机选取n个行人训练图像和n个非行人训练图像,对n个行人训练图像和n个非行人训练图像分别进行预处理,获得n个行人正样本训练图像和n个非行人负样本训练图像;
步骤1.1、从行人数据库中随机选取n个行人训练图像和n个非行人训练图像,对n个行人训练图像和n个非行人训练图像进行归一化处理,分别获得像素大小为128×64的n个行人正样本和n个非行人负样本;
步骤1.2、分别对n个行人正样本和n个非行人负样本进行灰度化处理,分别获得n个行人正样本的灰度图和n个非行人负样本的灰度图;
步骤1.3、对n个行人正样本的灰度图和n个非行人负样本的灰度图进行灰度均衡化处理,分别获得n个行人正样本的灰度均衡化图像和n个非行人负样本的灰度均衡化图像;
步骤1.4、对n个行人正样本的灰度均衡化图像和n个非行人负样本的灰度均衡化图像分别用高斯滤波算法进行去噪平滑处理,从而获得n个行人正样本训练图像和n个非行人负样本训练图像;
步骤2、对n个行人正样本训练图像和n个非行人负样本训练图像分别进行HOG特征提取,获得行人特征x+和非行人特征x-;
HOG是目前计算机视觉和模式识别等领域常用的一种描述图像局部纹理特征的特征描述子,且已经被实验证明是现阶段单一特征中性能较好的一种,它通过计算和统计图像局部区域的梯度方向直方图来构成特征。
步骤3、假设基于序列受限玻尔兹曼机的序列深信度网络包括一个输入层、L-2个隐层和一个输出层;对序列深信度网络进行训练,获得初始化模型参数θ;
步骤3.1、建立一个序列受限玻尔兹曼机(Sequential Restricted Boltzmann Machine,简称SRBM):
步骤3.1.1、假设第i个时间帧的受限玻尔兹曼机包含一个输入层Vi和一个含有S个节点Ji的隐层Hi;将相邻两个受限玻尔兹曼机隐层的s个节点依次对应连接,从而获得由T个时间帧的序列受限玻尔兹曼机组成的序列受限玻尔兹曼机;则序列受限玻尔兹曼机中的T个输入层记为V={V1,V2,…,Vi,…,VT};序列受限玻尔兹曼机中的T个隐层记为H={H1,H2,…,Hi,…,HT};序列受限玻尔兹曼机中T个隐层的S个节点记为J={J1,J2,…,Ji,…,JT};并有 表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点;1≤s≤S;1≤i≤T;本实例中,T=3,如图2所示。正如受限玻尔兹曼机(RestrictedBoltzmannMachine,简称RBM),在SRBM的隐层确定条件下,输入层的所有变量都是独立的。在SRBM的输入层确定条件下,所有隐层的行是独立的。
步骤3.1.2、利用式(1)计算序列受限玻尔兹曼机中T个输入层与T个隐层的权值矩阵W0:
W0=V(E[H′|V]-E[H′]) (1)
式(1)中,E[·]表示求取数学期望;H′表示序列受限玻尔兹曼机中的T个隐层H的转置;
步骤3.1.3、利用式(2)计算相邻时间帧的跨层边缘权值矩阵W1:
W1=V*(1:T-1)(E[H′*(2:T)|V]-E[H′*(2:T)]) (2)
式(2)中,V*(1:T-1)表示从T个输入层V中抽取第一列到第T-1列的元素组成的子阵,H′*(2:T)表示从T个隐层H中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤3.1.4、利用式(3)计算第i个时间帧的受限玻尔兹曼机隐层的第s个节点与第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的权值
式(3)中,表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点的值,表示第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的值;
步骤3.2、重复步骤3.1,从而获得L个序列受限玻尔兹曼机记为K={K1,K2,…,Kl,…,KL};Kl表示第l个序列受限玻尔兹曼机;1≤l≤L;并有Kl={Vl,Hl};Vl表示第l个序列受限玻尔兹曼机Kl的T个输入层;Hl表示第l个序列受限玻尔兹曼机Kl的T个隐层;
步骤3.3、将第l个序列受限玻尔兹曼机Kl的T个隐层Hl作为第l+1个序列受限玻尔兹曼机Kl+1的T个输入层Vl+1,与第l+1个序列受限玻尔兹曼机Kl+1的T个隐层Hl+1依次连接,从而获得序列深信度网络(Sequential Deep BeliefNetwork,简称SDBN),即一个SDBN由多层SRBM堆叠而成;如图3所示,本实例中的SDBN共有4层,即L=3;以第1个序列受限玻尔兹曼机K1的T个输入层V1作为序列深信度网络的输入层;以第L个序列受限玻尔兹曼机KL的T个隐层HL作为序列深信度网络的输出层;其余的序列受限玻尔兹曼机的输入层和隐层作为序列深信度网络的L-2个隐层;
步骤3.4、利用式(4)计算序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵
式(4)中,Xl=E[Hl];(Hl)′表示第l个序列受限玻尔兹曼机Kl的T个隐层Hl的转置;
步骤3.5、利用式(5)计算序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵
式(5)中,表示从Xl中抽取第一列到第T-1列的元素组成的子阵,(Hl)′*(2:T)表示从第l个序列受限玻尔兹曼机Kl的T个隐层Hl中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤3.6、利用式(6)计算序列深信度网络中第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值
式(6)中,表示第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点对应的值,表示第l个序列受限玻尔兹曼机Kl中第i+1个时间帧的受限玻尔兹曼机的第s个节点对应的值;
步骤3.7、以序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵以及第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值构成第l个序列受限玻尔兹曼机Kl的初始化模型参数θl;即从而获得序列深信度网络的初始化模型参数θ={θ1,θ2,…,θl,…θL-1};
1骤4、利用式(7)所示的映射函数获得优化后的行人特征y+和优化后的非行人特征y-:
步骤5、支持矢量机(SupportVectorMachine,简称SVM)是CorinnaCortes和Vapnik等提出的一种基于结构风险最小化准则的学习方法,具体实现可以参考邓乃扬和田英杰在2009年的著作:《支持向量机:理论、算法与拓展》。利用支持矢量机对优化后的行人特征y+和优化后的非行人特征y-进行训练,获得分类识别模型和阈值τ,本实施例中,τ=0.005;
步骤5.1、对以上方式得到的n个新的行人特征矢量和n个新的非行人特征矢量分别标记为1和-1,构成训练数据{xm,ym=±1},1≤m≤2n;
步骤5.2、将训练数据集带入式(8)求最优化:
式(8)中,ω为支持向量机的权重;C为超平面的惩罚因子,其中C越大,容忍出错的程度越小,但训练的时间越长;b为超平面的偏置量;ξm为超平面的松弛变量;
步骤5.3、设置支持矢量机的训练参数,调用支持矢量机中的函数进行训练,完成训练后获得训练好的模型;本发明采用基于高斯核函数的支持向量机分类器;
步骤6、对待识别的测试图像I按照步骤1和步骤2进行预处理和HOG特征提取,获得测试特征;
步骤7、将测试特征输入所述分类识别模型中,从而获得识别结果,若所述识别结果大于阈值τ,则表示测试图像为行人图像,否则表示测试图像为非行人图像。
Claims (2)
1.一种基于序列深信度网络的行人识别方法,应用于包含行人数据库的序列深信度网络中;其特征是,所述行人识别方法是按如下步骤进行:
步骤1、从所述行人数据库中随机选取n个行人训练图像和n个非行人训练图像,对所述n个行人训练图像和n个非行人训练图像分别进行预处理,获得n个行人正样本训练图像和n个非行人负样本训练图像;
步骤2、对所述n个行人正样本训练图像和n个非行人负样本训练图像分别进行HOG特征提取,获得行人特征x+和非行人特征x-;
步骤3、假设基于序列受限玻尔兹曼机的序列深信度网络包括一个输入层、L-2个隐层和一个输出层;对所述序列深信度网络进行训练,获得初始化模型参数θ;
步骤4、利用式(1)所示的映射函数获得优化后的行人特征y+和优化后的非行人特征y-:
步骤5、利用支持矢量机对所述优化后的行人特征y+和优化后的非行人特征y-进行训练,获得分类识别模型和阈值τ;
步骤6、对待识别的测试图像I按照步骤1和步骤2进行预处理和HOG特征提取,获得测试特征;
步骤7、将所述测试特征输入所述分类识别模型中,从而获得识别结果,若所述识别结果大于阈值τ,则表示所述测试图像为行人图像,否则表示所述测试图像为非行人图像。
2.根据权利要求1所述的基于序列深信度网络的行人识别方法,其特征是,所述步骤3是按如下步骤进行:
步骤1、建立一个序列受限玻尔兹曼机:
步骤1.1、假设第i个时间帧的受限玻尔兹曼机包含一个输入层Vi和一个含有S个节点Ji的隐层Hi;将相邻两个受限玻尔兹曼机隐层的s个节点依次对应连接,从而获得由T个时间帧的序列受限玻尔兹曼机组成的序列受限玻尔兹曼机;则所述序列受限玻尔兹曼机中的T个输入层记为V={V1,V2,…,Vi,…,VT};所述序列受限玻尔兹曼机中的T个隐层记为H={H1,H2,…,Hi,…,HT};所述序列受限玻尔兹曼机中T个隐层的S个节点记为J={J1,J2,…,Ji,…,JT};并有 表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点;1≤s≤S;1≤i≤T;
步骤1.2、利用式(2)计算所述序列受限玻尔兹曼机中T个输入层与T个隐层的权值矩阵W0:
W0=V(E[H′|V]-E[H′]) (2)
式(2)中,E[·]表示求取数学期望;H′表示所述序列受限玻尔兹曼机中的T个隐层H的转置;
步骤1.3、利用式(3)计算相邻时间帧的跨层边缘权值矩阵W1:
W1=V*(1:T-1)(E[H′*(2:T)|V]-E[H′*(2:T)]) (3)
式(3)中,V*(1:T-1)表示从T个输入层V中抽取第一列到第T-1列的元素组成的子阵,H′*(2:T)表示从T个隐层H中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤1.4、利用式(4)计算第i个时间帧的受限玻尔兹曼机隐层的第s个节点与第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的权值
式(4)中,表示第i个时间帧的受限玻尔兹曼机隐层的第s个节点的值,表示第i+1个时间帧的受限玻尔兹曼机隐层的第s个节点的值;
步骤2、重复步骤1,从而获得L个序列受限玻尔兹曼机记为K={K1,K2,…,Kl,…,KL};Kl表示第l个序列受限玻尔兹曼机;1≤l≤L;并有Kl={Vl,Hl};Vl表示所述第l个序列受限玻尔兹曼机Kl的T个输入层;Hl表示所述第l个序列受限玻尔兹曼机Kl的T个隐层;
步骤3、将所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl作为第l+1个序列受限玻尔兹曼机Kl+1的T个输入层Vl+1,与所述第l+1个序列受限玻尔兹曼机Kl+1的T个隐层Hl+1依次连接,从而获得序列深信度网络;以第1个序列受限玻尔兹曼机K1的T个输入层V1作为所述序列深信度网络的输入层;以第L个序列受限玻尔兹曼机KL的T个隐层HL作为所述序列深信度网络的输出层;其余的序列受限玻尔兹曼机的输入层和隐层作为所述序列深信度网络的L-2个隐层;
步骤4、利用式(5)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵
式(5)中,Xl=E[Hl];(Hl)′表示所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl的转置;
步骤5、利用式(6)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵
式(6)中,表示从Xl中抽取第一列到第T-1列的元素组成的子阵,(Hl)′*(2:T)表示从所述第l个序列受限玻尔兹曼机Kl的T个隐层Hl中抽取第二列到第T列的元素组成的子阵的转置矩阵;
步骤6、利用式(7)计算所述序列深信度网络中第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值
式(7)中,表示第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点对应的值,表示第l个序列受限玻尔兹曼机Kl中第i+1个时间帧的受限玻尔兹曼机的第s个节点对应的值;
步骤7、以所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的权值矩阵所述序列深信度网络中第l个序列受限玻尔兹曼机Kl的跨层边缘权值矩阵以及所述第l个序列受限玻尔兹曼机Kl中第i个时间帧的受限玻尔兹曼机的第s个节点与第i+1个时间帧的受限玻尔兹曼机的第s个节点的权值构成所述第l个序列受限玻尔兹曼机Kl的初始化模型参数θl;即从而获得所述序列深信度网络的初始化模型参数θ={θ1,θ2,…,θl,…θL-1}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510076210.3A CN104636732B (zh) | 2015-02-12 | 2015-02-12 | 一种基于序列深信度网络的行人识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510076210.3A CN104636732B (zh) | 2015-02-12 | 2015-02-12 | 一种基于序列深信度网络的行人识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104636732A true CN104636732A (zh) | 2015-05-20 |
CN104636732B CN104636732B (zh) | 2017-11-07 |
Family
ID=53215462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510076210.3A Active CN104636732B (zh) | 2015-02-12 | 2015-02-12 | 一种基于序列深信度网络的行人识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104636732B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
CN105718858A (zh) * | 2016-01-13 | 2016-06-29 | 合肥工业大学 | 一种基于正负广义最大池化的行人识别方法 |
CN105844333A (zh) * | 2016-03-18 | 2016-08-10 | 厦门大学 | 一种基于深信度网络的免疫层析试条定量检测方法 |
CN106248368A (zh) * | 2016-09-21 | 2016-12-21 | 哈尔滨工程大学 | 一种基于深度学习的燃机涡轮叶片故障检测方法 |
CN106446854A (zh) * | 2016-10-06 | 2017-02-22 | 西北工业大学 | 基于旋转不变hog特征的高分辨率光学遥感图像目标检测方法 |
CN106548163A (zh) * | 2016-11-25 | 2017-03-29 | 青岛大学 | 基于tof深度相机客流计数的方法 |
CN107133628A (zh) * | 2016-02-26 | 2017-09-05 | 阿里巴巴集团控股有限公司 | 一种建立数据识别模型的方法及装置 |
CN107357927A (zh) * | 2017-07-26 | 2017-11-17 | 深圳爱拼信息科技有限公司 | 一种文档建模方法 |
CN108197543A (zh) * | 2017-12-22 | 2018-06-22 | 深圳云天励飞技术有限公司 | 图像过滤方法及装置、嵌入式设备和存储介质 |
CN110287798A (zh) * | 2019-05-27 | 2019-09-27 | 魏运 | 基于特征模块化和上下文融合的矢量网络行人检测方法 |
TWI743835B (zh) * | 2019-06-28 | 2021-10-21 | 大陸商深圳市商湯科技有限公司 | 一種資訊處理方法及裝置、儲存介質 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729459A (zh) * | 2014-01-10 | 2014-04-16 | 北京邮电大学 | 一种构建情感分类模型的方法 |
CN103778432A (zh) * | 2014-01-08 | 2014-05-07 | 南京邮电大学 | 一种基于深信度网络的人车分类方法 |
CN104077580A (zh) * | 2014-07-15 | 2014-10-01 | 中国科学院合肥物质科学研究院 | 一种基于深信度网络的害虫图像自动识别方法 |
CN104112144A (zh) * | 2013-12-17 | 2014-10-22 | 深圳市华尊科技有限公司 | 人车识别方法及装置 |
-
2015
- 2015-02-12 CN CN201510076210.3A patent/CN104636732B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104112144A (zh) * | 2013-12-17 | 2014-10-22 | 深圳市华尊科技有限公司 | 人车识别方法及装置 |
CN103778432A (zh) * | 2014-01-08 | 2014-05-07 | 南京邮电大学 | 一种基于深信度网络的人车分类方法 |
CN103729459A (zh) * | 2014-01-10 | 2014-04-16 | 北京邮电大学 | 一种构建情感分类模型的方法 |
CN104077580A (zh) * | 2014-07-15 | 2014-10-01 | 中国科学院合肥物质科学研究院 | 一种基于深信度网络的害虫图像自动识别方法 |
Non-Patent Citations (1)
Title |
---|
张芝英: "基于运动目标信息和HOG特征的行人检测的研究与实现", 《中国优秀硕士论文全文数据库信息科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
CN105718858A (zh) * | 2016-01-13 | 2016-06-29 | 合肥工业大学 | 一种基于正负广义最大池化的行人识别方法 |
CN105718858B (zh) * | 2016-01-13 | 2019-01-11 | 合肥工业大学 | 一种基于正负广义最大池化的行人识别方法 |
CN107133628A (zh) * | 2016-02-26 | 2017-09-05 | 阿里巴巴集团控股有限公司 | 一种建立数据识别模型的方法及装置 |
US11551036B2 (en) | 2016-02-26 | 2023-01-10 | Alibaba Group Holding Limited | Methods and apparatuses for building data identification models |
CN105844333A (zh) * | 2016-03-18 | 2016-08-10 | 厦门大学 | 一种基于深信度网络的免疫层析试条定量检测方法 |
CN106248368A (zh) * | 2016-09-21 | 2016-12-21 | 哈尔滨工程大学 | 一种基于深度学习的燃机涡轮叶片故障检测方法 |
CN106446854A (zh) * | 2016-10-06 | 2017-02-22 | 西北工业大学 | 基于旋转不变hog特征的高分辨率光学遥感图像目标检测方法 |
CN106548163A (zh) * | 2016-11-25 | 2017-03-29 | 青岛大学 | 基于tof深度相机客流计数的方法 |
CN106548163B (zh) * | 2016-11-25 | 2019-04-16 | 青岛大学 | 基于tof深度相机客流计数的方法 |
CN107357927A (zh) * | 2017-07-26 | 2017-11-17 | 深圳爱拼信息科技有限公司 | 一种文档建模方法 |
CN107357927B (zh) * | 2017-07-26 | 2020-06-12 | 深圳爱拼信息科技有限公司 | 一种文档建模方法 |
CN108197543A (zh) * | 2017-12-22 | 2018-06-22 | 深圳云天励飞技术有限公司 | 图像过滤方法及装置、嵌入式设备和存储介质 |
CN110287798A (zh) * | 2019-05-27 | 2019-09-27 | 魏运 | 基于特征模块化和上下文融合的矢量网络行人检测方法 |
TWI743835B (zh) * | 2019-06-28 | 2021-10-21 | 大陸商深圳市商湯科技有限公司 | 一種資訊處理方法及裝置、儲存介質 |
Also Published As
Publication number | Publication date |
---|---|
CN104636732B (zh) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104636732A (zh) | 一种基于序列深信度网络的行人识别方法 | |
US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
Zhang et al. | Small sample image recognition using improved Convolutional Neural Network | |
CN104598890B (zh) | 一种基于rgb‑d视频的人体行为识别方法 | |
Thai et al. | Image classification using support vector machine and artificial neural network | |
Kozerawski et al. | Clear: Cumulative learning for one-shot one-class image recognition | |
CN103984948B (zh) | 一种基于人脸图像融合特征的软双层年龄估计方法 | |
CN103065158B (zh) | 基于相对梯度的isa模型的行为识别方法 | |
CN103810704B (zh) | 基于支持向量机和判别随机场的sar图像变化检测方法 | |
CN104866810A (zh) | 一种深度卷积神经网络的人脸识别方法 | |
CN111460980B (zh) | 基于多语义特征融合的小目标行人的多尺度检测方法 | |
CN104036255A (zh) | 一种人脸表情识别方法 | |
CN106355138A (zh) | 基于深度学习和关键点特征提取的人脸识别方法 | |
CN102915453B (zh) | 一种实时反馈更新的车辆检测方法 | |
CN104102920A (zh) | 一种基于形态学多特征融合的害虫图像分类方法及系统 | |
CN105373777A (zh) | 一种用于人脸识别的方法及装置 | |
CN105550657A (zh) | 基于关键点的改进sift人脸特征提取方法 | |
CN101799875B (zh) | 一种目标检测方法 | |
CN104361313A (zh) | 一种基于多核学习异构特征融合的手势识别方法 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
Nguyen et al. | Satellite image classification using convolutional learning | |
CN104281572A (zh) | 一种基于互信息的目标匹配方法及其系统 | |
CN106023155A (zh) | 基于水平集的在线目标轮廓跟踪方法 | |
CN104050460B (zh) | 多特征融合的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210209 Address after: 245000 No.50, Meilin Avenue, Huangshan Economic Development Zone, Huangshan City, Anhui Province Patentee after: Huangshan Development Investment Group Co.,Ltd. Address before: Tunxi road in Baohe District of Hefei city of Anhui Province, No. 193 230009 Patentee before: Hefei University of Technology |