CN112800968B - 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法 - Google Patents

一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法 Download PDF

Info

Publication number
CN112800968B
CN112800968B CN202110124388.6A CN202110124388A CN112800968B CN 112800968 B CN112800968 B CN 112800968B CN 202110124388 A CN202110124388 A CN 202110124388A CN 112800968 B CN112800968 B CN 112800968B
Authority
CN
China
Prior art keywords
features
feature
hog
drinking water
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110124388.6A
Other languages
English (en)
Other versions
CN112800968A (zh
Inventor
朱伟兴
李富豪
李新城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202110124388.6A priority Critical patent/CN112800968B/zh
Publication of CN112800968A publication Critical patent/CN112800968A/zh
Application granted granted Critical
Publication of CN112800968B publication Critical patent/CN112800968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别办法。首先获取彩色和深度视频集,对采集到的视频集进行分帧筛选;其次对其进行自适应直方图均衡化、FCN饮水猪目标分割和形态学处理,得到饮水区域固定方向的单只猪图像;然后建立训练样本,通过HOG特征对饮水区域进行分块划分,寻找划分的最佳像素块。构建多尺度特征空间,设置不同的步长比例,对其提取梯度和方向的直方图特征;另把划分好的像素块应用在NMB‑LBP纹理特征和H‑S颜色特征的提取中;根据三种特征的准确率确定权重构建融合特征直方图,最大程度保留有效识别信息。本发明在猪的整个运动区域识别率有所提高,为固定采食区域基于采食的特征提取和融合提供参考。

Description

一种基于HOG分块的特征直方图融合对饮水区域猪的身份识 别办法
技术领域
本发明属于计算机视觉技术领域,涉及RGB图像的增强及特征融合,具体涉及一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别。
背景技术
近年来,中国生猪养殖规模和数量在不断扩大,养殖信息化是今后生猪饲养监管的重要模式。计算机视觉技术作为信息处理的有效辅助技术,提供了一种自动化、非接触式、低成本、高收益且对动物无伤无压力的行为识别方式,可用于考量生猪健康状况并及时预防和发现疾病。在特征提取过程中,在图像中会出现大量背景等无用特征,对于特征融合导致的维数过多,使用降维方法可能会丢失重要信息等,会影响后期识别时的准确率。因此如何减少无用背景且在不影响准确率的情况下减少特征维数也引起了许多学者的关注。本文提出了一种在特定饮水区域进行分块划分提取融合直方图特征进行猪只身份识别的方法。对采集到的视频集进行分帧筛选,划分饮水区域,使用FCN网络进行目标分割得到七头猪中分别饮水的单只猪的图像集,减少了大部分的无用背景,且解决了猪在运动中的非刚性特性会引起体型变化导致特征提取不同的问题。对饮水区域的像素块进行最佳分块,并构建多尺度特征空间,设置不同的步长,寻找最佳基本单元的比例对饮水区域进行遍历,改进后的特征提取算法减少了维数,最大程度上保留了有效特征。提取改进后的HOG特征、NMB-LBP纹理特征、量化后的H-S特征,确定权重得到融合后的特征直方图作为特征向量,并利用stacking集成学习思想在组合分类器中进行训练得到饮水猪的识别结果。对实验表明,基于HOG分块的特征融合对饮水区域的猪只进行识别方法是有效的,在识别精度上有明显提高,同时为采食区域的群养猪身份识别提供了新思路。
发明内容
本发明的目的设计出一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别方法。使用FCN网络对饮水猪进行分割,利用HOG特征、MB-LBP特征和H-S特征的各自优点对饮水图像提取全局特征和局部特征加以融合,确定权重得到融合后的特征直方图作为特征向量,并在多分类器中进行训练得到饮水猪的识别结果。
本发明所采用的技术方案是:(1)在猪舍正上方采集俯视视频集,视频拍摄的帧率为30fps,图像的分辨率为1760*1840像素,猪的个数为7头。对拍摄出来的视频进行结构相似性阈值分析,将基准图像与后续帧一一计算欧式距离,小于阈值的图像帧全部剔除,直到与某一帧的相似度离大于阈值为止,得到关键帧图像;通过对饮水区域的猪形态轨迹对比分析和结合饮水龙头的位置,确定饮水区域的大小。通过实验和分析确定本专利的饮水区域的边长为七头猪中最长尺寸的1.1倍,保证饮水时猪只轮廓全部在饮水区域内。
(2)为了提高图像清晰度,同时也能够提取到有效的目标信息,故对分帧后的有效图像进行变换增强和图像去噪,得到更具细节特征的图像集。首先对猪只前景不同区域采用自适应直方图均衡化,以获得更加合适的效果,对各区块进行线性插值之后,可以削弱图片的区块效应。再采用双边滤波,降噪平滑整张图片,保持猪只轮廓边缘的效果。利用FCN(全卷积网络)对饮水猪目标分割具体包括:采用全卷积网络的方法对饮水区域猪只目标进行分割。全卷积网络结构为卷积层conv1-conv8,池化层pool1-pool5。对饮水区域进行截取得到540*540的像素大小,作为FCN卷积网络的输入,对卷积层conv8进行2倍、4倍与8倍上采样操作。conv8卷积层32倍上采样的预测结果得到原图像的尺寸大小,此时的预测值为FCN-32s。将conv8卷积层进行2倍上采样与pool4层进行的预测结果进行融合,再进行16倍上采样与输入图片尺寸相同,此时的预测值为FCN-16s。FCN-16s预测值进行2倍的上采样与从pool3层得到的预测融合起来,再进行8倍上采样与输入图片尺寸相同,此时的预测值为FCN-8s。比较三种不同深度的预测融合,使网络能够更好地预测细节,同时保留高级别的语义信息。本专利采用FCN-16s网络,对conv8进行2倍上采样,然后与pool4层的预测结合起来,二者融合之后进行16倍上采样,得到的输出图片大小与输入时的相同。如附图说明中的图(2)所示。此种结合方法能够更好地预测猪只边缘细节,使分割效果更好。
(3)为了找到划分最佳提取饮水区域内猪只特征的方法,将饮水区域像素(540*540)划分为四种小单元分别进行分析与试验:3*3像素/单元,6*6像素/单元,9*9像素/单元,12*12像素/单元;通过划分的不同单元的梯度和方向图进行对比,其中9*9像素/单元所划分的最为合适,特征维数不会过大且不遗漏重要信息。因此将饮水区域的像素划分成60*60个基本单元;将每四个基本单元(9*9像素)组成一个子块,即2*2个单元/块,一个块内所有单元的特征描述子串联起来便得到该块的HOG特征描述子,如附图(3)所示。步骤(3)中采用多尺度空间特征的所示内容具体如下:为了更好的提取不同的区域信息,在一定程度上解决冗余,对饮水区域采用多尺度特征的提取。每个序列的饮水区域被划分60*60基本单元,其子块的尺度比例s设置为五种大小,分别为1*1基本单元,2*2基本单元,3*3基本单元,4*4基本单元,5*5基本单元。步长为1,遍历饮水区域所有基本单元。Fs为每个比例的训练集,公式为
其中/>p=1,…n,N为训练子集的数量,fp,q表示提取的不同子块的直方图特征。训练数据集Fs=i可以表示如下:
分别得到s=1,2,3,4,5时的训练数据集。本专利的尺度比例s设置为2*2。
(4)通过计算和统计图像局部区域的梯度方向直方图来构成HOG特征,提取特征的过程如下:将饮水区域的像素划分成60*60个单元,统计每个单元的梯度直方图(不同梯度的个数),即可形成每个单元的描述子(特征向量)。横坐标选取了180度的范围作为梯度的方向,分成9个范围,每个范围为20度,纵坐标为对应像素点梯度的幅值;将每四个单元组成一个子块,即2*2个单元/块,一个块内所有单元的特征描述子串联起来便得到该块的HOG特征描述子,共得到横坐标36个范围的HOG特征直方图;遍历所有的块,在直方图现有的范围上进行累加,得到整个饮水区域的特征直方图,形成一个36维的特征向量。
改进的NMB-LBP(New Multiscale Block LBP)特征的提取具体描述如下:首先将检测窗口的划分与HOG保持一致,饮水区域分成30*30个子块,18*18像素/块;对每块中的像素进行划分成四个9*9的基本单元,每基本单元中3*3的区域内的灰度最大值作为当前区域的灰度值,与周围八个区域灰度进行比较形成LBP特征。提取过程中一个LBP算子在9*9的窗口下能产生256种模式。考虑到过多的二进制模式会影响纹理的提取速度和识别分类的精度,本专利采用多种等价模式进行实验,对改进后的纹理特征模式进行降维,求出NMB-LBP所对应的循环二进制数从0到1或从1到0的跃变次数。跃变次数在i次内,则二进制模式保留,跃变次数在i次以外,二进制模式全部归为一类。通过分析试验得出i值取2时,二进制模式减少为59种;i值取3时,二进制模式减少为129种;i值取4时,二进制模式减少为199种。三种取值模式得到的纹理特征的识别准确率如图(4)所示,本专利取i值为3时的新特征模式,在识别准确率提高的同时纹理特征维数减少到129维。
量化的H-S特征的提取具体描述如下:对于颜色特征,本专利将RGB的图像数据集转换到HSV颜色空间,因为亮度分量与图像的彩色信息无关,因此我们进行舍去。H为色调,用角度度量,它的取值范围为0°~360°;S为饱和度,通常取值范围为0%~100%,值越大,颜色越饱和。为了解决直方图矢量维数过多的问题,对得到的HSV空间H分量和S分量进行适当的量化,将色调H空间分成8份,饱和度S空间分成3份,共得到11维的HSV特征描述子,作为颜色直方图特征。
(5)根据实验分析,对上述划分为最佳分块的HOG特征、改进的NMB-LBP纹理特征和量化后的H-S特征确定权重,构建融合特征的直方图,最大程度保留有效识别信息。为了减小计算量、提高系统分类识别效率,对上述三种特征进行串联融合,根据三种特征单独作用时的准确率确定参考权重。权重的计算方法如下:设图像特征提取到的HOG特征向量为C1,其所占的权重为γ1,NMB-LBP特征向量为C2,其所占的权重为γ2,HS颜色特征向量为C3,其所占的权重为γ3。首先分别基于上述三种特征,利用K近邻学习方法对样本进行初始分类,分别获得分类准确率Acc(Ci),其中Ci表示第i种特征,以此获得权重的计算公式(i,j=1,2,3)。根据得到的权重,重新构建新的特征直方图,最终得到的特征向量为m=(γ1*C12*C23*C3)。实验数据包括7头猪,1400张图片,对样本进行子空间划分和特征提取,形成1400个175(36+129+11)维的样本空间。样本数据集用M={(li,mi),i=1,2,...n}表示,其中li为样本的类别(本专利中,猪的个数为7头),mi为样本的特征向量,n为样本总数。
采用堆叠式两阶段集成学习的方法将第一层分类器的预测结果合并为新的特征集,作为下一层分类器的输入,对饮水区域猪进行身份识别。其中K近邻分类器、SVM分类器分别对融合后的特征进行训练,将七头猪划分为七个类别,在训练中其中一类当作正集时其他六类作为负集。在此基础上利用堆叠式两阶段集成学习进行两层模型训练,第二层是在第一层分类器的验证结果上进行再训练。具体描述如下:将饮水猪的数据集按照3:1的比例划分为训练集和测试集(训练集1050张图片,测试集350张图片)。采用七折交叉验证的方法将训练集平均划分为七份S1,S2...S7,每个子集包括150张图片,依次选取其中一个子集Si(i=1,2...7)作为验证集,其余六个作为训练集。在K近邻分类器的验证集上进行预测得到的预测结果为x1i,x1i是150行7列的概率向量,代表被识别为每头猪的概率值。依次进行七次交叉验证得到预测结果为X1=[x11,x12,x13,x14,x15,x16,x17]T(1050行7列的向量)。在SVM分类器上进行相同的步骤得到X2(同样为1050行7列的向量)。根据K近邻分类器与SVM分类器的验证集结果划定权重,取权重的公式为其中Acc(Qi)表示为单个分类器Qi下的准确率,得出权重占比为ε1、ε2。将两个分类器的预测结果加权合并与原始数据标签li构成第二层分类器的输入向量即Mnew=[ε1*X12*X2,li]。根据得到的新的特征,构建一个三层的人工神经网络(ANN),样本输入为1*7的向量,因此输入神经元有7个,预测的类别共有7个,输出神经元数量也为7。由于问题并不复杂,只需要一个隐藏层即可,根据实验,隐藏层神经元数量设置为7时结果最优。如附图6虚线框中所示。对于第i个神经元[ε1*X12*X2]为神经元的输入,W1i为输入层与隐含层的连接权值,利用线性加权得到隐藏层神经元净输入Netin,/>b为偏置项,用来更好的拟合数据。隐藏层与输出层的连接权值为W2i,继续使用线性加权方式得到Netout,隐藏层与输出层的激活函数皆使用Sigmoid函数。采用自适应学习速率方法提高训练速度,将网络的输入和输出反复作用于网络以调整权值,实现从输入到输出的非线性映射。
在原始测试集上进行预测得出结果为y1i,在K近邻分类器进行七次预测的结果取平均值得到和测试集标签相同长度的列向量Y1,即在SVM分类器上进行相同的步骤得到Y2,则第二层分类器的测试集可表示为[Y1,Y2]。将测试集数据代入训练好的人工神经网络模型中进行实验得出最终的预测结果。模型训练示意图如附图6所示。
本发明的有益效果是:
(1)本发明提出在固定饮水区域对饮水猪进行分割和特征的提取,解决了猪在运动中的非刚性特性会引起体型变化和对俯视群养猪的整个运动区域进行特征提取维数过多问题。
(2)本发明提出一种对前景和背景进行自适应直方图均衡化和双边滤波方法对饮水图像集进行增强,在对各区块进行线性插值之后,可以削弱图片的区块效应。达到更好的保持边缘效果。
(3)本发明采用FCN网络对饮水猪进行目标分割,相比于传统分割方法相比能够更加高效且分割效果更好。
(4)本发明采用多尺度特征,根据不同的子块比例遍历饮水区域,得到不同尺度下的训练集。可以得到最佳比例子块下的对特征的贡献率,并在一定程度上减少特征冗余。
(5)本发明采用通过HOG特征对饮水区域进行分块划分,从四种不同的小单元中寻找最佳像素块的划分,对NMB-LBP纹理特征和HSV颜色空间以同样的像素块进行特征提取,可以最大程度保留特征信息的同时达到有效降维的效果。
(6)本发明采用改进后的NMB-LBP特征,每基本单元中3*3的区域内的灰度最大值作为当前区域的灰度值,并使用跃变次数为3的二进制模式对特征进行降维,减少饮水区域无关特征冗余的同时,识别准确度也相应提高。
(7)本发明采用量化后的H-S颜色特征,将0°-360°范围的色调(H)分成8份,0-1范围的饱和度(S)分成3份,更加细化的划分颜色特征,使其提取到猪只背部更好的颜色效果。(8)本发明构建堆叠式两阶段学习框架,以K近邻和支持向量机作为第一层的学习器,构建一个人工神经网络作为第二层学习器。将第一层两个分类器预测的结果进行加权合并,以此作为新的特征输入到第二层神经网络中,进一步提升分类准确率。保持准确性和多样性的平衡,在数据量有限的情况下达到最佳的饮水猪模型的预测能力。
附图说明
图1是本发明中视频分帧得到的有效图和图像预处理的过程流程图;
图2是本发明对于预处理好的图像集进行全卷积分割网络结构图;
图3是本发明对饮水区域的分块划分示意图;
图4是本发明对不同跃变次数下的NMB-LBP特征识别准确率的实验图;
图5是本发明饮水区域分块划分、特征直方图提取和训练的算法流程图;
图6是本发明在stacking集成学习思想下的身份识别流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明,但本发明的保护范围并不限于此。
步骤(1)对视频进行分帧操作,选出有饮水猪的图像集,划定饮水区域。
具体方法如下:摄像机采用灰点公司的FL3-U3-88S2C-C(Sony CMOS),在养猪场进行采集视频图像,猪舍的长宽尺寸都为2米,高度为3米。拍摄的视频为30帧/秒,其分辨率为1760*1840像素,该摄像机安装在猪舍中心的正上方,距离地面3米,猪舍群养猪个数为七头。对拍摄出来的视频进行分帧处理选取关键帧图片。具体步骤如下:(1)将视频第一帧作为基准图像。(2)将基准图像与后续帧一一计算欧式距离,小于阈值的图像帧全部剔除,直到与某一帧的相似度离大于阈值为止,该阈值由大量的实验确定。(3)将上一步得到的新的一帧作为基准,重复(2)步骤,直至遍历全部帧。最后,剩余的图像即为关键帧图像。本专利在选取关键帧时考虑到对比度对较和结构对较,对结构相似性算法进行改进,公式如下:
其中,σx和σy代表图片中x,y的标准差,σxy代表x与y的协方差。c1,c2为常数,用于避免分母接近于0时计算结果产生较大波动。SSIM(结构相似性)的取值范围是0-1,值越大说明两张图片的相似性越高,通过实验本专利选取SSIMx,y为0.8。
通过对饮水区域的猪形态轨迹对比分析,划分饮水区域的像素值为540*540,其边长为七头猪中最长尺寸的1.1倍,保证饮水时猪只轮廓全部在饮水区域内。
步骤(2)图像预处理操作和FCN分割。
具体方法如下:全卷积网络分割图如图1所示,图像采集过程中极易噪声干扰,为了提高图像清晰度,同时也能够提取到有效的目标信息,故对分帧后的有效图像进行变换增强和图像去噪,得到更具细节特征的图像集。首先采用自适应直方图均衡化,对不同区域进行直方图均衡化以获得更加合适的效果,在对各区块进行线性插值之后,可以削弱图片的区块效应。再采用双边滤波,在降噪平滑的同时,保持边缘的效果。以传统CNN为基础网络,基于全卷积网络(FCN,fully convolutional networks)对饮水区域猪进行分割,进而提取出符合条件的猪只。在传统的CNN结构中,前5层是卷积层,第6层和第7层分别是一个长度为4096的一维向量,第8层是长度为1000的一维向量,分别对应1000个类别的概率。FCN将这3层表示为卷积层,保留空间二维信息,再对卷积二维特征图进行反卷积恢复出原始图像大小(经过与FCN-32和FCN-8进行比较后,采用FCN-16s来优化输出。对卷积层7上采样扩大两倍,与池化层pool4的输出进行融合,然后再上采样扩大16倍得到输入图像大小,见附图说明中的图2,最后通过逐像素分类,获取每个像素类别,从而实现图像分割目的。
步骤(3)划分饮水区域,构建多尺度特征空间。
具体方法如下:过程流程图如图1所示,由于饮水区域的大小为540*540,将像素划分为四种小单元,3*3像素/单元,6*6像素/单元,9*9像素/单元,12*12像素/单元;其中9*9像素/单元所划分的最为合适,特征维数不会过大且不遗漏重要信息。因此将饮水区域的像素划分成60*60个基本单元;将每四个基本单元组成一个块,即2*2个单元/块,一个块内所有单元的特征描述子串联起来便得到该块的HOG特征描述子。
为了更好的提取不同的区域信息,在一定程度上解决冗余,对饮水区域采用多尺度特征的提取。具体如下:每个序列的饮水区域被划分60*60基本单元,基本单元的比例s设置为1*1基本单元、2*2基本单元、3*3基本单元、4*4基本单元与5*5基本单元五种。步长为1,遍历饮水区域所有子块。Fs为每个比例的训练集,公式为
其中
p=1,…n,n为确定尺度比例后的总子块数,N为训练子集的数量,fp,q表示提取的不同子块的直方图特征。
形成的训练数据集为Fs=i可以表示如下:
分别得到s=1,2,3,4,5时的训练数据集。本专利设置尺度的比例为2*2基本单元。
步骤(4)在多尺度下提取特征。
具体方法如下:算法流程图如附图3所示,HOG特征通过计算和统计图像局部区域的梯度方向直方图来构成特征,对猪的边缘轮廓的梯度值和方向值提取也能起到很好的作用。因此在我们的饮水区域可以有效提取出轮廓的梯度信息和方向信息。具体步骤如下:(1)对图像数据进行灰度化;(2)为了调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰,采用Gamma校正法对输入图像进行颜色空间的归一化。
H(x,y)=H(x,y)1/2 (1)
(3)捕获轮廓信息,计算图像每个像素的梯度(包括大小和方向);
Gx(x,y)=H(x+1,y)+H(x+2,y)-H(x-1,y)-H(x-2,y) (2)
Gy(x,y)=H(x,y+1)+H(x,y+2)-H(x,y-1)-H(x,y-2) (3)
(4)将饮水区域的像素划分成60*60个单元,其中9*9像素/单元;
(5)统计每个单元的梯度直方图(不同梯度的个数),即可形成每个单元的描述子。横坐标选取了180度的范围作为梯度的方向,分成9个范围,每个范围为20度,纵坐标为对应像素点梯度的幅值;(6)将每四个基本单元组成一个子块,即2*2个单元/块,共得到36范围的HOG特征直方图;(7)遍历所有的块,在直方图的36的范围上进行累加,得到整个饮水区域的特征直方图,形成一个36维的特征向量。
MB-LBP特征(Multiscale Block LBP,多尺度局部二值模式)可以解决在特定尺寸的LBP算子的局限性,大大减少了计算量,提高了计算速度。改进后的算法步骤为:(1)首先将检测窗口的划分与HOG保持一致,饮水区域分成30*30个子块(block),18*18像素/块;(2)对每块中的像素进行划分成四个9*9的基本单元,每基本单元中3*3的区域内的灰度最大值作为当前区域的灰度值,与周围八个区域灰度进行比较形成LBP特征,提取过程中一个LBP算子在9*9的窗口下能产生256种模式,采用新的等价模式对其进行降维,当某个LBP所对应的循环二进制数从0到1或从1到0最多有三次跳变时,该类型保留;跳变次数超过三次时,均归为一类。通过这样的改进,二进制模式由原始的256种减少为129种,这使得特征向量的维数更少。每基本单元的3*3区域取最大值,与周围8个基本单元比较产生8位二进制数,转化成十进制即得到该窗口中心像素点的LBP值;
其中p表示3*3基本单元中除中心外的第p个像素点,I(c)表示中心基本单元的灰度值,I(p)表示领域内第p个基本单元的灰度值。二进制数的跳变次数为:
跳变次数小于等于3,则各自代表一类,跳变次数大于3的所有情况归为一类。(3)对四个基本单元得到的纹理直方图进行并联,即得到每块的纹理直方图特征,最后将得到的每子块的统计直方图进行连接成为一个特征向量,也就是整幅图的MB-LBP纹理特征向量。
图4是本发明对不同跃变次数下的NMB-LBP特征识别准确率的实验图;图5是本发明饮水区域分块划分、特征直方图提取和训练的算法流程图。
颜色空间特征作为重要的视觉特征,有助于图像的识别。而HSV颜色空间有更为直观的视觉属性。本文将RGB的图像数据集转换到HSV颜色空间,并进行量化得到直方图特征。因为亮度分量与图像的彩色信息无关,因此我们进行舍去。H为色调,用角度度量,它的取值范围为0°~360°,从红色开始按逆时针方向计算,红色为0°,绿色为120°,蓝色为240°。它们的补色是:黄色为60°,青色为180°,品红为300°;S为饱和度,通常取值范围为0%~100%,值越大,颜色越饱和。为了解决直方图矢量维数过多的问题,对得到的HSV空间H分量和S分量进行适当的量化,将色调H空间分成8份,饱和度S分成3份,共得到11维的HSV特征描述子转化公式如下:
通过实验对比,对饮水区域进行分块划分,9x9像素/基本单元,2x2基本单元/子块,步长为1,得出样本维数是175维(36维+129维+11维)。
步骤(5)根据三种特征确定权重构建融合特征的直方图,利用stacking集成学习思想将K近邻分类器和支持向量机分类器的预测结果合并为新的特征集,作为下一层分类器的输入,对饮水区域猪进行身份识别。
具体方法如下:(1)将HOG特征、NMB-LBP纹理特征及HSV特征进行串联融合,根据三种特征单独作用时的准确率确定参考权重。权重的计算方法如下:设图像特征提取到的HOG特征向量为C1,其所占的权重为γ1,NMB-LBP特征向量为C2,其所占的权重为γ2,HS颜色特征向量为C3,其所占的权重为γ3。首先分别基于上述三种特征,利用K近邻学习方法对样本进行初始分类,分别获得以此获得权重的计算公式为
其中,Ci表示第i种特征,分类准确率为Acc(Ci)。根据得到的权重,重新构建新的特征直方图,最终得到的特征向量为m=(γ1*C12*C23*C3),其中γ123=1。改进后的HOG特征所占的权重γ1为0.4,NMB-LBP特征所占的权重γ1为0.4,量化的HS特征所占的权重γ1为0.2。实验数据包括7头猪,1400张图片,对样本进行子空间划分和特征提取,形成1400个175(36+129+11)维的样本空间。样本数据集用M={(li,mi),i=1,2,...n}表示,其中li为样本的类别(本专利中,猪的个数为7头),mi为样本的特征向量,n为样本总数。
(2)采用堆叠式两阶段集成学习的方法将第一层分类器的预测结果合并为新的特征集,作为下一层分类器的输入,对饮水区域猪进行身份识别。其中K近邻分类器、SVM分类器分别对融合后的特征进行训练,将七头猪划分为七个类别,在训练中其中一类当作正集时其他六类作为负集。在此基础上利用堆叠式两阶段集成学习进行两层模型训练,第二层是在第一层分类器的验证结果上进行再训练。具体描述如下:将饮水猪的数据集按照3:1的比例划分为训练集和测试集(训练集1050张图片,测试集350张图片)。采用七折交叉验证的方法将训练集平均划分为七份S1,S2...S7,每个子集包括150张图片,依次选取其中一个子集Si(i=1,2...7)作为验证集,其余六个作为训练集。在K近邻分类器的验证集上进行预测得到的预测结果为x1i,例如,1号猪对应的向量形式为(0.85,0.01,0.04,0.02,0.01,0.02,0.05),如2号猪对应的向量形式为(0.02,0.81,0.01,0.12,0.01,0.02,0.01),x1i是150行7列的概率向量,代表被识别为每头猪的概率值。依次进行七次交叉验证得到预测结果为X1=[x11,x12,x13,x14,x15,x16,x17]T(1050行7列的向量)。在SVM分类器上进行相同的步骤得到X2(同样为1050行7列的向量)。根据K近邻分类器与SVM分类器的验证集结果划定权重,取权重的公式为
其中Acc(Qi)表示为单个分类器Qi下的准确率,得出权重占比为ε1、ε2。将两个分类器的预测结果加权合并与原始数据标签li构成第二层分类器的输入向量即Mnew=[ε1*X12*X2,li]。根据得到的新的特征,构建一个三层的人工神经网络(ANN),样本输入为1*7的向量,因此输入神经元有7个,预测的类别共有7个,输出神经元数量也为7。由于问题并不复杂,只需要一个隐藏层即可,根据实验,隐藏层神经元数量设置为7时结果最优。如附图6虚线框中所示。对于第i个神经元[ε1*X12*X2]为神经元的输入,利用线性加权得到隐藏层神经元净输入Netin
其中W1i为输入层与隐含层的连接权值,b为偏置项,用来更好的拟合数据。隐藏层与输出层的连接权值为W2i,继续使用线性加权方式得到Netout,隐藏层与输出层的激活函数皆使用Sigmoid函数。采用自适应学习速率方法提高训练速度,将网络的输入和输出反复作用于网络以调整权值,实现从输入到输出的非线性映射。
在原始测试集上进行预测得出结果为y1i,在K近邻分类器进行七次预测的结果取平均值得到和测试集标签相同长度的列向量Y1,即在SVM分类器上进行相同的步骤得到Y2,则第二层分类器的测试集可表示为[Y1,Y2]。将测试集数据代入训练好的人工神经网络模型中进行实验得出最终的预测结果。模型训练示意图如附图6所示。
综上,本发明提出一种在特定饮水区域进行分块划分提取融合直方图特征进行猪只身份识别的方法。针对于传统图像算法对俯视群养猪的整个运动区域进行特征提取维数过多,且猪在运动中的非刚性特性会引起体型变化导致特征提取不同的问题,可以很好的提高识别准确率。首先由FL3-U3-88S2C-C摄像机获取彩色和深度视频集,对采集到的视频集进行分帧筛选。划分饮水区域,得到七头猪中分别饮水的单只猪的图像集;其次对其进行自适应直方图均衡化、FCN饮水猪目标分割和形态学处理等,得到饮水区域固定方向的单只猪图像;然后建立训练样本,通过HOG特征对饮水区域进行分块划分,寻找划分的最佳像素块。构建多尺度特征空间,设置不同的步长比例,对其提取梯度和方向的直方图特征;另把划分好的像素块应用在NMB-LBP纹理特征和H-S颜色特征的提取中;最后根据三种特征的准确率确定权重构建融合特征直方图,最大程度保留有效识别信息。利用stacking集成学习思想构建堆叠式两阶段学习框架,将第一层K近邻分类器和支持向量机分类器的预测结果合并为新的特征集,作为下一层人工神经网络的输入,进一步提升分类准确率。该项研究所提出的组合方法在猪的整个运动区域识别率有所提高,对特征的融合方法也是有效的,同时为固定采食区域基于采食的特征提取和融合提供了参考。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (4)

1.一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别办法,其特征在于,包括以下步骤:
(1)对视频进行分帧操作,选出有饮水猪的图像集,划定饮水区域;
(2)对目标图像进行前景和背景的自适应直方图均衡化预处理,利用全卷积网络FCN对饮水猪进行目标分割;
(3)利用HOG特征的特点对饮水区域的像素块进行最佳分块;采用多尺度空间特征,构建五种子块比例遍历饮水区域,得到不同尺度下的训练集,得到最佳比例下基本单元对特征的贡献率并减少特征冗余;
(4)在上述分块的饮水区域中进行HOG梯度方向特征提取,在分块基础上利用改进后的NMB-LBP进行纹理特征的提取,将RGB图像转换到HSV色彩空间后对色调和饱和度进行H-S特征提取;
(5)将HOG特征、NMB-LBP纹理特征及HSV特征进行串联融合,由于每一种特征对分类准确率的贡献不同,因此根据单一特征得到的准确率的大小分配权重,这样可以最大程度保留有效识别信息;基于融合后的特征,构建堆叠式两阶段学习框架,以K近邻和支持向量机作为第一层的学习器,构建一个人工神经网络作为第二层学习器,将第一层两个分类器预测的结果进行加权合并,以此作为新的特征输入到第二层神经网络中,进一步提升猪的身份识别的准确率;
步骤(4)HOG梯度方向特征提取具体描述如下:通过计算和统计图像局部区域的梯度方向直方图来构成HOG特征,提取特征的过程如下:将饮水区域的像素划分成60*60个单元,统计每个单元的梯度直方图,即可形成每个单元的描述子,横坐标选取了180度的范围作为梯度的方向,分成9个范围,每个范围为20度,纵坐标为对应像素点梯度的幅值;将每四个单元组成一个子块,即2*2个单元/块,一个块内所有单元的特征描述子串联起来便得到该块的HOG特征描述子,共得到横坐标36个范围的HOG特征直方图;遍历所有的块,在直方图现有的范围上进行累加,得到整个饮水区域的特征直方图,形成一个36维的特征向量;
所述利用改进后的NMB-LBP进行纹理特征的提取具体描述如下:首先将检测窗口的划分与HOG保持一致,饮水区域分成30*30个子块,18*18像素/块;将每块划分成四个基本单元,每个基本单元中的像素为9*9,每个基本单元中3*3的区域内的灰度最大值作为当前区域的灰度值,与周围八个区域灰度进行比较形成LBP特征,提取过程中一个LBP算子在9*9的窗口下能产生256种模式,采用多种等价模式进行实验,对改进后的纹理特征模式进行降维,求出NMB-LBP所对应的循环二进制数从0到1或从1到0的跃变次数;跃变次数在i次内,i为跃变次数的阈值,则二进制模式保留,跃变次数在i次以外,二进制模式全部归为一类,通过分析试验得出i值取2时,二进制模式减少为59种;i值取3时,二进制模式减少为129种;i值取4时,二进制模式减少为199种;其中,取i值为3时的新特征模式,将跃变次数多的背景特征归为一类,在准确率提高的同时纹理特征维数减少到129维;将RGB图像转换到HSV色彩空间后对色调和饱和度进行H-S特征提取,后量化操作:对于颜色特征,将RGB的图像数据集转换到HSV颜色空间,因为亮度分量与图像的彩色信息无关,因此进行舍去,H为色调,用角度度量,它的取值范围为0°~360°;S为饱和度,取值范围为0%~100%,值越大,颜色越饱和;为了解决直方图矢量维数的问题,对得到的HSV空间H分量和S分量进行量化,将色调H空间分成8份,饱和度S空间分成3份,共得到11维的HSV特征描述子,作为颜色直方图特征;
所述步骤(5)中,将HOG特征、NMB-LBP纹理特征及HSV特征进行串联融合,由于每一种特征对分类准确率的贡献不同,因此根据单一特征得到的准确率的大小分配权重的具体过程包括:对划分为最佳分块的HOG特征、改进的NMB-LBP纹理特征和量化后的H-S特征确定权重,构建融合特征的直方图,最大程度保留有效识别信息,对上述三种特征进行串联融合,根据三种特征单独作用时的准确率确定参考权重,权重的计算方法如下:设图像特征提取到的HOG特征向量为C1,其所占的权重为γ1,NMB-LBP特征向量为C2,其所占的权重为γ2,HS颜色特征向量为C3,其所占的权重为γ3;首先分别基于上述三种特征,利用K近邻学习方法对样本进行初始分类,分别获得分类准确率Acc(Ci),其中Ci表示第i种特征,以此获得权重的计算公式(i,j=1,2,3);根据得到的权重,重新构建新的特征直方图,最终得到的特征向量为m=(γ1*C12*C23*C3);实验数据包括7头猪,1400张图片,对样本进行子空间划分和特征提取,形成1400个175(36+129+11)维的样本空间;样本数据集用M={(li,mi),i=1,2,...n}表示,其中li为样本的类别,mi为样本的特征向量,n为样本总数;
所述步骤(5)中,采用堆叠式两阶段集成学习的方法将第一层分类器的预测结果合并为新的特征集,作为下一层分类器的输入,对饮水区域猪进行身份识别;其中K近邻分类器、SVM分类器分别对融合后的特征进行训练,将七头猪划分为七个类别,在训练中其中一类当作正集时其他六类作为负集;利用堆叠式两阶段集成学习进行两层模型训练,第二层是在第一层分类器的验证结果上进行再训练,具体描述如下:将饮水猪的数据集按照3:1的比例划分为训练集和测试集,训练集1050张图片,测试集350张图片,采用七折交叉验证的方法将训练集平均划分为七份S1,S2...S7,每个子集包括150张图片,依次选取其中一个子集Si作为验证集,i=1,2...7,其余六个作为训练集;在K近邻分类器的验证集上进行预测得到的预测结果为x1i,x1i是150行7列的概率向量,代表被识别为每头猪的概率值,依次进行七次交叉验证得到预测结果为X1=[x11,x12,x13,x14,x15,x16,x17]T,为1050行7列的向量;在SVM分类器上进行相同的步骤得到X2,同样为1050行7列的向量,根据K近邻分类器与SVM分类器的验证集结果划定权重,取权重的公式为其中Acc(Qi)表示为单个分类器Qi下的准确率,得出权重占比为ε1、ε2;将两个分类器的预测结果加权合并与原始数据标签li构成第二层分类器的输入向量即Mnew=[ε1*X12*X2,li];根据得到的新的特征,构建一个三层的人工神经网络,样本输入为1*7的向量,因此输入神经元有7个,预测的类别共有7个,输出神经元数量也为7,一个隐藏层,隐藏层神经元数量设置为7;对于第i个神经元[ε1*X12*X2]为神经元的输入,W1i为输入层与隐含层的连接权值,利用线性加权得到隐藏层神经元净输入Netin,/>b为偏置项,用来拟合数据;隐藏层与输出层的连接权值为W2i,继续使用线性加权方式得到Netout,隐藏层与输出层的激活函数皆使用Sigmoid函数;采用自适应学习速率方法提高训练速度,将网络的输入和输出反复作用于网络以调整权值,实现从输入到输出的非线性映射;
在原始测试集上进行预测得出结果为y1i,在K近邻分类器进行七次预测的结果取平均值得到和测试集标签相同长度的列向量Y1,即在SVM分类器上进行相同的步骤得到Y2,则第二层分类器的测试集可表示为[Y1,Y2],将测试集数据代入训练好的人工神经网络模型中进行实验得出最终的预测结果。
2.根据权利要求1所述的一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别办法,其特征在于,步骤(1)具体包括:在猪舍正上方采集俯视视频集,视频拍摄的帧率为30fps,图像的分辨率为1760*1840像素,猪的个数为7头;对拍摄出来的视频进行结构相似性阈值分析,将基准图像与后续帧一一计算欧式距离,小于阈值的图像帧全部剔除,直到相似度距离大于阈值为止,得到关键帧图像;通过对饮水区域的猪形态轨迹对比分析和结合饮水龙头的位置,确定饮水区域的大小,确定饮水区域的边长为七头猪中最长尺寸的1.1倍,保证饮水时猪只轮廓全部在饮水区域内。
3.根据权利要求1所述的一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别办法,其特征在于,步骤(2)对图像进行预处理具体包括:对分帧后的图像进行变换增强和图像去噪,得到细节特征的图像集;首先对猪只前景不同区域采用自适应直方图均衡化,对各区块进行线性插值之后,可以削弱图片的区块效应;再采用双边滤波,降噪平滑整张图片,保持猪只轮廓边缘的效果;利用全卷积网络FCN对饮水猪进行目标分割具体包括:采用全卷积网络的方法对饮水区域猪只目标进行分割,全卷积网络结构为卷积层conv1-conv8,池化层pool1-pool5;对饮水区域进行截取得到540*540的像素大小,作为FCN卷积网络的输入,对卷积层conv8进行2倍、4倍与8倍上采样操作;conv8卷积层32倍上采样的预测结果得到原图像的尺寸大小,此时的预测值为FCN-32s;将conv8卷积层进行2倍上采样与pool4层进行的预测结果进行融合,再进行16倍上采样与输入图片尺寸相同,此时的预测值为FCN-16s;FCN-16s预测值进行2倍的上采样与从pool3层得到的预测融合起来,再进行8倍上采样与输入图片尺寸相同,此时的预测值为FCN-8s;比较三种不同深度的预测融合,使网络能够预测细节,同时保留像素级别的语义信息;采用FCN-16s网络,对conv8进行2倍上采样,然后与pool4层的预测结合起来,二者融合之后进行16倍上采样,得到的输出图片大小与输入时的相同。
4.根据权利要求1所述的一种基于HOG分块的特征直方图融合对饮水区域猪的身份识别办法,其特征在于,步骤(3)中利用HOG特征的特点对饮水区域的像素块进行最佳分块的具体内容如下:为了找到划分最佳提取饮水区域内猪只特征的方法,将饮水区域像素540*540划分为四种小单元分别进行分析与试验:3*3像素/单元,6*6像素/单元,9*9像素/单元,12*12像素/单元;通过划分的不同单元的梯度和方向图进行对比,选取9*9像素/单元为最佳划分,将饮水区域的像素划分成60*60个基本单元;将每四个基本单元9*9像素组成一个子块,即2*2个单元/子块,一个子块内所有单元的特征描述子串联起来便得到该块的HOG特征描述子;采用多尺度空间特征的所示内容具体如下:对饮水区域采用多尺度特征的提取,每个序列的饮水区域被划分60*60基本单元,基本单元的尺度比例s设置为五种大小,分别为1*1基本单元,2*2基本单元,3*3基本单元,4*4基本单元,5*5基本单元,步长为1,遍历饮水区域所有基本单元,Fs为每个比例的训练集,公式为其中/>
p=1,…n,n为确定尺度比例后的总子块数,N为训练子集的数量,fp,q表示提取的不同子块的直方图特征,训练数据集Fs=i可以表示如下:
分别得到s=1,2,3,4,5时的训练数据集,尺度比例s设置为2*2基本单元。
CN202110124388.6A 2021-01-29 2021-01-29 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法 Active CN112800968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110124388.6A CN112800968B (zh) 2021-01-29 2021-01-29 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110124388.6A CN112800968B (zh) 2021-01-29 2021-01-29 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法

Publications (2)

Publication Number Publication Date
CN112800968A CN112800968A (zh) 2021-05-14
CN112800968B true CN112800968B (zh) 2024-05-14

Family

ID=75812738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110124388.6A Active CN112800968B (zh) 2021-01-29 2021-01-29 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法

Country Status (1)

Country Link
CN (1) CN112800968B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113678786A (zh) * 2021-08-19 2021-11-23 陆荣清 一种提高生猪抗病性的生态养殖方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388920A (zh) * 2018-03-01 2018-08-10 福州大学 一种融合hog和lbph特征的身份证复印件检测方法
CN109086687A (zh) * 2018-07-13 2018-12-25 东北大学 基于pca降维的hog-mblbp融合特征的交通标志识别方法
CN109255379A (zh) * 2018-08-31 2019-01-22 南京理工大学 一种基于融合特征和svm结合的羊角弓区域定位方法
CN110427825A (zh) * 2019-07-01 2019-11-08 上海宝钢工业技术服务有限公司 基于关键帧与快速支持向量机融合的视频火焰识别方法
CN111046789A (zh) * 2019-12-10 2020-04-21 哈尔滨工程大学 一种行人重识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388920A (zh) * 2018-03-01 2018-08-10 福州大学 一种融合hog和lbph特征的身份证复印件检测方法
CN109086687A (zh) * 2018-07-13 2018-12-25 东北大学 基于pca降维的hog-mblbp融合特征的交通标志识别方法
CN109255379A (zh) * 2018-08-31 2019-01-22 南京理工大学 一种基于融合特征和svm结合的羊角弓区域定位方法
CN110427825A (zh) * 2019-07-01 2019-11-08 上海宝钢工业技术服务有限公司 基于关键帧与快速支持向量机融合的视频火焰识别方法
CN111046789A (zh) * 2019-12-10 2020-04-21 哈尔滨工程大学 一种行人重识别方法

Also Published As

Publication number Publication date
CN112800968A (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
Zhao et al. Cloud shape classification system based on multi-channel cnn and improved fdm
CN109840521B (zh) 一种基于深度学习的一体化车牌识别方法
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
CN106778687B (zh) 基于局部评估和全局优化的注视点检测方法
US7983486B2 (en) Method and apparatus for automatic image categorization using image texture
CN110929593B (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN107292298A (zh) 基于卷积神经网络和分类器模型的牛脸识别方法
CN111652038A (zh) 基于卷积神经网络的遥感的海冰图像分类方法
CN107038416B (zh) 一种基于二值图像改进型hog特征的行人检测方法
CN106874862B (zh) 基于子模技术和半监督学习的人群计数方法
CN110428450B (zh) 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法
CN110414616B (zh) 一种利用空间关系的遥感图像字典学习分类方法
CN108596195B (zh) 一种基于稀疏编码特征提取的场景识别方法
CN109801305B (zh) 基于深度胶囊网络的sar图像变化检测方法
CN111428556A (zh) 一种基于胶囊神经网络的交通标志识别方法
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
CN110782487A (zh) 一种基于改进的粒子滤波算法的目标跟踪方法
CN115131325A (zh) 一种基于图像识别分析的断路器故障运维监测方法及系统
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN110738672A (zh) 一种基于分层高阶条件随机场的图像分割方法
CN111783885A (zh) 一种基于局部增强的毫米波图像的质量分类模型构建方法
Cao et al. A new region proposal network for far-infrared pedestrian detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant