CN111598110B - 基于网格细胞记忆的hog算法图像识别方法 - Google Patents
基于网格细胞记忆的hog算法图像识别方法 Download PDFInfo
- Publication number
- CN111598110B CN111598110B CN202010394264.5A CN202010394264A CN111598110B CN 111598110 B CN111598110 B CN 111598110B CN 202010394264 A CN202010394264 A CN 202010394264A CN 111598110 B CN111598110 B CN 111598110B
- Authority
- CN
- China
- Prior art keywords
- cells
- cell
- image
- feature
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 60
- 238000012360 testing method Methods 0.000 claims abstract description 29
- 230000000694 effects Effects 0.000 claims abstract description 10
- 230000003213 activating effect Effects 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 97
- 230000000638 stimulation Effects 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 17
- 230000001953 sensory effect Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000004873 anchoring Methods 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010408 sweeping Methods 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 description 254
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 241000282887 Suidae Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008309 brain mechanism Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于网格细胞记忆的HOG算法图像识别方法,包括建立基于网格细胞记忆的HOG算法图像识别系统,先通过HOG算法模块匹配到相似度能达到激活识别细胞的图像,若匹配到测试集中相应图像激活了识别细胞,识别结束;如果测试集中图像无法激活识别细胞,则由网格细胞记忆模型接管图像识别,通过网格细胞记忆的特征识别累加来达到激活识别细胞,完成图像识别。本发明中基于网格细胞记忆的HOG算法图像识别系统一旦学会了必要的关联,它的识别记忆就会通过呈现训练集中的刺激进行测试。本发明训练集是单样本学习,通过呈现记忆时的刺激来,达到小样本学习的效果。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种图像识别方法。
背景技术
深度学习或ANNs通过将海量的训练数据集输入大型的ANNs从而取得了非凡的效果。比如当深度学习模型通过海量的训练样例不断学习后,确实能够以非常高的精确率去识别人的脸或者某些特殊场景等。但是人们期望ANNs或深度学习模型能够利用少量的样本学习到新类别的特征,更好地模仿人类从小样本数据中学习类型特征的能力。
发明内容
有鉴于此,本发明的目的是提供一种基于网格细胞记忆的HOG算法图像识别方法,已解决现有人工智能识别图像需要依赖赖大数据训练样本以及超大功耗的技术问题。
本发明基于网格细胞记忆的HOG算法图像识别方法,包括建立基于网格细胞记忆的HOG算法图像识别系统,所述的基于网格细胞记忆的HOG算法图像识别系统包括HOG算法模块和网格细胞记忆模型,所述网格细胞记忆模型包括:
网格细胞,其用来锚定给定刺激的每个特征,刺激即输入图像,所锚定的特征在所有网格上编码的特征的相对位置是相互一致的;
距离细胞,其用来计算由网格细胞群矢量编码的位点之间的位移矢量;
感觉细胞,即特征检测器,其为在可能的图像的像素值上具有高斯调谐曲线的细胞;
标签细胞,其由特征检测器驱动,为特征的标签单元,提供识别证据,驱动其相关的刺激识别细胞,产生关于刺激识别的相互竞争的假设。
识别细胞,其为表示刺激的组成特征的少量特征标签单元接收连接,和标签细胞双向连接,并且具有到相同特征标签单元的则返回映射,识别细胞的放电率作为识别的判据。
先通过HOG算法模块识别图像,如果HOG算法模块匹配到相似度能达到激活识别细胞的图像,识别结束;如果HOG算法模块没有匹配到训练集中图像能激活识别细胞,则由网格细胞记忆模型接管图像识别,通过网格细胞记忆的特征识别累加来达到激活识别细胞,完成图像识别。
进一步,所述的网格细胞记忆模型通过以下步骤进行训练:
1)在训练图像上选择若干个刺激位置,并对选中位置的坐标进行保存,每选择一个位置及产生一个中央凹;
2)根据保存的坐标对每个中央凹提取一个中央凹特征,中央凹特征的位置由网格细胞种群向量表示;
3)每个中央凹特征在感觉细胞之间产生特征响应;
4)感觉细胞和标签细胞之间hebbian关联;
5)标签细胞与网格细胞种群向量表示的位置连接;
6)标签细胞与识别细胞双向关联;
7)保存网格细胞相关记忆和各细胞间的连接权值。
进一步,通过HOG算法模块匹配激活识别细胞的图像的步骤包括:
I)把被识别图像转化为灰度图;
II)计算被识别图像的梯度方向;
III)编码被识别图像的局部特征区域,在每个细胞中统计所有像素的梯度直方图,得到每个细胞形成的特征向量;
IV)通过单个细胞组成大的块,每个块有2*2个细胞,块内归一化梯度直方图,得到最后的特征向量;
V)设定能激活识别细胞的相似度设定值,并通过HOG算法提取被识别图像和训练集的特征向量,然后求被识别图像的特征向量和训练集的特征向量的相似度;
当求得的被识别图像的特征向量和训练集的特征向量的相似度大于相识度设定值时则识别细胞会被成功激活,识别结束。
进一步,当求得的测试图像的特征向量和训练集的特征向量的相似度无法达到相识度设定值时,将求得的相似度作为基准值H,并由网格细胞记忆模型接管图像识别,网格细胞记忆模型识别图像包括步骤:
a)把被识别图像转换为灰度图像,在被识别图像上随机选择一个在训练时选择的刺激位置来作为眼扫起点,开始眼扫;
b)提取中央凹特征;
c)特征检测器驱动标签细胞;
d)标签细胞驱动与其相关的识别细胞,中央凹的当前位置由网格细胞活动的种群向量表示,该种群向量通过眼扫运动进行更新;
e)眼扫过程中标签细胞驱动与其相关的识别细胞,产生关于刺激识别的相互竞争,将刺激的不同部分转移到中央凹;一旦有一个识别细胞的放电率达到识别阈值或眼扫次数达到设定次数而终止识别,表示成功识别出此图像的置信值为C;否则网格细胞驱动的记忆识别接管识别任务,先前激活的标签细胞重置为零,最活跃的识别细胞通过其返回投影随机选择下一个标签细胞,随机性由反投影上的弱噪声给出,动态选择标签细胞,标签细胞又与其自身的网格细胞种群向量相关联,产生下一个眼扫向量的目标点,距离细胞系统输出更新中央凹位置所需的向量,给定下一个眼扫的起点和终点,从而产生下个刺激特征的位置继续眼扫;
f)将基准值H和置信度C的和与相识度设定值进行比较,判断是否能激活相应的激活细胞。
进一步,在训练时图像的像素大小为440*440与网格细胞的大小映射一致,网格细胞的模型被实现为作为查找表的标准触发率图,每张标准触发率图都由一个与环境图尺寸相同的矩阵组成,网格细胞作为查找表时其设计使用以下方程组(1)计算60度偏移、叠加余弦波:
式中b0,b1和b2是余弦波的法向量,使用9个方向恒定的模块,F是网格的空间频率,rGC为网格细胞的放电率。
进一步,所述步骤1)在训练图像上选择9个刺激位置,即产生了9个刺激特征中央凹,每一个中央凹的大小为61*61的矩阵,每一个中央凹参与特征编码的细胞与当前网格细胞群向量和单个识别细胞相关联;中央凹提取的一个特征FPCs大小为[ls*ls,1]矩阵,这里ls为61则FPCs大小为3721*1;每个中央凹特征在特征检测器之间产生特征响应,感觉细胞即特征检测器SCs对FPCs处理得到[ls*ls*256,1]的矩阵,处理方式通过高斯模糊计算得到。
进一步,所述步骤7)保存网格细胞相关记忆和各细胞间的连接权值,标签细胞PLCs为[N*M,1]的矩阵,N为训练图片的种类数,M为每类图片的刺激中央凹的个数;识别细胞PRCs大小为[N,1];当前位置网格细胞cGCs以及目标位置网格细胞tGCs大小为[K,1]的矩阵,K的大小为900;感觉细胞到标签细胞权值SC_2_PLC_w为[N*M,ls*ls*256],识别细胞到标签细胞权值PRC_2_PLC_w为[N*M,N];特征提取到标签细胞权值FPC_2_PLC_w为[N*M,ls*ls];网格细胞到特征标签的权重GC_2_PLC_w为[N*M,K];训练时细胞间的相关权重计算如公式(2):
进一步,在步骤a)中把被识别图像转换为灰度图像采用公式(3)Gamma压缩公式,I(x,y)代表像素点的灰度值,Gamma取1/2;
I(x,y)=I(x,y)gamma (3)
公式(3)中I(x,y)代表像素点的灰度值,则梯度的方向为(x,y),其计算方式如下,x,y的两个方向的梯度分量分别用向量[-1,0,1]和向量[-1,0,1]的转置的梯度算子和原图像进行相关卷积梯度运算;其I(x,y)像素点的梯度大小和方向角如公式(4)所示:
公式(4)中,G(x,y)表示为图中像素点的梯度幅值的标量大小,θ(x,y)代表梯度的方向角;
编码图像的局部特征区域,将图像均分割为8*8个像素的细胞,接着每个细胞内0-180°的梯度方向均分成为9个区间,然后在每个细胞中统计下所有像素的梯度直方图,得到每个细胞形成的9维的特征向量;将单个细胞组成大的块,每个块有2*2个细胞,从而形成的特征向量为36维,利用的L2-norm的方式完成对整个块块内归一化梯度直方图,得到最后的特征向量。
进一步,所述步骤V)中求是利用公式(5)被识别图像的特征向量和训练集的特征向量的相似度corr2:
公式(5)中A表示训练数据特征向量,B表示测试数据特征向量;测试时设定相似度大于0.7识别细胞才能被激活。
进一步,在步骤e)中,识别细胞在各个眼扫周期中累积放电如公式(6)所示:
公式(6)中:FC为特征检测器驱动特征标签细胞,该细胞匹配所关注的特征;Softmax操作确保了标签细胞之间的代码稀疏,标签细胞驱动其相关的识别细胞,产生关于刺激识别的相互竞争的假设incr,PRCs是根据眼扫的特征不断在累加的;FLC2ID为常数连接因子,表示标签细胞到ID细胞的连接强度,如果FLC2ID较高,则眼扫特征较少。
本发明的有益效果:
本发明基于网格细胞记忆的HOG算法图像识别方法,其中的基于网格细胞记忆的HOG算法图像识别系统一旦学会了必要的关联,它的识别记忆就会通过呈现训练集中的刺激进行测试。本发明图像识别方法属于小样本学习模型,同时算法有解决HOG无法处理遮挡带来的问题的潜力。基于网格细胞记忆的HOG算法图像识别学习是借鉴视觉驱动的网格细胞通过编码特征间的运动矢量,捕捉刺激特定坐标系中复合刺激的布局,来支持识别记忆,从而达到单样本学习的图像分类识别。本发明基于网格细胞记忆的HOG算法图像识别方法中的训练集是单样本学习,通过呈现记忆时的刺激来,达到小样本学习的效果,解决了现有人工智能识别图像需要依赖赖大数据训练样本以及超大功耗的技术问题。同时本发明图像识别方法也模仿了人的大脑机制,完成了类脑神经网络的小样本学习。而且本发明还对HOG算法进行了优化。
附图说明
图1为基于网格细胞记忆的HOG算法图像识别模型;
图2为基于网格细胞记忆的图像识别系统模型训练流程图;
图3为基于网格细胞记忆的HOG算法识别的测试流程图;
图4为训练图像和测试图像的特征向量;
图5中(a)为测试图的网格细胞记忆识别中网格驱动的第二次重置眼扫,(b)为测试图的网格细胞记忆识别中网格驱动的第三次重置眼扫。
图6为测试图的网格细胞记忆识别中激活的特征标签细胞。
图7为测试图的网格细胞记忆识别中累加的识别细胞。
图8中测试图的网格细胞记忆识别中测试图,(a)为测试图A(类别2),b)测试图B(类别8)。
图9为训练图。
图10为测试图。
具体实施方式
下面结合附图和实施例对本发明作进一步描述。
本实施例中基于网格细胞记忆的HOG算法图像识别方法,其包括建立基于网格细胞记忆的HOG算法图像识别系统,所述的基于网格细胞记忆的HOG算法图像识别系统包括HOG算法模块和网格细胞记忆模型,所述网格细胞记忆模型包括:
网格细胞,其用来锚定给定刺激的每个特征,刺激即输入图像,所锚定的特征在所有网格上编码的特征的相对位置是相互一致的;
距离细胞,其用来计算由网格细胞群矢量编码的位点之间的位移矢量;
感觉细胞,即特征检测器,其为在可能的图像的像素值上具有高斯调谐曲线的细胞;
标签细胞,其由特征检测器驱动,为特征的标签单元,提供识别证据,驱动其相关的刺激识别细胞,产生关于刺激识别的相互竞争的假设。
识别细胞,其为表示刺激的组成特征的少量特征标签单元接收连接,和标签细胞双向连接,并且具有到相同特征标签单元的则返回映射,识别细胞的放电率作为识别的判据。
先通过HOG算法模块识别图像,如果HOG算法模块匹配到相似度能达到激活识别细胞的图像,识别结束;如果HOG算法模块没有匹配到训练集中图像能激活识别细胞,则由网格细胞记忆模型接管图像识别,通过网格细胞记忆的特征识别累加来达到激活识别细胞,完成图像识别。
本实施例中,所述的网格细胞记忆模型通过以下步骤进行训练:
1)在训练图像上选择若干个刺激位置,并对选中位置的坐标进行保存,每选择一个位置及产生一个中央凹;
2)根据保存的坐标对每个中央凹提取一个中央凹特征,中央凹特征的位置由网格细胞种群向量表示;
3)每个中央凹特征在感觉细胞之间产生特征响应;
4)感觉细胞和标签细胞之间hebbian关联;
5)标签细胞与网格细胞种群向量表示的位置连接;
6)标签细胞与识别细胞双向关联;
7)保存网格细胞相关记忆和各细胞间的连接权值。
本实施例中,通过HOG算法模块匹配激活识别细胞的图像的步骤包括:
I)把被识别图像转化为灰度图;
II)计算被识别图像的梯度方向;
III)编码被识别图像的局部特征区域,在每个细胞中统计所有像素的梯度直方图,得到每个细胞形成的特征向量;
IV)通过单个细胞组成大的块,每个块有2*2个细胞,块内归一化梯度直方图,得到最后的特征向量;
V)设定能激活识别细胞的相似度设定值,并通过HOG算法提取被识别图像和训练集的特征向量,然后求被识别图像的特征向量和训练集的特征向量的相似度;
当求得的被识别图像的特征向量和训练集的特征向量的相似度大于相识度设定值时则识别细胞会被成功激活,识别结束。
当求得的测试图像的特征向量和训练集的特征向量的相似度无法达到相识度设定值时,将求得的相似度作为基准值H,并由网格细胞记忆模型接管图像识别,网格细胞记忆模型识别图像包括步骤:
a)把被识别图像转换为灰度图像,在被识别图像上随机选择一个在训练时选择的刺激位置来作为眼扫起点,开始眼扫;
b)提取中央凹特征;
c)特征检测器驱动标签细胞;
d)标签细胞驱动与其相关的识别细胞,中央凹的当前位置由网格细胞活动的种群向量表示,该种群向量通过眼扫运动进行更新;
e)眼扫过程中标签细胞驱动与其相关的识别细胞,产生关于刺激识别的相互竞争,将刺激的不同部分转移到中央凹;一旦有一个识别细胞的放电率达到识别阈值或眼扫次数达到设定次数而终止识别,表示成功识别出此图像的置信值为C;否则网格细胞驱动的记忆识别接管识别任务,先前激活的标签细胞重置为零,最活跃的识别细胞通过其返回投影随机选择下一个标签细胞,随机性由反投影上的弱噪声给出,动态选择标签细胞,标签细胞又与其自身的网格细胞种群向量相关联,产生下一个眼扫向量的目标点,距离细胞系统输出更新中央凹位置所需的向量,给定下一个眼扫的起点和终点,从而产生下个刺激特征的位置继续眼扫;
f)将基准值H和置信度C的和与相识度设定值进行比较,判断是否能激活相应的激活细胞。
本实施例中,在训练时图像的像素大小为440*440与网格细胞的大小映射一致,网格细胞的模型被实现为作为查找表的标准触发率图,每张标准触发率图都由一个与环境图尺寸相同的矩阵组成,网格细胞作为查找表时其设计使用以下方程组(1)计算60度偏移、叠加余弦波:
式中b0,b1和b2是余弦波的法向量,使用9个方向恒定的模块,F是网格的空间频率,rGC为网格细胞的放电率。从0.0028*2p开始,连续网格的比例与比例因子有关,一个模块/比例尺中不同单元格的网格图案彼此偏移,共同均匀地覆盖整个视野。对于每个网格尺度,沿网格上两个相邻等边三角形(即由4个网格顶点组成的菱形)的主轴均匀地采样100个偏移。因此,网格单元集成由9个模块/比例尺组成,每个模块/比例尺有100个单元。
用一个距离细胞模型计算由网格细胞群矢量编码的位点之间的位移矢量。也就是说,二维平面上的给定位置由一组网格单元相位唯一地表示。在每个模块工程中具有适当相位的网格细胞,以一个单元编码四个细胞阵列中的每一个对应距离,两个非共线性轴中的每一个对应距离。两个距离的细胞阵列属于同一轴的两个近距离的细胞。从一个距离的细胞阵列单调增加权值和单调减小权值。对于第二个方位细胞,连接在相反方向上沿着轴线的距离增加/减小。两个雷达神经元的点火率的相对差编码了在的起始和目标定位之间的位移。即完成网格细胞模型和距离细胞模型的建立。
本实施例中,所述步骤1)在训练图像上选择9个刺激位置,对于人脸识别来说,所选择的位置包括眼角、鼻尖或鼻翼、嘴角等;即产生了9个刺激特征中央凹,每一个中央凹的大小为61*61的矩阵,每一个中央凹参与特征编码的细胞与当前网格细胞群向量和单个识别细胞相关联;中央凹提取的一个特征FPCs大小为[ls*ls,1]矩阵,这里ls为61则FPCs大小为3721*1;每个中央凹特征在特征检测器之间产生特征响应,感觉细胞即特征检测器SCs对FPCs处理得到[ls*ls*256,1]的矩阵,因为图像像素值这里有256种可能计算,处理方式通过高斯模糊计算得到。
本实施例中,所述步骤7)保存网格细胞相关记忆和各细胞间的连接权值,标签细胞PLCs为[N*M,1]的矩阵,N为训练图片的种类数,M为每类图片的刺激中央凹的个数;识别细胞PRCs大小为[N,1];当前位置网格细胞cGCs以及目标位置网格细胞tGCs大小为[K,1]的矩阵,K的大小为900;感觉细胞到标签细胞权值SC_2_PLC_w为[N*M,ls*ls*256],识别细胞到标签细胞权值PRC_2_PLC_w为[N*M,N];特征提取到标签细胞权值FPC_2_PLC_w为[N*M,ls*ls];网格细胞到特征标签的权重GC_2_PLC_w为[N*M,K];训练时细胞间的相关权重计算如公式(2):
本实施例中,为了消除光照和对比度的影响,用Gamma参数归一化颜色空间。Gamma参数的处理方式主要是为了压缩处理,步骤开始时对图像引进此参数的处理主要为了使图像的局部的阴影、光照变化以及噪声的干扰等带来的影响减小,我们知道图像表面的纹理的强度里局部的表层曝光具有较高的权重,同时图像的颜色信息用处较小,通常把识别的图片转化为灰度图。在步骤a)中把被识别图像转换为灰度图像采用公式(3)Gamma压缩公式,I(x,y)代表像素点的灰度值,Gamma取1/2;
I(x,y)=I(x,y)gamma (3)
公式(3)中I(x,y)代表像素点的灰度值,则梯度的方向为(x,y),其计算方式如下,x,y的两个方向的梯度分量分别用向量[-1,0,1]和向量[-1,0,1]的转置的梯度算子和原图像进行相关卷积梯度运算;其I(x,y)像素点的梯度大小和方向角如公式(4)所示:
公式(4)中,G(x,y)表示为图中像素点的梯度幅值的标量大小,θ(x,y)代表梯度的方向角;
编码图像的局部特征区域,将图像均分割为8*8个像素的细胞,接着每个细胞内0-180°的梯度方向均分成为9个区间,然后在每个细胞中统计下所有像素的梯度直方图,得到每个细胞形成的9维的特征向量;将单个细胞组成大的块,每个块有2*2个细胞,从而形成的特征向量为36维,利用的L2-norm的方式完成对整个块块内归一化梯度直方图,得到最后的特征向量。
在图像检测中,利用HOG算子可以得到局部的形状特征相关信息,并且可以得到图像局部像素点之间的关系。但是HOG无法处理因为遮挡带来的问题,同时HOG自身算法梯度的性质使得其对图像的噪点敏感。
本实施例在步骤V)中求是利用公式(5)被识别图像的特征向量和训练集的特征向量的相似度corr2:
公式(5)中A表示训练数据特征向量,B表示测试数据特征向量;测试时设定相似度大于0.7识别细胞才能被激活。本实施例主要通过网格细胞记忆模型的优势来优化HOG算法的人脸识别。当测试图像通过HOG算法提取的特征与训练集比较如果大于0.7则识别细胞会被成功激活,若有多张图像的相似度大于0.7,则这时将以相似度最大值作为识别判定。当测试的图片无法达到置信度为0.7时,其相似度作为基准值H,需要用网格细胞记忆模型通过眼扫来重新提高被识别图片的相似度。
眼扫随机产生一个眼扫点,接着像训练时一样特征检测器驱动特征标签细胞,该细胞(部分)匹配所关注的特征。一旦选择了随机起始特征,网格细胞驱动的识别记忆就会接管,中央凹的当前位置由网格细胞活动的种群向量表示,该种群向量通过眼球运动进行更新,这就产生了眼扫向量的起点。先前激活的特征标签细胞(包括当前中央凹特征的单元)重置为零,最活跃的刺激识别细胞(代表领先假设)通过其返回投影随机选择下一个特征标签细胞。随机性由反投影上的弱噪声给出,动态选择特征标签细胞,特征标签细胞又与其自身的网格细胞种群向量相关联(产生下一个眼扫向量的目标点)。给定下一个眼扫的起点和终点,距离细胞系统输出更新中央凹位置所需的向量,允许系统对视野的另一部分进行采样。计算眼扫向量以预测其他刺激特征的位置。标签细胞驱动其相关的刺激识别细胞,产生关于刺激识别的相互竞争的假设。识别细胞对第一个随机感知特征的反应,意味着对被观察刺激的假设的产生,而领先的假设(即,最活跃的识别神经元)决定了确认该假设的连续扫视。假设领先的假设是正确的假设每一个眼扫都代表一种尝试,根据领先的假设,将刺激的不同部分转移到中央凹焦点。一旦有一个刺激识别细胞达到识别阈值或终止识别,即表示成功识别出此图片的置信值为C。
由于相互竞争的刺激之间特征的相对排列是相似的,连续的眼跳(相对位移向量)由于与编码特征的部分匹配,最终使正确的刺激身份积累了更多的证据。也就是说,如果初始假设是错误的,模型并不完全依赖重置。正确的假设可以取代最初领先的错误假设。另一方面,最初的错误假设导致特征识别的预期结果和实际结果之间超过两个不匹配,因此触发了重置。重新眼扫。这个过程中阈值和Softmax操作确保了特征标签细胞之间的链接稀疏。
本实施例基于网格细胞记忆的HOG算法图像识别方法,在步骤e)中,识别细胞在各个眼扫周期中累积放电如公式(6)所示:
公式(6)中:FC为特征检测器驱动特征标签细胞,该细胞匹配所关注的特征;Softmax操作确保了标签细胞之间的代码稀疏,标签细胞驱动其相关的识别细胞,产生关于刺激识别的相互竞争的假设incr,PRCs是根据眼扫的特征不断在累加的;FLC2ID为常数连接因子,表示标签细胞到ID细胞的连接强度,如果FLC2ID较高,则眼扫特征较少。
除了通过相关的网格细胞指定下一个眼扫的终点外,由领先刺激识别细胞的返回投影选择的激活的特征标签细胞也表示预测。一旦凹部重新定位,并进行下一次感觉辨别,最大活动特征标记细胞是预测的。该预测作为一种便利效果被合并,在将Softmax操作应用于所有特征标签细胞之前,将预测的特征标签细胞在下一个周期中的触发提高两倍。如果预测的特征标签细胞在下一次感官识别后不是最活跃的,则记录不匹配。在第三个不匹配事件中,系统从不同的组件功能开始重置。这个过程允许快速拒绝错误的假设,否则将产生不带中央凹到预期特征的眼扫。本实施例公式(6)的FLC2ID常数连接因子设置为0.1,只允许眼扫重置三次,第一次是随机假设的关注的刺激点,第二次重置眼扫和第三次重置眼扫仿真图如图5所示。网格细胞模型的部分置信度基准设置为0.3,测试时所有的类别识别细胞都被允许激活,建立的网格细胞模型学会了它的识别记忆就会通过眼扫呈现训练集中的刺激进行测试。HOG特征匹配加网格细胞即基于网格细胞记忆的HOG算法图像识别算法很好的增强其相似度,从而达到识别的置信度。图6测试案例进行举例分析即测试图像A和B。图6测试案例测试图通过基于网格细胞记忆的HOG算法图像识别算法算出识别细胞的识别值。其训练集如图7训练图(上)所示。下表1为HOG特征匹配+网格细胞算法的识别值表。
表1 HOG特征匹配+网格细胞算法的识别值
通过表1可以看出测试图A先用HOG算法匹配时会和每个训练图匹配得到10个相似值H,由于人脸表情变化很大,我们发现10个相似值都没有超过我们设定的置信度0.7的值,然后我们利用眼扫向量以及网格记忆重新得到10个匹配竞争值C。利用H+C得到新的10个置信度值作为激活识别细胞的类别依据。
本实施例基于网格细胞记忆的HOG算法图像识别方法,其中的基于网格细胞记忆的HOG算法图像识别系统一旦学会了必要的关联,它的识别记忆就会通过呈现训练集中的刺激进行测试。本实施例图像识别方法属于小样本学习模型,同时算法有解决HOG无法处理遮挡带来的问题的潜力。基于网格细胞记忆的HOG算法图像识别学习是借鉴视觉驱动的网格细胞通过编码特征间的运动矢量,捕捉刺激特定坐标系中复合刺激的布局,来支持识别记忆,从而达到单样本学习的图像分类识别。本实施例基于网格细胞记忆的HOG算法图像识别方法中的训练只用了每个测试集中的一张数据即单样本训练集,其训练集是单样本学习,通过呈现记忆时的刺激来,达到小样本学习的效果,解决了现有人工智能识别图像需要依赖赖大数据训练样本以及超大功耗的技术问题。同时本发明图像识别方法也模仿了人的大脑机制,完成了类脑神经网络的小样本学习。而且本发明还对HOG算法进行了优化。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.基于网格细胞记忆的HOG算法图像识别方法,其特征在于:包括建立基于网格细胞记忆的HOG算法图像识别系统,所述的基于网格细胞记忆的HOG算法图像识别系统包括HOG算法模块和网格细胞记忆模型,所述网格细胞记忆模型包括:
网格细胞,其用来锚定刺激的每个特征,刺激即输入图像,所锚定的特征在所有网格上编码的特征的相对位置是相互一致的;
距离细胞,其用来计算由网格细胞群矢量编码的位点之间的位移矢量;
感觉细胞,即特征检测器,其为在可能的图像的像素值上具有高斯调谐曲线的细胞;
标签细胞,其由特征检测器驱动,为特征的标签单元,提供识别证据,驱动其相关的刺激识别细胞,产生关于刺激识别的相互竞争的假设;
识别细胞,其为表示刺激的组成特征的少量特征标签单元接收连接,和标签细胞双向连接,并且具有到相同特征标签单元的则返回映射,识别细胞的放电率作为识别的判据;
先通过HOG算法模块识别图像,如果HOG算法模块匹配到相似度能达到激活识别细胞的图像,识别结束;如果HOG算法模块在训练集中没有匹配到能激活识别细胞的图像;则由网格细胞记忆模型接管图像识别,通过网格细胞记忆的特征识别累加来达到激活识别细胞,完成图像识别;
通过HOG算法模块匹配激活识别细胞的图像的步骤包括:
I)把被识别图像转化为灰度图;
II)计算被识别图像的梯度方向;
III)编码被识别图像的局部特征区域,在每个细胞中统计所有像素的梯度直方图,得到每个细胞形成的特征向量;
IV)通过单个细胞组成大的块,每个块有2*2个细胞,块内归一化梯度直方图,得到最后的特征向量;
V)设定能激活识别细胞的相似度设定值,并通过HOG算法提取被识别图像和训练集的特征向量,然后求被识别图像的特征向量和训练集的特征向量的相似度;
当求得的被识别图像的特征向量和训练集的特征向量的相似度大于相识度设定值时则识别细胞会被成功激活,识别结束;
当求得的测试图像的特征向量和训练集的特征向量的相似度无法达到相识度设定值时,将求得的相似度作为基准值H,并由网格细胞记忆模型接管图像识别,网格细胞记忆模型识别图像包括步骤:
a)把被识别图像转换为灰度图像,在被识别图像上随机选择一个在训练时选择的刺激位置来作为眼扫起点,开始眼扫;
b)提取中央凹特征;
c)特征检测器驱动标签细胞;
d)标签细胞驱动与其相关的识别细胞,中央凹的当前位置由网格细胞活动的种群向量表示,该种群向量通过眼扫运动进行更新;
e)眼扫过程中标签细胞驱动与其相关的识别细胞,产生关于刺激识别的相互竞争,将刺激的不同部分转移到中央凹;一旦有一个识别细胞的放电率达到识别阈值或眼扫次数达到设定次数而终止识别,表示成功识别出此图像的置信值为C;否则网格细胞驱动的记忆识别接管识别任务,先前激活的标签细胞重置为零,最活跃的识别细胞通过其返回投影随机选择下一个标签细胞,随机性由反投影上的弱噪声给出,动态选择标签细胞,标签细胞又与其自身的网格细胞种群向量相关联,产生下一个眼扫向量的目标点,距离细胞系统输出更新中央凹位置所需的向量,给定下一个眼扫的起点和终点,从而产生下个刺激特征的位置继续眼扫;
f)将基准值H和置信度C的和与相识度设定值进行比较,判断是否能激活相应的激活细胞。
2.根据权利要求1所述的基于网格细胞记忆的HOG算法图像识别方法,其特征在于:所述的网格细胞记忆模型通过以下步骤进行训练:
1)在训练图像上选择若干个刺激位置,并对选中位置的坐标进行保存,每选择一个位置即产生一个中央凹;
2)根据保存的坐标对每个中央凹提取一个中央凹特征,中央凹特征的位置由网格细胞种群向量表示;
3)每个中央凹特征在感觉细胞之间产生特征响应;
4)感觉细胞和标签细胞之间hebbian关联;
5)标签细胞与网格细胞种群向量表示的位置连接;
6)标签细胞与识别细胞双向关联;
7)保存网格细胞相关记忆和各细胞间的连接权值。
4.根据权利要求3所述的基于网格细胞记忆的HOG算法图像识别方法,其特征在于:所述步骤1)在训练图像上选择9个刺激位置,即产生了9个刺激特征中央凹,每一个中央凹的大小为61*61的矩阵,每一个中央凹参与特征编码的细胞与当前网格细胞群向量和单个识别细胞相关联;中央凹提取的一个特征FPCs大小为[ls*ls,1]矩阵,这里ls为61则FPCs大小为3721*1;每个中央凹特征在特征检测器之间产生特征响应,感觉细胞即特征检测器SCs对FPCs处理得到[ls*ls*256,1]的矩阵,处理方式通过高斯模糊计算得到。
5.根据权利要求4所述的基于网格细胞记忆的HOG算法图像识别方法,其特征在于:所述步骤7)保存网格细胞相关记忆和各细胞间的连接权值,标签细胞PLCs为[N*M,1]的矩阵,N为训练图片的种类数,M为每类图片的刺激中央凹的个数;识别细胞PRCs大小为[N,1];当前位置网格细胞cGCs以及目标位置网格细胞tGCs大小为[K,1]的矩阵,K的大小为900;感觉细胞到标签细胞权值SC_2_PLC_w为[N*M,ls*ls*256],识别细胞到标签细胞权值PRC_2_PLC_w为[N*M,N];特征提取到标签细胞权值FPC_2_PLC_w为[N*M,ls*ls];网格细胞到特征标签的权重GC_2_PLC_w为[N*M,K];训练时细胞间的相关权重计算如公式(2):
6.根据权利要求5所述的基于网格细胞记忆的HOG算法图像识别方法,其特征在于:在步骤a)中把被识别图像转换为灰度图像采用公式(3)Gamma压缩公式,I(x,y)代表像素点的灰度值,Gamma取1/2;
I(x,y)=I(x,y)gamma (3)
公式(3)中I(x,y)代表像素点的灰度值,则梯度的方向为(x,y),其计算方式如下,x,y的两个方向的梯度分量分别用向量[-1,0,1]和向量[-1,0,1]的转置的梯度算子和原图像进行相关卷积梯度运算;其I(x,y)像素点的梯度大小和方向角如公式(4)所示:
公式(4)中,G(x,y)表示为图中像素点的梯度幅值的标量大小,θ(x,y)代表梯度的方向角;
编码图像的局部特征区域,将图像均分割为8*8个像素的细胞,接着每个细胞内0-180°的梯度方向均分成为9个区间,然后在每个细胞中统计下所有像素的梯度直方图,得到每个细胞形成的9维的特征向量;将单个细胞组成大的块,每个块有2*2个细胞,从而形成的特征向量为36维,利用L2-norm的方式完成对整个块内的归一化梯度直方图,得到最后的特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010394264.5A CN111598110B (zh) | 2020-05-11 | 2020-05-11 | 基于网格细胞记忆的hog算法图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010394264.5A CN111598110B (zh) | 2020-05-11 | 2020-05-11 | 基于网格细胞记忆的hog算法图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111598110A CN111598110A (zh) | 2020-08-28 |
CN111598110B true CN111598110B (zh) | 2023-04-28 |
Family
ID=72189677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010394264.5A Active CN111598110B (zh) | 2020-05-11 | 2020-05-11 | 基于网格细胞记忆的hog算法图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111598110B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113901323B (zh) * | 2021-10-25 | 2024-09-20 | 北京达佳互联信息技术有限公司 | 物料推荐方法、装置、电子设备及存储介质 |
CN114724217B (zh) * | 2022-04-07 | 2024-05-28 | 重庆大学 | 基于snn的边缘特征提取与面部表情识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598929A (zh) * | 2015-02-03 | 2015-05-06 | 南京邮电大学 | 一种hog特征快速提取方法 |
CN105893956A (zh) * | 2016-03-30 | 2016-08-24 | 南京邮电大学 | 一种基于多特征自适应测度学习的在线目标匹配方法 |
CN109670547A (zh) * | 2018-12-19 | 2019-04-23 | 中国人民解放军国防科技大学 | 一种多尺度序列图像匹配的位置识别定位方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7872648B2 (en) * | 2007-06-14 | 2011-01-18 | Microsoft Corporation | Random-access vector graphics |
US20100091018A1 (en) * | 2008-07-11 | 2010-04-15 | Advanced Micro Devices, Inc. | Rendering Detailed Animated Three Dimensional Characters with Coarse Mesh Instancing and Determining Tesselation Levels for Varying Character Crowd Density |
US20100014755A1 (en) * | 2008-07-21 | 2010-01-21 | Charles Lee Wilson | System and method for grid-based image segmentation and matching |
US8189866B1 (en) * | 2008-08-26 | 2012-05-29 | Adobe Systems Incorporated | Human-action recognition in images and videos |
EP2827758B1 (en) * | 2012-03-09 | 2020-08-26 | Ocuspecto OY | Method for assessing function of the visual system and apparatus thereof |
CN203503420U (zh) * | 2013-10-18 | 2014-03-26 | 北京电力设备总厂 | 干式空心电抗器用防雨格栅 |
CN104268539B (zh) * | 2014-10-17 | 2017-10-31 | 中国科学技术大学 | 一种高性能的人脸识别方法及系统 |
CN107563312B (zh) * | 2017-08-17 | 2020-11-13 | 南昌航空大学 | 人脸表情识别方法 |
EP3540635B1 (en) * | 2018-03-16 | 2020-08-26 | Identy Inc. | Method for identifying an object within an image and mobile device for executing the method |
CN109668566B (zh) * | 2018-12-05 | 2022-05-13 | 大连理工大学 | 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法 |
CN110598534B (zh) * | 2019-07-31 | 2022-12-09 | 中南大学 | 融合点线记忆信息的仿生视觉图像目标识别方法 |
-
2020
- 2020-05-11 CN CN202010394264.5A patent/CN111598110B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598929A (zh) * | 2015-02-03 | 2015-05-06 | 南京邮电大学 | 一种hog特征快速提取方法 |
CN105893956A (zh) * | 2016-03-30 | 2016-08-24 | 南京邮电大学 | 一种基于多特征自适应测度学习的在线目标匹配方法 |
CN109670547A (zh) * | 2018-12-19 | 2019-04-23 | 中国人民解放军国防科技大学 | 一种多尺度序列图像匹配的位置识别定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111598110A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113196289B (zh) | 人体动作识别方法、人体动作识别系统及设备 | |
CN107423730B (zh) | 一种基于语义折叠的人体步态行为主动检测识别系统和方法 | |
CN103890781B (zh) | 用于机器视觉的视网膜编码器 | |
CN112597815B (zh) | 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法 | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
CN103729614A (zh) | 基于视频图像的人物识别方法及人物识别装置 | |
Pentland | Part segmentation for object recognition | |
CN115427982A (zh) | 用于使用卷积神经网络标识数字视频中的人体行为的方法、系统和介质 | |
CN113111758B (zh) | 一种基于脉冲神经网络的sar图像舰船目标识别方法 | |
CN111598110B (zh) | 基于网格细胞记忆的hog算法图像识别方法 | |
KR102440385B1 (ko) | 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치 | |
US6668084B1 (en) | Image recognition method | |
CN114548253A (zh) | 一种基于图像识别及动态匹配的数字孪生模型构建系统 | |
Soebhakti et al. | The real-time object detection system on mobile soccer robot using YOLO v3 | |
CN116486408A (zh) | 遥感图像跨域语义分割方法及装置 | |
CN110197721B (zh) | 基于深度学习的肌腱状况评估方法、装置及存储介质 | |
CN111353429A (zh) | 基于眼球转向的感兴趣度方法与系统 | |
CN118244260A (zh) | 基于生成对抗网络的模糊深度学习单目标跟踪系统 | |
CN113963202A (zh) | 一种骨骼点动作识别方法、装置、电子设备及存储介质 | |
CN113516232A (zh) | 一种基于自注意力机制的神经网络模型的训练方法 | |
CN115091445A (zh) | 一种面向机械手抓取的物体纹理识别方法、装置和设备 | |
CN114511877A (zh) | 一种行为识别方法、装置、存储介质及终端 | |
KR101326644B1 (ko) | 예제포즈입자 기반의 입자필터를 이용한 영상 객체 추적 방법 | |
CN106803080B (zh) | 一种基于形状玻尔兹曼机的补全式行人检测方法 | |
Zhao et al. | A Computationally Efficient Visual SLAM for Low-light and Low-texture Environments Based on Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |