CN111428640A - 一种基于图像的地点识别方法 - Google Patents

一种基于图像的地点识别方法 Download PDF

Info

Publication number
CN111428640A
CN111428640A CN202010211561.1A CN202010211561A CN111428640A CN 111428640 A CN111428640 A CN 111428640A CN 202010211561 A CN202010211561 A CN 202010211561A CN 111428640 A CN111428640 A CN 111428640A
Authority
CN
China
Prior art keywords
matrix
image
feature extraction
output
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010211561.1A
Other languages
English (en)
Inventor
刘阳
刘珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Guoli Intelligent Technology Co ltd
Original Assignee
Anhui Guoli Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Guoli Intelligent Technology Co ltd filed Critical Anhui Guoli Intelligent Technology Co ltd
Priority to CN202010211561.1A priority Critical patent/CN111428640A/zh
Publication of CN111428640A publication Critical patent/CN111428640A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于图像的地点识别方法,包括以下步骤:1)采集图像、初步提取特征;2)初始化;3)求解特征提取权重矩阵;4)对特征空间进行变换;5)随机生成隐藏层映射函数的输入权重向量与输入偏置;6)生成隐藏层输出函数;7)生成隐藏层输出矩阵;8)初始化输出权重矩阵;9)输出权重矩阵迭代优化;10)使用训练完成的预测模型识别地点类型。该发明仅采用了四层的人工神经网络,相比于深度神经网络具有更小的模型体积、更快的训练速度,同时引入了特征提取层以保证特征提取的性能,提升了分类准确度。

Description

一种基于图像的地点识别方法
技术领域
本发明属于机器人技术领域,特别是涉及一种基于图像的地点识别方法。
背景技术
目前,随着人工智能的发展,移动智能机器人被广泛地应用于工业、军事和服务等领域,且发挥着越来越重要的作用。因此,对智能机器人认知环境的能力提出了越来越高的要求。机器人只有在知道自身位置和工作环境的前提下,才能安全有效地进行自主运动。视觉系统能够为机器人提供最丰富的感知信息,同时也最接近人类感知环境的方式。近年来,基于视觉的机器人自定位问题吸引了大量的研究人员,同时也取得了丰硕的研究成果。对于这类问题,往往称之为地点分类问题。
在文献“CN103810500A一种基于有监督学习概率主题模型的地点图像识别方法”中提出了一种基于有监督学习概率主题模型的地点图像识别方法,目的在于更好地解决地点图像识别中由于不同光照和角度、事物变化和运动导致的不确定问题,以及原有LDA模型中随主题数目增加图像的识别率出现过拟合现象进而影响图像的识别率的问题。对于特征提取部分,采用了SIFT对图像局部特征进行检测并生成“词袋”特征,这种人工提取特征的手段具有一定的局限性,其区分性往往较弱。文献“CN110209859A地点识别及其模型训练的方法和装置以及电子设备”公开了一种地点识别及其模型训练的方法和装置、计算机可读存储介质以及电子设备。方法包括:基于CNN模型的第一部分提取样本图像的局部特征;基于CNN模型的第二部分将局部特征聚合成具有第一维数的特征向量;基于CNN模型的第三部分得到特征向量的压缩表示向量,压缩表示向量具有小于第一维数的第二维数;以及以使得多个图像对应的压缩表示向量之间的距离最小化为目标,调整第一至第三部分的模型参数,直至得到满足预设条件的CNN模型。利用CNN模型可以显著提高提取特征的效率,然而深度神经网络的引入不可避免地导致运算速度慢、耗费资源等问题。相关的工作可见“CN107967457A一种适应视觉特征变化的地点识别与相对定位方法及系统”与“CN102609719A基于改进概率主题模型的地点图像识别方法”。
发明内容
本发明克服现有技术的不足,提出一种基于图像的地点识别方法,其过程如下:
步骤1、采集大量的场景图像,得到一系列图像
Figure BDA0002423000870000022
进行初步特征提取得到
Figure BDA0002423000870000023
的特征向量集合,即样本集合
Figure BDA0002423000870000024
Figure BDA0002423000870000025
进行标记,得到对应的类别标签
Figure BDA0002423000870000026
其中,
Figure BDA0002423000870000027
为Ni维行向量,
Figure BDA0002423000870000028
为No维行向量,Ni为初步提取特征的维度,No为地点类别的数量,因此类别集合为
Figure BDA0002423000870000029
如果样本xk的类别为
Figure BDA00024230008700000210
中的第c类,则yk的第c个元素为1,其余为0;
Figure BDA00024230008700000211
表示实数域,k为1到n的正整数,n为样本总数,No与Ni也分别表示输出层与输入层神经元数量,为正整数;
步骤2、初始化:令迭代步t=0,根据实际情况人工设定最大迭代步T为大于1的正整数,人工设定拉式乘子λ>0为正实数,隐藏层节点数Nh>0为大于3的正整数,设定损失系数C>0为正实数;令t=0步的中间变量vt,dt=0;
步骤3、求解特征提取权重矩阵α:
Figure BDA00024230008700000212
其中,上标T表示矩阵转制,I为单位阵,
Figure BDA00024230008700000213
为原始样本矩阵;
步骤4、对特征空间进行变换:
Figure BDA00024230008700000214
其中,
Figure BDA00024230008700000215
为变换后的样本矩阵;
步骤5、随机生成输入权重向量与输入偏置:
随机生成隐藏层映射函数的输入权重向量
Figure BDA00024230008700000216
与输入偏置
Figure BDA00024230008700000217
如下:随机生成Nh个a,得到
Figure BDA00024230008700000218
随机生成Nh个b,得到
Figure BDA00024230008700000219
步骤6、计算隐藏层输出函数:
Figure BDA00024230008700000220
其中,G(a,b,x)为激活函数,x表示样本;
步骤7、计算隐藏层输出矩阵H:
H=[h(x1),…,h(xn)]T
步骤8、初始化输出权重矩阵βt
βt=H*Y
其中,
Figure BDA00024230008700000221
H*表示H的伪逆矩阵;
步骤9、输出权重矩阵迭代优化:
首先令βt+1=(HTH+λI)-1(HTY+λ(vt+dt)+βt),然后令
Figure BDA00024230008700000222
其中soft为软阈值函数;接着计算dt+1=dt-(βt+1-vt+1);最后令t自增1,如果t>T,则令
Figure BDA0002423000870000031
并跳至步骤10,否则跳至步骤9;
步骤10、将新的场景图像初步提取特征后得到其特征向量x,然后进行特征变换,得到变换后的样本
Figure BDA0002423000870000032
接着计算
Figure BDA0002423000870000033
即可获取该场景图像所对应的地点类别。
在上述方法中,其中,所涉及的激活函数G(a,b,x)为:
Figure BDA0002423000870000034
或者
Figure BDA0002423000870000035
其中,步骤1和10中初步特征提取方法采用自动编码器、或采用视觉词典。
其中,所述自动编码器包括至少一个卷积层和一个池化层。
发明在仅采用了四层的人工神经网络,相比于深度神经网络具有更小的模型体积、更快的训练速度,同时引入了特征提取层以保证特征提取的性能,提升了分类准确度。
附图说明
图1为本发明方法流程图;
具体实施方式
下面结合实例对本发明作进一步描述,但本发明的保护范围并不限于此。
如图1所示,本发明包括以下步骤:
步骤1、采集大量的场景图像,得到一系列图像
Figure BDA0002423000870000036
Figure BDA0002423000870000037
进行初步特征提取得到
Figure BDA0002423000870000038
的特征向量集合,即样本集合
Figure BDA0002423000870000039
Figure BDA00024230008700000310
进行标记,得到对应的类别标签
Figure BDA00024230008700000311
其中,
Figure BDA00024230008700000312
为Ni维行向量,
Figure BDA00024230008700000313
为No维行向量,Ni为初步提取特征的维度,No为地点类别的数量,因此类别集合为
Figure BDA00024230008700000314
如果样本xk的类别为
Figure BDA00024230008700000315
中的第c类,则yk的第c个元素为1,其余为0;
Figure BDA00024230008700000316
表示实数域,k为1到n的正整数,n为样本总数,No与Ni也分别表示输出层与输入层神经元数量,为正整数;
步骤2、初始化:令迭代步t=0,根据实际情况人工设定最大迭代步T为大于1的正整数,人工设定拉式乘子λ>0为正实数,隐藏层节点数Nh>0为大于3的正整数,设定损失系数C>0为正实数;令t=0步的中间变量vt,dt=0;
步骤3、求解特征提取权重矩阵α:
Figure BDA0002423000870000041
其中,上标T表示矩阵转制,I为单位阵,
Figure BDA0002423000870000042
为原始样本矩阵;
步骤4、对特征空间进行变换:
Figure BDA0002423000870000043
其中,
Figure BDA0002423000870000044
为变换后的样本矩阵;
步骤5、随机生成输入权重向量与输入偏置:
随机生成隐藏层映射函数的输入权重向量
Figure BDA0002423000870000045
与输入偏置
Figure BDA0002423000870000046
如下:随机生成Nh个a,得到
Figure BDA0002423000870000047
随机生成Nh个b,得到
Figure BDA0002423000870000048
步骤6、计算隐藏层输出函数:
Figure BDA0002423000870000049
其中,G(a,b,x)为激活函数,x表示样本;
步骤7、计算隐藏层输出矩阵H:
H=[h(x1),…,h(xn)]T
步骤8、初始化输出权重矩阵βt
βt=H*Y
其中,
Figure BDA00024230008700000410
H*表示H的伪逆矩阵;
步骤9、输出权重矩阵迭代优化:
首先令βt+1=(HTH+λI)-1(HTY+λ(vt+dt)+βt),然后令
Figure BDA00024230008700000411
其中soft为软阈值函数;接着计算dt+1=dt-(βt+1-vt+1);最后令t自增1,如果t>T,则令
Figure BDA00024230008700000412
并跳至步骤10,否则跳至步骤9;
步骤10、将新的场景图像初步提取特征后得到其特征向量x,然后进行特征变换,得到变换后的样本
Figure BDA00024230008700000413
接着计算
Figure BDA00024230008700000414
即可获取该场景图像所对应的地点类别。
在上述方法中,优选地,所涉及的激活函数G(a,b,x)为:
Figure BDA00024230008700000415
再次优选地,所涉及的激活函数G(a,b,x)为:
Figure BDA00024230008700000416
进一步,优选地,步骤1和10中初步特征提取方法采用自动编码器。
再进一步,优选地,步骤1和10中初步特征提取方法采用视觉词典。
最后优选地,所述自动编码器包括至少一个卷积层和一个池化层。
具体实施中,可以根据需求确定地点类别,例如,如果目的是对家庭中的地点进行识别,则地点类别可以包括:厨房、卧室、客厅、走廊、阳台等。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (6)

1.一种基于图像的地点识别方法,其特征在于,包括以下步骤:
步骤1、采集大量的场景图像,得到一系列图像
Figure FDA0002423000860000011
Figure FDA0002423000860000012
进行初步特征提取得到
Figure FDA0002423000860000013
的特征向量集合,即样本集合
Figure FDA0002423000860000014
Figure FDA0002423000860000015
进行标记,得到对应的类别标签
Figure FDA0002423000860000016
其中,
Figure FDA0002423000860000017
为Ni维行向量,
Figure FDA0002423000860000018
为No维行向量,Ni为初步提取特征的维度,No为地点类别的数量,因此类别集合为
Figure FDA0002423000860000019
如果样本xk的类别为
Figure FDA00024230008600000110
中的第c类,则yk的第c个元素为1,其余为0;
Figure FDA00024230008600000111
表示实数域,k为1到n的正整数,n为样本总数,No与Ni也分别表示输出层与输入层神经元数量,为正整数;
步骤2、初始化:令迭代步t=0,根据实际情况人工设定最大迭代步T为大于1的正整数,人工设定拉式乘子λ>0为正实数,隐藏层节点数Nh>0为大于3的正整数,设定损失系数C>0为正实数;令t=0步的中间变量vt,dt=0;
步骤3、求解特征提取权重矩阵α:
Figure FDA00024230008600000112
其中,上标T表示矩阵转制,I为单位阵,
Figure FDA00024230008600000113
为原始样本矩阵;
步骤4、对特征空间进行变换:
Figure FDA00024230008600000114
其中,
Figure FDA00024230008600000115
为变换后的样本矩阵;
步骤5、随机生成输入权重向量与输入偏置:
随机生成隐藏层映射函数的输入权重向量
Figure FDA00024230008600000116
与输入偏置
Figure FDA00024230008600000117
如下:随机生成Nh个a,得到
Figure FDA00024230008600000118
随机生成Nh个b,得到
Figure FDA00024230008600000119
步骤6、计算隐藏层输出函数:
Figure FDA00024230008600000120
其中,G(a,b,x)为激活函数,x表示样本;
步骤7、计算隐藏层输出矩阵H:
H=[h(x1),…,h(xn)]T
步骤8、初始化输出权重矩阵βt
βt=H*Y
其中,
Figure FDA00024230008600000121
H*表示H的伪逆矩阵;
步骤9、输出权重矩阵迭代优化:
首先令βt+1=(HTH+λI)-1(HTY+λ(vt+dt)+βt),然后令
Figure FDA0002423000860000021
其中soft为软阈值函数;接着计算dt+1=dt-(βt+1-vt+1);最后令t自增1,如果t>T,则令
Figure FDA0002423000860000022
并跳至步骤10,否则跳至步骤9;
步骤10、将新的场景图像初步提取特征后得到其特征向量x,然后进行特征变换,得到变换后的样本
Figure FDA0002423000860000023
接着计算
Figure FDA0002423000860000024
即可获取该场景图像所对应的地点类别。
2.如权利要求1所述的一种基于图像的地点识别方法,其特征在于,所涉及的激活函数G(a,b,x)为:
Figure FDA0002423000860000025
3.如权利要求1所述的一种基于图像的地点识别方法,其特征在于,所涉及的激活函数G(a,b,x)为:
Figure FDA0002423000860000026
4.如权利要求1、2、3所述的任意一种基于图像的地点识别方法,其特征在于,
步骤1和10中初步特征提取方法采用自动编码器。
5.如权利要求1、2、3所述的任意一种基于图像的地点识别方法,其特征在于,
步骤1和10中初步特征提取方法采用视觉词典。
6.如权利要求4所述的任意一种基于图像的地点识别方法,其特征在于,
所述自动编码器包括至少一个卷积层和一个池化层。
CN202010211561.1A 2020-03-24 2020-03-24 一种基于图像的地点识别方法 Withdrawn CN111428640A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010211561.1A CN111428640A (zh) 2020-03-24 2020-03-24 一种基于图像的地点识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010211561.1A CN111428640A (zh) 2020-03-24 2020-03-24 一种基于图像的地点识别方法

Publications (1)

Publication Number Publication Date
CN111428640A true CN111428640A (zh) 2020-07-17

Family

ID=71548562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010211561.1A Withdrawn CN111428640A (zh) 2020-03-24 2020-03-24 一种基于图像的地点识别方法

Country Status (1)

Country Link
CN (1) CN111428640A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115506783A (zh) * 2021-06-21 2022-12-23 中国石油化工股份有限公司 一种岩性识别方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115506783A (zh) * 2021-06-21 2022-12-23 中国石油化工股份有限公司 一种岩性识别方法

Similar Documents

Publication Publication Date Title
CN108491880B (zh) 基于神经网络的物体分类和位姿估计方法
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN110135319B (zh) 一种异常行为检测方法及其系统
CN107679491B (zh) 一种融合多模态数据的3d卷积神经网络手语识别方法
CN108460356B (zh) 一种基于监控系统的人脸图像自动处理系统
CN106919920B (zh) 基于卷积特征和空间视觉词袋模型的场景识别方法
CN111709310B (zh) 一种基于深度学习的手势跟踪与识别方法
CN108416394A (zh) 基于卷积神经网络的多目标检测模型构建方法
Wang et al. Deep convolutional neural network applies to face recognition in small and medium databases
CN112016601B (zh) 基于知识图谱增强小样本视觉分类的网络模型构建方法
CN110097060B (zh) 一种面向树干图像的开集识别方法
CN107066951B (zh) 一种人脸自发表情的识别方法及系统
CN111079847A (zh) 一种基于深度学习的遥感影像自动标注方法
CN113177612B (zh) 一种基于cnn少样本的农业病虫害图像识别方法
CN107169117A (zh) 一种基于自动编码器和dtw的手绘图人体运动检索方法
CN111461025A (zh) 一种自主进化的零样本学习的信号识别方法
CN104966052A (zh) 基于属性特征表示的群体行为识别方法
CN108573232B (zh) 基于卷积神经网络的人体动作识别方法
CN113705596A (zh) 图像识别方法、装置、计算机设备和存储介质
CN114329031A (zh) 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法
CN109685823B (zh) 一种基于深度森林的目标跟踪方法
CN110728186A (zh) 一种基于多网融合的火灾检测方法
CN111428640A (zh) 一种基于图像的地点识别方法
Hanni et al. Deep learning framework for scene based indoor location recognition
CN111160161B (zh) 一种基于噪声剔除的自步学习人脸年龄估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200717

WW01 Invention patent application withdrawn after publication