CN110096985B - 一种基于图像特征和gps定位的城市建筑物识别方法 - Google Patents
一种基于图像特征和gps定位的城市建筑物识别方法 Download PDFInfo
- Publication number
- CN110096985B CN110096985B CN201910327154.4A CN201910327154A CN110096985B CN 110096985 B CN110096985 B CN 110096985B CN 201910327154 A CN201910327154 A CN 201910327154A CN 110096985 B CN110096985 B CN 110096985B
- Authority
- CN
- China
- Prior art keywords
- image
- building
- gradient
- color
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Analysis (AREA)
Abstract
一种基于图像特征和GPS定位的城市建筑物识别方法,首先,智能设备系统开始初始化,图像预处理模块处理图像,并将位置信息储存至数据库,同时将图像信息传递至建筑物特征提取模块,对图像进行纹理和颜色特征提取并融合,通过计算机训练降维与分类模块中的极限学习机,然后,通过获取位置信息模块与降维与分类模块识别目标城市建筑物;使用户在导航结束后,能快速找到目标建筑物,解决了导航软件导航结束后,用户从小范围的建筑物群进入目标建筑物这一段距离的导航问题,提高办事效率,有效解决了现代化大都市出行难的问题。
Description
技术领域
本发明涉及计算机视觉识别技术领域,特别是涉及一种基于图像特征和GPS定位的城市建筑物识别方法。
背景技术
用户想要到达陌生的目的地,其采用传统的导航方法就可以到达。但在城市里,用户到达目标建筑物附近后,导航就结束了,在小范围的建筑物群内,用户需要再次寻找目标建筑物,在高楼林立的市区和建筑物没有明显标志的情况下,用户较难辨别自己的目标建筑物,这种情况下,用户需要浪费很长的时间和精力去寻找目标建筑物,因此,会严重影响办事效率,有时由于时间超时,甚至带来很大的经济损失。目前,还没有一种比较简洁的方法,能够指引用户方便、快捷到达目标建筑物。
发明内容
本发明针对导航结束后,在小范围的建筑物群内,用户无法方便、快捷寻找到目标建筑物问题,构思了使用移动设备拍摄建筑物图像提取纹理和颜色特征,使用自编码器降维和极限学习机,识别出建筑物的名称,再通过GPS定位信息对识别结果进行确认识别过程,创造性提出了一种基于图像特征和GPS定位的城市建筑物识别方法,使用户在导航结束后,能快速找到目标建筑物,解决了导航软件导航结束后,用户从小范围的建筑物群进入目标建筑物这一段距离的导航问题。
本发明采用的技术方案是:一种基于图像特征和GPS定位的城市建筑物识别方法,其特征是,它包括以下步骤:
(1)系统参数初始化的过程:
(1.1)使用智能设备获取城市建筑物中各建筑物的彩色图像,并将其导入智能设备中城市建筑物识别系统,对每一张输入该系统的彩色图像,按照w×h的固定尺寸进行图像缩放,缩放过程为:
(1.1.1)城市建筑物识别系统接收到一个尺寸为m×n的彩色图像;
(1.1.2)将每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像,将其传递给数据库模块中的数据库存储;
(1.2)使用具有GPS功能的智能设备进行相应建筑物地理位置搜集,其经度和维度分别用度、分、秒的形式进行保存,与步骤(1.1)中采集的对应城市建筑物图像相结合,共同定义建筑物名称,将其放到数据库中存储,并传递给建筑物特征提取模块;
(1.3)在建筑物特征提取模块中,将建筑物彩色样本图像统一尺寸为160×120,分别进行以下处理:
(1.3.1)对每一张样本图像P,提取该图像P所含有的纹理特征,其过程为:
(1.3.1.1)在存储系统中的彩色图像P水平和垂直方向上,分别使用[-1,0,1]和[-1,0,1]T两个梯度算子进行卷积操作,得到图像P在R、G、B三个通道上的水平和垂直方向上的梯度分量,用gradscalx表示R、G、B三个通道上的水平梯度分量,用gradscaly表示R、G、B三个通道上的垂直梯度分量;
(1.3.1.2)根据彩色图像P的R、G、B三个通道水平和垂直梯度值,计算图像P中每个像素点(x,y)处梯度的幅值和方向,计算过程如下:
由于输入图像P是三维彩色图像,因此需要对图像P的R、G、B三个通道共同计算,分别得到R、G、B三个通道上的梯度值,即一个三维矩阵,用maxgrad表示,然后从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,组成的一个梯度值矩阵,maxgrad的计算方式如下:
通过从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,得到了一个彩色图像的梯度值矩阵,该矩阵是一个二维矩阵,矩阵中的每个点代表图像中该点的梯度幅值,梯度的方向需要通过二维的水平和垂直方向上的梯度分量计算得到,因此首先对三维水平和垂直梯度分量进行R、G、B三通道最大值筛选,计算出二维的水平梯度分量Gx和垂直梯度分量Gy,计算过程需要一个单层循环完成:
for n=1,2,3
%每个点的RGB分量分别求梯度并取三者最大的值
end
通过上述操作得到的图像P的二维水平方向上的梯度分量Gx和垂直方向上的梯度分量Gy,计算出P中每个像素处的梯度角度θ:
(1.3.1.3)根据图像P的长度和宽度,设置均匀分布于整个图像P的多个采样点,在每个采样点p处都会统计一个关于全局的梯度直方图特征向量,近邻敏感梯度方向直方图特征向量Hp计算如下:
其中,m和n分别是图像的宽度和高度,通过q对图像P中的所有像素点进行遍历,α是敏感参数,θq表示像素点q所在位置的梯度角,Vb(θq,b)的计算公式如下:
其中,|Gq|代表像素点q处计算的梯度的模,通过判断像素点q处的梯度角是否落在bin b中,如果像素点q处的梯度角落在bin b中,则将像素点q处的梯度的模累乘以α后累加到bin b上,公式采用敏感参数α来控制像素q对Hp贡献度的大小,根据像素点与采样点之间距离的远近设置相应的权值,距离越远,对该点的贡献越小,权值也越小,通过这种方式,对每个采样点提取近邻敏感梯度方向直方图纹理特征,将多个采样点出的近邻敏感梯度方向直方图进行组合,共同组成图像P的纹理特征向量;
(1.3.2)对每一张样本图像P,提取该图像P所含有的颜色特征,其过程为:
(1.3.2.1)将彩色图像P进行颜色量化,量化到更少的颜色空间,首先,将像素点q(r,g,b)中的R、G、B三个分量的像素值转化成8位二进制数,然后根据三个分量设置的量化数量R_BITS、G_BITS、B_BITS进行右移,右移的二进制个数分别为(8-R_BITS、8-G_BITS、8-B_BITS),量化颜色的过程如下:
R1=bitshift(R,-(8-R_BITS));
G1=bitshift(G,-(8-G_BITS));
B1=bitshift(B,-(8-B_BITS));
I=R1+G1*2R_BITS+B1*2R_BITS*2G_BITS;
使用(R1,G1,B1)表示转换后的十进制数,此时(r,g,b)像素点的三个分量取值范围从0~255的256个颜色,量化成新像素点(r1,g1,b1)的三个分量取值范围为0~2R1-1的2R1个颜色;然后通过公式I=R1+G1*2R_BITS+B1*2R-BITS*2G_BITS将彩色图像P的像素值成功量化成新像素值I,最终将256个颜色量化为(C1,C2,...,Cn)共n个颜色的颜色空间;
(1.3.2.2)由于使用的是颜色自相关图提取图像的颜色特征,颜色自相关图只考虑同一图像中相同颜色之间的空间分布关系,因此只需要对量化后的颜色进行数量统计,假设图像为P(x,y),x、y为图像坐标,含有n个量化后的颜色(C1,C2,...,Cn),取距离为d统计颜色自相关图的颜色对数量,做成统计直方图,直方图中的每个bin的大小都是在满足以下公式时进行计算:
bin(Ci,Cj)=∑x,y{||I(x,y,Ci)-I(x,y,cj)||=d}
其中,||*||表示像素值为Ci,Cj的两个像素的空间距离,图像自相关图中的Ci=Cj,在整个图像P中统计距离为d的像素对个数;
(1.3.2.3)图像自相关图的本质是距离为d的像素对中每个颜色对所占有的概率,将步骤(1.3.2.2)中获得的相同颜色对的数量除以所有距离为d的像素对,获得最终的图像P自相关图的概率;
(1.3.3)从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,其过程为:提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
(1.4)在计算机上完成降维和分类模块的初始化过程,在初始化的过程中,接收到从建筑物特征提取模块传递来的融合特征(x1,x2,....xn,y1,y2,...,ym),然后进行如下操作:
(1.4.1)将高维的特征向量压缩成低维的特征向量,训练一个具有降维效果欠完备自编码器,通过编码器和解码器的共同协作,以尽量实现输出对输入的复现,使用这些特征对自编码器网络进行训练,并通过训练好的自编码器对这些特征进行降维处理,其过程为:
(1.4.1.1)初始化一个单层的欠完备自编码器网络,进行网络参数初始化,给空白网络的参数赋上一个随机的值,以供接下来的训练过程进行参数修改;
(1.4.1.2)当特征向量从输入层输入到网络时,需要经过编码器的编码过程和解码器的解码过程,将输入的特征向量编码后,再解码输出,以求输出层的输出能够还原出输入层输入的特征向量;
(1.4.1.3)将所有特征向量输入后,使用均方误差方法定义损失,然后通过小批量梯度下降法对欠完备自编码器的参数进行反向调整,循环训练epoch次,epoch达到预设的次数之后,训练结束,最终得到的模型就是训练好的欠完备自编码器,将训练自编码器的特征重新输入到自编码器,取得自编码器隐含层的输出,作为降维后的特征;
(1.4.2)用所述的降维后的特征训练极限学习机,其过程为:
(1.4.2.1)在计算刚开始时,会为极限学习机的隐含层节点随机分配参数,该节点参数包含权重W和偏置b,并且该隐含层的节点参数与输入数据互不影响,完全独立;
(1.4.2.2)当N行训练数据输入时,通过输入数据和隐含层节点参数,计算隐含层的输出矩阵,输出矩阵为N行M列,行数为输入数据的行数,列数为隐含层的节点数;
(1.4.2.3)通过N行M列输出矩阵和输出节点的个数L和期望输出T,求解大小为L行M列的输出权重矩阵,通过反向求解的方式,求得隐含层的输出权重,通过这种方式将输入数据的数据空间映射到极限学习机的特征空间中,再映射到输出;
(1.4.2.4)将训练所得的极限学习机分类器保存起来用于分类过程,然后导入智能设备中城市建筑物识别系统中;
(2)目标城市建筑物识别过程:
(2.1)使用智能设备拍摄目标城市建筑物的图像P,将其导入到基于图像特征和GPS定位的城市建筑物识别系统中,按照w×h的固定尺寸进行图像缩放,缩放过程为:
(2.1.1)城市建筑物识别系统接收一个尺寸为m×n的彩色图像;
(2.1.2)然后每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像传递给建筑物特征提取模块;
(2.2)获取位置信息模块在识别过程中,借助移动设备的GPS定位系统,获取用户的当前位置信息,当前位置信息由该位置坐标的经度和纬度(Long,Lat)构成,经度和维度分别用度、分、秒的形式表示,从而获取到当前位置在整个经纬网中的坐标,并将其发送给数据库模块;
(2.3)数据库模块在识别过程中,接受获取位置信息模块传递过来的GPS定位信息,然后以当前位置的经纬度坐标作为圆心,方圆200米的距离作为半径,形成了一个面积为2002π(m2)的圆,在数据库中搜索所有满足条件的建筑物信息,建筑物信息中包含该建筑物的经纬度坐标(Longi,Latj)以及建筑物的名称,将建筑物经纬度与圆心经纬度通过进行限制,以检测建筑物是否是当前位置周围200米范围内的建筑物,如果检测结果显示建筑物在200米范围内,则该建筑物坐标点处的值设置为1,并把该建筑物的名称加入到候选建筑物列表中,若不在200米范围内,则该建筑物坐标点处的值设置为0,并且不将其加入候选建筑物列表中,最后将生成的候选建筑物列表发送给获取位置信息模块;
(2.4)建筑物特征提取模块在识别过程中,接收到从图像缩放模块传递来的已经过缩放的图像,对图像进行特征提取,其过程如下:
(2.4.1)按照步骤(1.3.1)提取一整幅缩放后的建筑物图像P纹理特征;
(2.4.2)按照步骤(1.3.2)提取一整幅缩放后的建筑物图像P颜色特征;
(2.4.3)图像的纹理和颜色特征进行特征级融合,其过程如下:
从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
(2.5)在智能设备应用程序上,降维和分类模块识别过程中,接收由建筑物特征提取模块传递过来的融合特征,处理过程如下:
(2.5.1)将特征输入到自编码器的输入层,通过自编码器的中间层的输出实现特征的降维,其过程为:
(2.5.1.1)将接收到的特征向量(x1,x2,...,xn,y1,y2,...,ym),记作input,将input特征向量从训练好的自编码器的输入层输入;
(2.5.1.2)当特征输入到自编码器后,首先经过的是一个编码器encoder,在encoder中对input进行加权和加偏置操作,然后经过编码函数f(·)得到一个特征code,这个code就是input的另外一种维度更低的表示形式;
(2.5.1.3)将所有特征向量,对从编码器encoder中输出的code特征向量进行保存,就实现了近邻敏感梯度方向直方图特征和自相关图特征融合的特征向量的降维过程;
(2.5.2)经过极限学习机训练阶段,生成了一个用于对降维后特征进行分类的极限学习机网络,当系统接收到一张新拍摄的图像,经过缩放、特征提取、降维后,从极限学习机的输入层输入,经过初始化后不变的隐含层节点,进行加权加偏置,然后使用sigmoid激活函数进行激活,得到隐含层的输出矩阵,根据训练过程计算的隐含层的输出权重,通过如下公式得到该图像所有可能的识别结果,
(2.6)输出模块在识别过程中,该模块将会接收到步骤(2.2)中根据GPS获取的位置信息得到的候选建筑物和步骤(2.5)中图像经过分类器后的分类结果;其中,分类器的分类结果是由建筑物名称和输入图像可能是该建筑物的概率组成,并按逆序排列,概率最大的建筑物名称和概率信息排在前列,而候选建筑物信息则以建筑物名称为主,排列顺序是随机;
分类器对一张图像的分类有n个可能的结果,候选建筑物有m个待选名称,则在使用分类器分类结果class_name与候选建筑物build结合进行目标识别的过程,主要是通过一个双层循环完成的,外层循环表示对分类结果的遍历,从0~n-1共n个可能的分类结果,内层循环是对候选建筑物的遍历,从0~m-1共m个建筑物名称,然后从可能的分类结果的高概率建筑物开始,依次判断是否在候选建筑物中存在,如果存在,则认为当前的建筑物名称就是目标建筑物的名称,并且返回结果,结束循环;如果不存在,则认为该名称不是目标建筑物的名称,跳过该可能的分类结果,使用下一个可能的分类结果继续进行对比判断,直到找到正确的分类结果,并在智能设备应用程序上输出显示。
本发明一种基于图像特征和GPS定位的城市建筑物识别方法的有益效果体现在:
1、一种基于图像特征和GPS定位的城市建筑物识别方法的应用,在小范围的建筑物群中,帮助用户快速找到要去的目标建筑物,解决了导航结束到用户进入目标建筑物这一段导航信息的空白;
2、一种基于图像特征和GPS定位的城市建筑物识别方法的应用,可有效降低到达目的地的时间,提高办事效率,降低了人力资源成本,有效解决了现代化大都市出行难的问题。
附图说明
图1是一种基于图像特征和GPS定位的城市建筑物识别方法的系统参数初始化流程图;
图2是一种基于图像特征和GPS定位的城市建筑物识别方法的系统的目标城市建筑物识别流程图。
具体实施方式
以下结合附图和具体实施方式对本发明作进一步详细说明,此处所描述的具体实施方式仅用以解释本发明,并不用于限定本发明。
一种基于图像特征和GPS定位的城市建筑物识别方法,其包括以下步骤:
(1)参照附图1,系统参数初始化的过程:
(1.2)(1.1)使用智能手机,获取城市建筑物中各建筑物的彩色图像,并将其导入手机中的城市建筑物识别系统,对每一张输入该系统的彩色图像按照w×h的固定尺寸进行图像缩放,缩放过程为:
(1.1.1)城市建筑物识别系统接收到一个尺寸为m×n的彩色图像;
(1.1.2)将每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像,将其传递给数据库模块中的数据库存储;
(1.2)使用智能手机进行相应建筑物地理位置搜集,其经度和维度分别用度、分、秒的形式进行保存,与步骤(1.1)中采集的对应城市建筑物图像相结合,共同定义建筑物名称,将其放到数据库中存储,并传递给建筑物特征提取模块;
(1.3)在建筑物特征提取模块中,将建筑物彩色样本图像统一尺寸为160×120,分别进行以下处理:
(1.3.1)对每一张样本图像P,提取该图像P所含有的纹理特征,其过程为:
(1.3.1.1)在存储系统中的彩色图像P水平和垂直方向上,分别使用[-1,0,1]和[-1,0,1]T两个梯度算子进行卷积操作,得到图像P在R、G、B三个通道上的水平和垂直方向上的梯度分量,用gradscalx表示R、G、B三个通道上的水平梯度分量,用gradscaly表示R、G、B三个通道上的垂直梯度分量;
(1.3.1.2)根据彩色图像P的R、G、B三个通道水平和垂直梯度值,计算图像P中每个像素点(x,y)处梯度的幅值和方向,计算过程如下:
由于输入图像P是三维彩色图像,因此需要对图像P的R、G、B三个通道共同计算,分别得到R、G、B三个通道上的梯度值,即一个三维矩阵,用maxgrad表示,然后从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,组成的一个梯度值矩阵,maxgrad的计算方式如下:
通过从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,得到了一个彩色图像的梯度值矩阵,该矩阵是一个二维矩阵,矩阵中的每个点代表图像中该点的梯度幅值,梯度的方向需要通过二维的水平和垂直方向上的梯度分量计算得到,因此首先对三维水平和垂直梯度分量进行R、G、B三通道最大值筛选,计算出二维的水平梯度分量Gx和垂直梯度分量Gy,计算过程需要一个单层循环完成:
for n=1,2,3
%每个点的RGB分量分别求梯度并取三者最大的值
end
通过上述操作得到的图像P的二维水平方向上的梯度分量Gx和垂直方向上的梯度分量Gy,计算出P中每个像素处的梯度角度θ:
(1.3.1.3)根据图像P的长度和宽度,设置均匀分布于整个图像P的多个采样点,在每个采样点p处都会统计一个关于全局的梯度直方图特征向量,近邻敏感梯度方向直方图特征向量Hp计算如下:
其中,m和n分别是图像的宽度和高度,通过q对图像P中的所有像素点进行遍历,α是敏感参数,θq表示像素点q所在位置的梯度角,Vb(θq,b)的计算公式如下:
其中,|Gq|代表像素点q处计算的梯度的模,通过判断像素点q处的梯度角是否落在bin b中,如果落在bin b中,则将像素点q处的梯度的模累乘以α后累加到bin b上,公式采用敏感参数α来控制像素q对Hp贡献度的大小,根据像素点与采样点之间距离的远近设置相应的权值,距离越远,对该点的贡献越小,权值也越小,通过这种方式,对每个采样点提取近邻敏感梯度方向直方图纹理特征,将多个采样点出的近邻敏感梯度方向直方图进行组合,共同组成图像P的纹理特征向量;
(1.3.2)对每一张样本图像P,提取该图像P所含有的颜色特征,其过程为:
(1.3.2.1)将彩色图像P进行颜色量化,量化到更少的颜色空间,首先,将像素点q(r,g,b)中的R、G、B三个分量的像素值转化成8位二进制数,然后根据三个分量设置的量化数量R_BITS、G_BITS、B_BITS进行右移,右移的二进制个数分别为(8-R_BITS、8-G_BITS、8-B_BITS),量化颜色的过程如下:
R1=bitshiff(R,-(8-R_BITS));
G1=bitshift(G,-(8-G_BITS));
B1=bitshit(B,-(8-B_BITS));
I=R1+G1*2R_BITS+B1*2R_BITS*2G_BITS;
使用(R1,G1,B1)表示转换后的十进制数,此时(r,g,b)像素点的三个分量取值范围从0~255的256个颜色,量化成新像素点(r1,g1,b1)的三个分量取值范围为0~2R1-1的2R1个颜色;然后通过公式I=R1+G1*2R_BITS+B1*2R_BITS*2G_BITS将彩色图像P的像素值成功量化成新像素值I,最终将256个颜色量化为(C1,C2,..,Cn)共n个颜色的颜色空间;
(1.3.2.2)由于使用的是颜色自相关图提取图像的颜色特征,颜色自相关图只考虑同一图像中相同颜色之间的空间分布关系,因此只需要对量化后的颜色进行数量统计。假设图像为P(x,y),x、y为图像坐标,含有n个量化后的颜色(C1,C2,...,Cn),取距离为d统计颜色自相关图的颜色对数量,做成统计直方图,直方图中的每个bin的大小都是在满足以下公式时进行计算。
bin(Ci,Cj)=∑x,y{||I(x,y,Ci)-I(x,y,Cj)||=d}
其中,||*||表示像素值为Ci,Cj的两个像素的空间距离,图像自相关图中的Ci=Cj,在整个图像P中统计距离为d的像素对个数。
(1.3.2.3)图像自相关图的本质是距离为d的像素对中每个颜色对所占有的概率,将步骤(1.3.2.2)中获得的相同颜色对的数量除以所有距离为d的像素对,获得最终的图像P自相关图的概率;
(1.3.3)从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,其过程为:提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
1.4)在计算机上完成降维和分类模块的初始化过程,在初始化的过程中,接收到从建筑物特征提取模块传递来的融合特征(x1,x2,...,xn,y1,y2,...,ym),然后进行如下操作:
(1.4.1)将高维的特征向量压缩成低维的特征向量,训练一个具有降维效果欠完备自编码器,通过编码器和解码器的共同协作,以尽量实现输出对输入的复现,使用这些特征对自编码器网络进行训练,并通过训练好的自编码器对这些特征进行降维处理,其过程为:
(1.4.1.1)初始化一个单层的欠完备自编码器网络,进行网络参数初始化,给空白网络的参数赋上一个随机的值,以供接下来的训练过程进行参数修改;
(1.4.1.2)当特征向量从输入层输入到网络时,需要经过编码器的编码过程和解码器的解码过程,将输入的特征向量编码后,再解码输出,以求输出层的输出能够还原出输入层输入的特征向量;
(1.4.1.3)将所有特征向量输入后,使用均方误差方法定义损失,然后通过小批量梯度下降法对欠完备自编码器的参数进行反向调整,循环训练epoch次,epoch达到预设的次数之后,训练结束,最终得到的模型就是训练好的欠完备自编码器,将训练自编码器的特征重新输入到自编码器,取得自编码器隐含层的输出,作为降维后的特征;
(1.4.2)所述的用降维后的特征训练极限学习机,其过程为:
(1.4.2.1)在计算刚开始时,会为极限学习机的隐含层节点随机分配参数,该节点参数包含权重W和偏置b,并且该隐含层的节点参数与输入数据互不影响,完全独立;
(1.4.2.2)当N行训练数据输入时,通过输入数据和隐含层节点参数,计算隐含层的输出矩阵。输出矩阵为N行M列,的行数为输入数据的行数,列数为隐含层的节点数;
(1.4.2.3)通过N行M列输出矩阵和输出节点的个数L和期望输出T,求解大小为L行M列的输出权重矩阵,通过反向求解的方式,求得隐含层的输出权重,通过这种方式将输入数据的数据空间映射到极限学习机的特征空间中,再映射到输;
(1.4.2.4)将训练所得的极限学习机分类器保存起来用于分类过程,然后导入智能手机中城市建筑物识别系统中;
(2)参照附图2,目标城市建筑物识别过程:
(2.1)使用智能手机拍摄目标城市建筑物的图像P,将其导入到基于图像特征和GPS定位的城市建筑物识别系统中,按照w×h的固定尺寸进行图像缩放,缩放过程为:
(2.1.1)城市建筑物识别系统接收一个尺寸为m×n的彩色图像;
(2.1.2)然后每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像传递给建筑物特征提取模块;
(2.2)在识别过程中,数据库模块获取位置信息模块传递过来的GPS定位信息,根据数据库中保存的建筑物的GPS数据信息,来计算出候选建筑物信息,候选建筑物信息包含建筑物的名称和GPS地理位置信息,将候选建筑物信息发送给获取位置信息模块;
(2.3)建筑物特征提取模块在识别过程中,接收到从图像缩放模块传递来的已经过缩放的图像,对图像进行特征提取,其过程如下:
(2.3.1)按照步骤(1.3.1)提取一整幅缩放后的建筑物图像P纹理特征;
(2.3.2)按照步骤(1.3.2)提取一整幅缩放后的建筑物图像P颜色特征;
(2.3.3)图像的纹理和颜色特征进行特征级融合,其过程如下:
从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
(2.4)在智能设备应用程序上,降维和分类模块识别过程中,接收由建筑物特征提取模块传递过来的融合特征,处理过程如下:
(2.4.1)将特征输入到自编码器的输入层,通过自编码器的中间层的输出实现特征的降维,其过程为:
(2.4.1.1)将接收到的特征向量(x1,x2,...,xn,y1,y2,...,ym),记作input,将input特征向量从训练好的自编码器的输入层输入;
(2.4.1.2)当特征输入到自编码器后,首先经过的是一个编码器encoder,在encoder中对input进行加权和加偏置操作,然后经过编码函数f(·)得到一个特征code,这个code就是input的另外一种维度更低的表示形式;
(2.4.1.3)将所有特征向量,对从编码器encoder中输出的code特征向量进行保存,就实现了近邻敏感梯度方向直方图特征和自相关图特征融合的特征向量的降维过程;
(2.4.2)经过极限学习机训练阶段,生成了一个用于对降维后特征进行分类的极限学习机网络,当系统接收到一张新拍摄的图像,经过缩放、特征提取、降维后,从极限学习机的输入层输入,经过初始化后不变的隐含层节点,进行加权加偏置,然后使用sigmoid激活函数进行激活,得到隐含层的输出矩阵,根据训练过程计算的隐含层的输出权重,通过如下公式得到该图像所有可能的识别结果,
(2.5)获取位置信息模块在识别过程中,该模块需要借助移动设备的GPS定位系统,获取用户的当前位置信息,当前位置信息由该位置坐标的经度和纬度(Long,Lat)构成,经度和维度分别用度、分、秒的形式表示,从而获取到当前位置在整个经纬网中的坐标,然后以当前位置的经纬度坐标作为圆心,方圆200米的距离作为半径,形成了一个面积为2002π(m2)的圆,在数据库中搜索所有满足条件的建筑物信息,建筑物信息中包含该建筑物的经纬度坐标(Longi,Latj)以及建筑物的名称,将建筑物经纬度与圆心经纬度通过进行限制,以检测建筑物是否是当前位置周围200米范围内的建筑物,如果检测结果显示建筑物在200米范围内,则该建筑物坐标点处的值设置为1,并把该建筑物的名称加入到候选建筑物列表中,若不在200米范围内,则该建筑物坐标点处的值设置为0,并且不将其加入候选建筑物列表中,最后将生成的候选建筑物列表传递给输出模块;
(2.6)输出模块在识别过程中,该模块将会接收到步骤(2.2)中根据GPS获取的位置信息得到的候选建筑物和步骤(2.4)中图像经过分类器后的分类结果;
其中,分类器的分类结果是由建筑物名称和输入图像可能是该建筑物的概率组成,并按逆序排列,概率最大的建筑物名称和概率信息排在前列,而候选建筑物信息则以建筑物名称为主,排列顺序是随机;
分类器对一张图像的分类有n个可能的结果,候选建筑物有m个待选名称,则在使用分类器分类结果class_name与候选建筑物build结合进行目标识别的过程,主要是通过一个双层循环完成的,外层循环表示对分类结果的遍历,从0~n-1共n个可能的分类结果,内层循环是对候选建筑物的遍历,从0~m-1共m个建筑物名称,然后从可能的分类结果的高概率建筑物开始,依次判断是否在候选建筑物中存在,如果存在,则认为当前的建筑物名称就是目标建筑物的名称,并且返回结果,结束循环;如果不存在,则认为该名称不是目标建筑物的名称,跳过该可能的分类结果,使用下一个可能的分类结果继续进行对比判断,直到找到正确的分类结果,并在智能设备应用程序上输出显示。
以上所述仅是本发明的优选方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应该视为本发明的保护范围。
Claims (1)
1.一种基于图像特征和GPS定位的城市建筑物识别方法,其特征是,它包括以下步骤:
(1)系统参数初始化的过程:
(1.1)使用智能设备获取城市建筑物中各建筑物的彩色图像,并将其导入智能设备中城市建筑物识别系统,对每一张输入该系统的彩色图像,按照w×h的固定尺寸进行图像缩放,缩放过程为:
(1.1.1)城市建筑物识别系统接收到一个尺寸为m×n的彩色图像;
(1.1.2)将每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像,将其传递给数据库模块中的数据库存储;
(1.2)使用具有GPS功能的智能设备,进行相应建筑物地理位置搜集,其经度和维度分别用度、分、秒的形式进行保存,与步骤(1.1)中采集的对应城市建筑物图像相结合,共同定义建筑物名称,将其放到数据库中存储,并传递给建筑物特征提取模块;
(1.3)在建筑物特征提取模块中,将建筑物彩色样本图像统一尺寸为160×120,分别进行以下处理:
(1.3.1)对每一张样本图像P,提取该图像P所含有的纹理特征,其过程为:
(1.3.1.1)在存储系统中的彩色图像P水平和垂直方向上,分别使用[-1,0,1]和[-1,0,1]T两个梯度算子进行卷积操作,得到图像P在R、G、B三个通道上的水平和垂直方向上的梯度分量,用gradscalx表示R、G、B三个通道上的水平梯度分量,用gradscaly表示R、G、B三个通道上的垂直梯度分量;
(1.3.1.2)根据彩色图像P的R、G、B三个通道水平和垂直梯度值,计算图像P中每个像素点(x,y)处梯度的幅值和方向,计算过程如下:
由于输入图像P是三维彩色图像,因此,需要对图像P的R、G、B三个通道共同计算,分别得到R、G、B三个通道上的梯度值,即一个三维矩阵,用maxgrad表示,然后从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,组成的一个梯度值矩阵,maxgrad的计算方式如下:
通过从maxgrad中选出每一点上的R、G、B三个分量中梯度幅度最大的幅度值,得到了一个彩色图像的梯度值矩阵,该矩阵是一个二维矩阵,矩阵中的每个点代表图像中该点的梯度幅值,梯度的方向需要通过二维的水平和垂直方向上的梯度分量计算得到,因此首先对三维水平和垂直梯度分量进行R、G、B三通道最大值筛选,计算出二维的水平梯度分量Gx和垂直梯度分量Gy,计算过程需要一个单层循环完成:
for n=1,2,3
%每个点的R G B分量分别求梯度并取三者最大的值
end
通过上述操作得到的图像P的二维水平方向上的梯度分量Gx和垂直方向上的梯度分量Gy,计算出P中每个像素处的梯度角度θ:
(1.3.1.3)根据图像P的长度和宽度,设置均匀分布于整个图像P的多个采样点,在每个采样点p处都会统计一个关于全局的梯度直方图特征向量,近邻敏感梯度方向直方图特征向量Hp计算如下:
其中,m和n分别是图像的宽度和高度,通过q对图像P中的所有像素点进行遍历,α是敏感参数,θq表示像素点q所在位置的梯度角,Vb(θq,b)的计算公式如下:
其中,|Gq|代表像素点q处计算的梯度的模,通过判断像素点q处的梯度角是否落在binb中,如果像素点q处的梯度角落在bin b中,则将像素点q处的梯度的模累乘以α后累加到bin b上,公式采用敏感参数α来控制像素q对Hp贡献度的大小,根据像素点与采样点之间距离的远近设置相应的权值,距离越远,对该点的贡献越小,权值也越小,通过这种方式,对每个采样点提取近邻敏感梯度方向直方图纹理特征,将多个采样点出的近邻敏感梯度方向直方图进行组合,共同组成图像P的纹理特征向量;
(1.3.2)对每一张样本图像P,提取该图像P所含有的颜色特征,其过程为:
(1.3.2.1)将彩色图像P进行颜色量化,量化到更少的颜色空间,首先,将像素点q(r,g,b)中的R、G、B三个分量的像素值转化成8位二进制数,然后根据三个分量设置的量化数量R_BITS、G_BITS、B_BITS进行右移,右移的二进制个数分别为(8-R_BITS、8-G_BITS、8-B_BITS),量化颜色的过程如下:
R1=bitshift(R,-(8-R_BITS));
G1=bitshift(G,-(8-G_BITS));
B1=bitshift(B,-(8-B_BITS));
I=R1+G1*2R_BITS+B1*2R_BITS*2G_BITS;
使用(R1,G1,B1)表示转换后的十进制数,此时(r,g,b)像素点的三个分量取值范围从0~255的256个颜色,量化成新像素点(r1,g1,b1)的三个分量取值范围为0~2R1-1的2R1个颜色;然后通过公式I=R1+G1*2R_BITS+B1*2R_BITS*2G_BITS将彩色图像P的像素值成功量化成新像素值I,最终将256个颜色量化为(C1,C2,...,Cn)共n个颜色的颜色空间;
(1.3.2.2)由于使用的是颜色自相关图提取图像的颜色特征,颜色自相关图只考虑同一图像中相同颜色之间的空间分布关系,因此只需要对量化后的颜色进行数量统计,假设图像为P(x,y),x、y为图像坐标,含有n个量化后的颜色(C1,C2,...,Cn),取距离为d统计颜色自相关图的颜色对数量,做成统计直方图,直方图中的每个bin的大小都是在满足以下公式时进行计算:
bin(Ci,Cj)=∑x,y{||I(x,y,Ci)-I(x,y,Cj)||=d}
其中,||*||表示像素值为Ci,Cj的两个像素的空间距离,图像自相关图中的Ci=Cj,在整个图像P中统计距离为d的像素对个数;
(1.3.2.3)图像自相关图的本质是距离为d的像素对中每个颜色对所占有的概率,将步骤
(1.3.2.2)中获得的相同颜色对的数量除以所有距离为d的像素对,获得最终的图像P自相关图的概率;
(1.3.3)从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,其过程为:提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
(1.4)在计算机上完成降维和分类模块的初始化过程,在初始化的过程中,接收到从建筑物特征提取模块传递来的融合特征(x1,x2,...,xn,y1,y2,...,ym),然后进行如下操作:
(1.4.1)将高维的特征向量压缩成低维的特征向量,训练一个具有降维效果欠完备自编码器,通过编码器和解码器的共同协作,以尽量实现输出对输入的复现,使用这些特征对自编码器网络进行训练,并通过训练好的自编码器对这些特征进行降维处理,其过程为:
(1.4.1.1)初始化一个单层的欠完备自编码器网络,进行网络参数初始化,给空白网络的参数赋上一个随机的值,以供接下来的训练过程进行参数修改;
(1.4.1.2)当特征向量从输入层输入到网络时,需要经过编码器的编码过程和解码器的解码过程,将输入的特征向量编码后,再解码输出,以求输出层的输出能够还原出输入层输入的特征向量;
(1.4.1.3)将所有特征向量输入后,使用均方误差方法定义损失,然后通过小批量梯度下降法对欠完备自编码器的参数进行反向调整,循环训练epoch次,epoch达到预设的次数之后,训练结束,最终得到的模型就是训练好的欠完备自编码器,将训练自编码器的特征重新输入到自编码器,取得自编码器隐含层的输出,作为降维后的特征;
(1.4.2)用所述的降维后的特征训练极限学习机,其过程为:
(1.4.2.1)在计算刚开始时,会为极限学习机的隐含层节点随机分配参数,该节点参数包含权重W和偏置b,并且该隐含层的节点参数与输入数据互不影响,完全独立;
(1.4.2.2)当N行训练数据输入时,通过输入数据和隐含层节点参数,计算隐含层的输出矩阵,输出矩阵为N行M列,行数为输入数据的行数,列数为隐含层的节点数;
(1.4.2.3)通过N行M列输出矩阵和输出节点的个数L和期望输出T,求解大小为L行M列的输出权重矩阵,通过反向求解的方式,求得隐含层的输出权重,通过这种方式将输入数据的数据空间映射到极限学习机的特征空间中,再映射到输出;
(1.4.2.4)将训练所得的极限学习机分类器保存起来用于分类过程,然后导入智能设备中城市建筑物识别系统中;
(2)目标城市建筑物识别过程:
(2.1)使用智能设备拍摄目标城市建筑物的图像P,将其导入到基于图像特征和GPS定位的城市建筑物识别系统中,按照w×h的固定尺寸进行图像缩放,缩放过程为:
(2.1.1)城市建筑物识别系统接收一个尺寸为m×n的彩色图像;
(2.1.2)然后每张图像的列缩小m/w倍,行缩小n/h倍,生成的w×h的彩色图像传递给建筑物特征提取模块;
(2.2)获取位置信息模块在识别过程中,借助移动设备的GPS定位系统,获取用户的当前位置信息,当前位置信息由该位置坐标的经度和纬度(Long,Lat)构成,经度和维度分别用度、分、秒的形式表示,从而获取到当前位置在整个经纬网中的坐标,并将其发送给数据库模块;
(2.3)数据库模块在识别过程中,获取位置信息模块传递过来的GPS定位信息,然后以当前位置的经纬度坐标作为圆心,方圆200米的距离作为半径,形成了一个面积为2002π(m2)的圆,在数据库中搜索所有满足条件的建筑物信息,建筑物信息中包含该建筑物的经纬度坐标(Longi,Latj)以及建筑物的名称,将建筑物经纬度与圆心经纬度通过进行限制,以检测建筑物是否是当前位置周围200米范围内的建筑物,如果检测结果显示建筑物在200米范围内,则该建筑物坐标点处的值设置为1,并把该建筑物的名称加入到候选建筑物列表中,若不在200米范围内,则该建筑物坐标点处的值设置为0,并且不将其加入候选建筑物列表中,最后将生成的候选建筑物列表发送给获取位置信息模块;
(2.4)建筑物特征提取模块在识别过程中,接收到从图像缩放模块传递来的已经过缩放的图像,对图像进行特征提取,其过程如下:
(2.4.1)按照步骤(1.3.1)提取一整幅缩放后的建筑物图像P纹理特征;
(2.4.2)按照步骤(1.3.2)提取一整幅缩放后的建筑物图像P颜色特征;
(2.4.3)图像的纹理和颜色特征进行特征级融合,其过程如下:
从图像P中提取出近邻敏感梯度方向直方图和颜色自相关图后,通过特征级融合的方式进行特征融合,提取的近邻敏感梯度方向直方图的特征向量为(x1,x2,...,xn),提取的颜色自相关图的特征向量为(y1,y2,...,ym),两个特征向量通过特征级融合的方式进行组合,组合后的特征向量(x1,x2,...,xn,y1,y2,...,ym)作为图像P的特征,将两个特征向量通过特征级融合的方式拼接成一个代表图像P的特征向量,将该特征向量传递给降维和分类模块;
(2.5)在智能设备应用程序上,降维和分类模块识别过程中,接收由建筑物特征提取模块传递过来的融合特征,处理过程如下:
(2.5.1)将特征输入到自编码器的输入层,通过自编码器的中间层的输出实现特征的降维,其过程为:
(2.5.1.1)将接收到的特征向量(x1,x2,...,xn,y1,y2,...,ym),记作input,将input特征向量从训练好的自编码器的输入层输入;
(2.5.1.2)当特征输入到自编码器后,首先经过的是一个编码器encoder,在encoder中对input进行加权和加偏置操作,然后经过编码函数f(·)得到一个特征code,这个code就是input的另外一种维度更低的表示形式;
(2.5.1.3)将所有特征向量,对从编码器encoder中输出的code特征向量进行保存,就实现了近邻敏感梯度方向直方图特征和自相关图特征融合的特征向量的降维过程;
(2.5.2)经过极限学习机训练阶段,生成了一个用于对降维后特征进行分类的极限学习机网络,当系统接收到一张新拍摄的图像,经过缩放、特征提取、降维后,从极限学习机的输入层输入,经过初始化后不变的隐含层节点,进行加权加偏置,然后使用sigmoid激活函数进行激活,得到隐含层的输出矩阵,根据训练过程计算的隐含层的输出权重,通过如下公式得到该图像所有识别结果,
(2.6)输出模块在识别过程中,接收步骤(2.3)中根据GPS获取的位置信息得到的候选建筑物和步骤(2.5)中图像经过分类器后的分类结果;其中,分类器的分类结果是由建筑物名称和输入图像是该建筑物的概率组成,并按逆序排列,概率最大的建筑物名称和概率信息排在前列,而候选建筑物信息则以建筑物名称为主,排列顺序是随机;
分类器对一张图像的分类有n个结果,候选建筑物有m个待选名称,则在使用分类器分类结果class_name与候选建筑物build结合进行目标识别的过程,通过一个双层循环完成的,外层循环表示对分类结果的遍历,从0~n-1共n个分类结果,内层循环是对候选建筑物的遍历,从0~m-1共m个建筑物名称,然后从分类结果的高概率建筑物开始,依次判断是否在候选建筑物中存在,如果存在,则认为当前的建筑物名称就是目标建筑物的名称,并且返回结果,结束循环;如果不存在,则认为该名称不是目标建筑物的名称,跳过该分类结果,使用下一个分类结果,继续进行对比判断,直到找到正确的分类结果,并在智能设备应用程序上输出显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327154.4A CN110096985B (zh) | 2019-04-23 | 2019-04-23 | 一种基于图像特征和gps定位的城市建筑物识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327154.4A CN110096985B (zh) | 2019-04-23 | 2019-04-23 | 一种基于图像特征和gps定位的城市建筑物识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110096985A CN110096985A (zh) | 2019-08-06 |
CN110096985B true CN110096985B (zh) | 2022-09-20 |
Family
ID=67445580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910327154.4A Active CN110096985B (zh) | 2019-04-23 | 2019-04-23 | 一种基于图像特征和gps定位的城市建筑物识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110096985B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112485394A (zh) * | 2020-11-10 | 2021-03-12 | 浙江大学 | 一种基于稀疏自编码和极限学习机的水质软测量方法 |
CN112541467A (zh) * | 2020-12-21 | 2021-03-23 | 杭州光粒科技有限公司 | 信息显示方法、装置及设备、存储介质 |
CN114926655B (zh) * | 2022-05-20 | 2023-09-26 | 北京百度网讯科技有限公司 | 地理与视觉跨模态预训练模型的训练方法、位置确定方法 |
CN115578643B (zh) * | 2022-12-06 | 2023-02-17 | 东莞先知大数据有限公司 | 一种农田区域建筑检测方法、电子设备和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1789101A (zh) * | 1998-01-20 | 2006-06-21 | 甘尼特人造卫星信息网络公司 | 用在电梯中的信息传播系统 |
CN103888900A (zh) * | 2014-02-21 | 2014-06-25 | 毛蔚青 | 基于移动终端位置所属建筑物或地理区域的自动识别方法 |
CN104049245A (zh) * | 2014-06-13 | 2014-09-17 | 中原智慧城市设计研究院有限公司 | 基于LiDAR点云空间差异分析的城市建筑物变化检测方法 |
CN104281840A (zh) * | 2014-09-28 | 2015-01-14 | 无锡清华信息科学与技术国家实验室物联网技术中心 | 一种基于智能终端定位识别建筑物的方法及装置 |
CN104573735A (zh) * | 2015-01-05 | 2015-04-29 | 广东小天才科技有限公司 | 基于图像拍摄以优化定位的方法、智能终端及服务器 |
CN105160327A (zh) * | 2015-09-16 | 2015-12-16 | 小米科技有限责任公司 | 建筑物识别方法和装置 |
CN106649597A (zh) * | 2016-11-22 | 2017-05-10 | 浙江大学 | 一种基于图书内容的图书书后索引自动构建方法 |
CN108154158A (zh) * | 2017-12-18 | 2018-06-12 | 西安交通大学 | 一种面向增强现实应用的建筑物图像分割方法 |
CN108399424A (zh) * | 2018-02-06 | 2018-08-14 | 深圳市建设综合勘察设计院有限公司 | 一种点云分类方法、智能终端及存储介质 |
JP2018141721A (ja) * | 2017-02-28 | 2018-09-13 | ソフトバンク株式会社 | 建物特定装置、通信端末、建物特定方法、及びプログラム |
CN109034066A (zh) * | 2018-07-27 | 2018-12-18 | 北方工业大学 | 基于多特征融合的建筑物识别方法 |
CN109073404A (zh) * | 2016-05-02 | 2018-12-21 | 谷歌有限责任公司 | 用于基于地标和实时图像生成导航方向的系统和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8180146B2 (en) * | 2009-12-22 | 2012-05-15 | The Chinese University Of Hong Kong | Method and apparatus for recognizing and localizing landmarks from an image onto a map |
US9411327B2 (en) * | 2012-08-27 | 2016-08-09 | Johnson Controls Technology Company | Systems and methods for classifying data in building automation systems |
US10038838B2 (en) * | 2015-05-29 | 2018-07-31 | Hover Inc. | Directed image capture |
-
2019
- 2019-04-23 CN CN201910327154.4A patent/CN110096985B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1789101A (zh) * | 1998-01-20 | 2006-06-21 | 甘尼特人造卫星信息网络公司 | 用在电梯中的信息传播系统 |
CN103888900A (zh) * | 2014-02-21 | 2014-06-25 | 毛蔚青 | 基于移动终端位置所属建筑物或地理区域的自动识别方法 |
CN104049245A (zh) * | 2014-06-13 | 2014-09-17 | 中原智慧城市设计研究院有限公司 | 基于LiDAR点云空间差异分析的城市建筑物变化检测方法 |
CN104281840A (zh) * | 2014-09-28 | 2015-01-14 | 无锡清华信息科学与技术国家实验室物联网技术中心 | 一种基于智能终端定位识别建筑物的方法及装置 |
CN104573735A (zh) * | 2015-01-05 | 2015-04-29 | 广东小天才科技有限公司 | 基于图像拍摄以优化定位的方法、智能终端及服务器 |
CN105160327A (zh) * | 2015-09-16 | 2015-12-16 | 小米科技有限责任公司 | 建筑物识别方法和装置 |
CN109073404A (zh) * | 2016-05-02 | 2018-12-21 | 谷歌有限责任公司 | 用于基于地标和实时图像生成导航方向的系统和方法 |
CN106649597A (zh) * | 2016-11-22 | 2017-05-10 | 浙江大学 | 一种基于图书内容的图书书后索引自动构建方法 |
JP2018141721A (ja) * | 2017-02-28 | 2018-09-13 | ソフトバンク株式会社 | 建物特定装置、通信端末、建物特定方法、及びプログラム |
CN108154158A (zh) * | 2017-12-18 | 2018-06-12 | 西安交通大学 | 一种面向增强现实应用的建筑物图像分割方法 |
CN108399424A (zh) * | 2018-02-06 | 2018-08-14 | 深圳市建设综合勘察设计院有限公司 | 一种点云分类方法、智能终端及存储介质 |
CN109034066A (zh) * | 2018-07-27 | 2018-12-18 | 北方工业大学 | 基于多特征融合的建筑物识别方法 |
Non-Patent Citations (8)
Title |
---|
"Buiding Recognition based on Sparse Representation of Spatial Texture and Color Features";Bin Li等;《IEEE Access》;20190315;第7卷;第37220-37227页 * |
"Building recognition for mobile devices:incorporating positional information with visual feature";R.Hutchings等;《Computer Science》;20051231;第1-11页 * |
"Building recognition in urban environments:Asurvey of state-of-the-art and future challenges";Jing Li等;《Information Science》;20141231;第277卷(第2期);第406-420页 * |
"Efficient Database Reduction Method of Building Recognition using Global Positioning System On Mobile Device";Lim B等;《IEEE International Symposium on Wireless Pervasive Computing》;20091231;第168-172页 * |
"Histogram of Oriented Gradient Based Gist Feature for Building Recognition";Li Bin等;《Computational Intelligence & Neuroscience》;20161231;第1-10页 * |
"一种鲁棒的户外建筑物图像校正方法";国佳杰等;《计算机辅助设计与图形学学报》;20140731;第26卷(第7期);第1084-1091页 * |
"基于ORB特征的户外建筑物识别方法";罗林;《电脑知识与技术》;20151030;第11卷(第28期);第127-128页和第138页 * |
"基于特征线匹配的城市建筑物识别方法研究";李松霖等;《遥感技术与应用》;20120430;第27卷(第2期);第190-196页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110096985A (zh) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110096985B (zh) | 一种基于图像特征和gps定位的城市建筑物识别方法 | |
Li et al. | FSSD: feature fusion single shot multibox detector | |
Li et al. | Building-a-nets: Robust building extraction from high-resolution remote sensing images with adversarial networks | |
Cai et al. | MHA-Net: Multipath Hybrid Attention Network for building footprint extraction from high-resolution remote sensing imagery | |
CN113505842B (zh) | 一种适用于大尺度区域遥感影像城市建筑物自动提取方法 | |
CN103578093B (zh) | 图像配准方法、装置及增强现实系统 | |
CN114359130A (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN109635662A (zh) | 一种基于卷积神经网络的道路场景语义分割方法 | |
CN114638836B (zh) | 基于高度有效驱动与多层级特征融合的城市街景分割方法 | |
CN114187520B (zh) | 一种建筑物提取模型的构建及应用方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN103353941B (zh) | 基于视角分类的自然标志物注册方法 | |
CN114092697A (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN115359366A (zh) | 基于参数优化的遥感图像目标检测方法 | |
CN109446933B (zh) | 一种基于卷积神经网络的道路场景语义分割方法 | |
CN115713529A (zh) | 基于高效注意力的轻量级光学遥感图像变化检测方法 | |
CN111783608B (zh) | 一种换脸视频检测方法 | |
Li et al. | MANET: Multi-scale aggregated network for light field depth estimation | |
CN115410081A (zh) | 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质 | |
CN116309536A (zh) | 一种路面裂缝检测方法及存储介质 | |
Zhao et al. | Boundary regularized building footprint extraction from satellite images using deep neural network | |
CN116704324A (zh) | 基于水下图像的目标检测方法、系统、设备以及存储介质 | |
CN115631337A (zh) | 一种无监督域自适应语义分割方法及系统 | |
CN113052110B (zh) | 一种基于多视图投影和深度学习的三维兴趣点提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |