CN102609719A - 基于改进概率主题模型的地点图像识别方法 - Google Patents
基于改进概率主题模型的地点图像识别方法 Download PDFInfo
- Publication number
- CN102609719A CN102609719A CN2012100176921A CN201210017692A CN102609719A CN 102609719 A CN102609719 A CN 102609719A CN 2012100176921 A CN2012100176921 A CN 2012100176921A CN 201210017692 A CN201210017692 A CN 201210017692A CN 102609719 A CN102609719 A CN 102609719A
- Authority
- CN
- China
- Prior art keywords
- image
- characteristic
- width
- model
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种基于改进概率主题模型的地点图像识别方法,属于图像识别技术领域。目的在于更好地解决地点图像识别中由于不同角度、光照,以及人物和物体的高度动态变化导致的不确定性问题。包括以下步骤:图像获取步骤;图像预处理步骤;特征提取步骤,采用SIFT算法对图像进行特征提取;特征聚类步骤,将所有特征聚类,得到若干聚类中心;特征分配步骤,将每幅图像的特征在聚类中心上投票,得出对应每个聚类中心的频数向量;潜在主题建模步骤,采用改进的概率主题模型学习图像的潜在主题分布;采用分类器识别未知地点图像。本发明在LDA模型中加入量化函数,通过改进LDA模型学习图像的潜在主题,在保证实时性的前提下,可有效提高识别性能。
Description
技术领域
本发明涉及一种图像识别方法,尤其是一种基于改进概率主题模型的地点图像识别方法,用于室内及室外地点图像的识别。
技术背景
目前,随着智能移动机器人走进人们的日常生活,并在军事、商场、医院、家庭等各种领域发挥重要作用,人们对智能移动机器人系统的自动定位需求越来越迫切。移动机器人只有准确地知道自身的位置以及所处的工作空间,才能安全有效地进行自主运动,为人类服务。因此,自定位和位置估计成为自主移动机器人最重要的能力之一。视觉系统能够为移动机器人提供最丰富的感知信息,同时也具有最接近人类的环境感知方式。因此,基于视觉的机器人自定位问题吸引了大量研究人员的参与,同时也取得了大量的研究成果。
基于视觉的机器人自定位根据使用的视觉特征信息的不同,可分为3种:基于地标特征的自定位方法、基于图像外观特征的自定位方法以及最近出现的基于地点识别的自定位方法。其中,基于地点或者场景识别的机器人视觉自定位方法使用人类能够直接理解的高层语义信息如“门口”、“走廊”、“厨房”等作为视觉特征,非常适合于机器人在复杂环境中的自定位问题。2005年李桂芝,安成万,杨国盛等.基于场景识别的移动机器人定位方法研究[J].机器人,2005,27(2):123-127使用多通道Gabor滤波器提取场景图像的全局纹理特征,并使用支持向量机来分类识别室内、走廊、门厅等场景,进而实现机器人的逻辑定位,2008年Ullah M M,Pronobis A,Caputo B,et al.Towardsrobust place recognition for robot localization[C]//Proc of 2008IEEE ICRA.2008:530-537使用Harris角点特征检测子和SIFT特征描述子提取局部特征,并使用支持向量机作为分类器实现基于局部特征的地点识别。
然而,机器人实际获得的图片常会出现拍摄角度、光照的不同,遮挡甚至背景混乱,以及因为人物及物体的位置变化而导致的高度动态变化等现象,这些固有的可变性导致地点图像识别的过程充满了不确定。为了更好地解决地点图像识别过程中由于拍摄角度、光照的不同,以及人物和物体的高度动态变化所导致的不确定性问题,引入基于概率主题模型的图像识别方法,并对原始概率主题模型进行改进,降低算法复杂度的同时有效提高识别性能。
概率主题模型是一种流行的一种图模型结构,它能够对实际问题进行概率建模,并对各种复杂相关的因素进行刻画。作为概率论和图论相结合的产物,为解决地点图像识别中的不确定性、复杂性提供了直观而自然的方法。目前,概率主题模型在人工智能、自然语言处理、文本分类等领域已经取得了很好的应用效果,并逐渐引入到图像识别领域中。
发明内容
本发明的目的在于提供一种基于概率主题模型的地点图像识别方法,更好地解决地点图像识别过程中由于拍摄角度、光照的不同,以及人物和物体的高度动态变化所导致的不确定性问题,并对原始概率主题模型进行改进,降低算法复杂度的同时有效提高识别性能。
为了达到上述目的,本发明所采用的技术方案是提供一种基于改进概率主题模型的地点图像识别方法,通过改进的概率主题模型建立图像的潜在主题分布,然后通过分类器来识别未知地点图像,其特征包括以下步骤:
1)图像获取步骤,通过安装在机器人上的标准摄像头拍摄获取训练图像和测试图像;
2)图像预处理步骤,将获取的图像进行灰度化,并将其尺寸缩小至128×128像素;
3)特征提取步骤,采用尺度不变特征提取算法(Scale-Invariant Features(SIFT))对图像进行局部特征提取;
4)特征聚类步骤,将所有特征通过k-means算法进行聚类,得到若干聚类中心;
5)特征分配步骤,将每幅图像的特征点在对应的聚类中心上进行投票,得出每幅图像对应于每个聚类中心的频数表示向量;
6)潜在主题建模步骤,以步骤5)中得出的图像的频数向量作为输入特征变量,设定潜在主题个数,采用改进的概率主题模型对图像进行建模,学习模型,得到图像的潜在主题分布向量;
7)采用分类器识别未知地点图像。
所述步骤1)中训练图像和测试图像由安装在机器人上的标准摄像头按照固定路径拍摄得到,图像可包含光照、视角、尺度的变化以及人物和物体的动态变化。
所述步骤3)中采用尺度不变特征提取算法(Scale-Invariant Features(SIFT))对图像进行局部特征提取包括图像关键点检测以及将关键点表示为128维的特征描述子。
所述步骤6)中的概率主题模型为潜在Dirichlet分布模型(Latent DirichletAllocation,LDA),对原始LDA模型进行改进,加入量化函数得到改进模型QuantifiedLDA模型(QLDA),对训练图像和测试图像进行建模。
改进模型对于每幅图像的模型生成过程如下:
对于每幅图像x,选择一个Dirichlet参数π,π服从参数为α的Dirichlet分布,即π~Dirichlet(α),对于每幅图像的每个特征xj,选择一个主题zj,服从参数π的离散分布,即zj~discrete(π),然后选择一个特征xj,服从参数β的概率分布,即xj~p(xj|β),β是每幅图像的不同特征对应不同主题的概率,如果一幅图像有m个特征,k个设定的主题,则β为m×k的矩阵;对于图像的所有特征,统计并分析数据集中每幅图像的特征分布,根据不同数据集的特征分布情况,建立对应的量化函数Q(xj),对输入特征进行分级量化处理,使其服从xj~Q(xj)分布,这样每幅图像的密度函数可表示为
分级量化的基本思想是:统计平均每幅图像的特征在各区间内的密集程度,最密集且特征值较小的特征,区分度最低,作为非显著特征忽略;比较密集且特征值较大的特征,区分度较高,保持不变;最稀疏且特征值最大的特征,区分度最高,作为显著特征,近似处理为距离其最近的整十数(实验显示该处理可降低计算复杂度,且不会影响识别性能);
具体的量化标准制定方法如下:
统计输入特征的最小值xmin和最大值xmax;
设定[a,b]区间的特征密度函数D(a,b),表示特征在[a,b]区间内的密集程度,表达式如下:
其中N(a,b)表示[a,b]区间内的特征数;
(1)确定变量x1,x1∈[xmin,xmax],使得特征密度函数D(xmin,x1)取最大值,表示[xmin,x1)区间内的特征分布最密集且特征值较小,区分度最低,为非显著特征;
(2)确定变量x2,x2∈[x1,xmax],使得特征密度函数D(x1,x2)取最大值,表示[x1,x2]区间内的特征分布比较密集且特征值较大,区分度较高;
(3)(x2,xmax]区间内的特征分布最稀疏且特征值最大,区分度最高,为显著特征;
(4)建立量化函数Q(xj),表达式如下:
其中round(·)表示取·最近整数。
所述步骤6)中学习算法采用Variational推断。
给定一组图像集χ={x1,x2,...,xn},模型学习的目的就是估计模型参数(α*,β*),使整个图像集的似然函数p(χ|α*,β*)最大;与原始LDA相同,该似然函数不可求,须采用Variational推断;Variational推断的基本思想是利用Jensen不等式获得一个可计算的下界来近似真实的似然函数值,然后估计参数来最大化这个下界;
用L(γ,φ;α,β)表示似然函数的近似下界,则有:
logp(x|α,β)=L(γ,φ;α,β)+KL(q(π,z|γ,φ)||p(π,z|x,α,β))
其中logp(x|α,β)为似然函数,q(π,z|γ,φ)为Variational分布,p(π,z |x,α,β)为后验概率密度函数,KL(q(π,z|γ,φ)||p(π,z |x,α,β))为Variational分布与后验概率密度函数的KL(Kullback-Leibler)距离;
由上,最大化下界L(γ,φ;α,β)使其尽可能接近似然函数logp(x|α,β)就可以转变为估计参数(γ*,φ*)使KL(q(π,z|γ,φ)||p(π,z|x,α,β))最小,即:
(γ*,φ*)=arg min(γ,φ)KL(q(π,z|γ,φ)||p(π,z|x,α,β))
γi和φij的计算公式如下:
其中,γi和φij是变分参数,γi是第i幅图像的Dirichlet分布的参数,φij是第i幅图像的第j个特征对应不同主题的概率分布,i=1,2,...,n,j=1,2,...,m,n为图像数目,m为对应每幅图像的特征数目;
先由上述公式计算每幅图像的变分参数γi和φij,再通过最大化下界L(γ,φ;α,β)来估计模型参数α和β,迭代直至收敛。
所述步骤7)中分类器为最近邻分类方法。
本发明与已有的地点图像识别方法相比,具有以下明显的优势和有益效果。
本发明通过对图像包含的潜在主题进行建模学习,对地点图像识别中由于拍摄角度、光照的不同,以及人物和物体的高度动态变化所导致的不确定性具有更好的鲁棒性,通过对原始概率主题模型进行改进,加入量化函数将特征分级量化,可以有效利用显著特征,忽略无用特征,在明显降低算法复杂度的同时可有效提高识别性能,且不会影响实时性。
附图说明
图1是本发明提出的基于改进概率主题模型的地点图像识别方法的流程图;
图2是改进模型(Quantified LDA,QLDA)的图模型表示示意图;
图3是室内地点图像的频数特征分布示意图;
图4是分级量化后的室内地点图像的频数特征分布示意图;
图5是LDA和QLDA对室内地点图片的识别准确率比较结果示意图;
图6是室外地点图像的频数特征分布示意图;
图7是分级量化后的室外地点图像的频数特征分布示意图;
图8是LDA和QLDA对室外地点图片的识别准确率比较结果示意图;
图9是设定不同聚类中心数目的识别准确率比较示意图;
图10是设定不同潜在主题数目的识别准确率比较示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明;
如图1所示,一种基于改进概率主题模型的地点图像识别方法包括以下步骤:
1)通过安装在机器人上的标准摄像头拍摄获取训练图像和测试图像;具体方法如下:
由安装在机器人上的标准摄像头按照固定路径拍摄得到训练图像和测试图像,图像需包含光照、视角、尺度的变化以及人物和物体的动态变化。
具体实施中,拍摄得到的图像包括室内地点图片数据集和室外地点图片数据集。
室内地点图片数据集The IDOL2Database(J.Luo,A.Pronobis,B.Caputo,and P.Jensfelt,“The KTH-IDOL2 database,”KTH,CAS/CVAP,Tech.Rep.,2006,available athttp://cogvis.nada.kth.se/IDOL2/.)包含24个图像序列,分别由安装在两个不同的机器人(PeopleBot Minnie和PowerBot Dumbo)上的标准相机以每秒5帧的频率按照一定的路径拍摄,每个序列包含800到1200幅尺寸为309×240的图像,包含kitchen,one-personoffice,two-persons office,printer area和corridor五个地点。本实例选用PowerBot Dumbo拍摄的图像序列进行实验,包括阴天、晴天和夜晚三种光照条件以及相隔三个月拍摄的六组图像。
室外地点图片数据集在大学校园拍摄,包含篮球场,汽车,餐厅,道路,体育馆,操场,雕塑7个种类184幅尺寸为640×480的图片(每类12到40幅图像)。所有图像按照一定的路线拍摄,每类图像拍摄的角度、光线以及远近不同,并且由于相机在移动过程中的晃动有些图片可能是模糊的。
2)图像预处理步骤,将获取的图像进行灰度化,并将其尺寸缩小至128×128像素;
3)特征提取步骤,采用尺度不变特征提取算法(Scale-Invariant Features(SIFT))对图像进行局部特征提取;具体方法如下:
对每幅图像进行关键点检测,然后将每个关键点表示为128维的特征描述子。
预处理后的图像是尺寸为128×128的灰度图像,每幅图像检测到225个关键点,每个关键点表示为128维的SIFT特征描述子,即每幅图像由225个128维的SIFT描述子组成的225×128的特征矩阵表示。
4)特征聚类步骤,将所有特征通过k-means算法进行聚类,得到若干聚类中心;
具体实施中,对室内图像数据集设定聚类中心个数为200个,得到200个128维的聚类中心向量;对室外图像数据集设定聚类中心个数为225个,得到225个128维的聚类中心向量。
图9是设定不同聚类中心数目的识别准确率比较结果示意图。
5)特征分配步骤,将每幅图像的特征在对应的聚类中心上进行投票,得出每幅图像对应于每个聚类中心的频数表示向量;具体方法如下:
将每幅图像的SIFT特征描述子依次分配到与其距离最近的聚类中心,进行投票,这样,室内图像数据集的每幅图像表示为200维的对应每个聚类中心的频数向量,室外图像数据集的每幅图像表示为225维的对应每个聚类中心的频数向量。具体实施中,“距离”为两个向量的欧式距离。
6)潜在主题建模步骤,以步骤5)中得出的图像的频数向量作为输入特征变量,设定潜在主题个数,采用改进的概率主题模型对图像进行建模,学习模型,得到图像的潜在主题分布向量;
具体实施中,选择潜在Dirichlet分布模型(Latent Dirichlet Allocation,LDA)作为本实施例的概率主题模型,对LDA模型进行改进得到Quantified LDA模型(QLDA),采用QLDA模型对图像进行潜在主题建模,学习模型,得到图像的潜在主题分布向量。
对室内图像数据集设定潜在主题个数为52个;对室外图像数据集设定潜在主题个数为40个。图10是设定不同潜在主题数目的识别准确率比较结果。
图2是改进模型(Quantified LDA,QLDA)的图模型表示示意图。
如图2所示,改进模型对于每幅图像的模型生成过程如下:
对于每幅图像x,选择一个Dirichlet参数π,π服从参数为α的Dirichlet分布,即π~Dirichlet(α),对于每幅图像的每个特征xj,选择一个主题zj,服从参数π的离散分布,即zj~discrete(π),然后选择一个特征xj,服从参数β的概率分布,即xj~p(xj|β),β是每幅图像的不同特征对应不同主题的概率,如果一幅图像有m个特征,k个设定的主题,则β为m×k的矩阵;对于图像的所有特征,统计并分析数据集中每幅图像的特征分布,根据不同数据集的特征分布情况,建立对应的量化函数Q(xj),对输入特征进行分级量化处理,使其服从xj~Q(xj)分布,这样每幅图像的密度函数可表示为
分级量化的基本思想是:统计平均每幅图像的特征在各区间内的密集程度,最密集且特征值较小的特征,区分度最低,作为非显著特征忽略;比较密集且特征值较大的特征,区分度较高,保持不变;最稀疏且特征值最大的特征,区分度最高,作为显著特征,近似处理为距离其最近的整十数(实验显示该处理可降低计算复杂度,且不会影响识别性能)。
具体的量化标准制定方法如下:
统计输入特征的最小值xmin和最大值xmax;
设定[a,b]区间的特征密度函数D(a,b),表示特征在[a,b]区间内的密集程度,表达式如下:
其中N(a,b)表示[a,b]区间内的特征数;
(1)确定变量x1,x1∈[xmin,xmax],使得特征密度函数D(xmin,x1)取最大值,表示[xmin,x1)区间内的特征分布最密集且特征值较小,区分度最低,为非显著特征;
(2)确定变量x2,x2∈[x1,xmax],使得特征密度函数D(x1,x2)取最大值,表示[x1,x2]区间内的特征分布比较密集且特征值较大,区分度较高;
(3)(x2,xmax]区间内的特征分布最稀疏且特征值最大,区分度最高,为显著特征;
(4)建立量化函数Q(xj),表达式如下:
其中round(·)表示取·最近整数。
本实施例中,量化函数的变量取值为:x1取3,x2取10。针对其他数据集,根据不同数据集的特征分布情况,量化函数的变量取值不同。
图3是室内地点图像的频数特征分布示意图,图4是分级量化后的室内地点图像的频数特征分布示意图,图5是LDA和QLDA对室内地点图片的识别准确率比较结果示意图,图6是室外地点图像的频数特征分布示意图,图7是分级量化后的室外地点图像的频数特征分布示意图。
本实施例中模型学习算法采用Variational推断。
给定一组图像集χ={x1,x2,...,xn},模型学习的目的就是估计模型参数(α*,β*),使整个图像集的似然函数p(χ|α*,β*)最大。与原始LDA相同,该似然函数不可求,须采用Variational推断。Variational推断的基本思想是利用Jensen不等式获得一个可计算的下界来近似真实的似然函数值,然后估计参数来最大化这个下界。
Variational推断的详细过程可见D.M.Blei,A.Y.Ng,andM.I.Jordan.Latentdirichlet allocation.Journal of Machine Learning Research,3:993-1022.2003。
用L(γ,φ;α,β)表示似然函数的近似下界,则有:
log p(x|α,β)=L(γ,φ;α,β)+KL(q(π,z|γ,φ)||p(π,z|x,α,β))
其中logp(x|α,β)为似然函数,q(π,z|γ,φ)为Variational分布,p(π,z|x,α,β)为后验概率密度函数,KL(q(π,z|γ,)||p(π,z|x,α,β))为Variational分布与后验概率密度函数的KL(Kullback-Leibler)距离;
由上,最大化下界L(γ,φ;α,β)使其尽可能接近似然函数logp(x|α,β)就可以转变为估计参数(γ*,φ*)使KL(q(π,z|γ,φ)||p(π,z|x,α,β))最小,即:
(γ*,φ*)=arg min(γ,φ)KL(q(π,z|γ,φ)||p(π,z|x,α,β))
γi和φij的计算公式如下:
其中,γi和φij是变分参数,γi是第i幅图像的Dirichlet分布的参数,φij是第i幅图像的第j个特征对应不同主题的概率分布,i=1,2,...,n,j=1,2,...,m,n为图像数目,m为对应每幅图像的特征数目;
先由上述公式计算每幅图像的变分参数γi和φij,再通过最大化下界L(γ,φ;α,β)来估计模型参数α和β,迭代直至收敛。
7)采用分类器识别未知地点图像。
具体实施中采用最近邻分类方法对未知地点图像进行分类识别。
对于室内地点图像数据集,分别采用阴天、晴天、夜晚三种光照条件下的图像序列作为训练图像,采用另外两种光照条件下的图像序列以及相同光照条件三个月后拍摄的图像序列作为测试图像,评估LDA和QLDA在不同拍摄角度、光照,以及人物和物体的高度动态变化所导致的不确定性下的识别性能,评价指标包括识别准确率和平均耗时,平均耗时为识别每幅图像需要的时间。
对于室外地点图像数据集,每类图像随机选择一半作为训练图像,剩下的作为测试图像,评估LDA和QLDA在不同拍摄角度、尺度,以及人物和物体的高度动态变化所导致的不确定性下的识别性能,评价指标包括识别准确率和平均耗时,平均耗时为识别每幅图像需要的时间。
图5是LDA和QLDA对室内地点图片的识别准确率比较结果示意图。图8是LDA和QLDA对室外地点图片的识别准确率比较结果示意图。表1是LDA和QLDA对室内地点图片和室外地点图片的平均耗时比较。
表格1
当图像包含拍摄角度、光照的不同,以及人物和物体的高度动态变化时,本发明提供的一种基于改进概率主题模型的地点图像识别方法体现了很好的鲁棒性,且可以满足实时性要求。
Claims (5)
1.一种基于改进概率主题模型的地点图像识别方法,其特征在于,通过改进的概率主题模型建立图像的潜在主题分布,然后通过分类器来识别未知地点图像,包括以下步骤:
1.1.图像获取步骤,通过安装在机器人上的标准摄像头拍摄获取训练图像和测试图像;
1.2.图像预处理步骤,将获取的图像进行灰度化,并将其尺寸缩小;
1.3.特征提取步骤,采用尺度不变特征提取算法对图像进行局部特征提取;
1.4.特征聚类步骤,将所有特征通过k-means算法进行聚类,得到若干聚类中心;
1.5.特征分配步骤,将每幅图像的特征点在对应的聚类中心上进行投票,得出每幅图像对应于每个聚类中心的频数表示向量;
1.6.潜在主题建模步骤,以步骤1.5中得出的图像的频数向量作为输入特征变量,设定潜在主题个数,采用改进的概率主题模型对图像进行建模,学习模型,得到图像的潜在主题分布向量;
1.7.采用分类器识别未知地点图像;
所述步骤1.6中学习算法采用Variational推断;
估计模型参数(α*,β*),使整个图像集的似然函数p(χ|α*,β*)最大;与原始LDA相同,该似然函数不可求,须采用Variational推断;利用Jensen不等式获得一个可计算的下界来近似真实的似然函数值,然后估计参数来最大化这个下界;
用L(γ,φ;α,β)表示似然函数的近似下界,则有:
logp(x|α,β)=L(γ,φ;α,β)+KL(q(π,z|γ,φ)||β(π,z|x,α,β))
其中logp(x|α,β)为似然函数,q(π,z|γ,φ)为Variational分布,p(π,z|x,α,β)为后验概率密度函数,KL(q(π,z |γ,φ)||p(π,z|x,α,β))为Variational分布与后验概率密度函数的Kullback-Leibler距离;
由上,最大化下界L(γ,φ;α,β)使其接近似然函数logp(x|α,β)就可以转变为估计参数(γ*,φ*)使KL(q(π,z|γ,φ)||p(π,z |x,α,β))最小,即:
(γ*,φ*)=arg min (γ,φ)KL(q(π,z |γ,φ)||p(π,z|x,α,β))
γi和φij的计算公式如下:
其中,γi和φij是变分参数,γi是第i幅图像的Dirichlet分布的参数,φij是第i幅图像的第j个特征对应不同主题的概率分布,i=1,2,...,n,j=1,2,...,m,n为图像数目,m为对应每幅图像的特征数目;
先由上述公式计算每幅图像的变分参数γi和φij,再通过最大化下界L(γ,φ;α,β)来估计模型参数α和β,迭代直至收敛;
所述步骤1.6中的概率主题模型为潜在Dirichlet分布模型,对原始LDA模型进行改进,加入量化函数得到改进模型Quantified LDA模型,对训练图像和测试图像进行建模;
改进模型对于每幅图像的模型生成过程如下:
对于每幅图像x,选择一个Dirichlet参数π,π服从参数为α的Dirichlet分布,即π~Dirichlet(α),对于每幅图像的每个特征xj,选择一个主题zj,服从参数π的离散分布,即zj~discrete(π),然后选择一个特征xj,服从参数β的概率分布,即xj~p(xj|β),β是每幅图像的不同特征对应不同主题的概率,如果一幅图像有m个特征,k个设定的主题,则β为m×k的矩阵;对于图像的所有特征,统计并分析数据集中每幅图像的特征分布,根据不同数据集的特征分布情况,建立对应的量化函数Q(xj),对输入特征进行分级量化处理,使其服从xj~Q(xj)分布,这样每幅图像的密度函数表示为
分级量化是:统计平均每幅图像的特征在各区间内的密集程度,最密集且特征值较小的特征,区分度最低,作为非显著特征忽略;比较密集且特征值较大的特征,区分度较高,保持不变;最稀疏且特征值最大的特征,区分度最高,作为显著特征,近似处理为距离其最近的整十数;
具体的量化标准制定方法如下:
(1)统计输入特征的最小值xmin和最大值xmax;
(2)设定[a,b]区间的特征密度函数D(a,b),表示特征在[a,b]区间内的密集程度,表达式如下:
其中N(a,b)表示[a,b]区间内的特征数;
(3)确定变量x1,x1∈[xmin,xmax],使得特征密度函数D(xmin,x1)取最大值,表示[xmin,x1)区间内的特征分布最密集且特征值较小,区分度最低,为非显著特征;
(4)确定变量x2,x2∈[x1,xmax],使得特征密度函数D(x1,x2)取最大值,表示[x1,x2]区间内的特征分布比较密集且特征值较大,区分度较高;
(5)(x2,xmax]区间内的特征分布最稀疏且特征值最大,区分度最高,为显著特征;
(6)建立量化函数Q(xj),表达式如下:
其中round(·)表示取·最近整数。
2.根据权利要求1所述的基于改进概率主题模型的地点图像识别方法,其特征在于,所述步骤1.1中训练图像和测试图像由安装在机器人上的标准摄像头按照固定路径拍摄得到,图像包含光照、视角、尺度的变化以及人物和物体的动态变化。
3.根据权利要求1所述的基于改进概率主题模型的地点图像识别方法,其特征在于,所述的步骤1.2的缩小尺寸为128×128像素。
4.根据权利要求1所述的基于改进概率主题模型的地点图像识别方法,其特征在于,所述步骤1.3中采用尺度不变特征提取算法对图像进行局部特征提取包括图像关键点检测以及将关键点表示为128维的特征描述子。
5.根据权利要求1所述的基于改进概率主题模型的地点图像识别方法,其特征在于,所述步骤1.7中分类器为最近邻分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201210017692 CN102609719B (zh) | 2012-01-19 | 2012-01-19 | 基于改进概率主题模型的地点图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201210017692 CN102609719B (zh) | 2012-01-19 | 2012-01-19 | 基于改进概率主题模型的地点图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102609719A true CN102609719A (zh) | 2012-07-25 |
CN102609719B CN102609719B (zh) | 2013-07-31 |
Family
ID=46527078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201210017692 Active CN102609719B (zh) | 2012-01-19 | 2012-01-19 | 基于改进概率主题模型的地点图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102609719B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559510A (zh) * | 2013-11-12 | 2014-02-05 | 中国科学院自动化研究所 | 一种利用相关主题模型识别社会群体行为的方法 |
CN103810500A (zh) * | 2014-02-25 | 2014-05-21 | 北京工业大学 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
WO2015062384A1 (zh) * | 2013-11-04 | 2015-05-07 | 北京京东尚科信息技术有限公司 | 图像目标类别识别方法及装置 |
CN105740378A (zh) * | 2016-01-27 | 2016-07-06 | 北京航空航天大学 | 一种数字病理全切片图像检索方法 |
CN106202480A (zh) * | 2016-07-19 | 2016-12-07 | 淮阴工学院 | 一种基于K‑means和LDA双向验证的网络行为习惯聚类方法 |
CN106569981A (zh) * | 2016-10-21 | 2017-04-19 | 北京科技大学 | 一种适用于大规模数据集的统计参量确定方法及系统 |
CN107577681A (zh) * | 2016-07-05 | 2018-01-12 | 上海交通大学 | 一种基于社交媒体图片的地域分析、推荐方法及系统 |
CN109447098A (zh) * | 2018-08-27 | 2019-03-08 | 西北大学 | 一种基于深度语义嵌入的图像聚类算法 |
CN111524017A (zh) * | 2019-02-01 | 2020-08-11 | 天津幸福生命科技有限公司 | 理赔数据的审核方法、装置及介质 |
-
2012
- 2012-01-19 CN CN 201210017692 patent/CN102609719B/zh active Active
Non-Patent Citations (4)
Title |
---|
JINFU YANG等: "Place Recognition based on Latent Dirichlet Allocation", 《PROCEEDINGS OF THE 2011 IEEE INTERNATIONAL CONFERENCE ON MECHATRONICS AND AUTOMATION》 * |
张振平等: "一种基于最小分类错误率的改进型LDA特征选择算法", 《微型电脑应用》 * |
杨彬蔚等: "基于图像视觉特征与LDA模型的取景图像识别", 《计算机与现代化》 * |
石晶等: "基于LDA模型的主题分析", 《自动化学报》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2648946C2 (ru) * | 2013-11-04 | 2018-03-28 | Бэйцзин Цзиндун Шанкэ Информейшн Текнолоджи Ко, Лтд. | Способ и устройство распознавания категории объекта изображения |
AU2014344497B2 (en) * | 2013-11-04 | 2018-07-05 | Beijing Jingdong Century Trading Co., Ltd. | Image object category recognition method and device |
WO2015062384A1 (zh) * | 2013-11-04 | 2015-05-07 | 北京京东尚科信息技术有限公司 | 图像目标类别识别方法及装置 |
US10013636B2 (en) | 2013-11-04 | 2018-07-03 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Image object category recognition method and device |
CN103559510B (zh) * | 2013-11-12 | 2017-01-18 | 中国科学院自动化研究所 | 一种利用相关主题模型识别社会群体行为的方法 |
CN103559510A (zh) * | 2013-11-12 | 2014-02-05 | 中国科学院自动化研究所 | 一种利用相关主题模型识别社会群体行为的方法 |
CN103810500B (zh) * | 2014-02-25 | 2017-04-05 | 北京工业大学 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
CN103810500A (zh) * | 2014-02-25 | 2014-05-21 | 北京工业大学 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
CN105740378A (zh) * | 2016-01-27 | 2016-07-06 | 北京航空航天大学 | 一种数字病理全切片图像检索方法 |
CN105740378B (zh) * | 2016-01-27 | 2020-07-21 | 北京航空航天大学 | 一种数字病理全切片图像检索方法 |
CN107577681A (zh) * | 2016-07-05 | 2018-01-12 | 上海交通大学 | 一种基于社交媒体图片的地域分析、推荐方法及系统 |
CN107577681B (zh) * | 2016-07-05 | 2019-11-15 | 上海媒智科技有限公司 | 一种基于社交媒体图片的地域分析、推荐方法及系统 |
CN106202480A (zh) * | 2016-07-19 | 2016-12-07 | 淮阴工学院 | 一种基于K‑means和LDA双向验证的网络行为习惯聚类方法 |
CN106202480B (zh) * | 2016-07-19 | 2019-06-11 | 淮阴工学院 | 一种基于K-means和LDA双向验证的网络行为习惯聚类方法 |
CN106569981A (zh) * | 2016-10-21 | 2017-04-19 | 北京科技大学 | 一种适用于大规模数据集的统计参量确定方法及系统 |
CN106569981B (zh) * | 2016-10-21 | 2020-10-02 | 北京科技大学 | 一种适用于大规模数据集的统计参量确定方法及系统 |
CN109447098A (zh) * | 2018-08-27 | 2019-03-08 | 西北大学 | 一种基于深度语义嵌入的图像聚类算法 |
CN109447098B (zh) * | 2018-08-27 | 2022-03-18 | 西北大学 | 一种基于深度语义嵌入的图像聚类算法 |
CN111524017A (zh) * | 2019-02-01 | 2020-08-11 | 天津幸福生命科技有限公司 | 理赔数据的审核方法、装置及介质 |
CN111524017B (zh) * | 2019-02-01 | 2023-09-22 | 北京懿医云科技有限公司 | 理赔数据的审核方法、装置及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102609719B (zh) | 2013-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102609719B (zh) | 基于改进概率主题模型的地点图像识别方法 | |
CN107609601B (zh) | 一种基于多层卷积神经网络的舰船目标识别方法 | |
Endres et al. | Category independent object proposals | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN107153817B (zh) | 行人重识别数据标注方法和装置 | |
Bouwmans | Subspace learning for background modeling: A survey | |
CN105844295B (zh) | 一种基于颜色模型与运动特征的视频烟雾精细分类方法 | |
CN105095884B (zh) | 一种基于随机森林支持向量机的行人识别系统及处理方法 | |
CN108090406B (zh) | 人脸识别方法及系统 | |
CN101604325B (zh) | 基于主场景镜头关键帧的体育视频分类方法 | |
CN104008395B (zh) | 一种基于人脸检索的不良视频智能检测方法 | |
CN105740891B (zh) | 基于多层次特征提取和上下文模型的目标检测 | |
CN110427800A (zh) | 视频物体加速检测方法、装置、服务器及存储介质 | |
CN102663411B (zh) | 一种目标人体识别方法 | |
CN106022220A (zh) | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN109784274A (zh) | 识别尾随的方法及相关产品 | |
CN104182765A (zh) | 一种互联网图像驱动的三维模型最优视图自动选择方法 | |
CN104182772A (zh) | 一种基于深度学习的手势识别方法 | |
CN103810500B (zh) | 一种基于有监督学习概率主题模型的地点图像识别方法 | |
CN104809469A (zh) | 一种面向服务机器人的室内场景图像分类方法 | |
CN107153824A (zh) | 基于图聚类的跨视频行人重识别方法 | |
CN109635647B (zh) | 一种基于约束条件下的多图片多人脸的聚类方法 | |
CN109241814A (zh) | 基于yolo神经网络的行人检测方法 | |
CN108764096A (zh) | 一种行人重识别系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |