CN103810500B - 一种基于有监督学习概率主题模型的地点图像识别方法 - Google Patents
一种基于有监督学习概率主题模型的地点图像识别方法 Download PDFInfo
- Publication number
- CN103810500B CN103810500B CN201410064526.6A CN201410064526A CN103810500B CN 103810500 B CN103810500 B CN 103810500B CN 201410064526 A CN201410064526 A CN 201410064526A CN 103810500 B CN103810500 B CN 103810500B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- distribution
- words
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 238000005316 response function Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102100022704 Amyloid-beta precursor protein Human genes 0.000 description 1
- 101000823051 Homo sapiens Amyloid-beta precursor protein Proteins 0.000 description 1
- DZHSAHHDTRWUTF-SIQRNXPUSA-N amyloid-beta polypeptide 42 Chemical compound C([C@@H](C(=O)N[C@@H](C)C(=O)N[C@@H](CCC(O)=O)C(=O)N[C@@H](CC(O)=O)C(=O)N[C@H](C(=O)NCC(=O)N[C@@H](CO)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](CCCCN)C(=O)NCC(=O)N[C@@H](C)C(=O)N[C@H](C(=O)N[C@@H]([C@@H](C)CC)C(=O)NCC(=O)N[C@@H](CC(C)C)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](C(C)C)C(=O)NCC(=O)NCC(=O)N[C@@H](C(C)C)C(=O)N[C@@H](C(C)C)C(=O)N[C@@H]([C@@H](C)CC)C(=O)N[C@@H](C)C(O)=O)[C@@H](C)CC)C(C)C)NC(=O)[C@H](CC=1C=CC=CC=1)NC(=O)[C@@H](NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@H](CC=1N=CNC=1)NC(=O)[C@H](CC=1N=CNC=1)NC(=O)[C@@H](NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](CC=1C=CC(O)=CC=1)NC(=O)CNC(=O)[C@H](CO)NC(=O)[C@H](CC(O)=O)NC(=O)[C@H](CC=1N=CNC=1)NC(=O)[C@H](CCCNC(N)=N)NC(=O)[C@H](CC=1C=CC=CC=1)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](C)NC(=O)[C@@H](N)CC(O)=O)C(C)C)C(C)C)C1=CC=CC=C1 DZHSAHHDTRWUTF-SIQRNXPUSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及基于有监督学习概率主题模型的地点图像识别方法,目的在于更好地解决地点图像识别中由于不同光照和角度、事物变化和运动导致的不确定问题,以及原有LDA模型中随主题数目增加图像的识别率出现过拟合现象进而影响图像的识别率的问题。所述方法包括:图像获取;图像预处理;采用SIFT对图像局部特征进行检测和描述;生成“词袋”;用“词袋”中的词对图像进行描述步骤;本发明采用基于有监督学习的概率主题模型学习图像的潜在主题分布;根据sLDA模型中图像的类别响应函数识别测试集中的未知地点图像。本发明用有监督学习的LDA模型代替原有的LDA模型,在保证实时性的前提下,可以有效提高地点图像的识别率。
Description
技术领域
本发明属于模式识别领域,涉及一种利用概率主题模型进行图像识别方法,尤其是一种基于有监督学习概率主题模型的地点图像识别方法,用于提高地点图像的识别率。
背景技术
目前,随着人工智能的发展,移动智能机器人被广泛地应用于工业、军事和服务等领域,发挥着越来越重要的作用。智能机器人认知环境的能力越来越重要。机器人只有在知道自身位置和工作环境,才能安全有效地进行自主运动,为人们提供更好的服务。因此,认知环境和位置估计成为智能移动机器人最重要的能力之一。视觉系统能够为机器人提供最丰富的感知信息,同时也最接近人类感知环境的方式。近年来,基于视觉的机器人自定位问题吸引了大量的研究人员,同时也取得了丰硕的研究成果。
根据机器人定位使用的视觉特征信息的不同,基于视觉的机器人自定位方法主要包括以下三种:基于地标特征的自定位方法,基于图像外观特征的自定位方法,以及基于地点识别的自定位方法。其中,基于地点识别的自定位方法,使用了人们可以直接理解的语义信息,如“道路”、“雕塑”、“走廊”等,作为视觉特征信息,实现一种全局的拓扑定位,构建拓扑地图,用于机器人路径规划和人机交互等应用场合。然而,要实现基于地点识别的自定位方法,必须图像进行语义表示。为了解决上述问题,引入基于概率主题模型的图像识别方法。
概率主题模型是机器学习领域中结合统计理论和图论算法的一种模型,它提供了一种建模方法,对实际问题进行概率建模,将实际问题用潜在的语义主题进行描述,对解决实际问题的不确定性具有一定作用。概率主题模型最初应用在自然语言处理和文本分类领域,并取得了很好的应用效果,后来逐渐引入到机器视觉领域中。2005年,李菲菲等在论文“A Bayesian hierarchical model for learning natural scene categories”中,使用度不变特征提取算法(Scale-Invariant Features,SIFT)特征检测子和描述子提取局部特征,并使用潜在狄利克雷分布(Latent Dirichlet Distribution,LDA)的概率主题模型生成的包含语义信息的主题对图像进行描述,最后用贝叶斯分类器对图像进行分类,从而实现基于局部特征的地点识别。该方法通过LDA模型对图像进行语义描述,并对影响图像识别的不确定性因素起到一定作用,使用了人们可以直接理解的语义信息,其不足是当LDA模型中主题数超过40时图像的识别率会出现过拟合。2010年,David M.Blei等在论文“Supervised Topic Model”中,通过sLDA(supervised latent Dirichlet allocation)对有标签的文档进行建模,然后使用mean-filed variational方法对sLDA模型的参数进行估计,从而达到对文档内容的预测。此文中的sLDA模型与LDA模型相比较,不仅可以用于分类,还可以用于预测,而且识别率和预测的准确性都比较高;同时可以解决LDA模型中主题数目增加时出现的识别率过拟合现象。但是,此文中的sLDA模型用于文本文档中,未被用于地点图像识别中。
综上所述,现有技术在基于地点识别的机器人自定位方法中存在以下问题:机器人实际获得的图像常会受到光照变化和拍摄视角以及场景混乱和事物动态变化等影响,这些固有的、可变的影响使得地点识别过程充满了不确定性;LDA模型中随着主题数目的增加图像的识别率会出现过拟合现象,进而影响图像的识别效果;sLDA模型可以解决随着主题数目增加出现的识别率过拟合现象,但是未被应用到基于概率主题模型的地点图像识别系统中。
发明内容
针对现有技术中存在的上述问题,本发明提出一种基于有监督学习概率主题模型的地点识别方法,解决地点识别过程中由于拍摄角度和光照的不同,以及图像中物体变化所导致的不确定性问题;通过sLDA模型对地点图像信息进行建模,有效提高地点图像的识别率。
为了达到上述目的,本发明所采用的技术方案是:提供一种基于有监督学习概率主题模型的地点识别方法,通过mean-filed variational算法对有监督概率主题模型的参数进行学习,用潜在主题对图像进行语义描述,然后根据sLDA模型中响应变量的值对图像进行分类,进而达到图像识别目的。
一种基于有监督学习概率主题模型的地点图像识别方法,包括以下步骤:
步骤1,通过安装在机器人上的标准摄像头获取训练图像集和测试图像集。
图像包含光照、视角、尺度的变化以及人物和物体的动态变化。
步骤2,图像预处理,将获取的图像灰度化。
步骤3,采用SIFT对图像进行局部特征检测和描述。
包括图像关键点检测以及将关键点表示为128维的特征描述子。
步骤4,生成“词袋”。
将步骤3提取的所有训练集图像的局部特征通过k-means算法进行聚类,然后将若干聚类中心作为“词袋”中的词,建立“词袋”。
步骤5,使用“词袋”中的词对图像进行描述。
将训练图像集和测试图像集中的每幅图像的局部特征用“词袋”中的词进行描述,得到“词袋”中词的频数向量。
步骤6,建立有监督学习的潜在主题模型。
将步骤5中得到的图像的词频数向量作为输入潜在主题模型输入变量,设定潜在主题的数目,采用mean-filed variational算法对主题模型的参数进行学习,得到图像类别的响应函数。
具体实施中,选择有监督学习的LDA模型即sLDA模型作为本实施例的概率主题模型,对LDA模型进行改进,选用mean-filed variational算法对模型的参数进行学习,得到图像的潜在主题分布向量和类别响应概率。
对于第d幅图像,sLDA模型的参数生成过程如下:
步骤6.1,生成图像主题分布参数。
图像主题分布概率θd的先验分布服从参数为α的Dirichlet分布,即θd~Dir(α)。
步骤6.2,生成图像特征参数。
图像的第n个特征wd,n对应的主题为zd,n,zd,n服从参数为θd的Multinomial分布,即zd,n~Mult(θd);图像的第n个特征wd,n在主题zd,n下的概率服从参数为的Multinomial分布,即
步骤6.3,生成图像类别标签。
图像类别cd服从参数为的softmax回归,即其中softmax回归函数为N为一幅图像特征总数,C为类别总数。
第d幅图像属于类别c的概率为:
其中,为第d幅图像的特征向量,c为第d幅图像的类别。
在sLDA模型中,根据图像的特征信息很难计算主题概率的后验分布因此采用mean-field variational算法近似计算上述后验分布。Variational算法假设隐含变量的概率分布是一些相互独立变量的条件分布,然后通过最小化KL(Kullback-Leibler)距离来近似真实的后验条件分布。mean-field variational分布为使用mean-field variational算法时sLDA模型中隐变量的概率分布,即其中γ是变分Dirichlet参数,φn是K个主题的变分多项式分布参数。用mean-fieldvariational算法估计sLDA模型的参数包括两个步骤:
(1)估算γ和φn。
根据variational算法得到变分目标函数,即似然函数,其表达式为:
通过最大化上述似然函数的近似下界函数L(γ,φn;α,π,η),计算隐变量的参数γ和φn,使其分布在当前sLDA模型参数下尽可能逼近其真实分布,公式如下:
其中,i表示的是主题,c表示的是类别,为上一次迭代过程中的φn值,h为便于sLDA模型中参数φn计算进而假设的参数,满足
(2)估算π和η。
用γ和φn更新π和η,公式如下:
η=(E[ATA])-1E[A]Ty
其中,i表示主;y为图像类别响应函数,且满足A是为了便于sLDA模型中参数η计算假设的参数,满足
重复步骤(1)、(2),直至隐变量γ和φn收敛。
步骤7,识别未知图像。
根据sLDA模型中响应变量的值对图像进行分类,进而达到图像识别目的:图像类别为sLDA模型中响应变量达到最大期望值时类别值,用公式表示为:
其中,c*为图像的类别。
本发明与LDA模型相比,具有以下明显的优势和有益效果:
本发明通过对图像包含的潜在主题进行建模学习,对地点图像识别中由于拍摄角度、光照的不同,以及人和物体的动态变化所导致的不确定性具有更好的鲁棒性;sLDA模型可以直接对图像进行分类,而LDA模型只是对图像的语义描述,要进行分类的话需要使用分类器;sLDA模型还可以解决LDA模型中随着主题数目的增加识别率出现的过拟合现象。
附图说明
图1为基于有监督学习的概率主题模型表示示意图;
图2为室内地点一幅图像的主题分布示意图;
图3为室内地点图像主题中的特征分布示意图;
图4为LDA模型在室内图像数据集中不同主题数目下的识别率结果示意图;
图5为室外地点一幅图像的主题分布示意图;
图6为室外地点图像主题中的特征分布示意图;
图7为基于有监督学习的概率主题模型地点识别方法的流程图。
具体实施方式
下面结合附图和实施例对本发明做进一步说明;
一种基于有监督学习概率主题模型的地点图像识别方法的流程图如图7所示,包括以下步骤:
步骤1,获取室内地点图片数据集和室外地点图片数据集。
室内地点图片数据集选The IDOL2Database(J.Luo,A.Pronobis,B.Caputo,andP.Jensfelt,“The KTH-IDOL2database,”KTH,CAS/CVAP,Tech.Rep.,2006,available athttp://cogvis.nada.kth.se/IDOL2/.),包含24个图像序列,分别由安装在两个不同的机器人(PeopleBot Minnie和PowerBot Dumbo)上的标准相机以每秒5帧的频率按照一定的路径拍摄,每个序列包含800~1200幅尺寸为309×240的图像,包含kitchen,one-personoffice,two-persons office,printer area和corridor五个地点。本实施例选用PowerBotDumbo拍摄的图像序列进行实验,包括阴天、晴天和夜晚三种光照条件以及相隔三个月拍摄的六组图像。
室外地点图片数据集在大学校园拍摄,包含篮球场,汽车,餐厅,道路,体育馆,操场,雕塑7个种类184幅尺寸为640×480的图片(每类12到40幅图像)。所有图像按照一定的路线拍摄,每类图像拍摄的角度、光线以及远近不同,并且由于相机在移动过程中的晃动有些图片可能是模糊的。
步骤2,图像预处理。将获取的图像进行灰度化,并将其尺寸缩至128×128像素;
步骤3,特征提取。采用SIFT算法对图像的局部特征进行描述,具体方法如下:
预处理后的图像是尺寸为128×128大小的灰度图像,每幅图像用SIFT监测子检测到225个关键点,每个关键点用128维的SIFT特征描述子描述,即每幅图像由225个128维的SIFT描述子组成的225×128大小的特征矩阵。
步骤4,特征聚类。将所有特征通过k-means算法进行聚类,得到若干类的聚类中心。
具体的实施中,对室内图像集设定聚类中心的个数为200个,得到200个128维的聚类中心向量;对室外图像数据集设定聚类中心个数为200个,得到200个128维的聚类中心向量。
步骤5,用“词袋”中的词对图像进行描述,即将训练集和测试集中每幅图像的局部特征用“词袋”中的词进行描述,得到“词袋”中词的频数向量,具体方法如下
将每幅图像的SIFT特征描述子依次分配到与其欧式距离最近“词袋”中的词,然后对词出现的次数进行统计,生成词的频数向量。这样,室内图像数据集和室外图像数据集的每幅图像表示为200维的对应“词袋”中词的频数向量。
步骤6,建立有监督学习的潜在主题模型。
以步骤5中得出的图像的词频数向量作为输入特征变量,设定潜在主题个数,采用mean-filed variational算法对主题模型的参数进行学习,得到图像类别的响应函数;
具体实施中,选择有监督学习的LDA模型作为本实施例的概率主题模型,sLDA模型示意图如图1所示。选用mean-filed variational算法对sLDA模型的参数进行学习,得到图像的类别的响应函数。
步骤7,识别未知图像。
对于室内的地点图像数据,分别采用阴天、晴天、夜晚三种光照下的图像序列作为训练图像,采用另外两种光照条件下的图像序列以及相同光照条件下三个月后拍摄的图像序列作为测试图像,评估sLDA模型和LDA模型参数用mean-field variational算法在不同拍摄角度、光照,以及人物和物体的动态变化所导致的不确定性下的识别性能,评价指标为地点图像的识别率。图2为室内地点一幅图像的主题分布,用以说明一幅图像由不同的主题组成;图3为一个主题的特征分布,该主题是通过室内地点图像得到的,用以说明每个主题是由不同的特征组成;图4为LDA模型中mean-field variational算法在室内图像数据集和不同主题数目下的识别率,由图4可以看出LDA模型存在当主题数目增加时图像的识别率出现过拟合现象。
对室外地点图像数据集,每类图像随机选择一半作为训练图像,剩下的作为测试图像,评估sLDA模型和LDA模型参数用mean-field variational算法在不同拍摄角度、尺寸,以及人物和事物的动态变化所导致的不确定性下的识别性能,评价指标为地点图像的识别率。图5为室外地点一幅图像的主题分布;图6为一个主题的特征分布。
Claims (1)
1.一种基于有监督学习概率主题模型的地点图像识别方法,其特征在于,通过采用sLDA模型代替LDA模型识别测试集中未知的地点图像;所述方法包括以下步骤:
步骤1,通过安装在机器人上的标准摄像头获取训练图像集和测试图像集;
步骤2,图像预处理,将获取的图像灰度化;
步骤3,采用SIFT对图像进行局部特征检测和描述;
包括图像关键点检测以及将关键点表示为128维的特征描述子;
步骤4,生成“词袋”;
将步骤3提取的所有训练集图像的局部特征通过k-means算法进行聚类,然后将若干聚类中心作为“词袋”中的词,建立“词袋”;
步骤5,使用“词袋”中的词对图像进行描述;
将训练图像集和测试图像集中的每幅图像的局部特征用“词袋”中的词进行描述,得到“词袋”中词的频数向量;
步骤6,建立有监督学习的潜在主题模型;
将步骤5中得到的图像的词频数向量作为输入潜在主题模型输入变量,设定潜在主题的数目,采用mean-field variational算法对有监督学习的潜在主题模型的参数进行学习,得到图像的类别响应;
步骤7,识别未知图像;
图像类别为sLDA模型中响应变量达到最大期望值时类别值,用公式表示为:
其中,c为图像类别,c*为期望值最大时的类别;
所述步骤6建立有监督学习的潜在主题模型的方法包括以下步骤:
步骤6.1,生成图像主题分布参数;
图像主题分布概率θd的先验分布服从参数为α的Dirichlet分布,即θd~Dir(α);
步骤6.2,生成图像特征参数;
图像的第n个特征wd,n对应的主题为zd,n,zd,n服从参数为θd的Multinomial分布,即zd,n~Mult(θd);图像的第n个特征wd,n在主题zd,n下的概率服从参数为的Multinomial分布,即
步骤6.3,生成图像类别标签;
图像类别cd服从参数为的softmax回归,即其中softmax回归函数为N为一幅图像特征总数,C为类别总数;
第d幅图像属于类别c的概率为:
其中,为第d幅图像的特征向量,c为第d幅图像的类别;
在sLDA模型中,根据图像的特征信息很难计算主题概率的后验分布因此采用mean-field variational算法近似计算上述后验分布;Variational算法假设隐含变量的概率分布是一些相互独立变量的条件分布,然后通过最小化KL距离来近似真实的后验条件分布;mean-field variational分布为使用mean-field variational算法时sLDA模型中隐变量的概率分布,即其中γ是变分Dirichlet参数,φn是K个主题的变分多项式分布参数;用mean-fieldvariational算法估计sLDA模型参数的方法如下:
(1)估算γ和φn;
根据variational算法得到变分目标函数,即似然函数,其表达式为:
通过最大化上述似然函数的近似下界函数L(γ,φn;α,π,η),计算隐变量的参数γ和φn,使其分布在当前sLDA模型参数下尽可能逼近其真实分布,公式如下:
其中,i表示的是主题,c表示的是类别,为上一次迭代过程中的φn值,h为便于sLDA模型中参数φn计算进而假设的参数,满足
(2)估算π和η;
用γ和φn更新π和η,公式如下:
η=(E[ATA])-1E[A]Ty
其中,i表示主题;y为图像类别响应函数,且满足A是为了便于sLDA模型中参数η计算假设的参数,满足
重复上述(1)、(2)两个步骤,直至隐变量γ和φn收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410064526.6A CN103810500B (zh) | 2014-02-25 | 2014-02-25 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410064526.6A CN103810500B (zh) | 2014-02-25 | 2014-02-25 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103810500A CN103810500A (zh) | 2014-05-21 |
CN103810500B true CN103810500B (zh) | 2017-04-05 |
Family
ID=50707241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410064526.6A Expired - Fee Related CN103810500B (zh) | 2014-02-25 | 2014-02-25 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103810500B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106840166A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787501B (zh) * | 2015-12-17 | 2019-03-19 | 武汉大学 | 输电线路走廊区域自动选择特征的植被分类方法 |
CN106485567B (zh) * | 2016-09-14 | 2021-11-30 | 北京小米移动软件有限公司 | 物品推荐方法及装置 |
CN108509966B (zh) * | 2017-02-27 | 2025-01-28 | 顾泽苍 | 一种超深度对抗学习的图像识别方法 |
CN107122801B (zh) * | 2017-05-02 | 2020-03-03 | 北京小米移动软件有限公司 | 图像分类的方法和装置 |
JP7128022B2 (ja) * | 2017-05-05 | 2022-08-30 | ダッソー システムズ | 完全教師あり学習用のデータセットの形成 |
CN108805012B (zh) * | 2018-04-24 | 2019-10-25 | 西安理工大学 | 基于无穷Dirichlet过程混合模型的指节识别方法 |
CN112135717B (zh) * | 2018-05-18 | 2024-01-30 | 谷歌有限责任公司 | 基于像素的模型预测控制的系统和方法 |
CN108984726B (zh) * | 2018-07-11 | 2022-10-04 | 黑龙江大学 | 一种基于扩展的sLDA模型对图像进行标题注释的方法 |
CN109408641B (zh) * | 2018-11-22 | 2020-06-02 | 山东工商学院 | 一种基于有监督主题模型的文本分类方法及系统 |
CN115228595B (zh) * | 2022-07-20 | 2024-10-25 | 云南品视智能科技有限公司 | 一种基于目标检测的矿带智能分割方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609719A (zh) * | 2012-01-19 | 2012-07-25 | 北京工业大学 | 基于改进概率主题模型的地点图像识别方法 |
CN103440501A (zh) * | 2013-09-01 | 2013-12-11 | 西安电子科技大学 | 基于非参数空间判决隐狄利克雷模型的场景分类方法 |
-
2014
- 2014-02-25 CN CN201410064526.6A patent/CN103810500B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609719A (zh) * | 2012-01-19 | 2012-07-25 | 北京工业大学 | 基于改进概率主题模型的地点图像识别方法 |
CN103440501A (zh) * | 2013-09-01 | 2013-12-11 | 西安电子科技大学 | 基于非参数空间判决隐狄利克雷模型的场景分类方法 |
Non-Patent Citations (1)
Title |
---|
Place recognition based on Latent Dirichlet Allocation using Markov chain Monte Carlo method;Tao Xie等;《Robotics and Biomimetics (ROBIO), 2013 IEEE International Conference on》;20131214;第2225-2230页 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106840166A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
CN106840166B (zh) * | 2017-02-15 | 2020-07-10 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103810500A (zh) | 2014-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103810500B (zh) | 一种基于有监督学习概率主题模型的地点图像识别方法 | |
Kong et al. | Interactive phrases: Semantic descriptionsfor human interaction recognition | |
CN109002834B (zh) | 基于多模态表征的细粒度图像分类方法 | |
CN104217225B (zh) | 一种视觉目标检测与标注方法 | |
CN106682696B (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
CN112132014B (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN107506712A (zh) | 一种基于3d深度卷积网络的人类行为识别的方法 | |
CN111709310A (zh) | 一种基于深度学习的手势跟踪与识别方法 | |
CN112819065B (zh) | 基于多重聚类信息的无监督行人难样本挖掘方法和系统 | |
CN110163117B (zh) | 一种基于自激励判别性特征学习的行人重识别方法 | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN108427740B (zh) | 一种基于深度度量学习的图像情感分类与检索算法 | |
CN110110689A (zh) | 一种行人重识别方法 | |
CN112597324A (zh) | 一种基于相关滤波的图像哈希索引构建方法、系统及设备 | |
CN107330363B (zh) | 一种快速的互联网广告牌检测方法 | |
CN112183464A (zh) | 基于深度神经网络和图卷积网络的视频行人识别方法 | |
CN107220597A (zh) | 一种基于局部特征和词袋模型人体动作识别过程的关键帧选取方法 | |
CN111401122B (zh) | 一种基于知识分类的复杂目标渐近识别方法及装置 | |
Lu | Empirical approaches for human behavior analytics | |
CN106295548A (zh) | 一种目标跟踪方法及装置 | |
Chen et al. | PANet: Perspective-aware network with dynamic receptive fields and self-distilling supervision for crowd counting | |
CN113095235B (zh) | 一种基于弱监督判别机制的图像目标检测方法、系统及装置 | |
Said et al. | Wavelet networks for facial emotion recognition | |
CN107766814A (zh) | 一种基于Adaboost算法的视频中人群行为的识别方法 | |
Wang et al. | Self-trained video anomaly detection based on teacher-student model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170405 |