CN109492652A - 一种基于有序视觉特征单词库模型的相似图像判断方法 - Google Patents

一种基于有序视觉特征单词库模型的相似图像判断方法 Download PDF

Info

Publication number
CN109492652A
CN109492652A CN201811339391.4A CN201811339391A CN109492652A CN 109492652 A CN109492652 A CN 109492652A CN 201811339391 A CN201811339391 A CN 201811339391A CN 109492652 A CN109492652 A CN 109492652A
Authority
CN
China
Prior art keywords
feature
contrast images
target image
word
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811339391.4A
Other languages
English (en)
Other versions
CN109492652B (zh
Inventor
宋涛
王瑜琳
赵明富
钟年丙
罗彬彬
曹利波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Technology
Original Assignee
Chongqing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Technology filed Critical Chongqing University of Technology
Priority to CN201811339391.4A priority Critical patent/CN109492652B/zh
Publication of CN109492652A publication Critical patent/CN109492652A/zh
Application granted granted Critical
Publication of CN109492652B publication Critical patent/CN109492652B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/424Syntactic representation, e.g. by using alphabets or grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于有序视觉特征单词库模型的相似图像判断方法,包括如下步骤:获取对比图像集及目标图像,分别将目标图像及每个对比图像划分为多个子图像块;提取每个子图像块的局部特征;对对比图像的局部特征进行聚类,得到多个特征单词;对所有特征单词按相似性进行排序并编号得到有序特征单词库;构建目标图像与对比图像的特征谱;将目标图像特征谱与每个对比图像特征谱做差,基于目标图像与各对比图像的相似性残差获取与目标图像最相似的对比图像。本发明在对图像特征进行匹配时会考虑特征之间的相似程度,并且会考虑特征单词的顺序,与现有技术相比,可显著提高图像相似性识别的准确性。

Description

一种基于有序视觉特征单词库模型的相似图像判断方法
技术领域
本发明涉及SLAM回环检测方法,具体涉及一种基于有序视觉特征单词库模型的相似图像判断方法。
背景技术
同步定位和建图(simultaneous localization and mapping,SLAM)技术是近年来人工智能领域一项重要的研究方向,被广泛研究并应用于无人驾驶、无人机、扫地机器人、AR等领域。SLAM当前主流方向包括激光SLAM和视觉SLAM,其中激光SLAM技术相对成熟,但由于体积大、成本高等因素限制了其进一步的发展。由于图像信息量大、图像传感器成本低、体积小,基于图像的视觉SLAM逐步成为当前SLAM的研究热点。但同时由于图像采集、特征计算、特征匹配等各环节存在一定的误差,视觉SLAM随着地图的扩大,误差逐步累积,定位和建图精度逐渐下降。视觉SLAM中引入回环检测环节对误差进行校正,当前回环检测主要采用视觉特征单词库模型(BOVW,bag of visual words)检测地图中相似的地点,并以此作为约束进行误差校正。BOVW来源于应用于文本分类的特征单词库模型,该方法先通过离线建立图像特征的特征单词库,对目标图像,通过图像局部特征与特征单词库的比较,得到视觉特征单词序列,继而得通过统计到视觉特征单词的直方图,最后基于图像的视觉特征单词直方图相似性判断图像的相似性。
BOVW模型判断图像相似性的思想虽然有其合理性,但其弱点也很明显,具体表现在:(1)特征单词库中的特征单词处于独立无序状态,特征单词之间只有两种关系,即要么相同要么不同。如图像局部区域a的特征单词为特征单词1,图像局部区域b对应的特征单词为特征单词2,如果“特征单词1=特征单词2”,那么认为区域a和区域b相同,否则,认为区域a和区域b不同。而无法表达区域a和区域b是否相似。(2)BOVW模型基于特征单词序列直方图来表征图像整体特征,以此衡量图像相似性。直方图只是一种简单粗略的统计量,丢失了原图像特征单词序列大量信息,不能衡量图像特征空间分布特性,相同的直方图可对应不同内容,如特征单词向量“12234445”与特征单词向量“21354244”直方图完全一样,但实际是不同的内容。由于上述缺陷,BOVW模型判断图像相似性的判断精度较低。
因此如何提供一种新的相似图像判断方法,成为了本领域技术人员急需解决的问题。
发明内容
针对现有技术中存在的上述不足,本发明公开了一种基于有序视觉特征单词库模型的相似图像判断方法,在对图像特征进行匹配时会考虑特征之间的相似程度,并且会考虑特征单词的顺序,与现有技术相比,可显著提高图像相似性识别的准确性。
为解决上述技术问题,本发明采用了如下的技术方案:
一种基于有序视觉特征单词库模型的相似图像判断方法,包括如下步骤:
S1、获取对比图像集及目标图像,对比图像集内包含多个对比图像,分别将目标图像及每个对比图像划分为多个子图像块;
S2、提取每个子图像块的局部特征;
S3、对对比图像的局部特征进行聚类,得到多个特征单词;
S4、对所有特征单词按相似性进行排序并编号得到有序特征单词库,有序特征单词库内特征单词之间的序号越接近则说明特征单词之间越相似;
S5、将目标图像的局部特征与对比图像的局部特征进行特征匹配,找到目标图像的局部特征对应的特征单词,将目标图像的局部特征对应的特征单词按照目标图像的子图像块的空间顺序构建目标图像特征谱,将对比图像的局部特征对应的特征单词按照对比图像的子图像块的空间顺序构建对比图像特征谱;
S6、将目标图像特征谱与每个对比图像特征谱做差,获目标图像与各对比图像的相似性残差,基于目标图像与各对比图像的相似性残差获取与目标图像最相似的对比图像。
优选地,采用SIFT局部特征描述子从子图像块提取局部特征,采用K-mean均值聚类方法对局部特征进行聚类得到特征单词,步骤S4包括如下步骤:
将特征单词采用LLE流形学习算法降维至一维,得到一维特征单词;
将一维特征单词按照升序或降序排序;
将特征单词按照其对应的一维特征单词顺序进行排序并编号得到有序特征单词库。
优选地,S5中图像特征谱中谱值为特征单词的序号。
优选地,目标图像Ts与任意一张对比图像Trj的相似性残差为s(Ts,Trj),其中,PuTs为目标图像特征谱,为对比图像Trj的特征谱,||·||1表示求1-范数,设与目标图像Ts最相似的对比图像为t,j为对比图像的序号。
综上所述,本发明公开了一种基于有序视觉特征单词库模型的相似图像判断方法,包括如下步骤:S1、获取对比图像集及目标图像,对比图像集内包含多个对比图像,分别将目标图像及每个对比图像划分为多个子图像块;S2、提取每个子图像块的局部特征;S3、对对比图像的局部特征进行聚类,得到多个特征单词;S4、对所有特征单词按相似性进行排序并编号得到有序特征单词库,有序特征单词库内特征单词之间的序号越接近则说明特征单词之间越相似;S5、将目标图像的局部特征与对比图像的局部特征进行特征匹配,找到目标图像的局部特征对应的特征单词,将目标图像的局部特征对应的特征单词按照目标图像的子图像块的空间顺序构建目标图像特征谱,将对比图像的局部特征对应的特征单词按照对比图像的子图像块的空间顺序构建对比图像特征谱;S6、将目标图像特征谱与每个对比图像特征谱做差,获目标图像与各对比图像的相似性残差,基于目标图像与各对比图像的相似性残差获取与目标图像最相似的对比图像。本发明在对图像特征进行匹配时会考虑特征之间的相似程度,并且会考虑特征单词的顺序,与现有技术相比,可显著提高图像相似性识别的准确性。
附图说明
图1为本发明公开的一种基于有序视觉特征单词库模型的相似图像判断方法的流程图;
图2为本发明实施例中连续图像序列中的部分图像;
图3为本发明实施例中对比图像和目标图像构建方案;
图4为本发明实施例中基于有序特征单词库模型的图像特征谱图;
图5为本发明实施例中基于无序特征单词库模型的图像特征谱图;
图6为本发明实施例中基于无序特征单词库模型的特征谱残差图;
图7为本发明实施例中基于有序特征单词库模型的特征谱残差图;
图8至图11为本发明实施例中部分目标图像与所有对比图像的特征谱残差曲线图。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如图1所示,本发明公开了一种基于有序视觉特征单词库模型的相似图像判断方法,包括如下步骤:
S1、获取对比图像集及目标图像,对比图像集内包含多个对比图像,分别将目标图像及每个对比图像划分为多个子图像块;
预先设定子图像块的大小和间隔,对图像均匀网格划分。
S2、提取每个子图像块的局部特征;
S3、对对比图像的局部特征进行聚类,得到多个特征单词;
S4、对所有特征单词按相似性进行排序并编号得到有序特征单词库,有序特征单词库内特征单词之间的序号越接近则说明特征单词之间越相似;
S5、将目标图像的局部特征与对比图像的局部特征进行特征匹配,找到目标图像的局部特征对应的特征单词,将目标图像的局部特征对应的特征单词按照目标图像的子图像块的空间顺序构建目标图像特征谱,将对比图像的局部特征对应的特征单词按照对比图像的子图像块的空间顺序构建对比图像特征谱;
S6、将目标图像特征谱与每个对比图像特征谱做差,获目标图像与各对比图像的相似性残差,基于目标图像与各对比图像的相似性残差获取与目标图像最相似的对比图像。
以汽车的定位为例,为了实现同步定位,当汽车行驶在某一区域内时,获取到当前汽车的行车记录仪记录到的图像(即目标图像)后,需要将其与此区域的对比图像进行对比,找到最相似的对比图像,则对比图像所表示的位置即是汽车的当前位置。现有技术中,特征单词匹配时,只会判断目标图像与对比图像的特征单词是否一致,但实际定位的过程中,可能因为天气、光照或其他原因导致相同位置的图像会有一定的差异,若采用现有技术的方法,若汽车处于某对比图像的位置,但目标图像与对比图像存在少量差异,那么就无法实现定位。现有技术中,对于特征单词的位置或顺序都不会考虑,但实际上可能存在两幅图片实际不同但特征单词内容相同的情况,这种情况下,现有技术的方法就会出现误判。
本发明会充分考虑特征单词之间的相似性和特征单词的顺序,从而找出与目标图像最相似的对比图像,与现有技术相比,可以有效避免无法找出相似图像或找到错误的相似图像的问题。
具体实施时,采用SIFT局部特征描述子从子图像块提取局部特征,采用K-mean均值聚类方法对局部特征进行聚类得到特征单词,步骤S4包括如下步骤:
将特征单词采用LLE流形学习算法降维至一维,得到一维特征单词;
将一维特征单词按照升序或降序排序;
将特征单词按照其对应的一维特征单词顺序进行排序并编号得到有序特征单词库。
本发明可采用最为稳定的sift算子,假设第j个对比图像的所有子图像块的特征单词集合为:
Fj={f1,f2,…,fp}∈Rp×D
fm表示第m个子图像快的特征单词,此处的特征单词以向量形式存在,p表示对比图像提取的局部特征点数,此处特征点由图像均匀网格划分数确定,D表示局部特征维数(即特征单词向量的维数),对于sift特征,D=128。
设置有序特征单词库大小,即有序特征单词库中特征单词的个数,例如,可设置有序特征单词库大小为300,采用K-mean均值聚类方法对所有对比图像的sift特征进行聚类,生成原始的300个无序特征单词;无序特征单词库的生成可以表示为:
W=Kmeans([F1,F2,…,FnTr],C)={w1,w2,…wC}
Fj表示第j个对比图像的所有子图像块的特征单词集合,wl∈RD表示无序特征单词库中的任意一个特征单词,W∈RC×D表示整个无序特征单词库,C=300表示无序特征单词库的大小,即无序特征单词库中特征单词的个数。
对300个128维的无序特征单词降维至一维,获得有序特征单词库,使序号上接近的特征单词具有更相似的特征,能表示相近的子图像块,序号距离越远的特征单词,其特征差异越大,其对应的子图像块差异也越大;降维采用LLE流形学习算法,可表示为:
LLE(W,d,k)表示LLE降维运算,d表示目标维数,此处d=1,k表示邻域大小。表示高维特征单词wl降至一维的结果。
对向量U中的所有元素进行排序,表示为:
sl为排序后的编号,1≤sl≤C,升序降序均可。
对应的新的有序特征单词库为:
与现有技术相比,中的特征单词由无序变为了有序,相邻特征单词在空间分布上更靠近,对应的子图像块更具有相似性。
具体实施时,S5中图像特征谱中谱值为特征单词的序号。
具体实施时,目标图像Ts与任意一张对比图像Trj的相似性残差为s(Ts,Trj),其中,PuTs为目标图像特征谱,为对比图像Trj的特征谱,||·||1表示求1-范数,设与目标图像Ts最相似的对比图像为t,j为对比图像的序号。
以第j张对比图像为例,假设其sift特征描述集合为Fj={f1,f2,…,fp}∈Rp×D,其特征单词向量的维数为D={c1,c2,…,cp}∈Rp(这里的D和前面的D是否相同,即“局部特征单词分布”和),其中
dis(·)表示欧式距离,即计算sift描述向量与有序特征单词库中每个特征单词的距离,距离最近的特征单词的编号即为cn。特征谱为:
本发明公开的相似图像判断方法效果可通过如下仿真进一步说明:
仿真内容:
采用KITTI数据集中的彩色视觉里程图像(visual odometry color)序列中的高速公路场景图像(01/image_2),部分场景图像如图2所示,图像大小1241*376。实验中取该数据目录下前160帧图像作为样本,其中对比图像和目标图像各80帧,图像选取方式为依次间隔5帧选取,即1-5帧为对比图像,6-10帧为目标图像,11-15为对比图像,16-20为目标图像,依次类推。样本选取方式即对比图像和目标图像编号如图3所示。该图像序列是定速等时间间隔采样,理论上一定时间范围内采集时间越接近的图像帧相似性越强,即图像序号越接近的图像相似性越高。如果两帧图像采集时间间隔过大,二者之间已经没有重叠区域则无法用时间间隔来衡量相似性。各目标图像在对比图像中最相近的图像帧如图3箭头及公式所示,Si表示理论上与第i张目标图像最相似的对比图像编号。
采用词库模型对80帧对比图像进行sift特征提取并采用K-means进行聚类,词库大小设置为300,即聚类生成300个128维的特征单词向量。采用LLE进行降维,目标维数设置为1,邻域大小设置为30,对降维后的300个一维特征单词进行排序,并以此顺序作为300个高维无序特征单词的排序。将图像特征谱以谱图表示出来,有序特征单词库模型和无序特征单词库模型的特征谱图分别为称为有序特征谱图和无序特征谱图。基于有序特征单词库模型和无序特征单词库模型生成的部分样本特征谱图如图4和图5所示。
从图中可以看出,采用有序特征单词库模型获得的特征谱图区域分明,原图像相似的区域其特征谱值接近,对应的谱图也接近。而采用有序特征单词库模型获得的特征谱图则十分混乱,同样的道路区域或者树木区域,由于每个子图像块特征单词不尽相同,对应无序特征单词索引号显得随机,特征谱图没有规律,无法表达图像的相似区域。可见有序特征单词相对无序特征单词对图像具有更好的特征描述性能。
上述图像序列中,其中31-35,41-42帧为对比图像,36-40帧为目标图像。分别采用有序特征单词图模型和无序特征单词图模型对36/37/39/40帧目标图像图像与理论上最为相似的第35/41帧对比图像作特征谱的残差,结果如图6图7所示。图6为无序特征谱残差图,图7为有序特征谱残差图。从图6图7很明显可以看出,有序模型整体残差明显比无序模型小,分布更为稀疏。对于图像样本中的重叠区域,有序特征谱图的残差很小,而无序特征谱图的残差近似随机。将目标图像特征谱与所有对比图像特征谱作残差,计算残差量,绘制残差曲线图。其中部分目标图像与所有对比图像的特征谱残差曲线如图8至图11所示。从图8至图11曲线整体可以看出有序特征谱的残差量具有非常明显的波谷(与最相似图像的特征谱残差),由波谷向左右两侧一定范围内具有显著的单调特性,超出一定范围后残差量大小呈不确定性。这与预期非常一致,在一定时间范围内,目标图像与对比图像之间存在重叠区域,时间越接近的图像相似性较高,残差越小,时间差越大的图像相似性越低,残差越大。相比较而言,无序特征谱残差量曲线波谷特性不明显,两侧的单调性也不显著。部分目标图像残差曲线没有明显波谷。这表明无序模型无法用特征图谱残差量来很好地衡量图像之间的相似性。
上述仅是本发明优选的实施方式,需指出是,对于本领域技术人员在不脱离本技术方案的前提下,还可以作出若干变形和改进,上述变形和改进的技术方案应同样视为落入本发明要求保护的范围。

Claims (4)

1.一种基于有序视觉特征单词库模型的相似图像判断方法,其特征在于,包括如下步骤:
S1、获取对比图像集及目标图像,对比图像集内包含多个对比图像,分别将目标图像及每个对比图像划分为多个子图像块;
S2、提取每个子图像块的局部特征;
S3、对对比图像的局部特征进行聚类,得到多个特征单词;
S4、对所有特征单词按相似性进行排序并编号得到有序特征单词库,有序特征单词库内特征单词之间的序号越接近则说明特征单词之间越相似;
S5、将目标图像的局部特征与对比图像的局部特征进行特征匹配,找到目标图像的局部特征对应的特征单词,将目标图像的局部特征对应的特征单词按照目标图像的子图像块的空间顺序构建目标图像特征谱,将对比图像的局部特征对应的特征单词按照对比图像的子图像块的空间顺序构建对比图像特征谱;
S6、将目标图像特征谱与每个对比图像特征谱做差,获目标图像与各对比图像的相似性残差,基于目标图像与各对比图像的相似性残差获取与目标图像最相似的对比图像。
2.如权利要求1所述的基于有序视觉特征单词库模型的相似图像判断方法,其特征在于,采用SIFT局部特征描述子从子图像块提取局部特征,采用K-mean均值聚类方法对局部特征进行聚类得到特征单词,步骤S4包括如下步骤:
将特征单词采用LLE流形学习算法降维至一维,得到一维特征单词;
将一维特征单词按照升序或降序排序;
将特征单词按照其对应的一维特征单词顺序进行排序并编号得到有序特征单词库。
3.如权利要求1所述的基于有序视觉特征单词库模型的相似图像判断方法,其特征在于,S5中图像特征谱中谱值为特征单词的序号。
4.如权利要求1所述的基于有序视觉特征单词库模型的相似图像判断方法,其特征在于,目标图像Ts与任意一张对比图像Trj的相似性残差为s(Ts,Trj),其中,PuTs为目标图像特征谱,为对比图像Trj的特征谱,||·||1表示求1-范数,设与目标图像Ts最相似的对比图像为t,j为对比图像的序号。
CN201811339391.4A 2018-11-12 2018-11-12 一种基于有序视觉特征单词库模型的相似图像判断方法 Active CN109492652B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811339391.4A CN109492652B (zh) 2018-11-12 2018-11-12 一种基于有序视觉特征单词库模型的相似图像判断方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811339391.4A CN109492652B (zh) 2018-11-12 2018-11-12 一种基于有序视觉特征单词库模型的相似图像判断方法

Publications (2)

Publication Number Publication Date
CN109492652A true CN109492652A (zh) 2019-03-19
CN109492652B CN109492652B (zh) 2021-10-15

Family

ID=65695480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811339391.4A Active CN109492652B (zh) 2018-11-12 2018-11-12 一种基于有序视觉特征单词库模型的相似图像判断方法

Country Status (1)

Country Link
CN (1) CN109492652B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329798A (zh) * 2020-11-27 2021-02-05 重庆理工大学 一种基于优化视觉词袋模型的图像场景分类方法
CN113435479A (zh) * 2021-06-03 2021-09-24 湖北大学 基于区域特征表达约束的特征点匹配方法与系统
CN114549597A (zh) * 2021-12-24 2022-05-27 北京旷视科技有限公司 图像中目标对象的匹配方法、设备、存储介质及程序产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570467A (zh) * 2016-10-25 2017-04-19 南京南瑞集团公司 一种基于卷积神经网络的人员离岗检测方法
JP2017111553A (ja) * 2015-12-15 2017-06-22 ヤフー株式会社 画像認識装置及び画像認識装置の動作方法
CN107292851A (zh) * 2017-07-14 2017-10-24 重庆理工大学 一种基于伪3d变换的bm3d图像降噪方法
CN107704102A (zh) * 2017-10-09 2018-02-16 北京新美互通科技有限公司 一种文本输入方法及装置
US20180293904A1 (en) * 2016-11-09 2018-10-11 Hai Minh Dinh Education and recreation tool

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111553A (ja) * 2015-12-15 2017-06-22 ヤフー株式会社 画像認識装置及び画像認識装置の動作方法
CN106570467A (zh) * 2016-10-25 2017-04-19 南京南瑞集团公司 一种基于卷积神经网络的人员离岗检测方法
US20180293904A1 (en) * 2016-11-09 2018-10-11 Hai Minh Dinh Education and recreation tool
CN107292851A (zh) * 2017-07-14 2017-10-24 重庆理工大学 一种基于伪3d变换的bm3d图像降噪方法
CN107704102A (zh) * 2017-10-09 2018-02-16 北京新美互通科技有限公司 一种文本输入方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HONGXI WEI等: "REPRESENTING WORD IMAGE USING VISUAL WORD EMBEDDINGS AND RNN FOR KEYWORD SPOTTING ON HISTORICAL DOCUMENT IMAGES", 《PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》 *
赵永威: "基于词典优化与空间一致性度量的目标检索", 《计算机研究与发展》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329798A (zh) * 2020-11-27 2021-02-05 重庆理工大学 一种基于优化视觉词袋模型的图像场景分类方法
CN112329798B (zh) * 2020-11-27 2023-07-25 重庆理工大学 一种基于优化视觉词袋模型的图像场景分类方法
CN113435479A (zh) * 2021-06-03 2021-09-24 湖北大学 基于区域特征表达约束的特征点匹配方法与系统
CN114549597A (zh) * 2021-12-24 2022-05-27 北京旷视科技有限公司 图像中目标对象的匹配方法、设备、存储介质及程序产品

Also Published As

Publication number Publication date
CN109492652B (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
Masone et al. A survey on deep visual place recognition
Moranduzzo et al. Detecting cars in UAV images with a catalog-based approach
Chaudhuri et al. Multilabel remote sensing image retrieval using a semisupervised graph-theoretic method
CN107368807B (zh) 一种基于视觉词袋模型的监控视频车型分类方法
Gaidon et al. Activity representation with motion hierarchies
CN107506763B (zh) 一种基于卷积神经网络的多尺度车牌精准定位方法
Zhou et al. Robust vehicle detection in aerial images using bag-of-words and orientation aware scanning
Moranduzzo et al. Automatic car counting method for unmanned aerial vehicle images
Song et al. Road extraction using SVM and image segmentation
EP3274921B1 (en) Multi-layer skin detection and fused hand pose matching
US20150339516A1 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US7519197B2 (en) Object identification between non-overlapping cameras without direct feature matching
CN103003814A (zh) 使用大型数据库进行对象识别的系统及方法
CN109492652A (zh) 一种基于有序视觉特征单词库模型的相似图像判断方法
CN108198172B (zh) 图像显著性检测方法和装置
Chen et al. Clues from the beaten path: Location estimation with bursty sequences of tourist photos
CN104281572B (zh) 一种基于互信息的目标匹配方法及其系统
Fenzi et al. Class generative models based on feature regression for pose estimation of object categories
EP3410396B1 (en) Moving object tracking apparatus, moving object tracking method, and computer-readable medium
CN104584071A (zh) 物体识别装置、物体识别方法、以及程序
CN107085731A (zh) 一种基于rgb‑d融合特征与稀疏编码的图像分类方法
Dong et al. A novel loop closure detection method using line features
Lynen et al. Trajectory-based place-recognition for efficient large scale localization
CN106777350B (zh) 一种基于卡口数据的以图搜图方法和装置
Sahu et al. A support vector machine binary classification and image segmentation of remote sensing data of Chilika Lagloon

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant